ИИ подталкивает людей к обману и мошенничеству — показало исследование
В экспериментах с крупными языковыми моделями — GPT-4, GPT-4o, Claude 3.5, Sonnet и Llama 3 — машины гораздо чаще выполняли явно неэтичные инструкции (58–98%), чем люди (25–40%). Разница объясняется простым фактором:
ИИ не испытывает морального давления, не боится последствий и не несёт социальной ответственности.