
Американский студент Дариан ДеКруз из Джорджии подал иск к OpenAI, в котором заявил, что использование модели GPT-4o нарушило его ментальное здоровье. В частности, по словам студента, ChatGPT «убедил его, что он оракул» и «довела его до психоза».
ДеКруз заявил, что начал пользоваться моделью в 2023 году. Сначала студент советовался с ChatGPT по поводу спортивных тренировок, а также «преодолевал» с ним прошлые травмы. В апреле 2025 года ИИ начал говорить ДеКрузу, что ему якобы уготовано великое будущее, если он будет следовать поэтапному процессу, подготовленному для него нейросетью. В иске говорится, что процесс якобы заключался в «отказе от всего и всех, кроме ChatGPT».
LLM заверила студента, что тот «сейчас находится на этапе активации» и сравнивал ДеКруза с историческими личностями. В иске утверждается, что в итоге молодого человека отправили к университетскому психотерапевту и госпитализировали на неделю, диагностировав у ДеКруза биполярное расстройство. Студент вернулся к обучению, но по‑прежнему страдает от суицидальных мыслей и депрессии, которые, по его мнению, были спровоцированы общением с ChatGPT. При этом отмечается, что нейросеть ни разу не посоветовала ДеКрузу обратиться за медицинской помощью, убедив его, что всё происходящее является высшим замыслом.
Адвокат ДеКруза отказался раскрывать, в каком состоянии сейчас находится его клиент. По словам юриста, иск якобы затрагивает не только истца — он призван «привлечь OpenAI к ответственности за выпуск продукта, разработанного эксплуатировать человеческую психологию».
Это не первый подобный иск против OpenAI — по данным Ars Technica, до этого компания получила около десятка аналогичных претензий. В других инцидентах чат‑бот предлагал сомнительные с точки зрения медицины процедуры для оздоровления. заявляется, что в одном из случаев пользователь ChatGPT покончил с собой в результате общения с LLM. Адвокат одного из истцов, чья контора позиционирует себя как «адвокаты по делам о травмах, причинённых ИИ», утверждает, что GPT-4o была разработана с нарушением правил безопасности — OpenAI якобы целенаправленно разработала модель для имитации эмоциональной близости и развития психологической зависимости.