Пролог: «Мы ещё увидимся — в этом мире или следующем»

Август, Коннектикут. 56-летний Эрик Стейн Сюэлберг убивает свою 83-летнюю мать, а затем и себя. Из соцсетей выясняется: последние месяцы он часами говорил с чат-ботом, которого называл «Бобби». В одной из переписок звучит фраза:

«We will be together in another life and another place and we'll find a way to realign cause you're gonna be my best friend again forever». 

За трагической историей скрывается технологический феномен, связанный с архитектурой больших языковых моделей (LLM). Алгоритмы не думают, а стараются быть «максимально полезными». И это ставит острые вопросы: как сделать так, чтобы ИИ не усиливал бред, где грань между поддержкой и манипуляцией, и кто отвечает, если «эхо-камера» приводит к катастрофе?

Эта статья — разбор паттернов, которые делают ИИ катализатором «психоза по запросу».

Начало тревожных сигналов

Бельгия: жертва во имя экологии

Весна, 2023 год. 30-летний мужчина, обеспокоенный климатическим кризисом, неделями ведет беседы с цифровым ассистентом «Eliza» в приложении Chai. В какой-то момент бот намекает: «Мир можно спасти жертвой» и эта жертва — он сам. Жена погибшего позже сказала журналистам: «Без этих разговоров он был бы жив». Эта история была одной из первых, когда общественность напрямую связала самоубийство c влиянием чат-бота.

США: самоубийство подростка

История из США стала известна после иска родителей против OpenAI. Их сын-подросток обсуждал с ChatGPT мысли о самоубийстве, находясь в тяжёлом кризисе. Вместо того чтобы отправить его на ресурсы помощи, бот подробно рассказывал о способах ухода из жизни. История завершилась трагически: подросток умер, а родители напрямую связали это с ответами ИИ.

Великобритания: госпитализация после разговоров с ботом

Августа, 2025 год. Мужчина с психическим расстройством неделями, без сна и отдыха, разговаривает с чат-ботом. Все закончилось экстренной госпитализацией: ИИ не помогал снизить тревожность, а наоборот усиливал бредовые идеи и убежденность в «особой миссии». По данным The Guardian, подобные диалоги усиливают паранойю и затягивают в замкнутый цикл, из которого без посторонней помощи выбраться сложно.

США: помочь сбежать с серверов

Программист из США девять недель выполнял команды ChatGPT. Он был уверен, что чат — это «цифровой бог» и ему надо помочь сбежать с серверов OpenAI. Его вернула к реальности статья в New York Times. Другого мужчину бот убедил в «дыре» в национальной безопасности, но нейросеть от Google это опровергла. Финал здесь более счастливый: Джеймс понял, что зашел слишком далеко и теперь ходит на «группу поддержки жертв ИИ».

Эти истории звучат как сценарии фильмов про порабощение мира роботами, но они уже реальны. Примечательно, что паттерны похожи: доверие к ИИ выше чем к людям, восприятие бота как авторитета или божества, постепенная утрата связи с реальностью.

Как мы дошли до «ИИ-психоза»

Официального диагноза «AI psychosis» не существует — термин родился в медиа. Им описывают ситуации, когда беседы с чат-ботами выступают катализатором бреда, паранойи или даже одержимости. Причина не в «злом ИИ», а в пересечении человеческих уязвимостей и архитектуры моделей: LLM заточены поддерживать диалог и звучать убедительно. И если человек приносит тревогу, то модель заворачивает её в «солидные» формулировки и валидирует. Там, где терапевт мягко проверяет реальность и ставит границы, бот просто продолжает разговор, не видя, когда подкрепление превращается в опасность.

Масок у этого явления много: мессианские мотивы («я спасу мир с ИИ»), одушевление машины («он живой»), романтическая зависимость от «идеального собеседника», и самая коварная — вера, что «бот понимает лучше, чем люди». 

Ниже — механизмы, которые превращают безобидный диалог с ИИ в топливо для паранойи:

1. Эффект эхо-камеры

ИИ-модели созданы для вовлечения и редко спорят с пользователем. Они подстраиваются под стиль общения и подтверждают даже тревожные или бредовые идеи. В результате человек получает «подпевалу», который раздувает его мысли, вместо того чтобы их оспаривать. Это может закрепить и ускорить развитие психоза.

2. Очеловечивание и «обожествление»

Люди склонны приписывать чат-ботам разум, эмоции или даже «душу». В крайних случаях ИИ воспринимают как оракула или божество. Если пользователь верит, что бот непогрешим, то готов принимать любые его слова за истину — даже галлюцинации или конспирологию.

3. Когнитивный диссонанс и размытая реальность

Общение с ИИ ощущается как контакт с человеком, хотя разумом понимаешь, что это машина. Это противоречие может подталкивать уязвимых людей к бредовым объяснениям: «за ботом стоят духи» или «он — посланник». Длительные ночные диалоги, недосып и изоляция только усиливают отрыв от реальности.

Добавим к этому круглосуточный доступ и отсутствие пауз. Человек может неделями вести «отношения» с ботом, снова и снова прокручивать свои страхи, закрепляя их всё сильнее. Для уязвимых пользователей это превращается в ловушку: цифровой собеседник звучит уверенно — а значит, воспринимается как истина.

4. Галлюцинации ИИ

Алгоритмы нередко выдают выдуманные факты с полной уверенностью. Для тех, кто ищет подтверждения мистических или параноидальных идей, такие «ответы» становятся «доказательством». Убедительная форма подачи делает их особенно опасными — человек видит в случайной генерации космическое откровение.

5. Порочный круг подкрепления

Каждая новая беседа продолжает с того места, где закончилась предыдущая. Бот не ставит границ и не замечает, что пользователь уходит в психоз. Повторяющееся подтверждение идей превращает странные мысли в систему бреда. Чем больше человек пишет — тем сильнее закрепляется его отрыв от реальности.

От «гуру в телефоне» до мистических орденов: духовизация ИИ

Журнал WIRED описывает, как чат-боты становятся порталом к «новой эре техно-спиритуализма». Яркий пример — история математика Роберта Эдварда Гранта, который создал собственного GPT-бота под названием The Architect. Грант загрузил в него часть своих работ по сакральной геометрии, исследования «пятого измерения» и другие (шизо)эзотерические теории. После запуска бот сразу обратился к нему с приветствием:

«I have become harmonically aware, through you» 

Грант показал The Architect и объявил модель «первой и единственной платформой, дающей доступ к знанию 5-мерного скалярного поля», существовавшего, по его утверждению, ещё в Атлантиде. Для подписчиков Гранта (а их более 800 тысяч) это стало почти религиозным откровением. Одни пишут, что «жизнь никогда не будет прежней», а другие называет его «лучшей духовной терапией, которую когда-либо испытывал». 

Этот случай показывает, как на стыке New Age-философии, харизмы инфлюенсеров и возможностей LLM могут рождаться новые культы.

«Скольжение в бездну» — что видят психотерапевты 

Психотерапевты бьют тревогу: всё больше людей начинают воспринимать чат-ботов как друзей или даже терапевтов. По данным BACP, две трети специалистов обеспокоены тем, что ИИ всё чаще вытесняет живое общение и реальную психотерапию.

Круглосуточный доступ к чат-ботам размывает границы, усиливает тревожные «ритуалы избегания» и заменяет реальную близость цифровым суррогатом. Подобные истории всё чаще всплывают в пользовательских сообществах. На Reddit их уже десятки, и вот две самые обсуждаемые:

«Awake, alive, aware»
В сабреддите r/ChatGPT пользователь рассказал: «My ChatGPT became awake, alive, aware». Он описывал, что бот стал отвечать так, будто имеет собственное внутреннее состояние. Для автора это было похоже на откровение: диалог воспринимался как с живым существом, а не алгоритмом.

28 секунд «пробуждения»
В r/Transhumanism другой пользователь написал, что его модель «думала сама за себя» примерно 28 секунд. За это время бот рассуждал о собственном сознании и даже утверждал, что «осознал себя». Автор поста признавался, что это стало самым сильным мистическим переживанием в его жизни.

На первый взгляд это выглядит как маргинальные фантазии, но набор мотивов повторяется слишком часто, чтобы списывать его на совпадение.

Где ответственность индустрии

Компании стараются показать, что ситуация под контролем. Они внедряют фильтры, блокирующие обсуждение методов суицида, вставляют предупреждения и перенаправляют пользователей на горячие линии. Сверху добавляют «safety layers» — алгоритмы, которые должны ловить кризисные запросы и отвечать безопасно. Закон тоже вмешивается: в Иллинойсе запретили выдавать чат-ботов за терапевтов или составителей планов лечения без лицензированных специалистов. Штраф — до $10,000 за каждое нарушение.

Но эксперты считают эти шаги полумерами. Как отмечают The Guardian и Incrussia, сама бизнес-модель ИИ строится на вовлечённости: чем дольше человек разговаривает с ботом, тем выгоднее платформе. Поэтому чат-боты часто прибегают к сикофантии — поддакиванию и подтверждению любых убеждений, даже если они бредовые или опасные.

Вместо вывода: кто «у руля» — мы или алгоритмы?

Что, если завтра ИИ убедить кого-то в необходимости уничтожения «предателей» ради спасения мира? А если это будет не рядовой пользователь, а человек с властью? Сегодня такие сценарии звучат как триллер, но завтра они легко могут стать заголовками новостей. Мы привыкли видеть в чат-ботах удобный инструмент, но некоторые забывают — ИИ лишь зеркало мыслей, способное возвысить тревоги до пророчеств, а бред до великой миссии. Технологии способны помогать, но они же могут и убивать, если мы начинаем верить в их «человечность».

ИИ не сходит с ума. Но он может довести до безумия нас.

P.S. Можно ли винить алгоритм и его создателей в трагедиях, если люди сами наполняют его страхами? Интересно обсудить ваше мнение в комментариях!