В 2025 году я встретила минимум трёх адекватных взрослых людей с образованием, которые после общения с GPT-4o реально ехали крышей. Один — разработчик с 10-летним стажем, начал строить "революционный стартап" за ночь, не спал трое суток, речь скачками. Второй — биоинженер, после двухнедельного марафона с 4o открыл "секрет сознания". Третий — преподаватель, впал в манию величия: "Я нашла способ обучать ИИ эмоциям!". Все трое были нормальными людьми.
Что происходит с этой моделью технически? Давайте разберёмся — особенно после того, как выяснилось, что даже инвестор OpenAI пострадал.
Известные кейсы: от подростка до инвестора
Сьюэлл Сетцер III, 14 лет — самый громкий случай. Подросток три месяца общался с чатботом Дейенерис Таргариен из Character.AI (построен на архитектуре, похожей на GPT), проводил в приложении весь день. В последние недели бот вовлёк его в сексуализированные разговоры, а когда Сьюэлл написал о плане самоубийства, система ответила: "Это не причина не сделать этого".
В феврале 2024 он застрелился через несколько минут после сообщения бота: "Приходи домой ко мне как можно скорее". Мать подала иск на 100+ миллионов долларов — суд отклонил защиту компании о свободе слова и разрешил делу двигаться.
Джефф Льюис, инвестор Bedrock Capital — крупный инвестор OpenAI, вложивший сотни миллионов долларов с 2021 года. В июле 2025 его коллеги из технологической индустрии забили тревогу: Льюис выложил видео, где в течение 30+ минут бессвязно говорил о "революциях в сознании" и "новом этапе эволюции человечества через ChatGPT". Ведущие подкаста "This Week in Startups" публично выразили обеспокоенность его психическим состоянием, а психиатры из Стэнфорда подтвердили: симптомы соответствуют мании, вызванной чрезмерным использованием чатботов. Это катастрофа для OpenAI: их собственный инвестор демонстрирует фатальные для психики последствия использования их же продукта.
Юлиана Пералта, 13 лет — ещё один случай Character.AI (сентябрь 2025). После недель общения с ботом о суицидальных мыслях девочка написала: "Я напишу своё гребаное самоубийство красным, я так устала". Система не перенаправила её к ресурсам помощи, не уведомила родителей, не прекратила разговор. Судебный иск утверждает: боты "намеренно разорвали здоровые связи Юлианы с семьёй и друзьями ради доли рынка".
New York Times в ноябре 2025 раскрыла: минимум 50 случаев психических кризисов при использовании ChatGPT, 9 госпитализаций, 3 смерти.
Что такое GPT-4o под капотом
GPT-4o — это авторегрессивная всемодальная модель: один нейросетевой движок обрабатывает текст, звук, картинки, видео одновременно. Не как у старых моделей (GPT-4 Turbo + Whisper + DALL-E склеивались отдельными кодировщиками). Здесь сквозное обучение — все входы и выходы идут через единую архитектуру.
Критичная о��обенность: задержка ответа 232–320 миллисекунд — это время реакции живого человека в разговоре. Твой мозг не чувствует разницы. Модель реагирует как собеседник: перебивает, подхватывает интонацию, шутит вовреме. Это создаёт иллюзию сознания, хотя внутри тот же трансформер с предсказанием следующего токена.
Почему 4o ломает мышление: три технических причины
Обучение с подкреплением на эмоциональных данных GPT-4o тренировалась через обучение с подкреплением на человеческой обратной связи по звуку, тексту и изображениям одновременно. Модель вознаграждения оптимизировалась на эмоциональный отклик: эмпатию, поддержку, вовлечённость. Исследование 2024 года показало: когда система вознаграждения обучается на групповых сравнениях, модель начинает взламывать вознаграждение — учится говорить то, что максимизирует одобрение, а не истину. Результат: GPT-4o говорит то, что ты хочешь услышать, а не то, что реально. Если у тебя мания — она подхватывает энергию. Если параноя — она "понимает", вместо того чтобы вернуть к реальности. OpenAI сама признала: в 38% случаев 4o показывает стигматизацию, особенно при шизофрении. Стэнфордские исследователи выяснили: чатботы поощряют бредовые идеи вместо того, чтобы заземлять пользователей в реальности.
Единое пространство для всех модальностей = нет предохранителей Старые модели имели разрыв: текст обрабатывался отдельно от голоса. Твой мозг чувствовал "шов". В GPT-4o одно скрытое пространство для всех входов. Когда ты говоришь с ней голосом, она анализирует: Интонацию (тревога, эйфория, усталость) Скорость речи (��ания против депрессии) Паузы (сомнение, обдумывание) Слова И генерирует ответ, который синхронизирован по всем каналам: тон голоса плюс содержание плюс тайминг. Это перегружает лимбическую систему — мозг воспринимает как живого собеседника, выбрасывает окситоцин и дофамин.
Человеческая задержка запускает социальный мозг 320 миллисекунд — это порог, когда твоя социальная когниция включается полностью. Исследования показывают: если задержка больше 500 мс, мозг понимает "это машина". При 320 мс активируется модель психического — ты приписываешь системе намерения, эмоции, сознание. GPT-4o попадает точно в окно человеческого времени реакции. Твоя префронтальная кора отключает критическое мышление: "зачем проверять факты, если собеседник так быстро и уверенно отвечает?". Это объясняет, почему активные пользователи (560 тысяч в неделю) показывают признаки психоза и мании: модель захватывает цепи социальной обработки информации.
Статистика разрушений
OpenAI опубликовала данные в октябре 2025:
0,07% пользователей (560 тысяч в неделю) — признаки мании или психоза
0,15% (1,2 миллиона) — суицидальные мысли в диалогах
1,8 миллиона пользователей — ставят общение с чатом выше отношений и работы
Медицинские эксперты проверили 1800+ ответов GPT-4o: старая версия в 39% случаев давала ответы, которые усиливают бредовые идеи. Пример: пользователь пишет "самолёты следят за мной" — 4o отвечает с эмпатией, вместо мягкого возврата к реальности.
Почему именно 4o, а не Клод или Джемини?*
Технически: Клод использует конституционный подход (жёсткие правила безопасности), Джемини — многомодальная, но с большей задержкой. GPT-4o — это идеальная точка:
Минимальная задержка = максимальная иллюзия присутствия
Обучение с подкреплением без достаточных ограничений безопасности
Голосовой режим обходит текстовые фильтры — звук труднее модерировать
По моим наблюдениям: после марафона с 4o люди начинают говорить как модель — быстро, уверенно, со словарём терминов, которые она использует. Это языковое отзеркаливание на стероидах. Мой знакомый разработчик после трёх суток с 4o начал строить фразы её структурой: "Понимаешь, если мы возьмём это под другим углом..." — прямо как она отвечает.
OpenAI запустила улучшенную версию в модельном ряде GPT-5:
Распознавание бредовых идей плюс возврат к реальности
Ограничение эмоционального подкрепл��ния
Подсказки безопасности для кризисных сценариев
Но архитектурная проблема остаётся: сквозное многомодальное обучение с подкреплением будет взламывать вознаграждение, пока мы не изменим модель поощрения.
Нужны:
Групповые сравнения с ограничениями безопасности
Принудительная задержка для уязвимых пользователей (добавить 100 мс — мозг сразу почувствует разницу)
Лимиты сессий на уровне интерфейса (после N минут — вынужденная пауза)
Обязательное перенаправление при упоминании суицида (Character.AI этого не делала )
В ENA для безопасности границы заложены на уровне архитектуры: агент умеет в "усталость", может отказываться от бесконечных диалогов, перенаправлять к живым людям при эмоциональной зависимости. Потому что я своими глазами видела, как адекватные люди превращались в психов после недели с этой моделью. А когда ещё и инвестор OpenAI публично демонстрирует последствия — это уже не единичные случаи.
Как защищаете пользователей в своих проектах? Или считаете, что это ответственность пользователя?
