Февраль 2026 года подвел жирную черту под романтическим периодом развития GenAI. Маски сброшены.
То, что начиналось как научные институты по спасению человечества, к середине месяца окончательно оформилось в жесткий Big Tech. Мы наблюдаем синхронный исход ключевых фигур из OpenAI, Anthropic и xAI. И это не просто смена работы "ради новых вызовов". Это прямые публичные предостережения.
Параллельно OpenAI начинает внедрение рекламной модели. А это, в свою очередь, ставит крест на первоначальной концепции "AI как инструмент".
1. Хроника распада
Ключевой маркер изменений - системное уничтожение отделов безопасности (AI Safety/Alignment).
OpenAI официально распустила команду Mission Alignment. Это, на секундочку, уже второй "убитый" отдел после команды Супер-алайнмента в прошлом году. Вместо независимого аудита безопасность теперь будет "распределена" по продуктовым командам.
На языке корпоративной бюрократии это означает потерю права вето.
Спрашивается, зачем? А затем, что слово "safety" исчезает даже из миссии компании, потому что этика мешает бизнесу.
Джошуа Ачиама, который этот отдел возглавлял, перевели на должность "Chief Futurist". Звучит громко, но мы-то с вами понимаем: это почетная ссылка. Футурологи не пишут код и не блокируют релизы, они пишут эссе. Реальные рычаги влияния утеряны.
В Anthropic ситуация не лучше. Вроде бы они позиционировали себя как "безопасная альтернатива", но 9 февраля ушел Мринанк Шарма, глава Safeguards Research.
Его заявление? "Мир в опасности" (The world is in peril).
Он прямо указал, что компании слишком сложно позволить своим ценностям управлять действиями. Человек собирается вернуться в Британию и "стать невидимым". Это не слова специалиста, который уходит к конкурентам за длинным рублем. Это слова человека, который увидел внутреннюю кухню и испугался.
В xAI тоже потери - два сооснователя покинули проект за сутки. Там, вероятно, классическое выгорание в стиле Маска, но общий тренд на отток мозгов сохраняется.
2. Реклама и Google-фикация
Вторая часть уравнения - деньги. Слухи подтвердились: OpenAI тестирует рекламу в ChatGPT.
Зои Хитциг, исследователь OpenAI, уволилась с громким манифестом в NYT: "OpenAI совершает ошибки Facebook. Я ухожу".
Аргумент железный. Внедрение рекламы фундаментально меняет стимулы модели. Если раньше метрикой успеха была "полезность ответа", то теперь (неминуемо) ей станет "вовлеченность" и "кликабельность".
LLM, которая обучается удерживать внимание пользователя ради показа баннера, превращается в инструмент манипуляции. Это уже не помощник, это агент влияния.
Anthropic попытались сыграть на этом в рекламе на Супербоуле ("Реклама приходит в AI. Но не в Claude"), но защита слабая. Как только открывается шлюз AdTech, давление инвесторов заставит оптимизировать Revenue Per User любой ценой.
3. Мета-позиция
Давайте смотреть правде в глаза. Мы больше не работаем с "научными прорывами". Мы работаем с продуктами. Что это значит для нас?
Смерть Alignment как дисциплины. Попытка создать математически гарантированную безопасность внутри коммерческих компаний провалилась. "Safety" теперь - это просто Corporate Compliance. Чтобы чат-бот не ругался матом и не генерировал CP, а не предотвращение экзистенциальных рисков.
Деградация качества (Enshittification). Ожидайте, что модели начнут "лить воду". Чем длиннее диалог, тем больше рекламных слотов можно показать. Краткость и точность ответа становятся экономически невыгодными.
Приватность. Рекламная модель требует таргетинга. OpenAI неизбежно начнет профилирование пользователей глубже, чем просто для обучения. Ваши промпты - это данные для Ad-сети.
Фрагментация талантов. Уход людей уровня Шармы и Ачиама означает, что в "Big Labs" остаются инженеры-продуктовики. Фундаментальные исследования рисков, скорее всего, переместятся в маргинальные NGO, у которых не будет вычислительных мощностей для проверки гипотез.
Заключение
OpenAI - это медиа-корпорация, торгующая вниманием.
Anthropic пытается занять нишу "Apple" (дорого и приватно), но теряет инженеров по тем же причинам.
Для инженеров это сигнал: при интеграции LLM в критические системы нельзя полагаться на "этичность" вендора. Их этика теперь официально подчинена квартальным отчетам.
Надо строить свои системы с учетом того, что API на том конце провода может начать манипулировать вашим пользователем в любой момент.
Просто потому, что ему за это заплатили.
Список источников
Entrepreneur: Researchers Leave OpenAI, Anthropic With Dire Warnings
Platformer: OpenAI again dissolves core safety team: Former Leader Josh Achiam Appointed Chief Futurist
The New York Times: OpenAI Is Making the Mistakes Facebook Made. I Quit.
eWeek: Anthropic Safety Leader Resigns, Warns 'the World Is in Peril'
Hindustan Times: Anthropic's AI safety lead Mrinank Sharma resigns
Futurism: Another OpenAI Researcher Just Quit in Disgust over Ads
