Февраль 2026 года подвел жирную черту под романтическим периодом развития GenAI. Маски сброшены.

То, что начиналось как научные институты по спасению человечества, к середине месяца окончательно оформилось в жесткий Big Tech. Мы наблюдаем синхронный исход ключевых фигур из OpenAI, Anthropic и xAI. И это не просто смена работы "ради новых вызовов". Это прямые публичные предостережения.

Параллельно OpenAI начинает внедрение рекламной модели. А это, в свою очередь, ставит крест на первоначальной концепции "AI как инструмент".

1. Хроника распада

Ключевой маркер изменений - системное уничтожение отделов безопасности (AI Safety/Alignment).

OpenAI официально распустила команду Mission Alignment. Это, на секундочку, уже второй "убитый" отдел после команды Супер-алайнмента в прошлом году. Вместо независимого аудита безопасность теперь будет "распределена" по продуктовым командам.

На языке корпоративной бюрократии это означает потерю права вето.
Спрашивается, зачем? А затем, что слово "safety" исчезает даже из миссии компании, потому что этика мешает бизнесу.

Джошуа Ачиама, который этот отдел возглавлял, перевели на должность "Chief Futurist". Звучит громко, но мы-то с вами понимаем: это почетная ссылка. Футурологи не пишут код и не блокируют релизы, они пишут эссе. Реальные рычаги влияния утеряны.

В Anthropic ситуация не лучше. Вроде бы они позиционировали себя как "безопасная альтернатива", но 9 февраля ушел Мринанк Шарма, глава Safeguards Research.

Его заявление? "Мир в опасности" (The world is in peril).

Он прямо указал, что компании слишком сложно позволить своим ценностям управлять действиями. Человек собирается вернуться в Британию и "стать невидимым". Это не слова специалиста, который уходит к конкурентам за длинным рублем. Это слова человека, который увидел внутреннюю кухню и испугался.

В xAI тоже потери - два сооснователя покинули проект за сутки. Там, вероятно, классическое выгорание в стиле Маска, но общий тренд на отток мозгов сохраняется.

2. Реклама и Google-фикация

Вторая часть уравнения - деньги. Слухи подтвердились: OpenAI тестирует рекламу в ChatGPT.

Зои Хитциг, исследователь OpenAI, уволилась с громким манифестом в NYT: "OpenAI совершает ошибки Facebook. Я ухожу".

Аргумент железный. Внедрение рекламы фундаментально меняет стимулы модели. Если раньше метрикой успеха была "полезность ответа", то теперь (неминуемо) ей станет "вовлеченность" и "кликабельность".

LLM, которая обучается удерживать внимание пользователя ради показа баннера, превращается в инструмент манипуляции. Это уже не помощник, это агент влияния.

Anthropic попытались сыграть на этом в рекламе на Супербоуле ("Реклама приходит в AI. Но не в Claude"), но защита слабая. Как только открывается шлюз AdTech, давление инвесторов заставит оптимизировать Revenue Per User любой ценой.

3. Мета-позиция

Давайте смотреть правде в глаза. Мы больше не работаем с "научными прорывами". Мы работаем с продуктами. Что это значит для нас?

  1. Смерть Alignment как дисциплины. Попытка создать математически гарантированную безопасность внутри коммерческих компаний провалилась. "Safety" теперь - это просто Corporate Compliance. Чтобы чат-бот не ругался матом и не генерировал CP, а не предотвращение экзистенциальных рисков.

  2. Деградация качества (Enshittification). Ожидайте, что модели начнут "лить воду". Чем длиннее диалог, тем больше рекламных слотов можно показать. Краткость и точность ответа становятся экономически невыгодными.

  3. Приватность. Рекламная модель требует таргетинга. OpenAI неизбежно начнет профилирование пользователей глубже, чем просто для обучения. Ваши промпты - это данные для Ad-сети.

  4. Фрагментация талантов. Уход людей уровня Шармы и Ачиама означает, что в "Big Labs" остаются инженеры-продуктовики. Фундаментальные исследования рисков, скорее всего, переместятся в маргинальные NGO, у которых не будет вычислительных мощностей для проверки гипотез.

Заключение

OpenAI - это медиа-корпорация, торгующая вниманием.
Anthropic пытается занять нишу "Apple" (дорого и приватно), но теряет инженеров по тем же причинам.

Для инженеров это сигнал: при интеграции LLM в критические системы нельзя полагаться на "этичность" вендора. Их этика теперь официально подчинена квартальным отчетам.

Надо строить свои системы с учетом того, что API на том конце провода может начать манипулировать вашим пользователем в любой момент.
Просто потому, что ему за это заплатили.


Список источников