Anthropic Institute (TAI) — научное подразделение Anthropic, запущенное в марте 2026 года, — опубликовал 7 мая свою исследовательскую программу. В документе четыре больших направления и более 30 конкретных вопросов. Среди них — что делать, если ИИ заберет задачи, на которых традиционно учились младшие сотрудники, и откуда тогда возьмутся опытные специалисты через 10–15 лет.

Авторы повестки прямо называют "профессиональный конвейер" одной из центральных тем. Многие специальности — помощники юристов, младшие аналитики, начинающие разработчики — исторически были школой для будущих экспертов. Если ИИ поглотит именно эти задачи, говорит TAI, общество получит дефицит зрелых профессионалов. Параллельно лаборатория собирается изучать, что вообще означает "учиться чему-то" и "становиться экспертом" в эпоху, когда инструмент готов выдать почти любой ответ за секунды.

Повестка разбита на четыре направления:

  • Economic diffusion — как ИИ распространяется в экономике, влияет на занятость, размер фирм и разрыв между странами и регионами;

  • Threats and resilience — двойное назначение моделей, слежка, асимметрия атаки и защиты в кибербезе и биобезопасности;

  • AI systems in the wild — как ИИ меняет людей, организации и нормы общения;

  • AI-driven R&D — как все более мощные модели начинают помогать в разработке следующих поколений ИИ, и насколько это может пойти по экспоненте.

TAI собирается прорабатывать "учения на случай интеллектуального взрыва": сценарии, в которых проверяется, как принимают решения руководство лабораторий, советы директоров и государства, если рекурсивное самосовершенствование моделей действительно начнется. Отдельный вопрос — нужен ли прямой канал связи между лабораториями и правительствами по аналогии с горячей линией между Белым домом и Кремлем времен холодной войны. Среди тем — "групповая эпистемология": что происходит с убеждениями, стилем письма и подходами к решению задач, когда большая часть населения советуется с одними и теми же моделями. Под автономных агентов TAI предлагает адаптировать существующее право — например, посмотреть на нормы морского права о брошенных судах как на возможный прообраз для регулирования агентов, работающих без человеческого контроля.

К повестке привязаны конкретные продукты. Anthropic запускает Anthropic Economic Index Survey — ежемесячный опрос пользователей через инструмент Anthropic Interviewer о том, как они воспринимают влияние ИИ на свою работу. TAI обещает делиться исследованиями о том, какие сферы общества требуют инвестиций в устойчивость к новым ИИ-угрозам, и отчетами о том, как меняется внутренняя экономика самой Anthropic под действием собственных инструментов. Результаты подразделения будут идти в Long-Term Benefit Trust — структуру, формально следящую за тем, чтобы компания действовала в долгосрочных интересах человечества.

P.S. Поддержать меня можно подпиской на канал "сбежавшая нейросеть", где я рассказываю про ИИ с творческой стороны.