Главный ученый OpenAI Якуб Пахоцки в эксклюзивном интервью MIT Technology Review рассказал, что компания перефокусирует все исследовательские ресурсы на создание полностью автоматизированного ИИ-исследователя — мультиагентной системы, способной самостоятельно решать крупные научные задачи. Этот проект станет главным ориентиром OpenAI на ближайшие годы и объединит работу над рассуждающими моделями, агентами и интерпретируемостью.

План разбит на два этапа. К сентябрю 2026 года компания намерена создать "автономного ИИ-стажера" — систему, которой можно делегировать задачи, на выполнение которых у человека уходило бы несколько дней. К 2028-му на его основе должен появиться полноценный ИИ-ученый, способный вести масштабные исследовательские проекты без участия человека. "Мы близки к моменту, когда модели смогут работать неограниченно долго и без внешнего вмешательства — так же, как люди", — заявил Пахоцки.

Прототипом будущего ИИ-исследователя Пахоцки называет Codex — агентный инструмент OpenAI для работы с кодом. По его словам, большинство технических сотрудников компании уже используют его в повседневной работе, а сам Пахоцки признался, что еще год назад не пользовался даже автодополнением кода, предпочитая набирать всё вручную в vim, — но возможности новых моделей его переубедили. "Я могу за выходные запустить эксперименты, на которые раньше тратил бы неделю на код", — пояснил он. Ключевая задача теперь — научить такие системы работать дольше и с меньшим участием человека, а затем перенести этот подход из программирования в науку в целом.

Впрочем, не все разделяют оптимизм OpenAI. Даг Дауни, исследователь из Allen Institute for AI, отметил, что при последовательном решении задач вероятность ошибок накапливается — и построить надежную автономную систему может оказаться сложнее, чем представляет Пахоцки. Сам же Пахоцки признает, что полностью автономный ИИ-исследователь несёт серьезные риски: система может выйти из-под контроля, быть взломана или неверно интерпретировать инструкции. Основная ставка в безопасности — мониторинг цепочки рассуждений (chain-of-thought monitoring), при котором другие модели отслеживают ход мысли агента в реальном времени. "Пока вы не можете по-настоящему доверять системам, нужны ограничения", — подчеркнул Пахоцки, добавив, что мощные модели стоит разворачивать в изолированных средах.

Новая цель OpenAI вписывается в более широкую гонку за автоматизацию науки. Google DeepMind ведет аналогичные разработки уже несколько лет: в конце 2025 года компания договорилась с правительством Великобритании о создании первой полностью автоматизированной научной лаборатории. У OpenAI с октября 2025-го работает отдельная команда OpenAI for Science, а GPT-5 уже использовалась для получения новых результатов в теоретической физике и биологии.

P.S. Поддержать меня можно подпиской на канал "сбежавшая нейросеть", где я рассказываю про ИИ с творческой стороны.