Основатель Eureka Labs, бывший директор по ИИ в Tesla и один из основателей OpenAI Андрей Карпати выложил в открытый доступ проект autoresearch — систему, в которой ИИ-агент автономно проводит эксперименты по обучению языковых моделей на одном GPU. Агент сам модифицирует код, запускает пятиминутный цикл обучения, проверяет метрику качества и решает — сохранить изменения или откатить. Затем цикл повторяется. За час набирается около 12 экспериментов, за ночь — до сотни.

Главная идея проекта — человек больше не пишет Python-код как обычный исследователь. Вместо этого он редактирует Markdown-файл program.md — по сути, инструкцию для агента: что пробовать, как оценивать результат, когда откатываться. Агент же итерирует единственный файл train.py (~630 строк), в котором собрана архитектура GPT, оптимизаторы Muon и AdamW и весь тренировочный цикл. Метрика — val_bpb (биты на байт на валидации) — не зависит от размера словаря, поэтому эксперименты сопоставимы даже при замене архитектуры.

Каждый эксперимент длится ровно 5 минут — независимо от того, что именно поменял агент: размер модели, батч, гиперпараметры или архитектуру целиком. Это делает результаты сопоставимыми между собой, хотя и привязывает их к конкретному GPU (проект тестировался на H100).

Карпати предложил смотреть на проект как на соревнование: кто напишет лучший program.md — тот добьется самого быстрого исследовательского прогресса. А в эпиграфе к репозиторию пошутил, что эра «мясных компьютеров», которые синхронизировались звуковыми волнами на «групповых совещаниях», давно прошла — теперь исследования ведут автономные рои агентов.

P.S. Поддержать меня можно подпиской на канал "сбежавшая нейросеть", где я рассказываю про ИИ с творческой стороны.