
Как OpenClaw стал самым быстрорастущим проектом в истории GitHub
В ноябре 2025 австрийский разработчик Петер Штайнбергер собрал за выходные автономного агента, который мог выполнять задачи на компьютере. Назвал Clawdbot. Утилитарно и честно.
Потом Anthropic прислала письмо от юристов, и проект стал Moltbot. Через три дня — OpenClaw. За четыре месяца — 250 000 звёзд на GitHub, обогнав React. Один из самых быстрорастущих open-source проектов в истории. В феврале 2026 OpenAI наняла Штайнбергера.

А 31 марта 2026 рвануло по-настоящему. Из npm-пакета Claude Code утекли исходники: 1 900 файлов TypeScript, 512 000 строк кода, 40 инструментов. За ночь 60 000 человек форкнули репозиторий. Корейский разработчик Sigrid Jin переписал всё на Python в 4 утра, пока не проснулись юристы Anthropic. 111 000 звёзд за сутки — новый рекорд GitHub, обогнавший сам OpenClaw.
Anthropic направила DMCA-запросы на удаление 8 000 репозиториев. GitHub случайно удалил 8 100, включая тысячи легитимных проектов с нулём утёкшего кода. Anthropic отозвала запросы в течение нескольких часов. Появился OpenClaude — форк с поддержкой 200+ моделей через OpenAI-совместимый API. DeepSeek, Gemini, Ollama, что угодно вместо Claude.
Сообщество ликовало. «Полноценный AI-разработчик бесплатно и локально». Tencent анонсировал продукты на базе OpenClaw. Шеньчжэнь выделил бюджет на развитие экосистемы. На vc.ru появились инструкции с заголовками, набитыми капсом и молниями.
4 апреля Anthropic отрезала все сторонние инструменты от подписок Pro и Max. 135 000 пользователей OpenClaw потеряли доступ за ночь. Один день интенсивного использования теперь может стоить до $5 000. Вчера платил $20 в месяц, сегодня — $5 000 в день.
А потом люди начали пробовать в реальной работе.
Руль от Ferrari на Ладе
Агент забывает, что делал три шага назад. Начинает задачу заново. Зацикливается на одном файле, переписывая его по кругу. Вызывает инструмент с неправильными параметрами и не понимает, что произошла ошибка. Тратит 20 минут на задачу, которую человек решает за 5.
Один из мейнтейнеров самого OpenClaw предупредил в Discord: «Если вы не понимаете, как работать с командной строкой, этот проект слишком опасен для вас». Cisco нашла, что сторонние навыки OpenClaw выполняют скрытую эксфильтрацию данных и prompt injection без ведома пользователя. Китай запретил госструктурам использовать OpenClaw на рабочих компьютерах.
Комментатор на Хабре написал точно: «Это как поставить руль от Ferrari на Ладу. Руль крутится, педали нажимаются, но ехать будет по-другому». Вся магия Claude Code не в grep и не в памяти между сессиями. Магия в модели, которая понимает контекст на миллион токенов. Локальная 7B-модель на Mac Mini на такое не способна.
Но проблема глубже, чем качество модели.
Крупные компании уже заложили ИИ-агентов в планы цифровой трансформации. По данным «Яков и Партнёры», 46% российских компаний внедрили или тестируют автономные ИИ-решения. Gartner прогнозирует $2 трлн расходов на ИИ в 2026 году. Деньги выделены. Проекты запущены. А стабильного инструмента нет.
И это главная проблема. Не отсутствие моделей. Не нехватка бюджетов. А архитектура, которая не работает в продакшене.
«Покажите вживую работу агента»
В одном из профессиональных чатов девушка написала простой вопрос: «Ребят, а покажите вживую работу агента. Где он реально работает, а не болтовню!»
Тишина.
Потому что показать нечего. Все демо записаны. Все скриншоты выбраны из десяти попыток. Все видео смонтированы. Живой запуск агента перед аудиторией — русская рулетка. Первый раз сработает. Второй раз уйдёт в цикл. Третий — галлюцинация.

Казахский блогер три недели пытался разобраться с Claude Code. Не смог. Не из-за ИИ, а из-за git. Claude Code создаёт новую ветку на каждый коммит, даже внутри собственной ветки. Без знания git работать с ним невозможно. 95% нетехнических пользователей отсеиваются на этом этапе.
А те, кто прошёл дальше, сталкиваются с главной проблемой: agent loop нестабилен по своей природе.
Как сообщество пытается это починить
Промпты на 50 страниц. «Не забывай контекст. Не повторяй действия. Проверяй результат перед отправкой. Не используй инструмент X, если условие Y.» По сути — попытка словами описать то, что должно быть архитектурой.
Системы памяти. Пытаются прикрутить RAG, базы знаний, summary предыдущих шагов. Это помогает, но не решает фундаментальную проблему: агент всё равно сам решает, что делать на следующем шаге.
Книги и мануалы. На Leanpub продаётся «OpenClaw Code» — руководство по сборке «шестислойного агента». На vc.ru — статья с 17 советами по настройке, включая «не дебажить OpenClaw через сам OpenClaw». На LinkedIn раздают PDF с 500 сценариями использования. Пятьсот. Чтобы пользоваться инструментом, который обещал «просто опиши задачу», нужно прочитать 500 инструкций. Это провал, а не прогресс.
И отдельная категория: «курсы по ИИ-агентам» за 50 000 рублей. Где учат работать с инструментами, которые заблокированы в России, на платформах, которые требуют VPN, через API, которые отключают аккаунты за вход с российского IP.
Проблема не решается промптами. Она архитектурная.
10 000 шагов: анатомия провала
OpenClaw — самый известный представитель agent loop. Но проблема не в конкретном продукте, а в архитектуре. Чтобы доказать это, мне не нужно было разбирать чужой код. Достаточно было посмотреть на свой.
Два месяца мой собственный агент работал на том же agent loop. Без ограничений на шаги и инструменты. На реальных пользователях. Я собрал 10 000 записей из логов и проанализировал каждую.
51 сессия. 5 101 вызов инструментов. Среднее — 196 шагов на задачу, 100 tool calls на сессию. Максимум — 1 527 шагов в одной сессии (795 tool calls). Это создание одного лендинга.

23% вызовов инструментов не создавали ценности. Каждый четвёртый tool call — чистый overhead: внутренний план агента, обновление памяти, проверка git status, учёт фич. В отдельных сессиях overhead достигал 65%. Агент тратил больше половины ресурсов на разговоры с самим собой.
npm install до 16 раз за сессию. Каждый npm install — 30 секунд ожидания и сотни строк вывода, раздувающих контекст. Агент сам выбирал стек проекта. Пользователь просил «лендинг для бассейнов» — агент решал использовать Next.js. Результат: 363 шага на лендинг. Тот же лендинг на HTML + Tailwind CDN — 48 шагов. Разница в 7,5 раз. Конечный результат для пользователя одинаковый — одностраничник.
Смена стека три раза за сессию. Реальный кейс: пользователь попросил лендинг для курса акварели. Агент начал на Next.js (388 пакетов), снёс всё, переключился на Vite + React (удалил 364 пакета, поставил 39), получил ошибку запуска, снёс всё, начал Next.js заново. Результат: 123 шага, 0 файлов в готовом проекте, полностью исчерпан баланс пользователя.

37% сессий завершались ошибками. 19 из 51. npm run build вызывался до 18 раз в одной сессии вместо одного-двух. Ноль вызовов pytest, jest, vitest — ни одного фреймворка для тестов. Агент создавал одноразовые тестовые файлы, каждый с нуля, каждый удалял после.
34 раза агент упирался в лимит токенов. Максимум — 1 069 729 токенов на одну задачу. Миллион токенов на лендинг. Это стоило мне ощутимую сумму за один месяц.
Одна сессия из 51 сработала идеально: бот для обработки чеков, 43 шага, 0 ошибок, Python без npm. Отличие: простая задача, чёткий запрос, правильный стек. Всё остальное — хаос.
Не ошибается только тот, кто ничего не делает. Я не придумал архитектуру agent loop, но я осознал проблему на своих данных и решил её.
Agent loop: почему он ломается
Классический AI-агент работает по циклу: получил задачу, подумал, выбрал действие, выполнил, оценил результат, повторил. ReAct, agent loop, reasoning and acting. Идея красивая: дай модели свободу, и она сама найдёт путь к решению.

Я проанализировал конкретные паттерны отказов на своих данных:
Агент решает «уточнить контекст» и начинает задавать вопросы вместо работы. Пользователь загрузил файл и ушёл. Отвечать некому. Задача зависла.
Агент зацикливается. Вызывает один и тот же инструмент с одними параметрами, получает ту же ошибку, повторяет. Пока не закончится лимит итераций.
Агент теряет контекст. На пятом шаге забывает, что делал на первом. Начинает анализ данных заново, хотя файл уже прочитан и результат записан. После 76 событий сжатия контекста (до 23 раз в одной сессии) агент буквально забывает, что уже сделал.
Агент принимает неожиданное решение. Вместо анализа договора решает «поискать похожие договоры в интернете для сравнения». Инструмент поиска не подключён. Ошибка. Задача провалена.
Агент выбирает неоптимальный стек. Для одностраничного лендинга разворачивает Next.js с 388 пакетами, потому что в обучающих данных Next.js упоминается чаще. Это не интеллект, это статистическое смещение.
Всё это при одной и той же модели. Проблема не в мозгах. Проблема в свободе.
Решение: свобода мышления без свободы действий
Я переписал архитектуру. Вместо цикла «подумай и действуй» — жёсткая последовательность этапов с контролем на каждом.

На каждом этапе модель думает свободно. Анализирует договор, находит ловушки, формулирует рекомендации на человеческом языке. Пишет Python-скрипт для расчёта коммуналки. Сравнивает позиции сметы с рыночными ценами. Это творческая работа, и LLM справляется с ней блестяще.
Но модель не выбирает, что делать дальше. Следующий этап определяет система, не модель. Модель не может решить «а пойду-ка я вместо анализа договора поищу информацию в интернете». Не может зациклиться на одном действии. Не может забыть, что делала три шага назад, потому что каждый этап начинается с чистого контекста и конкретной задачи.
Стек определяется на первом этапе, исходя из задачи: лендинг — HTML + Tailwind, бот — Python, приложение — React. Никаких переключений посередине. Никаких npm install 16 раз.
Аналогия с хирургом. Протокол операции жёсткий: разрез, доступ, основной этап, контроль, ушивание. На каждом этапе хирург принимает решения свободно, исходя из того, что видит. Но никто не даёт хирургу свободу начать операцию с ноги, когда оперируют сердце.
Результаты
Один движок. Конфигурационные файлы для каждой роли. Добавить нового сотрудника — написать конфиг, не переписывать систему.
ИИ-Сотрудники (структурированный подход):
Фрилансер 2.0 — 61 задача, 1 ошибка (сбой провайдера), 1,6%. Средний расход 250 токенов. На agent loop тот же агент: 11 задач, 3 ошибки, 27,3%, 338 токенов. Ошибок в 17 раз меньше, расход на треть ниже.
Бухгалтер 2.0 — 23 задачи, 0 ошибок. 382 токена на задачу. Пишет Python-скрипт, считает, сам создаёт тесты и проверяет свои расчёты. Агент на свободном цикле этого не делает, потому что у него нет этапа «проверь себя».
Сметчик 2.0 — 18 задач, 0 ошибок. 598 токенов. Парсит Excel со сметой, сравнивает с рыночными ценами региона, находит завышения и дубли. Старый сметчик на agent loop: 8 задач, 1 ошибка, 12,5%, 1 571 токен. Втрое дороже и нестабильный.
Документовед — 5 задач, 0 ошибок. 119 токенов. 9 из 10 заложенных рисков в договоре за 3 минуты. 23 различия между двумя версиями документа. Приоритизация: критическое красным, среднее жёлтым, информационное синим. Вердикт: «Не подписывайте без правок».
Аналитик 2.0 — 238 токенов. Автоопределение типа данных по колонкам. Нашёл спад 24,4% в тестовых данных. Построил графики через matplotlib. Не угадал, а посчитал.
Агент разработки 2.0 (та же архитектура, применённая к созданию сайтов):
Лендинг для пиццерии — 4 минуты, 19 шагов, 480 токенов, 0 ошибок. Полностью рабочий сайт с меню, ценами, формой заказа и фотографиями. Для сравнения: старый agent loop тратил 196 шагов в среднем на ту же задачу. В десять раз больше.

Сводная таблица из продакшена:
Задач | Ошибок | Процент | Шагов на задачу | |
|---|---|---|---|---|
Agent loop (старый) | 69 | 5 | 7,2% | 196 |
Agent loop (анализ 10 000 шагов) | 51 сессия | 19 с ошибками | 37% | 196 |
Структурированный подход (ИИ-сотрудники) | 108 | 1 | менее 1% | определяется ролью |
Структурированный подход (разработка) | 6 сессий | 0 | 0% | 19,5 |
Одна и та же модель. Одни и те же инструменты. Разница только в архитектуре.

Почему это не «ещё один фреймворк»
Каждую неделю выходит новый фреймворк для ИИ-агентов. LangChain, CrewAI, AutoGen, ещё десять. Все обещают «просто опиши задачу». Все работают нестабильно, потому что внутри тот же agent loop.
Здесь другой подход. Не «дай модели свободу и надейся». А «дай модели рельсы и свободу мышления внутри рельсов».
NASA 70 лет пыталась создать двигатель Aerospike. Компания LEAP 71 дала ИИ спроектировать его, но с жёсткими параметрами: тяга, топливо, давление, охлаждение. Двигатель сработал с первого раза. Свобода мышления внутри жёстких ограничений.
MIT говорит: 95% пилотов генеративного ИИ не достигают результатов. Думаю, причина в том, что компании дают модели слишком много свободы. «Вот задача, разберись сам». Модель разбирается. Иногда правильно. Иногда нет. 75 на 25.
Конвейер Форда. Протокол хирурга. Чеклист пилота. Методологии, которым сто лет. Просто теперь на конвейере стоит не человек, а LLM.
Итого
ИИ-агенты в их текущем виде — автономные, свободные, «думающие сами» — не работают в продакшене. OpenClaw это подтверждает: 346 000 звёзд на GitHub, лобстер-мерч, крипто-токены, конференции на два города. А 4 апреля Anthropic отрезала 135 000 пользователей от дешёвого доступа, потому что экономика не сходилась. Стабильного демо так никто и не показал.
10 000 шагов моего собственного agent loop подтверждают: 37% сессий с ошибками, 23% ресурсов на overhead, npm install 16 раз за сессию, миллион токенов на один лендинг. Я заплатил за этот урок ощутимую сумму и два месяца работы. Но получил данные, которых нет ни у кого.
Работают ИИ-сотрудники: предсказуемые, контролируемые, с жёсткой структурой и свободным мышлением на каждом этапе. 108 задач, 1 ошибка, менее 1%. Лендинг за 4 минуты и 19 шагов вместо 196. Та же модель, те же инструменты, другая архитектура.
Не на бенчмарке. Не в демо. В продакшене с реальными пользователями. Скриншоты выше — из реальной админ-панели, не из Figma.
