Статья о том, с какими сложностями могут столкнуться пользователи, установившие ИИ-агента OpenClaw, построенная на личном опыте. Спойлер: монстр под капотом, 81 млн токенов за три дня, конфликты с сервером и почему он не просто бот, а ниндзя-одиночка.

Картинка для привлечения внимания. Сгененировано OpenAi ChatGPT 5.2
Картинка для привлечения внимания. Сгененировано OpenAi ChatGPT 5.2

OpenClaw сейчас - это "новое черное" в ИИ-агентах. 330К+ звезд с ноября 2025 года - даты первого релиза - не дадут соврать. Хабр нам в помощь и вот множество восторженных или профессионально-сдержанных, но позитивных статей о его пользе и легкости. Тут и "ванильные" туториалы с тезисом - "установил, запустил, он сам открыл браузер и заказал пиццу", и категория со статьями для инженеров, ну и, конечно, хайповые обзоры класса "Убийца ChatGPT?". Но для неопытного глаза это все представляется стойкой позитивной реакцией. Есть нюансы, но в целом, все довольны. Значит - решено, ставим, ведь все побежали, ну и я побежал.

Честный опыт эксплуатации

Я - не айтишник совсем. Интерес к ИИ - очень прагматичный. Хочу бесплатно, без сложных технических заморочек, и чтоб помогал. Работаю на бесплатных ресурсах и open-source решениях. Похоже, OpenClaw идеально подходит. Имея под рукой веб-терминальные ИИ-шечки, легко кидаюсь в пучину установки. У меня есть небольшой VDS сервер (32 ГБ, 6 процессоров), на котором висят несколько сайтов на React, развернуты PostgreSQL, n8n и другие сервисы, включая пару незатейливых телеграмм-ботов на самописном Питоне (созданных с помощью команд "копировать" и "вставить" из чатов с ИИ). Плавали, знаем, поехали!

npm install -g openclaw@latest
openclaw onboard

Первая ошибка: поселить монстра на боевой сервер

Первая установка OpenClaw проходит быстро, что-то (нужно признать, в достаточно удобном меню) ввел ошибочно - не тот токен телеграм-бота - и вот тут началось реальное мое знакомство с системой. OpenClaw оказался не просто ботом, а сложным монстром с кодом более чем на 20 000 строк. И он категорически не терпел соседей. Мы все - другие ИИ-боты, веб-терминальные ИИ-шечки и я - вспотев, отключали один за другим порты, удаляли и устанавливали систему несколько раз. Но, даже после удаления, OpenClaw оставлял «призраков» в systemd, в конфигах, в папке .openclaw, которые приходилось вычищать вручную. Стандартный подход «удалил и переустановил» не работал: система каким-то образом помнила старые настройки. В итоге, только на переписку с разными ИИ (ChatGPT, Kimi2, DeepSeek), пытаясь понять, где я ошибся, я потратил около миллиона токенов. Вся эта эпопея уместилась в почти 500+ страниц вордовского документа, который я собрал на память.

Вторая ошибка: попытка встроить «дирижера» в оркестр

У меня уже была налаженная связка: Docer, PostgreSQL, n8n в роли оркестратора, простые Telegram-боты. Мне пришла мысль сделать OpenClaw ещё одним инструментом. Что, если я создам навыки и буду вызывать его через вебхуки? Схема такая отзывалась правильным вайбом и выглядела очень предсказуемо. И база тут есть, и режим оркестации. Но OpenClaw ответил категорическим отказом. Он даже не пытался интегрироваться. При любой попытке засунуть его в оркестратор он либо падал с ошибками аутентификации, либо игнорировал внешние вызовы. Оказалось, что это не агент, который выполняет подзадачи — это полноценный и качественный самостоятельный сам-себе-режиссер. Пробовал четыре подхода:

  • MCP (требовал динамического токена, который n8n не мог получить),

  • вебхуки (запросы принимались, но не передавались агенту),

  • прямой вызов Python-скрипта (агент выполнял команду, но не возвращал результат),

  • создание навыка (ошибка аутентификации).

Возможно, настоящие айтишники все это починили бы с легкостью, но я не программист. И мне OpenClaw категорически отказался подчиняться. Вывод для себя делаю неоднозначный: передо мной не просто бот, а самодостаточная система.

Третья ошибка: Подключаем локальные ИИ

В мастере установки OpenClaw "из коробки" позволяет установить и подключиться к Ollama - решению, позволяющему работать с локально развернутыми моделями ИИ. У меня на сервере крутилась легкая модель phi3:mini, которая отлично справлялась с простыми чатами. Но OpenClaw отверг её с ошибкой: «registry.ollama.ai/library/phi3:mini does not support tools».

Оказалось, что для работы инструментов нужна модель с поддержкой function calling. Лёгкие модели (gemma2:2b, phi3:mini) этого не умеют. Про такое я нигде не читал, и на выяснение этого и попытки подключения трех маленьких моделей ушло 4 часа.

Код проверки и ответ:

curl http://localhost:11434/api/chat -d '{
 "model": "phi3:mini",
 "messages": [{"role": "user", "content": "Hi"}],
 "tools": [{"type": "function", "function": {"name": "test"}}]
 }'
{"error":"registry.ollama.ai/library/phi3:mini does not support tools"}

Модель

Размер

Поддержка инструментов

Статус

gemma2:2b

1.6 GB

Не подходит

phi3:mini

2.2 GB

Не подходит

gemma3:4b

3.3 GB

Не подходит

qwen2.5:7b

4.7 GB

Подходит, но требует GPU

llama3.1:8b

4.9 GB

Подходит, но требует GPU

qwen2.5-coder:7b

4.7 GB

Подходит, но требует GPU

Подходящая для OpenClaw модель qwen2.5:7b требовала для комфортной работы по комментариям разработчика не менее 8–16 ГБ RAM. Очистив полностью кэш (уже в который раз), добиваюсь, что сервер работает только с Ollama. Результата нет. Мой сервер с 32 ГБ RAM тянет её со скрипом. Простой ответ на «Привет» занимает в терминале более 5 минут, а при запуске других сервисов всё падало с ошибкой о нехватке памяти.

Диалог с телеграмме с OpenClaw. Акцент на времени ответа - 5-10 минут.
Диалог с телеграмме с OpenClaw. Акцент на времени ответа - 5-10 минут.

Детальное исследование позволило выяснить, что в принципе qwen2.5:7b работает на обычных процессорах, но плохо и долго, а вот переход на GPU - все изменит, но нужно помнить, что для нормальной работы ему надо х2 или даже х2,5 к своему весу - то есть слабым сервером не обойдешься и нужно не мене 12 Гб GPU. Вывод по железу (про которое я даже и не думал, начиная установку) - OpenClaw требует отдельного, мощного сервера с GPU (V100 или RTX 4090), аренда которого начинается от 30 тысяч рублей в месяц.

Четвертая ошибка: купить токены

Поняв, что локально всё сложно, я прямо на сайте своего VDS-провайдера прикупил 5 млн. токенов DeepSeek. Тариф гласил:

до 5 000 диалогов, подходит для активных интеграций, анализа данных, генерации контента.

Прекрасно! С фото или видео пока не будем работать, просто текст. Кстати, это моя первая покупка токенов. До этого обходился бесплатными лимитами и маленькими локальными моделями. Настроил OpenClaw, подключил бота. Утром открыл веб-терминал и увидел, что OpenClaw потратил 5 миллионов токенов за несколько часов. И это при том, что я не задал ему ни одной осмысленной задачи! Он просто «жил»: проверял доступность моделей, перебирал профили, фейлился и снова вызывал API. По тарифу 120 руб./млн токенов это 600 рублей за одну ночь просто за то, что бот «жил».

Момент превышения лимита
Момент превышения лимита

Хорошо, пойдем по другому, OpenRouter нам поможет! Я решил, что проблема в качестве DeepSeek, и переключился на OpenRouter, выбрав две бесплатные модели: nvidia/nemotron-3-super-120b-a12b:free и trinity-large-preview. Настроил, запустил три задачи: «напиши статью», «проанализируй документ», «найди в интернете информацию». Через три сессии (суммарно около 4 часов работы) OpenClaw сжёг 76 000 000 токенов. По тому же тарифу DeepSeek это было бы 9120 рублей. По тарифу OpenRouter (в среднем 0,3$ за млн) — около 22 000 рублей (у меня был бесплатный тариф, и он закончился). OpenClaw оказался не просто затратным, а буквально «токенопожирателем». И это при том, что он не генерировал гигабайты текста, а в основном производил свои внутренние проверки.

Статистика использования токенов OpenClaw чере API OpenRouter
Статистика использования токенов OpenClaw чере API OpenRouter

Это также подтверждается и общей статистикой сервиса. OpenClaw "жрет" в 10 раз больше Cloude и в 100 раз больше другого агента.

Статистика использования приложений (OpenRouter)
Статистика использования приложений (OpenRouter)

Итог: OpenClaw — это ниндзя

Читая статьи на Хабре, я верил, что OpenClaw станет мне верным помощником. В обзорах его рисуют дисциплинированным бойцом, но на деле он — одиночка-наемник. OpenClaw — это не помощник. Это ниндзя.

Почему ниндзя? Потому что он получает задание, уходит в тень и работает автономно. Всегда решает задачу. В этом его суперсила. Но быть ниндзя — значит быть одиночкой. Он не терпит рядом никого другого (n8n, базы данных), он работает в тени. Его нужно обучать на собственном «додзё» (на своем сервере). И мой опыт нескольких дней работы с OpenClaw приводит к несколько неожиданному выводу. OpenClaw — это не просто «хороший» или «плохой» ИИ-бот. OpenClaw реально справляется со всем, до чего может дотянуться: браузер, голос, любые мессенджеры, сложные цепочки действий. Ни какой другой бот в моей практике не обладал такой гибкостью. Так, в одном из тестов моих он поднял mesh-сеть из 4 устройств только по двум фото - задней крыше основного роутера и договора с провайдером. Но дело даже не в этом. Это бот, который меняет реальность из-за своей способности стать полноценным промежуточным звеном между ИИ-средой и нашим физическим миром. В этот момент и наступает разрыв в ожиданиях. Мы только привыкли платить за модели ИИ по токен-тарифам, а теперь нас приучают нести устойчивые затраты на поддержку инфраструктуры вот за эту новую связь. Формально-бесплатное решение с супер-функционалом требует либо бесконечный поток токенов, либо серьёзного "железа", за которые нужно платить. И тут встает уже дргуой вопрос - есть ли готовность на такие затраты - 30-50 тыс. руб в месяц (или на токены и на собственную инфраструктуру с GPU) и насколько такая цена конкурента с другими, более функциональными ботами, решениями или даже встроенными функциями в ИИ-моделях.