Статья о том, с какими сложностями могут столкнуться пользователи, установившие ИИ-агента OpenClaw, построенная на личном опыте. Спойлер: монстр под капотом, 81 млн токенов за три дня, конфликты с сервером и почему он не просто бот, а ниндзя-одиночка.

OpenClaw сейчас - это "новое черное" в ИИ-агентах. 330К+ звезд с ноября 2025 года - даты первого релиза - не дадут соврать. Хабр нам в помощь и вот множество восторженных или профессионально-сдержанных, но позитивных статей о его пользе и легкости. Тут и "ванильные" туториалы с тезисом - "установил, запустил, он сам открыл браузер и заказал пиццу", и категория со статьями для инженеров, ну и, конечно, хайповые обзоры класса "Убийца ChatGPT?". Но для неопытного глаза это все представляется стойкой позитивной реакцией. Есть нюансы, но в целом, все довольны. Значит - решено, ставим, ведь все побежали, ну и я побежал.
Честный опыт эксплуатации
Я - не айтишник совсем. Интерес к ИИ - очень прагматичный. Хочу бесплатно, без сложных технических заморочек, и чтоб помогал. Работаю на бесплатных ресурсах и open-source решениях. Похоже, OpenClaw идеально подходит. Имея под рукой веб-терминальные ИИ-шечки, легко кидаюсь в пучину установки. У меня есть небольшой VDS сервер (32 ГБ, 6 процессоров), на котором висят несколько сайтов на React, развернуты PostgreSQL, n8n и другие сервисы, включая пару незатейливых телеграмм-ботов на самописном Питоне (созданных с помощью команд "копировать" и "вставить" из чатов с ИИ). Плавали, знаем, поехали!
npm install -g openclaw@latest openclaw onboard
Первая ошибка: поселить монстра на боевой сервер
Первая установка OpenClaw проходит быстро, что-то (нужно признать, в достаточно удобном меню) ввел ошибочно - не тот токен телеграм-бота - и вот тут началось реальное мое знакомство с системой. OpenClaw оказался не просто ботом, а сложным монстром с кодом более чем на 20 000 строк. И он категорически не терпел соседей. Мы все - другие ИИ-боты, веб-терминальные ИИ-шечки и я - вспотев, отключали один за другим порты, удаляли и устанавливали систему несколько раз. Но, даже после удаления, OpenClaw оставлял «призраков» в systemd, в конфигах, в папке .openclaw, которые приходилось вычищать вручную. Стандартный подход «удалил и переустановил» не работал: система каким-то образом помнила старые настройки. В итоге, только на переписку с разными ИИ (ChatGPT, Kimi2, DeepSeek), пытаясь понять, где я ошибся, я потратил около миллиона токенов. Вся эта эпопея уместилась в почти 500+ страниц вордовского документа, который я собрал на память.
Вторая ошибка: попытка встроить «дирижера» в оркестр
У меня уже была налаженная связка: Docer, PostgreSQL, n8n в роли оркестратора, простые Telegram-боты. Мне пришла мысль сделать OpenClaw ещё одним инструментом. Что, если я создам навыки и буду вызывать его через вебхуки? Схема такая отзывалась правильным вайбом и выглядела очень предсказуемо. И база тут есть, и режим оркестации. Но OpenClaw ответил категорическим отказом. Он даже не пытался интегрироваться. При любой попытке засунуть его в оркестратор он либо падал с ошибками аутентификации, либо игнорировал внешние вызовы. Оказалось, что это не агент, который выполняет подзадачи — это полноценный и качественный самостоятельный сам-себе-режиссер. Пробовал четыре подхода:
MCP (требовал динамического токена, который n8n не мог получить),
вебхуки (запросы принимались, но не передавались агенту),
прямой вызов Python-скрипта (агент выполнял команду, но не возвращал результат),
создание навыка (ошибка аутентификации).
Возможно, настоящие айтишники все это починили бы с легкостью, но я не программист. И мне OpenClaw категорически отказался подчиняться. Вывод для себя делаю неоднозначный: передо мной не просто бот, а самодостаточная система.
Третья ошибка: Подключаем локальные ИИ
В мастере установки OpenClaw "из коробки" позволяет установить и подключиться к Ollama - решению, позволяющему работать с локально развернутыми моделями ИИ. У меня на сервере крутилась легкая модель phi3:mini, которая отлично справлялась с простыми чатами. Но OpenClaw отверг её с ошибкой: «registry.ollama.ai/library/phi3:mini does not support tools».
Оказалось, что для работы инструментов нужна модель с поддержкой function calling. Лёгкие модели (gemma2:2b, phi3:mini) этого не умеют. Про такое я нигде не читал, и на выяснение этого и попытки подключения трех маленьких моделей ушло 4 часа.
Код проверки и ответ:
curl http://localhost:11434/api/chat -d '{ "model": "phi3:mini", "messages": [{"role": "user", "content": "Hi"}], "tools": [{"type": "function", "function": {"name": "test"}}] }'
{"error":"registry.ollama.ai/library/phi3:mini does not support tools"}
Модель | Размер | Поддержка инструментов | Статус |
|---|---|---|---|
gemma2:2b | 1.6 GB | ❌ | Не подходит |
phi3:mini | 2.2 GB | ❌ | Не подходит |
gemma3:4b | 3.3 GB | ❌ | Не подходит |
qwen2.5:7b | 4.7 GB | ✅ | Подходит, но требует GPU |
llama3.1:8b | 4.9 GB | ✅ | Подходит, но требует GPU |
qwen2.5-coder:7b | 4.7 GB | ✅ | Подходит, но требует GPU |
Подходящая для OpenClaw модель qwen2.5:7b требовала для комфортной работы по комментариям разработчика не менее 8–16 ГБ RAM. Очистив полностью кэш (уже в который раз), добиваюсь, что сервер работает только с Ollama. Результата нет. Мой сервер с 32 ГБ RAM тянет её со скрипом. Простой ответ на «Привет» занимает в терминале более 5 минут, а при запуске других сервисов всё падало с ошибкой о нехватке памяти.

Детальное исследование позволило выяснить, что в принципе qwen2.5:7b работает на обычных процессорах, но плохо и долго, а вот переход на GPU - все изменит, но нужно помнить, что для нормальной работы ему надо х2 или даже х2,5 к своему весу - то есть слабым сервером не обойдешься и нужно не мене 12 Гб GPU. Вывод по железу (про которое я даже и не думал, начиная установку) - OpenClaw требует отдельного, мощного сервера с GPU (V100 или RTX 4090), аренда которого начинается от 30 тысяч рублей в месяц.
Четвертая ошибка: купить токены
Поняв, что локально всё сложно, я прямо на сайте своего VDS-провайдера прикупил 5 млн. токенов DeepSeek. Тариф гласил:
до 5 000 диалогов, подходит для активных интеграций, анализа данных, генерации контента.
Прекрасно! С фото или видео пока не будем работать, просто текст. Кстати, это моя первая покупка токенов. До этого обходился бесплатными лимитами и маленькими локальными моделями. Настроил OpenClaw, подключил бота. Утром открыл веб-терминал и увидел, что OpenClaw потратил 5 миллионов токенов за несколько часов. И это при том, что я не задал ему ни одной осмысленной задачи! Он просто «жил»: проверял доступность моделей, перебирал профили, фейлился и снова вызывал API. По тарифу 120 руб./млн токенов это 600 рублей за одну ночь просто за то, что бот «жил».

Хорошо, пойдем по другому, OpenRouter нам поможет! Я решил, что проблема в качестве DeepSeek, и переключился на OpenRouter, выбрав две бесплатные модели: nvidia/nemotron-3-super-120b-a12b:free и trinity-large-preview. Настроил, запустил три задачи: «напиши статью», «проанализируй документ», «найди в интернете информацию». Через три сессии (суммарно около 4 часов работы) OpenClaw сжёг 76 000 000 токенов. По тому же тарифу DeepSeek это было бы 9120 рублей. По тарифу OpenRouter (в среднем 0,3$ за млн) — около 22 000 рублей (у меня был бесплатный тариф, и он закончился). OpenClaw оказался не просто затратным, а буквально «токенопожирателем». И это при том, что он не генерировал гигабайты текста, а в основном производил свои внутренние проверки.

Это также подтверждается и общей статистикой сервиса. OpenClaw "жрет" в 10 раз больше Cloude и в 100 раз больше другого агента.

Итог: OpenClaw — это ниндзя
Читая статьи на Хабре, я верил, что OpenClaw станет мне верным помощником. В обзорах его рисуют дисциплинированным бойцом, но на деле он — одиночка-наемник. OpenClaw — это не помощник. Это ниндзя.
Почему ниндзя? Потому что он получает задание, уходит в тень и работает автономно. Всегда решает задачу. В этом его суперсила. Но быть ниндзя — значит быть одиночкой. Он не терпит рядом никого другого (n8n, базы данных), он работает в тени. Его нужно обучать на собственном «додзё» (на своем сервере). И мой опыт нескольких дней работы с OpenClaw приводит к несколько неожиданному выводу. OpenClaw — это не просто «хороший» или «плохой» ИИ-бот. OpenClaw реально справляется со всем, до чего может дотянуться: браузер, голос, любые мессенджеры, сложные цепочки действий. Ни какой другой бот в моей практике не обладал такой гибкостью. Так, в одном из тестов моих он поднял mesh-сеть из 4 устройств только по двум фото - задней крыше основного роутера и договора с провайдером. Но дело даже не в этом. Это бот, который меняет реальность из-за своей способности стать полноценным промежуточным звеном между ИИ-средой и нашим физическим миром. В этот момент и наступает разрыв в ожиданиях. Мы только привыкли платить за модели ИИ по токен-тарифам, а теперь нас приучают нести устойчивые затраты на поддержку инфраструктуры вот за эту новую связь. Формально-бесплатное решение с супер-функционалом требует либо бесконечный поток токенов, либо серьёзного "железа", за которые нужно платить. И тут встает уже дргуой вопрос - есть ли готовность на такие затраты - 30-50 тыс. руб в месяц (или на токены и на собственную инфраструктуру с GPU) и насколько такая цена конкурента с другими, более функциональными ботами, решениями или даже встроенными функциями в ИИ-моделях.
