Комментарии 14
Было интересно читать как человеку, у которого руки не доходят его затестить самому. Вообще удивительно, что так мало отрицательных отзывов по openclaw при таком большом хайпе.
Вообще, планируются ли какие то решения проблемы, что он жрет миллионы токенов за простые задачи? Звучит как ошибка архитектуры для таких простых задач в мире, где все вышеописанное (кроме доставки пиццы i guess) можно сделать в терминале командой из stackoverflow
Отрицательных много. Иногда пользователи даже радовались, что запускали, допустим, на расберри пай, и можно было просто вырубить, так как программно было не потушить. Скайнет на минималках.
Могу поделиться своим опытом: более месяца у меня на домашнем ПК в VM круглосуточно крутится Openclaw. Тоже живёт, есть несколько cron задач, есть skill самосовершенствования. Но прямо миллионы токенов он у меня не сжигает, думаю тут дело в правильной изначальной настройке. Я с самого первого дня переписал стандартные .md файлы, сократил их в 2-10 раз, чтобы контекст искусственно не раздувался при каждом запросе. Также я поставил litellm и настроил несколько уровней fallback, при этом первой в обороне стоит локальная модель qwen 3.5 27b, запущенная на моем ПК с RTX 5070 ti, прекрасно работает на несложных задачах и не прожигает кредиты. Были случаи, когда модель переключалась на платную из-за ошибки локального сервера lmstudio, но и в этом случае я потратил максимум 3-4 лишних доллара, потому что настраивал каскад моделей, которые были либо бесплатными, либо очень дешёвыми, как например grok 4.1 fast. Дорогие модели у меня подключаются только в случае сложной задачи в рамках отдельного субагента
А что является триггером переключения на другую модель? Бот сам понимает, что надо переключаться?
Сам Openclaw не умеет переключать модели в одной сессии, насколько мне известно, может только запустить сабагента для конкретной задачи, в котором будет прописана другая модель. Для этого очень четко нужно прописать в agent.md, что если задача, которую ставит хозяин, попадает под категорию Кодинг, например, то запускай субагента с моделью для кодинга. В рамках стандартной сессии же fallback у меня организован в litellm и там есть несколько вариантов триггеров - по latency, по размеру контекстного окна, даже по смыслу запроса. Я не стал сильно мудрить, сделал микс latency и контекстного окна. Т.е. если запрос относительно небольшой и локальный litellm доступен - его обрабатывает локальная модель. Как только запрос превышает установленный мной лимит по токенам, то переходим на бесплатные внешние модели, если они недоступны или уперлись в ratelimit - подключаем уже платные. Для Opneclaw же это будет выглядеть, как будто он обращается к одной и той же условной default-litellm-model
А чем он занимается? Полезным?
Пока ничем суперполезным, если честно. Проверяет почту (может читать и отмечать, как прочитанное, но не может удалять), отслеживает посылки и сообщает об изменении статуса. Работаю над тем, чтобы он проводит для меня глубокие исследования по типу Perplexity Computer, который, надо признаться, очень хорош, но дороговат. Ислледовать - исследует, но глубины пока не хватает =)
Да, с ней можно справляться, но для этого надо знать методы. (Спасибо за ваш коммент, кстати, я все записал и применил уже))) Я говорил про то, что система позиционируется как "Бот из коробки", а по факту - это вполне себе серьезный деплой замороченной системы, который могут реализовать люди, которые разбираются достаточно глубоко, а не просто на уровне "развернуть из гитхаба".
qwen2.5? Это не просто старая, это уже древняя модель...
Есть же маленькие модели (2B, 4B) серии qwen3.5 - чего их не использовать?
Да, согласен. Но и те не встали, и qwen3.5 (пробовал уже) не встал. Все разворачивают эти модели на домашних и достаточно мощных компьютерах, а я пытался это сделать на виртуальном слабеньком сервере.
Если у вас недOllama не работает с Qwen 3.5, то это явно проблема движка. Опять что-то в недOllama сломали или где-то недоделали, зато всюду первые и конееечно же самые юзерфрендли.
Даже крошечная Qwen 3.5 0.8B поддерживает tool calling, а запустится она на любой кофемолке, куда встанет llamacpp. Его вам и порекомендую.
В зависимости от железа, с llamacpp у вас может подняться агент-исполнитель на каком-нибудь 35B A3B, с рациональным распределением весов и вычислений по всей системе компьютера, а не самым топорным послойным способом.
Ну и да, нейростатьи свои вычитывайте, пожалуйста. А то…
OpenClaw — это не помощник. Это ниндзя.
Тошнит уже от этой конструкции
Детальное исследование позволило выяснить, что в принципе qwen2.5:7b работает на обычных процессорах, но плохо и долго, а вот переход на GPU - все изменит, но нужно помнить, что для нормальной работы ему надо х2 или даже х2,5 к своему весу - то есть слабым сервером не обойдешься и нужно не мене 12 Гб GPU.
Можете вот это пояснить пожалуйста? x2-2.5 это вы BF/FP16 брали, или это запас под контекст?

Как я удалил OpenClaw