Комментарии 14
А на практике, старшие модели от yandex и и сбербанк имеют хотя бы пользу? они держат контекст в чате, способны к верному структурному выводу без кандалов structured outputs генератора? Как часто ваши агенты не смогут найти ожидаемый текст в ответе модели?
Хороший вопрос. Я сам был немного удивлён, но старшие модели Яндекса и Сбера на практике показали себя вполне адекватно для простых и средних задач — в том числе на английском языке.
Контекст удерживается не только за счёт самой модели, но и за счёт памяти OpenClaw: у каждого агента есть своя история и состояние, которые мы явно прокидываем в запросы. Это сильно снижает требования к «идеальной» контекстной способности модели.
По структурным выводам: для большинства рутинных сценариев (поиск, сбор, первичный анализ, суммаризация) они справляются без жёсткой привязки к structured outputs. Случаи, когда агент не находит ожидаемый фрагмент в ответе, бывают, но пока это скорее редкие edge-cases, а не системная проблема.
Буду дальше тестировать, но с учётом низкой стоимости российских моделей вполне рассматриваю их для фоновых и массовых задач — сбор и анализ статей, постов, подготовка черновиков и т.п.
Спасибо за наводки! Прикидывал (пока в уме) как бы яндекс диск интегрировать, а оно вон как просто (главное чтобы не стер все нафиг)
У меня обсидиан синкается через яндекс диск, вот как раз нехватающий кусочек!
Спасибо за табличку с подводными камнями — вот это реально полезно. Сам наступал на грабли с IAM-ролями в Yandex Cloud: полчаса искал почему 403, оказалось роль на SA навесил, а не на folder. Классическая яндексовая магия.
Кстати, не пробовали вместо gpt2giga использовать LiteLLM? Он тоже умеет в прокси для нестандартных провайдеров, и там хотя бы supervisord не нужен — демонизируется нормально.
А чё по ценам? Гигачат Алиса имеют бесплатные лимиты?
Cпасибо большое, весь вечер вчера убил в самостоятельных попытках создания мостов
Надеюсь моя статья и код помогли.
Конечно, ещё раз спасибо! Единственное, вот сейчас наблюдаю проблемы с выходом за лимит контекста (OpenClaw настаивает, что должно быть минимум 16к, что сразу отключает lite и обычный), а когда накапливается больше 32к, то и мощная отваливается и включается fallback на более морщные модели). Что делать пока не придумал.
В общем, покопался ещё, мне помогла замена "if (url === "/v1/chat/completions" && req.method === "POST")" на "if (url === "/chat/completions" && req.method === "POST")" (точнее я добавил и такую и такую интерпреаптцию, потому что openclaw принудительно забирал с /chat/completions
После этого ещё встал вопрос с тем, что openclaw ждал стриминга (хотя принудительно был отключен), а яндекс его не возвращал. В итоге дорисовал искусственный стрим в прокси, заработало :)
Возможно, кому-то пригодится...

Подключаем российские AI-сервисы к OpenClaw: GigaChat, YandexGPT и Yandex 360