Комментарии 8
А на практике, старшие модели от yandex и и сбербанк имеют хотя бы пользу? они держат контекст в чате, способны к верному структурному выводу без кандалов structured outputs генератора? Как часто ваши агенты не смогут найти ожидаемый текст в ответе модели?
Хороший вопрос. Я сам был немного удивлён, но старшие модели Яндекса и Сбера на практике показали себя вполне адекватно для простых и средних задач — в том числе на английском языке.
Контекст удерживается не только за счёт самой модели, но и за счёт памяти OpenClaw: у каждого агента есть своя история и состояние, которые мы явно прокидываем в запросы. Это сильно снижает требования к «идеальной» контекстной способности модели.
По структурным выводам: для большинства рутинных сценариев (поиск, сбор, первичный анализ, суммаризация) они справляются без жёсткой привязки к structured outputs. Случаи, когда агент не находит ожидаемый фрагмент в ответе, бывают, но пока это скорее редкие edge-cases, а не системная проблема.
Буду дальше тестировать, но с учётом низкой стоимости российских моделей вполне рассматриваю их для фоновых и массовых задач — сбор и анализ статей, постов, подготовка черновиков и т.п.
Спасибо за наводки! Прикидывал (пока в уме) как бы яндекс диск интегрировать, а оно вон как просто (главное чтобы не стер все нафиг)
У меня обсидиан синкается через яндекс диск, вот как раз нехватающий кусочек!
Спасибо за табличку с подводными камнями — вот это реально полезно. Сам наступал на грабли с IAM-ролями в Yandex Cloud: полчаса искал почему 403, оказалось роль на SA навесил, а не на folder. Классическая яндексовая магия.
Кстати, не пробовали вместо gpt2giga использовать LiteLLM? Он тоже умеет в прокси для нестандартных провайдеров, и там хотя бы supervisord не нужен — демонизируется нормально.

Подключаем российские AI-сервисы к OpenClaw: GigaChat, YandexGPT и Yandex 360