Обновить

Schema-Guided Reasoning: как научить языковые модели последовательно рассуждать

Время на прочтение10 мин
Охват и читатели10K
Всего голосов 12: ↑12 и ↓0+15
Комментарии5

Комментарии 5

Рекомендации по выбору количества параметров модели даны относительно MOE-моделей или нет?

Спасибо за вопрос! Рекомендации по выбору количества параметров модели, особенно в разделе SGR против Function Calling, относятся к плотным моделям, а не к MOE

Как минимум, на первый шаг reasoning в схеме напрашивается использование thinking модели. Однако локальные thinking модели не умеют ни в SO, ни в FC, в отличии от instruct. Как решаете в SGR этот вопрос?

Хороший вопрос! Можно обойтись без специально обученной thinking-модели. Хитрость в том, что любую модель можно заставить рассуждать по шагам, если задать ей схему и формат. Например, Qwen3-30B-A3B и Qwen3-4B-Instruct-2507 вполне уверенно генерируют по SGR-структуре под VLLM через X-Grammar или Guidance, которые выравнивают вывод, особенно при генерации тулколов

Но вот действительно нужно уметь ловить баланс - между строгостью и свободой. При достаточно подробной схемой, давже имея пару предаврительных этапов, recall может удететь в ноль, модели часто сдаются (напр.: gpt-4o-mini). Да и что делать с validation ошибками (часто это бывает в виды недостатков смих схем и их описаний), уместен ли дополнительный фидбек луп? И что бы вы посоветовали, на примере sgr агентов из deep-research - для моделей типа gemini-flash/o/o-mini какие типы агентов более предпочтительно использовать?

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Информация

Сайт
redmadrobot.ru
Дата регистрации
Дата основания
Численность
501–1 000 человек
Местоположение
Россия