Комментарии 5
Какая-то вода одна у вас в статье. И так и не понятно, почему им хватает 800 примеров, когда другим 80.000 мало.
Доброго времени суток! Статья не моя, источник указан в конце, дублирую - https://venturebeat.com/ai/researchers-find-you-dont-need-a-ton-of-data-to-train-llms-for-reasoning-tasks/
https://habr.com/ru/articles/881974/
Вот полный перевод работы, там всё разъясняется
Месяц назад был подобный проект https://github.com/Jiayi-Pan/TinyZero - только там ограничились рассуждениями в узкоспециализированной области.
Основной вывод - если базовая модель включает необходимые знания, то чтобы обучить её рассуждать, достаточно чуть-чуть хорошо подобранных примеров.
Получается, нужно не просто пихать примеры, а смотреть что уже изучила модель и давать только новое для неё, парадоксальное. Это чем-то напоминает коаны в даосийской традиции, у которых и предназначение схожее.
Исследователи обнаружили, что больше не нужна тонна данных, чтобы обучить LLM выполнению логических задач