Как стать автором
Обновить

Исследователи обнаружили, что больше не нужна тонна данных, чтобы обучить LLM выполнению логических задач

Время на прочтение5 мин
Количество просмотров10K
Всего голосов 8: ↑7 и ↓1+6
Комментарии5

Комментарии 5

Месяц назад был подобный проект https://github.com/Jiayi-Pan/TinyZero - только там ограничились рассуждениями в узкоспециализированной области.

Основной вывод - если базовая модель включает необходимые знания, то чтобы обучить её рассуждать, достаточно чуть-чуть хорошо подобранных примеров.

Получается, нужно не просто пихать примеры, а смотреть что уже изучила модель и давать только новое для неё, парадоксальное. Это чем-то напоминает коаны в даосийской традиции, у которых и предназначение схожее.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий