Как стать автором
Обновить

На START, внимание, марш: как победить галлюцинации и научить LLM точным вычислениям

Уровень сложностиПростой
Время на прочтение4 мин
Количество просмотров1.7K
Всего голосов 8: ↑8 и ↓0+10
Комментарии6

Комментарии 6

если эту статью сгенерировала не "START", даже не зовите меня на эту вечеринку. ;)

раздел "пруфы", к сожалению, не соответствует предшествующему блоку ("зачем нужна START"). утверждения, в целом, верны, но они никак не обосновывают полезность конкретного инструмента.

в целом же, появление подобного инструментария было ожидаемо и вполне очевидно. хотя, конечно, так хочется иметь на своем карманном калькуляторе калькуляторе "маленькую нейронную сеть, которая, без подкрепления, всё сама, и без перерасхода батареек, да ещё и не врала, при удовлетворительной точности"...

Прекрасно. А где ссылки, где это все можно проверить?

К сожалению, авторы оригинальной статьи ссылками не поделились, однако именно фрейморк START описан подробно и некоторые его реализации можно найти в open-source (в том числе и обученные модели):

https://github.com/dongguanting/Tool-Star

Например, для задачи «Найди сумму цифр числа 29!» модель сначала вычисляет факториал кодом, а потом анализирует ответ. 

По-моему логичнее было бы сначала уточнить !, это восклицание или факториал, а потом уже вычислять

Вот в том то и отличие человека от машины - он умеет думать!

Человек поймет это предложение как восклицательное (восклицательный знак это просто символ конца предложения), ведь факториал - это произведение всех натуральных чисел от 1 до n, а тут написано НАЙДИ СУММУ.

А вот что там вычислит нейросеть - это еще вопрос.

А при чем тут галлюцинации? По-моему вы путаете два понятия. Галлюцинации так же возникают из за случайного выбора, в статье данный подход их не решает.

Вы описали агентскую систему. Ок, классно. Она улучшает работу системы в целом, но к заголовку ни как не относится. Проблему галлюцинаций она не решает, а решает проблему специализации обучения конкретным данным, и решения части задач выходящих за рамки LLM.

Не понимаю, зачем кликабельный заголовок делать. Затем писать тонну воды. Почему сразу было не сделать фокус на агентской сетки, где вы предложили свой способ (обучения или только рассуждения?) для улучшения качества ответа.

Галлюцинации, это например когда модель вместо слова "соотношение" вставила слово "сношение". Как яркий пример случайного выбора вероятности. И в каких то случаях это не повлияет сильно на ответ, а в каких то наоборот. Или же ответы "вода" (ни о чем), когда модел не можем вместить в себя все детали и начинает обобщать. Что приводит к тому, что она не способна больше уловить детали в данной области и вынуждена обобщать все данные. Это тоже своего рода галлюцинации, хотя не в прямом смысле.

Ваша модель не решает первую задачу. И немного затрагивает вторую задачу.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий