Обновить

Computer Vision модель в борьбе с галлюцинациями LLM. Оправданный оверинжиниринг?

Уровень сложностиПростой
Время на прочтение5 мин
Охват и читатели5.3K
Всего голосов 1: ↑1 и ↓0+1
Комментарии3

Комментарии 3

Не пробовали другие модели? Вдруг они лучше в пространственной геометрии чем джемини.

Начинал с ChatGPT. Сделал вывод, что их всех клинит плюс/минус одинаково. Но каюсь, широких экспериментов не проводил.

Да, приходится и костыли городить, для LLM. Либо одна и та же модель с разными промптами в разных аспектах, либо разные модели с разными промптами. Все разбито на этапы. Например "придумай анекдот про кота". > результат > как бы параллельная оценочная комиссия, но поскольку GPU у меня на это выделен только один, идет жонглирование моделями, либо проще в каждом "инстансе" свой промпт, коих можно наделать дофига, главное все разные. И комиссия нейросетей критикует автора и отправляет результат на доработку, в итоге и контекстное окно особо не забито, а комиссия вообще не имеет контекстного окна, они оценивают каждый раз заново. Но этот подход чреват тем, что вместо 30 токенов в секунду, оно думать может полдня на полной скорости. Есть подозрение, что мета-архитектура должна повторять внутреннюю архитектуру LLM, только на более высоком уровне, но это лишь предположение.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации