Comments 3
На один и тот же запрос они дают очень похожие, а иногда и идентичные ответы. Это ожидаемо, ведь все современные LLM построены на одной и той же архитектуре - трансформерах.
не совсем верное утверждение. Ответы часто одинаковые из-за того, что для разных моделей дата-сеты, используемые для обучения пересекаются с другими моделями. И ChatGPT, и Gemini и DeepSeek частично были обучены на одних и тех же общедоступных данных. Поэтому часто ответы совпадают.
Проблема хорошо разобрана в статье https://arxiv.org/html/2410.08385v1
Я тут пытался донести мысль, что Модели, как и Люди, устроены похоже друг на друга. Как один человек похож на другого, так и одна модель-трансформер похожа на другую. Мы все обучаемся на каких-то общих данных и у нас у каждого есть свой персональный опыт.
Есть круг вопросов, на которые люди в массе своей дают очень похожие ответы. Это как раз область популярных общих данных. Чем более общий вопрос мы задаём Человеку или Модели, тем больше вероятность получить одинаковый ответ на этот вопрос.
Другими словами, есть круг вопросов, ответы на которые будут совпадать между Моделями и Людьми вплоть до идентичности, а есть - когда ответы будут разниться очень сильно. При создании приложений при помощи агентов можно и нужно использовать Модели именно в таких вопросах и крайне желательно обрезать их творческую составляющую, как непредсказуемую.
именно в таких вопросах и крайне желательно обрезать их творческую составляющую, как непредсказуемую.
Хм. А мне как раз "творческая составляющая" и важна.
Я заметил, что у меня часто запросы к LLM по части кодинга и в некоторых других вещах, такие, что они просто не обсуждались на StackOverflow и на Reddit никогда ещё ни кем. Поэтому ответ выдаваемый LLM-кой часто зависит от её творчерсокй составляющей, а не от заложенных шаблонов при обучении.
Да и думаю не только мне именно это важно. За этим и используют LLM.
ADSM: границы возможностей Моделей