Как стать автором
Обновить

Часть 3. Обзор технологий RAG для LLM: оптимизация извлеченных данных

Уровень сложностиПростой
Время на прочтение5 мин
Количество просмотров4.9K
Всего голосов 3: ↑3 и ↓0+3
Комментарии3

Комментарии 3

Крайне познавательно. Благодарю за перевод.

В системах RAG избыточная информация может негативно влиять на итоговую генерацию LLM (Large Language Model), а слишком длинные контексты вызывают проблему «потери в середине» (см. рис. 1).


График приведен на основании OpenAI GPT 3.5 Turbo моделей (старые).
Для обновленных моделей предполагаю, что не все так плохо, учитывая стандартный тест "Needle In a Haystack".

Не умоляю необходимость корректировки извлеченного контекста, но обращаю внимание, что проблемы меняются так быстро, что некоторые становятся менее актуальными.

Благодарю за комментарий. У меня не было возможности сравнить то, как было раньше с тем, как есть сейчас, но могу уверенно сказать, что то, как есть сейчас, меня категорически не устраивает — модели постоянно зажевывают середину. Собственно, это и стало одной из причин, по которой я стал интересоваться вопросами RAG - без RAG возможности ИИ-перевода в профессиональных целях выглядят совсем грустно.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации