Pull to refresh

Comments 3

Крайне познавательно. Благодарю за перевод.

В системах RAG избыточная информация может негативно влиять на итоговую генерацию LLM (Large Language Model), а слишком длинные контексты вызывают проблему «потери в середине» (см. рис. 1).


График приведен на основании OpenAI GPT 3.5 Turbo моделей (старые).
Для обновленных моделей предполагаю, что не все так плохо, учитывая стандартный тест "Needle In a Haystack".

Не умоляю необходимость корректировки извлеченного контекста, но обращаю внимание, что проблемы меняются так быстро, что некоторые становятся менее актуальными.

Благодарю за комментарий. У меня не было возможности сравнить то, как было раньше с тем, как есть сейчас, но могу уверенно сказать, что то, как есть сейчас, меня категорически не устраивает — модели постоянно зажевывают середину. Собственно, это и стало одной из причин, по которой я стал интересоваться вопросами RAG - без RAG возможности ИИ-перевода в профессиональных целях выглядят совсем грустно.

Sign up to leave a comment.

Articles