Комментарии 5
Рассматривал ли ты вариант добавить поверх текущей схемы ещё один пост-шаг после генерации ответа, где LLM не ищет новую информацию, а переписывает уже найденный ответ, максимально приближая формулировки к retrieved-чанкам или стилю ответов из train, с явной ориентацией на embedding-метрику? И мог ли, на твой взгляд, такой слой дать ощутимый прирост скоринга без существенного усложнения архитектуры?
а что если документы противоречат друг другу?
У тебя ансамбль ретриверов может вытащить чанки из разных источников с разной информацией (например, старая и новая редакция документа). Как LLM решает кому верить?
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Data-Feeling-School-RAG-Challenge или по ту сторону баррикад