Хабр Курсы для всех
РЕКЛАМА
Практикум, Хекслет, SkyPro, авторские курсы — собрали всех и попросили скидки. Осталось выбрать!

Рассматривал ли ты вариант добавить поверх текущей схемы ещё один пост-шаг после генерации ответа, где LLM не ищет новую информацию, а переписывает уже найденный ответ, максимально приближая формулировки к retrieved-чанкам или стилю ответов из train, с явной ориентацией на embedding-метрику? И мог ли, на твой взгляд, такой слой дать ощутимый прирост скоринга без существенного усложнения архитектуры?
Data-Feeling-School-RAG-Challenge или по ту сторону баррикад