Обновить

Комментарии 2

Рассматривал ли ты вариант добавить поверх текущей схемы ещё один пост-шаг после генерации ответа, где LLM не ищет новую информацию, а переписывает уже найденный ответ, максимально приближая формулировки к retrieved-чанкам или стилю ответов из train, с явной ориентацией на embedding-метрику? И мог ли, на твой взгляд, такой слой дать ощутимый прирост скоринга без существенного усложнения архитектуры?

Нет, не рассматривал
Приближение старался делать на уровне промпта

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации