Обновить
0
0

Пользователь

Отправить сообщение

Рассматривал ли ты вариант добавить поверх текущей схемы ещё один пост-шаг после генерации ответа, где LLM не ищет новую информацию, а переписывает уже найденный ответ, максимально приближая формулировки к retrieved-чанкам или стилю ответов из train, с явной ориентацией на embedding-метрику? И мог ли, на твой взгляд, такой слой дать ощутимый прирост скоринга без существенного усложнения архитектуры?

Информация

В рейтинге
Не участвует
Зарегистрирован
Активность

Специализация

Специалист
Ведущий
От 200 000 €
Архитектура предприятия
TOGAF