Обновить

Прокачиваем RAG: тестируем техники и считаем их эффективность. Часть 1

Уровень сложностиПростой
Время на прочтение15 мин
Количество просмотров10K
Всего голосов 22: ↑21 и ↓1+20
Комментарии6

Комментарии 6

Восхитительная статья! Я сейчас семантический RAG изучаю и было очень полезно :) Надеюсь, что во второй части расширится набор LLM и эмбеддеров для стабильных выводов (сейчас ограниченность сэмпла, в разных моделях ведь разные position-bias и приоритеты, RAG ведёт себя по-разному). Резюме под спойлерами у Вас везде очень качественные, но редко дают количественные оценки (токены, стоимость, всё такое) — как с этим на практике? Очень бы хотелось увидеть пару явных рекомендаций по настройкам индекса и параметрам эмбеддера. 🙏🏻Если есть примеры failure-case’ов — вообще будет интересно!

Спасибо за огромную работу!

Спасибо большое, очень приятно это слышать!

Все количественные метрики, примеры ошибок (без них ни как) и подобное будет во второй части — там мы поговорим про это подробнее. В текущем сравнении я сознательно зафиксировал LLM и эмбеддеры, чтобы сфокусироваться на различиях RAG-техник. Хотя в реальных проектах, действительно, стоит перебирать разные модели и эмбеддеры из-за смещений.

Постараюсь скорее закончить вторую часть, чтобы уже можно было увидеть цифры, графики и примеры работы. Но пока работа вносит свои корректировки :)

Присоединяюсь, статья супер! Спасибо за ваш труд! Ждём продолжения

Спасибо за поддержку!)

Отличная статья. Реализовал базовый RAG и ищу возможности повышения точности. Статья даёт объемный анализ с + и -.

Отлично, вы на верном пути!

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации