Обновить

GraphRAG: 8 способов укротить расширенный контекст у LLM

Уровень сложностиСложный
Время на прочтение24 мин
Охват и читатели5.5K
Всего голосов 10: ↑9 и ↓1+8
Комментарии2

Комментарии 2

Если Graph-Native Chunking настолько эффективен для точности, почему бы просто не использовать его результаты как один из потоков в Hybrid Search вместо стандартного векторного поиска? И как вы решаете проблему раздувания контекста при извлечении эго-сети второй глубины, если у центрального узла сотни связей?

На самом деле, в продакшн-решении пришел именно к этому. Здесь Hybrid Search описан как комбинация Graph + Vector для простоты понимания базового баланса. Однако Graph Search внутри гибрида может быть реализован именно через Graph-Native Chunking.

Причина, по которой разделил их в анализе - латенси. Graph-Native Chunking требует предварительной подготовки эго-сетей и верификации доказательной базы. Если пустить этот тяжелый процесс параллельно с векторным поиском в RRF, итоговая задержка системы всегда будет ограничена самым медленным компонентом (в нашем случае — графовым чанкингом, который достигает 5 секунд). Для моих бизнес-сценариев это неприемлемо, поэтому Hybrid Search оставил на облегченном графовом поиске.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Информация

Сайт
www.ontico.ru
Дата регистрации
Дата основания
Численность
51–100 человек
Местоположение
Россия