Комментарии 2
Если Graph-Native Chunking настолько эффективен для точности, почему бы просто не использовать его результаты как один из потоков в Hybrid Search вместо стандартного векторного поиска? И как вы решаете проблему раздувания контекста при извлечении эго-сети второй глубины, если у центрального узла сотни связей?
На самом деле, в продакшн-решении пришел именно к этому. Здесь Hybrid Search описан как комбинация Graph + Vector для простоты понимания базового баланса. Однако Graph Search внутри гибрида может быть реализован именно через Graph-Native Chunking.
Причина, по которой разделил их в анализе - латенси. Graph-Native Chunking требует предварительной подготовки эго-сетей и верификации доказательной базы. Если пустить этот тяжелый процесс параллельно с векторным поиском в RRF, итоговая задержка системы всегда будет ограничена самым медленным компонентом (в нашем случае — графовым чанкингом, который достигает 5 секунд). Для моих бизнес-сценариев это неприемлемо, поэтому Hybrid Search оставил на облегченном графовом поиске.
GraphRAG: 8 способов укротить расширенный контекст у LLM