Comments 6
Надеюсь, они не добавят туда ещё и нейросети для обработки графов!
Трансформер - частный случай графовой нейронной сети :]
Вот ссылка на детальный разбор - https://graphdeeplearning.github.io/post/transformers-are-gnns/
При всём уважении, но тема не раскрыта!
Что из себя представляет Граф-знаний? И в каком формате передаётся в LLM? А главное какие LLM вообще воспринимают Графы-знаний?
"В 2017 году архитектура трансформатора упростила обработку долгосрочных зависимостей в тексте " - дальше можно не читать.
"Векторная база данных используется для поиска соответствующих точек входа графа (узлов) с поиском по сходству."
Чушь написана. Самое главное - как формируются графы (узлы и ребра) автор видимо не понял
Заключение просто повеселило - такие "спецы" советуют нам как жить!
В каком-то смысле GraphRAG — это своего рода "воссоединение" вычислительного ИИ (LLM) и зафиксированных знаний (графы знаний)
Почему "зафиксированных"? Разве Граф Знаний не должен обновляться при получении новых фактов, которые не укладываються в его онтологию?
КЕМ и с помощью ЧЕГО создаюеться Граф Знаний? Людьми или ИИ?
"...Выполняются запросы к графу для поиска связанных узлов, что позволяет формировать граф знаний..." (с)
Так все-таки для чего нужны эти запросы? Чтобы формировать граф или чтобы извлекать из графа уже имеющююся там информацию?
В каком фрмате храниться информация в графах знаний? В каком формате передается запрос и полутаеся ответ? Как и кем графы знаний формируються и обновляються(!)?
Статья очень поверхностная.
GraphRAG: Повышение точности и полноты GenAI