Comments 6
Хоть бы ссылочку привели, а то все искать приходится =)
https://github.com/linanchernov/ena_standalone
кроме векторных хранилищ есть ещё:
- векторно-графовые
- и с datalog
но всё это больше про похожесть данных или про отношения данных.
как организовать текущее состояние и связи с прошлыми состояниями? и понимание этого "LLM движком"
Мы храним текущее состояние агента (цели, эмоциональный контекст, активные темы) отдельно от долговременной памяти. При каждом взаимодействии система находит релевантные узлы из прошлого и строит связную историю (не просто набор chunks).
Граф мы сериалим в нарратив перед передачей в роутер стейт. LLM видит не "вот 5 похожих фактов", а "вот причинно-следственная цепочка событий с временным контекстом". Это даёт понимание истории, а не просто recall фактов.
Ну гибриды (Neo4j, Weaviate) мощнее чистых векторов или чистых графов. Мы используем комбинацию подходов, но детали реализации — наш competitive advantage 😉
"Мы это доказали. ENA работает." Это хорошо. Широкая общественность сможет использовать это в виде какого-то продукта, чтобы тоже в этом убедиться, или это только какое-то лабораторное исследование, которое так и останется исследованием?
RAG — это не память. Разбираем архитектуру персистентных AI-агентов