Комментарии 9
Хоть бы ссылочку привели, а то все искать приходится =)
https://github.com/linanchernov/ena_standalone
кроме векторных хранилищ есть ещё:
- векторно-графовые
- и с datalog
но всё это больше про похожесть данных или про отношения данных.
как организовать текущее состояние и связи с прошлыми состояниями? и понимание этого "LLM движком"
Мы храним текущее состояние агента (цели, эмоциональный контекст, активные темы) отдельно от долговременной памяти. При каждом взаимодействии система находит релевантные узлы из прошлого и строит связную историю (не просто набор chunks).
Граф мы сериалим в нарратив перед передачей в роутер стейт. LLM видит не "вот 5 похожих фактов", а "вот причинно-следственная цепочка событий с временным контекстом". Это даёт понимание истории, а не просто recall фактов.
Ну гибриды (Neo4j, Weaviate) мощнее чистых векторов или чистых графов. Мы используем комбинацию подходов, но детали реализации — наш competitive advantage 😉
"Мы это доказали. ENA работает." Это хорошо. Широкая общественность сможет использовать это в виде какого-то продукта, чтобы тоже в этом убедиться, или это только какое-то лабораторное исследование, которое так и останется исследованием?
регистрация и бюрократия в процессе. в 2026 выходим в рынок)
Вместо flat vector store — граф памяти.
Терзают аналогичные мысли. Но я видимо ещё значительно дальше от результата, чем вы.
регистрация и бюрократия в процессе. в 2026 выходим в рынок)
Как прогресс? Хочется пощупать вживую.

RAG — это не память. Разбираем архитектуру персистентных AI-агентов