Pull to refresh

Comments 9

 "faktов" ? нейронкой генерили текст, она иногда так забавно смешивает языки

Спасибо за статью, познавательно

Спасибо, поправлю

Главная проблема llm это как раз память!!! Если их юзать не только как замену Гуглу то это очень важно. И сейчас это один из сильнейших стопоров в практическом применении

Автор молодец!

А что на счёт https://github.com/mempalace/mempalace? Кажется что это удобно. Для своего агента сделал так: кнопкой сохраняется краткая карточка памяти по всей сессии и в этой карточке есть ссылка на полную сессию. Самая суть из карточки идёт в индекс. У агента есть скилл memory и он читает индекс, если там что то интересует идёт в карточку и если надо ищет в полной сессии. Не универсальный метод но удобно

Это basically локальный RAG без саммари. Удобно, но это про retrieval, а не про память в широком смысле.

Возможно глупый вопрос, но что скажете насчёт памяти агентов вроде OpenClaw? По идее они частично тоже выполняют эту функцию, параллельно с другими.

Да, частично. OpenClaw тоже добавляет слой памяти, но это скорее memory-layer внутри агента: markdown-файлы, recall, compaction, wiki-слой, но это не универсальная память, а один из подходов под конкретный кейс.

Sign up to leave a comment.

Articles