Comments 9
"faktов" ? нейронкой генерили текст, она иногда так забавно смешивает языки
Спасибо за статью, познавательно
Картинки недоступны
Главная проблема llm это как раз память!!! Если их юзать не только как замену Гуглу то это очень важно. И сейчас это один из сильнейших стопоров в практическом применении
Автор молодец!
А что на счёт https://github.com/mempalace/mempalace? Кажется что это удобно. Для своего агента сделал так: кнопкой сохраняется краткая карточка памяти по всей сессии и в этой карточке есть ссылка на полную сессию. Самая суть из карточки идёт в индекс. У агента есть скилл memory и он читает индекс, если там что то интересует идёт в карточку и если надо ищет в полной сессии. Не универсальный метод но удобно
Возможно глупый вопрос, но что скажете насчёт памяти агентов вроде OpenClaw? По идее они частично тоже выполняют эту функцию, параллельно с другими.
У ChatGPT и Claude уже есть память. Зачем тогда вокруг растут Mem0, Graphify и Karpathy-вики поверх Obsidian