Comments 5
Поток сознания: пишу в духе "Прочитай весь диалог и напиши его выжимку", когда замечаю отход от темы. После чего начинаю новый диалог первым сообщением вставив то, что было сгенерировано ранее.
Но я не смог пока подобрать устраивающий запрос для обобщения. И туда же порой хочется получить глоссарий по какой-то теме, список имён и терминов, например, чтобы при переводе его закинуть в файлы и не получать каждый раз разный перевод имён.
Сталкивался с подобным поведением LLM. И ChatGPT, и Grok после определенного количества запросов забывают детали проекта. Что помогает:
1. Не перескакивать с одного проекта на другой (для рецепта борща использовать бесплатную версию).
2. В промпте использовать референсы: после текста с описанием задачи добавлять — «Reference: здесь добавить copy-paste code непосредственно относящиеся к текущей задаче.
3. Так же можно подгрузить последнюю версию проекта и жестко указать: Current version of «part of project» - use it as a base.
Если структура накапливаемой информации заранее известна непонятно тогда зачем вообще копить по 50 сообщений. А если неизвестна то ллм обязательно будет тупить (а кто не будет?).
Может лучше будет держать в памяти постоянный хвост из 10 последних запросов + отдельно структурированные накопления и инструкцию. Можно еще третий уровень памяти добавить, всё то что автоматически вытесняется из окна в 10 последних запросов сохранять в RAG и дергать оттуда когда ллмке покажется что это нужно.
1) Семантическая память - хранит фактические знания, концепции и взаимосвязи. В LLM-системах это реализуется через векторные базы данных, RAG (Retrieval-Augmented Generation), и структурированные хранилища знаний.
2) Эпизодическая память - сохраняет последовательности прошлых событий и взаимодействий. Для агентов это означает возможность вспоминать предыдущие разговоры, извлекать уроки из опыта и использовать контекст прошлых взаимодействий для улучшения будущих ответов.
3) Процедурная память - содержит алгоритмы, процессы и паттерны поведения. В LLM-агентах это проявляется как внутренние рутины, методы решения задач и навыки использования инструментов.
Это деление для ЯМ весьма условное, может приводить к непониманию, т.к. в ЯМ реализован некоторый аналог того, что в психофизиологии называется ассоциативной памятью, примеры исследований - 1, 2, 3, моделирование - 4, для ЯМ - 5, 6. Из-за этого неизбежность фантазирования ("галлюцинаций") ЯМ, это их неустранимое свойство. Что касается процедурной памяти, то из-за ее отсутствия ЯМ, например, в принципе не могут считать любые числа без посторонних костылей - 1, 2. Cемантическая память также в основном сводится к ассоциативности, а не глубоким концептуальным связям - ЯМ можно легко переубедить, подобных примеров приводится масса. Это все следствия ограничений трансформерной (прямой) архитектуры ЯМ, которые со временем устранятся с помощью тех же нейроморфных решений.
Консолидация памяти — или как избежать альцгеймера у LLM