Search
Write a publication
Pull to refresh

Comments 5

Поток сознания: пишу в духе "Прочитай весь диалог и напиши его выжимку", когда замечаю отход от темы. После чего начинаю новый диалог первым сообщением вставив то, что было сгенерировано ранее.

Но я не смог пока подобрать устраивающий запрос для обобщения. И туда же порой хочется получить глоссарий по какой-то теме, список имён и терминов, например, чтобы при переводе его закинуть в файлы и не получать каждый раз разный перевод имён.

Сталкивался с подобным поведением  LLM. И ChatGPT, и Grok после определенного количества запросов забывают детали проекта. Что помогает:

1. Не перескакивать с одного проекта на другой (для рецепта борща использовать бесплатную версию).

2. В промпте использовать референсы: после текста с описанием задачи добавлять — «Reference: здесь добавить copy-paste code непосредственно относящиеся к текущей задаче.

3. Так же можно подгрузить последнюю версию проекта и жестко указать: Current version of «part of project» - use it as a base.

Если структура накапливаемой информации заранее известна непонятно тогда зачем вообще копить по 50 сообщений. А если неизвестна то ллм обязательно будет тупить (а кто не будет?).

Может лучше будет держать в памяти постоянный хвост из 10 последних запросов + отдельно структурированные накопления и инструкцию. Можно еще третий уровень памяти добавить, всё то что автоматически вытесняется из окна в 10 последних запросов сохранять в RAG и дергать оттуда когда ллмке покажется что это нужно.

Это как раз я хочу поднять в следующей статье, чтобы объяснить и помочь разобраться, как работает к примеру банк в cursor, и аналогах, а также особенности работы с памятью, когда нужно вгружать слишком много контекста (так как там есть еще подход для работы)

1) Семантическая память - хранит фактические знания, концепции и взаимосвязи. В LLM-системах это реализуется через векторные базы данных, RAG (Retrieval-Augmented Generation), и структурированные хранилища знаний.

2) Эпизодическая память - сохраняет последовательности прошлых событий и взаимодействий. Для агентов это означает возможность вспоминать предыдущие разговоры, извлекать уроки из опыта и использовать контекст прошлых взаимодействий для улучшения будущих ответов.

3) Процедурная память - содержит алгоритмы, процессы и паттерны поведения. В LLM-агентах это проявляется как внутренние рутины, методы решения задач и навыки использования инструментов.

Это деление для ЯМ весьма условное, может приводить к непониманию, т.к. в ЯМ реализован некоторый аналог того, что в психофизиологии называется ассоциативной памятью, примеры исследований - 1, 2, 3, моделирование - 4, для ЯМ - 5, 6. Из-за этого неизбежность фантазирования ("галлюцинаций") ЯМ, это их неустранимое свойство. Что касается процедурной памяти, то из-за ее отсутствия ЯМ, например, в принципе не могут считать любые числа без посторонних костылей - 1, 2. Cемантическая память также в основном сводится к ассоциативности, а не глубоким концептуальным связям - ЯМ можно легко переубедить, подобных примеров приводится масса. Это все следствия ограничений трансформерной (прямой) архитектуры ЯМ, которые со временем устранятся с помощью тех же нейроморфных решений.

Sign up to leave a comment.

Articles