Обновить

Как я превратила Obsidian в структурированную память для ИИ‑агентов

Уровень сложностиСредний
Время на прочтение8 мин
Охват и читатели7.6K
Всего голосов 7: ↑3 и ↓4-1
Комментарии8

Комментарии 8

Я как человек, который тоже пытался скормить ИИ огромные заметки и потом ловил странные ответы «не в ту степь», прям понял боль. Особенно понравилась мысль, что агенту мало просто найти похожий текст ему надо понимать роль этого текста в системе. Иначе реально черновик и готовый вывод для него одинаковы. Выглядит уже не как просто RAG, а как попытка сделать нормальную рабочую память для агента.

В действительности и получилась хорошая рабочая память

2730 строчек в одном питон файле, который еще и залит в один репозиторий дважды - добро пожаловать в клуб изобретателей памяти для LLM.

Благодарю за подсказки! Буду делать рефакторинг

Отличная идея, и применима, видимо, не только к личному архиву. У меня похожая проблема - документация, общая, историческая и рабочая, по достаточно большим софтверным проектам. Дефекты, история принятия решений, текущая архитектура, планы на будущее.. Похоже, это все хорошо ложится на вашу концепцию. Надо будет попробовать!

Вопрос - а можно будет вместо SQLite опционально использовать что-то текстовое, чтоб в Git-e держать?

Благодарю, применение действительно планируется достаточно широкое. Для вашего кейса система отлично подойдёт, главное настроить эталоны под предметную область! Да, можете хранить документацию, связи и метаданные в Git, тогда SQLite будет использоваться как локальный пересобираемый кэш. Если нужен именно текстовый JSONL‑индекс вместо SQLite, то это уже отдельная доработка: нужно добавить text storage backend, сейчас такого переключателя в конфиге нет.

Интересно. Одно смущает , почему все до сих пор используют Обсидиан и куча статей про него идет и идет , я нашел более интересный инструмент TrilliumNext , жаль что про него почти нет статей , как по мне на голову лучше Обсидиана.. у меня тысячи заметок , в какой то момент все это дело стало жутко тормозить , поиск даже с плагинами вроде Omnisearch мог повиснуть на секунд 20-30 (и это у меня пк около-топ). А тут я свои заметки перенес в trillium и поиск выдает за секунду , т.к база данных не файловая , а в SQLite. А в плане синхронизации .. развернул на своем vps простой докер контейнер (сервер) и с него синхронизируюсь по токену с любого ПК (телефон не проверял , не пользуюсь) , ну и автобэкапы делает программа.

PS: Уж простите не удержался)) Я подумал про скорость работы и если дать тому же агенту шурудить* тысячи файлов , сколько времени это займет , пока он там будет grep делать и т.п в поисках нужной информации , а тут нужную инфу найдет за секунды.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации