Pull to refresh

Comments 15

Добрый день, я верно понимаю что в теории можно проиндексировать всё что есть в архивах (документы, заметки и т.п.) и на этой основе LLM сможет выдавать информацию в удобоваримой форме по запросу?
В том плане неразобранной информации очень много, и чтобы это всё автоматизировать.

Очень надеюсь, что да. Хоть я свои заметки веду связанно, но, видя, как рассуждает модель и пытается найти ответ, могу сказать, что шансы большие.

В целом, я продолжаю исследовать вопрос и хотел бы найти лучшее решение для корпоративной информации, где как раз идут клубки информации. Большая надежда на проект KAG.

Возможны варианты: могли кошку Карамельку их-за окраски/темперамента упомянуть черепашкой. Скорее вопрос к Автору - это его реальный пример? Кто такая Карамелька? В папку Кошки могла заползти черепаха?

Да, это реальный пример. Моя база состоит из 350 документов. А фрагмент с кошками в файле «Семья» выглядит вот так. Т. е. Карамелька имеет окрас «Черепаха табби с белым». Честно записал, как мне продиктовала заводчица.

Не понял, зачем вторая модель, если используете qwq? Она же поддерживает embeding?
Ну и почему-то не хочет использовать все записи даже после индексации. В source лишь несколько заметок.

Не знал, что qwq поддерживает встаривание. Проверил, qwq строит индекс 20 минут против 20 секунд у bge-m3. После qwq модель отказалась отвечать и не смогла пройтись по построенному индексу.

У меня 350+ страниц, после индексации Copilot использует все на первом вопросе-теме. Со следующей темой разговора Copilot не может справиться, как будто теряя индексы. Решением нашёл закрытие и повторное открытие Obsidian с перестроением индекса.

А просто перестроить индекс не помогает?
Блин, вроде бы простая задача - прикрутить АИ к заметкам, и инструмента есть, и хрен заставишь работать :(

Не помогает.

Разумеется, я не исключаю, что это ошибка разработчиков. Особенно если учитывать, что их платное дополнение Copilot Plus находится в стадии бета-тестирования.

На текущий момент я не держусь за Copilot. Нашёл вереницу проектов с подобным функционалом и даже шире. Это не расширение для Obsidian, конечно, но это и хорошо. Например, KAG. Надо пробовать. Надеюсь, хватит времени и сил.

После долгих танцев с бубном у меня остались для использования
mxbai-embed-large:latest
и gemma3:12b-it-qat
В этом конфиге даже контекст меняется и более менее выборка релевантная
С bge и nomic-embed-text:latest у меня дружбы не получилось. Выбирали что попало :(

Другие ребята написали Note Companion, и он функциональнее и интереснее. Кроме "общения с заметками", например, можно кидать быструю заметку в inbox, а плагин по тексту сам поймет, к чему она относится, и перенесет в соответствующую директорию. Или может разметить ее тегами и переименовать, или привести к определенному формату и т.п.

https://www.notecompanion.ai/

Пробовали использовать модель Colbertv2 для индекса?

Нет, но буду иметь в виду. В базе Ollama не нашёл, но вижу, есть GGUF на HuggingFace. В следующем анализе попробую его.

Sign up to leave a comment.

Articles