Comments 15
Карамелька - черепаха)))
Такой окрас:)

Добрый день, я верно понимаю что в теории можно проиндексировать всё что есть в архивах (документы, заметки и т.п.) и на этой основе LLM сможет выдавать информацию в удобоваримой форме по запросу?
В том плане неразобранной информации очень много, и чтобы это всё автоматизировать.
Очень надеюсь, что да. Хоть я свои заметки веду связанно, но, видя, как рассуждает модель и пытается найти ответ, могу сказать, что шансы большие.
В целом, я продолжаю исследовать вопрос и хотел бы найти лучшее решение для корпоративной информации, где как раз идут клубки информации. Большая надежда на проект KAG.
Возможны варианты: могли кошку Карамельку их-за окраски/темперамента упомянуть черепашкой. Скорее вопрос к Автору - это его реальный пример? Кто такая Карамелька? В папку Кошки могла заползти черепаха?
Не понял, зачем вторая модель, если используете qwq? Она же поддерживает embeding?
Ну и почему-то не хочет использовать все записи даже после индексации. В source лишь несколько заметок.
Не знал, что qwq поддерживает встаривание. Проверил, qwq строит индекс 20 минут против 20 секунд у bge-m3. После qwq модель отказалась отвечать и не смогла пройтись по построенному индексу.
У меня 350+ страниц, после индексации Copilot использует все на первом вопросе-теме. Со следующей темой разговора Copilot не может справиться, как будто теряя индексы. Решением нашёл закрытие и повторное открытие Obsidian с перестроением индекса.
А просто перестроить индекс не помогает?
Блин, вроде бы простая задача - прикрутить АИ к заметкам, и инструмента есть, и хрен заставишь работать :(
Не помогает.
Разумеется, я не исключаю, что это ошибка разработчиков. Особенно если учитывать, что их платное дополнение Copilot Plus находится в стадии бета-тестирования.
На текущий момент я не держусь за Copilot. Нашёл вереницу проектов с подобным функционалом и даже шире. Это не расширение для Obsidian, конечно, но это и хорошо. Например, KAG. Надо пробовать. Надеюсь, хватит времени и сил.
Другие ребята написали Note Companion, и он функциональнее и интереснее. Кроме "общения с заметками", например, можно кидать быструю заметку в inbox, а плагин по тексту сам поймет, к чему она относится, и перенесет в соответствующую директорию. Или может разметить ее тегами и переименовать, или привести к определенному формату и т.п.
Пробовали использовать модель Colbertv2 для индекса?
Нет, но буду иметь в виду. В базе Ollama не нашёл, но вижу, есть GGUF на HuggingFace. В следующем анализе попробую его.
Не знаю можно ли через Ollama её использовать.
Я использовал через библиотеку FastEmbed для создания индекса и поиска.
qdrant/fastembed: Fast, Accurate, Lightweight Python library to make State of the Art Embedding
Общение с LLM-моделью по собственной базе знаний в Obsidian