Комментарии 27
Отличная работа, спасибо! Очень круто было бы еще получить gguf и ONNX версии!
Приветствую, отличная идея. Среди комьюнити уже есть onnx версия, мы также приглашаем энтузиастов к созданию gguf.
Крайне хотелось бы, чтобы gguf выпускался сразу, а не "если найдутся энтузиасты". Поскольку без оного, затруднительно использовать как ваше творение так и поделия deepvk. Приходится использовать bge-m3, который единственный из поддерживаемых ollama может в великий и могучий.
Подозреваю что gguf не делаются из за несовместимых архитектур.
Если есть примеры gguf t5 то совместимо, сейчас глянем.



Наш товарищ из opensource Павел, сделал ггуф https://huggingface.co/evilfreelancer/FRIDA-GGUF.
скажите, а есть ли сравнение качества с закрытыми моделями от OpenAI, Anthropic, Yandex?
Скажите. Как правильно оценить деградацию качества модели (эмбед или ллм) по отношению к английскому. К примеру llama официально может 8 языков. Но там нет русского. Как оценить качество понимания и написания ей русского, относительно английского? На сколько та или иная модель вообще способна в языки.
А если модели т-банка сравнить? Lite там прямо не всегда как надо пашет на внятных текстах, а вот полная...
Моделька топ, очень хороша в поиске. Ставлю лайк 👍🏻
Столько странных слов, что не удаётся понять, для чего это всё.
Было бы хорошо, если бы в начале статьи писали для не специалистов, для чего эта модель может использоваться, а потом уже технические подробности.
Модель полезна для задач матчинга, поиска, поверх нее можно делать классификацию и кластеризацию. Хороший эмбеддер для RAG.
Мне кажется, что стоит сильнее упростить ответ, а то количество странных слов осталось прежним...
Модель превращает ваш текст в чиселки - вектор, как в 9ом классе на алгебре или геометрии. Далее этот вектор используется для того, чтобы искать другие вектора, привязанные к др фразам. Так происходит поиск, а также если это фразы команд в вашей базе команд, то и поиск команд. А еще поверх чиселок можно группироват-кластеризовать тексты и искать закономерности. Это не LLM которая работает как текст на вход и текст на выход.
Может кто подскажет статью для нубов, как такие модели использовать на практике? Например, это же можно использовать для того, чтобы преобразовать фразу на естественном языке "сделай свет поярче" в понятную "цифровую" команду для умного дома?
Да, эта задача называется классификация интентов. FRIDA была обучена в том числе для этого. Для этого нужно обучить kNN поверх эмбеддингов, смотрите эту статью для понимания о чем речь. Потребуется датасет вида "команда на естественном языке" - "цифровая команда". Смотрите в карточке модели как получать эмбеддинги и посмотрите туториал как обучать kNN.
Отличная работа! Хотел бы сделать на ней небольшой pet-проект, только не могу найти доков для файнтюна. Подскажите, пожалуйста, они вообще существуют?))
Можно использовать библиотеку sentence-transformers, в документации есть инструкция по файнтюну и много примеров.
Приятный релиз, спасибо!
Тестировал недавно множество embedding-моделей на задачах кластеризации семантики поисковых запросов и обнаружил, что все модели в этом, мягко говоря, не очень.
Причина в ограниченности словаря и емкости знаний о мире в подобных моделях, как мне кажется.
Опишу пару примеров.
Есть ситуации, когда опечатка в одном или паре символов не меняет смысл фразы и модели справляются хорошо с построением embedding'ов для таких фраз / строк. Они остаются близки в метриках, что является ожидаемым и правильным поведением.
А есть такие строки, например, обозначающие какую-то продукцию определенного производителя, когда замена одного символа означает совершенно другой класс товара как минимум. Но модели продолжают видеть подобные строки как близкие.
Есть ли в планах расширить датасет подобными примерами, дополнительно тюнить модели под подобные задачи?
Подскажите, на вас сколько завялений в день катают и почему без толку?

Знакомьтесь, FRIDA. Открытая эмбеддинг-модель для русского языка