Comments 14
Работа с урезанной версией LLM полна страданий. Модель понимает только очень простые вещи. Если плохо понимает на русском языке - необходимо переходить на английский.
Попробуйте gemma3.
gemma3 не заявлена как поддерживающая вызовы инструмента, по крайней мере у ollama.
Попробовал gemma3 в Ollama, не работает генерация эмбеддингов (OllamaEmbeddingGenerator), т.е. как минимум RAG не сделать. Возможно позже у Ollama появится поддержка для этой модели.
К слову, добавил в последнюю 12-ую версию голосового помощника Ирины плагины, вызываемые через ИИ: https://github.com/janvarev/Irene-Voice-Assistant/commit/b32a41840545ad5fbc7c665ba02135dc1b1a9c4a
Работает через стандартный механизм tools - как с локальными, так и с удаленными сетями.
Наконец-то что-то полезное на тему моделей, а не очередная статья "ИИ оставит вас без работы". Большое спасибо.
Мда, и это питон-то тяжелый. Столько трудов и не получилось ничего. На питоне + llm + whisper подобная штука пишется дня за 3 с перекурами. Но использование мелких моделей это однозначно минус (нужна видеокарта), но опять же совсем простые команды в том же питоне можно заскриптовать прям в коде, без всяких LLM.
Тяжела и неказиста нейрожизнь без питониста =)
Заметил, что qwen3 плохо работает с функциями в ollama. Но если подключиться через OpenAI API к Ollama, то все хорошо (http://127.0.0.1:11434/v1).
А че, так можно было что ли?
Это я так себя чувствовал, когда открыл статью. Последнюю неделю мучаю свою видеокарту в попытках выдать интересные диалоги через sillytavern + oogabooga, но получается слишком медленно для голосового помощника и слишком нестабильно. Хотелось добавить индивидуальности, которая есть у той же Алисы.
Спасибо автору за много примеров в статье. Вдохновляют написать что-то свое, а не пытаться собрать Франкенштейна из опенсорсных решений.
Ну все работает, жаль словари маленькие пока! Имена не понимает, например - Вика кто? ответ должен быть сестра, а он не распознает Имя
Алиса, подвинься