Comments 11
Модель, модель...
Модель чего??
Языковая модель.
https://ru.wikipedia.org/wiki/Языковая_модель
Все указанные .gguf ссылки не работают на llama.cpp (самое последней master, только что проверил), пишут что
llama.cpp unknown model architecture: 'deepseek2'
притом что штатный convert.py ее поддерживает, это значит квантизацией занимались под какую то другую версию llama.cpp
Довольно интересно все это попробовать.
Отдельно спасибо за описание того, на чем это все можно локально запустить! Пробовал TabbyML, в качестве этакой замены copilot, сейчас бегло с телефона посмотрел Continue и он уже выглядит очень мощной и многофункциональной штукой. Если квантованная модель поместится в видеопамять, будет здорово иметь локального помощника в случае чего.
Если кому надо, сделал OpenAI API-совместимый доступ к большой модели (236B) у себя на сервисе. Можно к Continue подключить, например - плагин поддерживает сторонние OpenAI API сервера для моделей.
Представлена открытая LLM модель для кода DeepSeek-Coder-V2 на 16B и 236B. Теоретический конкурент для Codestral 22B