Обновить
0
0

Пользователь

Отправить сообщение

Ollama - это лишь удобная оболочка над llama.cpp, с неприемлемыми настройками параметров по умолчанию, которые у тому же сложно отредактировать. llama.cpp гибче, производительнее. Большинство работы по поддержке моделей делает llama.cpp, а ollama просто подсасывает готовенькое. А из добросовестных форков llama.cpp мне известен koboldcpp - рекомендую его, нежели ollama.

Смысле Qwen 3 не open source?.. Ещё как open source/weights, в репозиториях всё лежит GitHub/Hugging Face, можно спокойно скачать веса

Модели Gemma 3 12B, 27b хороши как чат-боты, для творческого письма и т.п., а в программировании сильно уступают моделям от Qwen (QwQ 32B, Qwen 3 12B, 32B и выше)

Зато `wsl --update --pre-release` поставит :)

Информация

В рейтинге
Не участвует
Откуда
Киров (Кировская обл.), Кировская обл., Россия
Дата рождения
Зарегистрирован
Активность