Comments 3
Я ее в Playground от HF попробовал и без примеров научил ее писать комменты в Youtube по заданному комментарию, или на вопросв Mail RU отвечать как человек. И это легко делать, модель реально гибкая!
Нет, с моделями CoT типа ChatGPT o1-preview пока даже qwen 2.5 32b не сравнится. Но они действительно впечатляют. Модель 7b, к примеру, отлично дополняет код, исправляет ошибки, при этом работает быстро и с очень большим контекстным окном, что позволяет, скажем, объединить несколько файлов исходного кода в один промпт.
Тут отлично работает такой подход: обычная модель qwen 2.5 72b используется для подсказок по архитектуре, а coder - для написания кода. Ещё недавно была совершенно невероятная, как казалось, модель codestral 22b, но в ряде задач ее обходит даже qwen coder 7b, а 32b вообще разносит.
Спасибо за интересную информацию. На ноутбуке с RTX2080 спокойно запустил Qwen 2.5 Coder 0.5В/1.5В/3В/7В/14В. Интересно отметить, что авторы моделей до 7В заявляют "Длина контекста: полные 32 768 токенов", а следующие модели имеют уже "Длинный контекст Поддержка до 128 тыс. токенов". Кто-нибудь будет тестировать работу с длинным контекстом?
Qwen 2.5 и Qwen 2.5 Coder — перспективная коллекция LLM для систем агентов