Pull to refresh

Comments 3

Я ее в Playground от HF попробовал и без примеров научил ее писать комменты в Youtube по заданному комментарию, или на вопросв Mail RU отвечать как человек. И это легко делать, модель реально гибкая!

Нет, с моделями CoT типа ChatGPT o1-preview пока даже qwen 2.5 32b не сравнится. Но они действительно впечатляют. Модель 7b, к примеру, отлично дополняет код, исправляет ошибки, при этом работает быстро и с очень большим контекстным окном, что позволяет, скажем, объединить несколько файлов исходного кода в один промпт.

Тут отлично работает такой подход: обычная модель qwen 2.5 72b используется для подсказок по архитектуре, а coder - для написания кода. Ещё недавно была совершенно невероятная, как казалось, модель codestral 22b, но в ряде задач ее обходит даже qwen coder 7b, а 32b вообще разносит.

Спасибо за интересную информацию. На ноутбуке с RTX2080 спокойно запустил Qwen 2.5 Coder 0.5В/1.5В/3В/7В/14В. Интересно отметить, что авторы моделей до 7В заявляют "Длина контекста: полные 32 768 токенов", а следующие модели имеют уже "Длинный контекст Поддержка до 128 тыс. токенов". Кто-нибудь будет тестировать работу с длинным контекстом?

Sign up to leave a comment.

Articles