Семейство моделей Qwen от Alibaba набрало 942,1 млн загрузок на Hugging Face к марту 2026 года — вдвое больше, чем ближайший конкурент Llama (476 млн). Такие данные приводит свежий ATOM Report, опубликованный 8 апреля на arXiv: авторы изучили около 1500 ключевых open-source моделей и описали, как менялся рынок их использования.

Qwen обогнал Llama по загрузкам еще в сентябре 2025 года — тогда счет был почти равным: 325,4 млн против 323,7 млн. Но затем разрыв стал расти стремительно. В феврале 2026 года Qwen генерировал 153,6 млн загрузок в месяц — это уже не просто популярная модель, а стандарт де-факто для огромной части сообщества.

Еще красноречивее выглядит картина с файн-тюнами — кастомными адаптациями, которые разработчики делают поверх базовых моделей под свои задачи. Доля Qwen среди новых файн-тюнов выросла с 1% в январе 2024 года до 69% в феврале 2026-го. Llama за тот же период упала с пика в 44% (август 2024) до 11%. Это важный сигнал: загрузки — это часто скачивание "на попробовать", а файн-тюны — это уже производственное использование.

Если смотреть на американских участников рынка в совокупности — NVIDIA, Ai2, IBM и других новых игроков — они набрали около 56 млн загрузок против 942,1 млн у одного только Qwen. Авторы отчета фиксируют четкую тенденцию: китайские модели обогнали американские аналоги еще летом 2025 года и с тех пор лишь наращивают отрыв. 

Объяснение этому сдвигу лежит на поверхности. Qwen 2.5, вышедший в сентябре 2024 года, дал разработчикам широкий выбор размеров (от 0,5 до 72 млрд параметров), открытую лицензию Apache 2.0 и качество, конкурентоспособное с закрытыми моделями. DeepSeek в начале 2025 года усилил тренд — показал, что китайские лаборатории способны работать на мировом уровне при куда меньших затратах. Результат: экосистема open-source AI постепенно сместилась из Кремниевой долины в Ханчжоу и Шэньчжэнь.

Открытым остается ключевой вопрос: насколько загрузки конвертируются в реальные продакшн-внедрения? Статистика хорошо отражает активность исследователей и стартапов, но крупный бизнес зачастую использует модели через закрытые API или собственные деплои, которые в этих цифрах не видны. Тем не менее доля файн-тюнов — куда более практичный индикатор: когда 69% новых адаптаций строятся на Qwen, это означает, что именно он стал базовым слоем для новых продуктов.

P.S. Поддержать меня можно подпиской на канал "сбежавшая нейросеть", где я рассказываю про ИИ с творческой стороны.