Неделю назад Alibaba выпустила Qwen3.5-397B-A17B — флагман линейки. Сегодня вышли модели поменьше, и цифры у них интересные.

  • Qwen3.5-35B-A3B — MoE, 35B параметров, 3B активных на токен. Превосходит Qwen3-235B-A22B, который был основной open-weight моделью Qwen3. Модель в 7 раз меньше, а результаты лучше. Облачная версия — Qwen3.5-Flash (контекст до 1M токенов, встроенные tools).

  • Qwen3.5-122B-A10B — MoE, 122B параметров, 10B активных. По бенчмаркам на уровне флагманской 397B, а на части задач (TAU2-Bench, BFCL-V4, HLE) обходит её.

  • Qwen3.5-27B — dense, все 27B параметров активны. На SWE-bench Verified набирает 72.4% — столько же, сколько 397B. На IFEval (следование инструкциям) — 95.0%, лучший результат во всей линейке.

Все модели построены на hybrid architecture: Gated Delta Networks (линейное внимание) + sparse MoE. 3 из 4 слоёв используют линейное внимание, что даёт серьёзный прирост в скорости на длинных контекстах. В 3.5 серии Alibaba перешла на эту архитектуру целиком, и разница видна — Qwen3.5-397B декодирует в 7.2 раза быстрее, чем Qwen3-235B при контексте 256K.

Все модели мультимодальные (текст + картинки через early fusion). Все модели под Apache 2.0.

Отдельно выложили Qwen3.5-35B-A3B-Base — версия без файнтюна, для кастомного дообучения.

Русскоязычное сообщество про AI в разработке

Друзья! Эту новость подготовила команда ТГК «AI for Devs» — канала, где мы рассказываем про AI-ассистентов, плагины для IDE, делимся практическими кейсами и свежими новостями из мира ИИ. Подписывайтесь, чтобы быть в курсе и ничего не упустить!