Недавно пользователи Coding Plan от Z.ai начали получать письмо о том, что модель GLM-5.1 стала доступна для всех в рамках подписки.
Коротко: это обновление позиционируется как серьёзный шаг вперёд относительно GLM-5, особенно в задачах программирования.
Что заявляют
В письме говорится:
GLM-5.1 — это заметное улучшение по сравнению с GLM-5 модель показывает результаты, близкие к Claude Opus 4.6 в coding-задачах доступ открыт всем пользователям Coding Plan
Также приводится внутренняя оценка (benchmark), где:
Claude Opus 4.6 — 47.9
GLM-5.1 — 45.3
GLM-5 — 35.4
То есть разрыв между GLM-5 и GLM-5.1 довольно существенный, а до уровня Opus остаётся небольшой зазор.
Что это-за бенчмарк?
Это внутренний бенчмарк Z.ai, в котором модели оцениваются на задачах программирования через Claude Code как обвязку (harness). То есть модели прогоняются через единый интерфейс и получают баллы за выполнение coding-задач. При этом сам набор задач, критерии оценки и методика подсчёта результатов не раскрываются, поэтому такие цифры стоит воспринимать скорее как относительное сравнение внутри одного теста, а не как объективный показатель качества.
Что это значит на практике
Если цифры хотя бы частично отражают реальность:
GLM-5.1 — это уже не “ещё одна дешёвая модель”, а конкурент в coding-сегменте
разрыв с топовыми моделями сокращается
появляется больше альтернатив Claude/OpenAI в задачах разработки
Но важно понимать:
это внутренний benchmark (не внешний независимый тест)
не раскрыто, какие именно задачи использовались
неясно, как модель ведёт себя в реальных сценариях (большие проекты, контекст, edge-cases)
Где это может быть интересно
GLM-5.1 потенциально интересен в нескольких сценариях:
генерация кода в IDE/CLI
быстрые правки и рефакторинг
дешёвая альтернатива дорогим моделям для повседневной разработки
автоматизация через API
Особенно если учитывать, что z.ai очень приятные лимиты по подписке по сравнению с Claude и GPT. Базовая подписка за 10$ предлагает тройной лимит использования по сравнению с подпиской Claude Code, а подписка за 30$ уже 15x по лимитам:

Вывод
GLM-5.1 выглядит как попытка догнать топовые модели в coding-задачах и сократить разрыв по качеству.
Пока это больше маркетинговое заявление с внутренними метриками, но если модель действительно показывает сопоставимые результаты — это ещё один сигнал, что рынок coding LLM становится сильно более конкурентным.
Если кто-то уже успел попробовать GLM-5.1 в реальной разработке — интересно услышать реальные кейсы и сравнение с Claude/GPT.
Моё личное мнение
У меня есть подписка на z.ai, minimax, codex и gemini. Я отказался от подписки на Claude, их лимитов мне не хватало на пару промптов.
Если сравнивать, то очевидно, что до gpt5.4 китайские модели не дотягивают, но по ощущениям я бы их поставил на уровне gpt5.2 thinking, но с намного более щадящими лимитами.
MiniMax и GLM меня устраивают, не только своими лимитами, но и качеством.
На моем опыте, glm5 хорошая модель для кодинга, но был и случай, что агент ушел в бесконечный цикл размышлений и сожрал 7% недельной квоты, с MiniMax-2.7 у меня такого еще не было, возможно это проблема opencode-агента, которым я пользуюсь. Такое у меня также было и с gemini3-pro при использовании через плагин для Goland.
Чем еще может быть интересны китайские модели
На моем рабочем нет никакой возможности подключить впн, любой трафик во внешнюю сеть возможен только через туннель из корпоративной сети. Все работает через белые списки компании, но api китайских моделей доступны, и для меня это еще одна причина ими пользоваться
