Z.ai представили GLM-5 — новую open-source модель для системной разработки и long-horizon агентных задач.
По сравнению с GLM-4.7 масштаб вырос с 355B (32B active) до 744B параметров (40B active). Объём предобучения увеличен с 23T до 28.5T токенов. Добавили DeepSeek Sparse Attention — это снижает стоимость инференса при сохранении длинного контекста.

Для посттрейна команда сделала собственную асинхронную RL-инфраструктуру slime. Задача — ускорить reinforcement learning и сделать возможными более частые итерации обучения.
В бенчмарках GLM-5 стабильно выше GLM-4.7 и среди open-source моделей держится в верхней группе.
Что по цифрам:
SWE-bench Verified: 77.8 (GLM-4.7 — 73.8)
Terminal-Bench 2.0 (Terminus 2): 56.2 / 60.7
BrowseComp w/ context manage: 75.9
Vending Bench 2: $4,432 финальный баланс за «год» симуляции
На Vending Bench 2 модель занимает первое место среди open-source и приближается к Claude Opus 4.5. Бенч проверяет долгосрочное планирование: нужно управлять виртуальным вендинговым бизнесом в горизонте одного года.


Отдельный фокус — переход от «чат-модели» к рабочему инструменту. GLM-5 умеет генерировать готовые .docx, .pdf и .xlsx файлы. В Z.ai добавили Agent Mode с инструментами для Word / Excel / PDF и многотуровым взаимодействием.
Модель выложена под MIT License на Hugging Face и ModelScope. Поддерживается локальный деплой (vLLM, SGLang) и запуск на альтернативных чипах, включая Huawei Ascend и другие не-NVIDIA решения.
Русскоязычное сообщество про AI в разработке

Друзья! Эту новость подготовила команда ТГК «AI for Devs» — канала, где мы рассказываем про AI-ассистентов, плагины для IDE, делимся практическими кейсами и свежими новостями из мира ИИ. Подписывайтесь, чтобы быть в курсе и ничего не упустить!
