Z.ai представили GLM-5 — новую open-source модель для системной разработки и long-horizon агентных задач.

По сравнению с GLM-4.7 масштаб вырос с 355B (32B active) до 744B параметров (40B active). Объём предобучения увеличен с 23T до 28.5T токенов. Добавили DeepSeek Sparse Attention — это снижает стоимость инференса при сохранении длинного контекста.

Для посттрейна команда сделала собственную асинхронную RL-инфраструктуру slime. Задача — ускорить reinforcement learning и сделать возможными более частые итерации обучения.

В бенчмарках GLM-5 стабильно выше GLM-4.7 и среди open-source моделей держится в верхней группе.

Что по цифрам:

  • SWE-bench Verified: 77.8 (GLM-4.7 — 73.8)

  • Terminal-Bench 2.0 (Terminus 2): 56.2 / 60.7

  • BrowseComp w/ context manage: 75.9

  • Vending Bench 2: $4,432 финальный баланс за «год» симуляции

На Vending Bench 2 модель занимает первое место среди open-source и приближается к Claude Opus 4.5. Бенч проверяет долгосрочное планирование: нужно управлять виртуальным вендинговым бизнесом в горизонте одного года.

Отдельный фокус — переход от «чат-модели» к рабочему инструменту. GLM-5 умеет генерировать готовые .docx, .pdf и .xlsx файлы. В Z.ai добавили Agent Mode с инструментами для Word / Excel / PDF и многотуровым взаимодействием.

Модель выложена под MIT License на Hugging Face и ModelScope. Поддерживается локальный деплой (vLLM, SGLang) и запуск на альтернативных чипах, включая Huawei Ascend и другие не-NVIDIA решения.

Русскоязычное сообщество про AI в разработке

Друзья! Эту новость подготовила команда ТГК «AI for Devs» — канала, где мы рассказываем про AI-ассистентов, плагины для IDE, делимся практическими кейсами и свежими новостями из мира ИИ. Подписывайтесь, чтобы быть в курсе и ничего не упустить!