Z.ai представили GLM-4.7 — новую версию своей модели для кодинга, и апдейт получился не косметическим. Основной фокус — агентные сценарии, терминал и устойчивость на длинных задачах.
По бенчмаркам рост выглядит вполне предметно: SWE-bench Verified — 73.8% (+5.8%), SWE-bench Multilingual — 66.7% (+12.9%), Terminal Bench 2.0 — 41% (+16.5%).

Ключевое отличие GLM-4.7 — работа с мышлением. Модель использует interleaved thinking (думает перед каждым действием), а в агентных сценариях сохраняет reasoning между ходами. За счёт этого длинные цепочки команд в терминале и IDE становятся заметно стабильнее: меньше дрейфа контекста и меньше «переизобретений» одного и того же шага.

Отдельно прокачали tool using. На τ²-bench и браузерных задачах модель показывает резкий прирост — и это хорошо коррелирует с реальной практикой: меньше лишних вызовов, больше осмысленных действий. Параллельно выросли математика и сложный reasoning — на HLE с инструментами GLM-4.7 поднимается до 42.8%, что почти на 12 пунктов выше прошлой версии.
Есть и неожиданный плюс — UI и “vibe coding”. Модель генерирует более аккуратные веб-страницы, с адекватной версткой, размерами и визуальной иерархией. Для быстрых прототипов и внутренних тулов это может сэкономить немало времени.
Важно, что GLM-4.7 уже встроена в популярные агентные среды (Claude Code, Roo Code, Cline и др.), доступна через API Z.ai и OpenRouter, а веса выложены публично — модель можно развернуть локально через vLLM или SGLang. По цене её позиционируют как «Claude-уровень за долю стоимости», что делает её особенно интересной для постоянных агентных нагрузок.
Русскоязычное сообщество про AI в разработке

Друзья! Эту новость подготовила команда ТГК «AI for Devs» — канала, где мы рассказываем про AI-ассистентов, плагины для IDE, делимся практическими кейсами и свежими новостями из мира ИИ. Подписывайтесь, чтобы быть в курсе и ничего не упустить!
