GPT-5.4 объединила возможности кодинга из GPT-5.3-Codex с рассуждением из GPT-5.2 — раньше это были отдельные модели. На OSWorld, где модель управляет десктопом через скриншоты, результат вырос с 47.3% до 75% (выше человеческого показателя в 72.4%). Контекст — до 1 млн токенов.

GPT-5.4 mini работает в 2 раза быстрее предыдущей GPT-5 mini и набирает 54.4% на SWE-Bench Pro против 45.7% у предшественника. На OSWorld почти догоняет большую модель — 72.1% против 75%.

MiniMax M2.7 интересна тем, что частично участвовала в собственном обучении: во время разработки помогала писать правила, по которым её же и дообучали. На SWE-Pro набирает 56.22%, на большинстве тестов держится рядом с Claude Sonnet 4.6 и Opus 4.6.

Все три модели уже доступны в KodaCode для JetBrains IDE, VS Code и CLI — устанавливайте и пользуйтесь!


Подробнее про KodaCode читайте в следующих статьях на Хабр: