20 марта 2026 года. Разработчик по имени Финн ковыряет API-эндпоинт Cursor. Не ищет секреты. Просто дебажит.

Но ответ приходит с идентификатором модели, который — не «Composer 2». Там написано:

kimi-k2p5-rl-0317-s515-fast

Он это твитит. 444 000 просмотров.

Самый тщательно срежиссированный запуск модели за год — кастомные бенчмарки, графики эффективности по Парето, ценовая стратегия, рассчитанная на подкоп под всех конкурентов — оказывается разоблачён одной строкой, которую никто не подумал переименовать.


Акт 1: подготовка

За восемь дней до запуска Composer 2 Cursor опубликовал нечто, заслуживающее большего внимания, чем получило.

11 марта команда выпустила детальный пост, представляющий CursorBench — внутреннюю систему оценки кодинг-агентов. Что бы вы ни думали о том, что произошло позже, этот бенчмарк — действительно инновационный.

Задачи берутся из реальных сессий Cursor через систему Cursor Blame, отслеживающую код до породившего его запроса. Намеренно неоднозначные промпты — как разработчики реально общаются с агентами. Масштаб задач примерно удвоился от первой до третьей версии. Эффективность по токенам — метрика первого класса. Четыре измерения оценки, а не только «прошёл/не прошёл тест».

Затем — инженерия самой модели. Cursor разработал «компактификацию в цикле RL»: сжатие контекста встраивается непосредственно в тренировочный цикл обучения с подкреплением. Когда генерация достигает триггера длины токенов, модель ставит на паузу и сжимает собственный контекст примерно до 1 000 токенов (против 5 000+ при традиционных методах). Поскольку вознаграждение RL покрывает всю цепочку, включая шаги суммаризации, модель учится, какие детали важны, а какие можно отбросить.

Это серьёзная инженерная работа.


Запуск

19 марта Cursor собрал всё воедино. Composer 2 вышел с отполированным блогпостом, аккуратными таблицами бенчмарков и ценовой стратегией, от которой конкурентам стало не по себе.

На Terminal-Bench 2.0 Composer 2 обогнал Claude Opus 4.6 с его 58,0. Уступил GPT-5.4 с 75,1, но ценообразование перевернуло уравнение ценности: $0,50 за миллион входных токенов, $2,50 за миллион выходных. На 86% дешевле Composer 1.5 и в разы дешевле того, что берут Anthropic и OpenAI.

Блогпост приписал улучшения «нашему первому прогону дообучения, который обеспечивает гораздо более сильную основу для масштабирования нашего обучения с подкреплением». Технически точно. Базовая модель не названа.

График Парето поместил Composer 2 именно туда, куда нужно: высокая производительность, низкая стоимость, оптимальный квадрант. Сравнение — с GPT-5.4, Claude Opus 4.6 и предыдущими моделями Cursor.

Одна модель демонстративно отсутствовала во всех сравнительных графиках — и в посте о CursorBench, и в запуске Composer 2: Kimi K2.5. Модель, на которой Composer 2 построен.

Хореография была безупречной. Кастомный бенчмарк, опубликованный за восемь дней. Внутренняя система оценки с новой осью эффективности. Аргумент Парето. Агрессивный ценовой нарратив. Ноль упоминаний базовой модели. Где бы то ни было.

Всё было срежиссировано. Всё, кроме ответа API.


Кстати, если вы хотите сами сравнить модели, которые стоят за громкими запусками, — не полагаясь на чужие бенчмарки и маркетинг. BotHub даёт доступ к GPT-5.4, Claude 4.6 и другим ведущим нейросетям в одном интерфейсе. Тестируйте на своих задачах, сравнивайте реальное качество, принимайте решения сами.

Для доступа не требуется VPN, можно использовать российскую карту.

По ссылке вы можете получить 300 000 бесплатных токенов  для первых задач и приступить к работе с нейросетями прямо сейчас!


Акт 2: строка, конфронтация и разворот

Менее 24 часов. Столько продержался тщательно выстроенный нарратив.

20 марта разработчик Финн тестировал совместимый с OpenAI базовый URL Cursor, когда в ответе API появилось неожиданное:

accounts/anysphere/models/kimi-k2p5-rl-0317-s515-fast

Расшифруем: kimi-k2p5 — Kimi K2.5 от Moonshot AI. rl — обучение с подкреплением. 0317 — 17 марта 2026 года, предположительно дата обучения. s515 — внутренний идентификатор эксперимента. fast — оптимизированный вариант для обслуживания.

Вся история модели — её происхождение, метод тренировки, версия, конфигурация обслуживания — сидела прямо там, в строке, которую никто не подумал переименовать перед релизом.

Комментарий Финна был идеальным: «хотя бы переименуйте model ID».

Твит набрал 444 000 просмотров. Дальше началась эскалация.


Moonshot реагирует (фаза 1: удивление)

Юлунь Ду, руководитель предобучения в Moonshot AI, действовал быстро. Прогнал токенизатор Composer 2 через анализ и опубликовал выводы: токенизатор идентичен Kimi. Его заключение: «почти наверняка результат дальнейшего дообучения нашей модели».

Затем он напрямую отметил сооснователя Cursor Майкла Труэлла, спросив, почему Cursor не соблюдает лицензию и не платит сборы.

Два других сотрудника Moonshot подтвердили связь в соцсетях. Затем оба удалили свои посты. Внутренняя коммуникация, похоже, не успела за внешней.


Лицензионная проблема

Kimi K2.5 выпущена под модифицированной MIT-лицензией. Стандартная MIT — одна из самых пермиссивных опенсорсных лицензий. Moonshot добавила одно условие:

Если ПО (или любые производные работы) используется в коммерческих продуктах или сервисах с более чем 100 миллионами активных пользователей в месяц или более чем 20 миллионов долларов месячной выручки, вы должны заметно отображать «Kimi K2.5» в пользовательском интерфейсе такого продукта.

Математика Cursor: годовая выручка — более 2 миллиардов долларов. Месячная — примерно 167 миллионов. Порог в лицензии — 20 миллионов в месяц. Превышение — примерно в 8 раз.

«Kimi K2.5» в интерфейсе Cursor: нигде.


Cursor реагирует (постепенно)

Часы тишины. Затем — первое признание. Прогрессия говорит сама за себя.

Сначала — мягкое открытие: «Да, Composer 2 начал с опенсорсной базы!» С утверждением, что только около четверти вычислений пришлось на базовую модель.

Затем — под давлением — явное называние: «Раз людям так нужно, чтобы я это сказал: KIMI K2.5». С двойным восклицательным знаком. И ссылкой на «условия партнёрства по инференсу» с Fireworks AI.

Потом — техническая защита. RL — реальная работа. Дообучение — реальное. Оценки существенно отличаются от базовой модели. Всё это, вероятно, правда. И ничто из этого не объясняет, почему базовая модель не была названа в блогпосте.

Инженерия была сильной. Результаты бенчмарков — обоснованными. Назвать базовую модель не стоило бы Cursor ничего с технической точки зрения. Это могло бы даже усилить нарратив: «Мы взяли лучшую опенсорсную модель для кодинга в мире и сделали её радикально лучше». Это убедительная история.

Вместо этого умолчание создало разрыв доверия, который интернет заполнил наихудшей интерпретацией.


Moonshot реагирует (фаза 2: разворот)

А потом случился поворот, которого никто не ожидал.

Официальный аккаунт Kimi опубликовал поздравительное сообщение Cursor. Тёплое, поддерживающее и совершенно не совпадающее с тем, что руководитель предобучения Moonshot писал часами ранее:

«Поздравляем команду Cursor с запуском Composer 2! Мы гордимся, что Kimi K2.5 стал основой».

Заявление подтвердило, что Cursor получает доступ к Kimi K2.5 через платформу Fireworks AI в рамках авторизованного коммерческого партнёрства.

Авторизованного. Коммерческого. Партнёрства.

Сделка существовала всё время. Руководитель предобучения Moonshot не знал о ней, когда публиковал обвинение.

От обвинения до поздравлений — менее 24 часов. Драма была настоящей. Базовые деловые отношения были в порядке. Коммуникация со всех сторон — нет.


Акт 3: большая картина

Забытый идентификатор модели — хорошая история. Но не главная.

Главная история в том, что этот паттерн повсюду. Cursor просто оказался тем, кого поймали в среду вечером.

Windsurf признал, что дообучает кастомизированную версию GLM-4.6 от Zhipu AI. Vercel интегрировал GLM-4.6 в свои API-сервисы. Cerebras объявил, что будет продвигать GLM-4.6 как основную модель. Together AI развернул Qwen-3-Coder от Alibaba.

Цифры рассказывают ту же историю под другим углом. На OpenRouter четыре из пяти самых используемых моделей в мире — китайские. Потребление китайских моделей превысило американское две недели подряд в начале марта 2026-го.

Чамат Палихапитийя, основатель Social Capital, сказал прямо: «Мы начали использовать Kimi-K2 на Groq. Модели OpenAI и Anthropic работают хорошо, но они просто слишком дорогие».

Производительность плюс стоимость. Вот и всё объяснение.


Почему никто не хочет говорить об этом вслух

Если инженерная логика так прямолинейна, почему каждая компания так аллергична на называние базовой модели? Три причины:

Оптика для инвесторов. Cursor оценивается в 29,3 миллиарда долларов. Эта оценка частично построена на нарративе о проприетарных ИИ-возможностях. «Мы взяли опенсорсную модель и улучшили» — другой питч, чем «мы построили свою модель». Оба обоснованны. Один звучит больше как компания на 29 миллиардов.

Геополитическая неловкость. «Работает на китайском ИИ» — не тот тезис, который какая-либо американская компания хочет видеть на своей лендинг-странице. Не в нынешнем политическом климате.

Сдвиг ценностного предложения. Если базовая модель опенсорсная и любой может её дообучить, конкурентный ров — не в модели. Он в UX, в агентном рабочем процессе, в интеграции инструментов, в пайплайне RL-обучения. Это более сложная история для рассказа.

Ирония в том, что прозрачность на самом деле усилила бы позицию Cursor. «Мы взяли лучшую открытую модель для кодинга, вложили 75% вычислительного бюджета в дообучение и RL и построили продукт, который обгоняет Claude Opus 4.6 за десятую часть цены». Эту историю стоит рассказывать.


Итого

Три вывода:

CursorBench и инновации в RL — реальны. Оценка с учётом эффективности по токенам, компактификация в цикле обучения, 50% снижение потерь контекста — это настоящий инженерный вклад. Cursor было чем гордиться, не скрывая происхождение модели.

Разрыв в атрибуции — самострел. Партнёрство было авторизовано. Инженерия добавила реальную ценность. Драма возникла целиком из расстояния между тем, что говорил маркетинг, и тем, что показал API.

Это паттерн индустрии, а не единичный случай. Китайские опенсорсные модели теперь питают значительную долю самых ценных инструментов для кодинга в Кремниевой долине. Компании, которые научатся говорить об этом честно, заслужат больше доверия, чем те, кто прячет это в строке API.

Может быть, настоящий бенчмарк — не CursorBench и не Terminal-Bench. А то, переживёт ли ваш идентификатор модели любопытного разработчика с API-дебаггером в среду вечером.