Компания Subquadratic выпустила модель SubQ 1M-Preview — первую, по их словам, LLM на полностью субквадратичной архитектуре. Речь про SSA (Subquadratic Sparse Attention): вместо того чтобы сравнивать каждый токен с каждым (O(n²)), механизм выбирает только релевантные позиции на основе содержимого. Вычислительная сложность растёт линейно.

На MRCR v2 SubQ уступает Opus 4.6 (65,9% против 78,3%) и GPT 5.5 (74,0%), но заметно опережает Opus 4.7 и Gemini. На SWE-Bench и RULER — паритет с Opus 4.6. Бенчмарки верифицированы третьей стороной; карточку модели обещали показать позже.

Исследовательская версия модели работает с контекстом до 12 млн токенов. Компания привлекла $29M seed. Команда — 11 PhD-исследователей из Meta, Google, Oxford, Cambridge, ByteDance, Adobe.
Early access через API и SubQ Code (CLI-агент для кодинга, который грузит весь репозиторий в один контекст) открыт с сегодняшнего дня. Паблик пока без paper — только блог с техническим описанием SSA.
Русскоязычное сообщество про AI в разработке

Друзья! Эту новость подготовила команда ТГК «AI for Devs» — канала, где мы рассказываем про AI-агентов, плагины для IDE, делимся практическими кейсами и свежими новостями из мира ИИ. Подписывайтесь, чтобы быть в курсе и ничего не упустить!
