Пока всё внимание в мире open source AI в 2025 году было приковано к Китаю, небольшой американский стартап в тишине готовил ответ. И сегодня он его представил.

Arcee AI объявила о выпуске первых двух моделей нового семейства Trinity — Trinity Mini и Trinity Nano Preview. Это открытые модели архитектуры mixture of experts (MoE), полностью обученные с нуля. И всё это — под максимально разрешающей лицензией Apache 2.0.

Последние месяцы лидерство в области открытых больших моделей уверенно удерживали китайские лаборатории вроде Alibaba (Qwen), DeepSeek, Moonshot и Baidu. OpenAI, конечно, тоже выпустила свои open‑source LLM (gpt‑oss), но их затмило множество альтернатив — теперь Arcee пытается переломить тенденцию.

Для Arcee, известной своими компактными моделями для предприятий, Trinity — это резкий поворот к большим амбициям. Цель компании — создать основу для долгого контекста, работы с синтетическими данными и будущих систем с непрерывным дообучением.

  • Trinity Mini (26B параметров, 3B активных на токен) — модель для высокопроизводительных рассуждений, вызова функций и использования инструментов.

  • Trinity Nano Preview (6B параметров, ~800M активных) — более экспериментальная, чат‑ориентированная модель с «более выраженным характером».

  • Trinity Large (420B параметров, 13B активных) — флагманская модель, обучение которой идёт полным ходом, а релиз намечен на январь 2026-го.

В основе Trinity лежит новая кастомная архитектура от Arcee — attention‑first mixture‑of‑experts (AFMoE). Это собственная разработка, вдохновлённая последними достижениями DeepSeek и Qwen, но со своими особенностями.

  • Плавный выбор (sigmoid routing): вместо резкого включения‑выключения экспертов используется более плавный метод, похожий на регулировку громкости.

  • Фокус на внимании: архитектура комбинирует локальное внимание (фокус на только что сказанном) с глобальным (память о ключевых моментах всего разговора).

  • Управляемое внимание (gated attention): дополнительный «регулятор громкости» для выхода каждого блока внимания, который помогает модели усиливать или ослаблять разные части информации.

Контекстное окно — до 131 072 токенов. Судя по предоставленным бенчмаркам, Mini показывает себя достойно на задачах, требующих рассуждений, и в некоторых тестах опережает gpt‑oss.

  • MMLU, широкие академические знания и рассуждения, zero‑shot: 84,95%.

  • Math-500, решение математических задач: 92,10%.

  • GPQA‑Diamond, сложные научные вопросы: 58,55%.

  • BFCL V3, многошаговый вызов функций и работа с инструментами: 59,67%.

Как попробовать?


Делегируйте часть рутинных задач вместе с BotHub! Для доступа к сервису не требуется VPN и можно использовать российскую карту. По ссылке вы можете получить 100 000 бесплатных токенов для первых задач и приступить к работе с нейросетями прямо сейчас!