
Prime Intellect выпустили INTELLECT-3, мощную 106-миллиардную модель Mixture-of-Experts, которая обучалась на базе GLM-4.5 Air Base. Обучение проходило в два этапа: сначала стандартное SFT, затем масштабное RL-дообучение, где асинхронный подход стал не экспериментом, а основой всей стратегии. Благодаря этому модель демонстрирует выдающиеся результаты в математике, программировании и логическом рассуждении, особенно когда речь идёт о долгих цепочках действий и агентных задачах, а не просто генерации текста.
INTELLECT-3 обучалась на 512×H200 в течение примерно двух месяцев с использованием полностью собственного стека инструментов: PRIME-RL, Verifiers, Environments Hub и sandbox-инфраструктуры. Все компоненты открыты и доступны сообществу, включая код, среды и вспомогательные инструменты. Разработчики подчеркивают, что открытость и про��рачность - ключевой элемент проекта, что позволяет исследователям и энтузиастам изучать подходы к RL-моделям на реальных данных и средах.
Модель демонстрирует топовые результаты среди моделей своего размера по основным направлениям: математика, код и reasoning. Интересно, что фокус INTELLECT-3 не на обычной генерации текста, а на более сложных задачах, требующих удержания контекста и последовательного выполнения действий, что делает её полезной для агентных систем и сложных симуляций. Для желающих подробнее изучить технологию доступны технический отчёт, Hugging Face репозиторий модели, а также инструменты PRIME-RL, Verifiers и Environments Hub.
Делегируйте часть рутинных задач вместе с BotHub! Для доступа к сервису не требуется VPN и можно использовать российскую карту. По ссылке вы можете получить 100 000 бесплатных токенов для первых задач и приступить к работе с нейросетями прямо сейчас!
