Как стать автором
Обновить
315.78
BotHub
Агрегатор нейросетей: ChatGPT, Claude, Midjourney

Mistral AI выпустила Small 3 — мощную языковую модель с 24 миллиардами параметров

Время на прочтение3 мин
Количество просмотров4.7K

Mistral AI выпустила Small 3 — новую языковую модель с 24 миллиардами параметров, которая по производительности не уступает гораздо более крупным моделям от Meta* и OpenAI. Компания также переходит на более либеральную лицензию Apache 2.0.

Компания Mistral AI заявляет, что Small 3 обеспечивает такую же производительность, как модели в три раза больше по размеру, при этом используя всего 24 миллиарда параметров. Модель, оптимизированная для низкой задержки и локального развёртывания, является продолжением предыдущей версии Mistral, выпущенной в сентябре 2024 года.

В тестах Small 3 показал результаты наравне со значительно более крупными моделями, включая Meta Llama-3.3-70BQwen2.5-32B и GPT-4o-mini. Модель достигла 81% точности в тесте MMLU, обрабатывая 150 токенов в секунду, что делает её одной из самых эффективных моделей в своей категории, по мнению Mistral.

Mistral Small 3 оптимизирован для обеспечения качества и низкой задержки.
Mistral Small 3 оптимизирован для обеспечения качества и низкой задержки.

Новая модель создана для выполнения повседневных задач без использования дорогостоящего оборудования. Она может быстро отвечать на сообщения в чате, выполнять определённые функции, адаптироваться к специализированным областям и работать на одном графическом процессоре, что делает её практичной для использования в реальных условиях.

По словам Мистраля, несколько отраслей уже тестируют эту технологию. Банки используют её для выявления мошенничества, а поставщики медицинских услуг и производители тестируют её для обслуживания клиентов и анализа их отзывов. Компании, занимающиеся робототехникой, также изучают потенциальные варианты использования.

Mistral-Small-24B демонстрирует высокую производительность в тесте мультимодального понимания MMLU. 
Mistral-Small-24B демонстрирует высокую производительность в тесте мультимодального понимания MMLU. 
 В тестах, разработанных для задач по программированию и математике, Mistral Small показывает такие же результаты, как и более крупные модели. 
В тестах, разработанных для задач по программированию и математике, Mistral Small показывает такие же результаты, как и более крупные модели. 
Эти тесты проверяют, помимо прочего, насколько хорошо модели выполняют инструкции и сохраняют информацию в своей «памяти».
Эти тесты проверяют, помимо прочего, насколько хорошо модели выполняют инструкции и сохраняют информацию в своей «памяти».

Модель теперь доступна на платформе Mistral и у партнёров, включая Hugging FaceOllamaKaggleTogether AI и Fireworks AI. Планируется запуск на других платформах.

В этом выпуске Mistral переходит от собственной лицензии MRL (Mistral Research License) к более свободной лицензии Apache 2.0. Это изменение позволяет пользователям свободно использовать, изменять и распространять модели даже в коммерческих целях. Компания продолжит предлагать специализированные коммерческие модели для конкретных задач.

В ближайшие недели Mistral планирует выпустить дополнительные модели, уделяя особое внимание улучшенным возможностям логического мышления. Компания позиционирует Small 3 как дополнение к более крупным моделям логического мышления с открытым исходным кодом, таким как Deepseek, пытаясь достичь аналогичных возможностей при меньших вычислительных мощностях.

Компания Mistral заняла свою нишу на европейском рынке AI и является практически единственным поставщиком соответствующих моделей AI. Хотя её модели пока не соответствуют возможностям мультимодальных систем, таких как Sonnet 3.5, компания продолжает набирать обороты. Её последнее предложение, Pixtral, знаменует собой первый шаг компании в области визуально-языковых моделей. 

*Meta и её продукты (Instagram, Facebook) запрещены на территории Российской Федерации

Источник

Теги:
Хабы:
+2
Комментарии2

Другие новости

Информация

Сайт
bothub.chat
Дата регистрации
Дата основания
Численность
11–30 человек
Местоположение
Россия