Французский стартап Mistral выпустил свои первые генеративные модели искусственного интеллекта, специально разработанные для работы на устройствах с ограниченными вычислительными ресурсами, таких как ноутбуки и смартфоны. Эти модели, объединённые в линейку под названием «Les Ministraux», предназначены для выполнения широкого спектра задач — от генерации текста до работы в связке с более мощными моделями для решения сложных задач.
На сегодняшний день доступны две модели: Ministral 3B и Ministral 8B. Обе они имеют впечатляющее контекстное окно в 128 000 токенов, что позволяет им обрабатывать объём текста, эквивалентный 50-страничной книге. Это открывает возможность для работы с большими объемами данных без потери контекста, что особенно важно для сложных вычислительных задач.
Mistral заявляет, что их новые модели рассчитаны на сценарии, требующие низкой задержки и высокой вычислительной эффективности. Среди таких сценариев — перевод на устройстве, локальные интеллектуальные помощники, работа без интернета, автономная робототехника и локальная аналитика.
Сегодня всё больше компаний ищут способы обработки данных локально — прямо на устройствах пользователей, без необходимости подключения к облаку. Это позволяет повысить конфиденциальность данных и снизить зависимость от интернета. В своём блоге Mistral подчёркивает, что «Les Ministraux» созданы именно для таких целей.
Ministral 8B уже доступна для скачивания, но только для исследовательских целей. Для коммерческого использования разработчикам и компаниям необходимо связаться с Mistral для получения лицензии. В ближайшие недели обе модели, Ministral 3B и Ministral 8B, можно будет использовать через облачную платформу стартапа Le Platforme или через партнёрские облачные сервисы.
Цена и доступность
Стоимость использования моделей довольно привлекательна: Ministral 8B стоит 10 центов за миллион токенов (примерно 750 000 слов), а Ministral 3B — 4 цента за тот же объём данных. Это делает их подходящими для масштабируемых проектов, где важно сократить затраты на обработку и генерацию данных.
Тенденция к компактным моделям
Mistral не единственный игрок на рынке, делающий ставку на небольшие модели. Google активно развивает свою линейку компактных моделей Gemma, а Microsoft предлагает модели из своей коллекции Phi. Даже Meta в обновлении своей линейки Llama представила модели, оптимизированные для устройств с ограниченными ресурсами.
Однако Mistral утверждает, что их модели Ministral 3B и Ministral 8B превосходят по производительности аналогичные предложения от конкурентов, таких как Llama и Gemma. Эти заявления подкреплены результатами нескольких тестов, оценивающих способность моделей следовать инструкциям и решать задачи.
Ознакомиться с моделями Mistral и протестировать их можно на нашем сайте.
Будущее Mistral
С момента своего основания Mistral активно расширяет портфель своих продуктов. Недавно компания привлекла $640 млн венчурных инвестиций. Помимо генеративных текстовых моделей, стартап запустил модель для работы с кодом под названием Codestral, а также предложил бесплатные инструменты для разработчиков и SDK для тонкой настройки моделей под конкретные задачи.
Основная цель Mistral — создать флагманские модели, которые могли бы конкурировать с лучшими предложениями на рынке, такими как GPT-4o от OpenAI или Claude от Anthropic, и при этом обеспечивать прибыль. Хотя финансовые результаты пока остаются вызовом, компания уже начала получать доход этим летом.
Mistral явно настроена продолжать путь к созданию мощных, эффективных и коммерчески успешных моделей, которые смогут конкурировать с крупнейшими игроками на рынке ИИ.