Mistral AI выпустила свободную большую языковую модель машинного обучения с семью миллиардами параметров. В компании считают, что будущее должно быть за открытыми нейросетями, управляемыми сообществом.
В блоге компании рассказали, что открытые ИИ-решения могут помочь разработчикам адаптировать модели под свои проекты, а бизнес может более гибко контролировать затраты на поддержку продуктов. Коммерческие модели накладывают ограничения практически на каждый из аспектов использования искусственного интеллекта. Вместе с этим, разработчики не знают, как такие модели работают и чего от них можно ожидать.
Для решения этой проблемы специалисты из Mistral AI выпустили открытую LLM с семью миллиардами параметров. На фоне гигантов в лице GPT и LLaMA модель выглядит не такой продвинутой, но разработчики отмечают, что это всё, что они успели сделать за последние три месяца. В будущем ожидается ряд обновлений, включая дополнительное обучение.
Разработчики поделились некоторыми возможностями модели Mistral 7B:
превосходит LLaMA 2 13B по всем эталонным параметрам;
превосходит LLaMA 1 34B по части эталонных параметров;
приближается к показателям производительности Code LLaMA;
умеет обрабатывать связанные между собой запросы.

Скачать модель можно с сайта проекта, TAR-архив занимает больше 14 ГБ. Инструкция по запуску опубликована в открытом GitHub-репозитории. Разработчики заявляют, что модель не ограничена по количеству запросов и времени использования, поэтому её можно без проблем развернуть на собственном сервере или локально.