
Компактная модель с открытым исходным кодом, содержащая всего 2,6 млрд параметров, показала выдающуюся производительность в ключевых тестах, превзойдя гигантскую модель DeepSeek R1-0528, имеющую в сотни миллиардов параметров, и была названа самой мощной моделью в категории 3 млрд параметров.

В ходе сравнительных испытаний модель продемонстрировала впечатляющие результаты: она значительно превзошла конкурентов в тесте на выполнение инструкций IFBench, набрала около 42% в сложном тесте знаний GPQA, превысила 88% в строгом тесте на следование инструкциям IFEval и показала результат более 82% в математическом тесте GSM8K, обойдя многие более крупные модели.
При этом ее скорость работы на процессоре вдвое выше, чем у аналогов, при минимальном потреблении памяти. Архитектура LFM2, сочетающая свертку и механизм внимания, оптимизирована для локального развертывания на смартфонах, ноутбуках и IoT-устройствах, реализуя концепцию «логики уровня PhD в кармане».
Архитектура оптимизирована для развертывания на периферийных устройствах и, по заявлению разработчиков, использует метод «чистого RL» без классического SFT. Веса модели - на Hugging Face.
Полная открытос��ь модели на Hugging Face ускоряет демократизацию периферийного ИИ, позволяя разработчикам свободно внедрять ее в свои приложения. Релиз LFM2-2.6B-Exp знаменует собой важный сдвиг в парадигме: он доказывает, что высокая интеллектуальная производительность может быть достигнута не только за счет масштабирования параметров, но и благодаря передовым методам обучения.
Это открывает новые возможности для разработчиков и компаний, которым критически важны конфиденциальность данных, низкая задержка и доступная стоимость развёртывания интеллектуальных систем.
Делегируйте часть рутинных задач вместе с BotHub! Для доступа к сервису не требуется VPN и можно использовать российскую карту. По ссылке вы можете получить 100 000 бесплатных токенов для первых задач и приступить к работе с нейросетями прямо сейчас!
