Стартап Liquid AI, основанный исследователями из MIT, представил LFM2.5-1.2B-Thinking — компактную reasoning-модель на 1,2 млрд параметров. Она работает на смартфонах и ноутбуках, занимая менее 1 ГБ памяти, и построена на необычной архитектуре: не трансформер, а гибрид на основе "жидких нейросетей".

Идея жидких нейросетей родилась из изучения нервной системы червя C. elegans — существа с 302 нейронами, которое при этом способно двигаться, искать пищу и реагировать на среду. В отличие от классических архитектур, где веса фиксируются после обучения, жидкие сети адаптируют способ обработки данных на лету — отсюда и название. В LFM2.5 архитектура гибридная: 10 сверточных блоков с переменными весами плюс 6 блоков attention.

На бенчмарках модель обходит более крупную Qwen3-1.7B по следованию инструкциям: 88% против 72% на IFEval, 45% против 26% на IFBench. При этом генерирует в среднем 4500 токенов против 6000 у конкурента — быстрее приходит к ответу. Но в олимпиадной математике (AIME2025) уступает: 32% против 36%. Разработчики рекомендуют модель для агентских задач, RAG и извлечения данных, но не для программирования и задач, требующих обширных знаний.

По скорости: на CPU ноутбука (AMD Ryzen AI Max+ 395) модель выдает 237 токенов в секунду при декодировании, на смартфоне Samsung Galaxy S25 Ultra — 70 токенов в секунду. Liquid AI уже договорилась с AMD и Qualcomm об оптимизации под NPU — нейропроцессоры, которые ставят в современные чипы для ускорения ИИ-задач.

Модель поддерживает восемь языков (английский, китайский, японский, арабский, французский, немецкий, корейский, испанский), русского среди них нет. Однако лицензия на базе Apache 2.0 разрешает дообучение и распространение производных версий — при годовом доходе компании до $10 млн это бесплатно. Так что ждем решений от энтузиастов.

P.S. Поддержать меня можно подпиской на канал "сбежавшая нейросеть", где я рассказываю про ИИ с творческой стороны.