Google представила LiteRT-LM — фреймворк, который позволяет запускать большие языковые модели локально, без подключения к интернету. Именно он лежит в основе Gemini Nano в Chrome, Chromebook Plus и Pixel Watch.

• Работая над LiteRT-LM , Google сделали быстрого, дешевого, конфиденциального и самое главное - офлайн агента.



Как фреймворк организует on-device LLM-пайплайны для различных задач
Как фреймворк организует on-device LLM-пайплайны для различных задач
  • LiteRT-LM делится на

    Engine (ядро)

    auto engine = Engine::Create("gemini_nano.tflite");
    auto tokenizer = engine->GetTokenizer();
    auto base_decoder = engine->GetTextDecoder();



    Session (отдельная задача, например обработка картинки)

auto session = engine->CreateSession();
session->LoadLoRA("summarizer.lora");
session->SetKVCacheEnabled(true);

std::string result = session->Run("Summarize this text: ...");



Следует подметить следующие оптимизации: Context Switching , Session Cloning и Copy-on-Write KV-Cache

Сам фреймворк, он же полноценный стек для on-device LLM уже работает на Android, Linux, macOS, Windows и даже Raspberry Pi , поддерживает ускорение с помощью CPU, GPU и NPU.

Можно даже интегрировать LiteRT-LM в свои проекты, потому что все это С++ и относительно прозрачный API.

  • Теперь разработчики могут собирать приложения с языковыми моделями, которые работают автономно — хоть в браузере, хоть на Raspberry Pi.

🔗 LiteRT HuggingFace community
🔗 GitHub