Search
Write a publication
Pull to refresh

Исследователи DeepSeek выпустили nano-vLLM — компактный движок для запуска языковых моделей

Reading time1 min
Views4.2K

Команда исследователей DeepSeek выпустила nano-vLLM — легковесный движок для запуска языковых моделей. Проект написан с нуля на Python и занимает около 1200 строк, что меньше существующих решений. Код nano-vLLM опубликован на GitHub.

Авторы проекта отмечают, что существующие движки для запуска языковых моделей, например vLLM, обеспечивают впечатляющую производительность. Они используют продвинутые алгоритмы и оптимизацию, что позволяет ускорить инференс. При этом кодовая база таких движков зачастую перегруженная и запутанная. Это мешает менее опытным командам модифицировать код и дорабатывать его под свои нужды.

Для решения этой проблемы команда разразработала nano-vLLM — компактный движок, который сочетает в себе высокую скорость работы и компактную кодовую базу без сложных механизмов и запутанных реализаций. При этом nano-vLLM поддерживает кэширование префиксов, тензорный параллелизм, компиляцию с torch.compile() и работу с CUDA. Всё это в 1200 строках кода на Python.

Команда проекта сравнила возможности nano-vLLM и vLLM. Для тестов использовали видеокарту RTX 4070 для ноутбуков с 8 ГБ памяти, на которой запускали модель Qwen3-0.6B. Ниже результаты:

Движок

Выходные токены

Время (с)

Пропускная способность (токенов в секунду)

vLLM

133 966

98,37

1361,84

nan0-vLLM

133 966

93,41

1434,13

Кому может пригодиться nano-vLLM:

  • Разработчикам, которые создают пользовательские приложения на базе языковых моделей.

  • Преподавателям, которые обучают инфраструктуре глубокого обучения.

  • Инженерам, которые развёртывают языковые модели на устройствах с ограниченными ресурсами.

Код проекта разработчики опубликовали на GitHub. Код распространяется по лицензии MIT, а в репозитории также есть инструкции по запуску.

Tags:
Hubs:
+24
Comments6

Other news