Pull to refresh
57
0
Чистяков Антон @chist-anton

Head of operations

Send message

Ускорение инференса LLM

Level of difficultyMedium
Reading time13 min
Views6.6K

Инференсом ML-модели называют процесс её работы на конечном устройстве. Соответственно, чем больше мы разгоняем инференс, тем быстрее работает модель. Скорость может зависеть от разных условий, например, от архитектуры, которую вы выбрали для модели, или от железа, на котором работает устройство. Кроме того, проблема тяжёлого инференса остро ощущается на больших языковых моделях (LLM) так остро, как ни на каких других моделях.

Меня зовут Роман Горб, я старший ML-разработчик в команде YandexGPT. Тема инференса LLM заинтересовала меня, потому что я занимался R&D в квантовании сеток для CV-задач. Сегодня я расскажу, как безболезненно увеличить скорость инференса. Сперва разберёмся, зачем это нужно, а потом рассмотрим разные методы ускорения и фреймворки, которые могут в этом помочь.

Ускоряемся
Total votes 31: ↑30.5 and ↓0.5+30
Comments8

Information

Rating
5,057-th
Location
Москва, Москва и Московская обл., Россия
Works in
Date of birth
Registered
Activity