Как стать автором
Назад

К списку всех событий

Вебинар «Простой запуск ML-моделей в облаке: как сэкономить до 70% ресурсов»
Событие завершено
Разработка
Менеджмент

Вебинар «Простой запуск ML-моделей в облаке: как сэкономить до 70% ресурсов»

22 апреля 11:00
Онлайн

О событии

Проанализировав опыт наших клиентов и открытые данные по рынку, мы пришли к выводу, что 70% компаний используют графические процессоры (GPU) менее чем на 55% их мощности. Часто ресурсы GPU используются не оптимально, например, когда мощные графические процессоры выполняют небольшие задачи. Так, простой одного сервера может обходиться до 5,376 млн рублей в год.

На вебинаре мы покажем, как можно более эффективно организовать работу с GPU с помощью Evolution ML Inference. Сервис позволяет запускать несколько моделей на одном GPU, автоматически масштабирует ресурсы и сокращает расходы до 70%.

В программе:

  • Почему Shared GPU выгоднее выделенных ресурсов: расчёт экономии на примере реальных проектов.

  • Пошаговый запуск моделей с Hugging Face за несколько кликов.

  • Как избежать переплат: настройка лимитов GPU и мониторинг в реальном времени.

  • Динамическое масштабирование: добавление ресурсов при пиковой нагрузке и отключение в простое.

В результате с помощью сервиса вы сможете развёртывать модели без сборки Docker-образа, платить только за фактическое использование ресурсов и сократить время запуска проектов с использованием AI в 3 раза.

Будет полезно дата-сайентистам, DevOps-инженерам и руководителям, которые хотят оптимизировать затраты на ML-инфраструктуру.