К списку всех событий

Вебинар «Простой запуск ML-моделей в облаке: как сэкономить до 70% ресурсов»
О событии
Проанализировав опыт наших клиентов и открытые данные по рынку, мы пришли к выводу, что 70% компаний используют графические процессоры (GPU) менее чем на 55% их мощности. Часто ресурсы GPU используются не оптимально, например, когда мощные графические процессоры выполняют небольшие задачи. Так, простой одного сервера может обходиться до 5,376 млн рублей в год.
На вебинаре мы покажем, как можно более эффективно организовать работу с GPU с помощью Evolution ML Inference. Сервис позволяет запускать несколько моделей на одном GPU, автоматически масштабирует ресурсы и сокращает расходы до 70%.
В программе:
Почему Shared GPU выгоднее выделенных ресурсов: расчёт экономии на примере реальных проектов.
Пошаговый запуск моделей с Hugging Face за несколько кликов.
Как избежать переплат: настройка лимитов GPU и мониторинг в реальном времени.
Динамическое масштабирование: добавление ресурсов при пиковой нагрузке и отключение в простое.
В результате с помощью сервиса вы сможете развёртывать модели без сборки Docker-образа, платить только за фактическое использование ресурсов и сократить время запуска проектов с использованием AI в 3 раза.
Будет полезно дата-сайентистам, DevOps-инженерам и руководителям, которые хотят оптимизировать затраты на ML-инфраструктуру.