MishaPogrommist9 фев 2025 в 13:00Запускаем ML-модели с помощью Docker и Nvidia Triton ServerУровень сложностиПростойВремя на прочтение18 минОхват и читатели2.5KБлог компании DockhostPython * Программирование * Машинное обучение * ТуториалВсего голосов 2: ↑2 и ↓0+4Добавить в закладки30Комментарии3
fujinon9 фев 2025 в 17:45Комментарий был измененЧтобы запустить сервер, нам понадобится смонтировать образ. В корне проекта выполним команду:docker build -t dumb-stub .резануло ухо - смонтировать?
MishaPogrommist9 фев 2025 в 18:51Комментарий был измененПоказать предыдущий комментарийХм, мне казалось, это правильный перевод на русский. А какую бы вы посоветовали формулировку?
Запускаем ML-модели с помощью Docker и Nvidia Triton Server