MishaPogrommist 9 фев в 16:00Запускаем ML-модели с помощью Docker и Nvidia Triton ServerУровень сложностиПростойВремя на прочтение18 минКоличество просмотров1.8KБлог компании DockhostPython*Программирование*Машинное обучение*ТуториалВсего голосов 2: ↑2 и ↓0+4Добавить в закладки26Комментарии3
fujinon 9 фев в 20:45Комментарий был измененЧтобы запустить сервер, нам понадобится смонтировать образ. В корне проекта выполним команду:docker build -t dumb-stub .резануло ухо - смонтировать?
MishaPogrommist 9 фев в 21:51Комментарий был измененПоказать предыдущий комментарийХм, мне казалось, это правильный перевод на русский. А какую бы вы посоветовали формулировку?
Запускаем ML-модели с помощью Docker и Nvidia Triton Server