Как стать автором
Обновить
18
0
Nikita @Keithla

MLOps

Отправить сообщение

Как раз таки замечания @ivankudryavtsev объясняют почему нельзя использовать данный код в production. Он не достаточно надежен для этого

Здравствуйте, вы правы, этот код не жизнеспособен за пределами очень простых моделей и минимального количества пользователей. Но цель этой статьи показать основную идею для тех, кто хотел бы начать или продолжить реализацию Model Serving инструмента. При дальнейшей реализации, разработчики уже смогут добавить очередь, gpu поддержку, репликацию, батчинг и т.д., все, что нужно для полноценной работы. Поэтому, я рекомендовал использвать bentoml и seldon core и не брать этот код в production.

RestAPI здесь нужен затем, что servingml server, работает не зависимо от клиента, где цель клиента только в том, чтобы передать архив проекта на сервер, который уже сам должен распределять задачи. Опять же, это не я придумал, а рассказал, то как работают данные фреймворки, в первую очередь mlrun.

Сам же servingml server может быть доведен до того, чтобы использовать его в kubernetes, добавив в helm.

Очень понравилась статья! Позволяет систематизировать знания и понять, что и как делать дальше.

Единственное, после слов - На схеме это Automated ML Workflow Pipeline (блок D), который запускается по триггерам в каком-либо инструменте оркестрации, приведен блок B, а не D. Но на качетсво статьи, это не влияет)

Информация

В рейтинге
Не участвует
Откуда
Москва, Москва и Московская обл., Россия
Зарегистрирован
Активность

Специализация

MLOps
Middle
Machine learning
Kubernetes
Docker
Linux
Git
PostgreSQL
RabbitMQ
Apache Kafka
Elasticsearch
Python