Комментарии 4
Отличная статья, спасибо! Как раз изучал тему разворачивания JupyterHub на простаивающих мощностях. Не знал о Kubeflow. Подскажите пожалуйста лучшее решение для такого кейса:
Есть два сервера. Свободные ресурсы примерно равны. Могу выделить на первом 24 ядра / 16 Гб оперативки, а на втором 10 ядер / 32 Гб. Можно перегнать некоторую нагрузку по оперативке с первого на второй.
В идеале хотелось бы объединить этот ресурс созданием вычислительного кластера.
Возможно ли получить один мощный инстанс Jupyter Notebook и утилизировать объединённый ресурс для проверки ML теорий (устал по 3 часа ждать в google colaboratory :)?
Или, как вы пишете, лучше по максимуму освободить ресурс одной из машин и на ней поднять чистый JupyterHub? И имеет ли при этом смысл установка Kubeflow?
В компании я пока один начинающий дата-сатанист, но не исключено появление интереса у других моих коллег.
Практического опыта с kubernetes нет, поэтому рассматривал вариант ещё использовать OpenShift (чтобы за меня команды куберу слал).
www.youtube.com/watch?v=fYGc4elKW-g
Из того что не нравится у Kubeflow, это распараллеливание задач в пайплайне. Допустим какое то вычисление можно выполнить параллельно, создаешь новую операцию и настраиваешь пайплайн, чтоб было 5 параллельных задач. В итоге:
- если таких задач будет 1000 штук, то UI попытается показать все и зависает
- для каждый задачи создается отдельный под, и нет возможности указать, чтоб использовал существующий под, как в даск кластере это реализовано
Ну то ли я не разобрался, то ли этого делать нельзя, нельзя указать с какими ресурсами надо создать под для конкретный операции
MLOps без боли в облаке: как развернуть Kubeflow в продакшен-кластере Kubernetes