Comments 11
Посмотрите на kubeflow, сейчас довольно часто одного gpu недостаточно (по памяти/кол-ву ядер), к тому же такое дорогое оборудование можно будет делить с кем-то ещё без рукопашного docker.
К тому же там есть workflows и ещё много чего интересного.
Очень интересная статья, понятно всё)
Вместо тысячи слов
Впечатление от прочитанного:
![](https://habrastorage.org/getpro/habr/upload_files/2c3/00b/780/2c300b78014b8a5525e8fac33dcf071c.jpg)
![](https://habrastorage.org/getpro/habr/upload_files/0b1/37e/e56/0b137ee56de23f2f7277395265af17dc.jpg)
Каковы ограничения описанного подхода? Можно модель в контейнере перенести с машины х86+NVIDIA+CUDA на Raspberry Pi+Corall ?
В статье идёт речь про GPU, а ваш вопрос про TPU акселератор.
Чтобы ответить на ваш вопрос, можно вот что попробовать сделать:
1. Надо определить потребляемые ресурсы вашего контейнера.
2. Попробовать запустить. У нас опыта нет, чтобы протестить, но YOLO тянет (есть разборы).
Если не запустится, надо будет собирать контейнер на самой Raspberry Pi+Corall, также пока непонятно, какая у вас модель... Она просто ведь может не потянуть по характеристикам железа.
нет конечно нельзя в коралле нет никакой куды
С машины на машину тож будет не просто переносить, если нужных драйверов к примеру нет которые требуются для работы собранного докер образа
Как развернуть виртуальную среду модели машинного обучения на любой машине?