Хабр Курсы для всех
РЕКЛАМА
Практикум, Хекслет, SkyPro, авторские курсы — собрали всех и попросили скидки. Осталось выбрать!
model = keras.models.load_model('model.h5')Не совсем понял, что имеется ввиду, можете пример написать или ссылку дать, где это реализовано
@app.route('/image', methods=['POST'])
def image_post_request():
model = keras.models.load_model('model.h5')
x = image.convert(request.json['image'])
y = model.predict(x.reshape((1,28,28,1))).reshape((10,))
n = int(np.argmax(y, axis=0))
y = [float(i) for i in y]
Да, всё верно вы подметили, спасибо. Поправил.
Можно использовать Nvidia Triton Inference Server и упростить жизнь еще сильнее.
Работает, docker container ls --format "table {{.ID}}\t{{.Image}}\t{{.Names}}":
CONTAINER ID IMAGE NAMES
d6fe821c8af9 nginx nginx-html
21ed0aac2ffe nginx nginx-balancer
930f5db9faca mnist-microservice ml_microservice_mnist-microservice_1
9e6dded634ee mnist-microservice ml_microservice_mnist-microservice_2
d4ad3a3af687 mnist-microservice ml_microservice_mnist-microservice_3Попробуйте все таки что-то новенькое. Например хранить модель в redisai а веб фреймворк взять fastapi.
Развертывание ML модели в Docker с использованием Flask (REST API) + масштабирование нагрузки через Nginx балансер