Как стать автором
Поиск
Написать публикацию
Обновить

Deep Learning Inference Benchmark — измеряем скорость работы моделей глубокого обучения

Время на прочтение6 мин
Количество просмотров6.6K
Всего голосов 11: ↑11 и ↓0+11
Комментарии2

Комментарии 2

Да, я читал и про MLPerf и про HP benchmark))) Идея текущего проекта — сделать упор на то, чтобы показать потенциал, который могут показать библиотеки и девайсы, разрабатываемые компанией Intel)) Асинхронный запуск в обработку большого количества картинок по одной чтобы получить высокую производительность и иметь при этом малые задежки это очень заманчиво.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий