Да, у pytorch результат странный. Но ответы совпадают, плюс та же сборка дает адекватные результаты на GPU и других архитектурах сетей.
Да, у нас есть ограниченная поддержка ONNX.
Умножение матриц это основной элемент, например, в MobileNetV2.
Да, конечно, вот мой: stanislav.angelyuk@abbyy.com.
Мы сейчас планируем выделить ресурсы для оптимизации Vulkan, можно будет сделать что-нибудь вместе, с оптимизацией под ваши задачи.
Спасибо!
Не совсем так, у нас работа с TF и PyTorch ведется главным образом на стадии экспериментов, финальное обучение делается на NeoML. К тому же, есть еще дообучение у клиента. Так что, обучение нам нужно!
Мы не соревнуемся, мы решаем свои задачи и делимся результатом)
Спасибо!
ICM не пробовали, пробовали Vulkan. Наш движок для Vulkan можно с незначительными изменениями запустить на Intel Graphics. На сколько я помню, скорость инференса была сопоставима с одним потоком CPU. Возможно, в будущем мы официально поддержим Intel Graphics.
Да, у нас есть ограниченная поддержка ONNX.
Подскажите, какие модели и на каком фреймворке вы учите в анклаве?
Приятно слышать! Спасибо)
В NeoML статический анализ не использовался. Как раз думали попробовать PVS-Studio))
Да, конечно, вот мой: stanislav.angelyuk@abbyy.com.
Мы сейчас планируем выделить ресурсы для оптимизации Vulkan, можно будет сделать что-нибудь вместе, с оптимизацией под ваши задачи.
Замеров на сетях мы не делали, мы сравнивали BLAS c ArmCL на Android-CPU, работали одинаково.
Не совсем так, у нас работа с TF и PyTorch ведется главным образом на стадии экспериментов, финальное обучение делается на NeoML. К тому же, есть еще дообучение у клиента. Так что, обучение нам нужно!
Мы не соревнуемся, мы решаем свои задачи и делимся результатом)
ICM не пробовали, пробовали Vulkan. Наш движок для Vulkan можно с незначительными изменениями запустить на Intel Graphics. На сколько я помню, скорость инференса была сопоставима с одним потоком CPU. Возможно, в будущем мы официально поддержим Intel Graphics.