Как стать автором
Обновить

Комментарии 14

Спасибо за статью!
Посмотрю по ссылкам подробнее.
А я делал на Kendryte K210, Вы про него упомянули. Только на MaixBir Mic. Кстати, разработка не "ужасная", если настроите свою любимую среду. (Я на EmBitz с ней работал).
Ещё тестировал NM500 от General Vision Inc. и их же технологию в Intel Curie.

Если я понимаю правильно (спрашивал по знакомым), то в двух словах — очень ограничено по памяти, далеко не все модели лезут. Нет переноса с большого числа фреймворков, чуть ли не в ручную надо делать. Плохая поддержка от сообщества, много не леченых багов. Много слоев не переноситься.
Но опять же, это вполне может хватать для каких-то проектов.

За NM500 спасибо — не натыкался, посмотрю как время будет.
О, кстати, да. Мы же на этом делали нашу первую embedded версию распознавания радужки глаза году в 2009-2010. Только сейчас вспомнил как оно называло. Прямо воспоминаниями накинуло.
Ещё помню пробовали на блэкфин портировать.
Спасибо, тема очень актуальная)
Спасибо за обзор!

Как всегда с интересом читаю статьи Антона.
Я игрался с RPI для каких-то экзотических случаев (сделать простенький NAS или компьютер для походов в интернет, игрался с камерой и слежкой за машинами из окна), но мне пока "везло" на работе — я всегда умудрялся свести все к x86 или GPU.


В отличие от Jetson, на базе Movidius появляются интересные штуки. В первую очередь это M.2 и mPCIe карты. Какие-то даже уже были, когда я писал прошлый обзор: 1, 2, 3.

Очевидный глупый вопрос, а в какие железки лучше втыкать такие карты? В какие-то китайские одноплатники с M2 разъемом? А в RPI 4 вроде M2 разъема нет еще?

Привет!
По сути да, разные x86|одноплатники на АРМе. На том же Jetson, кстати, есть pci-e шина. Она не на всех макетках выводиться, но в теории есть. В некоторых OrangePi есть, в каких-то ASUS TINKER есть. Кстати, в Compute версии RPI тоже есть.

Да, кстати x86 в форм-факторе mini-ITX c каким-то процессором с низким TDP может быть весьма интересно. Кстати прикольно, не знал про одноплатники от ASUS с PCIE.

И еще вопрос, который интересует. У меня очень позитивные впечатления от экспорта в ONNX в PyTorch и onnx-runtime (и в торче недавно завезли легкие бинари для мобилки, вы не пробовали?).


Если зайти на сайт onnx-runtime, там сейчас миллион всяких опций заявлено — https://www.onnxruntime.ai. Естественно большая часть из них недоступна. Мне вот что интересно — если сейчас будет массовое развитие ARM, то вариант тупо с ONNX + ARM не выстрелит? Мне писали всякие китайцы что мол запускали на своих одноплатниках наши сетки через PyTorch и ONNX, правда приходилось все все-таки билдить самим. И мол все хорошо работает у них по их словам.

Тут, скорее, упираться все будет в железо и в его поддержку. Например Intel оптимизировал архитектуру чтобы инферить нейронки неплохо. Для ARM есть множество вариантов когда какие-то операции выполняются на чипе (NEON, и.т.д.).
Какие-то фреймворки все это успешно используют, какие-то менее успешно. Что-то надо запускать на родном фреймворке, что-то на onnx.

Я думаю что лет через 5 все может устаканиться, будет какая-то универсальная система инференса и общие концепты аппаратной поддержки. И все просто будет в терафлопах измеряться.
Обучение я так понимаю по прежнемо лежит на GPU и пока других альтернатим нет для этой задачи? Да и посути только Nvidia дает приемлимое соотношение цена/производительность, особенно не для больших компаний.
Я знаю ребят которые в облаке Google на TPU обучали. Говорили что чуть дешевле получается по цене, но сильно больше работы по переносу и настройке моделей.
Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.