Комментарии 11
спасибо что указали репу откуда взяли код) я мельком глянул там и не увидел оптимизации модели в tensorrt, только openvino через onnx. если джетсон нано смог выдавить из ванильной yolo8n 11 фпс - то это сам по себе уже почётный результат) а вот если конвертнуть её в tensorrt с квантированием в int8, и картинки кидать какие-нить 128х128 то я бы тогда посмотрел на фпс)
К сожалению, с TensorRT возникли проблемы, начиная с экспорта.
https://habr.com/ru/articles/822917/ (ближе к концу статьи есть информация про Jetson Nano)
На Jetson Nano с int8 есть проблемки
https://forums.developer.nvidia.com/t/why-jetson-nano-not-support-int8/84060
>> Как мы видим, fps на cpu очень низкий
https://docs.ultralytics.com/integrations/neural-magic/#benefits-of-integrating-neural-magics-deepsparse-with-yolov8 же или это тестирование ARM vs GPU внутри Jettison-а?
А что делать с объектом распознавания, у которого ухо попадёт в один джетсон, а нос в другой? Можно поступить иначе - выделять из видеопотока каждый четвёртый кадр и обрабатывать на отдельном джетсоне, но и тут будут проблемы с отслеживанием объекта. Один распознает пульт управления как мобилу, а другой как клавиатуру и с разными ИД, координатами и размерами. А третий вообще не выделит. А четвёртый два объекта примет за один. Потом надо будет ещё понять, что это один и тот же объект.
Да и слишком громоздко это выйдет. В таком случае проще будет запустить на обычном PC с нормальной видеокартой.
Ну да, за счет 4х джетсонов можно купить комп с нормальной видяхой, с 4060 иди даже 4070, и будет больше 3000 CUDA ядер(4 * 128 = 512 CUDA у 4х джетсонов), нормальная память(у видяхи будет своя память, и не придётся брать свапом с CD карточки, и нейросеть будет работать быстрее), но разве что будет большое энергопотребление, и в условном роботе с 18650 будет сложно запускать.
Спасибо, за совет, уже ище спонсоров)
https://ozon.ru/t/oYPaqY2
минус один, но жирный. Железка 2017 года. Python по моему там 3.6 потолок. Не проверял, но подозреваю железяка уже end-of-sale или близка к этому.
С прошлого года есть Jetson nano orin. Заявлены x80 производительности к старому. Но и цена кусучая.
А учитывая текущие реалии я бы смотрел в сторону Orange Pi, кому нужна автономность.
Железяка старая, это да.
По питону: в стоковой версии 3.6, в кастомном билде 3.9, но можно скомпилить из исходников 3.12(главное openssl не забыть, чтоб pip работал).
На счёт orange pi: судя по анализу производительности моделей(там есть orange)(тык), фпс на orange слишком низкий(1 фпс), и лучше в таком случае использовать мини пк на N100, используя OpenVINO + энергопотребление мини пк на n100 (6 ватт потребляет сам n100, orange pi потребляет 6-9 ватт) будет в 1.5-2 раза больше, а фпс будет сильно больше(19фпс)(в 19 раз больше).
Jetson nano 2 GB. Есть жизнь для AI, или в гроб его?