All streams
Search
Write a publication
Pull to refresh
53
0
Валерий Курышев @Walker2000

Директор по продукту

Send message
Ну да. Потенциально можно несколько сразу повесить на одну шину.
Ну смотря для каких задач. MLX удобен тем, что можно писать код и страивать модуль в свои какие-то решения.
Не думаю. Но они и не нужны вроде как. Если делать что-то более серьезное, проще не разбираться с их исходниками, а взять исходники MXL90640.
Если не напрямую с датчиком общаться, а использовать посредника в виде STM32F103, то можно и на ESP8266 запустить по идее. С Raspberry просто удобнее отлаживать. Можно за выходные как раз успеть всё запустить и посмотреть — как работает.
Ранее такие матрицы уже считались изделиями спецназначения ) Но, если девайс в открытой продаже, то, наверное и матрицу где-то можно купить. Пока из доступного я натыкался на такую: ru.aliexpress.com/item/FLIR/32872035004.html. Но разрешение там похуже, конечно.
Добрый день! Идея статьи была в оценке качества классификации на нейронке с широким набором классов. Да, можно поставить SSD детектор на Raspberry, например MobileNet SSD (на примере с картинки, похоже, именно оно и есть). С рамочками изображение гораздо информативнее, плюс детектируются сразу несколько объектов в кадре. Но, надо заметить, что классов значительно меньше (в районе 20). Работает такой детектор также ощутимо медленнее. На CPU RPI B+ будет примерно 0,5...1 FPS. На PRI B+ с Movidius NCS в USB слоте получается 4 с небольшим FPS.
Тема реально интересная, но как же тяжело читать! Автор, не делайте так больше никогда, пожалуйста.
Вооружившись IMU от Амперки на 10 степеней свободы, Raspberry Zero W с блоком питания и 40 строками кода на Питоне я пошел в беговелошколу.

Настоящий технарь он во всём технарь )))
Да, аргумент резонный. Кстати, Imagenet, на котором была обучена описываемая сеть, лежит в открытом доступе. Можно посмотреть исходные изображения здесь: image-net.org/synset?wnid=n02084071#
Спасибо, обладатели Macbook точно оценят!
Коты оказались интересными объектами для проверки нейросети. Почему-то на них она сильно ошибается. Но, если честно, скорее всего ошибается и на других объектах, просто кот оказался ближе остальных )

Примерно так и есть. Для обучения нейросети используется набор аннотированных фотографий. В статье описана нейросеть, обученная на наборе изображений ImageNet. Это 1000 классов изображений, аннотированных добровольцами. Примерно по 1000 изображений на один класс. Этот набор широко используется для обучения разных типов сверхточных сетей, чтобы сравнить их эффективность.

Спасибо за комментарий, полностью согласен с ним. Для работы нейросети для классификации изображений нужен нейропроцессор. На raspberry можно достичь 1...2 fps.

Ну и это все при меняющемся внешнем освещении ). Оно тоже сильно влияет.
Насколько я знаю, пока все популярные сетки обучаются именно на статичных картинках. Они сильно разного качества и аннотируются добровольцами. И при достаточных вычислительных ресурсах довольно неплохо работают на видео (видеоряд при этом анализируется покадрово). В принципе, возможна и обратная операция — разложить видео на кадры и по ним тренировать нейросеть. Наверное, такой подход будет полезен если стоит задача определить стиль бега кота или положение его тела )
Да, поскольку логика такого выбора непонятна, остается только списать на троллинг )

Information

Rating
Does not participate
Location
Москва, Москва и Московская обл., Россия
Date of birth
Registered
Activity

Specialization

Chief Technology Officer (CTO), Chief Product Officer (CPO)
Lead
Python