Где живое видео с демонстрацией работы устройства? Статика же у вас есть. Извиняюсь если это не ваше.
Вообще говоря, наибольшее распространение такие дисплеи получили в телефонах. По большей части все они крутятся вокруг одной и той же идеи. Хоть и мне казалось, что вся эта шумиха вокруг «3D-телефонов» закончится после HTC EVO 3D и LG Optimus 3D, но в итоге телефоны с glass-free 3D дисплеями выпускаются до сих пор (например, чтобы хоть как-то привлечь внимание к продукту на чрезвычайно конкурентном рынке). И до сих пор это выглядит так себе. Даже более-менее продвинутый дисплей от Leia (подробнее в статье в Nature) в Red Hydrogen One тоже оказался не очень. Если кто-то хочет попробовать такой дисплей — то можно попробовать купить пленку с лентикулярным растром на телефон или планшет, но говорят, что оно совсем плохо работает.
Совершенно очевидно, что минимальный размер 0201, а не 0402 — расстояние между выводами разъёмов 0.5мм. Ну а так — да, с хорошим микроскопом, хорошей станцией и неограниченным временем (а ещё и с трафаретом для пасты) можно всё что угодно собрать.
Есть подозрение, что китайцы используют какие-то свои FLOPS — надо перепроверять. Вот почему нет сравнения с той же YOLO или SSDLite? Ну да ладно, это видимо проблема почти всех подобных статей. Модель DetNASNet, которая на 3.8 GFLOPS весит 350 MB. Самая большая YOLOv3-spp на 141 BFLOPS весит 240 MB. Какой-то ThundetNet весит в районе десятка MB. Я понимаю, что какая часть модели может не использоваться при работе, но тут уже слишком большая разница. Я раньше думал, что GFLOPS и BFLOPS одно и тоже, но сейчас уже не уверен. Ещё я сомневаюсь в SM-NAS, но он хотя бы не так сильно выбивается как DetNASNet.
Недавно вышла статья (код), в которой используют adaptive-BN-based evaluation для прунинга. Пишут, что лучше и отчасти быстрее существующих методов: ThiNet, NetAdapt, Filter Pruning, AMC, Meta-Pruning.
Что значит не распознало? Не нашло ни одной машины? Как уже написали выше, если есть доступ к видео, то правильнее использовать какой-нибудь optical flow. Но если нет, то вот что можно получить при использовании HTC HRNetv2p-W32 20e:
Качество изображения плохое, поэтому всех машин оно конечно не найдёт.
Как-то забыл про EfficientDet, который вообще-то лучше чем SpineNet, хотя помню, что читал про него. Возможно это произошло из-за того, что SpineNet вообще не упомянул про EfficientDet. А вообще есть ещё DetNASNet (даже веса выложены), который в некоторых конфигурациях ещё быстрее и точнее чем EfficientDet ;). Вот сравнение DetNASNet, EfficientDet, SpineNet, CSPNet и несколько других сеток до кучи.
Немного печально, что SpineNet от гугла даже не упомянул про EfficientDet (тоже от гугла, но лучше) хоть и был опубликован почти через 3 недели после. Видимо, это уже привычная практика для подобной ситуации даже за пределами ML-сообщества. Вот сравнение SpineNet и EfficientDet (ну и до кучи другие сетки):
Сюда конечно не вошли ещё много других интересных статей, которые сравнивают по inference time. Данные поэтому далеко неполные и возможно не очень точные, но какое-то представление о более-менее быстрых вариантах даёт. В частности, может быть кому-то будет интересно посмотреть на SM-NAS и DetNASNet, который даже в чём-то лучше чем EfficientDet.
Поэтому появилась необходимость узнать, какие архитектуры нейросетей обнаруживают объекты на изображениях…
Object Detection in 20 Years: A Survey — хорошая обзорная статья. В частности, отвечает на вопрос «куда это все движется» в отношении object detection. Из последних достижений, не отмеченных в этой обзорной статье, можно добавить: EfficientDet, SpineNet, CSPNet…
По мере изучения этих архитектур я понял, что ничего не понимаю… Нет системного мышления! Не понятно, что менять и как оптимизировать имеющиеся достижения… Постепенное уменьшение точности и увеличение скорости вычислений: нечеткая логика, алгоритмы бустинга ...
Вы за какое время попытались изучить имеющиеся достижения? Не похоже, что вы этим уже давно занимаетесь.
Ну хорошо, есть CSPNet с весами, который наверное где-то даже быстрее чем SpineNet. Ещё интересно было бы узнать на каких задачах у вас mAP@0.75 больше 0.95.
Перед тобой снова задача детектирования объектов. Приоритет — скорость работы при приемлемой точности. Берешь архитектуру YOLOv3 и дообучаешь. Точность(mAp75) больше 0.95. Но скорость прогона всё еще низкая.
YOLOv3 подустарел для object detection. Последний коммит, которому уже почти полтора года, очень грустный. Посмотрите какой-нибудь SpineNet — он быстрее, при этом ещё и точнее.
Очевидная проблема, требующая всестороннего исследования, поэтому, конечно, публикуется множество соответствующих статей — 1, 2, 3, 4, 5, 6, 7. Это лишь то, что лежит на поверхности после одной минуты гугления.
Вообще говоря, наибольшее распространение такие дисплеи получили в телефонах. По большей части все они крутятся вокруг одной и той же идеи. Хоть и мне казалось, что вся эта шумиха вокруг «3D-телефонов» закончится после HTC EVO 3D и LG Optimus 3D, но в итоге телефоны с glass-free 3D дисплеями выпускаются до сих пор (например, чтобы хоть как-то привлечь внимание к продукту на чрезвычайно конкурентном рынке). И до сих пор это выглядит так себе. Даже более-менее продвинутый дисплей от Leia (подробнее в статье в Nature) в Red Hydrogen One тоже оказался не очень. Если кто-то хочет попробовать такой дисплей — то можно попробовать купить пленку с лентикулярным растром на телефон или планшет, но говорят, что оно совсем плохо работает.
результат уже получше
Качество изображения плохое, поэтому всех машин оно конечно не найдёт.
Сюда конечно не вошли ещё много других интересных статей, которые сравнивают по inference time. Данные поэтому далеко неполные и возможно не очень точные, но какое-то представление о более-менее быстрых вариантах даёт. В частности, может быть кому-то будет интересно посмотреть на SM-NAS и DetNASNet, который даже в чём-то лучше чем EfficientDet.
Object Detection in 20 Years: A Survey — хорошая обзорная статья. В частности, отвечает на вопрос «куда это все движется» в отношении object detection. Из последних достижений, не отмеченных в этой обзорной статье, можно добавить: EfficientDet, SpineNet, CSPNet…
Вы за какое время попытались изучить имеющиеся достижения? Не похоже, что вы этим уже давно занимаетесь.
Хабр до сих пор не поддерживает WebM?
YOLOv3 подустарел для object detection. Последний коммит, которому уже почти полтора года, очень грустный. Посмотрите какой-нибудь SpineNet — он быстрее, при этом ещё и точнее.
Пожалуйста, играйтесь — https://doi.org/10.1021/la8026896