Pull to refresh
3
0
Akmarov Konstantin @enclis

не пользователь

Send message
Оперативно, большое спасибо, но не очень понятно, что оно 3D если угол зрения не меняется.
Где живое видео с демонстрацией работы устройства? Статика же у вас есть. Извиняюсь если это не ваше.

Вообще говоря, наибольшее распространение такие дисплеи получили в телефонах. По большей части все они крутятся вокруг одной и той же идеи. Хоть и мне казалось, что вся эта шумиха вокруг «3D-телефонов» закончится после HTC EVO 3D и LG Optimus 3D, но в итоге телефоны с glass-free 3D дисплеями выпускаются до сих пор (например, чтобы хоть как-то привлечь внимание к продукту на чрезвычайно конкурентном рынке). И до сих пор это выглядит так себе. Даже более-менее продвинутый дисплей от Leia (подробнее в статье в Nature) в Red Hydrogen One тоже оказался не очень. Если кто-то хочет попробовать такой дисплей — то можно попробовать купить пленку с лентикулярным растром на телефон или планшет, но говорят, что оно совсем плохо работает.

Совершенно очевидно, что минимальный размер 0201, а не 0402 — расстояние между выводами разъёмов 0.5мм. Ну а так — да, с хорошим микроскопом, хорошей станцией и неограниченным временем (а ещё и с трафаретом для пасты) можно всё что угодно собрать.
Спасибо за развёрнутый комментарий. Остаётся вопрос — что не так с DetNASNet и SM-NAS?
Есть подозрение, что китайцы используют какие-то свои FLOPS — надо перепроверять. Вот почему нет сравнения с той же YOLO или SSDLite? Ну да ладно, это видимо проблема почти всех подобных статей. Модель DetNASNet, которая на 3.8 GFLOPS весит 350 MB. Самая большая YOLOv3-spp на 141 BFLOPS весит 240 MB. Какой-то ThundetNet весит в районе десятка MB. Я понимаю, что какая часть модели может не использоваться при работе, но тут уже слишком большая разница. Я раньше думал, что GFLOPS и BFLOPS одно и тоже, но сейчас уже не уверен. Ещё я сомневаюсь в SM-NAS, но он хотя бы не так сильно выбивается как DetNASNet.
UPD: убрал DetNASNet и добавил MobileNetV3-SSDLite
Недавно вышла статья (код), в которой используют adaptive-BN-based evaluation для прунинга. Пишут, что лучше и отчасти быстрее существующих методов: ThiNet, NetAdapt, Filter Pruning, AMC, Meta-Pruning.
и HTC dconv_c3-c5_mstrain_400_1400_x101_64x4d_fpn 20e:

результат уже получше
Что значит не распознало? Не нашло ни одной машины? Как уже написали выше, если есть доступ к видео, то правильнее использовать какой-нибудь optical flow. Но если нет, то вот что можно получить при использовании HTC HRNetv2p-W32 20e:

Качество изображения плохое, поэтому всех машин оно конечно не найдёт.
Как-то забыл про EfficientDet, который вообще-то лучше чем SpineNet, хотя помню, что читал про него. Возможно это произошло из-за того, что SpineNet вообще не упомянул про EfficientDet. А вообще есть ещё DetNASNet (даже веса выложены), который в некоторых конфигурациях ещё быстрее и точнее чем EfficientDet ;). Вот сравнение DetNASNet, EfficientDet, SpineNet, CSPNet и несколько других сеток до кучи.
Немного печально, что SpineNet от гугла даже не упомянул про EfficientDet (тоже от гугла, но лучше) хоть и был опубликован почти через 3 недели после. Видимо, это уже привычная практика для подобной ситуации даже за пределами ML-сообщества. Вот сравнение SpineNet и EfficientDet (ну и до кучи другие сетки):

Сюда конечно не вошли ещё много других интересных статей, которые сравнивают по inference time. Данные поэтому далеко неполные и возможно не очень точные, но какое-то представление о более-менее быстрых вариантах даёт. В частности, может быть кому-то будет интересно посмотреть на SM-NAS и DetNASNet, который даже в чём-то лучше чем EfficientDet.
Поэтому появилась необходимость узнать, какие архитектуры нейросетей обнаруживают объекты на изображениях…

Object Detection in 20 Years: A Survey — хорошая обзорная статья. В частности, отвечает на вопрос «куда это все движется» в отношении object detection. Из последних достижений, не отмеченных в этой обзорной статье, можно добавить: EfficientDet, SpineNet, CSPNet

По мере изучения этих архитектур я понял, что ничего не понимаю… Нет системного мышления! Не понятно, что менять и как оптимизировать имеющиеся достижения… Постепенное уменьшение точности и увеличение скорости вычислений: нечеткая логика, алгоритмы бустинга ...

Вы за какое время попытались изучить имеющиеся достижения? Не похоже, что вы этим уже давно занимаетесь.
Ну хорошо, есть CSPNet с весами, который наверное где-то даже быстрее чем SpineNet. Ещё интересно было бы узнать на каких задачах у вас mAP@0.75 больше 0.95.
Да, сравнивали. Table 2 на шестой странице.
Окончательный результат на анимации из 10 кадров (больше не принимает файловый архив хабра)

Хабр до сих пор не поддерживает WebM?
Перед тобой снова задача детектирования объектов. Приоритет — скорость работы при приемлемой точности. Берешь архитектуру YOLOv3 и дообучаешь. Точность(mAp75) больше 0.95. Но скорость прогона всё еще низкая.

YOLOv3 подустарел для object detection. Последний коммит, которому уже почти полтора года, очень грустный. Посмотрите какой-нибудь SpineNet — он быстрее, при этом ещё и точнее.
Очевидная проблема, требующая всестороннего исследования, поэтому, конечно, публикуется множество соответствующих статей — 1, 2, 3, 4, 5, 6, 7. Это лишь то, что лежит на поверхности после одной минуты гугления.

Information

Rating
3,871-st
Location
Россия
Registered
Activity