Как стать автором
Обновить

Комментарии 8

Непрочь поучаствовать. Мб кто пригласит в команду?=)
Вы можете зарегистрироваться и выбрать понравившийся проект, сразу в него вписаться. Или влиться в проект на открытии в пятницу, во время формирования команд.
Я в курсе. Этот коммент — в адрес хабражителей, которые собираются участвовать в сём мероприятии.
Не нашел, где можно задать вопрос по поводу конкурса Интелового, поэтому спрошу тут: насколько точно распознается артикуляция пальцев этой железкой? Судя по демо-роликам, жесты ограниченны «ладонями в монитор, пальцы растопырить и желательно не сгибать»(насколько я понял используются 3D фичи + геодезическое расстояние для детектирования пальцев?), а это не есть круто…
И попутный вопрос, какова точность Depth Map получаемой с этой камеры?
Конкурс ограничен только приложениями для управления PC жестами?
Камера поддерживает так называемый near-field tracking. Дистанция активации, на которой запускается распознавание жестов приблизительно ~30 см.
Разрешение Depth Map в текущей модели Creative Cam: 320x240.
Позиции пальцев (finger tracking) могут колебаться на 2-3 пикселя. Точность самой Depth Map зависит от ряда параметров, в т.ч. от текущего освещения.

По приложениям — любые, использующие возможности sdk — т.е. и жесты и голосовое управление
«Позиции пальцев (finger tracking) могут колебаться на 2-3 пикселя» //я имел в виду немного другое. Судя по роликам оно не восстанавливает 3D артикуляцию, ограничиваясь жестами на плоскости параллельной плоскости монитора + детектирования ладони в целом(без артикуляции) при жестах типа взмаха рукой?
Координаты пальцев возвращаются в двумерных координатах depth изображения, но затем, используя depth map или vertexes можно восстановить трёхмерные координаты пальца относительно камеры

Скачайте SDK. Можем выслать камеру мы еще до пятницы на «потестить». Мои контакты есть на сайте hackday.ru/events/hackday-25/contacts

Осилил таки вэбинар по Intel Perceptual SDK, с жестами как я и предполагал все сводится только к gesture recognition на плоскости(в том смысле, что алгоритмы связанные с руками из SDK в принципе воспроизводимы и на обычной RGB камере), depthMap там по больше части для отсечения бэкграунда используется. Жесты получаются не очень интуитивными при таком подходе(проверял на своей поделке, раннюю версию которой на хабре описывал). Если эту задачу решать как задачу оптимизации, то можно более интересные результаты получить(правда, возможно пришлось-бы поднапрячь и GPU-вычислитель).

Да я пока не надумал в конкурсе участвовать(писать Perceptual Злые Птички как-то не серьезно), а вот железку купил-бы на поиграться, но что-то в продаже их нету.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий