Задача построении карты глубин по двум изображениям, даже откалиброванными камерами нормально не решается. Слишком большие ошибки вылазят, проблемное детектирование границ. Годится только в узкоспециализированных задачах. Восстановление 3D с одной камеры из видеопотока в общем случае и то лучше работает.
Гхм. А если правильно параметры детектора границ настроить — он их везде выделит хоть какие-то. Некорректно сравнить детектор с одинаковыми параметрами.
А в чём собственно разница с Кинектом? Та же сетка проецируется. Чуть более мелкая сетка, чуть более точное позиционирование за счёт софта. Ничего нового вообще нет.
В принципе ничего нового. Все технологии были последние 10 лет доступны (и виртуальные шлемы и очки и trackIR). Но всё грамотно собрано и повёрнуто правильной стороной. Хочется верить что они вложатся в маркетинг и в юзабилити и выстрелят этой штукой так же как выстрелил IPad в своё время…
Всё-таки по ролику я не понимаю, чем это лучше Q-live. Может чуть лучше физика и картинка, но глобального улучшения не видно. А картинку все профи по жизни всё равно отключают.
У меня на A4 X7 скролл дохнет регулярно. Это решается поджиманием его пассатижами (проблема встречается часто, весь инет забит, среди моих знакомых двое владельцев А4 и у обоих в той или иной мере глюк тоже проявляется). Где-то раз месяца в 3-4 приходится разбирать-поджимать.
Есть вариант, что там какое-то хитрое микролинзирование матрицы. Или же стоят 2 матрицы параллельно, одна полупрозрачная (такое сейчас уже есть), а из 2х плоскостей в теории можно вытянуть всё остальное.
Использую Arduino когда мне нужно проверить какую-то идею. Я прекрасно понимаю, что всё то же самое можно реализовать гораздо компактнее и практичнее. Но! На это требуется больше времени. Настройка среды: «IAR, Eclipse, Keil» требуют какой никакой настройки. Через IDE Arduino я собирал проект на незнакомом компьютере за 10 минут. Удобство разьёма: мне не нужно каждый раз искать программатор (дома он, или на работе, или прикручен к другой плате). Мне не нужно думать над тем, как подключить ультразвуковой датчик (уже есть готовые и рабочие библиотеки). Вместо того, чтобы собирать сборку на диодах и тратить два вечера чтобы отладить её, можно взять мотор-шилд в котором всё это уже есть.
При этом я скорее программист, чем электронщик. Мне не нужно по жизни разбираться в том, как работает та или иная плата, или помнить, какую ногу надо заземлить напрямую, а какую через конденсатор. Конечно, я не буду покупать светодиод только потому что у него подписано «Ардуино-совместимый». Но и желания собирать что-то что требует больше чем пять минут работы с паяльником у меня обычно нет.
Ардуино обеспечивает огромную гибкость тем, кто не разбирается хорошо в электронике, но которые примерно знают чего хотят. Конечно, ставить Ардуино в законченный вариант продукта обычно глупо. Но использовать для решения той или иной простой задачки или в очередной игрушке — почему бы и нет?
Так что в упор не понимаю этой статьи пропитанной ненавистью к одному из хороших средств достижения цели. Ненавидеть надо людей, которые не хотят совершенствоваться в области своих знаний, а не инструмент.
Ещё есть класс проблем с точным временем. Например многие считают, что у системного таймера можно запросить практически любую точность времени. В реальности время в нём дискретно и изменяется шагом по 10-15 миллисекунд. Более мелкие интервалы он не может отмерять (хотя 10ая вижуалстудия каким-то мухлежом может миллисекундные интервалы через него мерить). Очень редко вижу, что кто-то переходит в программе для точных измерений к процессорному времени.
Я прекрасно понимаю особенности обработки изображения. И приведённые аргументы того, почему оно всё криво — лишь часть. Ровно поэтому я и говорю, что отладка кода заёмёт не один месяц. В роликах выше показывается лишь принципиальный эффект. И тут он не сильно хуже того, что получилось у Японцев из этого топика.
Очевидно, что делая серьёзную работу логику нужно расширить относительно простого Хаара. Как минимум нужно добавить трэкинг ключевых точек через соседние кадры, работать не с цветами, а с производными яркостей, итд. итп.
А целиком анализ мимики делать на мой взгляд не надо (более того, я не думаю, что его делали в приведённой работе). Надо всего лишь вычислять изменения относительно базового положения. А на анализе этого легко понять, улыбнулся человек или нет, открыл рот или поднял брови (кстати, бровей в OpenCV по-моему тоже не было, хотя я в основном с EmguCV работал, там чуть по другому).
Не согласен, что сильно сложнее. Хаар хорошо использовать для предварительного вычисления положения. А анализируя дальнейшую картинку в области выделения лица достаточно просто выцепить глаза и остальные интересующие части. Примерное положение на лице их известно, достаточно натянуть на модель. Например такие штуки на основе классического Хаара собираются за несколько дней (раз два).
Хотя, конечно, отладка до полностью рабочего и стабильного состояния займет не один месяц. Но если вопрос именно в том, чтобы показать результат на одном человеке — это будет быстро.
Но что-то ничего нового давно не появлялось(
При этом я скорее программист, чем электронщик. Мне не нужно по жизни разбираться в том, как работает та или иная плата, или помнить, какую ногу надо заземлить напрямую, а какую через конденсатор. Конечно, я не буду покупать светодиод только потому что у него подписано «Ардуино-совместимый». Но и желания собирать что-то что требует больше чем пять минут работы с паяльником у меня обычно нет.
Ардуино обеспечивает огромную гибкость тем, кто не разбирается хорошо в электронике, но которые примерно знают чего хотят. Конечно, ставить Ардуино в законченный вариант продукта обычно глупо. Но использовать для решения той или иной простой задачки или в очередной игрушке — почему бы и нет?
Так что в упор не понимаю этой статьи пропитанной ненавистью к одному из хороших средств достижения цели. Ненавидеть надо людей, которые не хотят совершенствоваться в области своих знаний, а не инструмент.
Очевидно, что делая серьёзную работу логику нужно расширить относительно простого Хаара. Как минимум нужно добавить трэкинг ключевых точек через соседние кадры, работать не с цветами, а с производными яркостей, итд. итп.
А целиком анализ мимики делать на мой взгляд не надо (более того, я не думаю, что его делали в приведённой работе). Надо всего лишь вычислять изменения относительно базового положения. А на анализе этого легко понять, улыбнулся человек или нет, открыл рот или поднял брови (кстати, бровей в OpenCV по-моему тоже не было, хотя я в основном с EmguCV работал, там чуть по другому).
Хотя, конечно, отладка до полностью рабочего и стабильного состояния займет не один месяц. Но если вопрос именно в том, чтобы показать результат на одном человеке — это будет быстро.