Как стать автором
Обновить

Комментарии 25

А где-нибудь типа скетчхаба можно полученую модельку повертеть, чтобы оценить качество?
Страница — sketchfab.com/kpopov

Людей еще особо не заливали, так как пока разработка в процессе. Зальем в октябре после текстурных правок. Приходите в гости на мероприятие Открытие Инновации. Отсканируем ;)
Посмотрел модели. Интересно получается, но качество фотограмметрических сканеров пока выше.
www.youtube.com/watch?v=UWBsMaPPWTU
goo.gl/oxVDBF (пример детализации)
Правда они и дороже и обрабатываться у вас должно быстрее.
Кстати, вы не знаете, сейчас F200 сенсоры быстро высылают?
И где вы покупали R200? На сайте Интела их вроде еще нет в наличии.
Когда уже прикрутят эту фичу к интернет магазинам одежды.
Можно сделать сеть центров по созданию моделей, и заливкой их в какое нить облако. И АПИ для магазинов.

Потом в инет магазине указал Id модели, и сразу четко определился с размерами, и даже посмотрел как оно примерно выглядеть будет.
Мы как раз сейчас обсуждаем пилот с одной европейской сетью. В следующем году запустим свое облако для хранения моделей. Пока же магазины могут использовать платный аккаунт на sketchfab. Там достаточно простая интеграция.

Но вот с виртуальной примерочной все еще вопрос открыт. Очень сложно технологически реализовать полноценную примерочную. Чаще всего все сводится к снятию размером со скана, чтобы потом сделать поиск вещей по базе товаров.
Снятие размеров это уже замечательно (кстати а какая погрешность?), именно отсутствие размеров не позволяет существовать облачным услугам пошива-на-заказ, сейчас это все-таки премиум сегмент и требование личного присутствия, но спрос в нижнем ценовом диапазоне будет огого.
~ 2 мм. Предварительное тестирование. Подробнее расскажем ближе к CES 2016. Тема связанная с размерам находится в разработке.
2 мм в глубине или в обхвате?
После реконструкции. Погрешность меша относительно исходного материала.
И к сайтам знакомств — чтобы сразу размерности теток определяли :)
К сожалению манекен создается через вбивание параметров вручную. Что крайне неудобно.

Будущее вот за такими примерочными, когда можно увидеть себя —
Недавно Ракутен купил компанию, которая занимается виртуальными примерочными — fits.me
О, вижу фотопиццу! Сами собирали?
Сами платформы для вращения человека нам делает Владимир. Доверяем профессионалам!) Но все работает на Intel Edison. Для бокса уже наша конструкция, так как там требуются особенности для установки камеры под предметом.
Коллеги, мы будем на стенде Intel во время мероприятия mixAR 26го сентября. Кому интересно обсудить RealSense — приходите в гости. А так у нас регулярные апдейты на страничке в Facebook — www.facebook.com/cappasity
Одновременно работающие три камеры друг другу не мешали?
В моем представлении, IR подсветка одной камеры может мешать другой камере.
R200 не мешают. F200 мешают и приходится гасить эмиттер.
т.е. только одна камера глубины может работать в один момент? А сколько времени занимает переключение на другую камеру глубины?
Мы для скана людей используем R200. Для сканирующих боксов — F200. Каждая F200 камера подключена к своему PC и чтобы они не мешали друг другу — то есть в каждую единицу времени работает только одна камера глубины. Если гасить полным выключением, то долго. Можно гасить регулировкой LaserPower — тогда почти моментально, но иногда может подвисать сама камера. Тайминг затрудняюсь сказать так как давно проводили эти эксперименты.
В KinectFusion есть довольно сильное ограничение — объект съёмки должен быть неподвижным.
Тоже использовал SDF volume-based методы и по моему опыту, если человек при сканировании хотя бы немного сдвинулся, то возникают проблемы с восстановлением поверхности (хотя обновляющиеся веса в SDF немного сглаживают проблему). А в вашем примере ему, похоже, приходится сохранять неподвижное положение на вращающейсвя платформе.

Очень любопытно, сталкивались ли вы с этим и как боролись? :-)

Пробовали ли внедрять "DynamicFusion: Reconstruction and Tracking of Non-rigid Scenes in Real-Time" или подобные методы?
Вы совершенно правы, поэтому наш fusion можно лишь условно называть KinectFusion. Проблемы с текстурами решаем способом похожим на одно из выступлений сотрудника Артека. Потом еще двигаем, чтобы править швы. Веса действительно могут решить проблему, но лицо является самым больным местом.

DynamicFusion вещь интересная, но пока детально не изучали. С подобным экспериментом можно надолго засесть, так как одно из главных для нас условий — чтобы все быстро работало на HD Graphics и на мобильных устройствах… Если бы были свободные руки — попробовали бы.
А где взять такую вращающуюся платформу? В гугле что-то не находится ничего приличного в Москве :(
Можете собрать сами по моим чертежам, сейчас готовлю инструкцию для новой версии photopizza.ru
Зарегистрируйтесь на Хабре , чтобы оставить комментарий