Comments 12
А можно где-то посмотреть, как в юнити выглядит модель, анимированная мокапом, полученным таким способом?
www.youtube.com/watch?v=2wXv2agp3sM&feature=youtu.be пример непосредственно в unity3d, www.ipisoft.com/gallery.php — примеры анимаций от разработчиков ipistudio
А зачем два кинекта? Не уж то чтобы исключить дрожание, присущее кинекту?
Сложные движения лучше записывать с 2мя сенсорами, это повысит качество распознавания. Кинекту не присуще дрожание — сенсор только передает карту глубины и RGB данные. Сравнение распознавания с одним и 2мя Kinect здесь
Какие-то части тела могут быть видны только с одного угла обзора, какие-то с другого, поэтому распознавание работает качественнее
Такой вопрос: а как тречили пальцы и голову? Во время своих экспериментов с ipi и кинектом (правда одним), пальцы конечного персонажа превращались в результат работы пыточного агрегата, а голову приходилось вертеть руками.
Начиная с 2ой версии ipistudio делает трекинг кистей рук, а трекинга головы пока нет, насколько знаю к концу года разработчики планировали доделать трекинг головы и пальцев.
На самом деле я убрала анимацию с пальцев, поэтому все хорошо
Sign up to leave a comment.
Экспорт MoCap данных в Unity3d