Я, к сожалению, не могу проверить работу приложения на железе, которого не имею. Но вы можете попробовать скомпилировать проект под свою платформу самостоятельно. Я не использовал каких-то внешних библиотек, так что проблем с настройкой проекта не будет. Если вдруг возникнут какие-то вопросы, готов на них ответить.
Кстати, я правильно понимаю, что при помощи трехмерной реконструкции фактически происходит 3d-сканирование?
Если да, то можно по этой теме поподробнее?
Достаточно 1 камерой с нескольких ракурсов сфотографировать объект или же нужно именно потоковое видео?
И что получается на выходе? Набор 3д-точек или же наборы полигонов?
У меня вопрос (нужна хотя бы идея, откуда стартовать) — стоит, например, стол в комнате, я на него смотрю из двух разных девайсов, они на растоянии примерно 1.5 метра друг от друга, они оба видят тот же самый стол, и понимают: "какая-то объемная поверхность, приблизительно тако-го то размера, узкой стороной направленная на 15* к северу....".
Вопрос: как они могут понять, что "сейчас мы оба смотрим на ОДИН и ТОТ ЖЕ стол?"
(пока мы эту задачу решаем с помщью черно-елых меток и ловим привзяку), но хотелось бы по-честному...
Дополненная реальность на Qt