Как стать автором
Обновить

Комментарии 12

Интересно. Правда, когда подсунул стопку белых стикеров — Solar System секунд через 5 намертво повесила планшет (Nexus 7, Android 5.1.1)
Я, к сожалению, не могу проверить работу приложения на железе, которого не имею. Но вы можете попробовать скомпилировать проект под свою платформу самостоятельно. Я не использовал каких-то внешних библиотек, так что проблем с настройкой проекта не будет. Если вдруг возникнут какие-то вопросы, готов на них ответить.
Классно, но модели не показываются на Galaxy Note 2 и видимо приложение не может получит доступ к камере на Win8.
Нет, ничего похожего я не видел, да и до некоторых вещей мне пришлось доходить изучая исходный код.
Мощно. Вот скажи кому 30 лет назад, что будет дополненная реальность, что это можно визуализировать в реальном времени да на портативном устройстве…
Они бы сказали, что может быть, где-то в далёкой-далёкой галактике:
image
Кстати, я правильно понимаю, что при помощи трехмерной реконструкции фактически происходит 3d-сканирование?
Если да, то можно по этой теме поподробнее?
Достаточно 1 камерой с нескольких ракурсов сфотографировать объект или же нужно именно потоковое видео?
И что получается на выходе? Набор 3д-точек или же наборы полигонов?
Трёхмерная реконструкция происходит следующим образом:
  • Запоминаются кадры нашего потокового видео.
  • Затем эта последовательность кадров разбиваются на короткие наборы (штук по 5).
  • Из каждого набора потом создается карта глубины. При этом получается много ошибок, поэтому приходится жестко фильтровать и размывать в процессе.
  • Далее строится полигональная сетка изоповерхности (алгоритм marching cubes) из скалярного поля, созданного с помощью карт глубины.
  • Изоповерхность разбивается на подмодели, на которые уже накладываются текстурные координаты.

На выходе получаем трёхмерную модель, которую можно сохранять.
Имхо, это тянет на отдельную статью.
Отдельно хочу отметить отсутствие подобных open-source программ. Так что есть шанс вписать своё имя в историю.
На HTC one (m7) — рисует меню, но не доступается к камере, ИМХО.

а вообще, интересует сильно про "Карту глубин"… Мы играемся с Intel RealSense — она дает карту, строит поверхности (https://www.youtube.com/watch?v=5tkCYdYqwD4)…

У меня вопрос (нужна хотя бы идея, откуда стартовать) — стоит, например, стол в комнате, я на него смотрю из двух разных девайсов, они на растоянии примерно 1.5 метра друг от друга, они оба видят тот же самый стол, и понимают: "какая-то объемная поверхность, приблизительно тако-го то размера, узкой стороной направленная на 15* к северу....".

Вопрос: как они могут понять, что "сейчас мы оба смотрим на ОДИН и ТОТ ЖЕ стол?"
(пока мы эту задачу решаем с помщью черно-елых меток и ловим привзяку), но хотелось бы по-честному...
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации

Истории