Это и есть простое структурное освещение, фаза — здесь это фаза той самой структурированной волны.
Между проектором и камерой естественно должен быть угол, для того чтобы увидеть искажение «псевдоинтерференционной картины».
По сути тут интерферометрия фазового сдвига применяется только в области математики и позволяет вычислять довольно точное значение в каждой точке изображения.
Например сканируя поверхность сферы мы получим такой вот профиль высот из за фазовой неоднозначности
и вот такой профиль через триангуляцию
Решая неоднозначность по грубому профилю триангуляции — получаем изображение с довольно высокой точностью
Но, как я уже говорил — это для идеального белого матового объекта.
На деле, если объект не белый — из за неидеальной матрицы камеры и из за неравномерности диаграмы рассеяния материала происходит искажение формы синусоиды которой структурируется световой поток.
И соответственно, восстановленная поверхность сферы превращается вот в такую штуку.
И на самом деле этот эффект отлично виден на модельке дракона на кикстартере.
Не знаю как они собираются обходить этот момент. Возможно усреднением точек взятых с разных ракурсов, но из моего опыта — это особо не поможет.
1. Объект освещают с помощью света с синусоидальным профилем интенсивности.
2. На каждое положение делается как минимум 3 фото с смещением фазы освещения.
3. Из трех фото можно в каждой точке восстановить «фазу» искаженной волны с точностью до половины длины волны, а значит и глубину объекта.
4. Имея несколько ракурсов с известными углами поворота, можно устранить фазовую неоднозначность(грубо говоря с помощью обычной триангуляции построить грубую модель) и восстановить истиное положение каждой точки.
Основня проблема этого метода — вся теоретическая база строится на том, что объект белый и матовый.
Для разноцветных объектов и объектов с высокой отражающей способностью есть вариант как то компенсировать цветовую составляющую и откидывать области бликов и переотражений.
Принципиального решения для полной автоматизации цветного глянцевого объекта — нет.
Ну и естественно с помощью этого метода никогда не получится сканирование прозрачных и полупрозрачных объектов.
Кстати, на англоязычных источниках фигурирует сумма «до 500$» то есть видимо 499$.
У нас видимо выльется в 19 900р. С такой стоимостью вся идея с такой «умной эволюцией» может пойти прахом.
Те, кому достаточно разрешения 500 точек на дюйм (20 точек на миллиметр), просто не понимают куда все идет.
Реально необходимое разрешение это 5 000 точек миллиметр — и тогда начнется эра голографических дисплеев.
Именно так надо двигаться чтобы система успела распознать лицо.
«Открыть 'ваши настройки'» — звучит глупо.
Когда действую я — «мои настройки»
Когда действует приложение — «ваши настройки»
Соотношение площади экрана к площади лицевой поверхности тоже очень важно
Дифракция в этом методе ни на что не влияет.
Между проектором и камерой естественно должен быть угол, для того чтобы увидеть искажение «псевдоинтерференционной картины».
По сути тут интерферометрия фазового сдвига применяется только в области математики и позволяет вычислять довольно точное значение в каждой точке изображения.
Например сканируя поверхность сферы мы получим такой вот профиль высот из за фазовой неоднозначности
и вот такой профиль через триангуляцию
Решая неоднозначность по грубому профилю триангуляции — получаем изображение с довольно высокой точностью
Но, как я уже говорил — это для идеального белого матового объекта.
На деле, если объект не белый — из за неидеальной матрицы камеры и из за неравномерности диаграмы рассеяния материала происходит искажение формы синусоиды которой структурируется световой поток.
И соответственно, восстановленная поверхность сферы превращается вот в такую штуку.
И на самом деле этот эффект отлично виден на модельке дракона на кикстартере.
Не знаю как они собираются обходить этот момент. Возможно усреднением точек взятых с разных ракурсов, но из моего опыта — это особо не поможет.
1. Объект освещают с помощью света с синусоидальным профилем интенсивности.
2. На каждое положение делается как минимум 3 фото с смещением фазы освещения.
3. Из трех фото можно в каждой точке восстановить «фазу» искаженной волны с точностью до половины длины волны, а значит и глубину объекта.
4. Имея несколько ракурсов с известными углами поворота, можно устранить фазовую неоднозначность(грубо говоря с помощью обычной триангуляции построить грубую модель) и восстановить истиное положение каждой точки.
Основня проблема этого метода — вся теоретическая база строится на том, что объект белый и матовый.
Для разноцветных объектов и объектов с высокой отражающей способностью есть вариант как то компенсировать цветовую составляющую и откидывать области бликов и переотражений.
Принципиального решения для полной автоматизации цветного глянцевого объекта — нет.
Ну и естественно с помощью этого метода никогда не получится сканирование прозрачных и полупрозрачных объектов.
У нас видимо выльется в 19 900р. С такой стоимостью вся идея с такой «умной эволюцией» может пойти прахом.
Если нет — будет очень жаль.
Я со своим LG c удовольствием бы пощупал технологии Samsung, и может быть в следующий раз взял бы именно Samsung не смотря на стоимость.
Реально необходимое разрешение это 5 000 точек миллиметр — и тогда начнется эра голографических дисплеев.