Comments 52
Вначале подумал, что уже первое апреля наступило...
- У тебя какая камера в телефоне?
- 1 пиксель:)
Чёт я не догоняю явно.
И вообще это скорее не камера, т.к. не передаёт объеты, как их видим мы: с тенями и прочими источниками света, а скорее тахеометр, сканирующий трёхмерную сцену.
Цель такой камеры не избавиться от объектива, а уменьшить количество сенсоров света, которые в некоторых случаях намного дороже чем массив из движущихся микролинз.
Например, для традиционной фотографии в видимом диапазоне, гораздо дешевле оставить классическую матрицу. А вот для таких девайсов, как тепловизоры, возможно будет дешевле использовать всего один чувствительный элемент, а остальное делать уже по этой технологии.
А вот тепловизоры с механическим сканированием и одним датчиком появились очень давно — матриц микроболометров тогда просто не было.
Однако на фото танцующего дома небо — вполне себе небо, да ещё с облаками.Вы так говорите, будто авторы работы хотя бы одно реальное фото вне лаборатории своей камерой сделали. Смотрите фото стенда в статье, все «фото» сделаны на нём, а сами изображения изначально плоские и достаточно известные.
Обратите внимание на комментарий перед вашим
С другой стороны, если поставить маску не перед вспышкой, а перед фотодиодом — получится обычная камера, способная видеть и небо и тени.
Может то не небо, а его изображение. Мы же не знаем, что фотографировалось на самом деле: может они фото снимали или картину...
И ещё вспомнилась такая шпионская технология времён электронно-лучевых мониторов. Если в тёмной комнате работает монитор, то наблюдая с большим временным разрешением отсветы в комнате, даже издали, и даже с закрытыми шторами, можно получить развёртку луча и, тем самым, восстановить изображение на экране. Тут принцип, можно сказать, тот же, только пикосекундные времена.
Всё же технология найдет своего потребителя как в фототехнике так и мониторах этак в году 2037м от Р.Х.
Считается, что чем больше элементов в матрице, тем лучше фотография: 20 миллионов элементов лучше, чем 13 миллионов. Это один из основных показателей качества фотографии...
И снова) Не качества, а разрешения.
Не обязательно. Больше пикселей на том же размере матрицы — большая часть матрицы занята промежутками между пикселями, меньше общая площадь пикселей, больше шум.
Вот это я понимаю — однопиксельная матрица, а какое у неё ISO — даже подумать боюсь.
Разделите его на квадратики 2x2 мм. Какую часть квадрата заняли линии?
А теперь попробуйте разделить на квадратики поменьше — скажем, 0.5x0.5 мм. Много места осталось в квадратиках? Вот.
Т.е. увеличение мегапухелей без увеличения физического размера матрицы — технически сложная задача, надо менять техпроцесс (уменьшать промежутки), если просто гнаться за количеством — увеличится шум.
"Принцип работы камеры показан из иллюстрации."
Нет, не показан.
Информации не больше, чем на иллюстрации "как нарисовать сову".
Потому закономерный вопрос, на который статья не отвечает: как оно работает?
В принципе да, это far-field imaging. Но это не главная их фишка.
Главная фишка — в том, что они одновременно освещают разные участки объекта. Если они находятся на разном расстоянии от диода, то свет с одного края объекта будет приходить быстрее, чем с другого. То есть за один прием можно считать не один пиксель, а несколько.
Отсюда и минусы: быстрые лавинные диоды — это дорого. А еще они боятся яркого света. И с, кхм, динамическим диапазоном у них не все хорошо. Ну и быстрый импульсный источник здесь тоже не помешал бы.
P. S. Вот страничка разработчиков, там еще и видео есть.
Поступающий от объекта свет сфокусированный линзой проходит модуляцию на DMD, т.е. только какие то рандомные пиксели выбираются а потом другой линзой сводятся в одну точку, в которой стоит оптический сенсор (тот самый однопиксельный).
Это все равно что если мы взяли какие-то рандомные пиксели картинки, сложили их вместе и получили одно значение.
Но таких измерений делается не одно, а много, впрочем гораздо меньше чем пикселей в самой картинке.
Предполагая что у нас какая-то натуральная сцена перед нами, а не набор рандомных паттернов — мы можем наложить условия на sparsity (разряженость или как бы сказать малое количество не-нулей) в какой-то трансформации для этой сцены.
И используя математическую магию аналогичной знаменитой бритве Оккамы, можно (попытаться) найти это разряженное представление, а следовательно и восстановить сигнал (изображение в нашем случае).
И называется это не вычислительная фотография (тут Ализар видимо перевел термин Computational Imaging) а Compressive Sensing (тут я не знаю как перевести на русский — наверно что то Компрессирующее Измерение, но лучше вообще не переводить )
По сравнению с обычными фото-камерами данный подход далеко не самый удачный, но стоит нам захотеть рассматривать не видимый свет, а какой-нибудь другой эффект, инфра-красное излучение, ультрафиолет, электронные эффекты, или еще что-то, где современные кремниевые технологии не добились такого успеха как в видимом свете, то преимущества Compressive Sensing перед этой самой механической разверткой становятся очевидны.
Опять же, сейчас делают multi-spectral camera которые снимают сразу во многих диапазонах. Правда делают они это не одним пикселем а чем-то вроде Бйер-Паттерном но для многих цветов. В этом случае тоже применяется Compressive Sensing чтобы восстановить все цветовые каналы во всех пикселях в хорошем разрешении, которое было бы невозможно в случае применения обычной интерполяции.
Прелесть этого подхода,
Как выше Gryphon88 заметил, было бы интересно модулировать не изображение, а его Фурье-образ — там много приятных моментов появляется. Во-первых, качество картинки будет плавно расти с количеством итераций. Потом есть новая степень свободы — фаза преобразования, это простор для оптимизации. Наконец, можно "открывать" сразу много пикселей, чтоб сигнал был больше (без Фурье это сразу бы снизило пространственное разрешение).
Да я скорее фазовые маски имел в виду. Статья по ссылке — это просто праздник оптики какой-то. Про то, как они юстируют два объектива, да еще чтобы свет в обе стороны проходил, даже задумываться не хочется ;).
(А вот почему k-space filtering увеличивает фазовый контраст, до меня так и не дошло.)
можно и без подсветки определить разность в расстоянии между базой и остальными точками.
Но пока такой точности достичь сложно.
Вот для космических аппаратов вполне может сгодиться. Подлетаешь к марсу и одним датчиком без линз его поверхность мониторишь. Там с линзами при посадке проблемы были
— динамичные процессы — проблема. Все вон стараются от построчного считывания к покадровому убежать, а тут даже не построчное, а попиксельное считывание;
— слабоосвещённые процессы — проблема. Фотоприемник видит каждый кусок сцены долю секунды, чем больше разрешение — тем ниже экспозиция.
Однопиксельную камеру с активной подсветкой ускорили в 50 раз