Как стать автором
Обновить

Комментарии 52

Вначале подумал, что уже первое апреля наступило...

  • У тебя какая камера в телефоне?
  • 1 пиксель:)
— а у меня 2!
Круто — стереокамера!
Я так понимаю, что от далёких объектов приходит меньше света, т.к. светой конус расходится. Это можно учесть в вычислениях. Но как быть с небом — оттуда отражённый поток не придёт вовсе. И то же время камера никак не учитывает собственное свечение объектов. Отсюда я заключаю, что небо на снимке будет абсолютно чёрным. Однако на фото танцующего дома небо — вполне себе небо, да ещё с облаками.

Чёт я не догоняю явно.

И вообще это скорее не камера, т.к. не передаёт объеты, как их видим мы: с тенями и прочими источниками света, а скорее тахеометр, сканирующий трёхмерную сцену.
Тут более понятно описано этот эффект, хотя сама система сложнее. А вообще мне это все чем то напомнило механическое телевидение
Спасибо. Много противоречий статьи в популярной механики и этой на гигтаймсе, которая больше похожа на «учёный изнасиловал журналиста».
Цель такой камеры не избавиться от объектива, а уменьшить количество сенсоров света, которые в некоторых случаях намного дороже чем массив из движущихся микролинз.
Например, для традиционной фотографии в видимом диапазоне, гораздо дешевле оставить классическую матрицу. А вот для таких девайсов, как тепловизоры, возможно будет дешевле использовать всего один чувствительный элемент, а остальное делать уже по этой технологии.
Именно о тепловизоре я и подумал в первую очередь, когда понял принцип работы этого устройства :)

И разнообразная "умная" техника будущего (домашняя, к примеру), которой необходимо электронное "зрение", но обвешать ее обычными объективами — не вариант.


Хотя вроде и малюсенькими объективами, которые в телефоны пихают, можно обойтись...

В статье идет речь про фотокамеру, которой обязательно наличие активной подсветки. В случае тепловизора внешняя подсветка бесполезна — важно зарегистрировать именно излучаемое объектами излучение.
А вот тепловизоры с механическим сканированием и одним датчиком появились очень давно — матриц микроболометров тогда просто не было.
Однако на фото танцующего дома небо — вполне себе небо, да ещё с облаками.
Вы так говорите, будто авторы работы хотя бы одно реальное фото вне лаборатории своей камерой сделали. Смотрите фото стенда в статье, все «фото» сделаны на нём, а сами изображения изначально плоские и достаточно известные.
На доме вполне тени видно.
Так не дом же фоткали, а фотографию дома…
С другой стороны, если поставить маску не перед вспышкой, а перед фотодиодом — получится обычная камера, способная видеть и небо и тени.

Может то не небо, а его изображение. Мы же не знаем, что фотографировалось на самом деле: может они фото снимали или картину...

Вообще-то знаем.

Так ведь нет, это не то. Там система зеркал, являясь маской пассивно воспринимает падающий свет, а здесь речь идёт о вспышке, на которую накладывается маска, а потом принимаем назад отражённый световой фронт, который уже размазан во времени, за счёт разного расстояния до объектов сцены… Я так по крайней мере понял.

И ещё вспомнилась такая шпионская технология времён электронно-лучевых мониторов. Если в тёмной комнате работает монитор, то наблюдая с большим временным разрешением отсветы в комнате, даже издали, и даже с закрытыми шторами, можно получить развёртку луча и, тем самым, восстановить изображение на экране. Тут принцип, можно сказать, тот же, только пикосекундные времена.

Всё же технология найдет своего потребителя как в фототехнике так и мониторах этак в году 2037м от Р.Х.

Считается, что чем больше элементов в матрице, тем лучше фотография: 20 миллионов элементов лучше, чем 13 миллионов. Это один из основных показателей качества фотографии...

И снова) Не качества, а разрешения.
Нет, ну конечно, если на 13МП горизонт завален и резкости нет, то 20МП не спасут ситуацию. Но при прочих равных качество всё таки растёт. Нелинейно, но растёт.

Не обязательно. Больше пикселей на том же размере матрицы — большая часть матрицы занята промежутками между пикселями, меньше общая площадь пикселей, больше шум.

Если плюнуть на цену, как это делают астрономы (спецархитектура, охлаждение жидким гелием), то пока хватает фотонов, качество будет расти. Правда, с определенного эквивалентного размера пиксела асимптотически
Ну, у астрономов особый случай: они и физический размер матрицы могут увеличивать с чистой совестью, и вообще от классических матриц уходить. Рассказывали мне про чудо-девайс, ловящий одиночные фотоны. По сути, матрица — один «пиксель», при попадании фотона получаем разные напряжения на 4 электродах и по ним считаем координаты попадания — совсем как на сенсорном экране.
Вот это я понимаю — однопиксельная матрица, а какое у неё ISO — даже подумать боюсь.
Вот сейчас вообще не понял. Каким образом при увеличении количества пикселей будут увеличиваться промежутки между ними?
Нарисуйте ручкой квадрат 1x1 см.
Разделите его на квадратики 2x2 мм. Какую часть квадрата заняли линии?
А теперь попробуйте разделить на квадратики поменьше — скажем, 0.5x0.5 мм. Много места осталось в квадратиках? Вот.

Т.е. увеличение мегапухелей без увеличения физического размера матрицы — технически сложная задача, надо менять техпроцесс (уменьшать промежутки), если просто гнаться за количеством — увеличится шум.

"Принцип работы камеры показан из иллюстрации."
Нет, не показан.
Информации не больше, чем на иллюстрации "как нарисовать сову".
Потому закономерный вопрос, на который статья не отвечает: как оно работает?

Фото_Билла_Гейтца_хитро_закручивающего_руки.jpg
совсем не уверен, что даже при большем увеличении скорости сканирования это хорошее решение. микролинзы или зеркала есть. Получается от подвижных механизмов мы не избавились, а объектив просто вынесли дальше самого аппарата. Вопрос где и зачем это применять? Скорее всего опять создадут массив однопиксельных сенсоров для нужд практических.
На картинках не пример съемки, а сравнение качества в зависимости от параметров. Светотеневого рисунка при такой съемке быть не может
Как-то на заре телевидения использовалать подобрая техника съёмки бегущим лучём. Суть была в том что вместо камеры был один светочувствительный элемент, объект съёмки сидел в полной темноте, и по нему бегал тонкий луч света (развёртка). Соответсвенно фотоэлемент и замерял отражённый от объекта свет.
«Камера пишет панораму».
Съёмка поверхностей Луны и Венеры производилась именно такими камерами.
Я правильно понял (из статей по ссылкам), что камера смотрит в задний фокус линзы и снимает по факту преобразование Фурье изображения?

В принципе да, это far-field imaging. Но это не главная их фишка.


Главная фишка — в том, что они одновременно освещают разные участки объекта. Если они находятся на разном расстоянии от диода, то свет с одного края объекта будет приходить быстрее, чем с другого. То есть за один прием можно считать не один пиксель, а несколько.


image


Отсюда и минусы: быстрые лавинные диоды — это дорого. А еще они боятся яркого света. И с, кхм, динамическим диапазоном у них не все хорошо. Ну и быстрый импульсный источник здесь тоже не помешал бы.


P. S. Вот страничка разработчиков, там еще и видео есть.

Спасибо большое. Из одной этой гифки я понял больше, чем по статье. Ещё такой вопрос: если у нас есть сверхбыстрая камера и модулирующее зеркало или иной девайс для structured illumination, получается, можно пересчитать все источники света в фокальном плане?

Насколько я понимаю, да. Но тут появляются проблемы с разрешением: у лучших SPADов оно около 50 пс, это полтора миллиметра по воздуху. То есть освещать участки слишком близко друг к другу не стоит.

Digital Micromirror Device (DMD) это не не просто цифровое микрозеркало, а большой двухмерный массив микро-зеркал.
Поступающий от объекта свет сфокусированный линзой проходит модуляцию на DMD, т.е. только какие то рандомные пиксели выбираются а потом другой линзой сводятся в одну точку, в которой стоит оптический сенсор (тот самый однопиксельный).
Это все равно что если мы взяли какие-то рандомные пиксели картинки, сложили их вместе и получили одно значение.
Но таких измерений делается не одно, а много, впрочем гораздо меньше чем пикселей в самой картинке.
Предполагая что у нас какая-то натуральная сцена перед нами, а не набор рандомных паттернов — мы можем наложить условия на sparsity (разряженость или как бы сказать малое количество не-нулей) в какой-то трансформации для этой сцены.
И используя математическую магию аналогичной знаменитой бритве Оккамы, можно (попытаться) найти это разряженное представление, а следовательно и восстановить сигнал (изображение в нашем случае).
И называется это не вычислительная фотография (тут Ализар видимо перевел термин Computational Imaging) а Compressive Sensing (тут я не знаю как перевести на русский — наверно что то Компрессирующее Измерение, но лучше вообще не переводить )

По сравнению с обычными фото-камерами данный подход далеко не самый удачный, но стоит нам захотеть рассматривать не видимый свет, а какой-нибудь другой эффект, инфра-красное излучение, ультрафиолет, электронные эффекты, или еще что-то, где современные кремниевые технологии не добились такого успеха как в видимом свете, то преимущества Compressive Sensing перед этой самой механической разверткой становятся очевидны.

Опять же, сейчас делают multi-spectral camera которые снимают сразу во многих диапазонах. Правда делают они это не одним пикселем а чем-то вроде Бйер-Паттерном но для многих цветов. В этом случае тоже применяется Compressive Sensing чтобы восстановить все цветовые каналы во всех пикселях в хорошем разрешении, которое было бы невозможно в случае применения обычной интерполяции.

Прелесть этого подхода,

Как выше Gryphon88 заметил, было бы интересно модулировать не изображение, а его Фурье-образ — там много приятных моментов появляется. Во-первых, качество картинки будет плавно расти с количеством итераций. Потом есть новая степень свободы — фаза преобразования, это простор для оптимизации. Наконец, можно "открывать" сразу много пикселей, чтоб сигнал был больше (без Фурье это сразу бы снизило пространственное разрешение).

на эту тему есть статья «Asymmetric-detection time-stretch optical microscopy (ATOM) for ultrafast high-contrast cellular imaging in flow», я её до конца не понял, но Вы, надеюсь, превозможете

Да я скорее фазовые маски имел в виду. Статья по ссылке — это просто праздник оптики какой-то. Про то, как они юстируют два объектива, да еще чтобы свет в обе стороны проходил, даже задумываться не хочется ;).


(А вот почему k-space filtering увеличивает фазовый контраст, до меня так и не дошло.)

Методически это все просто, только дорого и долго. Если выкинуть ту часть, что про разные длины волн, то по сложности и цене примерно сравняется с классической схемой флуоресцентной микроскопии. У этой толпы китайцев была более ранняя статья, где они рассказывают принцип работы более подробно, в этой статье они рассказывают, как улучшили метод, чтобы делать десятки тысяч полных кадров в секунду. Моих знаний физики с математикой хватило только на то, чтобы понять, почему оно вообще работает, а вот качество картинки и возможные факапы прикинуть не смог. Надо бы перечитать, есть в этом методе некое благородное безумие :)

Там один чирп при прохождении через объективы — это уже прекрасно. Еще напрягает дифрешетка — ее поверхность наверняка не лежит в фокальной плоскости, поэтому возможны артефакты формы пучка и, как результат, сюрпризы при заведении в волокно.

На сколько я понимаю, за счет однопиксельной камеры дополнительно можно снизить влияние семплинга на камеру: при дискретизации из-за квадратного пикселя и ненулевой его площади теряется линейность оптической системы, и теряется часть высоких частот

В лоб вряд ли — у SPADов размер площадки в районе сотен микрон против единиц у CMOS/CCD. Но если аккуратно модулировать освещение объекта, то почему бы и нет? SEM так и работает — у него разрешение определяется размером электронного пучка.

если продолжать такие рассуждения про освещение, можно ненароком преизобрести STORM :) Что мешает освещать лавинный фотодиод через оптоволокно сечением в те же 6 микрон?

Каюсь, замечтался =).

ну если предположить что весь объект освещается одним источником, то взяв за базу какую либо точку
можно и без подсветки определить разность в расстоянии между базой и остальными точками.
Но пока такой точности достичь сложно.
Вот для космических аппаратов вполне может сгодиться. Подлетаешь к марсу и одним датчиком без линз его поверхность мониторишь. Там с линзами при посадке проблемы были
Интересно, но для весьма специфичных областей. Там пара подводных скал есть:
— динамичные процессы — проблема. Все вон стараются от построчного считывания к покадровому убежать, а тут даже не построчное, а попиксельное считывание;
— слабоосвещённые процессы — проблема. Фотоприемник видит каждый кусок сцены долю секунды, чем больше разрешение — тем ниже экспозиция.
Рад наблюдать, что есть активные разработки в сфере фото технологий отличные от классических и привычных:) Надеюсь, лет через 10, в потребительских камерах объектив как таковой утратит свою надобность в повседневной жизни:)
Как из буквы «R» получилась макака?
Скоро спецслужбам что бы нас фотографировать достаточно будет датчика освещения. Или уже достаточно!?
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации

Истории