Как стать автором
Обновить

Комментарии 55

Вообще то диафрагма — устройство для регулирования апертуры.

мне всё-таки кажется, что лучше было бы использовать универсальный термин светосила, по тому, что на geektimes популярна астрономия и космос, а в телескопах апертура=диаметр объектива
Если придираться к терминологии, в фотографии есть вполне конкретный термин: диафрагменное число. Как уже заметили выше — апертура это диаметр «зрачка», диафрагма — механизм, который изменяет апертуру. Диафрагменное число — это отношение фокусного расстояния объектива к площади «зрачка» — те самые цифры 1.8, 3.5 и т.д

Когда я занимался фотографией (когда апертурой объектива можно было управлять), слово "диафрагма" означало не только устройство для регулирования апертуры, но и значение апертуры. А слово "апертура" иногда (крайне редко) в литературе означало устройство для ее изменения. И значительно чаще в обоих смыслах употребляллсь слово "диафрагма".

НЛО прилетело и опубликовало эту надпись здесь

В смысле раньше на каждой камере, даже для самых начинающих, можно было выставить диафрагму, а теперь засилье объективов с фиксированной аппертурой.
Разве только профессиональные и полупрофессиональные камеры могут теперь предложить эту настройку.

Не вижу в этом ничего плохого. У меня раньше был недорогой телефон (Nokia C6-01) — так там ещё и фокусное расстояние было фиксированное. Я не мог снимать вблизи (например, фотографировать документы), но качество обычных снимков, по сравнению со другими смартфонами даже более высокой ценовой категории, было изумительное.

В смысле, фиксированная фокусировка типа «от n до бесконечности»? Фокусное расстояние-то у почти всех смартфонных камер фиксировано, оптический зум у смартфонов — редкость...

Оно не плохо и не хорошо. Просто мир меняется.

Разве только профессиональные и полупрофессиональные камеры могут теперь предложить эту настройку.
А что вы подразумеваете под полупрофессиональными? Даже на объективах Samsung NX/NX-mini такая возможность присутствует (по крайней мере на некоторых).
Если совсем коротко, то дискретизация изображения соответствует свертке с sinc(x) в лучшем случае и sinc(x)^2 в худшем, чтобы минимизировать влиянение дискретизации, размер пикселя должен быть в 5-10 раз меньше минимального в соответствии с теоремой Котельникова.
Это только при условии, что пиксель — бесконечно малая точка. На практике же пиксель — это что-то типа прямоугольника со скруглёнными углами (PSF довольно неплохо моделируется Гауссом с сигмой 0.3-0.4 от размера пикселя). Плюс имеются искажения оптики: дефокус, аберрации.
если пиксаль бесконечно мал, то тогда честный sinc, квадрат для прямоуголных пикселей без зазоров между ними и одномерного случая, если учитывать еще поворот, то становится ещё грустнее, у меня получилось примерно в sqrt(2) раз хуже от одномерного случая. Про искажения оптики пока забуду, оптика же линейная система, её можно отдельно считать, лучше вообще в аналоге, на решётках.
Дискретизация изображения соответствует
1) свертке с некоторой разновидностью PSF
2) взятию значений того что получилось в отдельных точках

sinc к дискретизации не имеет никакого отношения. Вот для восстановления частотно-ограниченного изображения до дискретизации надо сетку точек сворачивать с sinc, да.
Стараются получиться общую электронно-оптическую PSF, сразу для оптики и камеры, в принципе, получается, хотя я не понимаю, как можно корректно использовать формализм PSF для нелинейных систем
Modulation Transfer Function in Optical and Electro-Optical Systems
One-dimensional sensor modulation transfer function, revisited
Ну и тогда можно вспомнить, что при сильном облучении ячейка ПЗС влияет на соседние.
PSF в обычных фотоаппаратах определяется во многом специальным antialiasing фильтром задача которого как раз и сводится к тому чобы PSF была достаточно низкочастотной. Физические пиксели вполне себе квадратные.
Да, физические пискели квадратные, но фоточувствительный сенсор занимает не всю площадь пикселя. Например, вот тут это вполне популярно описано:

www.dummies.com/photography/digital-photography/resolution/the-components-of-a-digital-cameras-image-sensor

Небольшая диффузия от плёночки, круглая линза — и вот, внезапно, PSF уже соответствует не квадратному пикселю, а круглому.

У меня сейчас идёт контракт по разработке алгоритма многокадрового супер-разрешения для смартфонов, где дополнительная информация извлекается из алиасинга — прошедшей мимо фильтра высокочастотной информации и завернутой при дискретизации в низкочастотную область. При этом я замерял PSF камеры — она действительно очень хорошо приближается функцией Гаусса, а не квадратом.
Пленочка это и есть AA фильтр, он же optical low-pass filter, OLPF. Его задача как раз в том чтобы алиасинг подавить настолько насколько это вообще возможно, поэтому в Вашем проекте должна по идее использоваться специальная камера без этого фильтра, иначе работать все будет очень хреново. Но у большинства камер этот элемент есть и его одного достаточно чтобы превратить квадратный пиксель в полукруглый. Что до линзочек то они там не особо-то и круглые да и размером побольше реальной светочувствительной области, они же не изображение формируют а просто свет собирают. )
Его задача как раз в том чтобы алиасинг подавить настолько насколько это вообще возможно.

Фильтр, который на 100% подавляет алиасинг — это cut-off фильтр, и результатом такого фильтра будет сильный ringing, что неприемлемо на практике. Поэтому любой подобный фильтр будет пропускать часть высоких частот, и это нормально.


Поэтому в Вашем проекте должна по идее использоваться специальная камера без этого фильтра, иначе работать все будет очень хреново

Даже небольшого количества прошедших высоких частот достаточно для их восстановления. Реально восстанавливаемый частотный диапазон в моём случае составляет x1.15-x1.2 относительно частоты сэмплирования для камеры без CFA.


Что до линзочек то они там не особо-то и круглые да и размером побольше реальной светочувствительной области, они же не изображение формируют а просто свет собирают.

Мне достаточно знания PSF от плёнки и линз, как они реально выглядят, для меня особого значения не имеет.

Там 100% и не нужно, подавить на 20-30 дБ и все, сигнал от алиасинга уйдет под шум. Конечно он там останется и обработав сотню-другую картинок его даже можно вытащить на свет божий, но зачем доблестно решать непростую проблему когда можно ее просто не создавать? А проблему ringing-а достаточно банально решают просто взяв частоту отсечения значительно ниже частоты Найквиста. И именно за это, собственно, OLPF и не любят. Алиасинг-то никому кроме superresolution не нужен, но OLPF давит и не-алиасящиеся частоты.
> А проблему ringing-а достаточно банально решают просто взяв частоту отсечения значительно ниже частоты Найквиста

Ага, и получить мыло вместо деталей на изображении. Уж лучше с небольшим алиасингом, но с деталями на изображении.
Да ну, бросьте. Добрая половина спектра — это детали размером менее 2 пикселей. В реальных фотографиях подобное «мыло» практически незаметно, тем более что и оптика, как правило, такие частоты сама по себе плохо разрешает. Но да, там где пытаются достичь максимума возможного — OLPF снимают, есть как специальные версии камер так и кустарные переделки. Потому и удивлен что у Вас предпочитают работать с уже «испорченной» картинкой
Добрая половина спектра — это детали размером менее 2 пикселей. В реальных фотографиях подобное «мыло» практически незаметно, тем более что и оптика, как правило, такие частоты сама по себе плохо разрешает.

Детали размером в 1 пиксель действительно сохранить трудно из-за CFA. Лучше немного подразмыть, чем внести неприятные искажения при дебайере.


И ещё насчёт деталей и оптики. Вот смотрите фото со смартфона: изображение. Детали в 2 пикселя вполне себе неплохо передаются.


Но да, там где пытаются достичь максимума возможного — OLPF снимают, есть как специальные версии камер так и кустарные переделки. Потому и удивлен что у Вас предпочитают работать с уже «испорченной» картинкой.

OLPF оставляют, потому что камера должна уметь снимать и обычные снимки. Просто OLPF в используемой камере не так сильно режет частоты, допуская небольшое количество алиасинга.


И основной лимитирующий фактор на практике — это шум, а не частота сэмплирования. Потому что motion blur, defocus — и высокие частоты для SR брать просто неоткуда. Тем не менее, супер-разрешение, за счёт улучшения SNR, позволяет увидеть высокочастотные детали до частоты сэмплирования, которые находились ниже уровня шума.


Ну а то, что в некоторых случаях можно заглянуть и дальше частоты сэмплирования благодаря алиасингу — это просто приятный бонус.

А вот, например, Xiaomi Mi A1, у него 2 матрицы 1/2.9", одна – f/2.2 26мм, другая — f/2.6 50мм, качество снимков будет больше от софта зависеть?
Качество снимков очень зависит от софта. У ксяоми традиционно ужасно с софтом камер и от матрицы тут мало что зависит.
То есть, поставив другое приложение камеры будут получаться совсем другие результаты, я правильно понимаю? Или происходит некая обработка данных от камеры системой перед передачей результата в приложение?
Второе.
Там прямо рядом с АЦПшками стоит специальный процессор изображений. (Хотя у крутых фотиков АЦП иногда выносят на один кристалл с матрицей, чтобы максимально сократить длину аналоговых цепей).
Даже то, что называется RAW — это уже результат серьёзного пост-процессинга реальной картинки этим процессором, просто без сжатия, дебайеризации и с глубиной цвета 12-16 бит.
Можете посмотреть спеки и тесты «профессиональных» камер, там одна и та же матрица ставится во всё новые и новые модели в течение лет пяти. А вот процессор изображений постоянно улучшается. За счёт этого с одной и той же матрицы удаётся вытащить заметно более качественную картинку. Меньше шумов, лучше детализация, лучше динамический диапазон и т.д.
Понятно, что ни с какими залётными китайцами никто не поделится алгоритмами и схемами (там всё или полностью аппаратно, или на очень низком уровне).
Благодарю за информацию.
Погуглите 4pda на предмет активации camera2 API и установки камеры от google pixel. Слышал, кардинально меняет качество фото.
Нет.
В андроиде камера может лишь наложить дополнительные фильтры на уже полученный jpeg. Ну и немного по другому задать параметры, типа степени шумоподавления.
Вся обработка снимка, физическое управление модулем камеры идет в Camera HAL — набор из кучи библиотек (под 100 в некоторых девайсах) которые снимают данные с модуля, обрабатывают и сохраняют готовый файл. Они могут использовать (а могут и не использовать) возможности SOC по цифровой обработке изображений.
А как же камеры, которые снимают в raw?
сенсор микро 4:3 улавливает больше света благодаря увеличению площади поверхности CMOS-чипа
Странно, всегда думал, что улавливает как раз оптика. А большой сенсор -> больше пиксель -> меньше шум и больше дд (кстати, небо и блестящие поверхности у 4/3 также пересвечены, как у смартфона).
у камеры с микро 4:3 гораздо больше размытия
Больше размытия богу размытия. Строго говоря, это дефект, такой же, как и виньетирование, например.
Выскажу здесь два тезиса:

1. Указываемое значение апертуры является относительным. Так сложилось, что в фотоаппаратуре указываются не реальные значения апертуры и фокусного расстояния, а эффективные — визуально соответствующие съёмке с полнокадровой камеры, т.е. результат съёмки с указанными значениями апертуры будет близок к результату, полученному с полнокадровой камеры.

Поэтому значение значения апертуры без значения размера сенсора лишено смысла. Вы же правда понимаете, что F1.8 на смартфоне и F1.8 на полнокадровом фотоаппарате (дырка размером с большой палец) — это две большие разницы?

Чтобы перевести апертуру из эффективной в реальный размер дырки, нужно просто умножить её на размер текущего сенсора и поделить на 35мм (1.378").

То есть апертура F1.8 для 1/2.55" сенсора — это F6.3. Но и апертура F2.0 для 1/2.3" сенсора — это тоже F6.3. То есть увеличение апертуры — это всего лишь маркетинг.

2. Суммарное количество света, попадающее на матрицу, не зависит от размера матрицы и зависит только от количества света, прошедшего через линзу. При однаковом количестве пискелей, каждый пиксель получит одинаковое количество света, разница же только в размерах самого пикселя. Просто не умеют пока делать маленькие пиксели такими же эффективными, как большие.
Все в общем верно, но эффективная апертура — это все таки не «аналог соответствующий апертуры при съемке с полнокадровой камеры». Запись размера апертуры вида «f/2.0» это вообще говоря т.н. «f-number» ака «относительное отверстие» и оно равно отношению фокусного расстояния камеры к диаметру входного зрачка. Отсюда и запись «f/N» — «входной зрачок размером в N раз меньше фокусного расстояния». Это связано с тем что если увеличить фокусное расстояние в X раз то при равных прочих параметрах яркость картинки уменьшится в X^2 раз (мы «растягиваем» на картинку того же размера лучи света пришедшие из меньшего по размеру телесного угла). Ну а с входным зрачком, соответственно, все наоборот; соответственно одинаковый f-number = одинаковая яркость при той же экспозиции. При этом входной зрачок для телевика с f/4 вообще говоря может быть в разы больше чем для обычной линзы с f/2.8. Отдельный вопрос еще и в том что «входной зрачок» это не то же самое что «физический размер отверстия в диафрагме», но не будем уже вдаваться в эти детали :)

В контексте размера сенсора однако существенно то что f-number считается относительно реального а не эффективного фокусного расстояния. А это реальное расстояние пропорционально размеру сенсора. Меньше сенсор — меньше входной зрачок при том же f-number. Причем что интересно, яркость на сенсоре при одинаковом f-number все равно будет одинаковой (света собирается меньше, но и освещаемая площадь тоже меньше), отсюда и рассуждения про площадь сенсора (при фиксированном f-stop яркость та же, но чем больше сенсор тем больше света он «соберет»)

Именно так. Я лишь имел в виду, что для получения однакового изображения при уменьшении размеров сенсора, нужно пропорционально уменьшать фокусное расстояние и размер дырки.


В контексте размера сенсора однако существенно то что f-number считается относительно реального а не эффективного фокусного расстояния.

Да, но в ходу эффективное фокусное расстояние, а не реальное.


Причем что интересно, яркость на сенсоре при одинаковом f-number все равно будет одинаковой (света собирается меньше, но и освещаемая площадь тоже меньше), отсюда и рассуждения про площадь сенсора (при фиксированном f-stop яркость та же, но чем больше сенсор тем больше света он «соберет»)

Я это тоже считаю маркетингом. Лично мне куда важнее количество света, попадающее на сенсор в целом, чем на единицу площади. Если бы параметр ISO пересчитывали, исходя из размеров сенсора, мир был бы более прекрасен.


А то получается: ISO-50, f/1.8, 27 mm, а кадр шумный, потому что важный параметр (реальное фокусное расстояние 4 mm) далеко спрятан. Реальные же параметры по шуму (но не по глубине резкости) для полнокадрового аналога: f/12, ISO около 2000-2500.

для получения однакового изображения при уменьшении размеров сенсора, нужно пропорционально уменьшать фокусное расстояние и размер дырки

Ой, а там даже этого нет?! Про «фирменный дюйм» при измерении размера матрицы я слышал, но что они шевелят только одну линзу — это уже скотство.
«Диафрагма» говорит о кол-ве света на единицу площади, у разных сенсоров с одной диафрагмой на единицу площади попадет одинаковое кол-во света. Ваше утверждение по меньше мере странное.
То есть апертура F1.8 для 1/2.55" сенсора — это F6.3. Но и апертура F2.0 для 1/2.3" сенсора — это тоже F6.3. То есть увеличение апертуры — это всего лишь маркетинг.


Шумы же сенсора, зависит от технологии, материалов и размера. Так, что два сенсора 1/2,55 и 1/2,3 вообще бессмысленно сравнивать не имея прочих параметров. Плюс есть еще много всего, что влияет на итоговое качество картинки, начиная от качества линз( при одинаковой «диафрагме» ) и заканчивая софтом.

По факту сравнивать имеет смысл только итоговый результат. Поскольку даже шумное, но четкое изображение, будет лучше не шумного, но вне фокуса, так что все эти параметры от лукавого, хотя при прочих равных «большая диафрагма» лучше( если она конечно не достигнута снижение требований к качеству изображения, например снижение четкости по углам ).
«Диафрагма» говорит о кол-ве света на единицу площади, у разных сенсоров с одной диафрагмой на единицу площади попадет одинаковое кол-во света. Ваше утверждение по меньше мере странное.

Просто мне параметр "количество света на единицу площади сенсора" важен гораздо менее, чем "количество света на пиксель", потому что именно последний параметр отвечает за шумность сырой картинки.


Вот представьте: уменьшили размер сенсора, сохранив количество пикселей, и подвинули его поближе к линзам, при этом оставили старую оптику, немного подправив фокусное расстояние. По факту ничего не поменялось: количество света на пиксель осталось прежним, разве что немного снизилось качество снимков из-за усиления оптических искажений. Зато можно бить пяткой в грудь, что диафрагма стала больше (ведь это относительный параметр).


Шумы же сенсора, зависит от технологии, материалов и размера. Так, что два сенсора 1/2,55 и 1/2,3 вообще бессмысленно сравнивать не имея прочих параметров.

Абсолютно очевидно, что ухудшение одного из параметров должно приводить к ухудшению качества снимков при прочих равных. И глупо оправдывать это улучшением остальных характеристик, ведь ничто не мешало улушить характеристики, не ухудшая размер сенсора.


По факту сравнивать имеет смысл только итоговый результат. Поскольку даже шумное, но четкое изображение, будет лучше не шумного, но вне фокуса, так что все эти параметры от лукавого, хотя при прочих равных «большая диафрагма» лучше( если она конечно не достигнута снижение требований к качеству изображения, например снижение четкости по углам ).

Для этого и делают две камеры. Восстановление одного изображения по двум, снятым с разными условиями — вполне себе актуальная задача обработки изображений.

Не надо путать вычисление ГРИП и светосилу. F1.8 на 4:3, FF и на телефоне абсолютно одно и тоже. Картинка будет разная с разной
Но при одинаковой светосиле, фокусном расстоянии (его эффективно переводят на FF или 4:3) и одинаковой выдержке вы получите одинаковую картинку с одинаковой освещенностью, но с разным эффектом размытия.
Для фотографии параметр освещенности самый важный, а он задается комбинацией светосилы и выдержки.
F1.8 на 4:3, FF и телефоне одно и то же только в терминах яркости изображения на сенсоре и не совсем понятно с чего вдруг это стало самым важным параметром.
А в терминах размера входного зрачка и как следствие общего количества света собираемого F1.8 для разных сенсоров это совершенно разные вещи, о чем, собственно, совершенно справедливо и написано.
хвастать увеличением апертуры при уменьшении матрицы довольно лицемерно.

маркетинг на том и основан

Да не уменьшает никто матрицы! Последние годы наблюдается обратное, во всех флагманах кроме iPhone матрицы только растут в размерах, впрочем как и апертуры. Статья от Кэпа, но не в ту степь.

Сравнение размытия фона в статье совершенно не в тему. Там просто фокусные расстояния отличаются раз в пять, и, соответственно, дистанций практической бесконечности. А снимки явно с одного расстояния сделаны.
Вполне в тему. Снимки сделаны с одного расстояния и с одинаковым эффективным фокусным расстоянием а различия в размытии фона являются прямым следствием того что у камеры с большим сенсором больше диаметр входного зрачка
Да вы что, это всё равно, что от телевика и потретника размытие фона сравнивать. У них всё равно разная глубина резкости будет, если даже мы портретнику формально обрежем угол и обзовём эквивалентом телевика для меньшей диагонали. На масштаб вон посмотрите на снимках. На втором фон растянут раза в полтора — обрезано зеркало машины и край изгороди, между деревом и краем кадра умещается шесть с половиной окон на первом и четыре с половиной на втором.
Там ракурс съемки просто немного разный, фотографии чуть повернуты относительно друг друга, потому и зеркало на машине обрезалось. Я наложил фото, померял — у меня получилось что разница в масштабе дерева на заднем плане всего 15%. У телевика и портретника, к слову, разница в размытии тоже связана с диаметром входного зрачка (у телевика он намного больше)
Да нет же, там может только в макросъёмке такая зависимость есть, а на пейзаже у равнозрачковых объективов кружок размытия пропорционален фокусному расстоянию. Вот картинка для пояснения:
Расчёт боке в первом приближении
Боке

Вы забываете одну маленькую деталь: размер кружка размытия конечно пропорционален F, но размер изображения объекта — тоже. Относительный же размер кружка по сравнению с размером объекта будет одним и тем же. То есть если был к примеру кружок 1/10 объекта, то он так и будет 1/10 объекта. И если мы, в частности, возьмем широкоугольный объектив, сделаем кроп и растянем картинку до размера который был бы у телевика то кружок размытия после этого растягивания получится полностью идентичным по размерам кружку у телевика.
Хм, да, вы правы, я при сравнении неявно для себя представлял это на одном формате. Действительно, при растягивании кропа кружки боке будут пропорциональны диаметру зрачка.
Т.е. если какой-то любитель красивого боке не одобрит новую камеру, так и всё пропало. Не влияет ни стабилизатор, ни увеличение чувствительности (вплоть до ночной сьёмки), ни распознавание лиц для фокусировки, ни сама скорость фокусировки этой самой. Вот дайте ему красивое боке, и всё там.

Не вопрос, среднеформатная камера весом под десять кг, и ценой под десять тыс баксов.
Сравнение выполнено в корне не правильно, фокусные расстояния должны быть одинаковыми (относительно ГРИП, размытия фона или боке).
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации

Истории