Pull to refresh

Comments 15

#1 >>>метод под названием Image Fusion, который делает быструю серию фотографий, а затем объединяет их
#2 >>>Не так давно технология HDR+ по умолчанию вошла в качестве режима в смартфон Google Pixel.

Я был в восторге от режима HDR, и уже был готов оставить его включенным навсегда,
однако из-за #1 быстро движущиеся объекты двоились или имели повторяющиеся контуры,
явно свидетельствующие о склейке кадров.
Так что пользуюсь HDR хоть и часто но с оглядкой на данную особенность. (У меня не Pixel)

Исходя из #2 надеюсь у Пикселя нет таких проблем, и было бы интересно узнать как их побороли.
— очень быстрая съемка?
— программная коррекция быстрых объектов?
— ??
— HDR нельзя применять для движущихся объектов.
Побороть движение можно камерой с широким ДД, то есть не HDR. Ну или в photoshop можно совместить 2 фотографии вручную, отретушировать, а потом уже делать hdr.
>>>HDR нельзя применять для движущихся объектов.
Собственно меня и удивило что в Пикселе он включен по умолчанию.
Поэтому полагаю что они как-то решили эту проблему.
Не проверял, но думаю что камера в Pixel банально быстрее снимает \ имеет большую светосилу \ меньше шумит \ позволяет поставить для снимка выдержку по короче \ имеет более качественный шумодав. Таким образом камере требуется значительно меньше времени для съемки серии, и соответственно объекты почти не смазываются. Нет, конечно, если попытаться заснять болид Формулы 1, то снимок всё равно поплывет. Но если мы говорим о бытовых вещах, то Google считает, что этого достаточно. Ну и думаю алгоритм всё таки достаточно умен, чтобы подстроить разные снимки друг под друга.
Я не являюсь большим специалистом, но написана какая-то ерунда.
Она была слишком маленькой и ей не хватало света, поэтому фотографии в темноте или при высокой контрастности низкого качества… Такая технология «вытягивала» детали на снимках с тусклым освещением.

Если сенсор тянет детали с тусклым освещением, значит тянет. Проблема же в том, что он ни фига не тянет в любой мобильной камере, ISO выше 400 дает неадекватные шумы. Конечно, работа digital шумодава есть во всех мыльницах, но лучше качества фотография не становится.
При плохом освещении вообще не надо HDR! Обычно все сцены в сумерках и в темноте влазят в 4-6 стопов (16-64 раз) по контрастности, да конечно же на источниках света возникает пересвет, но это абсолютно естественно, как и черный цвет.
HDR чаще всего нужен при съемках пейзажей при достаточно ярком солнце, чтобы сохранить и облака и тени на камнях, в таких сценах контрастность доходит до 20 стопов и там применяется серия снимков и этого освещения вполне достаточно для мобильных камер. Отличие, что профессиональным камерам хватит 2 снимков закрыть этот диапазон, для мобильных понадобится 3-4. Алгоритмы HDR действительно сложны и неоднозначны, точнее часто они зависят от того, что хочет добиться фотограф. Лично мое мнение, чаще всего это делается в фотошопе на основе знаний где находится источник света и какой тональный переход допустим от темного к светлому, то есть проводится граница горизонта. Основная проблема это при слиянии картинок не получить «нереальную» штуку, как облака будут темнее земли и сохранить плавность переходов от неба к земле, но в тоже время восстановить цвета в светлых и темных участках.
В статье речь не про обычный HDR, а про Exposure Fusion, применение которого выражается в снижении уровня шума. Например, вот статья про этот режим в программе Photomatix
А я на КДПВ повелся, где «классический» ХДР, причем весьма неплохой
Насколько, я понял, Exposure Fusion сохраняет объекты с оригинальной экспозицией относительно друг друга в (отличии от HDR) и сжимает их в low dynamic range (8 бит jpeg). Вот что я не понял, так как это позволяет бороться с шумами. Шумы появляются и от долгой выдержки (греется матрица) и от высокого ISO, если у нас по экспозиции только одна картинка светлая, то шумы, конечно, будут меньше заметны так как сжимается ДД, но все равно останутся + к этому картинка получится более тусклая.
Как я понял, там всё сложнее — каждому пикселю из (например, трёх) версий присваивается вес в зависимости от яркости, насыщенности и контрастности, и в итоговом результате участвует средневзвешенное между версиями пикселей. Похоже, у пикселей шума вес получается низкой по этому алгоритму
Вы немного путаете HDR (расширение динамического диапазона) и тонмаппинг (метод, чтобы уместить большой динамический диапазон сцены в динамический диапазон устройства отображения).

В случае с HDR всё просто информация из двух(или более) кадров объединяется (про разницу экспозиции и то, что берутся разные участки тонового диапазона я писать не стану).
Однако возникает такая проблема, что ДД изображения больше ДД устройства отображения (пусть будет монитор ). Если просто сжать дд картинки (12 стопов) до дд монитора (что-то около 8 стопов), то упадет контраст и картинка станет «серой».

Чтобы такого не было применяют те самые алгоритмы: самое простое это когда определённый кусок диапазона просто не занят, тогда в него сгоняют информацию, тем самым увеличив контраст остальных. Немного сложнее действуют тонмапперы (простейший пример инструмент shadows/highlights в фотошопе), они действуют через размытие и во-первых могут давать ореолы на контрастных границах особенно при использовании «алгоритмов для бедных», того же гауссова размытия вместо surface blur'а. Вторая проблема в том, что при неумелом использовании эти алгоритмы могут сделать светлые объекты темнее тёмных (там математика так устроена, что света затемняются без оглядки на тени а тени высветляются без оглядки на света) и можно получить такую картинку на которой темные участки неба (светлый объект) будут темнее светлых участков земли (темный объект). Вот именно оттуда и получается «сюрреалистическая», «марсианская», да называйте как хотите картинка. В общем, чтобы не утратить связь картинки с реальностью нужно всего-то поосторожнее крутить ползунки. Ну и да, камеры обычно об этом знают и марсианскую картинку обычно не выдают.

А что там кстати с очками? Что-то уже давно про них ничего не слышно, да и инфа в гугле противоречия.

Очень жаль, что HDR+ недоступен на других телефонах.
Сколько не сравнивал кадры с телефонов от Гугла, с кадрами, сделанными iPhone сравнимых поколений, iPhone как-то лучше снимал в каждом случае. Причем, уверен, вопрос был не в матрице как таковой (и там, и там матрицы использовались Sony, если не ошибаюсь). Вот в чем загвоздка?
А у вас ios или android на телефоне?
Загвоздка в постобработке. Некоторые android телефоны могут снимать в raw и если его покрутить в любой «проявлялке», внезапно там качество/детали/дд на порядок лучше чем то что этот же телефон сохраняет в JPG (после шумодава с перешарпом и задранным контрастом). Собственно вот в Пикселе и заморочились с программной постобработкой и вышел очень хороший результат.
Sign up to leave a comment.

Articles