Комментарии 59
Первый HDR — это «режим HDR», появившийся у камеры iPhone в 2010 году.
TIFF/EP, DNG и RAW форматы съемки на цифровых камерах такие: "да-да, пошли мы на хер!"
Хабр - торт))
Разберемся что такое HDR и вся статья тупо о частном случае отображения фото на смартфонах и алгоритмах для этого. Ни слова о hdri, об их использовании в 3d графике задолго до "изобретения эпплом hdr" (ох уж эти фанатики). Об технической возможности отображения "настоящего" hdr (а не просто подгонки контрастов).
Если подходить с практической стороны, то HDR это просто увеличение деталей
в основном в тёмных местах.
Для этого достаточно PhotoShop: изображение, коррекция, тени/света.
Нет. Вы не сможете снять картинку с большим диапазоном, если у вас матрица не умеет в такой широкой диапазон и либо недосвечивается, либо пересвечивается.
Вытянуть тени в редакторе конечно можно, но это просто чуть расширяет диапазон, это вариант комперессии, не более.
Неожиданно и контринтуитивно для многих, кто RAW не трогал, но у матрицы довольно большой динамический диапазон, сильно больше, чем на итоговом джипеге. Даже на 12-битном(емнип) RAW (nikon d5100) в черноте столько информации, что она тянется невероятно хорошо. Про 16-битные молчу, там еще лучше. Там HDR получается вообще с одной картинки двумя ползунками.
Пример


Просто обычно люди берут джипег, который by design черноту объединяет, и в черноте больше нет информации, ее оттуда не достать, там просто черные пиксели, и с этим ничего не сделать.
У меня и в JPG диапазон заметно больше чем в дисплее.
И в фото Cannon SX 60 HS и в творениях SD.
Поэтому использую PS с отличным результатом:
вместо чёрных пятен появляются деревья в тёмном лесу и пряди волос,
вместо белых пятен появляются облака и детали светлой одежды.
И это не "просто чуть", а более чем достаточно.
При этом шум практически не заметен.
Так чем это отличается от HDR?
На самом деле можно снять и с "обычной" матрицей, если делать несколько снимков подряд с разными выдержками/диафрагмами, а потом наложить результаты друг на друга по специальному алгоритму. С диафрагмами, оговорюсь, сложнее, они на фокус сильно влияют. Ну и, конечно, это хорошо сработает только на статичных снимках.
Нет. Если говорить очень упрощённо HDR — это когда пиксель может быть ярче 100%.
Попытаться представить HDR на SDR дисплее
Для лучшего эффекта рекомендуется смотреть картинку на весь экран на чёрном фоне и выкрутить яркость экрана на максимум.

То есть его каналы R, G и B — могут иметь значения не только от 0.0 до 1.0, но и больше 1.0, например, 1.1, 1.3 или 5.4. На втором месте играет роль сохранение деталей в тенях. То есть, в отличие от классического представления изображения, мы не проваливаемся в 0, когда яркость меньше 1/255. Но эта особенность с тенями второстепенна и есть не только в HDR. Самое главное — это яркость выше 100%. Причём, возможны комбинации: например, R==0.3, G==0.9, B==2.3 — этот цвет просто невозможно представить с помощью классической цветовой модели.
Для HDR есть разница между, например, фиолетовым и ярко‑ярко фиолетовым на небе на закате. Это буквально разные цвета. Белое солнце и белый лист бумаги — тоже разные.
Получить HDR можно сняв на камеру, которая это поддерживает, отрендерить с помощью графического движка, который это умеет. А можно синтезировать его на основе обычного изображения (SDR) — руками, фильтрами, нейросетями и т. п. Или сделать несколько фото с разной экспозицией и потом свести в одну HDR‑фотку — смартфоны чаще всего именно это и делают. Ключевая особенность, которой должна обладать камера, чтобы снимать настоящий HDR — гибридная логарифмическая гамма.
Далее возникает вопрос — как его отобразить. Есть HDR экраны, которые на аппаратном уровне поддерживают свечение выше 100% — они так и называются HDR. Море, ночные огни, закаты, пламя и прочие штуки на таких дисплеях выглядят на порядок красивее — как настоящие.
Однако, у таких дисплеев тоже есть предел: например, 250% они отобразят, а 5000% уже нет. Важно, чтобы такой дисплей имел многозональную подсветку, 10-битную матрицу и пиковую яркость не менее 1000 нит, иначе HDR он не сможет показать. Кроме того, бытовые экраны часто могут так ярко светить только небольшой областью — не более 10% площади экрана. Про‑экраны могут светить целиком.
Большинство 3D игр чуть ли не с 2005 года в своих движках рендерят и обрабатывают изображение в формате HDR, и только на последних этапах рендеринга ужимают до SDR, имитируя инертность приспособления глаза и прочие штуки. А современные игры часто умеют обнаруживать HDR‑дисплей и выводить в него оригинальную HDR‑картинку.
На обычных SDR дисплеях HDR‑изображение нужно впихнуть в обычный диапазон от 0 до 1. Тут применяют ухищрения, которые сводятся к тому, что тени осветляются, пересветы затемняются.
И вот часто HDR‑ом называют SDR‑картинку, которую фотошопом или фильтрами вытянули в HDR‑диапазон, а потом сжали этот диапазон обратно до SDR. И обычно это происходит за 1 этап, который так и называется HDR‑фильтр. Но этот HDR имеет к настоящему такое же отношение, как доширак к итальянской пасте в мишленовском ресторане.
могут иметь значения не только от 0.0 до 1.0, но и больше 1.0, например, 1.1, 1.3 или 5.4
Я думал что яркость 1.0 означает "пропустим весь свет от лампы подсветки прям в глаз наблюдателю". Но что тогда означает яркость 5.4?
«На лампу подали вместо 220 вольт 1200, и она загорелась в 5.4 раза ярче», грубо говоря.
В реальности всё не так, разумеется — ставят лампы (или пиксели в случае с OLED/MicroLED) в несколько раз ярче, чем надо, но используют большую часть времени только на пару десятков %. И вот эти условные 20% реальной яркости считаются за 1.0.
В особо суровых ЖК дисплеях бывает два слоя ЖК, чтобы лучше глушить такие вот супер яркие лампы.
ставят лампы (или пиксели в случае с OLED/MicroLED) в несколько раз ярче, чем надо, но используют большую часть времени только на пару десятков %. И вот эти условные 20% реальной яркости считаются за 1.0.
Да что ж Вы такое пишете-то? 🤦♂️ О какой характеристике речь? Дайте ссылку. Есть максимальная яркость – которую может иметь вся площадь экрана в течение неопределённого времени, и пиковая – нормируется либо по времени (редко), либо (обычно) по площади экрана. Например, 1000 нит 10% означает, что не более 10% площади экрана может одновременно излучать свет с такой яркостью.
Если говорить очень упрощённо HDR — это когда пиксель может быть ярче 100%.
Извините, это чрезмерная упрощённость. Ярче 100% какого цветового пространства? И что за дикие цифры, 540%? Rec.2020 имеет максимальную яркость 107% от Rec.709, например.
Ключевая особенность, которой должна обладать камера, чтобы снимать настоящий HDR — гибридная логарифмическая гамма.
🤦♂️ HLG – просто один из стандартов той самой компрессии изображения, позволяющий его отображать с приемлемой точностью как на HDR, так и на SDR устройствах. Наличие его поддержки в камере (большая редкость даже в топовых моделях) всего лишь позволяет получать фото/видео с большим ДД без постобработки. При этом съёмка в RAW, хоть и требует постобработки, ДД всегда даст заведомо больший.
Важно, чтобы такой дисплей имел многозональную подсветку, 10-битную матрицу и пиковую яркость не менее 1000 нит, иначе HDR он не сможет показать.
Вообще-то есть разные стандарты HDR. HDR-400, например, требует 400 нит яркости, а вовсе не 1000. И картинка будет точно лучше, чем SDR. А HDR-5000 просто не существует, максимум 4000 – это стандарт для оборудования кинотеатров высшего класса. Не уверен даже, что есть хоть одно реальное устройство, которое ему соответствует.
У Вас страшная путаница в понятиях, извините уж.
Извините, это чрезмерная упрощённость.
Абсолютно согласен. Но для большинства людей этого достаточно, ибо гораздо понятнее, чем цветовые пространства, нелинейности, спектры, RAW и инструменты цветокоррекции. Если лезть туда, то будет километр текста — сначала надо будет объяснить понятийный аппарат, потом историю, потом задачи и возникающие проблемы вследствие несовершенства технологий, потом как они решаются. А нужны все эти знания будут только тем, кто профессионально работает с цветом.
Здесь же я дал справку, достаточную, чтобы +‑ отличить маркетинговый bullshit от чего‑то, что реально претендует на HDR. И всё.
«Не втыкайте мокрыми руками вилку в розетку» вместо «вода на ваших руках с высокой степенью вероятности содержит соли и другие примеси, которые имеют достаточно низкое сопротивление, чтобы образовать цепь...».
Извините, это чрезмерная упрощённость. Ярче 100% какого цветового пространства? И что за дикие цифры, 540%? Rec.2020 имеет максимальную яркость 107% от Rec.709, например.
В процессе обработки, например, внутри мозгов рендерера в 3ds max или в игре, яркость может быть и больше — она там задаётся числом с плавающей запятой и рассчитывается исключительно математически. Ничто не мешает мне в 3д редакторе поставить две лампы в миллиард кандел и в один кандел, и результат рендеринга сохранить в exr в fp32. А вот когда картинка с этими яркостями отображается и/или запечатлевается устройством — да, вступают в силу ограничения.
Я как‑то писал алгоритм захвата HDR рабочего стола под Windows через DirectX OutputDuplication 6. Мои экраны 10-битные, тем не менее, Windows хранит текстуру рабочего стола в виде 16-битных чисел с плавающей запятой. Так вот, в процессе отладки на HDR‑играх я частенько обнаруживал, что значение пикселя может переваливать вообще за 10,0, даже не за 5,4. Потому что это рассчитанная движком игры яркость до компрессии, а он использует физически корректный рендеринг.
Эта же текстура‑холст, которую я захватил для анализа, потом отправляется в алгоритмы компрессии (драйверами и/или DirectX), которые уже впихивают эти запредельно большие значения в то, что может показать экран — в моём случае это около 1000 нит. Но на этапе расчётов там могут быть абсолютно любые цифры.
Именно поэтому я выше чётко отделил абстрактное представление и обработку изображения в компьютере от способов его захвата и отображения. В первом случае мы практически не ограничены (хотя, при необходимости, можем себя ограничить сознательно, работая в каком‑то цветовом пространстве), во втором — обязательно ограничены много чем в много каких аспектах.
HDR-400, например, требует 400 нит яркости, а вовсе не 1000. И картинка будет точно лучше, чем SDR
Я видел HDR400 — имхо, качественных различий для неискушенного человека маловато. Поэтому я, опять же, чрезмерно упрощая, упомянул именно 1000, как минимальный порог, с которого даже для неискушённого человека начинаются существенные различия.
Не уверен даже, что есть хоть одно реальное устройство, которое ему соответствует.
MicroLED могут выходить на яркость 10 000 нит, правда, насколько мне известно, на текущий момент их не стандартизировали. А стандарт, вроде бы, есть — DolbyVision, в котором максимум — те самые 10 000 нит на 12 битах. Правда вопрос, насколько это маркетинг.
Так вот, в процессе отладки на HDR‑играх я частенько обнаруживал, что значение пикселя может переваливать вообще за 10,0, даже не за 5,4.
Это детали внутренней реализации конкретного кодека, к стандарту HDR никакого отношения не имеющие и в данном контексте просто вводящие в заблуждение. Например, ни в одном видеоредакторе яркость 540, и тем более 1000% установить невозможно.
Поэтому я, опять же, чрезмерно упрощая, упомянул именно 1000, как минимальный порог, с которого даже для неискушённого человека начинаются существенные различия.
Буквально несколько дней назад купил себе новый ноутбук. 4K HDR-600 TrueBlack, пиковая яркость 750. Собственно, одной из причин выбора именно этой модели была поддержка работы с HDR контентом. Могу заверить, что разница огромная. Я бы даже сказал, что при обычном дневном освещении яркость близка к чрезмерной, больше может понадобиться только на прямом солнечном свете.
Это детали внутренней реализации конкретного кодека, к стандарту HDR никакого отношения не имеющие и в данном контексте просто вводящие в заблуждение.
Во‑первых, я не очень понимаю, причём здесь кодек. Я захватываю сырую несжатую картинку которую только что отрендерил движок игры, прямо в видеопамять.
Во‑вторых, я и не говорил о каком‑либо стандарте HDR. Я не упомянул, что говорю про какой‑нибудь HDR10+. Речь шла о более общем понятии, о самой концепции High Dynamic Range — описание на пальцах что есть широкий динамический диапазон, а не о каком‑либо стандарте, описывающем, как изображения с этим самым широким диапазоном хранить и как с ними работать.
Например, ни в одном видеоредакторе яркость 540, и тем более 1000% установить невозможно.
Простите, но это не так. Берём тот же After Effects, ставим в настройках проекта

После чего можем установить, например, цвет прямоугольника:

Яркость красного канала — 10 000 000%. И да, это можно применить, окно не выдаст ошибку. И при повторном открытии свойств заливки будет 100 000. И если отрендерить это в сиквенс в том же exr — там будут эти десять миллионов процентов.
Идём дальше. Добавляем обычный фильтр цветокора Lumetri. И ставим экспозицию 7.

Экспозицию мне тоже приходилось делать. Алгоритм экспозиции — это, фактически, умножение значений каналов на 2 в степени «значение экспозиции». Если экспозиция установлена на 0, то каналы умножаются на 2⁰, то есть на 1. Если экспозиция установлена на -1, то каналы умножаются на 2⁻¹, то есть на 0.5. А мы поставили экспозицию на 7 — каналы умножаются на 2⁷, то есть на 128. То есть я только что выставил яркость на 12 800%. Да, есть гамма и прочие особенности нелинейности, есть цветовое пространство, но, так или иначе, для 1000% этих возможностей точно хватит.
И я могу спокойно отрендерить exr‑сиквенс из 3ds max, прогнать через вот такие вот запредельные значения и сгенерировать в новый exr сиквенс. И всё там прекрасно посчитается и сохранится. Потому что это просто числа с плавающей запятой, практически ограниченные какими‑либо рамками (потолок у них, конечно, есть, но он оооочень большой).
Яркость красного канала — 1 000 000%.
Вы не обратили внимание на отсутствие символа %?
Яркость красного канала — 1 000 000%.
Вы не обратили внимание на отсутствие символа %?
Поправил, спасибо.
Что поправили-то? Поменяли миллион на десять? На скриншоте рядом с цифрой 100000 нет символа % – а там, где он есть, значения не превышают 100. Я с АЕ не работал никогда, и не знаю, в каких попугаях там цифры. Но точно не в процентах, это просто не имеет смысла в пределах одного цветового пространства – только при сравнении охватов в разных. Но и в этом случае ни о каких многократных различиях речи быть не может. Вот например, в телевидении было принято измерять уровни сигнала в IRE – а потом неожиданно появились компьютерные видео, где ограничение уровней 16-235 оказалось ненужным, и оказалось, что они выходят за диапазон 0-100%. Но долгое время продолжали мерить в IRE – просто по привычке, и получился выглядящий абсурдно, но понятный профессионалам индустрии диапазон от -7% до +109%.
Что поправили-то? Поменяли миллион на десять?
Да.
ни в одном видеоредакторе яркость 540, и тем более 1000% установить невозможно.
На скриншоте рядом с цифрой 100000 нет символа % – а там, где он есть, значения не превышают 100
Простите, мы, кажется, говорим о самом факте возможности использования яркости в 1000% и более в видеоредакторе, а не о том, как это формально отображается в интерфейсе: в виде логарифмической шкалы экспозиции или абсолютной в процентах. Возможность поставить экспозицию выше 3.32 (логарифм 10 по основанию 2, если быть точным) — это и есть возможность указать яркость выше 1000%.
Но точно не в процентах, это просто не имеет смысла в пределах одного цветового пространства — только при сравнении охватов в разных. Но и в этом случае ни о каких многократных различиях речи быть не может.
Оно и не происходит в пределах какого‑то стандартного цветового пространства. Это относительные единицы. В случае 3D рендеринга это, грубо говоря, количество прилетевших виртуальных фотонов умножить на некий коэффициент. Ну или количество джоулей, которые принесли виртуальные фотоны, прилетевшие в виртуальный субпиксель виртуальной камеры. Всё.
И это вполне себе имеет смысл. Я могу спокойно в одном кадре совместить два объекта, яркость которых отличается в триллион (!) раз, отрендерить их, и потом делать тональную компрессию в AE. И он всё это спокойно прожуёт. Это называется физически корректный рендеринг. Просто математика, цвета здесь — это просто векторы. Поэтому тут так можно.
HDR — это когда пиксель может быть ярче 100%
нет, HDR это когда компоненты этого пикселя кодируются с повышенной точностью
если стандарт это 8 бит на компоненту, то 9 бит это уже HDR
Нет. Повышение разрядности сверх 8 бит повышает точность и количество градаций, но это никак не связано с расширением диапазона. Он может быть больше, а может быть таким же, или даже меньше.

Разрядность и диапазон — это два независимых параметра. Может быть широкий динамический диапазон на 8 битах, а может быть стандартный диапазон на 16 битах.
Например, если рассмотреть яркий ночной прожектор как пиксель экрана, то мы получим очень‑очень широкий динамический диапазон с разрядностью 1 бит (вкл/выкл).
Если говорить очень упрощённо HDR — это когда пиксель может быть ярче 100%.
Ну, это если очень сильно упрощенно. Тогда по вашей логике пиксель в HDR может быть и чернее ноля.
Ключевая особенность, которой должна обладать камера, чтобы снимать настоящий HDR — гибридная логарифмическая гамма.
Нет. HLG предназначена для того, чтобы показывать изображения HDR на экранах SDR, да и то не на всех. И вообще эта технология является очень частным случаем HDR для видео, в основном телевещания.
В целом HDR это действительно расширение динамического диапазона за счет увеличения количества бит на канал. Какая там уже заложена кривая яркости - дело вторичное.
Это довольно просто понять на примере: перед вами монитор на котором фотография, изображена дуга электросварки крупным планом. Затем вы меняете фото на изображение человека в белой майке днём. Вы спокойно смотрите на оба снимка и монитор показывает их с максимально возможной для него яркостью.
Если бы монитор умел воспроизводить реальную яркость запечатлённых обьектов, то снимок электрической дуги вызвал бы у вас дискомфорт в глазах. (Примечание: никогда не смотрите на дугу, Солнце и прочие яркие источники, это может необратимо испортить зрение).
По поводу hdri которые применяются для освещения в 3D графике, там всё становится честнее. Предположим, что есть сферическая панорама на которой снят и человек в белой майке и дуга сварки и она применена к трехмерной сцене. То, что на мониторе выглядит одинаково белым будет кардинально отличаться по силе освещения внутри трехмерной сцены и участок 5х5 пикселей на картинке "жарить" так, что станет основным источником света.
Если бы монитор умел воспроизводить реальную яркость запечатлённых обьектов, то снимок электрической дуги вызвал бы у вас дискомфорт в глазах.
Я так на макбуке жены офигел когда увидел на Ютубе видео рассвета. Сама страница белая ну как обычно, а солнце на видео аж реально слепит до дискомфорта.
Теперь видео сварки боюсь смотреть
Солнце слепит лишь только потому, что у глаза динамический диапазон тоже не огромно большой. Так что считаю нет смысла в расширении HDR сверхмеры.
В реальной жизни, особенно в солнечную погоду, диапазон яркости реальных объектов очень широкий — тысячи нит.

Для сравнения, яркость обычного монитора — это где‑то 250 нит. HDR экраны могут в пике выдавать где‑то 1000–3000 нит в окне 10% от площади экрана.
Фокус в том, что глаз воспринимает яркость не линейно, а по логарифмической шкале, поэтому может спокойно наблюдать довольно яркие штуки. Но предел у него тоже есть. Солнечный диск в зените даёт где‑то 1,6 млрд нит, а на закате — от 1 до 10 млн — вот поэтому на них смотреть некомфортно.
Стоит отметить, что гамма в стандарте sRGB (в котором отображают цвет большинство дисплеев) сама по себе является "костылём", расширяющим динамический диапазон.
Кривая гаммы в околонулевой области имеет наклон 12.92 - во столько раз она повышает разрешение для тёмных оттенков. Яркость цветовой компоненты 0x01 составляет примерно 0.0003 от максимальной яркости, соответствующей значению 0xFF. Если бы вся шкала яркости имела такое разрешение, то она состояла бы из 3295 ступеней. Так что гамма - это ещё и костыль для компактного хранения цвета.
Но гамма создаёт ряд неудобств при обработке изображений. Для корректного смешивания цветов нужно их каждый раз преобразовывать в линейный формат, а после смешивания снова применять гамма-коррекцию. Если когда-нибудь индустрия придёт к дефолтной линейной (16- или 24-битной) шкале яркости, то это позволит не только расширить динамический диапазон, но и сразу устранить кучу проблем, связанных с неправильно настроенной гаммой, в дизайне, рендеринге шрифтов, обработке фото и т. д.
Если когда-нибудь индустрия придёт к дефолтной линейной (16- или 24-битной) шкале яркости
Да вроде давно уже пришла, 16-бит ACES при редактировании используется повсеместно. Другое дело, что потом всё равно требуется трансформация в цветовое пространство, поддерживаемое оконечными устройствами.
Может возникнуть впечатление, что без HDR просто не обойтись. Однако довольно часто помогает простая логарифмическая яркость. Есть небольшой PS-плагин Shadow Illuminator с простенькими настройками.
Это пока пересветов и недосветов нету :)
Я пришел со временм к тому, что зритель лояльно относится к пересветам и теням, если картика сама по себе сюжетно значима и интересна. Раньше снимали кино на цветную пленку с узкой фотоширотой и столько шедевров наснимали...
Плёнка по‑другому реагирует на попытку её пережарить засветом. Это одна из причин, почему некоторые режиссёры её любят.
Плёнка имеет тенденцию "компрессировать" света. Но это не проблема с современными матрицами, можно повторить эффект. Суть в другом, нормальным людям важнее сюжет, чем широкий охват полутонов.
Некоторые, даже, наоборот считают что кинематограф пострадал от тонокомпрессии и выродился в визуальном плане.

Еще примеры




Блины пересветов и угольные тени, да пофиг ваще!
Суть в другом, нормальным людям важнее сюжет, чем широкий охват полутонов.
Разумеется. Соль в том, чтобы технические ограничения не мешали художникам показывать то, что они хотят, так, как они хотят. Сюжет, атмосфера, сравнения, акценты и прочее. Надо пересвет и световой контраст — будет пересвет и световой контраст. Не надо контраста — не будет. Технологии — это лишь инструмент передачи образа в том виде, в котором его задумал режиссёр.
Некоторые, даже, наоборот считают что кинематограф пострадал от тонокомпрессии и выродился в визуальном плане.
Соглашусь, современное кино часто блёклое. Не наигрались ещё с возможностью вытаскивать инфу из пятен. Но имхо это пройдет, как прошла мода на коричневый фильтр в играх.
не наигрались с возможностью покрасить весь футаж в произвольный оттенок и выдать это за муд, фичу и стиль.
а побочный эффект цифровизации кино скорее другой - стали творить меньше "киношного света" в темных сценах, потому что приснопамятную сцену из Барри Линдона со свечами ты щас можешь повторить чуть ли не на телефон, а если надо снимать ночью на улице - ты идешь и снимаешь ночью, а не городишь сложный процесс "ночного света" при зенитном солнце.
ну и еще я надеюсь, что мехатроника сделает второе пришествие
Мне попадались демо ролики от киностудий, где что-то происходит на хромакее а потом появляются другие детали и картинка постепенно превращается в кадр из фильма. После просмотра таких роликов вообще кажется что все снимают в студии а задний фон и прочую натуру потом дорисовывают. Возможно это уже дешевле, чем везти камеру, костюмеров и гримеров на натуру и ждать света и погоды такой толпой.
Сейчас есть очень классное развитие технологии полусферический LED экран который даёт именно тот свет, что задумал режиссёр. А хромакей ничего кроме зеленого не может дать (ну частично компенсируется расставленными осветителями).
кроме ключевого *
он и синий может быть и например у Вильнёва в дюне бежевый (как раз чтоб паразитных засветок не было)
В некоторых демо роликах специально показывают, как меняется задник а потом и блики на объектах приглушают. Возможно это делается доп светом. Но меня как раз поразило что хромакей без проблем переносит людей с синего фона на ночную улицу или на берег моря.
В принципе свет можно немного переставлять и после съёмки — для этого надо вытащить из видеопотока карту глубины, восстановить геометрию и потом можно генерить освещение с помощью 3D графики поверх реально снятого актёра и объектов.
Но для этого исходный материал должен иметь очень много избыточной информации и, желательно, не иметь своих собственных засветов и теней.
Снижение порога вхождения снижает процент творцов среди пользователей технологии + бездумная коммерциализация уменьшает сроки и сокращает контроль качества — пипл хавает. А ещё есть квоты.
Будем с теплом вспоминать времена живых съёмок на хромакее и ламповой 3d графики, потому что всё будет делаться кривыми нейросетями :|
Во всех примерах пересветы мягкие. В них есть следы деталей а не просто белое пятно. ну тени, понятно, угольные. Но провал теней сам по себе не проблема, часто вообще как худжественный прием используется. В этих примерах в тенях просто нет важных элементов. Более того, для движущейся картинки многие проблемы с пере и недосветами а части кадра простительны, там есть главные по сюжету элементы, зритель больше на них смотрит чем на другие детали.
Ну не такие уж и мягкие. А кое где отчётливо видна деградация цвета (красная одежда по сути просто красные блины, почти без полутонов). Где-то пересветы прямо на лице.
Если вы хотите увидеть, насколько плохи могут быть HDR-дисплеи, взгляните на авторов онлайн-контента. Когда-то эти жадные инфлюэнсеры поняли, что если сделать видео дискомфортно яркими, люди будут приостанавливаться при просмотре ленты
Дело не в жадности блогеров, а в том, что дисплей САМ повышает яркость, когда на него выводится HDR-контент. И создатели контента повлиять на это никак не могут.
Тональная компрессия сложная вещь. Мы видим сцены в HDR потому что глаз это довольно посредственный регистратор изображений который постоянно сканирует разные части изображения а картинка восстанавливается в мозгу.
Фотографы для тональной компрессии тоже используют разные инструменты. Самый простой - градиетный фильтр. Можно размещать физический градиентный фильтр перед объективом. Можно программно накладывать в редакторе. Можно рисовать градиентные маски кистями, можно синтезировать фильтрами из самой фотографии. Самое сложное - резкие границы светотени. На них часто возникают артифакты. Можно накладывать несколько кадров с разной экспозицией, но делать надо очень аккуратно чтобы не получить смаз где не надо. Если накладывать несколько кадров, можно сделать брекетинг как по экспозиции так и стекинг по фокусу. А еще в некоторых кадрах можно прикрыть солнце шторкой чтобы убрать блик. Вот например склейка из 6 кадров:

Автоматизировать такой процесс склейки пока довольно сложно.
Тем не менее мы здесь видим обычный "ядерный взрыв", т.е. автору кадра не удалось передать солнце аж за шесть кадров.
Автор просто передал свои впечатления от вида средствами фотографии. Кроме того автор знает, что если смотреть на солнце за облаками например через фильтр ND1000, или просто снимать на очень короткой выдержке с зажатой диафрагмой, то можно видеть, что часто солнечный диск превращается в белое пятно облаков. И диска (к стати для такого широкого угла весьма маленького) не увидеть никак ни на фото, ни глазами. Ну разве что в фотошопе дорисовать.
Очень эпично в статье про преимущества HDR-роликов смотрится вот такое:

Первой же картинкой вводите в заблуждение касаемо разницы sdr и hdr. Авторы картинки взяли обычное фото после обработки, назвали его hdr, в хлам убили крнтрастность и назвали этот вариант sdr. Так и не показав разницы на реальном примере.
Как бы было на самом деле: в sdr у вас 2 пути сделать красивое фото, либо брать за "эталон" яркость неба и подстраивать от нее градацию яркостей других элементов. В таком случае человек в кадре будет просто тёмным силуэтом, потому что относительно неба он имеет очень низкую освещенность, следовательно, когда камера настраивается на яркость неба, прилично так убавляя количество света, захватываемого матрицей камеры, чтобы не было пересвета неба, яркость человека уйдёт в минимальные значения и останется только тёмный силуэт. Либо идти по второму варианту: дать камере команду брать за эталон яркость человека, тогда при построении относительных яркостей элементов фото небо уйдёт в дикий пересвет, став просто белым пятном без очертаний облаков. Конечно приближенный эффект к hdr мы можем получить на этапе обработки фото: то что тёмное - осветлить, то что светлое слишком - затемнить, но из полной белоты и полной темноты очень сложно вытянуть информацию, скорее всего будет некачественно с кучей шумов и артефактов. Для того, чтобы не терять информацию в слишком светлых и слишком тёмных областях и качественно потом эти области объединить на одном фото - и появился режим hdr в камерах.
Все, что делает hdr в фото - берётся лучший образец хорошего неба с одного фото и образец хорошо освещенного человека с другого фото, склеивается на лету и все. (Либо можно сделать 2 и более фото вручную с разными настройками экспозиции и склеить их в программе обработки фото).
Ересь какая-то. Если бы из одного кадра можно было вытянуть HDR, то и проблемы бы не были - тупо нелинейная коррекция яркости и дело в шляпе! Но это невозможно - на пересвеченных участках не будет хватать динамического диапазона и будет потеряна контрастность и информация о цвете, а тени будет потеря контрастности и шумы. И ничего с этим сделать нельзя - в исходном изображении просто нет необходимой информации.
Можно только в лучших традициях ИИ что-то "дорисовать", что "красиво было". Но это ни разу не будет исходным снимком. Это будет что-то "по мотивам исходного снимка". Если угадать, то похоже будет; а если не угадать, то будет красиво, но вовсе не то, что было в реальной сцене.
И особенно удивительно, что автор ругает этот подход, и тут же некую свою чудо-программу, которая делает ровно тоже самое, только иначе. И она точно так же будет лажать, но просто в других случаях.
Короче, польза статьи заканчивается примерно на первой трети, а дальше идёт рекламная дичь с подтасовками и манипуляциями.
SDR снимки мозгом воспринимаются как реальные и естественные, со всеми их недосветами/пересветами, а HDR сразу вызывает мысль "нафотошопили".
Да и мониторы/телевизоры что умеют его показывать есть у единиц.
Получается как c 3D в телевизорах. Технология крутая, интересная, но в реальности мало кем используемая и не особо нужная.
Правильно сделанный HDR на HDR экранах выглядит гораздо естественней, чем SDR на SDR. А вот криво тонированный HDR на SDR экранах да — выглядит гораздо хуже, чем SDR на SDR.
А 3D телевизоры вернутся в виде дисплеев светового поля. Главные препятствия — необходимость очков и отсутствие контента — уже почти устранены.
Нет, с HDR все относительно нормально - на телефонах он уже не редкость. На ПК мешает в основном ОС, та же Windows более или менее научилась работать с HDR только в 11.
В целом, я как пользователь не вижу особого смысла в HDR без OLED. Зато на OLED телевизоре сразу прекрасно видно, HDR игра или нет - черный становится серым, а дальше только подпирать костылями типа RTX HDR или AutoHDR. Ну и по возможности я всегда эти костыли включаю, разве что игра в основном состоит из интерфейса - стратегии и симуляторы. Там приходится кушать, что дают, потому что AutoHDR заставляет белые цифры и буквы жечь глаза.
а HDR сразу вызывает мысль "нафотошопили"
Если вовремя не остановиться, то да, безусловно.
Что же такое HDR?