Как стать автором
Обновить

Комментарии 46

У вас написана большая лажа в разделе про 8 бит. 16 млн. цветов вполне могут дать картинку без переходов, заметных человеческому глазу. Все эти «ступеньки» обусловлены исключительно алгоритмами сжатия, а, точнее процессом полигонизации изображения, и сколько битов для цвета ни выбирай, при одинаковом сжатии ступеньки будут примерно одинаковые.

Ну грубо говоря когда мы динамический диапазон увеличиваем — то шаг увеличивается вместе с ним. Соответственно у нас на старый-добрый sRGB не 8 бит точности, а уже 6 приходится.

Если сжать 10 бит с таким же объемом на выходе, то они все равно до 6 бит ужмутся. Ну а если мы говорим об увеличении потока, то можно и 8 бит с меньшей компрессией сжимать ))
Еще не забываем, что HDMI определённых версий «читерит», сжимая контент с компрессией по 2-пикселя на оттенок (как в NTSC), поэтому либо HDR, либо 4/8k, либо 100Hz, либо компромисс между этими тремя параметрами. Банально bandwidth Gb/sec не хватает (ситуация могла измениться за последние пару лет).
На градиентах бывает очень даже видно.

Да, видно, но эта проблема отлично решается dithering-ом. Человеческий глаз в принципе не способен шум в 1 градацию, особенно на 4K мониторе.


У меня 10-битный монитор, и я не вижу абсолютно никакой разницы между честным 10-битным градиентом и преобразованным 10 bit -> 8 bit + pattern noise.

Как поможет дизеринг в случае такого градиента?
image

Как-то так:



Слева — исходник, по центру — 64 градации + дизеринг, справа — 64 градации без дизеринга.


Если смотреть со 100% масштабом на нормальном экране, то небольшие огрехи по центру видны, но картинка по качеству ближе к той, что слева. И примерно то же самое будет, если заменить 6 бит на 8 бит, а 8 бит на 10 бит.

Теперь видно градиенты + дизеринг.
Но речь немного не об этом. Дизерингом можно и полноцветный JPEG в 256 цветов перегнать так, что только при пристальном разглядывании рассмотришь. Но это уже дополнительная обработка, и фактически мы обманываем глаз, подсовывая ему БОЛЬШЕ оттенков, чем 256 по одному цветовому каналу.

Да, это дополнительная обработка, но она очень дешёвая в реализации. И в итоге утверждение, что для просмотра HDR10 контента обязательно нужен соответствующий монитор, не является верным. Монитор с расширенным цветовым охватом — возможно, но не увеличенной глубиной цвета.


Добрался до своей софтины, построил 10-битный градиент, вот результат (смотреть в полном разрешении):

(сверху — 8 бит без дизеринга, посерединие — паттерн дизеринг до 1/2 градации, снизу — до 1/4 градации)


Тут я ещё и игры с цветом, настолько я знаю, были. Ну то есть если нам нужно добавить 1/4 интенсивности к группе пикселей 2x2, то вместо того, чтобы добавить +1 RGB к одному из пикселей, я добавлял +1R, +1G, +1B к разным пикселям, чтобы результат выглядел ещё равномернее.


P.S. А ту зелёную картинку я в GIMP-е оборабатывал.

Зелёную картинку вы можете обрабатывать вообще сколько угодно, там нельзя изменить ничего — просто нечего и не с чем смешивать, значения канала G отличаются на единичку.

Да, с отдельными компонентами не поиграться. Но ничего страшного, градиент все равно хороший остаётся:


Речь-то не о том, что можно градиент скрыть. Речь о том, что картинка показывает, что восьми бит на компоненту недостаточно, дизерингом мы как раз и сэмулируем условный десятибитный цвет (ничего нового, мониторы давно так восьмибитный эмулируют — 6 бит + FRC; фотошоп, кстати, так градиенты рисует… и всё равно заметно).
Речь о том, что картинка показывает, что восьми бит на компоненту недостаточно, дизерингом мы как раз и сэмулируем условный десятибитный цвет

Именно так.


и всё равно заметно

На 4К мониторе — уже нет.

НЛО прилетело и опубликовало эту надпись здесь
image
В каком именно место заметны цветовые ступеньки? А монитор калибровали?
Вот еще нашел цитату: «По разным источникам глаз человека может различать от 3 тысяч до 10 миллионов оттенков».

А у вас градиент с дизерингом.

Вы правы. Не уследил, что теперь галка смешения установлена по-умолчанию. Тем интереснее.
Вот вариант совершенно прямой.
image
Вообще, видны ступенки в тёмной части зелёного
то их всего 256 штук, а это уже очень заметно

Ступенчатость заметна, потому что меняется не цвет, а интенсивность.
Возьмите теперь, ради интереса чисто цветовой градиент, например, вот:
https://upload.wikimedia.org/wikipedia/commons/0/08/YCbCr-CbCr_Y100.png
И, внезапно, оказывается, что увидеть ступеньки на этой картинке на откалиброванном мониторе может уже не каждый.

Как я понял, с HDR10 умудрились сделать HDReady 2.0, когда вместо 10bit стали продавать 8bit. Поэтому потребовался HDR10+.

Ну это завист от умников, которые позволили 8 бит экран при просто 10 бит hdmi. Но экран всего-то 8.

его поддерживают практически все производители телевизоров

А как насчёт такого производителя, как LG? Они заявляют, что HDR10+ им не нужен

Потому что они поддерживают DolbyVision. Он то же с динамической метаинформацией. И контента под него больше. Практически все современные кинофильмы сняты в сотрудничестве с Dolby.

Можно запилить HDR10+ через HGIG, не проблема, я думаю. Если тонмаппить на source девайсе… А HGIG отключает тонмаппинг на ТВ…

Не согласен с изложенным.


Во-первых, динамический диапазон человеческого глаза (30+ стопов) не имеет никакого отношения к просмотру изображений на экране, ведь необходимости к адаптации к переменному освещению здесь нет, а статический диапазон глаза ближе к 10 стопам, но никак не 14.


Во-вторых, динамический диапазон современных камер намного выше. Современные зеркалки имеют статический диапазон чувствительности порядка 11-12 стопов, так что можно смело заявлять, что техника видит мир уже лучше, чем глаз. Добавляем сюда динамический диапазон — игры с диафрагмой и выдержкой — ещё 16 стопов, и вуаля — современная камера имеет 28 стопов динамического диапазона и, в отличие от глаза, камера адаптируется к смене освещения за доли секунды, чего нельзя сказать о глазе.


В-третьих, картинка SDR (8 bit) vs HDR (10 bit) — маркетинговый бред. 10-битный цвет даёт большее число промежуточных градаций, а не расширение цветового охвата.


Ну и в четвёртых, 10-битный цвет — штука хоть и полезная, но для его отображения 8-битной матрицы более чем достаточно за счёт FRC и дизеринга.

Planet Earth 2 Blu-ray содержит цвета даже вне DCI-P3, к вашему сведенью. И 10 бит нужны, чтобы картинка не испоганивалась после 3 ступенчатого тон маппинга. Но вы правы, ни битность, ни охват цвета не связан с HDR. HDR это то, как определено PQ / HLG.
НЛО прилетело и опубликовало эту надпись здесь

Бандинг возникает, потому что человек различает больше градаций яркости, чем может показать монитор. Цветов же это не касается.

Человек видит больше цветов в смысле охвата, BT.709 это всего лишь 33.5% CIE 1931 xy (всех видимых цветов).

А QLED телевизор Samsung Q950T — это QLED подсветка, или QLED цветной светодиод на каждый пиксель?

Подсветка, конечно. Иначе бы его величали micro led, а не банальный и уже приевшийся qled, которого полно в дешевом сегменте.
В отличие от OLED-телевизоров, которые могут выдавать необходимый уровень контраста только при плотно зашторенных шторах.

Интересно авторы OLED телевизоры видели когда-нибудь?
У меня окна в пол и южная сторона, ни разу не было ситуации с нехваткой контрастности.
(Я уже молчу, что контраст это разница между самым светлым и самым темным из воспроизводимых оттенков и он по определению лучше у OLED, т.к. там самый темный это 0)
Я уже молчу, что контраст это разница между самым светлым и самым темным из воспроизводимых оттенков и он по определению лучше у OLED, т.к. там самый темный это 0

Видимо, имеется в виду, что у QLED максимальная яркость выше, чем у OLED (чтоб глаза прям выжигало, наверное?). А чистый 0 может быть только в полной темноте, потому что экран сам по себе не чёрный, и хоть немного света, да отражает.

Ну у LED он тоже может быть 0, если есть зональная подсветка. Но в реальности там, конечно, не 0 т.к. экран не является абсолютно черным телом. И большая пиковая яркость вполне может быть большую контрастность в итоге.
Там будет все равно больше, даже в случае зональной подсветки. Вот если взять двухслойный LCD…
В отличие от OLED-телевизоров, которые могут выдавать необходимый уровень контраста только при плотно зашторенных шторах.

Почему то ожидал увидеть этот комментарий в статье ))


Опять же соотношение контраста у OLED дисплеев бесконечное, так как нельзя делить на ноль :) Но так да, qled ярче. Возможно следущий телевизор будет QLED, потому как сравнительно дешевле, но меня и вполне OLED устраивает, все равно днём телевизор смотреть некогда, получается смотрю только вечерами. Да и не сказал бы, что сильно напрягает "тусклый" OLED экран LG телевизора.

Не бесконечное, просто очень, очень большое. Бесконечное это было бы в случае идеального черного тела, что, конечно, больше теория.

Например, в случае с LG C9 OLED.

Target Max Luminance: 750 cd/m^2
Target Min Luminance: 0.00006200 cd/m^2

>смотрю только вечерами

Оба стандарта BT.709 с BT.1886 или PQ расчитаны на темную комнату. Для HDR пока что вообще не существует идельного трансфера при разном освещении, хотя Dolby пытается со своим Dolby Vision IQ и Samsung с HDR10+ Adaptive.
Я так понял, что HDR в телевизоре и HDR в камере вашего смартфона никак не связаны между собой. Странно, что выбрали уже используемую аббревиатуру, люди будут путаться и задавать лишние вопросы.

У меня 75Q900TS выдаёт более 500 ватт при большой яркости, зимой мне жарко.
А Сони Z9G выдаёт под киловатт на 85 дюймах. Вот она цена большой яркости.

Как я понял, основная проблема заключается что нужно кодировать не абсолютную яркость компонента цвета а её логарифм…
Круто конечно, у самого 75" qled. Есть только одна проблема: нет контента в HDR10+. Самсунг как упертый баран со своим стандартом, на который все производителям стало наплевать. Вроде только Амазон что-то производит под HDR10+.
А вот Dolby Vision контента гораздо больше. Почему не дать возможность купить этот декодер юзерам — не понимаю.

топы это хорошо, но с низу у самсунга яркость 200нит и HDR. самсунг дурит получаетсч или все сложнее?

Можно ли чайнику преобразовать DolbyVision в HDR10+?

Например, есть фильм Финч с видео в формате DV (http://kinozal.tv/details.php?id=1874351)

Можно ли (с потерей битности с 12 до 10 и другими потерями) сделать из этого видео HDR10+?

Декодировать данный файл может только mpv. 11.5 bit можно сохранить в 12 бит как бы...

Зарегистрируйтесь на Хабре, чтобы оставить комментарий