Как стать автором
Обновить

Комментарии 34

Это мило, что вы так здорово демонстрируете разницу между HDR и не-HDR контентом на моём мониторе, не поддерживающем HDR. Оказывается, достаточно завалить яркость и контраст.

Ваш монитор выше 100 нит, а значит поддерживат HDR. Они все поддерживают. Например, Apple старые даже не поддерживает прием PQ.

Интересно, а как задействовать эту фичу для работы с фотографией? При печати на бумаге металлик не особо получаются края диапазонов, даже при сьемке обычным кадром, без хдр...

Как вариант — не печатать. Мы в 2024. Но вообще смотреть в сторону CMYKOGV.

Кроме распечатки пока нет массового способа и простого способа хранения фотографий больше 10 лет. Цифровая фотография для той же надёжности требует копии на трёх разных носителях. Жёсткий диск может внезапно отказать. SSD - без комментариев. Облако по надёжности лучше жёсткого диска только тем, что это жёсткий диск в другой точке планеты.

Мой SSD на моем первом ПК был куплен в 2014. Всё ещё работает.

У меня сложилась обратная картина: мои исходники давно лежат как раз на трёх носителях в разных местах (новые фото дописываются по возможности), а лучшие ещё в jpeg в облако гугла экспортирую. Не вижу другого способа хранить фотографии, а тем более видео, без ограничений по времени, пока есть кому копировать на новые носители. Старые бумажные тоже собираюсь отсканировать чтобы не пропали, многим куда больше десяти лет, выцветают. А новые печатать хочу только чтобы на стены вешать, выцветут ещё быстрее чем в альбомах, но всегда можно напечатать снова.

Кстати, десяток-другой удачных фоток обычно остаётся с интересного ивента, в год десяток интересных событий нередко случается, это же за 10 лет ~1500 фотографий надо напечатать, распихать допустим по 15 внушительным альбомам и где-то хранить, и хотя бы раз в сотню лет сканировать и перепечатывать. Может транспортировать при переезде. Вряд ли это намного дешевле или проще трёх дисков.

Не думаю, что это возможно- не печатать. Ну,мб, разве что для любителей вариант))) Для печати выставочных фотографий, я прибег к помощи старой доброй химии. Каким образом HDR помогла бы мне сделать лучше, а не наоборот- потерять в качестве из-за использования (в качестве бутылочного горлышка)) носителя с намного более узким ДД? Да и отображение контента в HDR на обычных LCD- такое себе решение. Вот на плазме, на Оледах- еще соглашусь, есть смысл.

Не более чем маркетинг этот HDR на моника и телика. Мы просто сделаем картинку в другом формате, чтобы на обычных мониках она выглядела не хорошо, а на новых мониках будем показывать как было, только кривые поправим, чтобы показать преимущество.

Не более чем маркетинг этот HDR на моника и телика.

Не согласен. Внедрение HDR в бытовом видео - это, пожалуй, даже более значимо, ну или как минимум сопоставимо со внедрением HD ранее. Потому что HD это качественный скачок в реалистичности за счет роста разрешения, а HDR это качественный скачок в реалистичности за счет роста динамического диапазона и цветового охвата. Маркетинг тут в том, что для этого нужно опять покупать новые устройства, но можно сохранить имеющиеся - они всего лишь не поддерживают новые стандарты, но в остальном все так же пригодны, как и раньше. Впрочем, SD оборудование, даже ЧБ кинескопные телевизоры, тоже точно так же применимы, просто не поддерживают новые стандарты. А еще маркетинг в том, как вам продать не совсем то, что вы как будто бы хотите - отсюда все эти градации "почти HDR", почти совсем HDR", "ну это уже совсем, считай, HDR" и так далее - таблица в статье в помощь. Тогда как сам стандарт в принципе - это самый что ни на есть прорыв в реалистичности изображения.

А здорово вы это придумали. Я даже сначала не понял.

Оказывается мой монитор поддерживает HDR, а то уже хотел менять. А тут на картинках явно увидел разницу.

Любой моник сейчас имеет HDR, они все выше 100 нит SDR. Лол. 10 бит и P3 не связаны с этим.

Вроде HDR был просто 10 бит на цвет, вместо 8-ми? Разницы для большинства людей это вроде не особо давало. А еще в стандартных мониках плохой синий, и вроде как раз его улучшают. Прогресс короче, хотя 8 бит в массах не спроста задержались. В общем прогресс развития моников замедлился, ничего особо нового, интересного. А еще на старых видюшках hdr нещадно жрет фпс, впрочем владельцам старых видюшек не привыкать)

Формат не правильный. Слишком много фраз передающих субъективные вещи, типа "От поддержки HDR напрямую зависит качество изображения", суть в том, что "качество изображения" каждый для себя сам определяет. Тут больше подойдет язык сухих фактов, типа вот вам два лишних бита на цвет, и сможете 4-ую матрицу посмотреть, она синяя, все за 170% от обычной стоимости.

Вроде HDR был просто 10 бит на цвет, вместо 8-ми?

Нет, не просто. Увеличен цветовой охват, а не просто стало больше более мелких ступенек между крайними точками, хотя и это тоже - проблема градиента с бесящей ослабла до неважной.

В общем прогресс развития моников замедлился, ничего особо нового, интересного.

Он всегда был небыстрым. Если судить о прогрессе по бюджетному сегменту, то в панелях 6+2 FRC и на самом деле ничего интересного. Тем временем, в мониторы дороже могут попадать панели получше - и 8+2, и даже 10bit.

А еще на старых видюшках hdr нещадно жрет фпс

А на еще более старых - неиграбельное слайдшоу на самых минимальных настройках или вообще не запускается.

Тут больше подойдет язык сухих фактов, типа вот вам два лишних бита на цвет, и сможете 4-ую матрицу посмотреть, она синяя, все за 170% от обычной стоимости.

Язык сухих фактов: используется цветовое пространство BT.2020 вместо BT.709. Впрочем, в статье это было. И таблица с сортами мониторов - насколько далеко или близко к стандарту они способны отображать цвета и насколько высок их контраст, в такую группу качества они и попадают. На розничную цену, надо полагать, это тоже влияет.

Наверное весь мой пост был продиктован последним параграфом, который я удалил.
У меня два моника, оба весьма дешевых, но один заметно дороже другого. Не смотря на то, что дешевый мерцает из-за переходника в hdmi разница не существенна. У моей жены весьма дорогой моник, hrd-4k-144 правда не то у нас нету нужного провода, не то уже старая 1080 не обладает нужной ревизией hdmi в общем выбор между 144 и hrd. Вроде выбрали частоту, впрочем какого-то качества не заметно. А еще у нас есть мальчик, у него видюшка 4080, которая как раз, чтобы hrd не съедал 40 фпс. И тоже качество не заметно.

Я конечно в этом плане не искушенный, и делаю скидку, может если я годик другой посижу на hrd, то начну сразу отличать. Но пока...

Пространство цветов это прикольно. Но придумать зачем это, кроме четвертой матрицы, сложно.

И если кого задел, сорри. Просто часто замечаю, что продающие штуки для меня незначительны. И разница между hrd и srd для меня... Типа разницы между mp3 и flac, или пепси с кока-колой. Если поставить рядом, то различить можно, а так. Много кто говорит что различает, но при проверках оказывается что нет.

У меня два моника, оба весьма дешевых, но один заметно дороже другого. Не смотря на то, что дешевый мерцает из-за переходника в hdmi разница не существенна.

Знакомо. У меня тоже есть очень дешевый, мерцающий с переходником с HDMI на VGA - не выбрасывать же монитор, если он исправен и справляется там, куда он подключен? Но, скажу я вам честно, качество изображения у него по любым меркам низкое и использовать его как основной я бы не хотел.

У моей жены весьма дорогой моник, hrd-4k-144 правда не то у нас нету нужного провода, не то уже старая 1080 не обладает нужной ревизией hdmi в общем выбор между 144 и hrd. Вроде выбрали частоту, впрочем какого-то качества не заметно.

Конечно не заметно. В отличие от кинескопных мониторов, мерцающих с частотой вертикальной развертки, массовые сегодня LCD мониторы от этой проблемы не сказать, что прямо таки страдают - они страдают от низкой скорости переключения отдельных элементов (пикселей), что приводит к размытию и многоконтурности движущихся по экрану изображений. Приемлемость или неприемлемость этого дефекта довольно субъективна, но она не настолько связана с частотой как таковой, сколько с аппаратными характеристиками панели. На отнюдь не самом дорогом IPS мониторе, просто не на самом дешевом, я уже на 60Hz не обращаю внимания на этот эффект. А ведь IPS - это не самый быстрый тип панели, TN потенциально быстрее, но только не те ультрадешевые панели, которые ставят в самые бюджетные и по совместительству негодные по качеству изображения мониторы. Возможно, вы тоже не видите разницы не из-за частоты как таковой, а из-за свойств панели, которая в дорогом мониторе более вероятно будет лучше по большинству объективных характеристик что при 144Hz, что при даже 60Hz или 75Hz. Но частота требует ширину канала, которая ограничена ревизией HDMI По-хорошему все, что ниже HDMI2.0a - фтопку, если вас интересует HDR (у вас карта, кажется, HDMI2.0b, т.е. ОК, а про монитор не знаю). Кабели не имеют ревизий, соотносящихся с аппаратным обеспечением - не бывает "кабель HDMI2.0", они отличаются пропускной способностью и имеют соответствующие стандартизованные названия вроде "High Speed" или "Ultra High Speed", хотя короткий кабель может оказаться работоспособным на более высокой скорости, чем гарантируется маркировкой. Тут проблема лишь в том, что китайцы могут нанести потребную маркировку хоть на бельевую веревку, то есть можете ли вы доверять производителю или продавцу, декларирующему, что кабель у вас точно подойдет для устройств HDMI2.1 с их скоростями, тогда как на деле может не запуститься и с HDMI2.0a.

Да, кстати, операционная система и программы по отображению контента, например видеопроигрыватели - у них есть поддержка HDR, она включена и работает? А то тут как во времена начала внедрения HD, когда видеокарта - отдельная или встройка, вроде умеют в аппаратное декодирование, и плеер вроде умеет, а чтобы включить DXVA нужны какие-то неочевидные настройки, без которых ничего не работает. Чуть позже все у всех уже работало "из коробки" и сейчас вспоминать о проблемах включения DXVA даже как-то странно. Ну и изначально не-HDR контент так и будет отдаваться как не-HDR - никакого чудесного улучшения не будет, ему неоткуда взяться, а если попытаться программно растянуть цвета, то получится неестественно, типа как если на телевизоре накрутить на максимум насыщенность, яркость и контраст.

Пространство цветов это прикольно. Но придумать зачем это, кроме четвертой матрицы, сложно.

Есть приблизительно два варианта: вы создаете HDR контент или потребляете готовый. Ну или оба варианта поочередно, очевидно. В первом случае требования выше - вы должны видеть некий условный эталон того, что увидит потребитель в лучшем случае, во втором можно пойти на какие-то компромиссы, которые приемлемы лично вам по лично вашему вкусу. Это как мониторинг звука в звукозаписи, когда звукач должен слышать все мыслимые нюансы исходного материала, а уж у потребителя может оказаться что угодно от хайэнда до беспроводных наушников - по вкусу и возможностям потребителя.

И если кого задел, сорри.

Точно не меня. Встречно простите, если мои тезисы вам показались грубыми иил как минимум неуместными.

И разница между hrd и srd для меня... Типа разницы между mp3 и flac, или пепси с кока-колой.

Для меня разница между HDR и обычным HD ошеломительна. Для меня внедрение HDR - событие уровня внедрения HD после многих десятилетий SD, вершиной которого был, в потребительском сегменте, DVD. В отличие от разрешения, разницу в котором в быту редко видно, разницу в контрасте и цветовом охвате видно всегда и сразу, если конечно монитор (телевизор, проектор) это реально поддерживает, а не как HD-ready мониторы, которые на отлично принимают сигнал до 1080p включительно, но имеют физический растр вроде 480x270.

10 бит не причём вообще. Nvidia поддерживает 8bit hdr, также как и камеры.

В первую очередь HDR это о том, чтобы задрать яркость в определенные периоды и определенные зоны вне стандартного диапазона

Зашёл в одну контору посмотреть HDR телеки, посмотрел: 3D они больше не поддерживают, яркость и контрастность чуть лучше, цены космос за такой же 50" как мой древний LG 3D.
На телефоне есть некоторая разница, на монике компа с VA матрицей и "игровым" режимом - ну хз, местами VA выглядит даже приятнее.
На мой вкус эта "революция" несколько перехвалена, особенно без поддержки 3D.

Для 3D сейчас целый класс устройств появился - очки виртуальной реальности и сопутствующие аксессуары

А вот с HDR до сих пор не определились - нарожали 100500 стандартов, и нативно их никто не поддерживает. Что в windows, что в linux HDR прикрутили костылями. Много проблем на ровном месте с этим HDR. Хотя картинка конечно лучше - больше деталей в тенях. Но сейчас и моники научились тени высветлять из коробки, всякие игровые режимы на это и заточены. Хотелось бы чтобы стандарты HDR устаканились и все работало из коробки, как это сейчас с SDR происходит: кабель подключил и не заморачиваешься более.

Стандарты менее HDR1000 можно даже не включать, в большинстве случаев это просто маркетологический обман и проблемы с отображением SDR при включенном HDR. Реального эффекта почти не будет.

Для себя же я сделал вывод, что мне HDR не нужен: на своем телеке HDR1000 провел тест, скачал один и тот же фильм в SDR и HDR, и сравнил. В итоге да, HDR ярче, но в тенях в итоге полный провал, ощущение что тупо контраст выкрутили, и в тенях стало ничего не видно. Может, конечно, что-то где-то не так и не по настоящему, но на 4 матрицах в доме везде одно и тоже: в SDR нормальная картинка где все видно, в HDR вырвиглазная контрастная картинка.

Что там с фильмом непонятно, но в играх с HDR разница видна: на SDR все хорошо, но нужно выбирать, или яркие источники света и вместо теней черное пятно, или пересвет но зато видно что в тенях делается, а с HDR доступны одновременно и яркие источники света и детали в тенях - динамический диапазон явно больше, можно заглядывать с улицы в пещеру или тоннель и видеть там что-то. Но некоторые игры это портят эффектом адаптации зрения: на ярких сценах через короткое время затемняют тени, а в темных сценах наоборот завышают яркость неба в окнах.

Также HDR сильно поднимает яркость точечных источников: например яркая-яркая луна ночью на фоне полутьмы окружения. На OLED это неплохо выглядит - там в таких сценах яркости могут быть огромные, хотя на всю панель такую яркость они выдать не способны, перегреваются мгновенно, полная яркость доступна только точечно.

В целом с HDR 600 уже видна качественная разница, может еще от матрици зависит, но например на LG 38WN95C-W уже вполне, конечно не идеально но уже можно юзать, но ведь полно мониторов с HDR400 где разницы мало того что нет, так еще и цвета искажает, там это точно маркетинг и зло. Насколько я помню в среднем в SDR максимальная яркость белого цвета примерно 300-350 нит.

Я обрабатываю фотографии на компьютере для дальнейшего использования в полиграфии.

С одной стороны было бы наверное прекрасно иметь возможность видеть на экране компьютера картинки с широчайшим динамическим диапазоном. Красиво и круто.

А с другой стороны - выходной формат у моих картинок это бумажное меню в ресторане, флаеры, плакаты на стенах и т.п. и вся красота HDR на этих носителях недоступна.

Как вы думаете, нужен мне HDR монитор? Если да, то какой технологии?

HDR, по сути, сильное искажение изображения. Насколько оно оправдано? Ну, может чисто чтобы самому смотреть. Кто-то любит пастель, кто-то неон. Я помню когда-то давно, когда играли в Doom, то иногда яркость монитора выкручивали на максимум, чтобы "видеть" в темноте. Но это было, скажем, явно не по задумке разработчиков.

Но если вы готовите фото или видео для публикации или тем более печати, то можете смело ожидать неприятные сюрпризы.

Я когда калибрую (аппаратно) свой монитор, то должен быть уверен, что в монторе HDR - off, в настройках системы HDR - off. Иначе просто процедура не завершится. То есть, как миримум, реальные цвета не совместимы с HDR.

Кто-то любит пастель, кто-то неон.

Это вообще не отсюда. Неважно, любите вы неон или нет, потому что это вкусовщина. Важно лишь, умеет ваш монитор правильно отображать неон или нет.

Но если вы готовите фото или видео для публикации или тем более печати, то можете смело ожидать неприятные сюрпризы.

Только если вы некомпетентны. Потому что иначе вы будете работать в целевом цветовом пространстве, а не в каком-то "от балды", чтобы то, что вы видите, соответствовало тому, что будет опубликовано.

Я когда калибрую (аппаратно) свой монитор, то должен быть уверен, что в монторе HDR - off, в настройках системы HDR - off. Иначе просто процедура не завершится.

Возможно, у вас что-то не то с калибратором. Или с системой.

То есть, как миримум, реальные цвета не совместимы с HDR.

Это бессмыслица. Не реальные цвета могут быть (не) совместимы с устройствами отображения, а устройства отображения в большей или меньшей мере (не) совместимы с реальными цветами. Это в принципе. А теперь в частностях: HDR значительно более полно передает реальные цвета, это объективно. Но если у вас особое восприятие цвета - допустим, вы функциональный тетрахромат или у вас болезнь Дальтона, то ваше субъективное суждение может отличаться от некоего условного консенсуса, образованного большинством функциональный трихроматов.

Тем не менее, не могу не поинтересоваться вашим мнением: насколько реальные цвета совместимы с ЧБ фотографией?

Только не надо мне диагнозы ставить.

Я использую SpyderX от Datacolor. Это достаточно профессиональное оборудование. И в нем заложена проверка на отключение функций HDR. Он просто не сформирует цветовой профиль и выдаст ошибку.

А чем пользуетесь вы?

Кстати, при чем здесь цветовое пространство, если мы говорим про аппаратную часть? Лично я считаю, что все ок, если я беру образец продукта, сканирую цвет (и такое делаю) , заливаю им в том же фотошопе слой, прикладываю образец к экрану и не вижу разницы. Такого добиться с HDR не возможно. А, идеально будет, если выгнав на печать этот слой и сравнив первоначальный образец с распечаткой я тоже не увижу разницы. Но такое редко. Точнее, это зависит от класса техники. Скажем, там где 4 картриджа такое сомнительно.

А вы на чем печатаете?

Ну тема чб фото вообще не отсюда (рука-лицо).

Такого добиться с HDR не возможно.

В смысле невозможно? Правильный HDR монитор может отобразить экран вашего монитора с точно такой же абсолютной яркостью и такими же цветами, плюс детали в тенях, которые по абсолютной яркости ниже, чем чёрный на вашем мониторе, плюс небо с абсолютной яркостью выше, чем белый на вашем мониторе, плюс цвета, которые не может отобразить ваш монитор без HDR. Иначе это не HDR, а какая-то пародия на HDR.

Я использую SpyderX от Datacolor. Это достаточно профессиональное оборудование. И в нем заложена проверка на отключение функций HDR. Он просто не сформирует цветовой профиль и выдаст ошибку.

Либо что-то не так с конкретной аппаратной или программной реализацией HDR (не добавили дополнительных бит в цветовые каналы?), либо ваше профессиональное оборудование - отсталое (это нормальное явление для профессиональных продуктов).

Кто-то любит пастель, кто-то неон.

Я надеюсь, что вы не судите об HDR по вырвиглазным цветам, которые получились из-за отображения не HDR картинки на HDR мониторе без соответствующего необходимого преобразования цветового пространства?

Мне нравится когда мне, на моем SDR мониторе, показывают как хорошо выглядит HDR, и как плохо SDR

Подскажите пожалуйста, читал в интернетах что абсолютное большинство современных игр разрабатывается в цветовом диапазоне sRGB, и имеет полу-фейковый HDR, который добавляет лишь уровень яркости к SDR формату и на цветовой диапазон никоим образом не влияет, никакой нативной поддержки dci-p3 и AdobeRGB текстур в играх и в помине нету. Это так или нет? В настройках графики я пункта выбора из цветовых охватов ни разу не видел.

А может кто и мониторы посоветует с 2к, 144гц и hdr. Самый доступный, потом средний и дорогой))

Зарегистрируйтесь на Хабре, чтобы оставить комментарий