Comments 95
Понятно, зачем стандарт нужен. В тех же фотографиях хорошо иметь возможность прикрутить экспозицию без потери качества (в рамках диапазона исходного raw). При видеомонтаже аналогично. Но конечному потребителю от этого не особо весело.
Такого видео понемногу становится больше, поскольку помимо HDR, большая точность представления положительно сказывается на компрессии.
Ниты (nit) это показатель максимально достижимой яркости. А выше обсуждение о количестве различимых градаций этой яркости, а не максимальном ее уровне.
Вообще, я уверен, что такие должны быть, т.к. мониторы с 10-ю битами уже есть давно.
P.S.: Кстати, чего они тут делают с такими статьями? Неужели аудитория хабра не в состоянии самостоятельно телик купить?
можно делать апскейл до 10 бит
В этом нет смысла. Если в файле нет информации, то они там ниоткуда не появится. Кино закодированное в 8 бит, так и останется 8-битным, на чем бы его ни показывали
И да 256 значениях яркости на канал? это очень мало.
особенно если цветовой субдискретизации 4:2:2 или 4:2:0.
В играх надеюсь честные 4:4:4?
А пока очередной «новый маркетинговый формат»
А лучше всегда покупайте самое дорогое. И лучше несколько штук. Всем родственникам. Поверьте, мы знаем, как лучше. Nuff said.
А по делу — разве HDR-изображение не может быть уже готовым сигналом? Похоже на историю с 3D-телевизорами, 3D-мониторами и прочими 3D-приблудами, хотя 3D-видео можно крутить хоть на самом дешевом проекторе, просто в нужном плеере (с поддержкой воспроизведения определенного метода) и с нужными очками.
А вообще, махинации, производимые телевизором, напоминают простейшее растяжение контраста за счет большей информации о сигнале (как бы RAW-формат) с самого темного в черный и с самого светлого в белый. Нужно ли говорить, что цветопередача матрицы ничем не отличается, но сигнал вы просто модифицируете для сомнительного профита? Уникальности в данном алгоритме маловато, учитывая, что это преподносят чуть ли не как открытие.
P. S. немного обидно, как инженеры стараются изобретать все новые способы передавать свет и цвет реалистичным (IPS-технологии, даже E-Ink в будущем), и как маркетологи раскручивают амолед с его расширенным диапазоном только в зеленом и HDR.
Если денег хватает, то способ не самый плохой. Если пытаться сэкономить на том, в чём не разбираешься, легко совершить ошибку.
Сам брал 4-гиговую версию. В основном, мой поиск в инете сводится к алгоритму:
знаешь, о чем идет речь? — иди подбирай по характеристикам и цене на яндекс.маркете;
не знаешь? — гугли технологии, читай вики, а только потом выбирать сам девайс.
Конечно же, читать срачи, вроде «АМД против Нвидии/Интела» или «линь vs винда», смысла нет.
P. S. я так же как и ты подбирал видяху и остановился на 960. Схема была такая: зашел на futuremark.com, посмотрел мою текущую видяху — ее производительность и цену — в рейтинге. Далее листал вверх до вменяемой цены и производительности, остановился на 960. Зашел на маркет, начал листать все модели 960, увидел, что версия с 4 ГБ стоит на 1-1,5 килорубля больше, и решил, что есть однозначный смысл брать ее. Нашел подходящую по длине версию (маленький корпус), выбрал магазин, в котором не будет проблем с гарантией, но приемлемая цена, и взял.
А вообще не расстраивайся, скоро будем переезжать на 10ХХ серию. Лишь бы валюта пожалела скромных геймеров.
То-то же.
/sarcasm
Понимаю, если бы телевизор динамически подстраивал контрастность в зависимости от освещения комнаты, вот это было бы полезно, наверно. Тут расширенная информация о hdr полезна была бы.
А если сводить их в 8 бит на канал, то надо применять tone mapping и получится сюрреалистичная картина. Особенно это касается людей.
Конечно, можно сводить по разным алгоритмам и с разными коэффициентами, но результат всё равно немного непривычный.
В этом и заключается искусство цветокоррекции. Если человек не владеет приемами цветокоррекции, то будет как вы сказали, средне-серое говно, а если он профессионал – то на выходе будет сочная картинка с деталями по всему диапазону
Неестественная картинка из видео – типичный результат непрофессиональной обработки. Весь интернет завален подобным псевдо-HDR, его легко отличить даже по превьюшкам
Непонятно только зачем для этого нужны ТВ с HDR? Чтобы опять сделать солнце слепящим, и от этого для глаз человек в тени был чёрным как негр? То есть от чего ушли, к тому и пришли?
Если нет, то очень странно.
Можно сделать стандартно — ничего не обрезаем, сжимаем линейно. Телевизор с этим тоже прекрасно справится. Так ведь? Наличие дополнительных плюшек этому же не мешает.
Но на каком-то контенте какую-то ЦА воодушевит динамическое расширение диапазона. Причем, им больше понравится результат, выдаваемый на теликах А, нежели результат, выдаваемый на теликах Б. А другим — наоборот! А телики С вообще на два бита якобы физически больше могут отображать.
В чем плохо стремление апнуть существующие стандарты и дать возможность поставлять более качественный контент? Это же не отменяет возможностей показывать и смотреть как раньше.
Разве? Это же исключительно цифровой интерфейс.
Помню на закате кинескопных телевизоров выбирал себе модель, там тоже были свои технологии, но как показала реальность, видео процессоры так настроены, что не способны передавать полутона. Тогда я это смотрел на простом примере, брал мультик "Ледниковый период" и смотрел как на снегу видно текстуру, в последних моделях снег рисовался как обычное, белое пятно (на плазмах таких проблем не было...). :D
Много времени конечно прошло с того момента, возможно с современными моделями сейчас подобная же картинка.
А люди, которые деинтерлейсят 50i в 25p, просто не разбираются.
И даже аналоговая техника прекрасно показывает плавное видео в виде interlaced контента 50/60Гц.
Проблема только в головах некоторых людей, которые застряли в начале 20 века в древних технологиях и не хотят вылезать из этого болота. По этой причине я не переношу кинотеатры с этим слайдшоу, а наслаждаюсь плавной картинкой на своём ТВ, и в гробу я видал эти честные 24p.
Человеческий глаз действительно адаптируется к изменению уровня освещенности, вопрос только как быстро?
Цитата из википедии: Наиболее полно изучены изменения чувствительности глаза человека при переходе от яркого света в полную темноту (так называемая темновая адаптация) и при переходе от темноты к свету (световая адаптация).
… Процесс темновой адаптации занимает несколько часов…
… Световая адаптация происходит значительно быстрее и занимает при средних яркостях 1-3 минуты…
eyesfor.me/home/anatomy-of-the-eye/retina/light-and-dark-adaptation.html
Да, разумеется, реально эффект от адаптации наступает быстрее, но реально эффект от темновой адаптации заметен через несколько минут.
Т.е. для того, чтобы увидеть этот эффект, нужно залезть в темный сортир минут на 15 (тьма отступит, и можно будет видеть серые водопроводные трубы и, пардон, унитаз), а потом резко выйти и наслаждаться эффектами адаптации глаза в течении нескольких секунд. Далее, если снова заглянуть в этот сортир на пару секунд, там снова будет кромешная тьма — потому что цикл темновой адаптации толком еще не запустится.
Если мотать головой туда-сюда, заглядывая то в темный сортир, то в ярко освещенный коридор, эффектов адаптации не видно вообще (я, во всяком случае, их не вижу). Получается, что эти эффекты адаптации — столь редко встречающаяся вещь, что ее вообще не стоит делать.
Я не спорю, что после какой-то обработки фотошопом картинки она выглядит сочнее и лучше. Но в компьютерных играх «фотошоп» автоматизированный, и то, что он иногда выдает, особенно при не очень прямых руках программистов, вряд ли можно назвать приятной на глаз картинкой и произведением искусства (потому что искусство — оно… хм, штучное). Впечатление такое, что эти эффекты — просто маркетинговый трюк для привлечения внимания, типа смотрите, какой хороший скриншот (с какой-то удачной позиции), графика- 10 из 10! А в динамике все это выглядит ужасно и быстро утомляет. В последнее время (примерно 2-3 года), правда, игры делать стали лучше, но еще недавно обилие ужасных спецэффектов просто утомляло.
Что будет с этим телевизорным фотошопом — вопрос…
Сделайте фотографию из окна так, чтобы захватить часть комнаты и яркое небо в солнечный полдень. Сравните количество деталей в тенях (или светах, смотря как проэкспонируете) с тем, что видите глазами.
Была статья про это здесь, что у игроделов извращённое понимание HDR — https://habrahabr.ru/post/238425/, пример в виде чайника в конце статьи наглядно показывает это.
Речь не о адаптации, а о том что у глаза шире динамический диапазон — т.е. способность различать темные оттенки И светлые оттенки одновременно находящиеся в поле зрения. Даже без учета подстройки. С ней диапазон вообще где-то порядка 1к100 000
Выше простейший пример как в этом убедиться — глазом нормально видно детали и яркого пейзажа залитого солнцем за окном и слабо освещенные внутренности дома. А при попытке сфотографировать или снять на видео — либо детали внутри, а окно почти чисто белый прямоугольник, либо все детали за окном, но обстановка внутри тонет в тенях.
Для честного HDR нужна честная 10-битная матрица :) что есть в топовых матрицах LG и Samsung 2016 года. На около топовых матрицах используют 8-битные матрицы + техническое волшебство (FRC), что позволяет увеличить цветовой охват матрицы.
И да, матрицы для телевизовор с поддержкой HDR должны быть с увеличеных цветовым охватом. В спецификациях указывают процент покрытия диапазона Rec. 2020.
Неправда что только топовые ТВ могу воспроизводить HDR контент. Декодировать HDR могу практически все UHD ТВ 2016 года, но вот честно его отображать только топовые :) Это у них во всех рекламах, чем отличается шильдик «HDR Pro» от «HDR Ultra». Честные 10 бит у LG это OLED и 9 серия, 7-8 серии это 8bit+волшебство, 6я серия может только декодировать.
Только вот контента в HDR или DolbyVision раз-два и обчёлся.
А между кадрами меняются цвета пикселей и за счет этого "эмулируется" большее их количество, чем реально может отобразить матрица.
Допустим матрица 6 бит, т.е. реально может отобразить 64 оттенка(градаций яркости) каждого из основных цветов.
Нам для какой-то точки нужно отобразить яркость записанную как 231 в исходом 8бит сигнале. На 6 бит это будет 231/4 = 57.75. Но 57.75 вывести невозможно — нужно выбрать либо 57 либо 58. Проще всего округлить (в данном случае берем 58) и потерять тонкие цвета/оттенки.
А можно "обмануть" глаз: 3 кадра выводим пиксель(субпиксель) яркостью 58, а 4й кадр яркостью 57. Повторяем по кругу.
Глаз яркости усреднит (т.к. у него инерция выше чем у матрицы) и для него эта точка будет примерно соответствовать яркости 57.75.
В результате эмулируем 256 градаций имея в реальности всего 64.
Получается купить телефизор с «говносмартом и прочими ущербными технологиями» дешевле чем просто монитор без этих технологий.
Вот для этого и нужна возможность вывода хотя бы 10-битного цвета.
Если серьезно — смотришь на эти панели — да, красиво рекламка крутиться. Ярко. Но моск все равно дорисовывает все за нас. Вы вспомните, сколько ч/б фильмов, которые все отлично знают и помнят детали, и сколько голливудского «экшена», о котором не вспомнишь через пару часов?
Новая война форматов: телевизионный HDR