Pull to refresh

Comments 95

Я не уловил, нафига оно нужно при 256 значениях яркости на канал? Искренне верил, что хотя бы до 10 бит поднимут, чтобы 1024 значения было. Понятно, что солнце на экране не будет ослеплять, но все же. В текущем варианте выглядит довольно бессмысленным. Информацию теряем либо в виде понижения контраста между темным и ярким (256 значений! Никуда не деться), либо из-за выбора какого-то участка большого диапазона. Например, от 768 до 1024 для яркой сцены. Но при этом тени свалятся в ноль из-за клиппинга диапазона. Чудес не бывает. Все упирается в вывод.

Понятно, зачем стандарт нужен. В тех же фотографиях хорошо иметь возможность прикрутить экспозицию без потери качества (в рамках диапазона исходного raw). При видеомонтаже аналогично. Но конечному потребителю от этого не особо весело.
Если контент (кино) закодировано в 8 бит, то можно делать апскейл до 10 бит при выводе на телевизор. Если же видео закодировано в 10 бит, то делаем нативный вывод без тональной компрессии. Полагаю, именно по этой причине упомянуты плееры от Panasonic и Samsung — поскольку они поддерживают декодирование видео, сжатого с 10 бит на канал.

Такого видео понемногу становится больше, поскольку помимо HDR, большая точность представления положительно сказывается на компрессии.
Так, а где телевизор, у которого больше 8 бит на канал в матрице?
Я только мониторы за дикие деньги видел. И они в основном нужны для узких областей, типа просмотра томограммы в 10-битном цвете, где много переходов.
Не такая уж они и редкость. Всякие фотографы/полиграфисты часто сидят за монитором с AdobeRGB и 10 битами на канал.

Подключая их к видеокартам с 8 битами на канал. Фотографов с Quadro — единицы.

Это уже другой вопрос.
Всё правильно делают. Чем больше разрядность матрицы, тем меньше искажений после цифровой обработки сигнала внутри монитора.
На презентации Microsoft с GDC 2016 говорится, что современные телевизоры могут отображать 500 – 1000 нитов. И что это число вполне может удвоиться к 2017. Так что у телевизоров с этим всё отлично.

Ниты (nit) это показатель максимально достижимой яркости. А выше обсуждение о количестве различимых градаций этой яркости, а не максимальном ее уровне.

А вы не путаете контрастность и кол-во режимов яркости? Пока всё что может матрица это 256 режимов, смысла от HDR сигнала 0. У меня вот есть монитор с честными 10-ю битами и видеокарта, которая вроде как поддерживает это. Так вот, если выкрутить яркость монитора на максимум (у меня аж глаза болят), то да, я отлично вижу разницу между 8-ю и 10-ю битами (хотя пользоваться монитором на такой яркости одна сплошная боль — тут нужны специальные средства со стороны ОС чтобы обычные вещи отображались в диапазоне 0-255, а то что выше шло именно как «слепящее»). Кроме того у меня рядом стоит ещё один монитор с 8-ю битной матрицей, так вот на нём разницы между картинками 8 и 10 бит нет вообще.
Понятия не имею :) Вопрос ещё в том, что производители называют HDR Ready — имеется ли ввиду под этим количество бит на канал и/или мощность подсветки экрана. Знаю точно, что Dolby производит такие экраны (больше битов на канал + ярче подсветка) и параллельно занимается разработкой совместимого кодека на базе HEVC (или расширения к HEVC)
А можно ссылку на 10-битные ТВ панели? А то маркетоиды из мувидео написали вот чего «Нет, 30-битные матрицы в ТВ ставить никто не станет, они всё так же останутся 18- или 24-битными».
Вообще, я уверен, что такие должны быть, т.к. мониторы с 10-ю битами уже есть давно.

P.S.: Кстати, чего они тут делают с такими статьями? Неужели аудитория хабра не в состоянии самостоятельно телик купить?
То, что производится на данный момент (насколько я знаю) — это не потребительская электроника, а профессиональные мониторы и панели для размещения рекламы. Так что ссылку именно на ТВ-панели привести не могу. Разработки Dolby легко гуглятся по запросу «Dolby HDR screens».
Очевидно, это чистой воды маркетинг. А на самом деле — «30 битная матрица» в данном случае названа таковой потому что 10 бит * 3 цветовых составляющих. Аналогично и с 18 (6 бит * 3 составляющих) и 24 (8 бит*3) битами.
А как же еще можно впарить телек стоимостью 1 комнатной квартиры да еще и с наценкой в 100-200к рублей.
можно делать апскейл до 10 бит

В этом нет смысла. Если в файле нет информации, то они там ниоткуда не появится. Кино закодированное в 8 бит, так и останется 8-битным, на чем бы его ни показывали
Смысл в этом есть, и немалый. В начале продаж нужно предлагать покупателям новых дорогих телевизоров 10-битное кино, которое из ниоткуда не возмётся. Пока не снимут новое, придётся апскейлить старое. Как вариант — пока не оцифруют заново и/или не транскодируют в 10 бит уже имеющийся материал, что тоже небыстро и недёшево.
Ну да, как с 4к, которое пока только в демороликах…
О каком нативном выводе в 10 бит идет речь, если цитата: «Нет, 30-битные матрицы в ТВ ставить никто не станет, они всё так же останутся 18- или 24-битными»
Задайте этот вопрос автору цитируемого текста. Я склонен считать, что со временем ТВ перейдут на 30- или 36- бит матрицы. Более того, в настоящее время такие панели уже существуют и их можно купить за вполне вменяемые деньги.
Надеюсь с мониторами дела будут лучше в них современные интерфейсы быстрее пробираються.
И да 256 значениях яркости на канал? это очень мало.
особенно если цветовой субдискретизации 4:2:2 или 4:2:0.
В играх надеюсь честные 4:4:4?
В играх-то да, учитывая, что все эти извращения с YV12 и прочим сделаны для лучшего сжатия видеопотока.
Новый xbox one s как анонсировали будет поддерживать HDR
Хотелось видеть примеры и сравнения с обычной картинкой.
А пока очередной «новый маркетинговый формат»
А как вы увидите разницу HDR / не-HDR без устройства с поддержкой HDR? :) Или вам просто наглядное представление хочется?
Дык нет поддержки HDR в этих устройствах.
Матрица в них такая же как в вашем мониторе. По сути весь вопрос только в софте, который будет перекодировать HDR в LDR для вывода на экран.
«Если вы покупаете телевизор в 2016 году и хотите получить от него максимум, логично было бы обратить внимание на модели с поддержкой HDR. На самих телевизорах производители почему-то стесняются писать HDR Ready, поэтому в магазине надо искать отметку UltraHD Premium.»

А лучше всегда покупайте самое дорогое. И лучше несколько штук. Всем родственникам. Поверьте, мы знаем, как лучше. Nuff said.

А по делу — разве HDR-изображение не может быть уже готовым сигналом? Похоже на историю с 3D-телевизорами, 3D-мониторами и прочими 3D-приблудами, хотя 3D-видео можно крутить хоть на самом дешевом проекторе, просто в нужном плеере (с поддержкой воспроизведения определенного метода) и с нужными очками.
А вообще, махинации, производимые телевизором, напоминают простейшее растяжение контраста за счет большей информации о сигнале (как бы RAW-формат) с самого темного в черный и с самого светлого в белый. Нужно ли говорить, что цветопередача матрицы ничем не отличается, но сигнал вы просто модифицируете для сомнительного профита? Уникальности в данном алгоритме маловато, учитывая, что это преподносят чуть ли не как открытие.

P. S. немного обидно, как инженеры стараются изобретать все новые способы передавать свет и цвет реалистичным (IPS-технологии, даже E-Ink в будущем), и как маркетологи раскручивают амолед с его расширенным диапазоном только в зеленом и HDR.
>А лучше всегда покупайте самое дорогое.
Если денег хватает, то способ не самый плохой. Если пытаться сэкономить на том, в чём не разбираешься, легко совершить ошибку.
Соглашусь, но дополню: стараясь купить что-то хорошее, рассчитывая только на мощь своего кошелька, можно тоже купить неплохой такой треш с кучей программных «фич» на уровне смываемой втулки. Имхо, вообще покупать что угодно без понятия о сабже — кот в мешке, независимо от суммы.
К сожалению, быть специалистом во всём невозможно, и покупать кота в мешке приходится часто.
Тоже верно. Но в 90% случаев просто 20 минут в гугле снимает вопрос о возможно неудачной покупке.
Я бы сказал, 20 минут в гугле приведут к чтению срачей от людей, которые сами не до конца разбираются в теме. Например, я недавно купил видеокарту GTX 960 с 2gb памяти вместо 4gb, о чём уже не раз пожалел. Интернет только помог мне принять неправильное решение.
Прими мои соболезнования. =(
Сам брал 4-гиговую версию. В основном, мой поиск в инете сводится к алгоритму:
знаешь, о чем идет речь? — иди подбирай по характеристикам и цене на яндекс.маркете;
не знаешь? — гугли технологии, читай вики, а только потом выбирать сам девайс.
Конечно же, читать срачи, вроде «АМД против Нвидии/Интела» или «линь vs винда», смысла нет.

P. S. я так же как и ты подбирал видяху и остановился на 960. Схема была такая: зашел на futuremark.com, посмотрел мою текущую видяху — ее производительность и цену — в рейтинге. Далее листал вверх до вменяемой цены и производительности, остановился на 960. Зашел на маркет, начал листать все модели 960, увидел, что версия с 4 ГБ стоит на 1-1,5 килорубля больше, и решил, что есть однозначный смысл брать ее. Нашел подходящую по длине версию (маленький корпус), выбрал магазин, в котором не будет проблем с гарантией, но приемлемая цена, и взял.
А вообще не расстраивайся, скоро будем переезжать на 10ХХ серию. Лишь бы валюта пожалела скромных геймеров.
Не всегда очевидно, как найденные в гугле технологии показывают себя на практике. Например, в тестах 960 чуть-чуть лучше 760, но у 760 и размер шины больше и число транзисторов… Что остаётся человеку, который обновляет комп раз в несколько лет? Купить ту, где цифра в названии больше :) Вот и с памятью так вышло — разница неочевидна, а жаба подкралась в самый неподходящий момент.
Я конечно же хотел сказать шейдерных процессоров, а не транзисторов.
А вот Вы когда-нибудь были также счастливы, как люди в рекламе смываемых втулок?
То-то же.
/sarcasm
Замените в ролике «смываемая втулка» на «пульт с пищалкой», «просмотр ютуба», «чтение книг», «запись трансляции на самый дешевый хард 5400рпм», «ЛЕД ПОДСВЕТКА!!!» (а чо, светодиоды же такое инновационное изобретение, не?), «Ultra HD» (он же 4К) для просмотра фильмов в FullHD -_-, «Смарт ТВ» из дипломной работы выпускника на ядре линя… Мне нужен экзорцист.
Вот так и появляются покупатели кабелей за $1000…
Все равно не понимаю что за HDR, почему его нельзя было просто на этапе продакшена вывести в картинку.
Понимаю, если бы телевизор динамически подстраивал контрастность в зависимости от освещения комнаты, вот это было бы полезно, наверно. Тут расширенная информация о hdr полезна была бы.
Потому что если вы при продакшне вкатите 16 бит на канал в файл, то получится малоконтрастное говно, на которое никто смотреть не захочет. У вас БУДУТ все детали, и на свету, и в тенях, вот только светов и теней почти не останется, всё будет равномерно размазано по гистограмме. Либо будет неествественно задран контраст и будет блёклое + бесцветно-контрастное говно.

А если сводить их в 8 бит на канал, то надо применять tone mapping и получится сюрреалистичная картина. Особенно это касается людей.



Конечно, можно сводить по разным алгоритмам и с разными коэффициентами, но результат всё равно немного непривычный.
Бессмысленно и беспощадно своей неестественностью. Короче в 8 бит ни фига не впихнешь при всем желании. Ждем нормальных матриц с расширенным диапазоном в широком доступе.
И? Если у нас телевизоры могут максимум 8 бит на канал, то не проще ли и контент для них поставлять в 8 бит на канал? А чем он снят, как редактирован и т.п. значения не имеет. Там вообще может быть 32 бита с плавающей точкой. Пока это всё похоже на маркетинговый буллшит.
Полностью поддерживаю про маркетинговую лапшу, экосистема слишком затратная, и мало толку для обычных людей. 'На будущее' вваливать много баксов в телик который будет с хорошей картинкой 'вот как остальная индустрия поддтянется' это для тех кто мерился диагоналями своей плазмы лет 10 назад. Даже на ПК организовать себе рабочую станцию с поддежкой 10-битного цвета не ограничивается только покупкой HP dreamcolor, надо еще и правильную карты поставить и дрова.
Может видео обрабатывается как-то по особенному примитивно, но как полиграфист-цветокорректор я с вами не соглашусь. Все дело в последующей обработке. Если из 8-битного исходника ничего вытянуть нельзя, света так и останутся выбитыми, а тени проваленными, то из16-битного RAW, с помощью глобальной и локальной коррекции, можно вытянуть и тени, и света, и при этом средние тона не станут плоскими

В этом и заключается искусство цветокоррекции. Если человек не владеет приемами цветокоррекции, то будет как вы сказали, средне-серое говно, а если он профессионал – то на выходе будет сочная картинка с деталями по всему диапазону

Неестественная картинка из видео – типичный результат непрофессиональной обработки. Весь интернет завален подобным псевдо-HDR, его легко отличить даже по превьюшкам
Все верно, потому что профессиональные кинокамеры типа Red, Arri давно снимают в RAW с большим динамическим диапазономи в фильмах прекрасно это видно, когда например съёмка ведётся внутри помещения, персонаж стоит в тени комнаты перед выходом из двери, и за дверью видна улица с небом, и при этом и лицо персонажа прекрасно различимо, и деревья с небом за дверью не пересвечены. То что конкретно в этом видеоролике выбран дерьмовый алгоритм тонемеппинга — заслуга именно автора видео. К слову даже для canon есть прошивка magic lantern с поддержкой расширенного ДД и кучей бит в raw.

Непонятно только зачем для этого нужны ТВ с HDR? Чтобы опять сделать солнце слепящим, и от этого для глаз человек в тени был чёрным как негр? То есть от чего ушли, к тому и пришли?
Спасибо, успокоили, я в видео ничего не понимаю и чуть было не решил, что все видео хдр такое ужасное. А с телевизорами все понятно, модный способ продать подороже
Дело не в непрофессиональности, а в том, что HDR, по-честному, — это не 12/14/16 линейных бит из рава, а 32 плавающих после мультиэкспозиции и пересчета из нескольких равов, чтобы охватить всю сцену. Такой диапазон невозможно запихнуть в обычный дисплей (и не нужно).
«Запихивание» этого диапазона в обычный монитор – называется «обработкой исходных данных», которая в показанном видео отвратительная и непрофессиональная
«Запихивание» — алгоритм, он не может быть непрофессиональным. Никто руками ничего не будет подгонять под каждую ситуацию, это не рекламная ретушь и не кинематограф.
Значит алгоритм был выбран неподходящий, потому что сделал этот выбор дилетант
Наличие поддержки HDR предполагает и расширенный цветовой охват?
Если нет, то очень странно.
Зачем нужен HDR при записи фото/видео понятно, можно поиграть в постобработке. А вот зачем писать и передавать HDR на телевизор не понятно, если всё равно на выходе 24 бита. Нельзя заранее конвертнуть в 24 бита? Или телевизор подстраивает диапозон в зависимости от освещения в комнате и/или настроек пользователя? Этот момент в статье не раскрыт. Я бы доверил подстройкой заниматься профессионалу, автору, режиссёру, пусть творят. А не моим кривым рукам.
Вопрос в том, КАК конвертнуть в 24 бита. Вы же компрессию диапазона можете производить по-разному.
Тем более лучше чтобы это делали в студии, а не как производителю телевизора кажется лучше.
А тут нет «как лучше».

Можно сделать стандартно — ничего не обрезаем, сжимаем линейно. Телевизор с этим тоже прекрасно справится. Так ведь? Наличие дополнительных плюшек этому же не мешает.

Но на каком-то контенте какую-то ЦА воодушевит динамическое расширение диапазона. Причем, им больше понравится результат, выдаваемый на теликах А, нежели результат, выдаваемый на теликах Б. А другим — наоборот! А телики С вообще на два бита якобы физически больше могут отображать.

В чем плохо стремление апнуть существующие стандарты и дать возможность поставлять более качественный контент? Это же не отменяет возможностей показывать и смотреть как раньше.

>HDMI позволяет передавать сигнал, совместимый даже с аналоговым ч/б телевизором
Разве? Это же исключительно цифровой интерфейс.
Наверное, имелось ввиду, что он может передавать 480i

Помню на закате кинескопных телевизоров выбирал себе модель, там тоже были свои технологии, но как показала реальность, видео процессоры так настроены, что не способны передавать полутона. Тогда я это смотрел на простом примере, брал мультик "Ледниковый период" и смотрел как на снегу видно текстуру, в последних моделях снег рисовался как обычное, белое пятно (на плазмах таких проблем не было...). :D
Много времени конечно прошло с того момента, возможно с современными моделями сейчас подобная же картинка.

UFO just landed and posted this here
Мне тоже интересно. Смотреть дерганую картинку, не могу. Приходится пользоваться программами уплавнения.
К сожалению. Хотя было бы проще сразу снимать в 48/60p, и для «обычных людей», которым нравится слайдшоу, выкидывать половину кадров.
Но тогда все будет еще больше дергаться на низком фреймрейте же!
Сейчас же все смотрят на эту дерготню в 24p и «радуются». Даже то же евровиденье, которое снимается как 1080/50i, выкладывают с деинтерлейсом до 1080/25p и «радуются» этой дерготне, не понимая что вырезали половину движения.
Я о том, что, из-за выдержки, у вас будет сильно меньший motion blur на 24-кадровом видео, которое вы получили из 48-кадрового, и все будет визуально дергаться сильнее, чем если бы видео сразу снимали с частотой 24 кадра в секунду.
А люди, которые деинтерлейсят 50i в 25p, просто не разбираются.
Да, будет. Но так как изначально есть информация о 50 кадрах, то точно так же на основе неё можно расчитать вектора движения и применить программный motion blur, при этом точность будет заведомо выше, чем те вектора которые сейчас используются для построения промежуточных кадров из 25p->50p. То есть убиваем двух зайцев — в 50p получаем картинку без артефактов, в low framerate 25p получает картинку с программным блюром на основе движения, пусть даже с небольшими артефактами, но которых заведомо меньше чем при frc интерполяции 25->50.
UFO just landed and posted this here
Абсолютно верно.
И даже аналоговая техника прекрасно показывает плавное видео в виде interlaced контента 50/60Гц.
Проблема только в головах некоторых людей, которые застряли в начале 20 века в древних технологиях и не хотят вылезать из этого болота. По этой причине я не переношу кинотеатры с этим слайдшоу, а наслаждаюсь плавной картинкой на своём ТВ, и в гробу я видал эти честные 24p.
Никогда не понимал, зачем в играх делают этот HDR.
Человеческий глаз действительно адаптируется к изменению уровня освещенности, вопрос только как быстро?

Цитата из википедии: Наиболее полно изучены изменения чувствительности глаза человека при переходе от яркого света в полную темноту (так называемая темновая адаптация) и при переходе от темноты к свету (световая адаптация).
… Процесс темновой адаптации занимает несколько часов…
… Световая адаптация происходит значительно быстрее и занимает при средних яркостях 1-3 минуты…
eyesfor.me/home/anatomy-of-the-eye/retina/light-and-dark-adaptation.html
Да, разумеется, реально эффект от адаптации наступает быстрее, но реально эффект от темновой адаптации заметен через несколько минут.
Т.е. для того, чтобы увидеть этот эффект, нужно залезть в темный сортир минут на 15 (тьма отступит, и можно будет видеть серые водопроводные трубы и, пардон, унитаз), а потом резко выйти и наслаждаться эффектами адаптации глаза в течении нескольких секунд. Далее, если снова заглянуть в этот сортир на пару секунд, там снова будет кромешная тьма — потому что цикл темновой адаптации толком еще не запустится.
Если мотать головой туда-сюда, заглядывая то в темный сортир, то в ярко освещенный коридор, эффектов адаптации не видно вообще (я, во всяком случае, их не вижу). Получается, что эти эффекты адаптации — столь редко встречающаяся вещь, что ее вообще не стоит делать.

Я не спорю, что после какой-то обработки фотошопом картинки она выглядит сочнее и лучше. Но в компьютерных играх «фотошоп» автоматизированный, и то, что он иногда выдает, особенно при не очень прямых руках программистов, вряд ли можно назвать приятной на глаз картинкой и произведением искусства (потому что искусство — оно… хм, штучное). Впечатление такое, что эти эффекты — просто маркетинговый трюк для привлечения внимания, типа смотрите, какой хороший скриншот (с какой-то удачной позиции), графика- 10 из 10! А в динамике все это выглядит ужасно и быстро утомляет. В последнее время (примерно 2-3 года), правда, игры делать стали лучше, но еще недавно обилие ужасных спецэффектов просто утомляло.
Что будет с этим телевизорным фотошопом — вопрос…

Сделайте фотографию из окна так, чтобы захватить часть комнаты и яркое небо в солнечный полдень. Сравните количество деталей в тенях (или светах, смотря как проэкспонируете) с тем, что видите глазами.

RicardoGonsales прав. Это в фотографиях HDR проходит через реальный tonemapping, что позволяет не допустить клиппинга в тенях и пересветах, а в играх наоборот, включение режима «HDR» делает всё в тенях чёрным, а небо пересвеченным.
Была статья про это здесь, что у игроделов извращённое понимание HDR — https://habrahabr.ru/post/238425/, пример в виде чайника в конце статьи наглядно показывает это.

Речь не о адаптации, а о том что у глаза шире динамический диапазон — т.е. способность различать темные оттенки И светлые оттенки одновременно находящиеся в поле зрения. Даже без учета подстройки. С ней диапазон вообще где-то порядка 1к100 000


Выше простейший пример как в этом убедиться — глазом нормально видно детали и яркого пейзажа залитого солнцем за окном и слабо освещенные внутренности дома. А при попытке сфотографировать или снять на видео — либо детали внутри, а окно почти чисто белый прямоугольник, либо все детали за окном, но обстановка внутри тонет в тенях.

Совсем недавно разбирался с современными наворотами ТВ 2016 года. HDR и UHD это «фишки» сезона. От 3D отказались многие производители.

Для честного HDR нужна честная 10-битная матрица :) что есть в топовых матрицах LG и Samsung 2016 года. На около топовых матрицах используют 8-битные матрицы + техническое волшебство (FRC), что позволяет увеличить цветовой охват матрицы.

И да, матрицы для телевизовор с поддержкой HDR должны быть с увеличеных цветовым охватом. В спецификациях указывают процент покрытия диапазона Rec. 2020.

Неправда что только топовые ТВ могу воспроизводить HDR контент. Декодировать HDR могу практически все UHD ТВ 2016 года, но вот честно его отображать только топовые :) Это у них во всех рекламах, чем отличается шильдик «HDR Pro» от «HDR Ultra». Честные 10 бит у LG это OLED и 9 серия, 7-8 серии это 8bit+волшебство, 6я серия может только декодировать.

Только вот контента в HDR или DolbyVision раз-два и обчёлся.
FRC это же не про цвета/HDR, это интерполятор кадров.
Я то же не совсем понимаю что это :) поэтому — «магия». Правильно пишется A-FRC (дезеринг), описание самой технологии не нашёл. Как понимаю это своеобразная интерполяция 10битного сигнала на 8битную матрицу.
Да, так и есть. Субпиксель быстро мигает разными уровнями яркости для получения некоторого среднего за счет «запаздывания» глаза.
ШИМ-эмуляция, короче. Везде обман)

А между кадрами меняются цвета пикселей и за счет этого "эмулируется" большее их количество, чем реально может отобразить матрица.


Допустим матрица 6 бит, т.е. реально может отобразить 64 оттенка(градаций яркости) каждого из основных цветов.
Нам для какой-то точки нужно отобразить яркость записанную как 231 в исходом 8бит сигнале. На 6 бит это будет 231/4 = 57.75. Но 57.75 вывести невозможно — нужно выбрать либо 57 либо 58. Проще всего округлить (в данном случае берем 58) и потерять тонкие цвета/оттенки.


А можно "обмануть" глаз: 3 кадра выводим пиксель(субпиксель) яркостью 58, а 4й кадр яркостью 57. Повторяем по кругу.
Глаз яркости усреднит (т.к. у него инерция выше чем у матрицы) и для него эта точка будет примерно соответствовать яркости 57.75.
В результате эмулируем 256 градаций имея в реальности всего 64.

UFO just landed and posted this here
UFO just landed and posted this here
Кто бы еще делал «телевизор» без всякой начинки (и, соответственно, дешевле). Чтобы просто был монитор дюймов на 40 с пачкой входов. Без всяких говносмартов и прочих ущербных технологий.
А посмотрите сколько стоят 40 дюймовые мониторы с 4к.
Получается купить телефизор с «говносмартом и прочими ущербными технологиями» дешевле чем просто монитор без этих технологий.
Вот я и говорю, что надо телевизор без смарта. А монитор стоит больше из-за лучшей матрицы. Но телевизор не монитор и его не смотрят с полметра, а смотрят с дивана.
А гора пультов на журнальном столе вас не будет смущать? Один от телевизора, другой от медиаплеера, третий от ресивера или еще чего-нибудь. Если не жаться и не покупать самые дешевые смарты, то надо полагать, там не такие уж и ущербные технологии. Тот же Анндроид встроенный сейчас пожалуйста…
Нет, гора пультов не смущает. У вас есть пульт от монитора? У меня нету. Вот и телевизор должен быть монитором с динамиками. Один раз его включить, потом остается только пульт от приставки/медиаплеера/компа/чего-у-вас-там. Кстати, HDMI-CEC уже давно придумали. Только опять, хреновы упоротые маркетоиды всё извращают и делают кусу несовместимых «Super-Duper-Control», которое нормально работает только если вся техника от одного вендора.
Kodi как источник на все случаи жизни. Пульт — любой телефон или планшет в доме
Управлять телефоном, по-моему, — это сомнительное удовольствие.
Нет проблем прикрутить инфракрасный приемник. Но это надо будет все время один пульт искать. А телефон всегда с собой. И управлять можно из соседней комнаты, включаю мультфильмы детям. И обратная связь со всеми плюшками. Реально удобнее.
image
image
Читаю комментарии — все пишут зачем этот HDR… А я давно ждал его. Как по мне, для него идеально подходят AMOLED матрицы, к примеру на современных телефонах с этими матрицами я отчетливо вижу «ступеньки» в градиентах — очевидно не хватает градаций цвета. Но все равно мне очень нравится смотреть на нем фильмы, особенно по ночам — солнце реально слепит, тени очень правдоподобные, хотя опять же видны эти ступеньки на градиентах.
Вот для этого и нужна возможность вывода хотя бы 10-битного цвета.
Ступеньки на градиентах вполне можно задавить дизерингом на этапе продакшна. Если видны ступеньки, значит либо съёмка велась сразу в 8 битах, либо материал некачественно пожат. Хотя непосредственно на телевизоре дизеринг 10-битного изображения получится ещё лучше за счёт повышения временного (а то и пространственного) разрешения, разница уже не будет так бросаться в глаза.
Дизеринг так же заметен. Слишком высокий контраст у амоледов. В любом случае дизеринг как решение можно рассматривать, но если HDR формат лучше и качественнее, то почему бы и нет?
А сколько бит показывает сама матрица?
Сложно сказать. Но на минимальной яркости она отображает все 8 бит. На максимальной естественно, тоже. А так как яркость там регулируется не подсветкой сзади, а самими пикселями (то есть по сути тот же механизм, что и обычный цветовой переход), то битность этой матрицы должна быть очень высокой.
Да, ждем 32 бита на канал, чтоб если 4 миллиарда у всех трех каналов — прям дырки в глазах выжигало и можно было воблу вялить перед телеком в дождь, заряжая пару электромобилей в квартире от солнечных панелей на халяву. И самое главное, что бы кушало не больше ватт шестидесяти.

Если серьезно — смотришь на эти панели — да, красиво рекламка крутиться. Ярко. Но моск все равно дорисовывает все за нас. Вы вспомните, сколько ч/б фильмов, которые все отлично знают и помнят детали, и сколько голливудского «экшена», о котором не вспомнишь через пару часов?
Когда-то, лет 10 с лишним назад, когда был первый FarCry, вышли новые радеоны с поддержкой 128 битного цвета для поддержки HDR, что было у НВ не помню. И для игры был патч, позволяющий это все увидеть, и это все я попробовал и увидел на своем FX5900… нам хотят второй раз продать то что уже было сделано раньше?
Sign up to leave a comment.