В MacOS, насколько я знаю, масштаб отрабатывает практически идеально. В Windows любой масштаб, отличный от 100%, приводит к весьма неприятным артефактам во многих приложениях - мылу, линейной интерполяции, съехавшему тексту и т.д. Только новые программы масштабируются хорошо. Поэтому пользователи Windows осторожнее относятся к масштабированию интерфейса.
Погуглил, спасибо. Видимо, эта штука доступна только при использовании реального физического монитора. Хотя странно, по идее это довольно простой алгоритм.
Кстати, всегда интересно было - существуют ли какие-нибудь программные средства, чтобы я мог, например, на экране 4К выставить разрешение 1080p, и при этом картинка бы растягивалась методом ближайшего соседа, а не интерполяцией? Я предполагаю, что это должен быть какой-то драйвер виртуального монитора, или что-то в этом духе.
Для игр тоже. Зависит от разрешения. Если для FullHD хватит "полузатычки", то для 8К нужна как раз топовая видеокарта. А есть ситуации, когда даже две топовые не спасут, и в играх всё равно будет низкий fps.
Это одна из систем защиты телевизора от выгорания - периодически (раз в минут 30) изображение смещается на несколько пикселей. На большом экране сдвиг на 1 мм можно заметить только в случае, если в момент сдвига глаза смотрели на мелкий текст.
Эта функция отключаема, но, как показала практика, через пару недель перестаешь это замечать.
Если говорить просто, то существует два вида 10-битности.
Есть 10-битность профессиональных мониторов, которая, условно говоря, при том же цветовом охвате даёт большую точность - поэтому градиенты гладкие. Крутые мониторы с козырьком для работы с фотографиями - это оно. Разумеется, цветовой охват там может быть и шире, и яркость выше, но в приоритете - отсутствие бандинга, то есть ситуации, когда градиенты разваливаются на ярко выраженные полоски.
А есть 10-битность для HDR - здесь точность примерно такая же, а сам диапазон увеличен.
Расширение числа градаций и расширение диапазона интенсивности - два несвязанных параметра
Восприятие яркости логарифмическое - переход от 300 кд/м на 1000 кд/м ощущается намного сильнее, чем с 1000 кд/м на 2000 кд/м. В любом случае, лучше, как Вы и сказали - именно смотреть, т.е. вживую сравнить 1000 кд/м и 2000 кд/м, и решить нужно оно Вам или нет.
PS. 5000 кд/м тоже уже существуют, только 27" пока не делают.
Существуют референсные ЖК мониторы для производства HDR контента - они умеют в большую яркость по всей площади, и в хороший чёрный цвет - это достигается, насколько я знаю, локальным затемнением подсветки и двумя слоями ЖК кристаллов. Но это, понятное дело, не массовый продукт.
Вы говорили, что чувствительность настраивается мозгом, а в статьях пишут что все таки - светом. И как тогда может одна палочка настроиться так, а другая иначе, если общая освещенность у них у всех одинакова и определяется текущим раскрывом зрачка и текущим фотохимическим состоянием.
Надеюсь, Вы ненамеренно исказили смысл моих слов. Я писал о том, что
разные рецепторы на сетчатке глаза могут быть настроены на разную чувствительность в один момент времени, и эта дополнительная информация об их настройке чувствительности тоже попадает в мозг
Здесь нет ничего о том, что их настраивает мозг. Они подстраиваются сами, мозг просто получает информацию об этом. Более того, освещенность у них неодинаковая, потому что на них попадает разное количество света от разных частей проецируемой через хрусталик картинки.
Одновременно смотреть на солнце и различать отдельные фотоны глаз НЕ МОЖЕТ!
Вы сами выдвинули это утверждение, и сами же его опровергли. Я не говорил о том, что глаз одновременно может видеть солнце и видеть отдельные фотоны.
Если вам трудно это понять, то предлагаю аналогию с фотоаппаратом и его диафрагмой. У фотопленки есть определенный диапазон чувствительности (допустим, те самые 7 бит как у глаза). С помощью диафрагмы (зрачка) мы изменяем интенсивность светового потока так, чтобы все яркостные точки картинки, и самая слабая и самая сильная - уложились в этот диапазон. От положения самой диафрагмы - мы НЕ СМОЖЕМ извлечь никакой новой информации из изображения, кроме ее общей освещенности, которую мы и так получаем от самого изображения на фотопленке. Если у фотопленки чувствительность от 0 до 127, то НИКАКИМИ другими способами мы не сможем ее сделать от 0 до 256 или до 512, хоть ты тресни.
На всякий случай повторюсь
мой тезис о том, что человек видит 10 бит и 12 бит, основывается на утверждении, что разные рецепторы на сетчатке глаза могут быть настроены на разную чувствительность в один момент времени, и эта дополнительная информация об их настройке чувствительности тоже попадает в мозг.
То есть, если бы глаз имел одинаковую по всей сетчатке чувствительность, то тогда бы Ваша аналогия с камерой была бы верна.
Попробуйте в солнечный день посмотреть на автомобиль, половина которого находится в тени, а вторая на солнце. Вы одновременно сможете разглядеть обе половины. Однако, часть, находящаяся на солнце, может быть в 10 и более раз ярче той, которая находится в тени. Эту яркость можно измерить специальными приборами, это вполне известный факт.
Если бы, как Вы утверждаете, наш глаз имел столь узкий диапазон чувствительности, мы бы либо могли видеть то, что в тени, а остальное было бы засвечено, либо видели бы только то, что на солнце, а остальное бы представлялось нам, как темнота. Так происходит у обычных камер, но не у глаза.
Вы можете самостоятельно измерить прибором яркость разных объектов на улице в солнечный день, и убедиться, что Ваш глаз увидит их одновременно, и при этом их яркость будет отличаться на порядок.
Но, поскольку это не так, и глаз может регулировать чувствительность отдельных рецепторов, Ваша аналогия не является верной.
P.S.А ТВ по цене жигулей (Филипс) - он был хорош не только картинкой. Перед включением дома я его открыл для "посмотреть куда там вставляется киноплёнка" :) (хотел пропылесосить, но он оказался чистым). И в итоге просто любовался качеством разработки и сборки - настолько внутренности не были похожи на "масссектор", на тему аппаратуры для аэро.космич. применение - да (но без крайностей).Но... это всё время/материалы/расходы=UP себестоимость...
С таким подходом сейчас тоже делают технику. Судя по описанию, смахивает на референсный монитор. То есть сравнивать это надо с чем-то таким.
Любой учебник по телевидению, рекомендую Джаконию, стр. 35-36
Спасибо.
Ок, зафиксируем: мой тезис о том, что человек видит 10 бит и 12 бит, основывается на утверждении, что разные рецепторы на сетчатке глаза могут быть настроены на разную чувствительность в один момент времени, и эта дополнительная информация об их настройке чувствительности тоже попадает в мозг. По этой же причине яркие объекты "отпечатываются" на сетчатке и "висят" на изображении ещё некоторое время после того, как само воздействие пропадёт.
Если вкратце - интенсивное воздействие света на рецептор расщепляет в нём то вещество, которое, собственно, ответственно за чувствительность, поэтому чувствительность конкретно этого рецептора постепенно снижается. Если воздействие света убрать - вещество постепенно восстанавливается. Этот фотохимический процесс происходит в каждом рецепторе независимо. В гугле можно найти много всего (раз, два, три, например).
Адаптация фоторецепторов - это не привилегия глаза. Так делают почти все рецепторы в нашем организме.
Это как заявить что у человека одна часть кожи распознает температуру от -20 до +60 С, а другая от -20 до +6000 С. Соответственно, все ваши дальнейшие рассуждения на основании этого крайне сомнительного утверждения также сомнительны.
Данная аналогия неверна, потому что восприятие температуры у человека
а) почти линейно
б) лежит в весьма узком диапазоне - условно говоря, от -60 до 60 С
Яркость же воспринимается человеком не линейно, а по логарифмической шкале, и воспринимается в очень большом диапазоне - от почти 0 кд/м² (ходят споры о способности человека различать отдельные фотоны, но лягушки так умеют - доказано) до1000 000 000 кд/м² (!), но, справедливости ради, всё, что ярче 100 тысяч кд/м² вызывает боль. Кд/м², в данном случае, не совсем правильная единица измерения, но представим, что речь о мониторе на расстоянии 2 метра.
Кожа тоже может иметь разную чувствительность. Есть классический эксперимент: берете стакан горячей воды, стакан холодной воды и стакан с обычной водой. Палец одной руки окунаете в стакан горячей воды, палец другой руки окунаете в стакан холодной воды и держите так 1 минуту. Затем одновременно окунаете пальцы в стакан с нейтральной водой. Одному пальцу будет холодно, второму тепло. Потому что у рецепторов сместился диапазон измерений - они адаптировались.
В целом я согласен с Вами: данные технологии - это всего лишь инструмент. Это необходимое, но недостаточное условие для получения качественной картинки. Популяризация технологии всегда увеличивает процент непрофессионального использования этой технологии - отсюда растут ноги различных трижды перекодированных FullHD с битрейтом 2 Мбит/с и дешёвых ТВ с псевдо-4К и неравномерной подсветкой. Однако, профессионалам технология развязывает руки, благодаря чему они могут создавтаь всё более и более качественные вещи.
Насколько я понимаю, CRT на тот момент была на пике технологического развития, перед забвением. CRT тех времён, на мой взгляд, правильнее сравнивать не с "обычными современными ТВ", а с топовой плазмой, и, в случае современных реалий, с топовыми OLED и MicroLED телевизорами. "CRT по цене жигулей" - это, на мой взгляд, почти одноклассник современного "110-дюймового MicroLED". То есть ошибочно сравнивать High-End продукт с продуктом другого класса, даже если один из прошлого, а второй из будущего.
Отмечу, ролик про ШИМ я отрендерил в разрешении 1920х1080, но загрузил на YouTube в апскейле до 3840х2160 как раз из-за низкого битрейта. Если на экране FullHD сравнить видео YouTube в разрешениях 1080p и 4K, разница будет весьма заметна. Так что я прекрасно Вас понимаю :)
У меня у самого есть одна из самых последних плазм Panasonic - картинка на ней тоже кое-чем лучше, чем у OLED. Потому что технология была на пике развития.
У меня была мысль отключить эти смещения и сделать их программно средствами компьютера (в драйвере, например), или телевизора, и, самое главное - сделать их плавными и медленными. Но через две недели я просто перестал их замечать. Поэтому, скорее всего, они просто не такие страшные, как на первый взгляд кажется с непривычки.
Что касается градиентов - да, подтверждаю, эта проблема есть. Теоретически, кстати, телевизор может их сгладить благодаря четырём субпикселям, но практически это не реализовано.
В MacOS, насколько я знаю, масштаб отрабатывает практически идеально. В Windows любой масштаб, отличный от 100%, приводит к весьма неприятным артефактам во многих приложениях - мылу, линейной интерполяции, съехавшему тексту и т.д. Только новые программы масштабируются хорошо. Поэтому пользователи Windows осторожнее относятся к масштабированию интерфейса.
Позвольте спросить, какой у Вас коэффициент масштабирования интерфейса?
Не задумывались о виртуальной машине?
Боюсь, что две тысячи километров мало, чтобы спастись от Йеллоустоуна :)
Серия RTX 3000. Я думал, драйвер старый, но нет - там уже оно есть.
Погуглил, спасибо. Видимо, эта штука доступна только при использовании реального физического монитора. Хотя странно, по идее это довольно простой алгоритм.
Должно быть так
А у меня так
Кстати, всегда интересно было - существуют ли какие-нибудь программные средства, чтобы я мог, например, на экране 4К выставить разрешение 1080p, и при этом картинка бы растягивалась методом ближайшего соседа, а не интерполяцией? Я предполагаю, что это должен быть какой-то драйвер виртуального монитора, или что-то в этом духе.
Для игр тоже. Зависит от разрешения. Если для FullHD хватит "полузатычки", то для 8К нужна как раз топовая видеокарта. А есть ситуации, когда даже две топовые не спасут, и в играх всё равно будет низкий fps.
Это одна из систем защиты телевизора от выгорания - периодически (раз в минут 30) изображение смещается на несколько пикселей. На большом экране сдвиг на 1 мм можно заметить только в случае, если в момент сдвига глаза смотрели на мелкий текст.
Эта функция отключаема, но, как показала практика, через пару недель перестаешь это замечать.
Если говорить просто, то существует два вида 10-битности.
Есть 10-битность профессиональных мониторов, которая, условно говоря, при том же цветовом охвате даёт большую точность - поэтому градиенты гладкие. Крутые мониторы с козырьком для работы с фотографиями - это оно. Разумеется, цветовой охват там может быть и шире, и яркость выше, но в приоритете - отсутствие бандинга, то есть ситуации, когда градиенты разваливаются на ярко выраженные полоски.
А есть 10-битность для HDR - здесь точность примерно такая же, а сам диапазон увеличен.
Я правильно понимаю, что проблема, на которую Вы указывается, заключается в сложности достать качественный 4K контент?
Буква Q в начале как-бы намекает на не совсем обычный ЖК экран :)
Восприятие яркости логарифмическое - переход от 300 кд/м на 1000 кд/м ощущается намного сильнее, чем с 1000 кд/м на 2000 кд/м. В любом случае, лучше, как Вы и сказали - именно смотреть, т.е. вживую сравнить 1000 кд/м и 2000 кд/м, и решить нужно оно Вам или нет.
PS. 5000 кд/м тоже уже существуют, только 27" пока не делают.
Существуют референсные ЖК мониторы для производства HDR контента - они умеют в большую яркость по всей площади, и в хороший чёрный цвет - это достигается, насколько я знаю, локальным затемнением подсветки и двумя слоями ЖК кристаллов. Но это, понятное дело, не массовый продукт.
Не думали поставить механику? :)
Надеюсь, Вы ненамеренно исказили смысл моих слов. Я писал о том, что
Здесь нет ничего о том, что их настраивает мозг. Они подстраиваются сами, мозг просто получает информацию об этом. Более того, освещенность у них неодинаковая, потому что на них попадает разное количество света от разных частей проецируемой через хрусталик картинки.
Вы сами выдвинули это утверждение, и сами же его опровергли. Я не говорил о том, что глаз одновременно может видеть солнце и видеть отдельные фотоны.
На всякий случай повторюсь
То есть, если бы глаз имел одинаковую по всей сетчатке чувствительность, то тогда бы Ваша аналогия с камерой была бы верна.
Попробуйте в солнечный день посмотреть на автомобиль, половина которого находится в тени, а вторая на солнце. Вы одновременно сможете разглядеть обе половины. Однако, часть, находящаяся на солнце, может быть в 10 и более раз ярче той, которая находится в тени. Эту яркость можно измерить специальными приборами, это вполне известный факт.
Если бы, как Вы утверждаете, наш глаз имел столь узкий диапазон чувствительности, мы бы либо могли видеть то, что в тени, а остальное было бы засвечено, либо видели бы только то, что на солнце, а остальное бы представлялось нам, как темнота. Так происходит у обычных камер, но не у глаза.
Вы можете самостоятельно измерить прибором яркость разных объектов на улице в солнечный день, и убедиться, что Ваш глаз увидит их одновременно, и при этом их яркость будет отличаться на порядок.
Но, поскольку это не так, и глаз может регулировать чувствительность отдельных рецепторов, Ваша аналогия не является верной.
С таким подходом сейчас тоже делают технику. Судя по описанию, смахивает на референсный монитор. То есть сравнивать это надо с чем-то таким.
Определённо, это не массовый сегмент :)
А ещё ходят слухи, что рецепторы глаза умеют ползать.
Спасибо.
Ок, зафиксируем: мой тезис о том, что человек видит 10 бит и 12 бит, основывается на утверждении, что разные рецепторы на сетчатке глаза могут быть настроены на разную чувствительность в один момент времени, и эта дополнительная информация об их настройке чувствительности тоже попадает в мозг. По этой же причине яркие объекты "отпечатываются" на сетчатке и "висят" на изображении ещё некоторое время после того, как само воздействие пропадёт.
Если вкратце - интенсивное воздействие света на рецептор расщепляет в нём то вещество, которое, собственно, ответственно за чувствительность, поэтому чувствительность конкретно этого рецептора постепенно снижается. Если воздействие света убрать - вещество постепенно восстанавливается. Этот фотохимический процесс происходит в каждом рецепторе независимо. В гугле можно найти много всего (раз, два, три, например).
Адаптация фоторецепторов - это не привилегия глаза. Так делают почти все рецепторы в нашем организме.
Данная аналогия неверна, потому что восприятие температуры у человека
а) почти линейно
б) лежит в весьма узком диапазоне - условно говоря, от -60 до 60 С
Яркость же воспринимается человеком не линейно, а по логарифмической шкале, и воспринимается в очень большом диапазоне - от почти 0 кд/м² (ходят споры о способности человека различать отдельные фотоны, но лягушки так умеют - доказано) до 1000 000 000 кд/м² (!), но, справедливости ради, всё, что ярче 100 тысяч кд/м² вызывает боль. Кд/м², в данном случае, не совсем правильная единица измерения, но представим, что речь о мониторе на расстоянии 2 метра.
Кожа тоже может иметь разную чувствительность. Есть классический эксперимент: берете стакан горячей воды, стакан холодной воды и стакан с обычной водой. Палец одной руки окунаете в стакан горячей воды, палец другой руки окунаете в стакан холодной воды и держите так 1 минуту. Затем одновременно окунаете пальцы в стакан с нейтральной водой. Одному пальцу будет холодно, второму тепло. Потому что у рецепторов сместился диапазон измерений - они адаптировались.
В целом я согласен с Вами: данные технологии - это всего лишь инструмент. Это необходимое, но недостаточное условие для получения качественной картинки. Популяризация технологии всегда увеличивает процент непрофессионального использования этой технологии - отсюда растут ноги различных трижды перекодированных FullHD с битрейтом 2 Мбит/с и дешёвых ТВ с псевдо-4К и неравномерной подсветкой. Однако, профессионалам технология развязывает руки, благодаря чему они могут создавтаь всё более и более качественные вещи.
Насколько я понимаю, CRT на тот момент была на пике технологического развития, перед забвением. CRT тех времён, на мой взгляд, правильнее сравнивать не с "обычными современными ТВ", а с топовой плазмой, и, в случае современных реалий, с топовыми OLED и MicroLED телевизорами. "CRT по цене жигулей" - это, на мой взгляд, почти одноклассник современного "110-дюймового MicroLED". То есть ошибочно сравнивать High-End продукт с продуктом другого класса, даже если один из прошлого, а второй из будущего.
Отмечу, ролик про ШИМ я отрендерил в разрешении 1920х1080, но загрузил на YouTube в апскейле до 3840х2160 как раз из-за низкого битрейта. Если на экране FullHD сравнить видео YouTube в разрешениях 1080p и 4K, разница будет весьма заметна. Так что я прекрасно Вас понимаю :)
У меня у самого есть одна из самых последних плазм Panasonic - картинка на ней тоже кое-чем лучше, чем у OLED. Потому что технология была на пике развития.
У меня была мысль отключить эти смещения и сделать их программно средствами компьютера (в драйвере, например), или телевизора, и, самое главное - сделать их плавными и медленными. Но через две недели я просто перестал их замечать. Поэтому, скорее всего, они просто не такие страшные, как на первый взгляд кажется с непривычки.
Что касается градиентов - да, подтверждаю, эта проблема есть. Теоретически, кстати, телевизор может их сгладить благодаря четырём субпикселям, но практически это не реализовано.