Pull to refresh

Comments 135

По опыту DP 1.4 умеет больше, чем 144 Гц. Мой пример: 5120х1440 на 240 Гц по единственному DP 1.4, причем как на AMD, так и на Nvidia. 5120х1440 всего на 11% меньше, чем 4K.

Видимо, DSC. Я не знаю как увидеть насколько он "жмёт".

Кстати, некоторые мониторы поддерживают глубину цвета не 8 бит, а все 10. Но с поддержкой в ОС и стандартизацией тоже всё плохо.

Вот и выходит, что во всех сферах, связанных с графикой, все сидят на apple, а при необходимости других компонентов платят больше

Не столько плохо, сколько зачастую не нужно даже в профессиональных приложениях. Всё дело в том, что 10-битный цвет на 8-битном мониторе прекрасно имитируется дизерингом. При высокой плотности пикселей человек в принципе не сможет увидеть разницу. А если нет разницы, то зачем платить больше?

У меня, кстати, 10-битный монитор. Операционная система его поддерживает и я действительно вижу разницу в градиентах в видеоплеере или просмотрщике изображений:

https://github.com/jursonovicst/gradient

Но вот поддержка со стороны софта отсутствует почти полностью.

Да и ещё один фактор — это вычислительная сложность при работе с 10-битным цветом.

Короче, не стоит оно того.

В каком цветовом пространстве? Переход на bt2020 должен дать огромное количество новых цветов, особенно в районе зелёного. На специально подготовленных роликах разница потрясающая.

В каком цветовом пространстве?

DCI-P3

Переход на bt2020 должен дать огромное количество новых цветов, особенно в районе зелёного.

Новые цвета достигаются не за счёт повышения разрядности, а за счёт расширения цветового охвата.

Смысл в разрядности тоже есть, но немного в другом: для корректного отображения sRGB изображений на таком мониторе придётся делать ужимающее преобразование, градиенты могут выглядеть некрасиво без дизеринга.

Понятно, что за счёт охвата, но увеличивать охват без увеличения разрядность- это путь в никуда, градиенты будут ужасными.

@amaraoКак красноглазик красноглазику советую https://tomverbeure.github.io/video_timings_calculator чтобы не компилять патченный cvt.

Все современные ЖК поддерживают CVT-RBv2, поэтому на полосе пропускания за счёт сокращения избыточных интервалов синхронизации (которые выражаются в пикселях по вертикали и горизонтали) можно круто сэкономить. На некоторых мониторах можно не следовать стандарту и сэкономить ещё сильнее, но это надо проверять с каждой моделью индивидуально.

Да, я именно его и использовал для трюков с 75Гц.

Да, с подключением мониторов всё еще хуже, чем с зарядкой. Опять же, сравнивая со старым добрым VGA, всё стало лучше по качеству, но сложнее.

На днях сапгрейдил домашний компьютер, купил Ryzen 5 5600G и материнку Asus на A520 с выходами HDMI и DP - так столько кривизны повылезало 8-()

Монитор Philips 328P6 - поддерживает HDMI, DP, VGA, USB-C 3.1 Gen 1 (DP alt mode)

- по hdmi почему-то видятся разрешения вплоть до 4К, хотя монитор только 2К.
- при попытке поставить 75 Гц монитор тухнет, хотя на другом компьютере такую частоту выводит отлично;
- пытаюсь включить HDR (монитор это умеет, и 10-бит тоже), получаю блеклую картинку;
- изображение периодически подергивается и моргает;

Кабели HDMI поперебирал, эффекта нет. В итоге подключил по DP, всё вроде нормально...

У меня второй монитор подключён: видеокарта, пассивный переходник DP-HDMI, кабель hdmi-hdmi, пассивный переходник hdmi- dvi-d, монитор.
Если использовать hdmi вход на мониторе, он не выключается вместе с ПК, если использовать выход hdmi на видеокарте(который нормально работает с основным монитором), то периодически появляются обрывы звука на втором мониторе.
Переходники дешёвые китайские.

Если у вас встройка АМД, там в настройках есть виртуальное сверхвысокое разрешение. Те самые 4к на 2к монике. Я так и не понял зачем оно мне, ну кроме как UI на 4к потестить.

Зачем на встройке я не знаю, но на дискретке это используется для некоторых игр, чтобы картинка рендерилась в 4к и даунскелилась в 1440 ну или 1080. Там правда вылазят как раз траблы с UI и шрифтами, но это уже совсем другая история))

Сглаживание 2х не тоже самое делает, только оптимальнее?

сглаживание разным бывает. MSAA, adaptive MSAA, SSAA, не говоря уж о новомодных.
В целом да, SSAA будет тоже самое, только даунскейл правильнее. Если конечно игра захочет с ним работать.

- пытаюсь включить HDR (монитор это умеет, и 10-бит тоже), получаю блеклую картинку;

Это потому, что софт (включая интерфейс винды) не умеет в HDR.
Запустите игру или видеоплеер с HDR и всё будет ок.
Да, постоянно включать\выключать HDR напрягает. Но madvr умеет включать HDR через nvidia, а не виндовый API, это частично снимает проблему, но не для вашего случая.

- изображение периодически подергивается и моргает;

имел похожую проблему с lg49nano866na на gtx1060, gtx1080, другой gtx1080 на другом компе, rtx2070 ноутбучной, rx580. На 1 кадр вылезали розовые помехи на экран. А вот на rtx3080ti всё ок.

- пытаюсь включить HDR (монитор это умеет, и 10-бит тоже), получаю блеклую картинку;

Это потому, что софт (включая интерфейс винды) не умеет в HDR.

Нет, проблема в чём-то другом. У меня на телевизоре в режиме HDR цвета интерфейса нормальные. Винда 10/11 рисует интерфейс в основном в SDR, затем преобразует в HDR.

Может быть проблема в формате, в цветовом профиле, взаимной несовместимости, и пр.

У меня - в интерфейсе ;) Цветовой профиль монитора загружен, драйвера ставились разные - и предлагаемые виндой и с сайта АМД.

А по DP в HDR цвета интерфейса нормальные?

При подключении по DP варианта включить HDR нет ;(

В тему будет упоминуть что HDMI 2.1 бывает ненастоящий.
https://3dnews.ru/1055813/publikatsiya-1055813
P.S. Я вас понимаю у меня 4k 120гц HDMI 2.1 VRR Правда я покупал ради фильмов и игр, но в работе тоже заметил приятную плавность.
А ещё бы я упоминул наличие бесплатного VRR в HDMI 2.1(правда не всегда).

Прочитал.
Да что же это за расстройство такое в последнее время со "стандартами"?! Вместо того, чтобы давать потребителю простую метку, глядя на которую можно сходу определить, что за устройство — меняют обозначения задним числом, делают стандарт "гибким", и порождают целый ворох необязательных "расширений", которые теперь нужно отдельно выискивать.
Ладно консорциум USB, эти уже давно так. Но и HDMI теперь такой же.

Согласно Вики HDMI 2.1 умеет:
для стандартного видео:


  • 4K (3840x2160) — up to 144Hz (up to 240Hz with DSC (т.е. с компрессией))
  • 5K (5120x2880) — up to 60Hz (up to 120Hz with DSC)
  • 8K (7860x4320) — up to 30Hz (up to 120Hz with DSC)

для видео с HDR-10:


  • 4K (3840x2160) — up to 144Hz
  • 5K (5120x2880) — up to 60Hz (up to 120Hz with DSC)
  • 8K (7860x4320) — up to 30Hz (up to 120Hz with DSC)

Я сейчас перепроверил - как-то всё странно. Одни говорят - 144Гц, другие - 120. В доках к моему монитору сказано "через HDMI - только 120Гц".

Табличка явно не совсем корректная.
1)у меня hdmi 2.0 работало 2160p hdr 60fps и в настройках стояло RGB(правда я не проверял что по факту выводилось на монитор) а судя по табличке должно быть ycbcr420
2)для не HDR пишут 2160p 75гц ycbcr 420, хотя у меня работало ycbcr 422 100гц
видеокарта gtx1080

1)у меня hdmi 2.0 работало 2160p hdr 60fps и в настройках стояло RGB(правда я не проверял что по факту выводилось на монитор) а судя по табличке должно быть ycbcr420

8 бит с дизерингом. У меня так ТВ подключён - 4K, HDR, 60 Гц, 8 бит при HDMI 2.0(RTX 2070 и сам ТВ больше не умеют). Если понизить герцовку до 30, автоматически переключается в режим 12 бит. Пробовал YCbCr420, но там разрядность цветов страдает. Дизеринг хотя бы визуально не заметен.

8 бит с дизерингом

в смысле 8+2=10bit или 6+2=8?
У меня вроде 1-й вариант работал

Вывод на ТВ - RGB 8 бит. Я так понимаю, сигнал из 10-битного HDR дизерится до 8-битного средствами винды/видеокарты для отправки по HDMI. Вечером могу уточнить.

я не слышал про дизеринг средствами ОС. Я конечно могу придумать как это будет реализовано, но это настолько костыльно, что сомневаюсь что кто-то реализовал.
Весь дизеринг что я знаю делается когда на монитор приходит сигнал большей битности, чем может его матрица.

Добрался до дома, снял скрин.

По-английски эта надпись "8-bit with dithering". Дизеринг используется для уменьшения битности сигнала, чаще всего когда на 6-битную матрицу подают 8-битный сигнал, или в данном случае 10-битный HDR сжимают до 8-битного для пролезания в канал. Думаю, это делается где-то на уровене видеокарты и её драйверов.

Вариант через YCbCr422:

5k@120 27" с 200% масштабом - мечта последних лет как раз из-за желания плавности в интерфейсе. Пока же сижу на 4k@60 27" 150%. Текущая 1060 явно в пролёте. Скоро обновлюсь на алдерлейк и попробую отказаться от жефорса в пользу встройки. Я не играю вообще, мне нужна только винда и ютуб.

Кто-нить удачно пробовал выводить со встройки UHD 770 именно с десктопных материнок в 4k@120 или в 5k?

В оправдание RX6600 скажу, что она очень тихая в десктопных режимах. Интелы тоже тихие, но у них много глюков во время динамического переключения по USB-C (включая битые текстуры после саспенда). Возможно, на DP они не так заметны.

Я на 12600k видел у себя 3840*2160, но без HDR (его активация была недоступна)

НО: это было когда я во время перезагрузки переключил кабель HDMI из выхода карты к выходу материнки (хотел проверить работоспособность видеоядра), т.е. данный режим 4k 120 hz был включён ранее. Надо будет попробовать выбрать его из более низкого.

5k@120

Поделитесь моделькой?


Лучшее из бытового, что я видел, это LG Ultrafine 5k, и там всего 5k@60Hz в SDR.


Подключается по Thunderbolt 3, кстати, и подходящий провод в комплекте.
Ещё можно подключить по USB3, но будет всего 4k@60Hz.

так оно потому и мечта, ибо нету )) Вообще удивительно, как в этом направлении медленно движется рынок. 2560х1440 - очень популярное разрешение для 27", равно как и 120/144 стало широко заходить в последние пару лет, но вот явно напрашивающиеся 5k аналог этому для х2 масштаба народ почему-то очень тухло вопрошает.

 2560х1440 - очень популярное разрешение для 27"

А мне оно крайне не понравилось. 100% мелко, 200% ничего не влезает.
125% такое мыло, что не лучше 100%. 150% и влезает не много и мыльновато.
посчитал что для 4к аналог будет 42", поэтому взял 4k 49" хотя конечно можно было 32" 1440p или 5к для 200% масштаба

безусловно, это весьма субъективный (а для некоторых и объективный ввиду вопросов со зрением) вопрос. Однако многие программисты и ряд иных групп людей, работающих по большей части с текстом, сказали бы спасибо за широкий выбор 5к на 27" (аналог 2560 на 27" при 100%), где они бы поставили 200%. Текущий наиболее близкий вариант 4k на 27" равносилен 150% при том же PPI, что не комильфо. А сидеть на 200% - аналоге 1920х1080 на 27" - непозволительно крупно и ничего не умещается. Те, кто говорят, что им и так нормально - по многим причинам просто не пробовали иное на хороших матрицах, либо имеют недостатки зрения, либо действительно слишком "привыкли" к нетипичному расположению экрана слишком близко/далеко от себя (и это вполне нормально, не спорю, просто нетипично), ну либо просто игроки, потребители видео контента, которым это просто не надо.

Утверждение что по hdmi 2.1 может работать не быстрее 120гц не верно

Его пропускная способность 48гбит этого достаточно для 10битной картинки в 144гц. Что бы это заработало надо что бы и монитор/тв это поддерживал. Пример тому lg 27gp950. Все работает. Еще судя по спецификациям заработает и на ag274uxp, 279m1rv

Тем временем по displayport 1.4

без компрессии 10бит - 95гц

Без компрессии 8бит - 120гц

С компрессией хоть 10бит 160гц

Читал что dsc умеет сжимать трафик в 2 раза

В m32u - hdmi2.1 работает на скорости 24gbps, поэтому DisplayPort 1.4 тут предпочтительнее

Ага, спасибо. Получается это такая половинка от HDMI 2.1. Невероятно consumer oriented.

Посмотрел на офф сайте LG, пишут только про 4к/120гц

Скрин из документации с офф сайта -

https://www.lg.com/ru/support/manuals?csSalesCode=27GP950-B.ARUZ

+ у меня такой, поэтому уверен что работает

Посмотрел на офф сайте LG, пишут только про 4к/120гц

Немного напоминает бубны с подключением старого монитора к старому ноуту, Nec pa271w к Lenovo x260. Монитор умеет в нечто среднее между 2к и 4к 2560*1440*87, на на ноуте выходы HDMI и mini-DP.

Долго ломал себе башку — как заставить монитор работать на полном разрешении (DP кабеля у меня не было), пока, как в анекдоте «Ну что, сломал?», не заглянул в спеку. Оказалось что 1080 это максимум, что может выдать встроенная графика через HDMI.

После покупки простейшего mini-DP/DP кабеля (у меня же не 4к), и установки новых дров (Леново радует поддержкой, все дрова и BIOS от 22 года) Nec завелся в аппаратном разрешении, хотя на 60 герцах, вместо 87, но это уже мелочи. При этом, одновременно с ним, работает второстепенный 19" на 1280*1024 и 12" экран самого ноута на 1920*1080.

Три монитора (правда, чаще всего один Nec) в полном разрешении — удобная штука. Хотя, друзья меня склоняют к покупке одного длинного. Собственно, благодаря этому я включаю десктоп только чтобы погонять полчасика в PUBG, а в остальном мне хватает ноута, чаще всего он лежит с закрытой крышкой и я подумываю о покупке для него дока.

Бонусом ко всему этому оказалось то, что 27" моник имеет встроенный USB-свитчер и переключение видеовыхода — переключает между компами и воткнутые в него мышку с клавой.

Все таки, раньше с кабелями было проще :)

не особо проще
DVI-I
DVI-D
dual-link dvi(это моя последняя задачка, как подключить DVI dual-link монитор к современной видеокарте, где DVI нет) Оказалось проще купить новый монитор.
Хотя конечно именно с кабелями было проще, но со стандартами и раньше приколы были

У меня точно так же есть моник с DVI-I входом(есть HDMI но через него монитор не выключается/включается вместе с ПК), на видеокарте только HDMI и DP, но всё заработало. См мой коммент выше.

Я как раз с 2560х1440 переезжал на 4k. Стало приятнее.

Да, 4к куда приятнее. У меня хорошее зрение и на 27" и 2560 я различаю пиксели — это раздражает

А для меня критическим было увеличение вертикального разрешения. Моя история мониторов: ... FHD, 2560x1440, 3840x1440 (работа)... Так что я на почти 10 лет застрял на 1440. А тут 2560 по высоте. Первый апгрейд за 10 лет, прям ощущается.

Меня очень радовал Делл на одной работе, 32" и разрешение, я даже не помню сколько, точно больше стандартного 4к. Но и стоит он космически. Четкость такая, что просто за пределами различимого любым глазом. Словно в окно смотришь

читал с удовольствием, "лайкнул" бы в карму да не дано мне это

по поводу

А оно того стоит?

это сильно субъективно. я работал с человеком который глянув на монитор буквально на секунду говорил на скольки герцах он работает безошибочно.. а у меня другая ситуация, всё что ниже 75 герц меня нервирует, а выше я просто не вижу разницы, так что 75 для меня идеально, но вот за вменяемые деньги продаются только 60герц...

А в каких случаях 144 Гц реально нужно? Игры?

Есть легенда, что некоторые люди ощущают мерцание меньше 10 килогерц

LCD экраны (хорошие) не мерцают. Тут вопрос в другом - движение мышки из одного угла экрана в другой - это сколько кадров? 15 или 36?

Честно говоря — не задумывался никогда :)
Может когда попадется экран с частотой побольше — гляну. А на что это влияет?

В статье же описано (в конце), зачем это всё нужно было. Влияет. Положительно.

Любопытно, надо будет затестить в какомнить шоуруме

Попробуйте от противного ;) - поставить 30Гц.

Я так напоролся на телевизоре, подключив к нему компьютер (ТВ умеет 4К только в 30Гц с внешних источников). Не мог понять, что не так - изображение "дерганое", вроде не мерцает, но глазам неприятно.

Ну нет )
30 это уже за гранью комфортного, мерцание физически очень заметно. На 60 хороший монитор уже не мерцает так заметно для глаза

Не, не мерцание, подсветка вообще DC, матрица обновляется 400 Гц. А это именно редкое изменение картинки со стороны компьютера - тащишь окошко, а оно "прыгает", а не плавно движется. Мышь тоже - курсор "телепортируется".

Как раньше на пассивных LCD матрицах было, только там еще и след тающий оставался за объектом.

Я недавно поработал за монитором, у которого след за мышью… Это было ужасненько

А что такое "реально"? Например, в каких случаях реально нужно больше 14" экран? Что вы не можете сделать на 14", из того, что можете на 32"?

Исключительно комфорт и удобство.

Конечно есть
При работе в Adobe я всегда разворачиваю множество панелей и никогда не скрываю их, потому что порой приходится контролировать сразу много параметров одновременно. И на 14" это физически невозможно

Вы путаете пикселы и дюймы. 14" 4k экран по количеству пикселов не отличается от 32" 4k экрана. Так почему же 32", а не 13"?

Еще раз — на 14" физически невозможно сделать то, о чем я говорю. Потому что панели не просто должны быть открыты, на них еще надо что-то разглядеть. На 27" они занимают ровно половину экрана, потому для комфортной работы надо или 32" или второй монитор, чтобы картинка была на весь экран

*.ps
Можно не троллить так примитивно?

Ну вот вы и сказали главное: "для комфортной работы". Переход между 60 и 144 такой же. В принципе, ничего не поменялось (все пикселы на месте), но стало комфортнее.

Я сказал что это «физически невозможно», в принципе нельзя сделать на 14". Это не просто «некомфортно» — а тупо нельзя. А вопрос комфорта — это разница между 24-27 или 32

вы всё ещё путаете пиксели и дюймы, как и сказали выше. Какая разница какого размера дисплей, если в него влезает условно 100 пикселей по ширине. Окно панели будет занимать 50 пикселей что на 32 дюймах, что на 9, разница лишь в dpi. Так что физически это возможно и отличий кроме «масштаба» дисплея не будет

upd. минус (и в карму?), ох, тяжело…

Такая, что шрифт с низким угловым разрешением я не увижу.

Он исчезнет или просто восприятие человеком / комфорт поменяется? Человек выше говорит про что-то «физически не возможное»

если он станет мелким и придётся напрягаться чтобы разглядеть, это комфорт поменяется.
Если станет настолько мелким, что его не видно-работа станет невозможной.

Ну поставьте линзу, телевизор КВН все же видели ;)
(переведя взгляд на 15" 4К ноут 100% масштаб, 32 пиксельную иконку разобрать можно, но с трудом)

Браузер листать тоже поприятнее стало.
На Nvidia не работает по причине фашизма в драйверах.
Вчерашняя новость: «Компания NVIDIA открыла код видеодрайверов для ядра Linux».
Правда неизвестно, поможет ли это.

Главное "мясо" драйвера по-прежнему остаётся закрытым, открыли по сути только очень малую долю, и непонятно, собираются ли открывать остальное.
Дело-то пошло, но знаменитый средний палец убирать пока ещё рановато.

Не поможет, потому что они открыли сырцы кода, который и так компилируется на целевой машине (т.е. это просто смена лицензии). Вся мякотка - в блобах, которые они не открывают.

По мере того, как росли дюймы экрана я не мог отделаться от ощущения, что раньше всё было быстрее

чем больше (физически) экран, тем больше сантиметров проходит между двумя соседними кардрами при движении чего-либо по экрану. А с переходом на 4k - и в пикселях тоже.

Это приводит к дёрганной картинке в самых простых бытовых задачах - редактировании текста, движение окон, скроллинге, время реакции на печатать.

То есть я сделал себе 4k@144 ... для офисной работы. Комфортной офисной работы

Я именно по этим причинам в своё время "принял и простил" тот факт, что всё что выше 1080p - зло. Мой конфиг - это два "безрамочных" монитора по 27" 1080р. Да, именно, две здоровые балды с большими пикселями. Отодвинул чуток подальше обычного и не нарадуюсь. Всё крупно, супер быстро, никаких лагов, приколов с настройками масштабирования, глаза не напрягаются. Дёшево, сердито, работает везде.

Некоторые работодатели очень удивлялись, когда просил именно 1080p мониторы, и ни в коем случае никаких 2к, или простигосподи 4к\8к. И когда иногда приходится посидеть за мониторами с ультра высоким разрешением - поражаюсь как люди это терпят, весь интерфейс "тормознутый" невозможно.

Есть пару нюансов - нужен не "компьютерный" стол, а нормальный добротный письменный стол. И находить новые мониторы 27"1080р - судя по всему будет всё сложнее..))

А меня большие пиксели очень напрягают…

Лайфак - если отодвинуть монитор подальше - то они становятся меньше) Собственно поэтому и мониторы 27" - чтоб размер картинки после отодвигания оставался более привычным

//ходит за линейкой

80-85 см от глаз до монитора, а зрение у меня хорошее

60-80 сантиметров, в зависимости от того, как сижу. Разница между 90ppi (24" fhd) и 140ppi (32" 4k) на векторных шрифтах со сглаживанием очень заметна.

Так 27" FHD лагает ровно так же, как 27" 4k. Потому что в сантиметрах между объектом на двух соседних кадрах одинаковое расстояние.

Попробуйте высочастотные мониторы. Обратной дороги нет. (Думаю как бы продать эту идею работодателю, потому что 4к - это ОК, а 4к 120-144 - как-то жирновато для рабочего места админа в консоли...)

«Лагает» — значит тормозит, что-то происходит с задержкой, нажал кнопку и через секунду появилась буква. А здесь совсем другой процесс — «выпадание кадров», но без всяких тормозов

Лаг - это perceived delay. Двигаешь мышкой, а изображение появляется рывком. Чем больше дистанция, тем ощутимее рывок. "Двигается рывками" практически синоним к слову "лагает".

Лаг - это во всех определениях вообще: задержка, действия или сигнала. Это не просто движение рывками - это именно запаздывание, тормоза, когда действие не дает мгновенной реакции, а вовсе не синоним любому неровному движению.

Монитор же - не тормозит, вообще, он просто показывает меньше кадров между двумя положениями мышки или окна. Никогда не будет так, что на мониторе с низкой частотой - перемещение окна будет происходить через половину секунды от начала движения мышкой, а остановится, через половину секунды после прекращения движения

Скуки ради попробовал на сверхзамедленной сьемке телефона - подергать небольшое окошко через 27" монитор, максимально резко от края до края. Ну да, получается 6 кадров, на 120 герцовом будет 12 кадров. И эти 12 кадров на полуметровом расстоянии не кажется какой-то серебряной пулей, кардинально меняющей восприятие. Но это надо еще затестить в какомнить магазине

На 144 будет 14 кадров. А теперь берёте любую игру и смотрите как она будет выглядеть на 6 FPS и на 14 FPS. По своим студенческим временам я помню, что на 10-12 ещё играть можно было, а на 6 - уж совсем никак.

Любая игра на 60 фпс выглядит уже абсолютно нормально. Именно 60 фпс является аналогом 60 герц на мониторе, а не «14 кадров»

В игре у вас скорость перемещения тщательно контролируется дизайном уровней. Если вы возьмёте любую игру без этого контроля (например, происходящее занимает доли секунды), то разница между 140+ и 60 Hz будет "слишком быстро" и "ничего не понял".

Я же говорю про ощущение плавности в десктопной жизни. 6 кадров на перемещение чего-либо на 32-дюймовой поверхности (не говоря уже про 42", на котором я пытался некоторое время работать с 60Hz) слишком мало. В соседнем треде этот феномен правильно назвали "телепортацией". Начиная с определённой дистанции нет иллюзии движения, а есть телепортация, что мешает и сбивает.

Я же говорю, могу повторить — что пока сам не тестил и попробую при случае

У меня вопрос не к плавности и необходимости оной — а к тому, что это не является лагом. Я зануда и чту терминологию :) Что-то типа «смотря, что вы называете электроникой» — у меня вызывает рукалицоюжпг

Я опираюсь на интуитивное определение. Чувствуешь, что лагает - значит, лагает. Существует целое искусство в UI делать так, чтобы latency была такой же (или даже чуть хуже), а лагов не было.

А насчёт электроники. Электроника - это наука об электронах.

Подтверждаю. Я столкнулся с этим при просмотре фильмов на телевизоре, а не мониторе. Когда движется весь фон (обычно камера поворачивается) то изображение воспринимается дёрганным. там правда всего 24фпс, но и эффект прямо ужас-ужас.

угу, только просадка до 59фпс с Vsync вам срежет до 30фпс.
А на 120гц мониторе до 40фпс. Разница заметна. Это та причина по которой игра на 120гц мониторе выглядет значительно плавнее, даже если комп тянет всего около 60фпс.
Ну и на счёт абсолютно нормально... это субъективно.
Я ЛИЧНО 2 раза в жизни тестировал какой фпс для меня является комфортным.
давно, во времена 1-го сталкера(на нём и тестировал) я получил 45фпс.
А вот недавно в киберпанке уже получил 80фпс.
При чём в киберпанке ниже 80фпс проблема не в дёрганности изображения, а в задержках.(впрочем справедливости ради я уточню, что возможно тут дело не только в количестве фпс, но и в настройках графики, которые влияют не только на фпс, но и на задержку ввода)

Любая игра на 60 фпс выглядит уже абсолютно нормально. Именно 60 фпс является аналогом 60 герц на мониторе, а не «14 кадров»

А я про то, что 60фпс не в любой игре выглядит нормально. Даже если она однопользовательская.

монитор делит экран на две половинки и каждая половинка показывает картинку со своего источника сигнала. В общем случае монитор можно подключить к двум компьютерам и смотреть с них обоих, но частный случай состоит в подключении монитора двумя кабелями к одному компьютеру

И тут я понял, что ничего раньше не знал о подключении монитора к компьютеру.

лытдыбр
Представляет собой кириллическую транслитерацию сочетания lytdybr, получившегося при наборе слова дневник на клавиатуре с ошибочно переключенной раскладкой (в режиме QWERTY). Слово пришло в начале 2000-х из обихода русскоязычных пользователей LiveJournal. Первая по времени запись, в которой появляется слово лытдыбр на кириллице, датирована 1 июля 2001 г. (в блоге Р. Лейбова); до неё в этом блоге неоднократно появлялись записи со словом lytdybr. Происхождение слова, быстро ставшего популярным, рассмотрено в блоге А. Воробья уже в марте 2002 г.

Заметка из жизни. Сложная ре-русификация клавиатурной перекодировки слова "дневник".

так лыТдыбр же, обшибки тоже надо правильно совершать ;))
не говоря уже о том, что он стал "дыбр"-ом практически сразу, в течении пары лет после возникновения, но это уже вкусовщина

К сожалению, это не мой ноутбук, он на винде, так что понять что именно там в выводе xrandr невозможно, ибо Винда.

А что помешало загрузиться с линуксовой флэшки?

  1. Лень.

  2. Это корпоративный ноут другого человека (т.е. "чужой").

Если в Linux трудно ответить "почему в настройках монитора нет такого режима", то в Windows невозможно даже посмотреть список всех режимов монитора, да и режим подключения монитора (через USB-C) не понятен. Это DP или HDMI? В Linux это обнаруживается по типу дисплея в xrandr - HDMI-0 vs DP-0.

Не претендую на полноту инфы, но вот несколько вариантов, откуда можно выкопать больше информации о мониторе и его подключении в винде:

  1. dxdiag. Запустить, но в его окошки смотреть совсем не нужно, нажать "сохранить все сведения..." и смотреть уже получившийся текстовый файл, раздел "Display Devices". Там много всего, в т.ч. тип подключения.

  2. GPU-Z. На вкладке Advanced в разделе General перечисляет мониторы, тип подключений, и поддержку их форматов. Инфы по сравнению с другими выдаёт мало.

  3. Moninfo aka EnTech Taiwan Monitor Asset Manager. Показывает тип подключения и инфу, вытащенную из EDID монитора. Несколько лет не обновлялся, может в чём-то врать если железо очень свежее.

  4. CRU (Custom Resolution Utility). Внизу посмотреть на строчку в Extension blocks, нажать Edit и посмотреть там внутри, какие флаги включены.

Как это всё поведёт себя в сложных случаях как то подключение по USB-C не знаю, не проверял. В стандартных условиях они все показывают, что мой моник подключен через DisplayPort, а телик через HDMI, ну и там всякое про HDR, битность, цветовые профили и пр.

Офигеть, не думал даже, что в цифровых интерфейсах есть такая нестабильность. Видимо, всякие переходники вроде dvi-hdmi вообще ад.

DVI уже сильно умирает, потому что там очень узкая полоса пропускания, категорически не совместимая с разрешениями выше FHD. По моим ощущениям DP - самый хороший стандарт для десктопа. USB-C должен был бы быть таким же для ноутов, если бы не (всё, что в статье выше).

категорически не совместимая с разрешениями выше FHD

Неправда. Мой старый монитор 1440p 60гц по dvi получал
https://www.overclock.net/threads/yamakasi-catleap-q270.1784532/
Но умирает, да, последние карты с DVI это GTX10** серия. а переходники дат не полноценный DVI(Если они не дорогие, а покупать дорогой для старого монитора так себе идея)

Не знаю, каким чудом мы выбирали провода. Но у нас 3 USB c кабеля работают в 4к@144.

Ещё и Power delivery работает 100 Вт и USB 2.0

все это в alt mode с использованием DP и 10 бит

Уже месяца 4 использую с MacBook Pro на M1

Так же MacBook 2019 года тоже завёл 4к@144 из под windows, но это не рабочий вариант для меня

Я рад за вас. Это кабели из комплекта с сотовым телефоном или вы их отдельно покупали? Если вы зайдёте в ближайший магазин и купите "обыкновенный кабель usb-c <-> usb-c", с большой вероятностью там не будет что-то, на чём можно данные передавать, но не больше. Необыкновенные с PD и TB - да, бывают, Например, dell такие прикладывает к своим мониторам. Но они дорогие и они вам либо с каким-то железом достались, либо вы специально их выбирали.

Отдельно. 2 с Ali.

Ну мы старались выбрать gen 2, 2x2 и тд. методом тыкай точек

Как-то чудом попадали. Но даже с али они не дешёвые, 15-25$

Какой монитор и макбук у вас? Хочу прикупить монитор для своего m1 15"

Из-за таких танцев с бубном я для себя определился что два классических 24" 1920x1080x60Гц мне достаточно. Любой кабель подойдет, любая карта справится. При частых переездах не проблема купить такие мониторы и потом быстро продать за недорого. То что курсор двоиться - не напрягает. Больше всего напрягало использование мониторов с разным DPI. Wayland + KDE + Nvidia до сих пор плохо дружат все вместе.

Всегда думал, что во времена ЭЛТ за частотой гнались чтобы уйти от мерцания, создаваемого пассивным характером свечения люминофора.

А во времена ЖК/OLED, когда мерцания уже нет (не говорим о яркости через ШИМ), когда подсветка ЖК или диод OLEDa горит постоянно, частота обновления означает фактически частоту обновления изображения на матрице. Показатель чисто информационный, а не электрический. Фактически какой толщины информационный поток моник может размазать по матрице в секунду.

Отсюда следует, что важно лишь чтобы частота обновления экрана была равна/выше частоты обновления изображения. То есть FPS выдаваемого видеокартой. Я не гамер, но FPS 60 вроде даёт достаточную плавность даже в динамичных сценах. Ну а для движения мышки по экрану 60 FPS тем более достаточно, это слишком маленький объект чтобы увидеть его рваное движение.

Или что я не так понимаю?

Во времена ЭЛТ 21" монитор считался монстром по размерам и там проблемы, о которой я говорю, не было.

Проблему мерцания люминофора решили, но по мере нарастания размеров экранов начала образовываться новая. Во времена 15-17" ЭЛТ 75Hz было более чем достаточно для плавности изображения.

А на 32" экране 60Гц (16мс между кадрами) вызывает ощущение "рваности" движения. Как будто всё тормозит. И чем больше экран, тем сильнее он тормозит субъективно. Я уже написал почему - между обновлениями картинки двигающаяся картинка проходит большую дистанцию в сантиметрах.

И речь не про FPS, а про офисную работу. В основном скроллинг и время реакции на ввод текста.

Восприятие картинки индивидуально. И то, что одного раздражает, другой игнорирует, а третий не замечает.

"Телепортация" курсора мыши и более крупных предметов на экране (когда объект между двумя кадрами успевает пролететь значительное расстояние, что воспринимается уже не как плавное движение, а как прыжки по экрану) мне заметны даже на 15"х75Гц. На значительно большем экране (22" и больше) при частоте обновления экрана 60-75 Гц у меня иногда возникает эффект потери курсора мыши, когда взгляд теряет курсор из-за того, что он между кадрами "прыгает" слишком далеко от предыдущего наблюдаемого места.

Не сказал бы, чтобы оно меня бесило или как-то сильно мешало работать (потеря нескольких секунд на обнаружение "пропавшего" курсора мыши, конечно, печальна, но не настолько, чтобы на это сильно заморачиваться), но я это уже замечаю. А кое-кто из моих знакомых от такого уже просто звереет. И им эти супермегагерцы более чем актуальны.

Конечно, можно отодвинуть дисплей подальше, чтобы угловое смещение курсора стало снова небольшим, как раньше на 12-14", но это такое... Большой монитор хорош именно тем, что на него можно впихнуть больше информации. А чтобы ее можно было разглядеть, особо далеко монитор не отодвинешь.

UFO just landed and posted this here

Клавиатура у меня следующая на апгрейд. Это сложнее, чем монитор, потому что картинку можно посмотреть и оценить, а вот печать - сложно, нужно сначала привыкать.

UFO just landed and posted this here
Мы тут под одну специфическую задачу оснащения переговорной искали обычный десктоп с поддержкой видео через USB-C…
В общем, прикоснулись к тому же мраку и ужясу, что описаны в статье…
В спецификациях Хьюлетов и прочих Деллов обычно указано налие USB-C. Просто USB-C. Без всяких скучных подробностей.
Как выяснилось, даже если в описании конкретного артикула в явной форме говорится про «видео через USB-C» — не факт, что в данной комплектации так оно и будет.
Наиболее лостоверный признак — фото конкретной модели. Если есть значёк DP возле порта usb-c — то есть шанс на успех… :)

На самом деле проще. Если у вас есть Thunderbolt, у вас есть DP внутри. TB4 обещает всё, что нужно, TB3 - на грани. Значок TB - молния.

Картинки

аналогично испытал сильную боль, когда вначале февраля уже на низком старте был чтобы купить новый ноут от АСУСов. олед/м2/вес 1,6/11 поколения проц - действительно неплохая обновка моему десятилетнему ноуту. но всю малину обос...перечеркнул HDMI интерфейс версии 1.4 2009 года - и покупка отменилась. очень хотелось чтобы ноут мог прокачивать телек 4K HDR10 60FPS. старый ноут шлет только FullHD. и также при выборе ноута непонятно было что делать этим Thunderbolt и еще чихарда с этим Type-C, то какие-то поддерживают зарядку или еще что-то - очень не понравился такой подход в описании интерфейсов и возможностей устройства.

Нет, ну зачем я это прочитал? Раньше меня всё устраивало в моих 75 герцах. Ох...

Стоит сходить в шоурум и оценить глазами ) Может не все так плохо )

Это нужен правильный шоурум... иначе там скорее всего 60гц показывают.

Объясните, пожалуйста, вот тут

"4k (3840х2160) на частоте 144Hz при глубине 1 байт на цвет (24 бита на пиксел) требует минимум 28665446400 бит в секунду (3840*2160*3*8*144), "

почему (3840*2160*3*8*144) , откуда берется 3*8?

3 цветовых канала по 8 бит (для формата RGB)

Спасибо тебе, мил человек!!!

Долго выбирал монитор и только после твой статьи понял, что мне надо! Все правильно ты описал! В итоге тоже выбрал эту модель Gigabyte M32U. Для программирования, вычитки ТЗ, ТРЗ, и прочей работы с кучей текста (не игры). Но можно немного идей для улучшения?

1) Обязательно надо приложить фото, что в формате 16:9 MS Word показывает полные 8 листов А4 в режиме редактирования (+ меню, полосы прокрутки и окно поиска по документу). И все это очень четко читается с обычных 50-60 см.

2) Поправьте в первом абзаце "...разъёмы HDMI (2 шт), DisplayPort (2 шт)...".

3) мой ноутбук "Lenovo L14 Gen1" со встроенной графикой на "AMD Ryzen 5 PRO 4650U" легко тянет Word по HDMI на 4k (3840x2160 @60 Гц). Можно даже фильмы смотреть 2160p. Это вполне очень удобный формат для моей работы! Но это его предел. Для большего нужна дискретная видеокарта, либо можно брать более дешевый монитор @60 Гц. (Странно, но такой информации найти не удалось).

такие шнуры-адаптеры способны давать 4k@120Hz

UFO just landed and posted this here
Sign up to leave a comment.

Articles