Comments 136
По опыту DP 1.4 умеет больше, чем 144 Гц. Мой пример: 5120х1440 на 240 Гц по единственному DP 1.4, причем как на AMD, так и на Nvidia. 5120х1440 всего на 11% меньше, чем 4K.
Кстати, некоторые мониторы поддерживают глубину цвета не 8 бит, а все 10. Но с поддержкой в ОС и стандартизацией тоже всё плохо.
Не столько плохо, сколько зачастую не нужно даже в профессиональных приложениях. Всё дело в том, что 10-битный цвет на 8-битном мониторе прекрасно имитируется дизерингом. При высокой плотности пикселей человек в принципе не сможет увидеть разницу. А если нет разницы, то зачем платить больше?
У меня, кстати, 10-битный монитор. Операционная система его поддерживает и я действительно вижу разницу в градиентах в видеоплеере или просмотрщике изображений:
https://github.com/jursonovicst/gradient
Но вот поддержка со стороны софта отсутствует почти полностью.
Да и ещё один фактор — это вычислительная сложность при работе с 10-битным цветом.
Короче, не стоит оно того.
В каком цветовом пространстве? Переход на bt2020 должен дать огромное количество новых цветов, особенно в районе зелёного. На специально подготовленных роликах разница потрясающая.
В каком цветовом пространстве?
DCI-P3
Переход на bt2020 должен дать огромное количество новых цветов, особенно в районе зелёного.
Новые цвета достигаются не за счёт повышения разрядности, а за счёт расширения цветового охвата.
Смысл в разрядности тоже есть, но немного в другом: для корректного отображения sRGB изображений на таком мониторе придётся делать ужимающее преобразование, градиенты могут выглядеть некрасиво без дизеринга.
@amaraoКак красноглазик красноглазику советую https://tomverbeure.github.io/video_timings_calculator чтобы не компилять патченный cvt.
Все современные ЖК поддерживают CVT-RBv2, поэтому на полосе пропускания за счёт сокращения избыточных интервалов синхронизации (которые выражаются в пикселях по вертикали и горизонтали) можно круто сэкономить. На некоторых мониторах можно не следовать стандарту и сэкономить ещё сильнее, но это надо проверять с каждой моделью индивидуально.
Да, с подключением мониторов всё еще хуже, чем с зарядкой. Опять же, сравнивая со старым добрым VGA, всё стало лучше по качеству, но сложнее.
На днях сапгрейдил домашний компьютер, купил Ryzen 5 5600G и материнку Asus на A520 с выходами HDMI и DP - так столько кривизны повылезало 8-()
Монитор Philips 328P6 - поддерживает HDMI, DP, VGA, USB-C 3.1 Gen 1 (DP alt mode)
- по hdmi почему-то видятся разрешения вплоть до 4К, хотя монитор только 2К.
- при попытке поставить 75 Гц монитор тухнет, хотя на другом компьютере такую частоту выводит отлично;
- пытаюсь включить HDR (монитор это умеет, и 10-бит тоже), получаю блеклую картинку;
- изображение периодически подергивается и моргает;
Кабели HDMI поперебирал, эффекта нет. В итоге подключил по DP, всё вроде нормально...
Если использовать hdmi вход на мониторе, он не выключается вместе с ПК, если использовать выход hdmi на видеокарте(который нормально работает с основным монитором), то периодически появляются обрывы звука на втором мониторе.
Переходники дешёвые китайские.
Если у вас встройка АМД, там в настройках есть виртуальное сверхвысокое разрешение. Те самые 4к на 2к монике. Я так и не понял зачем оно мне, ну кроме как UI на 4к потестить.
Зачем на встройке я не знаю, но на дискретке это используется для некоторых игр, чтобы картинка рендерилась в 4к и даунскелилась в 1440 ну или 1080. Там правда вылазят как раз траблы с UI и шрифтами, но это уже совсем другая история))
- пытаюсь включить HDR (монитор это умеет, и 10-бит тоже), получаю блеклую картинку;
Это потому, что софт (включая интерфейс винды) не умеет в HDR.
Запустите игру или видеоплеер с HDR и всё будет ок.
Да, постоянно включать\выключать HDR напрягает. Но madvr умеет включать HDR через nvidia, а не виндовый API, это частично снимает проблему, но не для вашего случая.
- изображение периодически подергивается и моргает;
имел похожую проблему с lg49nano866na на gtx1060, gtx1080, другой gtx1080 на другом компе, rtx2070 ноутбучной, rx580. На 1 кадр вылезали розовые помехи на экран. А вот на rtx3080ti всё ок.
- пытаюсь включить HDR (монитор это умеет, и 10-бит тоже), получаю блеклую картинку;
Это потому, что софт (включая интерфейс винды) не умеет в HDR.
Нет, проблема в чём-то другом. У меня на телевизоре в режиме HDR цвета интерфейса нормальные. Винда 10/11 рисует интерфейс в основном в SDR, затем преобразует в HDR.
Может быть проблема в формате, в цветовом профиле, взаимной несовместимости, и пр.
В тему будет упоминуть что HDMI 2.1 бывает ненастоящий.
https://3dnews.ru/1055813/publikatsiya-1055813
P.S. Я вас понимаю у меня 4k 120гц HDMI 2.1 VRR Правда я покупал ради фильмов и игр, но в работе тоже заметил приятную плавность.
А ещё бы я упоминул наличие бесплатного VRR в HDMI 2.1(правда не всегда).
Прочитал.
Да что же это за расстройство такое в последнее время со "стандартами"?! Вместо того, чтобы давать потребителю простую метку, глядя на которую можно сходу определить, что за устройство — меняют обозначения задним числом, делают стандарт "гибким", и порождают целый ворох необязательных "расширений", которые теперь нужно отдельно выискивать.
Ладно консорциум USB, эти уже давно так. Но и HDMI теперь такой же.
Согласно Вики HDMI 2.1 умеет:
для стандартного видео:
- 4K (3840x2160) — up to 144Hz (up to 240Hz with DSC (т.е. с компрессией))
- 5K (5120x2880) — up to 60Hz (up to 120Hz with DSC)
- 8K (7860x4320) — up to 30Hz (up to 120Hz with DSC)
- 4K (3840x2160) — up to 144Hz
- 5K (5120x2880) — up to 60Hz (up to 120Hz with DSC)
- 8K (7860x4320) — up to 30Hz (up to 120Hz with DSC)
Я сейчас перепроверил - как-то всё странно. Одни говорят - 144Гц, другие - 120. В доках к моему монитору сказано "через HDMI - только 120Гц".
Табличка явно не совсем корректная.
1)у меня hdmi 2.0 работало 2160p hdr 60fps и в настройках стояло RGB(правда я не проверял что по факту выводилось на монитор) а судя по табличке должно быть ycbcr420
2)для не HDR пишут 2160p 75гц ycbcr 420, хотя у меня работало ycbcr 422 100гц
видеокарта gtx1080
1)у меня hdmi 2.0 работало 2160p hdr 60fps и в настройках стояло RGB(правда я не проверял что по факту выводилось на монитор) а судя по табличке должно быть ycbcr420
8 бит с дизерингом. У меня так ТВ подключён - 4K, HDR, 60 Гц, 8 бит при HDMI 2.0(RTX 2070 и сам ТВ больше не умеют). Если понизить герцовку до 30, автоматически переключается в режим 12 бит. Пробовал YCbCr420, но там разрядность цветов страдает. Дизеринг хотя бы визуально не заметен.
8 бит с дизерингом
в смысле 8+2=10bit или 6+2=8?
У меня вроде 1-й вариант работал
Вывод на ТВ - RGB 8 бит. Я так понимаю, сигнал из 10-битного HDR дизерится до 8-битного средствами винды/видеокарты для отправки по HDMI. Вечером могу уточнить.
я не слышал про дизеринг средствами ОС. Я конечно могу придумать как это будет реализовано, но это настолько костыльно, что сомневаюсь что кто-то реализовал.
Весь дизеринг что я знаю делается когда на монитор приходит сигнал большей битности, чем может его матрица.
Добрался до дома, снял скрин.

По-английски эта надпись "8-bit with dithering". Дизеринг используется для уменьшения битности сигнала, чаще всего когда на 6-битную матрицу подают 8-битный сигнал, или в данном случае 10-битный HDR сжимают до 8-битного для пролезания в канал. Думаю, это делается где-то на уровене видеокарты и её драйверов.
Вариант через YCbCr422:

У меня ноут на свой собственный монитор выводит 2K 120 Гц https://i.imgur.com/9U75QxU.png
А на внешний 4k монитор - максимум 60 по HDMI (кабели подороже покупал - не помогло), а по type c - моник не видит входящий сигнал (хотя другие мониторы, например, DELL - через этот кабель с этого же ноута показывают хорошо).

Искать и эксперементировать с активными преобразователями из type-c в displayport (с десктопа монитор выдаёт 4k 144 Гц через самый обычный кабель) я как-то не готов.
5k@120 27" с 200% масштабом - мечта последних лет как раз из-за желания плавности в интерфейсе. Пока же сижу на 4k@60 27" 150%. Текущая 1060 явно в пролёте. Скоро обновлюсь на алдерлейк и попробую отказаться от жефорса в пользу встройки. Я не играю вообще, мне нужна только винда и ютуб.
Кто-нить удачно пробовал выводить со встройки UHD 770 именно с десктопных материнок в 4k@120 или в 5k?
В оправдание RX6600 скажу, что она очень тихая в десктопных режимах. Интелы тоже тихие, но у них много глюков во время динамического переключения по USB-C (включая битые текстуры после саспенда). Возможно, на DP они не так заметны.
Я на 12600k видел у себя 3840*2160, но без HDR (его активация была недоступна)
НО: это было когда я во время перезагрузки переключил кабель HDMI из выхода карты к выходу материнки (хотел проверить работоспособность видеоядра), т.е. данный режим 4k 120 hz был включён ранее. Надо будет попробовать выбрать его из более низкого.
5k@120
Поделитесь моделькой?
Лучшее из бытового, что я видел, это LG Ultrafine 5k, и там всего 5k@60Hz в SDR.
Подключается по Thunderbolt 3, кстати, и подходящий провод в комплекте.
Ещё можно подключить по USB3, но будет всего 4k@60Hz.
так оно потому и мечта, ибо нету )) Вообще удивительно, как в этом направлении медленно движется рынок. 2560х1440 - очень популярное разрешение для 27", равно как и 120/144 стало широко заходить в последние пару лет, но вот явно напрашивающиеся 5k аналог этому для х2 масштаба народ почему-то очень тухло вопрошает.
2560х1440 - очень популярное разрешение для 27"
А мне оно крайне не понравилось. 100% мелко, 200% ничего не влезает.
125% такое мыло, что не лучше 100%. 150% и влезает не много и мыльновато.
посчитал что для 4к аналог будет 42", поэтому взял 4k 49" хотя конечно можно было 32" 1440p или 5к для 200% масштаба
безусловно, это весьма субъективный (а для некоторых и объективный ввиду вопросов со зрением) вопрос. Однако многие программисты и ряд иных групп людей, работающих по большей части с текстом, сказали бы спасибо за широкий выбор 5к на 27" (аналог 2560 на 27" при 100%), где они бы поставили 200%. Текущий наиболее близкий вариант 4k на 27" равносилен 150% при том же PPI, что не комильфо. А сидеть на 200% - аналоге 1920х1080 на 27" - непозволительно крупно и ничего не умещается. Те, кто говорят, что им и так нормально - по многим причинам просто не пробовали иное на хороших матрицах, либо имеют недостатки зрения, либо действительно слишком "привыкли" к нетипичному расположению экрана слишком близко/далеко от себя (и это вполне нормально, не спорю, просто нетипично), ну либо просто игроки, потребители видео контента, которым это просто не надо.
Утверждение что по hdmi 2.1 может работать не быстрее 120гц не верно
Его пропускная способность 48гбит этого достаточно для 10битной картинки в 144гц. Что бы это заработало надо что бы и монитор/тв это поддерживал. Пример тому lg 27gp950. Все работает. Еще судя по спецификациям заработает и на ag274uxp, 279m1rv
Тем временем по displayport 1.4
без компрессии 10бит - 95гц
Без компрессии 8бит - 120гц
С компрессией хоть 10бит 160гц
Читал что dsc умеет сжимать трафик в 2 раза
В m32u - hdmi2.1 работает на скорости 24gbps, поэтому DisplayPort 1.4 тут предпочтительнее
Ага, спасибо. Получается это такая половинка от HDMI 2.1. Невероятно consumer oriented.
Похоже вы не посмотрели мою ссылку
https://3dnews.ru/1055813/publikatsiya-1055813
Посмотрел на офф сайте LG, пишут только про 4к/120гц
Посмотрел на офф сайте LG, пишут только про 4к/120гц
Долго ломал себе башку — как заставить монитор работать на полном разрешении (DP кабеля у меня не было), пока, как в анекдоте «Ну что, сломал?», не заглянул в спеку. Оказалось что 1080 это максимум, что может выдать встроенная графика через HDMI.
После покупки простейшего mini-DP/DP кабеля (у меня же не 4к), и установки новых дров (Леново радует поддержкой, все дрова и BIOS от 22 года) Nec завелся в аппаратном разрешении, хотя на 60 герцах, вместо 87, но это уже мелочи. При этом, одновременно с ним, работает второстепенный 19" на 1280*1024 и 12" экран самого ноута на 1920*1080.
Три монитора (правда, чаще всего один Nec) в полном разрешении — удобная штука. Хотя, друзья меня склоняют к покупке одного длинного. Собственно, благодаря этому я включаю десктоп только чтобы погонять полчасика в PUBG, а в остальном мне хватает ноута, чаще всего он лежит с закрытой крышкой и я подумываю о покупке для него дока.
Бонусом ко всему этому оказалось то, что 27" моник имеет встроенный USB-свитчер и переключение видеовыхода — переключает между компами и воткнутые в него мышку с клавой.
Все таки, раньше с кабелями было проще :)
не особо проще
DVI-I
DVI-D
dual-link dvi(это моя последняя задачка, как подключить DVI dual-link монитор к современной видеокарте, где DVI нет) Оказалось проще купить новый монитор.
Хотя конечно именно с кабелями было проще, но со стандартами и раньше приколы были
Я как раз с 2560х1440 переезжал на 4k. Стало приятнее.
А для меня критическим было увеличение вертикального разрешения. Моя история мониторов: ... FHD, 2560x1440, 3840x1440 (работа)... Так что я на почти 10 лет застрял на 1440. А тут 2560 по высоте. Первый апгрейд за 10 лет, прям ощущается.
читал с удовольствием, "лайкнул" бы в карму да не дано мне это
по поводу
А оно того стоит?
это сильно субъективно. я работал с человеком который глянув на монитор буквально на секунду говорил на скольки герцах он работает безошибочно.. а у меня другая ситуация, всё что ниже 75 герц меня нервирует, а выше я просто не вижу разницы, так что 75 для меня идеально, но вот за вменяемые деньги продаются только 60герц...
А в каких случаях 144 Гц реально нужно? Игры?
LCD экраны (хорошие) не мерцают. Тут вопрос в другом - движение мышки из одного угла экрана в другой - это сколько кадров? 15 или 36?
Может когда попадется экран с частотой побольше — гляну. А на что это влияет?
В статье же описано (в конце), зачем это всё нужно было. Влияет. Положительно.
Попробуйте от противного ;) - поставить 30Гц.
Я так напоролся на телевизоре, подключив к нему компьютер (ТВ умеет 4К только в 30Гц с внешних источников). Не мог понять, что не так - изображение "дерганое", вроде не мерцает, но глазам неприятно.
30 это уже за гранью комфортного, мерцание физически очень заметно. На 60 хороший монитор уже не мерцает так заметно для глаза
Не, не мерцание, подсветка вообще DC, матрица обновляется 400 Гц. А это именно редкое изменение картинки со стороны компьютера - тащишь окошко, а оно "прыгает", а не плавно движется. Мышь тоже - курсор "телепортируется".
Как раньше на пассивных LCD матрицах было, только там еще и след тающий оставался за объектом.
А что такое "реально"? Например, в каких случаях реально нужно больше 14" экран? Что вы не можете сделать на 14", из того, что можете на 32"?
Исключительно комфорт и удобство.
При работе в Adobe я всегда разворачиваю множество панелей и никогда не скрываю их, потому что порой приходится контролировать сразу много параметров одновременно. И на 14" это физически невозможно
Вы путаете пикселы и дюймы. 14" 4k экран по количеству пикселов не отличается от 32" 4k экрана. Так почему же 32", а не 13"?
*.ps
Можно не троллить так примитивно?
Ну вот вы и сказали главное: "для комфортной работы". Переход между 60 и 144 такой же. В принципе, ничего не поменялось (все пикселы на месте), но стало комфортнее.
Ну поставьте линзу, телевизор КВН все же видели ;)
(переведя взгляд на 15" 4К ноут 100% масштаб, 32 пиксельную иконку разобрать можно, но с трудом)
На Nvidia не работает по причине фашизма в драйверах.Вчерашняя новость: «Компания NVIDIA открыла код видеодрайверов для ядра Linux».
Правда неизвестно, поможет ли это.
Главное "мясо" драйвера по-прежнему остаётся закрытым, открыли по сути только очень малую долю, и непонятно, собираются ли открывать остальное.
Дело-то пошло, но знаменитый средний палец убирать пока ещё рановато.
Не поможет, потому что они открыли сырцы кода, который и так компилируется на целевой машине (т.е. это просто смена лицензии). Вся мякотка - в блобах, которые они не открывают.
По мере того, как росли дюймы экрана я не мог отделаться от ощущения, что раньше всё было быстрее
чем больше (физически) экран, тем больше сантиметров проходит между двумя соседними кардрами при движении чего-либо по экрану. А с переходом на 4k - и в пикселях тоже.
Это приводит к дёрганной картинке в самых простых бытовых задачах - редактировании текста, движение окон, скроллинге, время реакции на печатать.
То есть я сделал себе 4k@144 ... для офисной работы. Комфортной офисной работы
Я именно по этим причинам в своё время "принял и простил" тот факт, что всё что выше 1080p - зло. Мой конфиг - это два "безрамочных" монитора по 27" 1080р. Да, именно, две здоровые балды с большими пикселями. Отодвинул чуток подальше обычного и не нарадуюсь. Всё крупно, супер быстро, никаких лагов, приколов с настройками масштабирования, глаза не напрягаются. Дёшево, сердито, работает везде.
Некоторые работодатели очень удивлялись, когда просил именно 1080p мониторы, и ни в коем случае никаких 2к, или простигосподи 4к\8к. И когда иногда приходится посидеть за мониторами с ультра высоким разрешением - поражаюсь как люди это терпят, весь интерфейс "тормознутый" невозможно.
Есть пару нюансов - нужен не "компьютерный" стол, а нормальный добротный письменный стол. И находить новые мониторы 27"1080р - судя по всему будет всё сложнее..))
Так 27" FHD лагает ровно так же, как 27" 4k. Потому что в сантиметрах между объектом на двух соседних кадрах одинаковое расстояние.
Попробуйте высочастотные мониторы. Обратной дороги нет. (Думаю как бы продать эту идею работодателю, потому что 4к - это ОК, а 4к 120-144 - как-то жирновато для рабочего места админа в консоли...)
Лаг - это perceived delay. Двигаешь мышкой, а изображение появляется рывком. Чем больше дистанция, тем ощутимее рывок. "Двигается рывками" практически синоним к слову "лагает".
Лаг - это во всех определениях вообще: задержка, действия или сигнала. Это не просто движение рывками - это именно запаздывание, тормоза, когда действие не дает мгновенной реакции, а вовсе не синоним любому неровному движению.
Монитор же - не тормозит, вообще, он просто показывает меньше кадров между двумя положениями мышки или окна. Никогда не будет так, что на мониторе с низкой частотой - перемещение окна будет происходить через половину секунды от начала движения мышкой, а остановится, через половину секунды после прекращения движения
Скуки ради попробовал на сверхзамедленной сьемке телефона - подергать небольшое окошко через 27" монитор, максимально резко от края до края. Ну да, получается 6 кадров, на 120 герцовом будет 12 кадров. И эти 12 кадров на полуметровом расстоянии не кажется какой-то серебряной пулей, кардинально меняющей восприятие. Но это надо еще затестить в какомнить магазине
На 144 будет 14 кадров. А теперь берёте любую игру и смотрите как она будет выглядеть на 6 FPS и на 14 FPS. По своим студенческим временам я помню, что на 10-12 ещё играть можно было, а на 6 - уж совсем никак.
В игре у вас скорость перемещения тщательно контролируется дизайном уровней. Если вы возьмёте любую игру без этого контроля (например, происходящее занимает доли секунды), то разница между 140+ и 60 Hz будет "слишком быстро" и "ничего не понял".
Я же говорю про ощущение плавности в десктопной жизни. 6 кадров на перемещение чего-либо на 32-дюймовой поверхности (не говоря уже про 42", на котором я пытался некоторое время работать с 60Hz) слишком мало. В соседнем треде этот феномен правильно назвали "телепортацией". Начиная с определённой дистанции нет иллюзии движения, а есть телепортация, что мешает и сбивает.
У меня вопрос не к плавности и необходимости оной — а к тому, что это не является лагом. Я зануда и чту терминологию :) Что-то типа «смотря, что вы называете электроникой» — у меня вызывает рукалицоюжпг
Подтверждаю. Я столкнулся с этим при просмотре фильмов на телевизоре, а не мониторе. Когда движется весь фон (обычно камера поворачивается) то изображение воспринимается дёрганным. там правда всего 24фпс, но и эффект прямо ужас-ужас.
угу, только просадка до 59фпс с Vsync вам срежет до 30фпс.
А на 120гц мониторе до 40фпс. Разница заметна. Это та причина по которой игра на 120гц мониторе выглядет значительно плавнее, даже если комп тянет всего около 60фпс.
Ну и на счёт абсолютно нормально... это субъективно.
Я ЛИЧНО 2 раза в жизни тестировал какой фпс для меня является комфортным.
давно, во времена 1-го сталкера(на нём и тестировал) я получил 45фпс.
А вот недавно в киберпанке уже получил 80фпс.
При чём в киберпанке ниже 80фпс проблема не в дёрганности изображения, а в задержках.(впрочем справедливости ради я уточню, что возможно тут дело не только в количестве фпс, но и в настройках графики, которые влияют не только на фпс, но и на задержку ввода)
монитор делит экран на две половинки и каждая половинка показывает картинку со своего источника сигнала. В общем случае монитор можно подключить к двум компьютерам и смотреть с них обоих, но частный случай состоит в подключении монитора двумя кабелями к одному компьютеру
И тут я понял, что ничего раньше не знал о подключении монитора к компьютеру.
Что такое "лыдыбр"?
Представляет собой кириллическую транслитерацию сочетания lytdybr, получившегося при наборе слова дневник на клавиатуре с ошибочно переключенной раскладкой (в режиме QWERTY). Слово пришло в начале 2000-х из обихода русскоязычных пользователей LiveJournal. Первая по времени запись, в которой появляется слово лытдыбр на кириллице, датирована 1 июля 2001 г. (в блоге Р. Лейбова); до неё в этом блоге неоднократно появлялись записи со словом lytdybr. Происхождение слова, быстро ставшего популярным, рассмотрено в блоге А. Воробья уже в марте 2002 г.
Заметка из жизни. Сложная ре-русификация клавиатурной перекодировки слова "дневник".
К сожалению, это не мой ноутбук, он на винде, так что понять что именно там в выводе xrandr невозможно, ибо Винда.
А что помешало загрузиться с линуксовой флэшки?
Если в Linux трудно ответить "почему в настройках монитора нет такого режима", то в Windows невозможно даже посмотреть список всех режимов монитора, да и режим подключения монитора (через USB-C) не понятен. Это DP или HDMI? В Linux это обнаруживается по типу дисплея в xrandr -
HDMI-0
vsDP-0
.
Не претендую на полноту инфы, но вот несколько вариантов, откуда можно выкопать больше информации о мониторе и его подключении в винде:
dxdiag. Запустить, но в его окошки смотреть совсем не нужно, нажать "сохранить все сведения..." и смотреть уже получившийся текстовый файл, раздел "Display Devices". Там много всего, в т.ч. тип подключения.
GPU-Z. На вкладке Advanced в разделе General перечисляет мониторы, тип подключений, и поддержку их форматов. Инфы по сравнению с другими выдаёт мало.
Moninfo aka EnTech Taiwan Monitor Asset Manager. Показывает тип подключения и инфу, вытащенную из EDID монитора. Несколько лет не обновлялся, может в чём-то врать если железо очень свежее.
CRU (Custom Resolution Utility). Внизу посмотреть на строчку в Extension blocks, нажать Edit и посмотреть там внутри, какие флаги включены.
Как это всё поведёт себя в сложных случаях как то подключение по USB-C не знаю, не проверял. В стандартных условиях они все показывают, что мой моник подключен через DisplayPort, а телик через HDMI, ну и там всякое про HDR, битность, цветовые профили и пр.
Офигеть, не думал даже, что в цифровых интерфейсах есть такая нестабильность. Видимо, всякие переходники вроде dvi-hdmi вообще ад.
DVI уже сильно умирает, потому что там очень узкая полоса пропускания, категорически не совместимая с разрешениями выше FHD. По моим ощущениям DP - самый хороший стандарт для десктопа. USB-C должен был бы быть таким же для ноутов, если бы не (всё, что в статье выше).
категорически не совместимая с разрешениями выше FHD
Неправда. Мой старый монитор 1440p 60гц по dvi получал
https://www.overclock.net/threads/yamakasi-catleap-q270.1784532/
Но умирает, да, последние карты с DVI это GTX10** серия. а переходники дат не полноценный DVI(Если они не дорогие, а покупать дорогой для старого монитора так себе идея)
Не знаю, каким чудом мы выбирали провода. Но у нас 3 USB c кабеля работают в 4к@144.
Ещё и Power delivery работает 100 Вт и USB 2.0
все это в alt mode с использованием DP и 10 бит
Уже месяца 4 использую с MacBook Pro на M1
Так же MacBook 2019 года тоже завёл 4к@144 из под windows, но это не рабочий вариант для меня
Я рад за вас. Это кабели из комплекта с сотовым телефоном или вы их отдельно покупали? Если вы зайдёте в ближайший магазин и купите "обыкновенный кабель usb-c <-> usb-c", с большой вероятностью там не будет что-то, на чём можно данные передавать, но не больше. Необыкновенные с PD и TB - да, бывают, Например, dell такие прикладывает к своим мониторам. Но они дорогие и они вам либо с каким-то железом достались, либо вы специально их выбирали.
Какой монитор и макбук у вас? Хочу прикупить монитор для своего m1 15"
Из-за таких танцев с бубном я для себя определился что два классических 24" 1920x1080x60Гц мне достаточно. Любой кабель подойдет, любая карта справится. При частых переездах не проблема купить такие мониторы и потом быстро продать за недорого. То что курсор двоиться - не напрягает. Больше всего напрягало использование мониторов с разным DPI. Wayland + KDE + Nvidia до сих пор плохо дружат все вместе.
Всегда думал, что во времена ЭЛТ за частотой гнались чтобы уйти от мерцания, создаваемого пассивным характером свечения люминофора.
А во времена ЖК/OLED, когда мерцания уже нет (не говорим о яркости через ШИМ), когда подсветка ЖК или диод OLEDa горит постоянно, частота обновления означает фактически частоту обновления изображения на матрице. Показатель чисто информационный, а не электрический. Фактически какой толщины информационный поток моник может размазать по матрице в секунду.
Отсюда следует, что важно лишь чтобы частота обновления экрана была равна/выше частоты обновления изображения. То есть FPS выдаваемого видеокартой. Я не гамер, но FPS 60 вроде даёт достаточную плавность даже в динамичных сценах. Ну а для движения мышки по экрану 60 FPS тем более достаточно, это слишком маленький объект чтобы увидеть его рваное движение.
Или что я не так понимаю?
Во времена ЭЛТ 21" монитор считался монстром по размерам и там проблемы, о которой я говорю, не было.
Проблему мерцания люминофора решили, но по мере нарастания размеров экранов начала образовываться новая. Во времена 15-17" ЭЛТ 75Hz было более чем достаточно для плавности изображения.
А на 32" экране 60Гц (16мс между кадрами) вызывает ощущение "рваности" движения. Как будто всё тормозит. И чем больше экран, тем сильнее он тормозит субъективно. Я уже написал почему - между обновлениями картинки двигающаяся картинка проходит большую дистанцию в сантиметрах.
И речь не про FPS, а про офисную работу. В основном скроллинг и время реакции на ввод текста.
Восприятие картинки индивидуально. И то, что одного раздражает, другой игнорирует, а третий не замечает.
"Телепортация" курсора мыши и более крупных предметов на экране (когда объект между двумя кадрами успевает пролететь значительное расстояние, что воспринимается уже не как плавное движение, а как прыжки по экрану) мне заметны даже на 15"х75Гц. На значительно большем экране (22" и больше) при частоте обновления экрана 60-75 Гц у меня иногда возникает эффект потери курсора мыши, когда взгляд теряет курсор из-за того, что он между кадрами "прыгает" слишком далеко от предыдущего наблюдаемого места.
Не сказал бы, чтобы оно меня бесило или как-то сильно мешало работать (потеря нескольких секунд на обнаружение "пропавшего" курсора мыши, конечно, печальна, но не настолько, чтобы на это сильно заморачиваться), но я это уже замечаю. А кое-кто из моих знакомых от такого уже просто звереет. И им эти супермегагерцы более чем актуальны.
Конечно, можно отодвинуть дисплей подальше, чтобы угловое смещение курсора стало снова небольшим, как раньше на 12-14", но это такое... Большой монитор хорош именно тем, что на него можно впихнуть больше информации. А чтобы ее можно было разглядеть, особо далеко монитор не отодвинешь.
В общем, прикоснулись к тому же мраку и ужясу, что описаны в статье…
В спецификациях Хьюлетов и прочих Деллов обычно указано налие USB-C. Просто USB-C. Без всяких скучных подробностей.
Как выяснилось, даже если в описании конкретного артикула в явной форме говорится про «видео через USB-C» — не факт, что в данной комплектации так оно и будет.
Наиболее лостоверный признак — фото конкретной модели. Если есть значёк DP возле порта usb-c — то есть шанс на успех… :)
аналогично испытал сильную боль, когда вначале февраля уже на низком старте был чтобы купить новый ноут от АСУСов. олед/м2/вес 1,6/11 поколения проц - действительно неплохая обновка моему десятилетнему ноуту. но всю малину обос...перечеркнул HDMI интерфейс версии 1.4 2009 года - и покупка отменилась. очень хотелось чтобы ноут мог прокачивать телек 4K HDR10 60FPS. старый ноут шлет только FullHD. и также при выборе ноута непонятно было что делать этим Thunderbolt и еще чихарда с этим Type-C, то какие-то поддерживают зарядку или еще что-то - очень не понравился такой подход в описании интерфейсов и возможностей устройства.
Нет, ну зачем я это прочитал? Раньше меня всё устраивало в моих 75 герцах. Ох...
Объясните, пожалуйста, вот тут
"4k (3840х2160) на частоте 144Hz при глубине 1 байт на цвет (24 бита на пиксел) требует минимум 28665446400 бит в секунду (3840*2160*3*8*144
), "
почему (3840*2160*3*8*144
) , откуда берется 3*8?
Спасибо тебе, мил человек!!!
Долго выбирал монитор и только после твой статьи понял, что мне надо! Все правильно ты описал! В итоге тоже выбрал эту модель Gigabyte M32U. Для программирования, вычитки ТЗ, ТРЗ, и прочей работы с кучей текста (не игры). Но можно немного идей для улучшения?
1) Обязательно надо приложить фото, что в формате 16:9 MS Word показывает полные 8 листов А4 в режиме редактирования (+ меню, полосы прокрутки и окно поиска по документу). И все это очень четко читается с обычных 50-60 см.
2) Поправьте в первом абзаце "...разъёмы HDMI (2 шт), DisplayPort (2 шт)...".
3) мой ноутбук "Lenovo L14 Gen1" со встроенной графикой на "AMD Ryzen 5 PRO 4650U" легко тянет Word по HDMI на 4k (3840x2160 @60 Гц). Можно даже фильмы смотреть 2160p. Это вполне очень удобный формат для моей работы! Но это его предел. Для большего нужна дискретная видеокарта, либо можно брать более дешевый монитор @60 Гц. (Странно, но такой информации найти не удалось).
Пусть будет ссылка для тех кто как и я сейчас попал сюда с поисковика:
Новый стандарт и маркировка! Наконец-то!!!
почему в статье не рассматривается адаптер (шнур) usb-c (thunderbolt) на dp 1.4?
4k @ 144Hz: DP, HDMI, USB-C Alt-Mode & cables…