Обновить

Комментарии 32

Добавлю полезного: некоторые мониторы с высокой частотой обновления имеют * в описании характеристик - по этому если ваш монитор внезапно начал на высокой частоте артефачить прежде чем нести в сервис почитайте инструкцию. А то возможно это "режим разгона" и проблемы негров шрифа не волнуют...

Сам разгонял xl2411p с 144 до 214hz, benq на удивление хорошо гонятся, пропусков кадров нет

Ухх, везет вам. Мой LG 24GN60R всего на 5Hz по DP. Теперь вместо 144Hz стало 149Hz.

Я почему то считал, что частоты обновления кадров - удел старых ламповых мониторов, где эта частота непосредственно задает частоту кадровой развертки. В современных ЖК мониторах эта частота в первом приближении ни на что не влияет - это частота передачи данных по кабелю. Далее данные буферизируются и скалер монитора все равно будет выводить так, как ему надо или так, как он может. Поэтому в плане улучшения изображения эти потуги ничего не дадут.

все видели разницу в роликах на YouTube с 30 и 60 кадрами

Тут очень много нюансов в этой фразе. Киношная частота кадров, телевизионная частота кадров и частота кадров передачи потокового видео - это все абсолютно разные по восприятию вещи. Для примера можно сказать что киношные 24 кадра смотрятся вполне норм, а телевизионная развертка с частотой 50 Гц вполне ощутимо мерцает. Для компьютерных ламповых мониторов 60 Гц - ощутимо мерцает, 75 Гц - уже норм, 85 - тоже норм, но картинка могла начать размыливаться из-за высокой скорости передачи и некачественного кабеля.

через DVI при разрешении 1920x1080 вы вряд ли получите свыше 65 Гц — сказывается достаточно низкая пропускная способность интерфейса. Через старые HDMI (до 1.4) при том же разрешении вы скорее всего сможете получить частоту около 75-85 Гц. 

Насколько мне известно, "старый" одноканальный hdmi и dvi полностью совместимы, это прям прописано в стандарте. Непонятно, откуда взялось различие в пропускной способности.

Для компьютерных ламповых мониторов

Поколение Z ?

Подсветка ламповая у них имеется ввиду. Кстати до сих пор используются ввиду более глубокого и детализированного белого. По крайней мере у дочки стоит и менее по глазам бьёт чем всякие современные с защитой от ультрафиолета и без мерцания. Цветопередача не такая уж и пошлая.

Имеется ввиду CRT-монитор.

Ну это уж совсем старость. Хотя лежит flatron на балконе-выкинуть жалко..

В матрицы картинка точно так же загоняется последовательно, так что разница для матриц есть. По сути если матрица в даташите заявлена как 60 Гц -- всё остальное будет "оверклокингом".

Я почему то считал, что частоты обновления кадров - удел старых ламповых мониторов, где эта частота непосредственно задает частоту кадровой развертки

Всё зависит от контроллера монитора. По факту у тебя матрица может иметь "стабильные 60Гц" а всё остальное зависит чисто от физических характеристик. Мониторы без защиты разрешают себя гнать и там прям видно как картинка начинает сыпаться если гнать их под +100Гц. (показать не могу, сгорел, ахахаха)

Мониторы по "защищёнее" могут гнаться но в каких-то пределах, мой текущий монитор не разрешает ставить обновление больше 84Гц, ни при каких таймингах. И уже при 84Гц видно как картинка слега сыпется на контрастном изображении, скролинг текста к примеру. (у меня нормальный кабель, не надо)

Остальные же явно дают по заднице за такие выкрутасы и прямо говорят - вот тебе список поддерживаемых стандартов, другое не заведём. Современные телики никогда нормально разогнать себя не дают, ибо там почти всегда есть какие-то "фичи" по улучшению картинки.

НЛО прилетело и опубликовало эту надпись здесь

Между 60гц и 144гц разница видна сразу, напрягаться для этого совершенно не нужно.

Вот между 60гц и 75гц разницы уже можно и не заметить, но она есть. Заметнее всего это в многопользовательских шутерах, когда частые привычные действия происходят чуть плавнее и четче, но разница даже близко не такая как между 60гц и 144гц.

Ещё иногда бывает и такое, что эти 144гц забывают выставить, так как автоматически это не делается.
Ещё если два монитора с разной герцовкой подключены к одному ПК, монитор с меньшей герцовкой начинает сильнее "лагать", становится более дерганным, видимо особенность Windows 10.

НЛО прилетело и опубликовало эту надпись здесь

если два монитора с разной герцовкой подключены к одному ПК, монитор с меньшей герцовкой начинает сильнее "лагать", становится более дерганным, видимо особенность Windows 10.

Не замечал. У меня 165 и 60 подключены.

Ну и разницу я - на рабочем столе и в рабочих программах - я не вижу. Только в летающей тарелке разница есть. В играх тоже скорее нет, чем да.

А какая должна быть разница в полу-статических программах, которые еле двигаются? Или в стратегиях каких-нибудь? Или при просмотре видео, где 24-60 кадров?

Я говорил, что разница видна сразу, а не то, что все её будут всегда замечать. Возьмите окошко и потаскайте его туда сюда или покрутите список меню пуска. При условии, что у вас включено 3d ускорение рабочего стола.
Как часто вы это делаете и нужно ли это, это уже десятый вопрос.

А что до игр, опять же, всё зависит от fps и динамичности игры, и того, на сколько вы уже привыкли к элементам игры, не захватывает ли всё ваше внимание другие элементы. На консолях играют в 30 fps и не замечают какой-то проблемы, потому что по сути её нет.

НЛО прилетело и опубликовало эту надпись здесь

В моем случае я не таскаю окна и не слежу за тем насколько плавно это происходит, если вдруг взял и потащил окно. Не пользуюсь меню Пуск, а если и пользуюсь, то ничего там не листаю и не слежу за плавностью этого.

Утверждение, что вы разницу между устрицей и курицей не видите, потому что вы не едите устриц - специфичное.
Остальное как раз про субъективное восприятие вами вопроса, а не техническое: не видите разницу и не видите в этой разнице смысла - разные вещи.

НЛО прилетело и опубликовало эту надпись здесь

По поводу матрицы очень правы. Сейчас реанимирую старые аймаки так там матрица одна и та же но из-за различия в подсветке и электроники стоят они по разному и ставились на многие устройства одновременно.

задержкам чего? монитор рисует быстрее видеокарты

Если нет технологий синхронизации вывода монитора и видеокарты, то картинка постоянно пролагивает. И может быть так что фрейм передасться так, что будет лаг на 2-3 кадра. Потому раскрыватели любят брать мониторы с частотой по выше. (и графику по ниже)
Увы но эта проблема из 2014, сейчас её победили и даже мой 75Гц моник имеет AMD-FreeSynс.

Чтобы заметить разницу между 60 Гц и 144 Гц на Рабочем столе, вам придётся так напрячься, что вены лопнут

Люди которые хоть когда-то имели с долблением чего-то потного по таймингам лучше замечают разницу. (в основном игры)
Когда я купил себе 200Гц моник, мой дед сел рядом со мной и реально не мог заметить разницы между 60 и 200. Люди которые любили стратегии говорили в духе "не понимаю, вроде как-то да но принципиально ничо не поменялось". А те кто играл в файтинги или бывшие игроки в кваку были просто в восторге.
Увы я из последних, и мне заметно даже разница между 60 и 75. Даже мышка плавнее двигается, как это не замечают другие люди для меня загадка)

движение окна дискретное и чем быстрее вы дергаете мышь, тем реже рисуются новые кадры

Не понял что именно вы имели ввиду. В случае с Windows там используется событийно-ориентированный подход. Тоесть если событий НЕТ то фпс нативных приложений падает буквально до 0. Частоту опроса мышки можно увеличить до условных 1000Гц и соответственно частота отрисовки при движении мыши подскакивает до потолка.
В Linux это работает не так, как я знаю. Там всё окружение рисуется с частотой монитора. Так что наверное разницы... Нет? О чём мы?

А в итоге разница есть только в играх, и то она заметна если ты любитель "бахнуть потного", зарубится в рейтинги на "алмаз" в каком-нибудь файтинге или пройти 7 звёзд мании в OSU, иначе - чисто субъективщина.

НЛО прилетело и опубликовало эту надпись здесь

когда у вас монитор 50Гц, а видеокарта выдает 300 fps

Люди которые маму крутили на таймингах давно выяснили, чтоб всё работало +- нормально, кадровая частота игры должна быть +[х2] от частоты монитора, в любом другом случае будут фризы. И ещё раз - проблема побеждена повсеместным внедрением FreeSync подобных технологий.

 у вас нервная система должна уметь работать в таком режиме

Я тут согласен, но стоит уточнить что есть несколько "нюансов". Всю это "реакционную активность" можно поделить на 3 части - скорость обработки информации, связанность отделов и предсказательная модель. Кадровая частота ни на первый ни на второй пункт не влияют, а вот на последний очень даже. Кадровая частота просто даёт тебе больше информации от чего твои прогнозы гораздо лучше.
Когда играешь в ритм-игры с очень высокой скоростью падения плиточек прям ощущается разница в герцовке. У тебя не 2-3 кадра чтоб сообразить нажать кнопку, а уже 6-10, вроде по времени ничего не поменялось но мозгам уже по легче.

Starcraft куда более чувствителен к скорости работы экрана чем Fortnite

Кто как играет. Если играть в Fortnite как в PUBG, то да, смысла в быстрых реакциях нет. Но если устраиавть хаос влетая во врагов на машине и прыгая на молотках-крюках вокруг врага, то "реакция" ОЧЕНЬ сильно решает.

Он рисуется сообразно скорости перемещения, то есть дискретно

Я говорил, что у windows нихрена ни дискретно. Она бегает от 0 до "частоты монитора", но только для нативных приложений.

НЛО прилетело и опубликовало эту надпись здесь

+100 неприкрытый копипастинг

Да ладно копипастинг, посту на пикабу два года ужо.

Тут один монитор попался. Определяется на 75Гц. На экране вертикальные затемнения каждый 5ый пиксель. Пришлось снижать частоту до 50 чтоб картинку более-менее нормальную видеть.

Может матрица ударенная или видеокарта с битой памятью?

Поэтому производители, даже если матрица способна работать на 70-80 Гц, все равно ограничивают ее частоту на стандартных 60 Гц.

Одно время плотно работал с матрицами (правда ещё с теми, которые LVDS), и как правило у всех в даташитах была указана частота обновления 60 Гц, ну с каким-то допуском в пару герц.

Статья из песочницы поверхностная но в сути своей грехов не имеет, чего нельзя сказать о камментах.. Чего только там не понаписано.. Разница в восприятии между 60 и 75, между 75 и 165 герцами просто огромная если конечно вы способны воспринимать еë физически - т.е. вы не слоупок и не дед 90 лет. Тут как со звуком, многие не слышат частоты выше 16килогерц или ниже 30герц, многие в целом слышат неахти, но это не значит, что их не существует, так и тут.

Разумеется, возникает вопрос — насколько это безопасно? Гораздо безопаснее разгона железа: если монитор не может работать на заданной частоте, он просто не включится. Если на заданной частоте он заработал — значит, никаких проблем у вас не будет. Перегрев ему, как в случае с разгоном процессора или видеокарты, точно не грозит.

Откуда такие данные?

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации