Как стать автором
Обновить

Комментарии 32

Добавлю полезного: некоторые мониторы с высокой частотой обновления имеют * в описании характеристик - по этому если ваш монитор внезапно начал на высокой частоте артефачить прежде чем нести в сервис почитайте инструкцию. А то возможно это "режим разгона" и проблемы негров шрифа не волнуют...

Сам разгонял xl2411p с 144 до 214hz, benq на удивление хорошо гонятся, пропусков кадров нет

Ухх, везет вам. Мой LG 24GN60R всего на 5Hz по DP. Теперь вместо 144Hz стало 149Hz.

Я почему то считал, что частоты обновления кадров - удел старых ламповых мониторов, где эта частота непосредственно задает частоту кадровой развертки. В современных ЖК мониторах эта частота в первом приближении ни на что не влияет - это частота передачи данных по кабелю. Далее данные буферизируются и скалер монитора все равно будет выводить так, как ему надо или так, как он может. Поэтому в плане улучшения изображения эти потуги ничего не дадут.

все видели разницу в роликах на YouTube с 30 и 60 кадрами

Тут очень много нюансов в этой фразе. Киношная частота кадров, телевизионная частота кадров и частота кадров передачи потокового видео - это все абсолютно разные по восприятию вещи. Для примера можно сказать что киношные 24 кадра смотрятся вполне норм, а телевизионная развертка с частотой 50 Гц вполне ощутимо мерцает. Для компьютерных ламповых мониторов 60 Гц - ощутимо мерцает, 75 Гц - уже норм, 85 - тоже норм, но картинка могла начать размыливаться из-за высокой скорости передачи и некачественного кабеля.

через DVI при разрешении 1920x1080 вы вряд ли получите свыше 65 Гц — сказывается достаточно низкая пропускная способность интерфейса. Через старые HDMI (до 1.4) при том же разрешении вы скорее всего сможете получить частоту около 75-85 Гц. 

Насколько мне известно, "старый" одноканальный hdmi и dvi полностью совместимы, это прям прописано в стандарте. Непонятно, откуда взялось различие в пропускной способности.

Для компьютерных ламповых мониторов

Поколение Z ?

Подсветка ламповая у них имеется ввиду. Кстати до сих пор используются ввиду более глубокого и детализированного белого. По крайней мере у дочки стоит и менее по глазам бьёт чем всякие современные с защитой от ультрафиолета и без мерцания. Цветопередача не такая уж и пошлая.

Имеется ввиду CRT-монитор.

Ну это уж совсем старость. Хотя лежит flatron на балконе-выкинуть жалко..

В матрицы картинка точно так же загоняется последовательно, так что разница для матриц есть. По сути если матрица в даташите заявлена как 60 Гц -- всё остальное будет "оверклокингом".

Я почему то считал, что частоты обновления кадров - удел старых ламповых мониторов, где эта частота непосредственно задает частоту кадровой развертки

Всё зависит от контроллера монитора. По факту у тебя матрица может иметь "стабильные 60Гц" а всё остальное зависит чисто от физических характеристик. Мониторы без защиты разрешают себя гнать и там прям видно как картинка начинает сыпаться если гнать их под +100Гц. (показать не могу, сгорел, ахахаха)

Мониторы по "защищёнее" могут гнаться но в каких-то пределах, мой текущий монитор не разрешает ставить обновление больше 84Гц, ни при каких таймингах. И уже при 84Гц видно как картинка слега сыпется на контрастном изображении, скролинг текста к примеру. (у меня нормальный кабель, не надо)

Остальные же явно дают по заднице за такие выкрутасы и прямо говорят - вот тебе список поддерживаемых стандартов, другое не заведём. Современные телики никогда нормально разогнать себя не дают, ибо там почти всегда есть какие-то "фичи" по улучшению картинки.

Если количество кадров, выдаваемых видеокартой, меньше частоты обновления, то, значит, какой-то кадр будет дважды (а то и трижды) выведен на экран, что может привести к ощутимым задержкам

задержкам чего? монитор рисует быстрее видеокарты, а значит что монитор 60 что 144 выводиться всё будет одинаково, как и будет одинаков сам контент генерируемый самим ПК.

Однако про то, что можно разогнать еще и монитор, знают немногие, причем зачастую разница от его разгона существеннее и заметнее, чем от разгона другого железа

Это такая же вкусовщина как и любовь к OLED или выдержанному коньяку. У меня были мониторы на 75Гц, сейчас на 60 Гц, на работе есть на 50 Гц - разницы нет никакой. Скажу больше, на работе я сижу за тормознутой PVA на 60 Гц и её тормознутость к герцам никак не относится. И все артефакты PVA меня никак не трогают. Ну есть и есть.

Зачем это нужно? Чтобы повысить плавность картинки

Это всё из той же оперы как и раскрытие видеокарт. Чтобы заметить разницу между 60 Гц и 144 Гц на Рабочем столе, вам придётся так напрячься, что вены лопнут. Когда вы перетаскиваете окно, то вам на действие требуется например 1.2 секунды. Например вы перенесли окно с одной половины на другую.Вам кажется, что при частоте 60 Гц у вас будет меньше кадров, а значит плавнее сам процесс переноса, но дело в том, что движение окна дискретное и чем быстрее вы дергаете мышь, тем реже рисуются новые кадры, никто не рисует процесс движения попиксельно. Это же касается и компьютерных игр, то есть плавность достижима при малом шаге дискретизации. Условно - если вы двигаете камеру например со скоростью 1 пиксел в кадр. Но так никто не делает и никто в играх так не двигается.

Компромиссом является установка вертикальной синхронизации

у меня лок на 60 кадров средствами драйвера, VSync Off всегда.

Телевизоры не хотят с FreeSync делать, поэтому пока не судьба (может уже и делают, но покупать новый ТВ за кучу денег желания нет).

Тут все просто: есть такое понятие, как стандарт, и для частоты обновления мониторов он уже достаточно давно составляет 60 Гц. Поэтому производители, даже если матрица способна работать на 70-80 Гц, все равно ограничивают ее частоту на стандартных 60 Гц

Ну ненаю, у меня 4:3 BENQ 19" из лохматого 2007 года работал на 75Гц и для LCD 75Гц такой же стандарт как и 60 - очень давно. Мне кажется это маркетинг и разделение товара на группы с разной ценой, при этом сами матрицы могут покупаться вагонами и одной марки, а дело скорее всего в прошивке T-CON.

А вот при разгоне уже до 75 и выше Гц разница становится явно видной

Это как прогрев проводов перед прослушиванием музыки XD вот я вообще не вижу разницу между 60 и 75, скажу больше, я не вижу разницу между 60 и 144. Да-да, вот такая вот приятная особенность нервной системы. Ну и влияет этот разгон на небольшую часть задач, так что всё же самый интересный "разгон" - это покупка SSD вместо HDD, всё остальное не так заметно.

Между 60гц и 144гц разница видна сразу, напрягаться для этого совершенно не нужно.

Вот между 60гц и 75гц разницы уже можно и не заметить, но она есть. Заметнее всего это в многопользовательских шутерах, когда частые привычные действия происходят чуть плавнее и четче, но разница даже близко не такая как между 60гц и 144гц.

Ещё иногда бывает и такое, что эти 144гц забывают выставить, так как автоматически это не делается.
Ещё если два монитора с разной герцовкой подключены к одному ПК, монитор с меньшей герцовкой начинает сильнее "лагать", становится более дерганным, видимо особенность Windows 10.

Заметнее всего это в многопользовательских шутерах

возможно эффект и есть, но странно этот эффект записывать как что-то нужное и важное для всех. согласитесь это касается сугубо тех кто в такое играет.

Между 60гц и 144гц разница видна сразу

Если речь про рабочий стол, то я такую разницу не вижу совсем. Те игры которые играю я, тоже. Так что эффект для меня совсем неочевиден. Я же не спорю про то, что кто-то его видит, я комментирую утверждение из статьи о том что это чуть ли не самый важный разгон в ПК. Я с этим не согласен в корне.

Ещё если два монитора с разной герцовкой подключены к одному ПК, монитор с меньшей герцовкой начинает сильнее "лагать", становится более дерганным, видимо особенность Windows 10.

Не замечал такого эффекта абсолютно. В такой конфигурации у нас было более 200 рабочих мест, один монитор на 75Гц основной и рядом простой на 60Гц повернутый на 90 градусов. Сидели проектировщики в Компас 3Д и Автокаде. Абсолютно никаких дефектов. В моем пользовании была связка ТВ 50Гц и монитор 75 Гц, тоже никаких проблем.

если два монитора с разной герцовкой подключены к одному ПК, монитор с меньшей герцовкой начинает сильнее "лагать", становится более дерганным, видимо особенность Windows 10.

Не замечал. У меня 165 и 60 подключены.

Ну и разницу я - на рабочем столе и в рабочих программах - я не вижу. Только в летающей тарелке разница есть. В играх тоже скорее нет, чем да.

А какая должна быть разница в полу-статических программах, которые еле двигаются? Или в стратегиях каких-нибудь? Или при просмотре видео, где 24-60 кадров?

Я говорил, что разница видна сразу, а не то, что все её будут всегда замечать. Возьмите окошко и потаскайте его туда сюда или покрутите список меню пуска. При условии, что у вас включено 3d ускорение рабочего стола.
Как часто вы это делаете и нужно ли это, это уже десятый вопрос.

А что до игр, опять же, всё зависит от fps и динамичности игры, и того, на сколько вы уже привыкли к элементам игры, не захватывает ли всё ваше внимание другие элементы. На консолях играют в 30 fps и не замечают какой-то проблемы, потому что по сути её нет.

А какая должна быть разница в полу-статических программах, которые еле двигаются? Или в стратегиях каких-нибудь? Или при просмотре видео, где 24-60 кадров?

Ну речь же про Windows 10 в целом, значит проблема должна проявляться всегда, а не только в двух играх.

А что до игр, опять же, всё зависит от fps и динамичности игры, и того, на сколько вы уже привыкли к элементам игры, не захватывает ли всё ваше внимание другие элементы. На консолях играют в 30 fps и не замечают какой-то проблемы, потому что по сути её нет.

То есть вы говорите о субъективном восприятии, а не о технических проблемах. В этом и заковырка. Вспоминая опять меломанов могу сказать, что они например "слышат" дефекты непрогретых кабелей, что я отношу скорее к категории психических расстройств, чем к техническому вопросу.

Как часто вы это делаете и нужно ли это, это уже десятый вопрос

Нет, это самый непосредственный вопрос. Есть люди - тестеры. Они могут даже на самой стабильной системе найти момент, который будет создавать проблемы, но из-за того что такую ситуацию порой нужно создавать умышленно и обычный человек с ней не пересекается, то получается два факта - первый - у софта есть проблемы и их можно продемонстрировать, второй - большинство пользователей с такой проблемой не сталкивается. То есть по факту можно смело утверждать что проблема просто не существует.

В моем случае я не таскаю окна и не слежу за тем насколько плавно это происходит, если вдруг взял и потащил окно. Не пользуюсь меню Пуск, а если и пользуюсь, то ничего там не листаю и не слежу за плавностью этого.

В моем случае я не таскаю окна и не слежу за тем насколько плавно это происходит, если вдруг взял и потащил окно. Не пользуюсь меню Пуск, а если и пользуюсь, то ничего там не листаю и не слежу за плавностью этого.

Утверждение, что вы разницу между устрицей и курицей не видите, потому что вы не едите устриц - специфичное.
Остальное как раз про субъективное восприятие вами вопроса, а не техническое: не видите разницу и не видите в этой разнице смысла - разные вещи.

Утверждение, что вы разницу между устрицей и курицей не видите, потому что вы не едите устриц - специфичное.

Это лишь полярное мнение на утверждение что "разница есть, она важна для всех и её видно". Я привёл пример который опровергает это утверждение.

По поводу матрицы очень правы. Сейчас реанимирую старые аймаки так там матрица одна и та же но из-за различия в подсветке и электроники стоят они по разному и ставились на многие устройства одновременно.

задержкам чего? монитор рисует быстрее видеокарты

Если нет технологий синхронизации вывода монитора и видеокарты, то картинка постоянно пролагивает. И может быть так что фрейм передасться так, что будет лаг на 2-3 кадра. Потому раскрыватели любят брать мониторы с частотой по выше. (и графику по ниже)
Увы но эта проблема из 2014, сейчас её победили и даже мой 75Гц моник имеет AMD-FreeSynс.

Чтобы заметить разницу между 60 Гц и 144 Гц на Рабочем столе, вам придётся так напрячься, что вены лопнут

Люди которые хоть когда-то имели с долблением чего-то потного по таймингам лучше замечают разницу. (в основном игры)
Когда я купил себе 200Гц моник, мой дед сел рядом со мной и реально не мог заметить разницы между 60 и 200. Люди которые любили стратегии говорили в духе "не понимаю, вроде как-то да но принципиально ничо не поменялось". А те кто играл в файтинги или бывшие игроки в кваку были просто в восторге.
Увы я из последних, и мне заметно даже разница между 60 и 75. Даже мышка плавнее двигается, как это не замечают другие люди для меня загадка)

движение окна дискретное и чем быстрее вы дергаете мышь, тем реже рисуются новые кадры

Не понял что именно вы имели ввиду. В случае с Windows там используется событийно-ориентированный подход. Тоесть если событий НЕТ то фпс нативных приложений падает буквально до 0. Частоту опроса мышки можно увеличить до условных 1000Гц и соответственно частота отрисовки при движении мыши подскакивает до потолка.
В Linux это работает не так, как я знаю. Там всё окружение рисуется с частотой монитора. Так что наверное разницы... Нет? О чём мы?

А в итоге разница есть только в играх, и то она заметна если ты любитель "бахнуть потного", зарубится в рейтинги на "алмаз" в каком-нибудь файтинге или пройти 7 звёзд мании в OSU, иначе - чисто субъективщина.

картинка постоянно пролагивает . И может быть так что фрейм передасться так, что будет лаг на 2-3 кадра

Как вы себе это представляете? когда у вас монитор 50Гц, а видеокарта выдает 300 fps? ну очевидно, но как много людей пользуется железом в таком режиме? И это не проблема передачи.

и мне заметно даже разница между 60 и 75. Даже мышка плавнее двигается, как это не замечают другие люди для меня загадка)

Не понял вашей ретроспективы и привязки к каким-то "стратегиям". Что бы это у вас не значило, но тот же Starcraft куда более чувствителен к скорости работы экрана чем Fortnite или прости господи допотопный квейк.

Чтобы замечать плавность у вас нервная система должна уметь работать в таком режиме, например я не вижу VRM мерцание ламп, или подсветки монитора, я её замечаю примерно на 20 Гц и то если смотрю в сторону, тогда боковым зрением и моргая я как бы создаю искусственно стробирующий эффект и начинаю видеть серую полоску. А чтобы вот так смотреть на экран или лампу и страдать от мерцания - у меня такого нет. И учитывая что 90% население этого не замечает то я охотно поверю что есть некоторое количество людей, которые это могут заметить, но так не большинство.

Плавность мышки регулируется системой и самой мышкой, у меня три режима на мышке, какой нужно такой и включаю.

Не понял что именно вы имели ввиду

Курсор на интервале в 1000 пикселей НЕ рисуется 1000 раз. Он рисуется сообразно скорости перемещения, то есть дискретно. И чем быстрее вы дергаете мышью, тем реже у вас рисуется курсор.

до условных 1000Гц и соответственно частота отрисовки при движении мыши подскакивает до потолка

Нет.

А в итоге разница есть только в играх, и то она заметна если ты любитель "бахнуть потного", зарубится в рейтинги на "алмаз" в каком-нибудь файтинге или пройти 7 звёзд мании в OSU, иначе - чисто субъективщина.

Пардон, я совсем не понял о чем вы написали.

когда у вас монитор 50Гц, а видеокарта выдает 300 fps

Люди которые маму крутили на таймингах давно выяснили, чтоб всё работало +- нормально, кадровая частота игры должна быть +[х2] от частоты монитора, в любом другом случае будут фризы. И ещё раз - проблема побеждена повсеместным внедрением FreeSync подобных технологий.

 у вас нервная система должна уметь работать в таком режиме

Я тут согласен, но стоит уточнить что есть несколько "нюансов". Всю это "реакционную активность" можно поделить на 3 части - скорость обработки информации, связанность отделов и предсказательная модель. Кадровая частота ни на первый ни на второй пункт не влияют, а вот на последний очень даже. Кадровая частота просто даёт тебе больше информации от чего твои прогнозы гораздо лучше.
Когда играешь в ритм-игры с очень высокой скоростью падения плиточек прям ощущается разница в герцовке. У тебя не 2-3 кадра чтоб сообразить нажать кнопку, а уже 6-10, вроде по времени ничего не поменялось но мозгам уже по легче.

Starcraft куда более чувствителен к скорости работы экрана чем Fortnite

Кто как играет. Если играть в Fortnite как в PUBG, то да, смысла в быстрых реакциях нет. Но если устраиавть хаос влетая во врагов на машине и прыгая на молотках-крюках вокруг врага, то "реакция" ОЧЕНЬ сильно решает.

Он рисуется сообразно скорости перемещения, то есть дискретно

Я говорил, что у windows нихрена ни дискретно. Она бегает от 0 до "частоты монитора", но только для нативных приложений.

Кадровая частота просто даёт тебе больше информации от чего твои прогнозы гораздо лучше.

Это работает только в том случае, если ты её успеваешь обрабатывать.

Когда играешь в ритм-игры с очень высокой скоростью падения плиточек прям ощущается разница в герцовке. У тебя не 2-3 кадра чтоб сообразить нажать кнопку, а уже 6-10, вроде по времени ничего не поменялось но мозгам уже по легче

Как правило нервная система очень адаптивна и если вы регулярно играете во что-то, то вы не увидите эту разницу. Простой пример - чемпионаты по тетрису или мортал комбат, где или 30 или 60 fps. И это не мешает людям. Я не особо понимаю о каких играх вы говорите, поэтому своё мнение не выскажу. Думаю единственно где высокая герцовка будет уместна это VR.

Кто как играет

Ну раз вы сами пришли у заключению что все в мире относительно, то зачем делать утверждающие заявления вообще? У вас есть своё взгляд на проблему, у меня свой. Для меня главное было написать полярное мнение, а то складывается ощущение словно мир крутится вокруг герцовки.

"реакция" ОЧЕНЬ сильно решает.

У вас с сервером 50 мс, можете сами посчитать есть ли смысл от ваших 300 гц монитора. (а еще 50 мс у вас лаг до геймпада)

Я говорил, что у windows нихрена ни дискретно

Есть пруф? Для теста взял окно и резко дергал вправо и влево, на экране было четко видно 3 копии окна, не 1920 копий, а всего 3. То есть движение рисовалось дискретно сообразно той скорости, которая была у курсора.

+100 неприкрытый копипастинг

Да ладно копипастинг, посту на пикабу два года ужо.

Тут один монитор попался. Определяется на 75Гц. На экране вертикальные затемнения каждый 5ый пиксель. Пришлось снижать частоту до 50 чтоб картинку более-менее нормальную видеть.

Может матрица ударенная или видеокарта с битой памятью?

Поэтому производители, даже если матрица способна работать на 70-80 Гц, все равно ограничивают ее частоту на стандартных 60 Гц.

Одно время плотно работал с матрицами (правда ещё с теми, которые LVDS), и как правило у всех в даташитах была указана частота обновления 60 Гц, ну с каким-то допуском в пару герц.

Статья из песочницы поверхностная но в сути своей грехов не имеет, чего нельзя сказать о камментах.. Чего только там не понаписано.. Разница в восприятии между 60 и 75, между 75 и 165 герцами просто огромная если конечно вы способны воспринимать еë физически - т.е. вы не слоупок и не дед 90 лет. Тут как со звуком, многие не слышат частоты выше 16килогерц или ниже 30герц, многие в целом слышат неахти, но это не значит, что их не существует, так и тут.

Разумеется, возникает вопрос — насколько это безопасно? Гораздо безопаснее разгона железа: если монитор не может работать на заданной частоте, он просто не включится. Если на заданной частоте он заработал — значит, никаких проблем у вас не будет. Перегрев ему, как в случае с разгоном процессора или видеокарты, точно не грозит.

Откуда такие данные?

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации

Истории