Comments 32
Добавлю полезного: некоторые мониторы с высокой частотой обновления имеют * в описании характеристик - по этому если ваш монитор внезапно начал на высокой частоте артефачить прежде чем нести в сервис почитайте инструкцию. А то возможно это "режим разгона" и проблемы негров шрифа не волнуют...
Только не пробуйте росле разгона проходить тест на пропуск кадров чтобы не расстраиваться.
Я почему то считал, что частоты обновления кадров - удел старых ламповых мониторов, где эта частота непосредственно задает частоту кадровой развертки. В современных ЖК мониторах эта частота в первом приближении ни на что не влияет - это частота передачи данных по кабелю. Далее данные буферизируются и скалер монитора все равно будет выводить так, как ему надо или так, как он может. Поэтому в плане улучшения изображения эти потуги ничего не дадут.
все видели разницу в роликах на YouTube с 30 и 60 кадрами
Тут очень много нюансов в этой фразе. Киношная частота кадров, телевизионная частота кадров и частота кадров передачи потокового видео - это все абсолютно разные по восприятию вещи. Для примера можно сказать что киношные 24 кадра смотрятся вполне норм, а телевизионная развертка с частотой 50 Гц вполне ощутимо мерцает. Для компьютерных ламповых мониторов 60 Гц - ощутимо мерцает, 75 Гц - уже норм, 85 - тоже норм, но картинка могла начать размыливаться из-за высокой скорости передачи и некачественного кабеля.
через DVI при разрешении 1920x1080 вы вряд ли получите свыше 65 Гц — сказывается достаточно низкая пропускная способность интерфейса. Через старые HDMI (до 1.4) при том же разрешении вы скорее всего сможете получить частоту около 75-85 Гц.
Насколько мне известно, "старый" одноканальный hdmi и dvi полностью совместимы, это прям прописано в стандарте. Непонятно, откуда взялось различие в пропускной способности.
Для компьютерных ламповых мониторов
Поколение Z ?
В матрицы картинка точно так же загоняется последовательно, так что разница для матриц есть. По сути если матрица в даташите заявлена как 60 Гц -- всё остальное будет "оверклокингом".
Я почему то считал, что частоты обновления кадров - удел старых ламповых мониторов, где эта частота непосредственно задает частоту кадровой развертки
Всё зависит от контроллера монитора. По факту у тебя матрица может иметь "стабильные 60Гц" а всё остальное зависит чисто от физических характеристик. Мониторы без защиты разрешают себя гнать и там прям видно как картинка начинает сыпаться если гнать их под +100Гц. (показать не могу, сгорел, ахахаха)
Мониторы по "защищёнее" могут гнаться но в каких-то пределах, мой текущий монитор не разрешает ставить обновление больше 84Гц, ни при каких таймингах. И уже при 84Гц видно как картинка слега сыпется на контрастном изображении, скролинг текста к примеру. (у меня нормальный кабель, не надо)
Остальные же явно дают по заднице за такие выкрутасы и прямо говорят - вот тебе список поддерживаемых стандартов, другое не заведём. Современные телики никогда нормально разогнать себя не дают, ибо там почти всегда есть какие-то "фичи" по улучшению картинки.
Если количество кадров, выдаваемых видеокартой, меньше частоты обновления, то, значит, какой-то кадр будет дважды (а то и трижды) выведен на экран, что может привести к ощутимым задержкам
задержкам чего? монитор рисует быстрее видеокарты, а значит что монитор 60 что 144 выводиться всё будет одинаково, как и будет одинаков сам контент генерируемый самим ПК.
Однако про то, что можно разогнать еще и монитор, знают немногие, причем зачастую разница от его разгона существеннее и заметнее, чем от разгона другого железа
Это такая же вкусовщина как и любовь к OLED или выдержанному коньяку. У меня были мониторы на 75Гц, сейчас на 60 Гц, на работе есть на 50 Гц - разницы нет никакой. Скажу больше, на работе я сижу за тормознутой PVA на 60 Гц и её тормознутость к герцам никак не относится. И все артефакты PVA меня никак не трогают. Ну есть и есть.
Зачем это нужно? Чтобы повысить плавность картинки
Это всё из той же оперы как и раскрытие видеокарт. Чтобы заметить разницу между 60 Гц и 144 Гц на Рабочем столе, вам придётся так напрячься, что вены лопнут. Когда вы перетаскиваете окно, то вам на действие требуется например 1.2 секунды. Например вы перенесли окно с одной половины на другую.Вам кажется, что при частоте 60 Гц у вас будет меньше кадров, а значит плавнее сам процесс переноса, но дело в том, что движение окна дискретное и чем быстрее вы дергаете мышь, тем реже рисуются новые кадры, никто не рисует процесс движения попиксельно. Это же касается и компьютерных игр, то есть плавность достижима при малом шаге дискретизации. Условно - если вы двигаете камеру например со скоростью 1 пиксел в кадр. Но так никто не делает и никто в играх так не двигается.
Компромиссом является установка вертикальной синхронизации
у меня лок на 60 кадров средствами драйвера, VSync Off всегда.
Телевизоры не хотят с FreeSync делать, поэтому пока не судьба (может уже и делают, но покупать новый ТВ за кучу денег желания нет).
Тут все просто: есть такое понятие, как стандарт, и для частоты обновления мониторов он уже достаточно давно составляет 60 Гц. Поэтому производители, даже если матрица способна работать на 70-80 Гц, все равно ограничивают ее частоту на стандартных 60 Гц
Ну ненаю, у меня 4:3 BENQ 19" из лохматого 2007 года работал на 75Гц и для LCD 75Гц такой же стандарт как и 60 - очень давно. Мне кажется это маркетинг и разделение товара на группы с разной ценой, при этом сами матрицы могут покупаться вагонами и одной марки, а дело скорее всего в прошивке T-CON.
А вот при разгоне уже до 75 и выше Гц разница становится явно видной
Это как прогрев проводов перед прослушиванием музыки XD вот я вообще не вижу разницу между 60 и 75, скажу больше, я не вижу разницу между 60 и 144. Да-да, вот такая вот приятная особенность нервной системы. Ну и влияет этот разгон на небольшую часть задач, так что всё же самый интересный "разгон" - это покупка SSD вместо HDD, всё остальное не так заметно.
Между 60гц и 144гц разница видна сразу, напрягаться для этого совершенно не нужно.
Вот между 60гц и 75гц разницы уже можно и не заметить, но она есть. Заметнее всего это в многопользовательских шутерах, когда частые привычные действия происходят чуть плавнее и четче, но разница даже близко не такая как между 60гц и 144гц.
Ещё иногда бывает и такое, что эти 144гц забывают выставить, так как автоматически это не делается.
Ещё если два монитора с разной герцовкой подключены к одному ПК, монитор с меньшей герцовкой начинает сильнее "лагать", становится более дерганным, видимо особенность Windows 10.
Заметнее всего это в многопользовательских шутерах
возможно эффект и есть, но странно этот эффект записывать как что-то нужное и важное для всех. согласитесь это касается сугубо тех кто в такое играет.
Между 60гц и 144гц разница видна сразу
Если речь про рабочий стол, то я такую разницу не вижу совсем. Те игры которые играю я, тоже. Так что эффект для меня совсем неочевиден. Я же не спорю про то, что кто-то его видит, я комментирую утверждение из статьи о том что это чуть ли не самый важный разгон в ПК. Я с этим не согласен в корне.
Ещё если два монитора с разной герцовкой подключены к одному ПК, монитор с меньшей герцовкой начинает сильнее "лагать", становится более дерганным, видимо особенность Windows 10.
Не замечал такого эффекта абсолютно. В такой конфигурации у нас было более 200 рабочих мест, один монитор на 75Гц основной и рядом простой на 60Гц повернутый на 90 градусов. Сидели проектировщики в Компас 3Д и Автокаде. Абсолютно никаких дефектов. В моем пользовании была связка ТВ 50Гц и монитор 75 Гц, тоже никаких проблем.
если два монитора с разной герцовкой подключены к одному ПК, монитор с меньшей герцовкой начинает сильнее "лагать", становится более дерганным, видимо особенность Windows 10.
Не замечал. У меня 165 и 60 подключены.
Ну и разницу я - на рабочем столе и в рабочих программах - я не вижу. Только в летающей тарелке разница есть. В играх тоже скорее нет, чем да.
А какая должна быть разница в полу-статических программах, которые еле двигаются? Или в стратегиях каких-нибудь? Или при просмотре видео, где 24-60 кадров?
Я говорил, что разница видна сразу, а не то, что все её будут всегда замечать. Возьмите окошко и потаскайте его туда сюда или покрутите список меню пуска. При условии, что у вас включено 3d ускорение рабочего стола.
Как часто вы это делаете и нужно ли это, это уже десятый вопрос.
А что до игр, опять же, всё зависит от fps и динамичности игры, и того, на сколько вы уже привыкли к элементам игры, не захватывает ли всё ваше внимание другие элементы. На консолях играют в 30 fps и не замечают какой-то проблемы, потому что по сути её нет.
А какая должна быть разница в полу-статических программах, которые еле двигаются? Или в стратегиях каких-нибудь? Или при просмотре видео, где 24-60 кадров?
Ну речь же про Windows 10 в целом, значит проблема должна проявляться всегда, а не только в двух играх.
А что до игр, опять же, всё зависит от fps и динамичности игры, и того, на сколько вы уже привыкли к элементам игры, не захватывает ли всё ваше внимание другие элементы. На консолях играют в 30 fps и не замечают какой-то проблемы, потому что по сути её нет.
То есть вы говорите о субъективном восприятии, а не о технических проблемах. В этом и заковырка. Вспоминая опять меломанов могу сказать, что они например "слышат" дефекты непрогретых кабелей, что я отношу скорее к категории психических расстройств, чем к техническому вопросу.
Как часто вы это делаете и нужно ли это, это уже десятый вопрос
Нет, это самый непосредственный вопрос. Есть люди - тестеры. Они могут даже на самой стабильной системе найти момент, который будет создавать проблемы, но из-за того что такую ситуацию порой нужно создавать умышленно и обычный человек с ней не пересекается, то получается два факта - первый - у софта есть проблемы и их можно продемонстрировать, второй - большинство пользователей с такой проблемой не сталкивается. То есть по факту можно смело утверждать что проблема просто не существует.
В моем случае я не таскаю окна и не слежу за тем насколько плавно это происходит, если вдруг взял и потащил окно. Не пользуюсь меню Пуск, а если и пользуюсь, то ничего там не листаю и не слежу за плавностью этого.
В моем случае я не таскаю окна и не слежу за тем насколько плавно это происходит, если вдруг взял и потащил окно. Не пользуюсь меню Пуск, а если и пользуюсь, то ничего там не листаю и не слежу за плавностью этого.
Утверждение, что вы разницу между устрицей и курицей не видите, потому что вы не едите устриц - специфичное.
Остальное как раз про субъективное восприятие вами вопроса, а не техническое: не видите разницу и не видите в этой разнице смысла - разные вещи.
По поводу матрицы очень правы. Сейчас реанимирую старые аймаки так там матрица одна и та же но из-за различия в подсветке и электроники стоят они по разному и ставились на многие устройства одновременно.
задержкам чего? монитор рисует быстрее видеокарты
Если нет технологий синхронизации вывода монитора и видеокарты, то картинка постоянно пролагивает. И может быть так что фрейм передасться так, что будет лаг на 2-3 кадра. Потому раскрыватели любят брать мониторы с частотой по выше. (и графику по ниже)
Увы но эта проблема из 2014, сейчас её победили и даже мой 75Гц моник имеет AMD-FreeSynс.
Чтобы заметить разницу между 60 Гц и 144 Гц на Рабочем столе, вам придётся так напрячься, что вены лопнут
Люди которые хоть когда-то имели с долблением чего-то потного по таймингам лучше замечают разницу. (в основном игры)
Когда я купил себе 200Гц моник, мой дед сел рядом со мной и реально не мог заметить разницы между 60 и 200. Люди которые любили стратегии говорили в духе "не понимаю, вроде как-то да но принципиально ничо не поменялось". А те кто играл в файтинги или бывшие игроки в кваку были просто в восторге.
Увы я из последних, и мне заметно даже разница между 60 и 75. Даже мышка плавнее двигается, как это не замечают другие люди для меня загадка)
движение окна дискретное и чем быстрее вы дергаете мышь, тем реже рисуются новые кадры
Не понял что именно вы имели ввиду. В случае с Windows там используется событийно-ориентированный подход. Тоесть если событий НЕТ то фпс нативных приложений падает буквально до 0. Частоту опроса мышки можно увеличить до условных 1000Гц и соответственно частота отрисовки при движении мыши подскакивает до потолка.
В Linux это работает не так, как я знаю. Там всё окружение рисуется с частотой монитора. Так что наверное разницы... Нет? О чём мы?
А в итоге разница есть только в играх, и то она заметна если ты любитель "бахнуть потного", зарубится в рейтинги на "алмаз" в каком-нибудь файтинге или пройти 7 звёзд мании в OSU, иначе - чисто субъективщина.
картинка постоянно пролагивает . И может быть так что фрейм передасться так, что будет лаг на 2-3 кадра
Как вы себе это представляете? когда у вас монитор 50Гц, а видеокарта выдает 300 fps? ну очевидно, но как много людей пользуется железом в таком режиме? И это не проблема передачи.
и мне заметно даже разница между 60 и 75. Даже мышка плавнее двигается, как это не замечают другие люди для меня загадка)
Не понял вашей ретроспективы и привязки к каким-то "стратегиям". Что бы это у вас не значило, но тот же Starcraft куда более чувствителен к скорости работы экрана чем Fortnite или прости господи допотопный квейк.
Чтобы замечать плавность у вас нервная система должна уметь работать в таком режиме, например я не вижу VRM мерцание ламп, или подсветки монитора, я её замечаю примерно на 20 Гц и то если смотрю в сторону, тогда боковым зрением и моргая я как бы создаю искусственно стробирующий эффект и начинаю видеть серую полоску. А чтобы вот так смотреть на экран или лампу и страдать от мерцания - у меня такого нет. И учитывая что 90% население этого не замечает то я охотно поверю что есть некоторое количество людей, которые это могут заметить, но так не большинство.
Плавность мышки регулируется системой и самой мышкой, у меня три режима на мышке, какой нужно такой и включаю.
Не понял что именно вы имели ввиду
Курсор на интервале в 1000 пикселей НЕ рисуется 1000 раз. Он рисуется сообразно скорости перемещения, то есть дискретно. И чем быстрее вы дергаете мышью, тем реже у вас рисуется курсор.
до условных 1000Гц и соответственно частота отрисовки при движении мыши подскакивает до потолка
Нет.
А в итоге разница есть только в играх, и то она заметна если ты любитель "бахнуть потного", зарубится в рейтинги на "алмаз" в каком-нибудь файтинге или пройти 7 звёзд мании в OSU, иначе - чисто субъективщина.
Пардон, я совсем не понял о чем вы написали.
когда у вас монитор 50Гц, а видеокарта выдает 300 fps
Люди которые маму крутили на таймингах давно выяснили, чтоб всё работало +- нормально, кадровая частота игры должна быть +[х2] от частоты монитора, в любом другом случае будут фризы. И ещё раз - проблема побеждена повсеместным внедрением FreeSync подобных технологий.
у вас нервная система должна уметь работать в таком режиме
Я тут согласен, но стоит уточнить что есть несколько "нюансов". Всю это "реакционную активность" можно поделить на 3 части - скорость обработки информации, связанность отделов и предсказательная модель. Кадровая частота ни на первый ни на второй пункт не влияют, а вот на последний очень даже. Кадровая частота просто даёт тебе больше информации от чего твои прогнозы гораздо лучше.
Когда играешь в ритм-игры с очень высокой скоростью падения плиточек прям ощущается разница в герцовке. У тебя не 2-3 кадра чтоб сообразить нажать кнопку, а уже 6-10, вроде по времени ничего не поменялось но мозгам уже по легче.
Starcraft куда более чувствителен к скорости работы экрана чем Fortnite
Кто как играет. Если играть в Fortnite как в PUBG, то да, смысла в быстрых реакциях нет. Но если устраиавть хаос влетая во врагов на машине и прыгая на молотках-крюках вокруг врага, то "реакция" ОЧЕНЬ сильно решает.
Он рисуется сообразно скорости перемещения, то есть дискретно
Я говорил, что у windows нихрена ни дискретно. Она бегает от 0 до "частоты монитора", но только для нативных приложений.
Кадровая частота просто даёт тебе больше информации от чего твои прогнозы гораздо лучше.
Это работает только в том случае, если ты её успеваешь обрабатывать.
Когда играешь в ритм-игры с очень высокой скоростью падения плиточек прям ощущается разница в герцовке. У тебя не 2-3 кадра чтоб сообразить нажать кнопку, а уже 6-10, вроде по времени ничего не поменялось но мозгам уже по легче
Как правило нервная система очень адаптивна и если вы регулярно играете во что-то, то вы не увидите эту разницу. Простой пример - чемпионаты по тетрису или мортал комбат, где или 30 или 60 fps. И это не мешает людям. Я не особо понимаю о каких играх вы говорите, поэтому своё мнение не выскажу. Думаю единственно где высокая герцовка будет уместна это VR.
Кто как играет
Ну раз вы сами пришли у заключению что все в мире относительно, то зачем делать утверждающие заявления вообще? У вас есть своё взгляд на проблему, у меня свой. Для меня главное было написать полярное мнение, а то складывается ощущение словно мир крутится вокруг герцовки.
"реакция" ОЧЕНЬ сильно решает.
У вас с сервером 50 мс, можете сами посчитать есть ли смысл от ваших 300 гц монитора. (а еще 50 мс у вас лаг до геймпада)
Я говорил, что у windows нихрена ни дискретно
Есть пруф? Для теста взял окно и резко дергал вправо и влево, на экране было четко видно 3 копии окна, не 1920 копий, а всего 3. То есть движение рисовалось дискретно сообразно той скорости, которая была у курсора.
Тут один монитор попался. Определяется на 75Гц. На экране вертикальные затемнения каждый 5ый пиксель. Пришлось снижать частоту до 50 чтоб картинку более-менее нормальную видеть.
Поэтому производители, даже если матрица способна работать на 70-80 Гц, все равно ограничивают ее частоту на стандартных 60 Гц.
Одно время плотно работал с матрицами (правда ещё с теми, которые LVDS), и как правило у всех в даташитах была указана частота обновления 60 Гц, ну с каким-то допуском в пару герц.
Статья из песочницы поверхностная но в сути своей грехов не имеет, чего нельзя сказать о камментах.. Чего только там не понаписано.. Разница в восприятии между 60 и 75, между 75 и 165 герцами просто огромная если конечно вы способны воспринимать еë физически - т.е. вы не слоупок и не дед 90 лет. Тут как со звуком, многие не слышат частоты выше 16килогерц или ниже 30герц, многие в целом слышат неахти, но это не значит, что их не существует, так и тут.
Разумеется, возникает вопрос — насколько это безопасно? Гораздо безопаснее разгона железа: если монитор не может работать на заданной частоте, он просто не включится. Если на заданной частоте он заработал — значит, никаких проблем у вас не будет. Перегрев ему, как в случае с разгоном процессора или видеокарты, точно не грозит.
Откуда такие данные?
Как разогнать ЖК монитор