
Комментарии 32
Добавлю полезного: некоторые мониторы с высокой частотой обновления имеют * в описании характеристик - по этому если ваш монитор внезапно начал на высокой частоте артефачить прежде чем нести в сервис почитайте инструкцию. А то возможно это "режим разгона" и проблемы негров шрифа не волнуют...
Только не пробуйте росле разгона проходить тест на пропуск кадров чтобы не расстраиваться.
Я почему то считал, что частоты обновления кадров - удел старых ламповых мониторов, где эта частота непосредственно задает частоту кадровой развертки. В современных ЖК мониторах эта частота в первом приближении ни на что не влияет - это частота передачи данных по кабелю. Далее данные буферизируются и скалер монитора все равно будет выводить так, как ему надо или так, как он может. Поэтому в плане улучшения изображения эти потуги ничего не дадут.
все видели разницу в роликах на YouTube с 30 и 60 кадрами
Тут очень много нюансов в этой фразе. Киношная частота кадров, телевизионная частота кадров и частота кадров передачи потокового видео - это все абсолютно разные по восприятию вещи. Для примера можно сказать что киношные 24 кадра смотрятся вполне норм, а телевизионная развертка с частотой 50 Гц вполне ощутимо мерцает. Для компьютерных ламповых мониторов 60 Гц - ощутимо мерцает, 75 Гц - уже норм, 85 - тоже норм, но картинка могла начать размыливаться из-за высокой скорости передачи и некачественного кабеля.
через DVI при разрешении 1920x1080 вы вряд ли получите свыше 65 Гц — сказывается достаточно низкая пропускная способность интерфейса. Через старые HDMI (до 1.4) при том же разрешении вы скорее всего сможете получить частоту около 75-85 Гц.
Насколько мне известно, "старый" одноканальный hdmi и dvi полностью совместимы, это прям прописано в стандарте. Непонятно, откуда взялось различие в пропускной способности.
Для компьютерных ламповых мониторов
Поколение Z ?
В матрицы картинка точно так же загоняется последовательно, так что разница для матриц есть. По сути если матрица в даташите заявлена как 60 Гц -- всё остальное будет "оверклокингом".
Я почему то считал, что частоты обновления кадров - удел старых ламповых мониторов, где эта частота непосредственно задает частоту кадровой развертки
Всё зависит от контроллера монитора. По факту у тебя матрица может иметь "стабильные 60Гц" а всё остальное зависит чисто от физических характеристик. Мониторы без защиты разрешают себя гнать и там прям видно как картинка начинает сыпаться если гнать их под +100Гц. (показать не могу, сгорел, ахахаха)
Мониторы по "защищёнее" могут гнаться но в каких-то пределах, мой текущий монитор не разрешает ставить обновление больше 84Гц, ни при каких таймингах. И уже при 84Гц видно как картинка слега сыпется на контрастном изображении, скролинг текста к примеру. (у меня нормальный кабель, не надо)
Остальные же явно дают по заднице за такие выкрутасы и прямо говорят - вот тебе список поддерживаемых стандартов, другое не заведём. Современные телики никогда нормально разогнать себя не дают, ибо там почти всегда есть какие-то "фичи" по улучшению картинки.
Между 60гц и 144гц разница видна сразу, напрягаться для этого совершенно не нужно.
Вот между 60гц и 75гц разницы уже можно и не заметить, но она есть. Заметнее всего это в многопользовательских шутерах, когда частые привычные действия происходят чуть плавнее и четче, но разница даже близко не такая как между 60гц и 144гц.
Ещё иногда бывает и такое, что эти 144гц забывают выставить, так как автоматически это не делается.
Ещё если два монитора с разной герцовкой подключены к одному ПК, монитор с меньшей герцовкой начинает сильнее "лагать", становится более дерганным, видимо особенность Windows 10.
если два монитора с разной герцовкой подключены к одному ПК, монитор с меньшей герцовкой начинает сильнее "лагать", становится более дерганным, видимо особенность Windows 10.
Не замечал. У меня 165 и 60 подключены.
Ну и разницу я - на рабочем столе и в рабочих программах - я не вижу. Только в летающей тарелке разница есть. В играх тоже скорее нет, чем да.
А какая должна быть разница в полу-статических программах, которые еле двигаются? Или в стратегиях каких-нибудь? Или при просмотре видео, где 24-60 кадров?
Я говорил, что разница видна сразу, а не то, что все её будут всегда замечать. Возьмите окошко и потаскайте его туда сюда или покрутите список меню пуска. При условии, что у вас включено 3d ускорение рабочего стола.
Как часто вы это делаете и нужно ли это, это уже десятый вопрос.
А что до игр, опять же, всё зависит от fps и динамичности игры, и того, на сколько вы уже привыкли к элементам игры, не захватывает ли всё ваше внимание другие элементы. На консолях играют в 30 fps и не замечают какой-то проблемы, потому что по сути её нет.
В моем случае я не таскаю окна и не слежу за тем насколько плавно это происходит, если вдруг взял и потащил окно. Не пользуюсь меню Пуск, а если и пользуюсь, то ничего там не листаю и не слежу за плавностью этого.
Утверждение, что вы разницу между устрицей и курицей не видите, потому что вы не едите устриц - специфичное.
Остальное как раз про субъективное восприятие вами вопроса, а не техническое: не видите разницу и не видите в этой разнице смысла - разные вещи.
По поводу матрицы очень правы. Сейчас реанимирую старые аймаки так там матрица одна и та же но из-за различия в подсветке и электроники стоят они по разному и ставились на многие устройства одновременно.
задержкам чего? монитор рисует быстрее видеокарты
Если нет технологий синхронизации вывода монитора и видеокарты, то картинка постоянно пролагивает. И может быть так что фрейм передасться так, что будет лаг на 2-3 кадра. Потому раскрыватели любят брать мониторы с частотой по выше. (и графику по ниже)
Увы но эта проблема из 2014, сейчас её победили и даже мой 75Гц моник имеет AMD-FreeSynс.
Чтобы заметить разницу между 60 Гц и 144 Гц на Рабочем столе, вам придётся так напрячься, что вены лопнут
Люди которые хоть когда-то имели с долблением чего-то потного по таймингам лучше замечают разницу. (в основном игры)
Когда я купил себе 200Гц моник, мой дед сел рядом со мной и реально не мог заметить разницы между 60 и 200. Люди которые любили стратегии говорили в духе "не понимаю, вроде как-то да но принципиально ничо не поменялось". А те кто играл в файтинги или бывшие игроки в кваку были просто в восторге.
Увы я из последних, и мне заметно даже разница между 60 и 75. Даже мышка плавнее двигается, как это не замечают другие люди для меня загадка)
движение окна дискретное и чем быстрее вы дергаете мышь, тем реже рисуются новые кадры
Не понял что именно вы имели ввиду. В случае с Windows там используется событийно-ориентированный подход. Тоесть если событий НЕТ то фпс нативных приложений падает буквально до 0. Частоту опроса мышки можно увеличить до условных 1000Гц и соответственно частота отрисовки при движении мыши подскакивает до потолка.
В Linux это работает не так, как я знаю. Там всё окружение рисуется с частотой монитора. Так что наверное разницы... Нет? О чём мы?
А в итоге разница есть только в играх, и то она заметна если ты любитель "бахнуть потного", зарубится в рейтинги на "алмаз" в каком-нибудь файтинге или пройти 7 звёзд мании в OSU, иначе - чисто субъективщина.
когда у вас монитор 50Гц, а видеокарта выдает 300 fps
Люди которые маму крутили на таймингах давно выяснили, чтоб всё работало +- нормально, кадровая частота игры должна быть +[х2] от частоты монитора, в любом другом случае будут фризы. И ещё раз - проблема побеждена повсеместным внедрением FreeSync подобных технологий.
у вас нервная система должна уметь работать в таком режиме
Я тут согласен, но стоит уточнить что есть несколько "нюансов". Всю это "реакционную активность" можно поделить на 3 части - скорость обработки информации, связанность отделов и предсказательная модель. Кадровая частота ни на первый ни на второй пункт не влияют, а вот на последний очень даже. Кадровая частота просто даёт тебе больше информации от чего твои прогнозы гораздо лучше.
Когда играешь в ритм-игры с очень высокой скоростью падения плиточек прям ощущается разница в герцовке. У тебя не 2-3 кадра чтоб сообразить нажать кнопку, а уже 6-10, вроде по времени ничего не поменялось но мозгам уже по легче.
Starcraft куда более чувствителен к скорости работы экрана чем Fortnite
Кто как играет. Если играть в Fortnite как в PUBG, то да, смысла в быстрых реакциях нет. Но если устраиавть хаос влетая во врагов на машине и прыгая на молотках-крюках вокруг врага, то "реакция" ОЧЕНЬ сильно решает.
Он рисуется сообразно скорости перемещения, то есть дискретно
Я говорил, что у windows нихрена ни дискретно. Она бегает от 0 до "частоты монитора", но только для нативных приложений.
Тут один монитор попался. Определяется на 75Гц. На экране вертикальные затемнения каждый 5ый пиксель. Пришлось снижать частоту до 50 чтоб картинку более-менее нормальную видеть.
Поэтому производители, даже если матрица способна работать на 70-80 Гц, все равно ограничивают ее частоту на стандартных 60 Гц.
Одно время плотно работал с матрицами (правда ещё с теми, которые LVDS), и как правило у всех в даташитах была указана частота обновления 60 Гц, ну с каким-то допуском в пару герц.
Статья из песочницы поверхностная но в сути своей грехов не имеет, чего нельзя сказать о камментах.. Чего только там не понаписано.. Разница в восприятии между 60 и 75, между 75 и 165 герцами просто огромная если конечно вы способны воспринимать еë физически - т.е. вы не слоупок и не дед 90 лет. Тут как со звуком, многие не слышат частоты выше 16килогерц или ниже 30герц, многие в целом слышат неахти, но это не значит, что их не существует, так и тут.
Разумеется, возникает вопрос — насколько это безопасно? Гораздо безопаснее разгона железа: если монитор не может работать на заданной частоте, он просто не включится. Если на заданной частоте он заработал — значит, никаких проблем у вас не будет. Перегрев ему, как в случае с разгоном процессора или видеокарты, точно не грозит.
Откуда такие данные?
Как разогнать ЖК монитор