Comments 39
А зачем 1000 FPS, извините?
Ну это как 100500Мп на мелкой матрице с пластиковой оптикой. Вроде и незачем, и даже вредно, но ведь продаёт же!
Незачем, это просто один из множества попугаев, которыми можно измерить изменения в производительности. Практической пользы от разгона с LN2 нет.
…и какие гарантии, что движок вообще является на таких частотах адекватным бенчмарком? Может, он там в IDLE стоит 3/4 времени, а должен был показать 4К fps :)
Никаких, а зачем гарантии при экстремальном разгоне LN2?
Да в принципе низачем, то есть можно и в попугаях мерить. Главное — чтобы в какой-то момент FPS не от разгона начала зависеть, а от погоды на Марсе в каких-нибудь там сетевых протоколах.
Практически уверен, что все тесты CS гоняют без Интернета.
Да это-то понятно, просто у движка есть столько способов упереться, скажем, в частоту отклика сетевой карты — чтобы убедиться, что Инет не появился, например. Или ещё во что-то подобное. И в какой-то момент начнём измерять лаги сетевого чипа (даже не скорость передачи — тупо лаги отклика).
Или ещё в миллион подобных вещей, если движок не дорабатывался преднамеренно именно для бенчмаркинга.
Ладно ещё упереться в скорость записи данных фреймбуфера — она хотя бы какое-то имеет отношение хотя бы к скорости шин. Но можно ведь вообще в какую-то левую петрушку уткнуться…
Ну, к примеру в старой доброй третьей кваке (Quake III) можно в консоли написать sv_fps 1000 и попробовать поиграть против ботов.
А зачем 500гц, если глаз среднего человека больше 100гц уже не отличит.
Даже не тренированный глаз хорошо отличается разницу между 144 гц и 240 гц, если их поставить рядом друг с другом / включить друг за другом, например через изменение частоты обновления рабочего стола в виндовс. Проверил на своих знакомых используя 240 гц 27" монитор.
Лично я за год его использования замечал изменение частоты обновления экрана даже когда после обновления видеодрайвера на следующий день настройка изменилась с 240гц до 144гц, т.е. проведя за 240гц продолжительное время, можно заметить разницу с 144гц даже после сна.
В целом, частота обновления экрана эмоционально можно описать что "как увидишь - неразвидешь" - сказать какая точная герцовка - не сможешь, но будешь чувствовать когда "мало".
Есть ли "убывающая выгода" (Diminishing Returns) от бОльших частот обновления монитора? Однозначно! Но мне кажется что до 1000 гц они всё ещё будут заметны, пускай это и будет меньше бросаться в глаза.
Зачем 500гц мониторы для киберспорта?
Во-первых - больше герцовка, меньше задержка. 144 герц дают 6.94 мс задержки, 240 герц дают 4.17 мс задержки, 480 гц => 2.08 мс.
Для обычного пользователя это "чуть-чуть более плавные анимации" для киберспортсменов с 200 мс реакцией даже прыжок от 240 гц до 480 гц это 1% преимущества.
Если 1% преимущества кажется незначительным, то можно погрузиться глубже:
На монитор отправляются только готовые кадры и "готовятся" они неравномерно: иногда больше иногда меньше и тут несколько ситуаций:
1) частота > фпс: повышение герцовки (почти) не даёт преимуществ
2) частота = фпс: повышение герцовки даёт премущество оговоренное выше (1% для 480 против 240)
3) частота < фпс: всё сложно, но грубо говоря повышение герцовки значительнее повышает преимущство.
Последнее связано с "рассинхронизацией" кадров между кадрами срендеренными игрой и кадрами, отображаемыми на мониторе. Попробую показать на вот этом графике:

Красное - кадры срендеренные игрой в 720 фпс, синее - обновление экрана с частотой в 480 герц.
Точки - когда кадр готов в игре и когда монитор готов его коазать.
Считая что первый кадр "попал", следующий имеет дополнительную задержку (2.08333 - 1.38889 = 0.69444 мс), а следующий за ним: 4.16667 - 2.77778 = 1.38889 мс, и это только из-за несоответствия частоты кадров и обновления экрана, задержка от монитора суммируется к ней, таким образом в этих условиях мы уже получаем что 2.08мс задержки превратились в почти 3.5, а следовательно почти 1.5% "преимущества" для игроков с реакцией в 200 мс.
вот только игры не работают в любом фпс, анимации и расчет физики всегда лочат, потому что это лишняя нагрузка на видеокарты, которая идет на другие расчеты, а некоторые игры вообще плохо работают на большом фпс, к примеру в гта5 на верталете до сих пор не пофиксен баг невозможности нажать кнопку на разлочённом фпс, а есть игры, где вообще игра ускоряется, что говорить про всякие захваты движения на лоченом фпс. не всегда интерполяцию можно и нужно делать, если физику считать на разном фпс, то расчеты и поведение будет разным, соответственно и игровая механика будет работать иначе каждый раз=баги. есть мониторы у которых шим 300-500гц, но люди не жалуются на видимость мерцания. лично на своем опыте я не вижу разницы. в научных статьях показывают, что средний человек не видит больше 90гц, да, пилоты могут до 300гц различить из-за скорости реакции, но у обычных людей оно меньше, кроме того с возрастом реакция уменьшается, и еще одно свойство глаза, что прямым зрением мы видим меньше гц чем боковым, потому люди могут быстрее реагировать не смотря прямо на объект.
вот только игры не работают в любом фпс
Это правда, как и раньше были игры которые не использовали больше одного ядра процессора. Как только стандартом для индустрии / пользовательского железа стали многоядерные процессоры, так и индустрия пошла вслед.
Я думаю что с появлением режимов "производительности" и "качества" на консолях индустрия снова сделала качественный переход в создание игр которые будут работать на бОльшем диапазоне кадров в секунду.
анимации и расчет физики всегда лочат
Тоже правда, но иногда (и я ожидаю/надеюсь теперь это будет ещё чаще) используется интерполяция. Например обновление физики 20 раз в секунду, а между ними плавные анимации в 144 кадров в секунду. В процедурных анимациях большее количество кадров может очень сильно улучшить картинку.
захваты движения на лоченом фпс
В захватах движения всё равно используется интерполяция. Её используют для генерации ключевых кадров (key frame), а между ними всё ещё используется интерполяция.
Это упрощает изменение анимаций, если необходимо что-то поменять, помогает с динамическим количеством кадров и помогает скрыть недостатки, если например в анимации присутствует шум / неровности.
не всегда интерполяцию можно и нужно делать
Не всегда, но в случае когда нужно бОльшее количество кадров без значительного увеличение потребляемых ресурсов - можно и нужно. Не нужно говорить что "мы интерполируем всё неглядя", но в огромном количестве случаев интерполяция - работает.
если физику считать на разном фпс, то расчеты и поведение будет разным
Тоже верно, но, как мне кажется, тоже нерелевантно. Во-первых: интерполяция, во-вторых: в большинстве случаев просчёт физики с большей частотой даёт более "реалистичные" результаты, если параметры физики запрограммированы с учётом разного просчёта физики. Пример: в играх с более частым просчётом физике зачастую сложнее попасть за стены. Негативный пример: Doom (2016) в котором урон от BFG зависит от кадров, анимация волос почти в каждой игре "сходит с ума" при увеличении количества просчётов, некоторые игры ускоряются / ускоряют некоторые свои элементы при большем количестве кадров.
Это усложняет процесс тестирования, т.к. у нас новый параметр за которым надо следить, но раз теперь игры выходят с разными пресетами графики и кадров - нам и так необходимо либо интерполировать либо делать так чтобы работало везде, а последнее мне, как геймеру нравится больше, потому что всегда приятно запустить старые игры на новом железе на максимальных настройках.
есть мониторы у которых шим 300-500гц, но люди не жалуются на видимость мерцания
Я предполагаю, что дело в характере изменения - если картинка становится ярче/тусклее на незначительные величины то это не так заметно, как если бы каждые 2 миллисекунды из 1000 были красными. Характерный пример - старые лампочки, которые работали в наших сетях в 60 герц и соответственно мерцали. Вы же не будете утверждать что глаз не видит больше 60 кадров?
в научных статьях показывают, что средний человек не видит больше 90гц
Что за статьи? Кем проводились? Что исследовали? Как исследовали?
Было ли это появление точки на мониторе или лампочка мигала красным.
Учитывая то что "тестировал" свой монитор на самых разных знакомых и они замечали разницу движения курсора по рабочему столу на 144 и 240 герц явно показывая где "плавнее", при всём уважении к исследователям и вам, я склонен верить себе.
пилоты могут до 300гц различить из-за скорости реакции
Прощу прощения, но здесь это вовсе выглядит как какие-то фантазии.
Какие пилоты? Пилоты истребителей? Пилоты формулы-1? Есть какие-то конкретные исследования, перцентили? Почему именно 300? Сколько лет опыта необходимо для этого и до какого возраста это работает?
и еще одно свойство глаза, что прямым зрением мы видим меньше гц чем боковым, потому люди могут быстрее реагировать не смотря прямо на объект.
Не понимаю как это связано. Значит ли это что мы должно ориентироваться на частоту воспринимаемую прямым зрением? Или это аргумент за ещё большее количество кадров чтобы картинка хорошо воспринималась и периферийным зрением?
Проблема / преимущество монитора в том что он не знает куда смотрит пользователь.
Это для VR делают "Фовеатную отрисовку" (Foveated rendering) - которая может отрисовывать разные части кадра с разным разрешением, но для монитора, как мне кажется, нужно ориентироваться на худший исход: не стоит делать приложения с расчётом на то, что пользователь будет всегда смотреть в центр.
Поэтому этот аргумент воспринимаю как "прямым зрением ты видишь 240 герц, значит для периферийного нужно 360".
Можно ли сделать так что повышенная частота кадров будет незаметна или даже сделает продукт хуже - несомненно, и, во многом, ваш ответ верен: на данный момент бОльшая часть игр действительно работает с фиксированным количеством кадров, физика работает отдельно от них, интерполяция может убить исходный замысел анимации, физика использует заранее заданные параметры которые ломаются при изменении частоты её просчёта, а глаз не равнозначно восприимчив ко всем изменениям, в частности лампочки, или более радикальный пример - прерывистый свет на концертах / в клубах, когда кажется будто весь мир теперь "отрисовывается" в 1 кадр в секунду.
Но если её делать хорошо, и как мне кажется индустрия идёт в этом направлении, то получается ещё одно качественное изменение, которое заметно улучшает восприятие игры, её анимаций и геймплей.
Upd: Если вы спросите меня какая настоящая проблема того что мы все не перешли на 144 или даже 240 герцовые мониторы, то мой ответ будет что главный виновник - матрицы и их стоимости.
Купить высокогерцовый монитор сейчас очень дёшево, но у него будет TN матрица у которой очень плохая цветопередача. И это ГОРАЗДО заметнее разницы между 60 и 140 кадров в секунду. Всё: ютуб, фильмы, мультики, игры - на этом мониторе будет выглядеть хуже, что очень весомый минус.
На "хорошей" матрице за каждое увеличение частоты и разрешения нужно будет платить всё больше, а потому 140 герц с хорошей цветопередачей сейчас доступно только тем кто готов отдать 700+ евро за один лишь монитор.
через изменение частоты обновления рабочего стола в виндовс
Это там, где курсор все еще перерисовывается с частотой 12-15Гц?
Панорамы и поперечные пролеты — первое же место, где наглядно видно различие в герцовке.
Это там, где курсор все еще перерисовывается с частотой 12-15Гц?
У меня обновляется как минимум 120 раз в секунду.
Я даже не поленился и проверил.
Проверил выставив 144 герц обновление рабочего стола, записав через OBS в 120 кадров в секунду (почему-то максимум, который он мне позволяет), и просмотрев изображение покадрово. На каждом кадре промежутки между которыми ~8 мс курсор находится на другом месте рабочего стола.
Сам файл с видео для подтверждения в Google Drive
Да, как ни удивительно, это так.
Хотя движение курсора осталось таким же рваным визуально, как и ранее
Хотя движение курсора осталось таким же рваным визуально, как и ранее
Вы же понимаете, что это связано не с операционной системой, а как раз с недостатком количества кадров.
У меня курсор установлен на 800 DPI (Dots Per Inch, т.е. точек на дюйм), т.е. двигая курсор на дюйм (2.5 сантиметра) он переместится на 800 пикселей в сторону. Т.е. чтобы курсор плавно двигался на видео с частотой в 120 кадров в секунду, мне нужно нужно двигать его на 120 пикселей в секунду, т.е. 120 / 800 * 2.5 = 0.375 сантиметра в секунду.
Тогда на каждом кадре курсор будет двигаться на пиксель и не выглядеть "рвано"
Сейчас же есть технологии синхронизации монитора с ФПС. То есть, задержка должна быть +/- статичная.
Если речь про G-Sync / Free-Sync, то это правда, но с оговорками.
1) FPS в игре находится у верхней границы частоты обновления монитрора, но не превышает её
2) Не опускается до нижней границы G-Sync диапазона (в статье указано 36 фпс, не знаю отличается ли для более "быстрых" мониторов)
Т.е. грубо говоря, он работает, если он не нужен, в случае превышения частоты кадров, частоты обновления монитора, он может добавлять задержку от 2 до 6 кадров, обычно в 2 кадра: "33.2ms @60 Hz, 20ms @100 Hz, 13.8ms @144 Hz, etc"

При правильной конфигурации ( как рекомендуется в статье, V-Sync: on, G-Sync: on, ограничение частоты кадров в -3 от частоты обновления монитора), задержка действительно получается равномерной. Но в случаях когда мы выпадаем из нормальных условиях, у нас появляются задержки до 6 кадров, что следует тезису сказанному в комментарии, о том что хотя задержка каждого кадра небольшая, когда их несколько - они становятся ощутимы.
Справедливо! Но.
На что обратил внимание когда взял себе моник 21:9 34" 144 герца:
Поставил евро трак симулятор и при сравнении с 60 герц (имитировал старый) со 144, то при езде по трассе на высокой скорости все элементы по краям очень неприятно стробили (грубо столб пролетал за кадр 5мм-10мм по экрану за кадр). Ставишь 144 и прям плавно всё и реально ощущение реальности поездки.
Сравнивал и 100 и 144. (Был HDMI (100 герц макс.), пот. пост. DisplayPort (144 макс.))
Да, это не частый случай в необходимости высокой герцовки, но там где есть быстрое перемещение обектов в экранном пространстве НА БОЛЬШИХ диагоналях мониторов и 240 заметно.
Когда у тебя будет пару тысяч часов в кс-ку, поймешь, бывают динамичные сцены и если моник с хорошей герцовкой, всё имеет знаение и может давать небольшое преимущество в схватке.
Производители устройств гоняются за уменьшением инпут лага иногда на доли миллисекунд. То есть, как минимум, такие ФПС в общей маркетинговой линии. Реально, мне кажется, чуваки тестировали на всем, что на компах стояло и на чём принято тестировать без каких-то там мыслей о том надо столько ФПС или нет.
А сколько фпс было до разгона? А то в нетребовательной игре, да на 4090...
Мне казалось процессоры с 3D кэшем заблокированы для разгона...
Заголовок такой мерзкий, честно говоря. А что не написать, что разгоняется до 12Ггц ари пореблении 30вт и выдает 10к фпс в гта6?
помню времена, когда под жидким азотом процессоры разгоняли до астрономических двух гигагерц при родной частоте в 600 мгц
Плохо, что для обычной работы не очень подходит и в среднем на 30% хуже того же интел.
Хотел в этом году собрать новый комп и для работы и чтобы поиграть можно было. Старое поколение интел жрет электричество и выгорает, новое поколение имеет проблемы со стабильностью, у АМД либо для игр либо для работы.
Если при 6.9Ггц в играх потребление всего 100Вт, то для чего жидкий азот?
Может, там внутри есть 3 транзистора, которые перегреваются от подачи на них 0.2Вт вместо 0.1 :)
Надеюсь, кто-нибудь шарящий в архитектуре пройдет мимо и ответит. Интересный вопрос!
уже лет 6-10 как идёт "эпоха тёмного кремния" и огромной, но не единственной, проблемой построения вычислительных ядер являются локальные экстремумы выделения энергии и мониторинг температуры ядра.
Задачей архитекторов ядра в том числе является предсказания какие инструкции будут выполняться максимально часто и разнести их максимально далеко / равноудалённо от точки измерения температуры
После скоропостижной кончины 5 7600, приобрел R7 8700F.
Do not buy that shit!
Новый Ryzen 7 9800X3D разгоняется до 6,9 ГГц и выдает 1000 fps в CS2, а потребляет всего лишь 100 Вт