Ажиотажный спрос на новые карты Nvidia — заслуга не производителя, а косоруких разработчиков игр

    После презентации новой линейки видеокарт серии RTX 3000, компания производитель графических чипов Nvidia столкнулась с беспрецедентным спросом на свою новую продукцию. Превышение розничных цен на топовые модели RTX 3080 и RTX 3090 составляет и $500 и более, что больше рекомендованной цены на 30-60%.



    Причем просто на завышенных относительно оглашенных на презентации ценах проблемы с новыми RTX не заканчиваются. Так, один из официальных торговых партнеров MSI был уличен в спекуляции новыми видеокартами на онлайн-аукционах, а сами Nvidia заявляют, что купить по адекватной стоимости новые RTX 3080 и RTX 3090 можно будет не раньше следующего года. При этом релиз и поступление в продажу самой «вкусной» карточки RTX 3070 было вовсе отложено на две недели, с 15 на 29 октября 2020 года.

    Человек, далекий от ПК-гейминга и релизов флагманских моделей железа справедливо спросит: «вы там что, совсем кукухой поехали? Какие 1200-1500$ за видеокарту? Какой ажиотажный спрос? Что вообще происходит?» Так вот, сейчас я, автор статьи, объясню, почему Nvidia столкнулась с таким ажиотажем вокруг RTX 3000 серии и почему геймеры с нетерпением ждут поступления в продажу этих видеокарт по заявленной стоимости.

    То что RTX 3000 серии — геймерские карты ни у кого сомнений не вызывает. Для вычислений и науки у Nvidia давно есть карты серии Tesla V100 и Tesla A100. Это мощные графические ускорители за тысячи долларов, задача которых крайне проста и очевидна — считать. Причем считать, в основном, всякие «научные штуки» в составе вычислительного кластера. Новые A100, которые сейчас поступают в ограниченный тест, по заверениям Nvidia вовсе в 6 раз производительнее далеко не слабой V100. Собственно, о возможностях этих карт можно судить по официальным спецификациям с сайта Nvidia:



    Говорю я о семействе ускорителей Tesla по одной причине: архитектура Ampere. Именно она лежит в основе графических ускорителей Tesla и до этого момента карточки на Ampere стоили до $10 тыс. и имели весьма узкую специализацию. В первую очередь, ускорители Ampere были направлены на тренировку нейросетей и по заверениям производителя справлялись с этой задачей на порядки лучше, чем другие решения. По официальным данным, карты на базе Ampere ускорили обучение нейросетей до 20 раз.

    Но тут Nvidia выпускает потребительские видеокарты для геймеров с использованием той же технологии. Это как если бы Intel с 2016 года клепал серверные процессоры на литографии в 2 нм для суперкомпьютеров, каждый из которых стоил бы $10 тыс. и более, а тут внезапно вбросил бы новую серию Intel Core по $500 за штуку на той же технологии. Очередь бы выстроилась знатная.

    Для Nvidia все выглядело красиво: больше мощностей по меньшей, по сравнению с триумфальной серией RTX 2000, цене, «научная» архитектура в компьютерах геймеров, поддержка большего разрешения и так далее и так далее. Вот только в коридорах Nvidia не ожидали, насколько потребитель нуждается в мощной видеокарте и что RTX 2080 Ti уже давно не удовлетворяет всех потребностей рынка.

    Хотя RTX 3000 серии не показывает кратного превосходства над RTX 2080 и RTX 2080 Ti, а грядущий хит продаж — «бюджетная» карточка RTX 3070 всего на десяток процентов производительнее флагмана предыдущего поколения (вдвое меньшую стоимость мы пока опустим), рынок по-настоящему нуждается в этих видеокартах.

    Давайте немного проанализируем, чем меряются производители пользовательского железа на своих презентациях, то есть каких «попугаев» для демонстрации своего превосходства они используют.

    Нанометры, число ядер, частоты, TDP и так далее


    Если говорить о процессорах и видеокартах, то главным аргументом любого спикера, прогуливающегося по сцене и представляющего новый продукт публике, будет размер техпроцесса и количество логических и прочих ядер. Сколько потоков, какой термопакет у нового камня, какую систему охлаждения придумали прикованные к батареи дизайнеры в недрах компании.

    Само собой, идет абстрактное сравнение «производительности» с оборудованием конкурентов и с оборудованием собственного производства, но предыдущего поколения. Все это придает презентации фактуры и заставляет аудиторию качать головой в такт увещеваниями спикера.

    На самом деле, тут иронии минимум. Компании на самом деле добиваются впечатляющих результатов по всем этим параметрам. Особенно радует TDP процессоров «красного лагеря»: AMD последовательно увеличивает производительность своих «камней», при этом удерживаясь в стандартном термопакете уровня 65-105 Вт. Это позволяет не городить огромные системы охлаждения, как во времена «электровафельниц» поколения FX, неадекватно большой термопакет которых стал легендой.

    FPS в играх


    А вот этот параметр всегда стоит отдельно. Как это не удивительно, но и на презентации центральных процессоров, и на презентации видеокарт всегда показывают количество кадров в секунду в самых последних и популярных играх. Вот, последние годы от презентации к презентации мелькают Fortnite, Call of Duty, Battlefield, Apex Legends, Control — короче, все те игры, которые на максимальных настройках графики делают видеокарте больно. Вот в этом году «делали больно» в разрешении 8к.



    Для закрепления можно показать точно такой же по своей сути слайд с презентации процессоров Ryzen 5000 серии, которая прошла около двух недель назад:



    И все эти столбцы всегда выглядят очень красиво и приятно. С каждым поколением производительность видеокарт и центральных процессорах в играх растет, а именно для игр это железо, в основной своей массе, и производится. Вот только все не так просто.

    Почему все геймеры мира хотят оторвать разработчикам игр руки


    Одна из главных причин, по которой геймеры всего мира бросились заказывать новые RTX 3080 и RTX 3090 в надежде заполучить карточку любой ценой не в тупости этих самых геймеров, и даже не в желании «опробовать революционные 8к» и так далее. Главная причина — желание получить хоть сколько-нибудь стабильную производительность, которая бы соответствовала бы возможностям современной периферии, в первую очередь, мониторам.

    Для людей, далеких от игровой индустрии расскажу одну тайну: 60 FPS уже давно не стандарт. Да, почему-то на презентациях производители до сих пор говорят о «стабильных 60 кадрах в секунду», как будто бы эта производительность дает идеальный игровой опыт, но суть в том, что на рынке игрового оборудования уже давным-давно доминируют мониторы с частотой обновления экрана в 144 Гц, а на пятки им, стремительно дешевея, наступают мониторы с частотой 240 Гц.

    Это значит, что для плавной картинки на этих экранах нужен и соответствующий FPS: 144 и 240 кадров соответственно.

    И вот тут кроется корень проблем всей индустрии. Если раньше высокогерцовые экраны были прерогативой киберспорта, игроков в CS:GO и Quake, то теперь 144 Гц есть у любого уважающего себя игрока. 60 кадров остались в далекой древности: сейчас это стандарт для бюджетных «офисных» мониторов, потому что частота в 144 Гц дает ощутимое преимущество.

    Описать на словах эффект от высокогерцового монитора сложно, но я попробую: представьте, что все внезапно стало двигаться чуть медленнее и намного плавнее. В движении пропадает эффект размытия и вы начинаете замечать малейшие детали. Вращение камеры вокруг своей оси больше не вызывает дезориентацию, вы продолжаете четко видеть окружающий персонажа мир. На рабочем столе движение курсора теперь намного более явно: если на 60 Гц при резком движении мышью вы зафиксируете взглядом курсор мыши в 5-6 местах, то уже на 144 Гц вы увидите его одновременно в 15-20 точках. На 240 Гц экранах эффект еще более впечатляющий, вы буквально взглядом сможете зафиксировать весь путь курсора мыши на высокой скорости. Для иллюстрации хорошо подходит знаменитый кадр из CS:GO, который демонстрирует разницу в тикрейтах сервера. Примерно то же происходит на высокогерцовых мониторах в плане отрисовки движения:



    Именно поэтому, для четкого отображения происходящего в малейших деталях, все геймеры планеты уже плавно перешли на 144 и 240 Гц дисплеи, а кто не перешел — либо мечтает перейти, либо играет исключительно в пасьянс.

    Но при этом нас до сих пор настойчиво убеждают, что 60 FPS — достаточное значение производительности. На этот параметр ориентируются разработчики игр, ориентируются производители железа. Однако как только речь заходит о работе игры в стабильных 144 FPS или, боже упаси, 240 FPS, пусть и на минимальных настройках графики, начинает происходить непонятное: ни одно существующее оборудование не может толком справиться с этой задачей.

    Давайте возьмем две самые «косорукие» игры современности в плане перфоманса: Call of Duty: Warzone и Apex Legends. Обе делались совершенно разными студиями. Первая — производства Activision Blizzard, вторая — Respawn Entertament под патронажем Electronic Arts. Обе из популярного жанра Battle Royale, обе имеют обширные карты и огромную фанбазу.

    Для обоих игр буквально с момента их релиза инженеры Nvidia истерично клепают патчи видеодрайвера, чтобы хоть как-то заставить их работать. Именно инженерные команды драйверописателей уж точно в курсе, что игрокам глубоко плевать на 60 FPS, вертикальную синхронизацию и все то, что увеличивает инпутлаг. Им нужны максимально высокие стабильные кадры хотя бы на топовых видеокартах.

    Если вы не верите этому утверждению, можете погуглить сами: в сети сотни статей о повышении FPS в Call of Duty и Apex Legends, сотни тредов о конфигах, которые бы уменьшали графику или убирали «лишние» модели для снижения нагрузки на видеокарты, а так же масса рассказов о шаманизме, разгоне железа и прочих плясках с бубном.

    Просадки производительности в топовых онлайн-играх, особенно в динамичных шутерах — болезненная реальность игровой индустрии последних лет. Разработчики буквально забивают болт на производительность своих продуктов за пределами 60 FPS и включенной вертикальной синхронизации, которая погружает камеру в «кисель» и создает чудовищный инпутлаг, чем вынуждают игроков вкладываться во все более и более мощное оборудование.

    Скажу больше, все настолько плохо, что RTX 2080 Ti в указанных играх способны выдавать стабильные 144-190 кадров в секунду только при минимальных конфигурациях графики, но даже при этом иногда случаются дропы FPS! Любая граната, блик или огонь в кадре — и все, ваши фреймы машут вам рукой и говорят «ну, как это закончится, наберешь», FPS проседает до сотни.

    Ситуация достигла уже такой шизы, что Nvidia приходится на своем официальном сайте выпускать официальные гайды по настройке видеокарты и графики в игре, чтобы выжать из нее необходимые комфортные для игроков значения кадров!



    Именно по этой причине значительная часть геймеров и ломанулась покупать новые RTX 3080 и RTX 3090, просто в надежде, что уж на этих-то картах любимые игры смогут работать стабильно хотя бы на минимальных настройках графики.

    Это не заговор, это нулевая культура разработки


    Сейчас рынок находится буквально в западне. С одной стороны с каждым годом выходит все более и более мощное оборудование. Банально память DDR4-1600, которая лет пять назад считалась «неплохой», сейчас уже перешла в категорию «медленной офисной», а топовые когда-то DDR4-2400 сейчас просто середняк. То же происходит с процессорами, видеокартами, скоростью дисков и так далее и так далее.

    Неискушенному пользователю, далекому от гейминга, может показаться, что конфигурации из i9-10900k, DDR4-3200, разогнанной до 4000 Mhz, все это с быстрым SSD и RTX 2080 Ti должно хватать для чего угодно на ультра настройках, но правда в том, что эта конфигурация с трудом обеспечивает 144-200 FPS в новых проектах. Вычеркните из списка выше любую составляющую и вставьте что-то «попроще и дешевле», например, RTX 2060S или core i7, и показатели кадров упадут минимум на 30%.

    И виной всему не жадность производителей оборудования, а именно косорукость разработчиков и жажда наживы их издателей.

    На тестирование и оптимизацию потребления ресурсов в 2019-2020 годах в индустрии был забит настолько большой болт, что будь он реальным, его было бы видно с МКС. Самый лучший пример, это сравнение Apex Legends и предыдущей игры Respawn Entertament — Titanfall 2.



    Первая делалась в спешке, под постоянным давлением со стороны издателя, который бубнел над ухом команды разработки «нам срочно нужен свой батлрояль со скинами и лутбоксами». В итоге мы получили перспективный в плане геймплея проект (он опирается на многие механики и лор Titanfall 2), с абсолютно нулевой оптимизацией и отвратительным неткодом.

    Titanfall 2, который вышел в 2016 году, почти всегда выглядит лучше и работает в разы стабильнее даже на средних конфигурациях железа, нежели быстро слепленный ради создания конкуренции PUBG и Fortnite модный Apex Legends. Не знакомый с проектами человек вообще посчитает, что Apex вышел в 2015-2016 году, а Titanfall 2 — свежий релиз, если показать их ему одновременно, хотя все с точностью, да наоборот.

    Та же мрачная история происходит и с Call of Duty и прочими свежими проектами. Потребитель превратился в бесконечного бета-тестера, которому постоянно приходится выбирать между покупкой нового, более мощного железа, либо лагами.

    Кстати, именно по этой причине многие с сомнением смотрят на будущее новых Xbox и PS5: если даже современные ПК толком не справляются с современными играми, то что смогут консоли? Будут ли сетевые кроссплатформенные проекты достаточно оптимизированными для игры в них? Опыт PS4 Pro и Call of Duty или Apex Legends показывает, что консоли банально не справляются с продуктами, которые почти полностью состоят из кода сомнительного качества. А про размеры Call of Duty в 200+ Гб уже просто ходят легенды.

    Как это изменить


    Я надеюсь, что когда-нибудь Nvidia надоест тратить силы и ресурсы на выпуск бесконечных патчей драйверов, которые улучшают производительность в проблемных популярных играх. За последние два-три года, с ростом популярности Fortnite, Apex Legends и Call of Duty Warzone компания-производитель оборудования выпустила столько патчей драверов и технологий, которые бы улучшали перфоманс в этих проектах (чего стоит хотя бы Nvidia Reflex, которая значительно снижает инпутлаг в Apex Legends и Warzone программным путем), что начинает кружится голова. Я за этот срок обновлял драйвера чаще, чем за предыдущие 10 лет вместе взятые.


    Абсолютно привычная картина при входе в NVIDIA GeForce Experience

    Выход из этой ситуации видится только один. Прекратить порочную практику «тяп-ляп и в проду, а Nvidia потом выкатит оптимизационный патч» возможно только в случае, если сами Nvidia объявят, что разработчики игр ведут себя, мягко говоря, нехорошо, и забили болт на оптимизацию. Должна случиться еще одна война в стиле «Epic Games VS Apple» только в этом случае с одной стороны будет производитель видеокарт, а с другой — игровые издатели, которые стоят с плетью и погоняют разработчиков, требуя от них новых лутбоксов и сезонов в ущерб качеству фундаментального кода.

    Но случится это, только если Nvidia наконец-то пересилит свое желание продать как можно больше флагманских карт и выступит против творящейся в игровой индустрии вакханалии, у нас есть шанс получить нормальную производительность в игровых проектах и отсутствие ажиотажного спроса на новые модели видеокарт.

    Вот только верится в это с трудом.
    Дата-центр «Миран»
    Решения для аренды и размещения ИТ-инфраструктуры

    Комментарии 314

      +13
      С такими бы статьями на оверклокерс.ру (нынешний).
        0

        По поводу курсора на десктопе — брехня. Я когда Wacom Cintiq начал юзать, меня курсор страшно бесил. Полез разбираться — скорость отрисовки аппаратного курсора не связана с частотой обновления экрана и определяется спецификациями каких-то тараканьих годов. По моим наблюдениям — порядка 15 герц, вне зависимости от того, что S3 Trio 3D у вас, или Nvidia RTX100500.

          +2
          У меня прямо сейчас два ПК на столе, один 60 Гц, второй 144 Гц. Курсоры рисуются по-разному. Я сошел с ума?
            0
            1. Мы говорим про аппаратный курсор видеокарты, не про софтовый (как во многих играх)
            2. Посмотрите в slow-mo, так, чтобы можно было посчитать задержку между движениями курсора.

            Возможно, дело в удалении trail'а (послесвечении). Я не про это. Я про фактическое движение. Я начинал с этим разбираться в линуксах, потом проверил — в виндах и на маке одно и то же.

              +1
              Речь же шла не о том, как это происходит под капотом, а о том, как это ощущается визуально.
                +5

                Ощущаться оно может как угодно, но если там те же 15 fps, то толку от 144.
                С большой вероятностью, вы видите эффект от black фреймов (или как они там называются), которые уменьшают послесвечение.

                  +1
                  Полагаю, ощущается уменьшение инпут-лага.
                  Записал сейчас сло-мо, пошевелил курсором — да, как раз 15 кадров в секунду.
                    +8

                    Т.е. я про это с криком "брехня" и говорю. А главное, в играх уже, вон, 144, и 250Гц, а десктопный курсор всё так же застрял в VESA 800x600x256 цветов, 15 fps, какая ляпота.

                      +1
                      Мда, вот в какую сторону какахи надо кидать, а не в производителей игр.
                        +2

                        Вы явно дезинформацию пишете. В Windows (за старую XP не скажу, там ещё окошки программно рисуются) указатель рисуется в зависимости от герцовки выставленной монитору в системе. В интернете на специализированных сайтах полно доказательств этому.
                        В Linux/MacOS понятия не имею как с этим.

                          0
                          за старую XP не скажу, там ещё окошки программно рисуются

                          Эээ, 2д-окошки тогда как раз наоборот аппаратно рисовались, да перестали в новых версиях (вернее финальная отрисовка переехала на аппаратные плоскости в 3д, но само содержимое 2д окошек стало рисоваться софтварно, ЕМНИП)
                            0

                            Возьмите телефон, сделайте slowmo для движения курсора. (Я про обычный десктопный курсор, не в играх).

                              +3

                              На моём 60Гц мониторе получилось ровно 60 кадров в секунду, ЧЯДНТ? https://www.youtube.com/watch?v=vW8gEJ_oavI
                              (видео местами дёргается потому что мой телефон зачем-то снимает 77 кадров в секунду)

                                +5

                                Я открыл плеер с функцией прыжков по кадрам (vlc, 'E'). Проверил.


                                И, кажется, мне очень стыдно. Я вычел один тайминг из другого и получил… 17. Не фреймов. Милисекунд. Кажется, я просто забыл поделить на единицу.


                                Мне стыдно.


                                Интересно, на 144/250Гц мониторе курсор двигается с задержками в 7/4 ms?

                                  +2

                                  Hint: на ютубе тоже можно двигаться по кадрам, тыкая в точку на клавиатуре)

                                    0

                                    На самом деле по сравнению с моими экспериментами, главное — вы таймер на экран вывели. Я кропел над формулами fps'ов с slow-мо и забыл поделить. Получилось 16-17 (что логично было округлено до 15). Это были милисекунды, но я решил, что это fps.


                                    Видимо, если на 250Гц мониторе быстрый курсор, то я становлюсь фанатом 250Гц мониторов. Потому что 60Гц для рисования никак не хватает.


                                    Если штрихуешь, это порядка 2-5 штрихов в секунду. 60 fps = до 12 кадров на штрих. Если штрих хотя бы 10см (забыли про пикселы), то при условии, что штрих "разгоняется/замедляется", положения курсора выглядят так:


                                    * *    *        *                   *       *     *   * *

                                    (я сократил число точек, чтобы влезло в одну строку).


                                    Страшно бесило. Да, 60 fps уныло.

                      0
                      Заметки на полях: ну вы ошиблись и признали свою ошибку (с кем не бывает — no big deal в моих глазах), но люди вас плюсовали, и интересно, почему…
                        0

                        Потому что если подёргать курсор на экране (особенно, на 25"+), то будет полная иллюзия, что это 15 фпс. Очень рябит.

                          0
                          Вот шаг от 60 к 144 в таких вещах очень заметен. А далее нужны шаги все больше и больше, т.к. в миллисекундах разница становится все меньше и меньше. После ~400Гц придется делать скачок сразу к заветной 1000Гц, чтобы это имело смысл.
                  0

                  У меня рабочая машина с монитором на 60 Гц и игровая на 144. Разницы я не вижу вообще.

                    +2
                    У сына монитор 144 Гц, при перемещении окон разница видна невооружённым взглядом (хотя не могу сказать, что за эту разницу я готов заплатить много денег).
                      +2
                      А много и не надо, зачастую после того как технология пришла, она становится просто бесплатной (дефолтной) частью обычных продуктов :) Первые пользователи — да, оплатили сполна развитие, а дальше просто будет в каждом мониторе.
                      +1

                      А вы в настройках ОС-то включили частоту обновления 144 Гц? Она автоматически не обновляется с 60 при смене монитора.

                        0
                        Не знаю как при смене, но у меня для новой установки и мониторов 75 ГГц выставилась родная частота.
                          +3
                          для новой установки и мониторов 75 ГГц выставилась родная частота.
                          75 гигагерц? Неплохо.</s>
                          75Гц и у меня выставилось… когда я подключил 144Гц монитор.
                            0
                            А говорили 60.
                              +1
                              Я не говорил. Но то, что частота выставляется не максимальная доступная — это факт.
                        0
                        Начинали еще с CGA-EGA-VGA? ;)
                        Я вот долго не мог понять, что означает столь популярное «мыло». И до сих пор не уверен, что правильно понимаю.
                      +5
                      Вы ошибаетесь. В статье ситуация с курсором описана верно. Отрисовка курсора происходит при каждом обновлении экрана, что логично. И чем выше частота этого обновления, тем плавнее курсор визуально.

                      На частоту обновления координат курсора сообщаемых операционной системой приложениям его отображение не влияет и зависит от поддерживаемой частоты опроса устройства ввода, мыши, трекпада, планшета. Как правило она значительно выше.

                      Если у вас курсор обновляется с частотой в 15 кадров в секунду при вводе с Wacom Cintiq, то это проблема исключительно Wacom Cintiq или его драйверов. Можете убедиться в этом хотя бы тут zowie.benq.com/ja/support/mouse-rate-checker.html, сравнив его с нормальной мышью с частотой в 1000Hz.
                      Беспроводная Logitech G603
                      image
                        +2
                        Частота опроса с частотой отрисовки курсора не связана никак вообще.
                          +4

                          Частота опроса не связана с частотой отрисовки, но результат отрисовки зависит от частоты опроса. Если устройство ввода предоставляет данные с частотой всего 15 Гц, то отличаться между собой результаты отрисовки будут тоже только 15 раз в секунду, а остальное время будут повторяться.

                            0
                            Но и с другой стороны — если устройство ввода предоставляет данные с частотой 1000 Гц, то это не значит, что и курсор будет отрисовываться на экране с такой частотой.
                              0
                              Если графическая карта и монитор будут работать в режиме обновления 1000 Гц, то и курсор будет отрисовываться с такой же частотой. Но на данный момент монитор с поддержкой более 300 Гц на рынке не представлен.
                                +1

                                Отрисовываться будет, а вот сдвигаться в сторону будет не чаще, чем 15 раз в секунду. Т.е. если refresh ratio (условные) 150Гц, то движение курсора будет происходить не чаще, чем раз в 10 кадров.


                                Enjoy.

                                  +1
                                  Серьёзно, это видимо какая-то особенность вашего планшета или системы, но обычный курсор совершенно очевидно _не двигается_ 15 раз в секунду, это было бы совершенно невыносимо.
                                    0

                                    В треде выше выяснили — это моя ошибка деления. 15мс vs 15 fps.


                                    Я теперь фанат 250Гц.

                                      +3

                                      Я фанат 1000fps после этого видео и другого релевантного ресёрча, но это придётся ещё чуток подождать (пока максимум доступный просто в магазине это 360гц. Кстати, для рисования ipad pro должен быть хорош — там 120гц и эпл уделяет много внимания снижению задержки со стилуса, но я не художник, лично оценить не могу, кроме того, что отзывчивость в целом очень нравится


                                        0
                                        У меня iPad Pro для чтения книг, рисовать на нем можно, но не нужно.

                                        Я использую стилус для заметок и для рисования по PDF при чтении. Очень далеко от бумаги по точности и не очень хорош по скорости.

                                        Хотя свое дело железка делает и лучшего пока ничего не нашел
                                      0
                                      «Совершенно очевидно» — это не аргумент. Для меня тоже было совершенно очевидно, а записал видео — и там 15 fps.
                                        0
                                        Однако у автора оказалось не 15 фпс, он ошибся в расчётах. :)
                                          0
                                          У автора расчёты, а у меня эксперимент.
                                          При этом частота опроса порта — стандартные 125 Гц.
                                            0
                                            У автора расчеты на основе такого же эксперимента. Исходите из того, что курсор ОС всегда передвигается с той же частотой, что обновляется экран (или с частотой устройства ввода, если она окажется ниже) и ищите где ошиблись.
                                    0
                                    Я неправильно выразился. Отрисовываться — да, а вот менять свое положение — вовсе необязательно.
                              0

                              Отрисовка курсора происходит аппаратно, на каждом кадре. Но положение курсора меняется не более чем 15 раз в секунду. Просто возьмите вашу тысячегерцовую мышку, повозюкайте на вашем 250Гц экране, запишите видео в slow-mo и увидьте самые что ни на есть посконные 15Гц, которые выглядели удивительно хорошо для VESA 640x480, и даже для 1024x768.


                              Т.е. ввод у вас на ТЫЩУ герц в секунду. Вывод на 250Гц, а обновление — пятнадцать раз в секунду. Не нравится? Отключайте курсор. Именно так я и сделал в krita при рисовании. Я отключил курсор, и krita была способна рисовать размытые сложные текстуры кисти быстрее, чем видеокарта показывала курсор.


                              И API отрисовки курсора насрать сколько у вас герц. Сказали 15, значит 15.

                                +1
                                Скажите, вы сейчас о какой именно операционной системе говорите?
                                  +2
                                  У вас проблемы с конфигурацией. Не стоит думать, что все страдают так же как вы и дезинформировать остальных.

                                  Пожалуйста, обычный монитор на 60 Гц
                                  image

                                  Как видите на обычном офисном компьютере с Windows 10 курсор вполне себе перемещается 60 раз в секунду. У нас в 2020-м ваши проблемы давно решены.
                                    0

                                    Это интересно. Вы делали screen capture? Я смотрел на slow-mo и считал задержку между прыжками курсора. У меня получалось 60ms.

                                      0
                                      Да, это запись экрана через OBS Studio. Снимать экран на видео в данном случае нет необходимости, т.к. если обновление курсора уже происходит 60 раз в секунду, то при выводе на экран эти обновления никуда исчезнуть не могут в принципе, если не уменьшать частоту обновления всего экрана с пропуском кадров.
                                        +1

                                        Т.к. аппаратный курсор не захватывается с экрана (его нет на bitmap пикселей), то его "пририсовывают" по текущему положению при захвате (для этого есть спецопция — показывать курсор). Может ли быть так, что его пририсовывают чаще, чем видеокарта отрисовывает?

                                          0

                                          Даже если и может, я вот заснял монитор камерой телефона, и всё равно получилось 60 раз в секунду https://habr.com/ru/company/dcmiran/blog/524256/#comment_22212908

                                            0
                                            На счет изображения самого курсора на видео вы правы, т.к. со стороны разработчиков OBS куда удобнее отрисовывать курсор для каждого кадра кодируемого видео из координат системного API, нежели как-то синхронизировать его с частотой обновления экрана, которая может быть совсем иной и никаких преимуществ не даст.

                                            Но визуальные эффекты вызываемые курсором отрисовываются только, если сам курсор отрисовывается на них. Иное поведение сильно бросалось бы в глаза и раздражало бы пользователя как «тормознутость» интерфейса.

                                            Я вижу, что вы уже нашли источник ошибки в определении частоты отрисовки вашего курсора и дополнительные доказательства вам уже вряд ли требуются.
                                  0
                                  скорость отрисовки аппаратного курсора не связана с частотой обновления экрана и определяется спецификациями каких-то тараканьих годов.

                                  Программа F.lux при включенной соответствующей опции, насколько я понимаю, меняет курсор на софтверный при необходимости (например, при сильном снижении яркости, или включении различных фильтров) — т.к. в противном случае штатный курсор слишком выделяется. Этот софтовый курсор будет плавно двигаться, интересно?
                                    0

                                    Меняет курсор на софтверный или просто меняет аппаратную иконку на желтенькую?

                                  +11
                                  Так было бы это еще только в играх, весь софт жиреет на глазах.
                                    +3
                                    Сколько там нынче занимает обычная вебстраница с статьей в три абзаца теста и парочкой иллюстраций?

                                    Сто, двести мегабайт?
                                      +2
                                      Вот эта, с картинками, скриптами и комментами 9 с чем-то
                                        +1

                                        Кстати для улучшения восприятия мегабайта: 1 мегабайт ~= 1 книга в 300..400 страниц.
                                        То есть 3.5 мегабайта ~= 1 x "Война и мир".
                                        А эта, с картинками, скриптами и камментами — как увесистая книжная полка.
                                        Такие дела.

                                          0
                                          Сравнивать картинки с текстом — в корне не верно, всё-таки если картинки будут во всё той же книге, то она тоже просто начнёт весить и 900Мб (большие электронные книги по биологии, например)
                                          Хотя даже без картинок много весит, это бесспорно) У меня был «проект» (эксперимент) — страница в 1 пакет (1500б с учётом заголовков после gz). Продуктовая ценность сомнительна, но как челлендж)
                                            0
                                            Когда-то мне выписывали журнал «Юный техник» и там они писали про флоппи-диск (кмк, 1.44М): «на него можно переписывать почти весь выпуск журнала». Т.е. журанл ЮТ занимал порядка 1.44М, чуть больше, в начале 1990-х. Без картинок — не поверю, не такой уж большой журнал, точно не Война и Мир, даже с разметкой полтора метра не будет. А с картинками как-то маловато.
                                            0
                                            Что очень мало и скромно.

                                            Если лет пять назад ругались на кликбейтные гифки по мегабайту весом, то как я заметил, сейчас перестали стесняться даже встройки рекламных видеороликов на 30-50 мегабайт.
                                        +2
                                        Интересно, ноутбуки поддерживающие 4к со 120гц и выше по hdmi и/или dp есть? Не спрашивали бы тут, но по текущим каталогам ЯМ и прочим фильтров такого рода просто нет. Просто интересно — вот этот весь ажиотаж по поводу 120гц и выше — он для десктопов в основном или и для ноутов тоже.
                                        p.s.: То что есть ноуты со 120гц и выше на родном мониторе — знаем, речь именно про возможность подключения большго внешнего телека (по хдми) или монитора (по хдми или дп).
                                          0
                                          Выход сигнала 4k@120hz поддерживает только серия nvidia 3000, ноутбуков с такими карточками пока нет. Edit: по HDMI, DisplayPort не часто в ноуты ставят.
                                            +1
                                            сейчас в ноутбуках новый тренд ставить usb type-c с проксированием HDMI и DisplayPort
                                              0
                                              Можно в качестве адового workaround-а прицепить eGPU через Thunderbolt, если ноутбук на Интеле, и туда уже внешний монитор. (Это немношк читерство, да.)
                                              0
                                              4k@120 на ноутбуке — это разве что пустой экран рендерить. (Но да, вывести на телевизор тоже не получится.)
                                                +1
                                                В статье просто было сказано про плавность даже интерфейса виндов в 120гц, нагрузки на видяху там примерно ноль от интерфейса и если разница заметна, то почему бы и нет? На монитор (дп) или на телек (хдми) вполне приятно было бы вывести.
                                                  0
                                                  Я в самом деле не уверен, насколько заметна разница — т.е. я юзаю монитор 144 Гц, но на нем ведь открыт, грубо говоря, браузер и ютуб, а в ютубе видео максимум 60 фпс по-моему. Или редактор, а в нем буквы.

                                                  Вот в играх да.
                                                    0
                                                    Разница очень ощутима при скролле, движении курсора, перемещении окон.
                                                    Стоит ли оно того _только_ для этих кейсов — вопрос философский (по-моему, не очень; а вот для игр, даже несоревновательных — да, разница невероятная), но разница есть.
                                                      0
                                                      а в ютубе видео максимум 60 фпс по-моему
                                                      Если открыть 60фпс видео и включить скорость 2х, то будет 120, утверждают.
                                                +4
                                                Я один не понял как геймеру поможет 144 Гц на мониторе если на сервере просчёты, трассировки и синхронизация игроков не зависят от его видеокарты и скорее всего осуществляются раз 10 в секунду?
                                                  0

                                                  в CSGO есть серваки с 128 hz тикрейтом, в автосимуляторах физика на клиенте считается, да и вообще лучше иметь частоту игры в 2р больше чем тикрейт сервера, кто хоть недельку играл на быстром мониторе назад не вернется..

                                                    +4
                                                    в CSGO есть серваки с 128 hz тикрейтом
                                                    Вот это уже интересно, почитаю, спасибо.
                                                    в автосимуляторах физика на клиенте считается
                                                    Если это лишь для красоты ОК, иначе прямой путь для читеров.
                                                      +6

                                                      В Assetto Corsa физика тикает на 333 hz только на клиенте, сервер верит клиенту на 100%. И большая часть шутеров работает по схожему принципу, отсюда и миллиарды читеров.

                                                        +1

                                                        Если взять не авто-, а авиасимуляторы (DCS), то играть с большими пингами таки боль.

                                                        0
                                                        прямой путь для читеров

                                                        Так их там не мало. Автосимы спасает только нишевость. Были бы они так же популярны, как CSGO, играть было бы невозможно.

                                                      +6
                                                      Если быстро развернуться в шутере, при 144 Гц геймер может увидеть больше промежуточных кадров, что позволяет лучше определить нахождение и скорости противников.
                                                        –1
                                                        позволяет лучше определить нахождение и скорости противников
                                                        Все эти параметры приходят с сервера, если же игра пытается интерпретировать положение игрока то получится, что на клиенте вы выстрелили в противника, а для сервера это ещё/уже пустое место — вы уверены, что попали, а сервер говорит «мимо». Я не прав?
                                                          +5

                                                          Расскажу на примере движка Source. На клиенте и сервере есть все игровое состояние, клиент выполняет некоторую интерполяцию (если пинг совсем уж большой, то даже екстраполяцию). Также, клиенту известно что находится сзади игрока, то есть если вы повернётесь назад то вы увидите что там есть (или было на сервере несколько мгновений тому). И сможете среагировать на чувака, который на вас целится.


                                                          А теперь перейдём к самому интересному: стрельбе. Когда вы стреляете, то вы отправляете эту команду на сервер, сервер знает пинг и временно «в уме» возвращает всех игроков в те позиции, которые были когда клиент стрелял. То есть, если клиент попал, то независимо от ринга он реально попадёт. А вот если в вас стреляли, вы спрятались за стену, то не факт что вы живы — есть небольшой промежуток времени (100-200 миллисекунд) когда вас могли убить.


                                                          Подробнее можете почитать здесь: https://developer.valvesoftware.com/wiki/Source_Multiplayer_Networking

                                                            –3
                                                            Я в достаточной мере, надеюсь, представляю как работает сетевая синхронизация, что снова возвращает нас к вопросу, если все расчёты идут на сервере, то частота обновления кадров у игрока на компе особой роли не играет. Потому что это не может быть TCP с нарастающим лагом по времени, а в случае с UDP возможны «скачки» позиций других игроков (что иногда и наблюдается в играх) связанные именно с интерпретацией и восполнением потерянных пакетов и редким просчётом на стороне сервера и, следственно, «промахи» когда игрок уверен, что попал.
                                                            Если просчёт идёт на строне игрока — это прямой путь к читерству, тем более, что у кого-то 150 fps, а у кого-то 30 и синхронизироать их практически невозможно.
                                                            По приведённой ссылке как раз и описываются методы компенсации сервера, просчитывающего положения игроков 10 раз в секунду.
                                                              +3

                                                              Частота кадров играет роль. Как минимум, при большей частоте кадров меньше задержка между тем игровым состоянием и рендером на экране. Если брать в пример киберспорт, то на чемпионатах используется локальная сеть, поэтому пинг — абсолютно не проблема. Если пользовательский сегмент — просто плавнее всё.

                                                                –1
                                                                Частота кадров играет роль. Как минимум, при большей частоте кадров меньше задержка между тем игровым состоянием и рендером на экране.
                                                                А игры до сиз пор однопоточные? О_о
                                                                Если на сервере просчёт идёт условно 10-20 раз в секунду, я не понимаю как это снизит задержку между игровым состоянием и рендером, который и так обновляется 60 раз в секунду, ну будет обновляться 144, и? Синхронизация с сервером то всё равно в большинстве случаев реже.
                                                                  +5

                                                                  Следовательно, если на сервере всё считается 10 раз в секунду, на клиенте будет достаточно 10 кадров, верно?


                                                                  Мы сильно переплачиваем даже за 60 Hz мониторы

                                                                    0
                                                                    Учимся читать что написано, а не додумывать, речь шла какие именно преимущества даст 144 Гц перед 60 Гц при том, что играем в онлайн игру с расчётом положений игроков на стороне сервера.
                                                                      0
                                                                      Ещё раз: с учётом того, что 1) наиболее требовательные к скорости реакции соревновательные игры играются на серверах с тикрейтом 60+, а то и 120+ и 2) есть интерполяция (и положения игроков/объектов в том числе) и синхронизация, разница есть, и она о-гром-на-я.
                                                                    0

                                                                    Не так часто просчёт на сервере идёт 10-20 раз, разве что медленных играх, к примеру в Minecraft — 20 раз в секунду. Но в быстрых играх эти значения намного выше — в CS GO 64 или 128 тиков за секунду. Рендер не всегда рендерит актуальное состояние, происходит например интерполяция (плавное перекрещение между предыдущим и следующим состоянием происходит несколько кадров) и у вас плавнее картинка.

                                                                      0
                                                                      Я говорил не о плавности картинки как таковой, а о том, что 144 Гц не даёт преимуществ игрокам, а порой наоборот может привнести негатив, когда из-за низкой скорости синхронизации будут возникать разночтения между сервером и клиентом.
                                                                      Если я сейчас на ютубе посмотрю несколько видео стримеров по CS:GO или летсплейщиков я точно ни разу не увижу ситуацию когда они выстрелили точно в противника, а пуля/снаряд/что-то ещё прошли насквозь так как серверная коллизионная модель не совпала с клиентской?

                                                                      Речь в оригинальной статье шла же только о волшебном мире топовых видеокарт в связке с 144 Гц мониторами, и автор ни разу не обмолвился, что для он-лайн игроков скорость просчёта на сервере может быть даже важнее, а в идеале она должна быть более-менее синхронна частоте кадров.
                                                                        +1
                                                                        автор ни разу не обмолвился, что для он-лайн игроков скорость просчёта на сервере может быть даже важнее,
                                                                        В статье о тёплом автор ни разу не обмолвился о том, что мягкое тоже важно, действительно, шокирующие новости.
                                                              +4
                                                              Дело не в том, успели ли вы в него выстрелить, когда увидели, а увидели ли вообще и сколько кадров с ним вы увидели. Потому что если на одном кадре он был от вас за стеной, а на следующем уже пробежал просвет или застрелил вас — то вам не поможет никакая реакция.
                                                                0
                                                                Вы сейчас про разницу между 60 и 144 Гц или про 10 и 60 fps?
                                                                  0
                                                                  И так, и так. Прыгающий игрок пролетает мимо вашей «форточки»/бойницы — можете и на 60Гц не успеть увидеть либо вообще ничего, либо деталей. Либо увидеть только часть его тела. Кроме полёта так же работает и с просто быстрым поворотом «головы» (поля зрения).
                                                                  Кроме прочего, просто движущийся предмет при слежении за ним глазами размывается обратно пропорционально ФПС (посмотрите на тот же «НЛО-тест»).
                                                            +3
                                                            Прицеливание локальное, и реакция персонажа на ввод тоже локальная. А другие игроки интерполируются, игра додумывает промежуточные значения. Т.е. визуально они тоже движутся плавнее, хоть это и менее точное представление.

                                                            Еще в играх навроде CS:GO ввод обрабатывается в каждом кадре, т.е. выше фпс == меньше инпут лаг. Поэтому все отключают v-sync и ограничение по фреймам, и рендерят 300-400 фпс, хоть монитор и отдает 144.
                                                              0
                                                              Прицеливание локальное
                                                              И поэтому в некоторых играх можно включить серверный прицел?
                                                              Локальное прицеливание — открытая дорога для читеров с автовыцеливанием уязвимых зон. Если это так, в CS:GO играть я бы не хотел.
                                                                +1
                                                                Нет, прицеливание как процесс происходит локально. Вы двигаете мышкой, мир вокруг камеры поворачивается. Чем ниже фпс, тем сложнее точно навести перекрестье на цель, особенно в движении.

                                                                Что такое серверный прицел? Вы про hit reg? Это конечно на сервере.

                                                                (Ну и да, вы бы не хотели играть в CS:GO безотносительно. Никто бы не хотел. Просто соревновательных шутеров-то не делают, вот и насилуем потихоньку труп с графикой родом из 2004.)
                                                                  0
                                                                  Никто бы не хотел. Просто соревновательных шутеров-то не делают, вот и насилуем потихоньку труп с графикой родом из 2004
                                                                  Неправда, отличная игра.

                                                                  Соревновательные шутеры делают — Apex Legends, R6: Siege, Valorant, в конце концов Diabotical и Quake Champions живые. Вот только КС лежит в практически идеальной нише easy to learn — hard to master, который делает её практически «непобедимой» с т.з. и простоты вовлечения игрока, и простоты вовлечения зрителя, если мы говорим о киберспорте.
                                                                    0
                                                                    Ну я про это и говорю, навешают свистоперделок, какие-то классы персонажей с абилками а-ля Дота, с магией и девочками-волшебницами — вот и возвращаемся каждый раз в CSGO.

                                                                    Я ж её тоже люблю, классная игра. Сделайте мне такую же точно, но с графикой! Нет, вот тебе вместо этого Overwatch, который по сути Дота от первого лица, и вот тебе еще Fortnite, где противник превращается после одного выстрела в девятиэтажный дом.

                                                                    Беда печаль.
                                                                      0
                                                                      Сделайте мне такую же точно, но с графикой!

                                                                      А собственно зачем?
                                                                        0
                                                                        «такую же точно, но с графикой» делать, во-первых, сложно (повторять всякие там quirks физики движка — а это на высоком уровне в КС крайне решает, тонкости вашего микроконтроля это прям всё-всё-всё), во-вторых, не шибко нужно широкой публике — то, что КС можно запускать по современным меркам хоть на утюге, идёт ей только в плюс. Охват больше. А на серьёзном уровне, опять же, игроки настройки графики и разрешение дропают «в ноль», чтобы добиться стабильно высокого фреймрейта и «консистентной» возможности разглядеть противника на любом фоне (меньше эффектов — вас меньше парит, например, освещение там, где стоит противник, увидите так и так).
                                                                      0
                                                                      Нет, прицеливание как процесс происходит локально.
                                                                      Можно я с вами не соглашусь, потому как это сильно зависит от реализации игры.
                                                                      В некоторых играх, где авторы заморочились над античит-системой прицел целиком серверный. Клиент отправляет смещение мыши в условных попугаях (10 вверх, 4 влево), сервер рассчитывает относительно своих данных куда смотрит прицел и высылает клиенту фактическое положение. Процесс может быть асинхронный для компенсации больших пингов, но тогда должна выполнятся периодическая процедура синхронизации.
                                                                      Если прицеливание будет целиком на клиенте — можно написать программу, которая всегда будет выцеливать уязвимые места противника в пределах видимости.
                                                                        0
                                                                        можно написать программу, которая всегда будет выцеливать уязвимые места противника в пределах видимости.
                                                                        Вы-таки не поверите, но как бы вы ни делали популярную сетевую игру, если в ней в принципе можно читерить (а серверсайд хитрег вас не спасёт от читерства, совсем не спасёт), вам надо будет озаботиться античитом.
                                                                          0
                                                                          Вопрос не в можно, всегда что-то можно. Вопрос в «сделать сложно и больно разработчикам читов».
                                                                          Ну а если сервер-сайд расчёты не помогают, то тогда и делать их не стоит, пусть всё считает клиент, правда ведь?
                                                                            0

                                                                            Серверсайд-хитрег не всегда нравится и игрокам в том числе, это вполне буквально вопрос вкуса и конкретных ситуаций, возникающих в игре, прочих аспектов её не кода.


                                                                            Ещё раз — в шутере разница между клиентсайд-хитрегом и серверсайд-хитрегом как раз совершенно несущественная для читеров — ну будут они попадать не 100% выстрелов, а 95-97% выстрелов, грубо говоря — и на разработку читов влияет примерно никак (найти в памяти или даже на экране модельку вообще не проблема — я знаю людей, которые делали POC чита-эймбота для шутера через распознавание изображения нейронкой), а на их эффективность, как я выше и сказал, минимально влияет. Разница между честным игроком и читером не станет из-за этого существенно меньше. Нужен нормальный античит.

                                                                              0
                                                                              я знаю людей, которые делали POC чита-эймбота для шутера через распознавание изображения нейронкой

                                                                              Давно интересовало — есть аппаратные устройства типа usb2kbd, которые имитируют клавиатуру и позволяют даже через сеть посылать движения мышкой/нажимание клавиш.

                                                                              А какие есть аппаратные устройства дл перехвата монитора?
                                                                                0

                                                                                Что значит "для перехвата монитора"?

                                                                                  0
                                                                                  Во-первых проще захватывать сам экран или окно приложения программно на той же машине. Но если необходимо разделить, то есть карты захвата HDMI с path through. И это куда более распространенные потребительские устройства нежели usb2kbd.
                                                                                    0
                                                                                    Во-первых проще захватывать сам экран или окно приложения программно на той же машине.

                                                                                    Если говорить о автоматизации в играх, то не желательно иметь процессы autoit или autohotkey, или питона который смотрит цвет пикселя на экране.
                                                                                      0
                                                                                      то не желательно иметь процессы autoit или autohotkey

                                                                                      Их очевидно переименуют.
                                                                                    0
                                                                                    Гм, а банальный сплиттер сигнала видеокарты — не оно? :)
                                                                                    А если мы говорим о софте, то фрейм буфер считать вроде не сложно, было бы желание.
                                                                                      0
                                                                                      Гм, а банальный сплиттер сигнала видеокарты — не оно? :)

                                                                                      Видимо, оно и есть, спасибо :).
                                                                                        0
                                                                                        Упс, нет, не то. Мне надо читать экран одного компьютера с другого компьютера. Пока приходит на ум только софт для удалённого управления.
                                                                                          0

                                                                                          HDMI граббер вы имеете в виду? Такие штуки как стримеры игр используют для трансляций?

                                                                                            0
                                                                                            Да, уже нашёл. Всё банально и просто, спасиб.
                                                                                0
                                                                                Да не соглашайтесь конечно, просто дайте ссылку на такую реализацию, чтобы на сервер отправляли смещение мышки, а оттуда прилетал угол поворота камеры. Потому что я такого не встречал, и мне правда интересно узнать что-то новое.
                                                                                  0
                                                                                  Первое что вспоминается — все игры Wargaming с их «server side reticle», War Thunder использует (или использовал, давно не играл) немного другой алгоритм, но у них тоже положение прицела приходит(ло) с сервера.
                                                                                  В BF3 тоже всегда отображалось положение прицела взятое с сервера, а не клиентское, но как там синхронизировалось — не разбирался, а потом и не играл уже.
                                                                                  Много нареканий было на стрелялку в духе Сталкера (Сурвариум кажется), жалобы из серии «урон не прошёл» это было в каждом видео по этой игре именно из-за подобной схемы, когда сервер и клиент считали положение игроков и прицелы асинхронно.
                                                                                  В целом если поискать по server-side reticle / crosshair можно найти много интересного.
                                                                                    0
                                                                                    Спасибо! Почитаю, как это у кого реализовано.

                                                                                    Первое что нагуглевал — в WOT это по дефолту выключено, т.е. клиент все равно отображает свой прицел, а в момент выстрела берется серверный (и это вызывает фрустрацию у чуваков на форуме).

                                                                                    Интересно, конечно.
                                                                                      0
                                                                                      Кроме того, у WoT есть одна особенность, для нормальных шутеров не характерная — у танковой башни or whatever, в отличие от персонажа в среднем «обычном шутере», скорость вращения — лимитированная величина (и десинхронизация может быть ещё и в вопросе «а куда довращалась моя башня»). Оттого это куда нужнее, чем в среднем шутере.
                                                                                      0
                                                                                      Первое что вспоминается — все игры Wargaming с их «server side reticle»
                                                                                      Эти игры — буквально единственное, что гуглится по «server side reticle/crosshair», ага. И там, в отличие от шутеров, невозможен ~моментальный разворот камеры/прицела на произвольный угол (потому что у танковой башни в WoT ограниченная скорость вращения, у персонажа в КСах, Апексах, Овервотчах и прочих Квейках — нет). И в обычных шутерах такое не используется, более того, банально неприменимо как раз потому, что фликшоты с разворотами на 90+ градусов являются допустимыми и у честных игроков. Серверсайд-хитрег используется, но про него я тоже написал в других комментариях.
                                                                                        0
                                                                                        Термин взят от туда, так как несколько лет назад активно и много играл именно в «танчики», возможно для других игр надо по другому запрос строить.
                                                                                          0
                                                                                          А возможно, в других играх его нет, потому что он просто неприменим. :)
                                                                                          Ну и да, в танках используется serverside reticle, а вот serverside crosshair ничего полезного не выдаёт в гугле, кроме тех же танков (а если отфильтровать их, остаются фанаты выживалок и симуляторов, спрашивающие, как на серверах отключить прицел ради реализма, а не что-то, имеющее отношение к дискуссии).
                                                                            0
                                                                            Вот у LTT видео со сравнением прицеливания на 60/144/240 Hz (если не путаю). Оно спонсировано NVidia, но, во-первых, до этого у них было менее масштабное видео без спонсорства NVidia, а во-вторых, политике LTT в отношении спонсорства я доверяю.

                                                                            TL;DR:
                                                                            1. Высокая частота очень сильно влияет на прицеливание.
                                                                            2. Разница 60/144, естественно, более заметна, чем 144/240.
                                                                            3. Чем хуже вы играете, тем больше прирост.

                                                                            www.youtube.com/watch?v=OX31kZbAXsA
                                                                            +20
                                                                            То есть ажиотаж не потому, что нвидия перед запуском успела произвести всего тысячу новых видеокарточек, которые в два раза быстрее/в два раза дешевле при той же производительности, а потому что разработчики игр криворукие?

                                                                            Но игры всегда работали медленно на текущем железе и «стабильные 60гц» не от балды появились как показатель, а скорее как «дайте хотя бы 60гц на топовом железе». А то, что внезапно случился прогресс в мониторах, да ещё и внезапно все стали чувствительны к разного рода задержкам (см. VR и киберспорт) и теперь внезапно «стало стандартом» 144гц или сколько там — это не обязательно значит, что разработчики криворукие, просто потребности потребителей поменялись быстрее, чем идёт разработка. Да и в конце концов, «патчи производительности в драйверах» это может быть как «мы исправили скорость работы этих криворуких геймдизайнеров», так и «криворукая нвидия до этого рендерила вполне нормальный кадр через жопу и медленно».

                                                                            Для вычислений и науки у Nvidia давно есть карты серии Tesla V100 и Tesla A100.

                                                                            И пассаж про ГПУ для датацентров и нейросеточек — мы тоже ждём и раскупаем эти 3080/3090, кто в здравом уме будет мечтать о карточках в десять раз дороже, просто потому что они «серверные»? Хз, что там за сравнение с интелом, но серверные теслы уже десять лет как стоят в серверах за свои 10к$, а «геймерские» карточки имеют практически такую же производительность на многих задачах и массово покупаются мамкиными датасайнтистами — этот аспект совершенно не изменился в этом поколении, вообще.
                                                                              +4

                                                                              Я не могу понять, почему прогресс произошел ВНЕЗАПНО? Ещё в начале 2000х на ЭЛТ- мониторах во все шутеры играли на 100+ ФПС и прекрасно движки HL, Q3 и UT с этим справлялись даже не на топором железе. За 20+ лет ничего не изменилось — во все сетевые шутеры по-прежнему играют на 100+фпс, а для разработчиков таикх игр это слато откровением?

                                                                                +2
                                                                                Я представил себе, как сижу перед 34-дюймовым 4k ЭЛТ-монитором, укрывшись свинцовым пледиком.
                                                                                  +1

                                                                                  Пледиком надо укрываться сидя не перед ним а за ним. Туда защиту не ставили

                                                                                    0
                                                                                    Электронная пушка направлена в сторону экрана, отраженное назад от маски/люминофора излучение на правильно настроенном мониторе очень мало.
                                                                                      0

                                                                                      Ну и средний пробег электрона в воздухе около 15 см, насколько помню..

                                                                                        +2
                                                                                        При торможении электрона о маску выделяются фотоны, на 25кВ это уже рентген.
                                                                                        Он может как пойти вперед и быть заметно поглощенным защитой в экране кинескопа, так и отразиться в сторону, где такой защиты нет
                                                                                  +1
                                                                                  Просто «все сетевые шутеры» — это далеко не исчерпывающее множество игр и игроков. А на ЭЛТ играли как раз 20 лет назад, а потом был катастрофический регресс в этой области на долгие годы, когда 60гц лсд панели заполонили рынок по причине других преимуществ. Сейчас мы живём в эпоху возрождения интереса к быстрому выводу изображения (в основном благодаря хардкорным геймерам в шутеры, да, спасибо им за это).
                                                                                    0
                                                                                    Для некоторых и 60 Гц откровение, вон Мафия 3 вышла в 2016 году залоченная на 30 фпс. Позднее нестерпимый жар от седалищного воспламенения геймеров заставил разработчиков из Hangar 13 выпустить патч, но сам факт. Еще бы на 24 залочили.
                                                                                  +10
                                                                                  Не согласен со статьей что 60 ФПС являются стандартом. 30 ФПС до сих пор используется в консолях.

                                                                                  Пример apex legends и call of duty warzone в качестве плохо оптимизированной игры некорректно, это одни из самых хороший оптимизированных игр с точки производительности (не считая качество серверов и вылеты warzone). Apex выглядит намного лучше чем 5-ти летний titanfall 2, и работает тоже очень хорошо. В call of duty каждые 3 месяца графику ухудшают, за счет чего растет фпс, хотя игра выглядит заметно хуже чем на момент выхода, но работает получше.

                                                                                  144 hz нужно только заядлым геймерам или для тех кто играет в киберспортивные игры на победу. В остальном 60 hz вполне хватает.

                                                                                  Единственно исключение в этом году это doom ethernal — игра является одной из самых красивых на текущий момент, но при этом выдает спокойно более 100 кадров на средних машинах, загрузка с контрольной точки происходит за 5 секунд(в других играх это может быть и 30 и 60 секунд) на HDD, и игру уже запускали в 1000 фпс. Не уверен что существует другая игра которая поддерживает 1000 фпс.
                                                                                    –2
                                                                                    144 hz нужно только заядлым геймерам или для тех кто играет в киберспортивные игры на победу. В остальном 60 hz вполне хватает.

                                                                                    Звучит как BMW и Mercedes нужны только заядлым гонщикам и тем кто на работу опаздывает, остальным хватит и ВАЗ 2106.
                                                                                    В общем это вот ваше "хватит", у всех разное. И многим хочется комфорта вне зависимости от профессии. Я вот ни разу не гонщик и даже не профессиональный водитель, но предпочту ездить на BMW, а не на ВАЗ-2106, которого (если судить по вашему) вполне хватит ездить на работу...

                                                                                      +4
                                                                                      А зачем вы 60 fps с ВАЗ-2106 сравниваете?
                                                                                        0

                                                                                        Затем, что когда-то давно ездил на 2106 и мне было "вполне хватит", а потом поездил на более хорошей машине и 2106 стало уже "не очень".
                                                                                        Тоже самое и здесь, разница не только в скорости, но и в комфорте.
                                                                                        144 даже в обычной работе за компом заметно комфортнее.
                                                                                        Но конечно же будет толпа людей утверждающих, что и 60 хватает для всего)
                                                                                        Как и раньше была толпа утверждающая, что SSD нужен только серверам для скорости, а дома и на HDD хорошо. И т.д. и т.п.

                                                                                          +6
                                                                                          А между «шестёркой» и бэхой для вас ничего не существует?
                                                                                            –5

                                                                                            Очень глупо троилите.
                                                                                            Это просто пример.

                                                                                        +11
                                                                                        Звучит как 360 км в час нужны автогонщикам, а остальным и 60 хватит. ;)
                                                                                        0
                                                                                        Пример apex legends и call of duty warzone в качестве плохо оптимизированной игры некорректно, это одни из самых хороший оптимизированных игр с точки производительности (не считая качество серверов и вылеты warzone)
                                                                                        То есть постоянные лаги, телепорты, дропы ФПС на топовом железе при минимальных настройках — это для вас "хорошо оптимизированная игра"? Почему?
                                                                                        Если вы хотите пример хорошей оптимизации — посмотримте на Overwatch. Он ухитряется выдавать 60fps даже на видеокарте 740M (мобильной, Карл!), а на 1070 на medium 200+
                                                                                        Apex в это время на 1070 даёт едва ли 100 на минималках
                                                                                          0

                                                                                          На счёт Apex вы ошибаетесь. Играю год на gtx 970. На почти максималках 60 кадров спокойно выдает. На средне — высоких 100+.

                                                                                            0

                                                                                            Ну я по своему опыту сужу :)
                                                                                            Если на 1070 поставить medium, то ~90фпс + будут дропы до 60фпс
                                                                                            Если на 1070 поставить low, то будет ~105фпс + будут дропы до 80


                                                                                            1080 немного лучше, но тенденция аналогичная.
                                                                                            И 120фпс невозможно выжать даже на минималках (в принципе, не говоря уж о налчии дропов)

                                                                                          +1
                                                                                          100+fps на 144-герцовом мониторе создают совершенно другой опыт даже от несоревновательных игр с хорошей картинкой. Прям невероятно другой.
                                                                                            0
                                                                                            Apex выглядит намного лучше чем 5-ти летний titanfall 2

                                                                                            При этом гораздо жорливее чем фортнайт, на сравнимых настройках детализации
                                                                                            +19
                                                                                            Я не знаю, как бы написать помягче, чтобы не наловить еще минусов в карму.
                                                                                            Статейка написана с точки зрения какого-то ничтожного меньшинства игроков, которое «уже давно» играет на мониторах с частотой 144, а то и 240 Гц и жаждет отдать кучу денег за топовое железо.
                                                                                            Подавляющее большинство игроков, будем откровенны, устраивает 60 FPS. Я уже не говорю про пользователей консолей.
                                                                                            Я сильно сомневаюсь, что в двойном слепом тесте поклонники экстремальных фреймрейтов отличат 100 FPS от 200.
                                                                                              +6
                                                                                              Не могу сказать ничего про FPS, однако, отличие 144 Гц от 60 Гц просто колоссальное, и даже не столько в играх, сколько в простом сёрфинге. У меня как-то монитор свалился из 144 в 60, и я долго не мог понять, от чего же мне так больно. Гостинг текста при прокрутке на 60 Гц просто сумасшедший.
                                                                                                –1
                                                                                                а 24 и 60 отличат или сомневаетесь?
                                                                                                  0
                                                                                                  Я сильно сомневаюсь, что в двойном слепом тесте поклонники экстремальных фреймрейтов отличат 100 FPS от 200.

                                                                                                  На самом деле не зря сомневаетесь.
                                                                                                  Если быть максимально точным, то наше зрение не работает в «кадрах в секунду». Это аналоговая система, которая очень упрощенно состоит из двух компонентов: глаза и мозг.
                                                                                                  Глаза сбрасывают информацию в мозг по «наполнению» палочек и колбочек, мозг эту информацию анализирует и обрабатывает.
                                                                                                  Предельная частота кадров, которые мы способны различить и распознать ограничивается двумя вещами:
                                                                                                  1) Характеристиками картинки.
                                                                                                  2) Характеристиками мозга.
                                                                                                  Если картинка статичная или с крайне медленным движением — ожидаемо, что разницы между 30/60/144/220 Герцами никакой не будет. А вот со вторым пунктом уже чуть сложнее: система аналоговая, если что-то не успело обработаться целиком — оно может обработаться частично и очень упрощённо. Поэтому, в случае типичного человека 80-140 Герц это та максимальная частота кадров в секунду, на которых он может отчётливо различать движение (то есть полностью обрабатывать картинку). Но при этом некоторые люди испытывают дискомфорт от работы с теми же самыми OLED-дисплеями на низких уровнях подсветки и с «медленным» ШИМ. Всё дело в том, что хоть мозг, обычно, не способен полностью обрабатывать смену картинки с частотой выше 140 Герц; но глаз то способен скидывать эту информацию значительно чаще. В итоге мозг перенапрягается в попытке переварить вот это всё, не справляется, скипает и получается дискомфорт выходным сигналом. Глаза же начинают скипать информацию начиная с 1 кГц.
                                                                                                  Поэтому лично у меня есть предположение, что единственным способом в слепом тесте определить где 120 Гц, а где 240 Гц (отбросив влияние ШИМ подсветки, если он есть) является возможное появление чувства дискомфорта на более высокогерцовом мониторе.
                                                                                                    0
                                                                                                    Вы имеете в виду пропадание чувства дискомфорта на высокогерцовом мониторе?
                                                                                                      0
                                                                                                      Вы имеете в виду пропадание чувства дискомфорта на высокогерцовом мониторе?

                                                                                                      Нет, я максимально чётко обозначил границу, на которой мозг может полностью обрабатывать сменяющиеся кадры: 140, ну 150 Герц. Всё что находится выше уже не может полноценно обрабатываться мозгом и потенциально может вызывать дискомфорт. Именно по этой причине у некоторых людей вызывают дискомфорт OLED дисплеи с 200Гц ШИМом подсветки.
                                                                                                      Поэтому он после 140 Гц может появиться, а пропасть лишь на 1 кГц, так как именно выше этой частоты пасуют уже глаза.
                                                                                                        0

                                                                                                        Так всё наоборот, дискомфорт появляется от слишком медленного обновления. Чем быстрее обновление, тем выше плавность и ближе картинка к реальной жизни. И 240 фпс и 240 гц ШИМ — это совершенно разные вещи, а ШИМ на 60Гц был бы просто настолько очевидно невыносим, что никто в здравом уме его не стал бы делать.


                                                                                                        Смотрите, обновление кадров на 240гц экране выглядит так (~40мс таймлайн, каждый символ — одна миллисекунда, разные символы — разный цвет пикселя)


                                                                                                        \\\\||||////!!!!----\\\\||||////====....


                                                                                                        ШИМ 240гц же будет выглядеть так (. — черный экран, | — полная яркость, те же 40мс):


                                                                                                        ...|...|...|...|...|...|...|...|...|...|


                                                                                                        Вот эти пробелы и создают неприятное ощущение и не потому, что глаз что-то передает, а потому что при движении глазами или такого предмета в поле зрения он разваливается на отдельные "скриншоты" и чувствительным людям это доставляет неприятные ощущения, дискомфорт, тошноту и утомление.


                                                                                                        А способ отличить более высокие герцы в том, что движущийся объект на высокой частоте кадров будет сохранять чёткость и будет больше похож на объект в реальном мире — меньше блюра, меньше скачки между отдельными кадрами, как здесь: https://www.testufo.com/framerates#count=3&background=stars&pps=960

                                                                                                          0
                                                                                                          Так всё наоборот, дискомфорт появляется от слишком медленного обновления.

                                                                                                          Нет, не так. Если у вас будет слишком медленное обновление, то начиная с определённого порога кадров в секунду мозг будет рассматривать это как набор картинок, а не непрерывное изображение. Ну и плюс от лагов, фризов и плавающей частоты будет дискомфорт у геймера, но это по другому каналу.
                                                                                                          И 240 фпс и 240 гц ШИМ — это совершенно разные вещи

                                                                                                          Ну да, совершенно верно. Одно это частота кадров в секунду (или скорость в футах в секунду), а другое это широтно-импульсная модуляция.
                                                                                                          а ШИМ на 60Гц был бы просто настолько очевидно невыносим, что никто в здравом уме его не стал бы делать.

                                                                                                          Как вам сказать… Лампы накаливания, например. Мерцание там компенсируется инерцией спирали накаливания. Электролюминисцентные лампы из-за выпрямителя работают на 100 Гц, например.
                                                                                                          ШИМ 240гц же будет выглядеть так

                                                                                                          Кажется, вы не очень ясно себе представляете что такое ШИМ. Вы сейчас показали пример для 25% яркости экрана. Так сильно уменьшать подсветку ШИМом явно никто не будет.
                                                                                                          а потому что при движении глазами или такого предмета в поле зрения он разваливается на отдельные «скриншоты» и чувствительным людям это доставляет неприятные ощущения, дискомфорт, тошноту и утомление.

                                                                                                          Не разваливается он на отдельные скриншоты. Мозг по прежнему формирует единую картинку из движения, но при этом не может полноценно обработать моменты с выключенной подсветкой, в итоге перенапрягается и начинает вырабатывать выходной сигнал «дискомфорт». Потому что глаза это мерцание заметить могут.
                                                                                                          А способ отличить более высокие герцы в том, что движущийся объект на высокой частоте кадров будет сохранять чёткость и будет больше похож на объект в реальном мире — меньше блюра, меньше скачки между отдельными кадрами, как здесь:

                                                                                                          Я выше уже сказал: мозг (по крайней мере обычного человека) не будет способен в полной мере обрабатывать картинку с частотой выше 140 Гц. Поэтому всё то, что выше 140 Гц с точки зрения восприятия именно целостности будет неотличимо.
                                                                                                            0
                                                                                                            Вы сейчас показали пример для 25% яркости экрана. Так сильно уменьшать подсветку ШИМом явно никто не будет.

                                                                                                            Я на своём ноутбуке примерно такую яркость и держал — если больше, то глазам уже слишком ярко. И таки да, через фотики был отчётливо виден 300Гц ШИМ

                                                                                                              0
                                                                                                              Я на своём ноутбуке примерно такую яркость и держал — если больше, то глазам уже слишком ярко.

                                                                                                              Если честно, то я не видел пока таких ноутбуков у которых минимальная яркость была бы именно на 25%. Хотя я может и упустил, но в лучшем случае это одна треть от максимальной.
                                                                                                              И таки да, через фотики был отчётливо виден 300Гц ШИМ

                                                                                                              Как определили? :)
                                                                                                                0
                                                                                                                в лучшем случае это одна треть от максимальной.

                                                                                                                Ну, я точных замеров яркости не проводил, но по ощущениям минимально возможная яркость у моего ноута ну очень тёмная — даже ночью в полностью тёмной комнате трудно что-то разглядеть (а выставление нулевой яркости выключает подсветку полностью)


                                                                                                                Как определили? :)

                                                                                                                Ставим достаточную выдержку (1/50 или типа того), рисуем на экране белую линию на чёрном фоне и фоткаем её, одновременно двигая фотик поперёк линии. Если ШИМ отсутствует, то получится сплошная размазня; если ШИМ есть — получится несколько чётких копий линии (насколько чётких, зависит от уровня яркости). Сравнив число получившихся линий с выдержкой фотика и сделав несколько фоток для уменьшения погрешности, можно примерно прикинуть частоту


                                                                                                                (Здесь мог быть спойлер с примером такой фотки, но мой HDD с фотками сдох, фотика под рукой прямо сейчас нет, а на телефон сфоткать не получается по причине его кривости, эх)

                                                                                                                  0
                                                                                                                  Ну, я точных замеров яркости не проводил, но по ощущениям минимально возможная яркость у моего ноута ну очень тёмная — даже ночью в полностью тёмной комнате трудно что-то разглядеть (а выставление нулевой яркости выключает подсветку полностью)

                                                                                                                  Ну да, нулевая яркость иногда отключает подсветку полностью, но без промежуточных шагов. Но в целом ок, я вас понял. Погуглил и правда есть ноуты у которых минимальная яркость — четверть от максимальной.
                                                                                                                  Ставим достаточную выдержку (1/50 или типа того),

                                                                                                                  Не, всё ок. Просто я видел как люди пытались определить частоту ШИМа подсветки с помощью «включаем камеру на телефоне и смотрим в дисплей» :)
                                                                                                              +1
                                                                                                              Если у вас будет слишком медленное обновление, то начиная с определённого порога кадров в секунду мозг будет рассматривать это как набор картинок, а не непрерывное изображение.

                                                                                                              Да и эти пороги изучены ещё со времен немого кино и (внезапно) мозг воспринимает как движущуюся картинку уже начиная от 12-16 кадров, а устаканившийся стандарт в кино 24к/с был чуть ли не избыточным хай фиделити поначалу :)


                                                                                                              Как вам сказать… Лампы накаливания, например. Мерцание там компенсируется инерцией спирали накаливания.

                                                                                                              И какое это отношение имеет к современным проблемам с ШИМом, где пробелы ничем не компенсируются и поэтому-то и стали заметны глазом и мешать?


                                                                                                              Кажется, вы не очень ясно себе представляете что такое ШИМ. Вы сейчас показали пример для 25% яркости экрана. Так сильно уменьшать подсветку ШИМом явно никто не будет.

                                                                                                              А как по-вашему уменьшается яркость подсветки в современных устройствах с ШИМом? И для проверки корректности вашей интуиции о происходящем — какой по-вашему диапазон регулирово яркости в современных девайсах? Отношение минимальной яркости (чтение в темноте) и максимальной (щуримся под солнцем)? Варианты: 1:4, 1:10, 1:20, 1:50, 1:100, 1:1000, 1:1000000?


                                                                                                              Не разваливается он на отдельные скриншоты.
                                                                                                              Пожалуйста, не рассказывайте мне, что именно я вижу :)

                                                                                                              Я выше уже сказал: мозг (по крайней мере обычного человека) не будет способен в полной мере обрабатывать картинку с частотой выше 140 Гц. Поэтому всё то, что выше 140 Гц с точки зрения восприятия именно целостности будет неотличимо.

                                                                                                              Нет никакой "полной меры обработки картинки" в мозгу, на разной частоте кадров экраном будут просто воспроизводиться разные изображения из-за разницы в блюре, разницы в положениях объектов на экране и т.д. и это всё будет прекрасно видно, потому что в реальном мире никакой дискретности нет. Почитайте уже какую-нибудь существующую теорию по вопросу, прежде чем придумывать свои предположения про разделение обработки в глазах и мозгах и процессинг в "кадрах в секунду"

                                                                                                                0
                                                                                                                Да и эти пороги изучены ещё со времен немого кино и (внезапно) мозг воспринимает как движущуюся картинку уже начиная от 12-16 кадров

                                                                                                                Вообще это связано в том числе с расходом плёнки на минуту/час.
                                                                                                                а устаканившийся стандарт в кино 24к/с был чуть ли не избыточным хай фиделити поначалу

                                                                                                                Эррм, не хотелось бы расстраивать, но увеличение частоты кадров в звуковом кино после немого было связано с необходимостью писать звук.
                                                                                                                А стандарт в 24 к/с был выбран исходя из опять же расхода плёнки.
                                                                                                                Частоты телевизионных картинок 25/30 к/с вообще связаны с частотой сети.
                                                                                                                И какое это отношение имеет к современным проблемам с ШИМом, где пробелы ничем не компенсируются и поэтому-то и стали заметны глазом и мешать?

                                                                                                                А чем оно компенсируется в «энергосберегайках»? :)
                                                                                                                А как по-вашему уменьшается яркость подсветки в современных устройствах с ШИМом?

                                                                                                                Так же как и в любом другом устройстве — скважностью.
                                                                                                                какой по-вашему диапазон регулирово яркости в современных девайсах

                                                                                                                Зависит в том числе и от ШИМа, так как производители прекрасно понимают эту проблему.
                                                                                                                Нет никакой «полной меры обработки картинки» в мозгу

                                                                                                                Ну нет так нет.
                                                                                                                это всё будет прекрасно видно

                                                                                                                То есть ШИМ не видно, а всё остальное прекрасно видно? Ну ок.
                                                                                                                реальном мире никакой дискретности нет.

                                                                                                                Собственно я про это и говорил.
                                                                                                                Почитайте уже какую-нибудь существующую теорию по вопросу, прежде чем придумывать свои предположения про разделение обработки в глазах и мозгах и процессинг в «кадрах в секунду»

                                                                                                                В том то и проблема, что как раз я читал. При этом эта теория никак не была связана со 100500 герцовыми мониторами. И даже сейчас эти исследования тоже есть, можете ознакомиться, но будете разочарованы.
                                                                                                                процессинг в «кадрах в секунду»

                                                                                                                Самое что смешное — именно в этом и измеряют в этих исследованиях. Или в герцах. Или в миллисекундах. Потому что в любом случае физически это всё сводится к «способен ли мозг обработать все изменения за отведённое время».
                                                                                                                Результат один: если нечто, что мы видим, длится менее N миллисекунд — мы не способны это распознать целиком. И даже заметить.
                                                                                                                P.s. я вам тут ещё пищи для размышления подброшу: в среднем в человеческой популяции не видят и не различают картинки короче 20 мс. Таким образом для многих людей хватит порядка 45 кадров в секунду. А 60 так вообще за глаза doi: 10.3758/APP.71.4.860
                                                                                                                  +1
                                                                                                                  А чем оно компенсируется в «энергосберегайках»? :)

                                                                                                                  Поэтому они и либо ужасно мерцают и это прекрасно видно чувствительным людям, либо используют нормальные драйверы, совсем без ШИМа (или на очень высоких частотах в килогерцы)


                                                                                                                  Зависит в том числе и от ШИМа, так как производители прекрасно понимают эту проблему.

                                                                                                                  Так какой-же диапазон регулировки? Какая максимальная скважность?


                                                                                                                  То есть ШИМ не видно, а всё остальное прекрасно видно? Ну ок.

                                                                                                                  Кадры как отдельную сущность не видно, но итоговое движущееся изображение отличается при разной частоте кадров и это видно глазом.


                                                                                                                  Результат один: если нечто, что мы видим, длится менее N миллисекунд — мы не способны это распознать целиком. И даже заметить.

                                                                                                                  в среднем в человеческой популяции не видят и не различают картинки короче 20 мс

                                                                                                                  Т.е. глазом вот такую картинку увидеть невозможно и курсор мыши вообще должен становиться невидимым при движении, ведь даже на 60гц он отображается в каждой позиции всего на 16мс. Более того, при скроллинге текста он получается должен тоже исчезать для нашего зрения, так получается? Ведь каждая отдельная картинка отрисовывается меньше 20мс.
                                                                                                                  image


                                                                                                                  doi: 10.3758/APP.71.4.860

                                                                                                                  Можете дать обзор в двух словах, что именно в этой статье измеряют и обнаруживают?

                                                                                                                    0
                                                                                                                    Можете дать обзор в двух словах, что именно в этой статье измеряют и обнаруживают?

                                                                                                                    Серьёзно? То есть вы мне рассказываете что я не читал научные статьи по теме и при этом просите меня кратко пересказать содержимое этой статьи?
                                                                                                                    Т.е. глазом вот такую картинку увидеть невозможно и курсор мыши вообще должен становиться невидимым при движении, ведь даже на 60гц он отображается в каждой позиции всего на 16мс.

                                                                                                                    Нет, не так. Просто в обработанном изображении курсор будет где-то в среднем положении на этих кадрах. Как повезёт.
                                                                                                                    Но если при этом перемещении взять и вообще убрать курсор мышки (и даже выключить экран) на время менее 13 мс — средний представитель человеческой популяции не заметит потери бойца.
                                                                                                                    Но если вы будете дёргать мышкой слишком быстро — начиная с определённой скорости её и правда можно будет не заметить. Такие дела :(
                                                                                                                    Поэтому то я и крайне скептически отношусь к тому, что кто-нибудь из тут присутствующих будет в силах правильно выбрать между 144 и 220 Гц монитором в двойных слепых тестированиях.
                                                                                                                    Если это не пилот истребительной авиации, правда. Некоторые из них по результатам уже других тестирований, могут замечать, отображать и адекватно обрабатывать в том числе и объекты и картинки на времена вплоть до 2мс.
                                                                                                                      0
                                                                                                                      Серьёзно? То есть вы мне рассказываете что я не читал научные статьи по теме и при этом просите меня кратко пересказать содержимое этой статьи?

                                                                                                                      Конечно, вы кидаете одну статью из миллиона в области человеческого восприятия и ожидаете, что я потрачу полчаса-час на то, чтобы её прочитать, разобраться с методологией, разобрать что именно и зачем они измеряют и с чем сравнивают и разумная ли у них методика и имеет ли это отношение к нашему разговору, но при этом сами даже не готовы в двух предложениях описать, что именно вы в этой статье прочитали и какое ваше утверждение каким образом она подтверждает? Если это ваши правила ведения спора, то вот пожалуйста: https://pubmed.ncbi.nlm.nih.gov/ на этом сайте написано, что я прав, докажите обратное.

                                                                                                                        0
                                                                                                                        что я прав

                                                                                                                        Ну ок.
                                                                                                                        Единственное принципиальное отличие «недостаточной плавности картинка на 144 Гц» от «бескислородная медь улучшает качество звука» в том, что в мире действительно есть исчезающе малый процент людей, которые могут заметить разницу между 144 и 220 Гц.
                                                                                                                        О чём я и написал чуть выше)
                                                                                                                        Но если бы вы действительно читали хоть какие-то исследования, то скорее всего бы знали что в качестве единиц измерения там применяются FPS/Hz/время. Потому что это легко конвертируемые друг в друга величины.
                                                                                                                          0
                                                                                                                          есть исчезающе малый процент людей, которые могут заметить разницу между 144 и 220 Гц.
                                                                                                                          Если у вас есть под рукой 144Гц монитор, то попробуйте поделать быстро горизонтальную «восьмёрку» курсором на белом фоне. Если я не попал случайно в этот самый «исчезающие малый процент», то и вы увидите довольно чётко отдельные положения курсора.
                                                                                                                    +1
                                                                                                                    я вам тут ещё пищи для размышления подброшу: в среднем в человеческой популяции не видят и не различают картинки короче 20 мс
                                                                                                                    Посиди несколько минут в тёмной комнате, после чего включи на 1мс в ней свет. Будешь сильно удивлён результатом.

                                                                                                                    У человека — аналоговое зрение, и оно вполне способно различать даже отдельные фотоны.
                                                                                                                      +1

                                                                                                                      Да что там вспышки 1мс, люди видят стробоскопический эффект ШИМа до 10кГц, но нет, оказывается в мозгу какой-то есть по-кадровый процессинг, который ограничивает восприятие картинок до 20мс :)


                                                                                                                      image

                                                                                                                        0
                                                                                                                        Да что там вспышки 1мс, люди видят стробоскопический эффект ШИМа до 10кГц, но нет, оказывается в мозгу какой-то есть по-кадровый процессинг, который ограничивает восприятие картинок до 20мс :)

                                                                                                                        Р — релевантность.
                                                                                                                        Непонятно какая группа людей непонятно какого возраста видела/осознавала (а это точно научное исследование?) мерцание натриевой газоразрядной лампы высокого давления мощностью 250 Вт с вероятностью 0...20% :)
                                                                                                                        –1
                                                                                                                        даже отдельные фотоны.

                                                                                                                        Ух, надо срочно останавливать разработку приборов ночного видения, тем более там прогресс уже достаточно давно встал)
                                                                                                          0
                                                                                                          Большая зависимость от углового размера изображения (от размера экрана). Чем больше экран, тем лучше видна прерывистость движения.
                                                                                                            0
                                                                                                            Большая зависимость от углового размера изображения (от размера экрана). Чем больше экран, тем лучше видна прерывистость движения.

                                                                                                            Угловой размер изображения и размер экрана это таки две разные величины. Связаны они будут лишь при неизменном расстоянии до монитора (что, к слову, тоже может быть не очень физиологично и вызывать дискомфорт).
                                                                                                            Но вы в данном случае говорите о переферийном зрении (для которого важен как раз таки угловой размер), которое и правда может работать чуть быстрее основного поля, так как там и так часть информации скипается мозгом на «дефолтных настройках». Но работать это будет лишь на участках работы периферийного зрения.
                                                                                                              0
                                                                                                              Связаны они будут лишь при неизменном расстоянии до монитора
                                                                                                              А смысл покупать монитор побольше, и ставить его подальше, оставляя тот же угловой размер? Люди вольны конечно так делать, но всё же кажется, что многие покупают мониторы больше, чтобы получить большую площадь (и я в их числе)
                                                                                                                0
                                                                                                                А смысл покупать монитор побольше, и ставить его подальше, оставляя тот же угловой размер? Люди вольны конечно так делать, но всё же кажется, что многие покупают мониторы больше, чтобы получить большую площадь (и я в их числе)

                                                                                                                Чтобы вместить на них больший объём информации(большая площадь же). Или чтобы увеличить комфортное расстояние для просмотра. Или чтобы уменьшить вертикальные/горизонтальные прокрутики.
                                                                                                                То есть чтобы увеличить физические размеры или сохранить угловые.
                                                                                                                  0

                                                                                                                  Если купить побольше, поставить подальше, сохранив угловой размер — то почему будет больше информации входить?

                                                                                                                    0
                                                                                                                    Если купить побольше, поставить подальше, сохранив угловой размер — то почему будет больше информации входить?

                                                                                                                    В моём случае потому что теперь текст и окна там масштабируется не за счёт рендеринга в более высоком разрешении с последующим даунскэйлом и выводом в штатное разрешение монитора; а рендеринг в штатном и вывод в штатном.
                                                                                                                    Ну и как бы «из коробки» у винды нет варианта рендерить в масштабе, меньшем чем 100%.
                                                                                                                    Ну и да: рендерить в большем разрешении, а потом даунскэйлить до меньшего это в любом случае ущерб резкости.
                                                                                                                      +1

                                                                                                                      Т.е. вы в конечном итоге просто уменьшили элементы интерфейса и размер текста, а то, что новый монитор больше и стоит дальше — это такой physics based даунсемплинг просто? :)

                                                                                                                        0
                                                                                                                        Т.е. вы в конечном итоге просто уменьшили элементы интерфейса и размер текста, а то, что новый монитор больше и стоит дальше — это такой physics based даунсемплинг просто? :)

                                                                                                                        Ну типа того, да. С рендерингом и отображением в нативном разрешении.
                                                                                                                        Именно для этого и покупался большой монитор в этом случае.
                                                                                                                          0

                                                                                                                          Не обессудьте, но кажется, что это какой-то редкий случай среди причин покупки мониторов большего размера :)

                                                                                                                0
                                                                                                                Угловой размер изображения и размер экрана это таки две разные величины — Верно. Связаны они будут лишь при неизменном расстоянии до монитора — Не верно. Я не знаю, вроде бы очевидная вещь: чем дальше объект, тем меньше его угловой размер. Они ВСЕГДА связаны, связь прямая: дальше объект, меньше его угловой размер. Вы, видимо, хотите сказать, что размер объекта и его угловой размер меняются произвольно при изменении расстояния? Я не знаю, как это работает в вашей голове, но речь не об этом.
                                                                                                                Важно, что большой и маленький монитор на одинаковом расстоянии потребуют разной частоты обновления изображения для создания одинакового восприятия движущихся изображений. Чем больше изображение, тем больше будет расстояние между точками отображения объекта, который «движется» по экрану. На экране смартфона кино в 24 к/с выглядит более плавным, чем на пятидесятидюймовом телевизоре. Поэтому, в частности, пришлось придумывать «уплавнители» картинки.
                                                                                                                  0
                                                                                                                  . Вы, видимо, хотите сказать, что размер объекта и его угловой размер меняются произвольно при изменении расстояния? Я не знаю, как это работает в вашей голове, но речь не об этом.

                                                                                                                  Элементарно работает. Увеличивая размер объекта и отодвигая его, мы сохраняем его угловой размер неизменным. Увеличивая размер объекта и не перемещая его мы увеличиваем его угловые размеры. Не трогая размер объекта и пододвигая его мы увеличиваем его угловые размеры.
                                                                                                                  Именно об этом я и написал.
                                                                                                                  Важно, что большой и маленький монитор на одинаковом расстоянии потребуют разной частоты обновления изображения для создания одинакового восприятия движущихся изображений.

                                                                                                                  Нет не потребуют, пока не будет задействовано периферийное зрение.
                                                                                                                  На экране смартфона кино в 24 к/с выглядит более плавным, чем на пятидесятидюймовом телевизоре.

                                                                                                                  Зависит от угловых размеров и того и другого. Но в общем случае нет.
                                                                                                                  Поэтому, в частности, пришлось придумывать «уплавнители» картинки.

                                                                                                                  «Уплавнители» картинки появились как следствие желание получить 100500 кадров в секунду при непонимании матчасти. Ну то есть в следствие маркетинговых запросов.
                                                                                                            0

                                                                                                            Ещё автор забывает упомянуть о цветопередаче этих быстрых мониторов.

                                                                                                            +27
                                                                                                            Разработчики идоты, потому что не могут осилить 144 герца В 4К. Вот тупорылые уроды. *сарказм*.
                                                                                                            А то что у нас там 8 миллионов пикселей рендер которых надо уместить в 0.007 секунды — это пофиг. И 8 миллионов если у нас идеально отработал клиппинг. А клиппинг у нас тоже в эти 0.007 секунды входит.
                                                                                                            Ну да, ну да. Это разработчики тупые уроды, а не пользователи охренели со своими запросами.

                                                                                                            UPD: Ну и в целом автор несет ахинею.
                                                                                                            Причина дефицита не в том, что все хотят карты. А в том что их нет.
                                                                                                            В Россию всех типов 3080 на момент старта продаж завезли 110 штук. НА ВСЮ РОССИЮ.
                                                                                                            Вот вам причина дефицита.
                                                                                                              +10
                                                                                                              Ладно 8 миллионов пикселей, так эти игроки ещё 16x FSAA какой-нибудь хотят, так что каждый пиксель нужно ещё и не один раз отрендерить :)
                                                                                                                +5
                                                                                                                Причина дефицита не в том, что все хотят карты. А в том что их нет.
                                                                                                                В Россию всех типов 3080 на момент старта продаж завезли 110 штук. НА ВСЮ РОССИЮ.

                                                                                                                У меня тут есть скриншот из одного норвежского магазина, весьма показательно
                                                                                                                image
                                                                                                                  +3

                                                                                                                  Согласен, но с разработчиков тоже не стоит снимать вину. За последние годы состояние игр которые релизят сильно отличается (в худшую сторону) от того что было раньше. Считается нормальным релизить сырую игру, а потом выпускать патч за патчем чтобы фиксить баги, которые должны были быть пофикшены до релиза.

                                                                                                                    0
                                                                                                                    Тут я с вами спорить не могу. Но забагованность игр и спрос на карты — вещи малосвязанные.
                                                                                                                      +2