Комментарии 81
А какой смысл в 6 мс отклика, если человеческая реакция в лучшем случае 16 мс?
Видимо человеческая реакция начинает реагировать после того, как откликнулся монитор. Т.е. время нужно складывать.
Для плавности, например, требуется большая частота кадров, а чтоб при этом не размазывалось требуется малое время отклика.
Я все мечтаю о мониторе 200 Гц и более, а это 5 мс и менее.
Было время — на ЭЛТ делал 200 Гц. Даже на рабочем столе было приятнее — окошки так плавненько двигались. Жаль, разрешение при этом не очень.
Я все мечтаю о мониторе 200 Гц и более, а это 5 мс и менее.
Было время — на ЭЛТ делал 200 Гц. Даже на рабочем столе было приятнее — окошки так плавненько двигались. Жаль, разрешение при этом не очень.
Вот насчёт плавности не согласен. Больше 1000/16=62 кадров в секунду вы не разглядите. Инертность сенсора — сетчатки. Плюс ограниченная скорость возбуждения нейронов. Это по сути АЦП получается с частотой сэмплирования 60-70 Гц. Пытаться получить сигнал с большей частотой это как осциллографа делать на ЦАП с частотой в килогерц.
Не согласен, между 144 FPS и 60 FPS разница просто огромная в восприятии. Не такая, как между 24 и 48/60, но есть. Я тут наглядный пример придумал. Представьте, что некоторый объект пролетает по экрану за 1/10 секунды. Он отображается 6 или 14 кадров за время, пока он будет на экране. Разница есть?
С трудом представляю. Это 1 сэмпл в 7 мс. Наша нервная система и медленнее. Реально нейрон имеет тактовую частоту не более 100 герц. А на обработку зрительного изображения, захват фотона сетчаткой нужно задействовать не один нейрон.
Под плавностью я имею ввиду отсутствие стробоскопического эффекта.
Быстро подвигайте мышкой. Вместо плавного перемещения указателя он разваливается на дискреты.
Мозг не очень хорошо обрабатывает такое изображение. Может, например, неправильно определить направление перемещения.
Быстро подвигайте мышкой. Вместо плавного перемещения указателя он разваливается на дискреты.
Мозг не очень хорошо обрабатывает такое изображение. Может, например, неправильно определить направление перемещения.
Тогда мне непонятна суть этого явления. Представьте себе, что вы можете делать 70 фотографий в секунду. Будет ли итоговый ролик плавнее, если пустить видео на монитор с частотой 100 Гц?
Если воспроизвести видео 70 Гц на мониторе 100 Гц, то видео так останется 70 Гц (усредненное).
Не совсем верно. Представьте, что вы за секунду можете сделать 70 фотографий с выдержкой 1/70. Если у вас будет видео на мониторе с частотой 24 кадра в секунду — получится много одинаковых фоток. Если видео с частотой 70 кадров — получим примерно то, что было на исходнике. 140 кадров в секунду — мы будем фиксировать изображение двух кадров видео за один кадр фотографии. И вместо условно проезжающей в кадре «машинки» получится «машинка + шлейф за ней». Заметить такой объект будет несколько проще, так как он будет больше времени экспонироваться для получения кадра и больше занимать на дисплее.
На верхней гифке кадр 0.04 секунды, на нижней — 0.08. Меньше, увы, на гифке нельзя. Но пример всё равно наглядный. Даже если учесть инертность зрения, на 144 FPS мы получим более плавное перемещение, чем на 60.
Ну и не стоит забывать про то, что все люди разные. Если часами тренироваться в том же CS / Battlefield — скорость реакции растёт.
Вы можете часть врагов даже не увидеть в этом видео, а игрок успевает их засечь и иногда даже убить. Вставить хэдшот ровно тогда, когда цель пробегает в какой-то невообразимой щёлочке хрен знает где. Мозг, как, собственно, нейронная сеть, в одинаковых условиях учится работать с той же задачей всё быстрее и быстрее.
Вот подборка интересных «скоростных» людей. Тренировка, тренировка и ещё раз тренировка.
Ну и не стоит забывать про то, что все люди разные. Если часами тренироваться в том же CS / Battlefield — скорость реакции растёт.
Вы можете часть врагов даже не увидеть в этом видео, а игрок успевает их засечь и иногда даже убить. Вставить хэдшот ровно тогда, когда цель пробегает в какой-то невообразимой щёлочке хрен знает где. Мозг, как, собственно, нейронная сеть, в одинаковых условиях учится работать с той же задачей всё быстрее и быстрее.
Вот подборка интересных «скоростных» людей. Тренировка, тренировка и ещё раз тренировка.
Врёт ваша гифка-то. Надпись пробегает экран два раза в секунду, на верхней гифке 10 кадров, на нижней 5 кадров. Итого по-честному на верхней должно быть написано 20 FPS, а на нижней 10 FPS.
Ну да, я понимаю, что вы в тексте написали 0.04 и 0.08 секунды, но эти цифры ещё надо увидеть, а затем перевести в герцы. Львиная доля читателей этого делать не будет, а просто посмотрит на гифку и поразится — какая, оказывается, колоссальная разница между 60 и 120 герцами, срочно в магазин за новым монитором!1
Ну да, я понимаю, что вы в тексте написали 0.04 и 0.08 секунды, но эти цифры ещё надо увидеть, а затем перевести в герцы. Львиная доля читателей этого делать не будет, а просто посмотрит на гифку и поразится — какая, оказывается, колоссальная разница между 60 и 120 герцами, срочно в магазин за новым монитором!1
Не зря сейчас на игровых чампах они проходят допинг-контроль, был скандал, когда один из прогеймеров «приоткрыл» тайну — их команда сидела на аддералле — то есть, на амфетаминах, и таких игроков из просцены было много.
Справедливости ради, судить об отклике монитора и частоте развертки по реплеям Counter-Strike — не верно, особенно на таких маленьких величинах. Слишком много факторов, которые вносят погрешности, рассинхронизируя то, что видит клиент (игрок), то, что видит сервер, и то, что видите вы с ютуба. От тупо лагов сети, ОС сервера или клиента или самой мыши или клавиатуры и до разницы в тикрейте оригинала, записи и воспроизведения или факта записи тиков, в которые были совершены выстрелы. Единственный более-менее реальный способ оценить скорость реакции игрока на таком микроскопическом уровне в реплее — это смотреть запись с экрана клиента, созданную на железном уровне — через отдельные видеозаписывающие машины, прикреплённые к каждому игроку на чемпионатах (и они далеко не всегда есть).
Поэтому и возникают видео, где оружие направлено совсем в другую сторону во время выстрела, или когда убийство происходит вообще до появления персонажа в том месте, куда произошел выстрел. Например.
Поэтому и возникают видео, где оружие направлено совсем в другую сторону во время выстрела, или когда убийство происходит вообще до появления персонажа в том месте, куда произошел выстрел. Например.
Набросал пример jsfiddle.net/1xa2n35q
Здесь смайлик перепрыгивает с места на место каждые через каждые 100ms
Можете поменять на 7ms (параметр speed) и всё равно вы будете отслеживать его перемещения по экрану. Да, нейроны будут реагировать с каким-то запозданием, но всё равно его будет видно.
Здесь смайлик перепрыгивает с места на место каждые через каждые 100ms
Можете поменять на 7ms (параметр speed) и всё равно вы будете отслеживать его перемещения по экрану. Да, нейроны будут реагировать с каким-то запозданием, но всё равно его будет видно.
Отличный пример. Я разницу до 0.05 чувствовал, дальше, думаю, упрёлось всё в железо.
На самом деле, если монитор 60гц, то это 1000/60=16,6(6) мс на кадр. Чтобы увидеть 5 мс, нужен монитор с частотой окло 200 гц.
Ну я на 144 Гц специально пошёл и проверил. :) 0.10 (которые ещё вписывается в развёртку) и 0.05 там чувствуются. На обычном мониторе есть небольшая разница, но чисто психологическая, наверное. Ну или за один кадр больше смайлов отображается. Над знать, как именно гуглохром рендерит пример и кучу всего дополнительно по части дров, винды, фреймбуффера и всего такого.
Да, один нейрон имеет тактовую частоту не более 100 герц, тем не менее, показано, что группа нейронов может в некоторых случаях обрабатывать сигналы с точностью до 1 мс.
И ещё вспомните тот факт, что боковым зрением видно мерцание развёртки на 60 гц — а это по сути 8 мс WtB.
И ещё вспомните тот факт, что боковым зрением видно мерцание развёртки на 60 гц — а это по сути 8 мс WtB.
Неважно сколько кадров будет объект на экране. Вы не сможете увидеть больше определённого количества в секунду. Частота сэмплирования/дискретизации. Только в биологическом смысле. Насчёт input lag согласен.
Ниже уже заметили про шлейф, раскрою подробнее: в вашем поле зрения за половину секунды пролетает огонёк.
А) Вы смотрите в центр поля (вы не фокусируетесь на огоньке). Что вы увидите, полоску или 40 пятен? Вы можете попросить режиссёра замылить огонёк в направлении движения, но тогда:
Б) Вы следите именно за огоньком. Почему он размыт?
А) Вы смотрите в центр поля (вы не фокусируетесь на огоньке). Что вы увидите, полоску или 40 пятен? Вы можете попросить режиссёра замылить огонёк в направлении движения, но тогда:
Б) Вы следите именно за огоньком. Почему он размыт?
Мозг построит вектор. Мы «увидим» продолжение его траектории даже, если он погаснет в процессе. Там куча странных эффектов восприятия. Я просто разобраться хочу.
Поддержу leshabirukov, мозг не будет строить вектор иначе не работали бы всякие светодиодные часы из винчестера(когда вращающаяся линейка светодиодов зажигается в определённое время в опр. месте), если бы мозг достраивал картинку на таком уровне — мы бы получали мазню, а не чёткий текст.
А по поводу скорости нейронов — это ничего не меняет, насколько мне известно в сетчатке есть такая штука как «зрительный пурпур» который при попадании света разлагается и запускает хим реакцию которая уже колбасит нейроны, так вот, в реальной жизни быстродвижущийся объект засветит всю траекторию которую изображение проходит по сетчатке(вызвав разложение этого пигмента которое от скорости нейронов не зависит), а в случае монитора — отдельные точки. После медленные нейроны передадут в мозг либо размытый силуэт(IRL), либо набор отдельно стоящих изображений (монитор). Этим и обуславливается стробоскопический эффект.
А по поводу скорости нейронов — это ничего не меняет, насколько мне известно в сетчатке есть такая штука как «зрительный пурпур» который при попадании света разлагается и запускает хим реакцию которая уже колбасит нейроны, так вот, в реальной жизни быстродвижущийся объект засветит всю траекторию которую изображение проходит по сетчатке(вызвав разложение этого пигмента которое от скорости нейронов не зависит), а в случае монитора — отдельные точки. После медленные нейроны передадут в мозг либо размытый силуэт(IRL), либо набор отдельно стоящих изображений (монитор). Этим и обуславливается стробоскопический эффект.
Вот насчёт плавности не согласен. Больше 1000/16=62 кадров в секунду вы не разглядите.А теперь удвойте число кадров, т.к. источник (монитор) и приёмник (глаз) не синхронизированы. То есть приёмник будет либо получать недорисованные изображения (без vsync), либо устаревшие (с vsync). И, если аналогичную проблему между видеокартой и монитором можно решить, то синхронизировать картинку со
О. Точно. Насчёт синхронизации не думал. Хотя тут тоже неоднозначно. Сам сигнал является синхронизатором. Смотри — нейрон сетчатки покоится в темноте. Внезапно в глаз долбанули импульсом, он возбудился и передал дальше оцифрованный сигнал. После чего впал в период рефрактерности на 100 мс, заряжая «конденсатор». Хотя да, проблема в том, что второй кадр, который будет готов принять нейрон будет необязательно полным. Наверно и правда синхронизация.
Инертность сетчатки, вы сейчас сказали, может больше кадров и не разглядеть, а вот мыло еще как. Фотончики всё же летят не пачками 62 раза в секунду, а постоянно.
Больше 1000/16=62 кадров в секунду вы не разглядите
Откуда такие цифры?
ВВС США использовали очень простой тест для определения скорости визуальной реакции на небольшие изменения в свете. Эксперимент представлял из себя серию картинок самолетов, мигающих на мониторе в темной комнате каждую 1\220 секунды. Пилоты были вполне способны “видеть” постизображение и даже определять модель самолета. Подобные данные доказывают не только тот факт, что человек может различать 1 картинку в течении 1\220 секунды, но и весьма вероятно возможность интерпретировать видео даже с большим FPS.
Скопипастил отсюда
К тому же взгляд не статичен и может двигаться синхронно с «объектом» на экране — высокий фреймрейт поможет разглядеть этот «объект»
Глаза — это не камера штативе. Глаза могут быстро двигаться и следить за перемещающимся объектом. При 24 кадрах в секунду этот объект будет размыт. А при 144 кадрах на сетчатке за счёт движения глаз объект получится чётким.
Для 200Гц над ждать развития AMOLED-технологии, как мне кажется. Только она может с такой скоростью нормально работать.
Смысл в том, что шлейф за быстродвижущимися объектами (и даже простоым курсором мыши) виден и при 5 мс.
del
надо обновлять страницу перед ответом
надо обновлять страницу перед ответом
Когда-то активно играл в Quake 3. Я далеко не профессионал, но задержка в 1 кадр заметно влияла на геймплей. В настройках 3D видеокарты по-умолчанию стоял буфер в 3 кадра, я сравнивал буфер 1 и 2 кадра — разница довольно заметна.
Не знаю, правда, с какой частотой кадров работал буфер, т.к. в Q3 были «правильные» 125 fps, а монитор 85 Гц. Но даже если 85 Гц, то это 12 мс.
Для настоящих игроков, думаю, и 6 мс будут очень заметны.
Не знаю, правда, с какой частотой кадров работал буфер, т.к. в Q3 были «правильные» 125 fps, а монитор 85 Гц. Но даже если 85 Гц, то это 12 мс.
Для настоящих игроков, думаю, и 6 мс будут очень заметны.
Я думаю, надо складывать: 6+16.
Хм… Пока читал статью, все уже ответили, а коменты на странице не обновлялись, на хабре бесконечная задержка, 6мс тут не помогают.
Хм… Пока читал статью, все уже ответили, а коменты на странице не обновлялись, на хабре бесконечная задержка, 6мс тут не помогают.
Viewsonic VG2401MH.
Температурная равномерность подсветки сильно зависит от яркости, т.к. используются светодиоды с синим излучателем и жёлтым люминофором. В сумме, конечно, они дают белый свет, но вот его температура сильно зависит от яркости, из-за чего тени проваливаются в синеву
Тема устройства таких пикселей не раскрыта. Откуда берется и в каком месте ячейки виден белый цвет при переизлучении желтого от синего?
особенности недорогих IPS (шестибитная матрица с FRC) практически сводят на нет все преимущества точной цветопередачи
Может кто-нибудь примерно описать ощущения возникающие при наблюдении этого?
Я правильно понял, что ролик про G-Sync можно понять только, если в мониторе уже он есть?
Температурная равномерность подсветки сильно зависит от яркости, т.к. используются светодиоды с синим излучателем и жёлтым люминофором. В сумме, конечно, они дают белый свет, но вот его температура сильно зависит от яркости, из-за чего тени проваливаются в синеву
Тема устройства таких пикселей не раскрыта. Откуда берется и в каком месте ячейки виден белый цвет при переизлучении желтого от синего?
особенности недорогих IPS (шестибитная матрица с FRC) практически сводят на нет все преимущества точной цветопередачи
Может кто-нибудь примерно описать ощущения возникающие при наблюдении этого?
Я правильно понял, что ролик про G-Sync можно понять только, если в мониторе уже он есть?
Нет, в ролике вставлены slowmotion-части, чтобы было заметно эффект. Да и на глаз заметно отличие в работе, это ж запись, в ней не может быть tearing'а такого.
Про работу светодиодов и люминофора вот тут рассказано более-менее общим языком. Что касается шестибитной матрицы с FRC — заметить на глаз практически невозможно, при неудачном совпадении частоты мерцания подсветки и FRC'шки могут чуть сильнее уставать глаза. Суть в том, что вместо честных 8 бит на канал (по 256 уровней «поворота» ЖК молекул под светофильтром) используют всего 6. Это позволяет сильно ускорить работу и самой матрицы, и упростить разводку / электронную начинку (надо подать не 256, а всего 26=64 уровня сигнала, и суммарно получается не 256*256*256 = 16 777 216 оттенков, а 64*64*64 = 262 144. В соседних кадрах контроллер подбирает такой уровень сигналов, чтобы искомая точка попала «между» (и была максимальна близка к тому, что сказала отобразить видеокарта), а инертность зрения доделывает всё за вас. В итоге получается около 16.2 млн отображаемых цветов, что несколько меньше, чем честный восьмибитный цветовой охват.
Алгоритмы увеличения количества цветов точно разные. Бывает получается экран в полосочку, бывает в звездное небо, бывает, что это сделано аккуратно и незаметно. Но бывает и так, что смотришь на экран и он вроде бы все показывает и цвета нормальные и лампа не мерцает, потому что светодиодная подсветка, но есть в нем какаята зараза, которая вызывает физическое отвращение. Я пробовал смотреть фотиком, по-моему, это тот случай, когда все пиксели мерцают очень сильно, но сами по себе и рандомом, без привязки к координатам и без синхронизации по времени.
Как вы пришли к числу 16,2М?
Как вы пришли к числу 16,2М?
Не понятно где получается белый цвет, приминительно к монитору. Белый цвет — это цвет подсветки, или подсветка синяя, а желтый люминофор находится в пикселях?
Подсветка «белая», состоит из светодиодов, у которых «синяя» основа и «жёлтый» люминофор. В сумме получится излучение «правильной» температуры, просто общий спектр у неё кривенький. Теоретическую часть работы FRC я вам описал, на практике там естественно тёмный лес, война и немцы. На волшебном ресурсе TFT Central собрана огромная теоретическая и практическая база знаний по всяческим технологиям. Можете ознакомиться сами. Но даже там информация… в очень общем виде, мягко говоря.
Почему 16.2 — уже не помню (ни формулу, ни даже приблизительной идеи, как рассчитать оттенки так, чтоб было 16.2), но на том же TFT Central всюду указано 16.2 и я склонен полагать, что число верное.
Почему 16.2 — уже не помню (ни формулу, ни даже приблизительной идеи, как рассчитать оттенки так, чтоб было 16.2), но на том же TFT Central всюду указано 16.2 и я склонен полагать, что число верное.
По поводу подсветки. Если подсветка белая, пусть с некрасивым спектром, то как получается, что спектр зависит от яркости пикселя?
Эффективность люминофора нелинейно зависит от интенсивности возбуждающего излучения, например?
Вы сказали, что люминофор находится в светодиодах подсветки всего экрана целиком. Отдельные пиксели на его эффективность не влияют. В вашей статье написано, что элементы сцены (изображения) выглядят более синими или желтыми в зависимости от их яркости, а, значит, не от яркости лампы подсветки:
тени проваливаются в синеву, а вот яркие и насыщенные оттенки, наоборот, чуть желтят
Я что-то неправильно понял?
Как получается, что спектр зависит от яркости пикселя?
тени проваливаются в синеву, а вот яркие и насыщенные оттенки, наоборот, чуть желтят
Я что-то неправильно понял?
Как получается, что спектр зависит от яркости пикселя?
У разной длины волны разные энергетические уровни фотонов и они неравномерно поглощаются / отражаются от неидеальных по своей структуре молекул ЖК. У «синих» фотонов около 2.5 – 2.8 электронвольт, у «жёлтых» — 2.1 – 2.2, отсюда и разница в прохождении «закрытой» ячейки. Плюс в некоторых мониторах ещё и всякие адаптивные подсветки бывают. Температурная неравномерность подсветки — основной бич относительно недорогих мониторов на текущий день. Бывает смотришь результаты с колориметра — вроде и покрытие ничего, и гамма-кривые, но качество того, что суют в подсветку — хоть стой, хоть падай. Тени синие, света жёлтые, сама подсветка с градиентом и пятнами…
Как узнать есть G-sync или нет? Честно я не игроман, но стало интересно, неужели это дает такой прирост в четкости и плавности картинки.
Монитор BenQ XL2411T. Вроде бы как тоже полноценный 144гц. И Nvidia 3D ready (Очки тоже есть, 3D супер, не во всех играх но прикольно).
И хватит ли ресурсов машины чтобы все это ощутить? Нету больше желания комп грейдить, и денег. I7 2600k, 16gb ram, Nvidia 780 GTX, SSD 120 vertex 3.
Монитор BenQ XL2411T. Вроде бы как тоже полноценный 144гц. И Nvidia 3D ready (Очки тоже есть, 3D супер, не во всех играх но прикольно).
И хватит ли ресурсов машины чтобы все это ощутить? Нету больше желания комп грейдить, и денег. I7 2600k, 16gb ram, Nvidia 780 GTX, SSD 120 vertex 3.
Ресурсов хватит, 3D-ready работает на базе G-Sync, скорее всего. Кадры-то с очками надо синхронизировать. Если в описании монитора где-нибудь есть фраза LightBoost — можно увеличить уверенность в том, что поддержка этоф чики есть, т.к. LightBoost — это часть G-Sync. Но (обычно) на коробке сорок раз напишут про G-Sync, не зря ж бабки за плату в Nvidia отдавали. Лично я официальной инфы не нашёл.
Самое интересное я тоже ничего такого не вижу… И пока в инете натыкаюсь что якобы lightboost есть а g-sync нет. Ладно спс. Буду искать.
P.S. Похоже все таки нет :) Главный вопрос у всех как добавить поддержку G-Sync. Так что не все мониторы одинаково хороши оказывается :)
P.S. Похоже все таки нет :) Главный вопрос у всех как добавить поддержку G-Sync. Так что не все мониторы одинаково хороши оказывается :)
Нет — мухи отдельно, котлеты отдельно.
3D-ready работает на основе высокого фиксированного фреймрейта — 120/144гц — не важно с каким подключением: DP, HDMI или DVI
FreeSync и G-Sync манипулируют сигналом vBlank в DisplayPort — то есть только DP подключение и монитор с прямым подключением по eDP к матрице либо совместимымым asic
Тут ещё нвидия прикрутилабесполезную плату с fpga и буфером — имхо просто продать подороже, так как на ноутах g-sync работает и без неё.
3D-ready работает на основе высокого фиксированного фреймрейта — 120/144гц — не важно с каким подключением: DP, HDMI или DVI
FreeSync и G-Sync манипулируют сигналом vBlank в DisplayPort — то есть только DP подключение и монитор с прямым подключением по eDP к матрице либо совместимымым asic
Тут ещё нвидия прикрутила
в BenQ буква G в названии серии даёт намёк на присутствие G-Sync. Без неё — нет.
А как на счет теста Японки на веревке?
Как обладатель 144 Гц монитора могу сказать что вижу разницу между ним и <100 Гц вариантом. Ещё хорошо видно где количество кадров в секунду низкое, например на видео. Нынче любят делать видео для веб-просмотра с повторяющимися кадрами или низким их числом, их смотреть нереально. Разницу между 120 и 144 я не вижу. Зачем нужен G-Sync и вообще вертикальная синхронизация — не понимаю т.к. ни разу с этой проблемой не сталкивался, возможно нужно другое железо чтоб её увидеть. Ну и однозначно могу сказать что 144 Гц это сейчас только для игр, в других областях заметно чего не хотелось бы видеть.
З.Ы. я вижу, как моргает одна из лампочек в подъезде, мои знакомые — нет. Вероятно я вижу немного не так как вы, соответственно и восприятие монитора у меня не совсем такое.
З.Ы. я вижу, как моргает одна из лампочек в подъезде, мои знакомые — нет. Вероятно я вижу немного не так как вы, соответственно и восприятие монитора у меня не совсем такое.
Зачем нужен G-SyncДля низких fps в районе 40-75.
Вот видео на эту тему youtu.be/hjWSRTYV8e0?t=1m48s Denai
Я на низких FPS тоже не сталкивался с этим эффектом, всё время обходит стороной. Вижу его на видео, но не вижу в реальных условиях
Значит вам повезло, и вам не нужна эта технология! )
Про классический, самый дешевый XL2411 не написали, потому что в юлмарте не продается? )
Быстро двигайте курсором. При 60 Гц вместо одного курсора штук 3-5 в разных местах. Для мозга это несколько разных объектов. При 144 Гц 10+ курсоров друг за дружкой, мозг корректно воспринимает их как один быстро движущийся объект.
ПС Где-то читал что можно заметить разницу между 240 Гц и 480 Гц. А выше уже нет
ПС Где-то читал что можно заметить разницу между 240 Гц и 480 Гц. А выше уже нет
Курсор в Windows — это читерство, он в очень малом количестве кадров рисуется, поэтому разница настолько очевидна. Лучше смотреть на анимацию в хороших приложениях типа браузеров или офисного пакета — разница в количестве кадров гораздо меньше заметна, как и должно быть, зато плавность и точность анимации — прямо загляденье.
На сколько я понял из статьи на IPS невозможно сделать 144 Гц, и действительно я таих мониторов не видел. Но что мне не понятно — это как работает TrueMotion на LG телеках. Там вроде честные 200Гц и AH-IPS. Поправтье меня, пожалуйста, если ошибаюсь.
LG имеет кучу патентов в области IPS. Читерская матрица + стробоскопирующая подсветка = trumotion. Что у них с цветами, стабильностью и всем остальным — над изучать конкретные модели. Да и контента 200 FPS днём с огнём не сыщешь, если только кадры не интерполировать программно, что уже совсем не торт.
Попробую провести исследование, если получится — напишу статейку.
Попробую провести исследование, если получится — напишу статейку.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий
Об игровых мониторах и 144 герцах