Комментарии 991
потому что вы просто закончите с рождественским цветным беспорядком
Статья же про зрение и глаза, да? Вытекают. Неужели какое-нибудь "вы получите рождественский цветной беспорядок" в голову не пришло?
end up with a christmas light messна самом деле переводится как «избавитесь от рождественской гирлянды».
Если бы там было "You'll just end a cristmas light mess", то это можно было бы перевести как "Вы просто покончите с этим разноцветным безобразием". Но там "end up with" — идиома, означающая "получить что-то в результате".
То есть перевод — "у вас просто получится разноцветное безобразие". Можно перевести дословно: "мешанина рождественских огней", но это как-то натянуто. "Неряшливая ёлочная гирлянда" вроде бы получше.
Во-первых, как уже сказали, переводится не так. Во-вторых — переводить надо литературно.
"Закончите с беспорядком" я, к примеру, автоматически в уме поправляю на "покончите с беспорядком" — а это совсем не то, что имелось в виду в английском тексте. Понять, что имел в виду автор, мне помогло только знакомство с английским выражением.
Можно получить 26 дюймов из 4-х этих ваших 13-дюймовых… крест по середине это мелочи, да, зато модельный ряд сразу расширится, если все так делать начнут
На телефонах уже 4к есть, так что все спокойно впихивается. Просто спроса, видимо, пока что нет такого большого.
А будет ли он без таких статей? :) Да и с ними — монитор обычно на годы покупается, просто так бежать и покупать новый монитор, увидев, что что-то на рынке прикольное появилось, мало кто будет.
Да и статья-то высосана из пальца.
Автор какой-то странный. Буквы у него размытые. Он протереть экран не пробовал?
Высокое разрешение нужно, например, при работе с чертежами в Autocad, иногда нужно вывести на экран вид с большим количеством мелких деталей и чтобы при этом надписи читались — приходится постоянно увеличивать разные участки.
Но тут возникают как минимум две проблемы.
Первая — найти монитор 4k с диагональю 20"-22" (больше не влезает в поле зрения, нужно крутить головой).
Вторая — большое разрешение для нормальной работы требует больше вычислительных ресурсов.
Как вариант, существуют ноутбуки 4k с диагональю 15,6".
В любом случае, одно рабочее место будет стоить 100-150т.р., сомневаюсь что хотя бы на одном предприятии в РФ инженерам поставят такое.
Где-нибудь в Боинге может быть проектировщики на таких и работают, но не у нас.
Первая — найти монитор 4k с диагональю 20"-22" (больше не влезает в поле зрения, нужно крутить головой).
Монитор от головы отодвиньте. Получаете меньшее поле обзора с меньшим размером пикселей (удвоение расстояние эквивалентно эффективно удвоению dpi). Двойной профит.
Вообще, большинство описанных в статье проблем решаются нормальным расстоянием до экрана.
Иногда чтобы отодвинуть монитор нужно квартиру новую купить Ж)
А если увеличивать масштабирование — то это получается шило на мыло, получаем столько же информации сколько на 1080 но на отодвинутом мониторе.
Большие диагонали скорее для кино и гейминга, чем для работы. Возможно где-нибудь в полиграфии и дизайне они тоже нужны.
Не у всех орлиное зрение. Мне лично некомфортно, если монитор дальше 75 см.
Вам тогда и dpi высокий не нужен.
А мне вот норм головой вертеть :D У самого 21:9 монитор на 34 дюйма. И еще один на 24 дюйма рядом для мелочей. Оба правда 1080p. Сижу где-то в 70 см. от него и вообще норм. Чеб шею и не поразминать)
Домашний монитор брал лет 7 назад — Китай с матрицей Мака (типа во вторую смену завод делает :) ), Мак и лыжа — разницы на АКАДе не вижу. И глаза не устают.
Домашний монитор брал лет 7 назад — Китай с матрицей Мака (типа во вторую смену завод делает :) ),
а что за чудо такое?
После рабочего Мака — разницы глаза не увидели.
Для автокада лучше 2*27 :)
Наверное, затем, что важно не только количество, но и качество отображения текста? Пассаж про "сложнее читать" не понял.
Пассаж про «сложнее читать» не понял.Все современные шрифты, без исключения, сложнее читать, чем растровые шрифты конца XX века. Просто потому что природу не обманешь — контраст любых современных шрифтов гораздо меньше, чем контраст жёстких, резких, шрифтов Windows 3.0 или даже Windows 2.0. Которые не требовалось подгонять под сетку — они были такими от рождения!
Просто потому что тогда у вас выбора не было: то месиво, в которое вырождаются эти шрифты даже в крупных размерах (типа 14 pt вместо 7pt — вполне себе имитация той самой злощастной «ретины») — на старых мониторах с плохой фокусировкой различить были бы невозможно в принципе.
Потому тот факт, что совренные шрифты хуже читаются — это просто факт. Его легко проверить.
Наверное, затем, что важно не только количество, но и качество отображения текста?Да, можно найти 100500 причин (начиная от эстетики и кончая разного вида психологией) почему это круто для всяких ваятелей рекламных брошюр и объявлений… но нафига всё это программистам?
но нафига всё это программистам?
очень странный вопрос. Наверное затем, что программистам тоже не чужды обсуждаемые причины (те, которые "начиная от эстетики и кончая разного вида психологией")?
Это не слишком сложно, если вы действительно занимаетесь программированием.
Ну что за детский сад, ей-богу: матрицы 5x7 более, чем достаточно чтобы различимо отобразить все латинские и русские буквы. И всё.
Да, я знаю: UX'ы плачут и объясняют, что я ничего не понимаю в шрифтах.
Возможно. Но зато я точно знаю, что если не содавать самому себе проблем и не искать красивостей там, где они не нужны — то и решать оные проблемы не потребуется.
Так я за свои купил на работу обычный второй моник, б/у,$80. Моя самамя лучшая инвестиция. Компания еще несколько лет не предлагала доп. монитор.
Хотя, к эргономике отношение религиозное.
Когда-то тоже помню прыгал от счастья, когда смотрел в только что купленный LG Flatron F700P (после какого-то 14" древнего самса, уже и не вспомню)… С его 1920 x 1440 и «всего» 65 Гц… Фишки ЭЛТ, кстати, в том, что они перерисовывают картинку по-честному каждый раз (а не держат её в буфере, как делают ЖК); и в идеальном аппаратном масштабировании (нет сетки пикселей — нет необходимости пытаться впихнуть невпихуёвымаё или что-то пересчитывать). Ну и скорость света (а именно с такой скоростью отрисовывается картинка в ЭЛТ) — тоже не хухры-мухры… )))
Вот, к слову, автор статьи ни разу не обмолвился об ЭЛТ, хотя то же Compaq нативно может 2048x1536 / 80Hz, и это будет выглядеть гарантированно лучше, чем любая покоцанная рескейлом картинка (и особенно динамика) на ретине… И этого точно хватит для разработки и красивых шрифтов… Однако же, потребительские качества (в виде компактности) выходят на первый план, и мало кто может позволить себе держать «архаичную бандуру» на столе, хотя бы и она давала картинку лучше… Маркетинг такой маркетинг…
Вместо сетки пикселей в них "сетка" люминофора, "размер зерна" помните понятие? Электроника hires режимы поддерживать могла высокие, но два соседних пикселя разных цветов вполне могли оказаться слившимися в хорошо так заметную градиентную полосочку с чистыми цветами по краям и чем-то средним в центре
Вместо сетки пикселей в них «сетка» люминофора, «размер зерна» помните понятие?«Размер зерна» сильно меньше влиял, как это ни странно.
два соседних пикселя разных цветов вполне могли оказаться слившимися в хорошо так заметную градиентную полосочку с чистыми цветами по краям и чем-то средним в центреНе могли. Ну то есть вообще никак.
Зерно, во-первых, не обязано было быть зерном (Тринитрон, да), а во-вторых — и «зерно» и, уж конечно, вертикальная полоска люминофора, не загорались целиком. Свет излучался там, куда попадал электронный луч — то есть яркостная картинка строго соответствовала задумке — а вот уже с цветами всё могло быть не так просто. Это можно даже на картинке из Wikipedia заметить — там белая букве «e» под микроскопом и на ней заметно, что слева задействуются больше красного, а справа — больше зелёного.
Никакой ClearType так не может. LCD просто чисто аппаратно не может зажечь полпикселя. А поскольку цветовое зрение человека сильно менее острое, чем чёрно-белое, то при том же разрешении картинка на экране LCD — заметно хуже воспринимается, чем на экране CRT.
Вот если приблизиться гораздо ближе к экрану, чем обычно (или, вообще, посмотреть на него в лупу) — то может показаться, что разницы между LCD и CRT вообще нету. Но она есть — если знать куда смотреть…
Таким образом форма мелких объектов на CRT передаётся отлично (и независимо от разрешения вообще), а вот цвета… да, цвета страдают. Но это можно заметить только если у вас жуткая близорукость и вы буквально «носом в монитор» упираетесь.
Кроме маркетинга ещё и бывает сложно решить проблему куда поставить "архаичную бандуру" дюймов на 19, чтобы носом в неё не утыкаться.
/sarcasm/ представляю себе ноут или планшет с элт трубкой, вместо lcd матрицы
Углы обзора. Для ЭЛТ такого понятия не существует в принципе, там угол будет 180 (а если моник не плоский, то даже чуть больше))), и это будут честные градусы, где картинка не будет меняться вообще никак. Даже на распрекрасных (без сарказма) Super AMOLED plus картинка меняется, не говоря уже про IPS-LCD и тем более TN…
Время отклика «матрицы». Опять же, для ЭЛТ это без малого скорость света (понятно, что реальные устройства ограничены скоростью преобразования сигнала в аналоговый).
Равномерность подсветки. Если (ошибочно) допустить, что люминофор выгорает равномерно, то яркость в любой точке ЭЛТ будет одинакова. В ЖК (кроме семейства OLED).
Рискну предположить, что существует некоторая небольшая ниша, где важно отображение именно аналогового сигнала безо всяких аппроксимаций (возможно, какие-нибудь осцилографы и т.п.). Тут точно ЭЛТ (но не те, которые с решётками/масками). Хотя скорее, это я уже за уши притягиваю; думаю, разрешающей способности современных ЖК должно хватать всем…
Может найдутся и ещё какие-то критерии, где ЭЛТ будет лучше. В остальном они, конечно, сильно проигрывают… Потому и ушли на заслуженный покой с рынка… Так что тут вы правы и я с вами согласен.
А про маркетинг — это я больше про статью. Очень мало кому действительно нужна ретина, для большинства же она даже может стать источником лишних проблем (например, обсчитывать 4-10К сильно сложнее, чем 2К, то есть кому-то придётся обновить железо и платить больше за электричество). Причём кроме расходов на саму ретину есть ещё оверхэд на hidpi (например, смасштабировать картинки в браузере). То есть та же ретина в ноутбуке может стать и нежелательной, потому что съест больше батарейки…
Это если игры не запускать, даже старые. Какой-нибудь half life 2 на 4к может серьёзно нагружать неигровую систему.
Ой, а можно я тоже про профили немножко поною? Профиль High422 тоже реализуется примерно никем, из-за чего я не могу перекодировать оцифровки VHS-кассет без искажения цвета :(
А толку от софтовых кодеров-декодеров, если на большинстве не слишком "умных" телевизоров их всё равно нет и не предвидится, да и на том же андроиде ещё нужно додуматься предварительно установить из гугл-плея какой-нибудь плеер с софтовым декодером
А толку от архивов, если их просмотреть будет толком не на чем) Так-то если ограничиваться каким-нибудь VLC в каком-нибудь линуксе на каком-нибудь современном Core i5, то можно хоть в Lossless H.265 писать если места не жалко, а если хочется чтобы условные родственники просто воткнули флешку в телек и не парились, но при этом постараться максимально сохранить качество, то приходится различные связанные с кодированием дилеммы решать. Ну или кодировать дважды в два разных формата, если места совсем не жалко (а мне жалко)
Lossless H.265 писать если места не жалко
Я наоборот считал HEVC способом сжать в относительно низкий битрейт. Ну а интеграшка в «современном Core i5» наверное должна потянуть декодирование такого сжатого видео легко.
Как это ни удивительно, он весит даже немного больше чем Lossless H.264 (или это просто libx265 недостаточно оптимизирован?), ну и относительно lossy они оба здоровые (65 Мбит/с даже с пресетом veryslow ради какого-то жалкого VHS — спасибо, не надо). А мой ноутбучный Haswell в принципе не поддерживает аппаратный H.265 :(
А в VHS было 320x240 и 120 линий цветоразности?
А вопрос в том, как эти 10 бит потом отобразит монитор.
В лучшем случае сокращать битность будет MadVR, в худшем это произойдёт намного раньше.
Я экспериментировал с 10-битным цветом, когда писал собственный просмотрщик изображений. Идея была в использовании ordered dithering: что в блоках 2х2 пикселя к каждому пикселю добавлялось 0, 1, 2 и 3 соответственно, а затем цвет округлялся до 8 бит. На 4К мониторе градиенты выглядели идеально, неотличимо от истинных 10 бит.
Ну а выводить 10 бит на монитор умеет тот же MadVR, но только в полноэкранном режиме, и мой монитор при этом переключается, а делает он это до безобразного долго, около 5 секунд.
Так можно же задать 10 бит глобально для системы, и не будет тратиться время на переключение.
Другое дело, что под Windows все равно придётся переключаться в полноэкранный режим для просмотра 10-битного цвета — это программно-маркетинговое ограничение.
Под Linux такого ограничения нет, но графический интерфейс начинает работать ощутимо медленнее.
P.S. Что-то в Хроме висит ввод комментов на Хабре.
Но только для зажигания пикселя. Погасание может затянуться на несколько кадров из-за послесвечения люминофора
Впрочем, что это я — и на ЖК обновление пикселей происходит с частотой кадров, а время реакции матрицы добавляется к межкадровому интервалу как задержка.
Учитывая, что частота повтора клавиатуры 30 раз в секунду, курсор сдвигается с периодом 0,0(3) с — получается, хвост шлейфа затухал через 0,1 с.
Еще надо понимать, что процесс послесвечения люминофора аналоговый, низкие уровни послесвечения сохраняются очень долго, в полной темноте можно наблюдать послесвечение люминофора только что выключенного телевизора и хвосты при желании можно заметить, если знать куда смотреть. На ЖК матрицах, кстати говоря, тоже можно заметить хвосты, но причина уж не в люминофоре.
ЖК да, тоже имеют свою инерционность — ведь молекулам нужно время на изменение положения. Но оно, по идее, очень маленькое.
Насчет аппаратного предела разрешения — он там есть. Это у монохромных мониторов можно разрешение вытягивать до размеров зерна люминофора, у цветных не так. Конкретно у платформы Mitsubishi 2060u — потолок около 0.20мм по горизонтали, по вертикали можно выставить что угодно, но по факту точность сведения будет где-то около техже цифр. Так что ставить что-то выше 1600х1200 есть смысл только для скриншота чтобы побольше влезло и в печать, или использовать аппаратное масштабирование с софтом, который не умеет что-то подобное сделать также красиво программно.
Когда пересел с 19" на 28", то казалось, что слишком огромный.
Сейчас — посматриваю в сторону 32".
Самый яркий момент при переходе на монитор 4K — это абсолютно чёткие тонкие линии в буквах. Как на бумаге.
Эффект «он слишком большой» действительно проходит и вот сейчас мне хочется заменить свой 34" на что-нибудь типа 40+. Но это почти невозможно сделать, моделей мало и они дорогие.
Да и все современные сериалы в 16:9 идут. Формат 21:9 используется только для большого кино для кинотеатров.
Я как раз имел в виду фильмы в формате 2.4:1, т.е. практически вообще все фильмы за последние 20 лет. У меня нет телевизора, поэтому все фильмы смотрю на мониторе.
На DVD фильмы выпускались или в формате 16:9 с полями сверху и снизу. Или в формате 16:9 с обрезкой краёв. Чаще всего кадр делали тупо по центру, но иногда встречались варианты интеллектуального кадрирования, когда в разных сценах кадр двигали влево или вправо. Как это выпускают на блюрее я не знаю.
Я не то что киноман, но много смотрю кино и сериалов на компьютере. Почти все отлично походят под соотношение 16:9. Редко-редко встречаются другие соотношения. Ну и на большом мониторе даже полоски сверху не особо мешают.
Я тоже не понимал что такое фильмы формата 2.4:1 (а это вообще-то абсолютно все фильмы) пока не купил монитор 21:9. Оказалось что это очень круто когда фильм идёт на весь экран.
Но только не подумайте что это у меня религия такая. Просто мне дома так удобнее. По центру стоит большой 34" монитор, а сбоку есть ещё 24", на котором я запускаю сериалы и всякие прочие стримы когда работаю на основном.
Я не то, что не понимаю, такого нет. Просто 40" монитора позволяют даже с полосками иметь достаточно большую картинку. Но 720р (даже честные) на нем смотрятся отвратительно.
Я давно хочу 40", но почему-то про 16:9 не думал, как-то упёрся в 21:9 и не рассматривал варианты. Может быть как раз есть смысл взять то же самое по ширине, но больше по высоте. Но тут уже, наверное, без 4К не обойтись. Значит начнутся все эти заморочки с «видеокарта не тянет X-Plane» и всё такое.
А наверное 40" 16:9 по ширине как раз соответствуют 34" 21:9Хм, посчитал. Результат для меня несколько неожиданный:
34" 21:9 должен иметь ширину 793,8 мм
40" 16:9 — 885,5 мм
Другое дело, что я в магазине посмотрел как-то на телевизор 40" 4к с расстояния вытянутой руки, как я обычно смотрю на монитор — мне не понравилось. С пикселами — всё ок, но углы обзора, под которыми смотришь на углы картинки, такие, что кажется что смотришь на выпуклый шар.
Для меня, похоже, максимальный комфортный размер плоского монитора — 27"
Жаль, что производителям мониторов эти все аргументы совершенно побоку.
Я вам более того скажу, вашим глазам эти аргументы тоже абсолютно побоку, на самом деле. По крайней мере, если речь идет о переходе со «стандартных» 92 dpi на более высокую плотность.
Я, например, прекрасно вижу разницу между 95 dpi и 180 dpi. Может глазам и побоку, но мне неприятно смотреть на пикселизированный текст.
В статье давят как раз на первое
а где именно в статье на это давят? Дайте цитату, пожалуйста, может я проглядел.
Я программист. Я не занимаюсь цифровой живописью, обработкой фотографий, видеомонтажом. Меня действительно не волнует широкая гамма или даже правильная цветопередача. Я провожу большую часть своих дней в текстовом браузере, текстовом редакторе и текстовом терминале, глядя на едва движущиеся буквы.И в заключении:
Поэтому я оптимизирую настройки, чтобы показывать действительно, действительно хорошие буквы. Для этого необходим хороший монитор. Не просто нужен, а ОБЯЗАТЕЛЕН.
Текст не может выглядеть хорошо на дисплеях с низким разрешением.Хорошо-нехорошо — это на самом деле субъективное «приемлемо». Мне вот сейчас на ноутбучном 96 DPI — читать текст нормально. На домашнем 1080p 24" мониторе я сижу так далеко, что иногда текст увеличиваю, опять же «приемлемо».
Год или два назад кто-то в комментариях на Хабре рассказывал, что вообще всё сглаживание отключал + надстройки, чтобы получить pixel-perfect шрифт как на Windows XP ЕМНИП (или была цель несглаженный шрифт?). Его скриншоты смотрятся именно что — по-другому. Хуже или нет — дело вкуса.
Никто не будет спорить, что при 4К (читай: выше DPI) текст будет выглядеть лучше. Но у автора — это вообще святой Грааль, а вы чукчи и, конечно, 4К 120Гц чуточку дороговат (2000$ — это у него сарказм такой или истинное непонимание?), но того стоит (тм)
У меня не возникло ощущения, что автор пишет о физиологии. Скорее об эстетике и комфорте. На самом деле я автора поддерживаю — каждый должен иметь возможность попробовать поработать за retina-like монитором чтобы выяснить для себя, что лучше. Подозреваю, что многие юзера сейчас пользуются старыми мониторами так как даже не знают, что на рынке существуют экраны, способные предоставить намного лучший опыт. И автор высказывает мысли в таком ключе, чтобы поднять этот вопрос, расшевелить рынок, так сказать.
Другой вопрос, что если сделать экраны физически малоотличимыми от реального объекта, который они изображают — то это будет и эстетично и физиологично (по-крайней мере, нельзя будет сказать, что смотреть на экран вреднее, чем смотреть на реальный мир, который экран отображает).
А что является реальным объектом, если на экране буквы?
Эстетично или нет — это дело вкуса. Как выбор шрифтов. По физиологии — нужно сначала доказать, что пиксельный текст вреднее (или не вреднее) гладкого. Это если экран фонит рентгеном, или мерцание вызывает эпилепсию боль в глазах, то сразу более-менее ясно, что для здоровья такой экран не очень.
Ставить масштабирование — ловить блох по всем подсистемам, или постоянно переключаться.А что за ОС, какой версии?
Ставить масштабирование — ловить блох по всем подсистемам, или постоянно переключаться.Мы тут (и выше) как раз обсуждали баги масштабирования, и вроде как пришли к выводу, что если у вас 10-ка и мониторы подключены постоянно, то проблемы будут только уж в очень древнем софте, времен висты-xp.
Но если вы приведете примеры программ, где масштабирование не лечится параметрами совместимости, то можно будет развить тему еще.
Если мылится текст — да. Если иконки/картинки — нет. Вот пример старого приложения, к которому сам виндовс применяет масштабирование: https://prnt.sc/tfb8wg
Пользоваться можно, но выглядит не очень. В более новых приложениях такой проблемы нет (как пример: https://prnt.sc/tfbe0w )
Ради интереса поставил только что этот Workbench (https://prnt.sc/tfcfda) — таки да, это пример одной из немногих современной, но не адаптированной программы. Позор Ораклу. Но, в принципе, оно выглядит несколько лучше, чем то приложение, которое я приводил выше, пользоваться можно.
То есть под монитор и ОС выбирать, и от мобильности (даже вида системник вожу с работы домой и обртано) отказываться? :)
Год или два назад кто-то в комментариях на Хабре рассказывал, что вообще всё сглаживание отключал + надстройкиЭто, небось, я:)
habr.com/ru/post/463799/#comment_20514385
fastpic.ru/fullview/106/2019/0816/99b291d35da095fb19d8aaf3e43f93df.png.html
Всё ещё жду нормального монитора 23" 4K. А пока что отрубаю всё сглаживание, так что всё выглядит a-ля Win98.
Дл крупных шрифтов сглаживание — это прекрасно. Но для мелких, когда количество сглаженных пикселей больше половины от всех пикселей шрифта, то как будто надел очки на здоровые глаза.
24 сильно больше?
А вот и нижеследующий пример, как Chrome превращает шрифты в мыло. Где-то слышал, что это проблема из-за (кривой) конфигурации Skia. В итоге на Electron-based программы смотреть невозможно (а ≤13pt просто невыносимо). Это как раз те мелкие шрифты, которые сама ОС (Win7) рендерит на ура, в отличие от.
А в вашем тексте практически нету ни одного несглаженного пикселя. Вот сравнение вашего текста и моего Tahoma 12:
fastpic.ru/fullview/112/2020/0703/ca7a67e2c8107a213b54a4f3f7bb718e.png.html
Разрешение человеческого глаза: 1-2 минуты. Этого достаточно, чтобы видеть смазанность шрифтов на 23" FullHD на расстоянии 60см.
Что ж, если в кратце: дело-таки в шрифтах!
Я сравнил Firefox и Electron (Discord app) друг с другом. При одинаковых настройках различий нет. Аппаратное ускорение: да, что-то изменяет (видно, если наложить слои XOR'ом), но незаметно для глаза.
Результатом оказалось, что «старый-добрый» Segoe UI лучше всего ложится на пиксельную сетку при 96 DPI, оттого и кажется чётче. Дело в новых шрифтах, что используют Steam+Discord (других вакханалий Electron на ПК пока не держу). Потому, когда Steam перешел от native чат клиента на Electron и казался текст мылом.
Скриншоты, 96 DPI:
100%, оригинал [160 КБ] (да, размер в настройках блокнота правильный)
400% увеличение через nearest neighbour [286 КБ] (чтобы не использовать неконтролируемое увеличение браузера со сглаживанием)
Тут для меня явный фаворит — это Segoe UI. Мне уже непонять, либо это сугубо личное (знакомый шрифт + пригляделся за года), либо он в самом деле рендерится с меньшим количеством сглаживания.
PS: Скриншоты сводил в Paint.NET 3.5, но он вроде субпиксельно не сдвигает картинки, поэтому ошибок быть не должно.
Font rendering
gfx.canvas.azure.backends > direct2d1.1,cairo,skia (old font rendering)
gfx.content.azure.backends > direct2d1.1,cairo,skia (old font rendering)
Отсюда. Firefox поддерживает несколько бекэндов для отрисовки шрифтов. Вот и всё — откуда могут быть (или не быть) различия.
Мы перешли на так называемый Native font stack, то есть на использование шрифтов, встроенных в операционную систему и используемых в ней в качестве шрифтов «по умолчанию». Такой подход позволяет лучше согласовать оформление сайта с дизайном операционной системы и, кроме того, немного ускоряет загрузку, поскольку страница не подгружает отдельный файл со шрифтом. Соответственно, для замены шрифта вы можете изменить основной шрифт вашей системы или использовать расширения для браузеров, позволяющие применять собственные css-стили к странице.
шрифтов, встроенных в операционную систему и используемых в ней в качестве шрифтов «по умолчанию»
Только вот в моём Arch Linux стал использоваться Segoe UI, который ну вообще категорически не является нативным
.comment__message, .comment-form__preview {
...
font-family: "-apple-system",BlinkMacSystemFont,"Segoe UI",Arial,sans-serif;
}
Я установил) Только вот сам факт его установки совершенно не делает его системным/нативным
И то второй без регулировки высоты.
Просто купите кронштейн. Можно сразу на два монитора (если вы используете несколько). Один раз вложили деньги — и со следующими мониторами можно не заморачиваться вообще. Бонусом — появляется место на столе, настройки осей будут всегда именно те, что нужны вам. Высота, наклон, поворот, вынос — всё, как вы захотите.
Мне очень понравились качеством изделия Arm Media: https://market.yandex.ru/catalog--kronshteiny-i-stoiki/56146/list?glfilter=7893318%3A10713369&onstock=1
Использовал несколько лет кронштейны на стену, сейчас подвесил на стол 2 монитора с помощью Arm Media LCD-T42 — поразительно устойчивая конструкция получилась.
Не все мониторы имеют VESA.
Это не проблема, продаются переходники на VESA. Я себе на кухню купил моник Dell 27" вместо телика, он без VESA. Купил сначала переходник, но он оказался очень громоздким и мешал открываться шкафу. В итоге сделал ему переходник на 3D принтере, быстросъемный с креплением типа ласточкин хвост.
В целом, пользуюсь второй год и доволен как слон — яркий и четкий монитор, занимает немного места на столе. Жалко, что следующая версия на 24" оказалась менее удачной — меньше разрешение при таком же размере, меньше яркость, негативные отзывы про качество, поддержка только Thunderbolt 3.
Еще косяк — если используешь пару таких мониторов, то надо подключать каждый своим кабелем к макбуку. Док станции с 2 usb-c видеопортами я не нашел.
еще засада, что там usb-c порты со скорость usb 2.0 всего
Док станции с 2 usb-c видеопортами я не нашел.
А мак в такое и не умеет. Подключал к dell latitude и xps в один type-c порт док на два монитора — все нормально. Тот же самый док с макбуком — изображение на мониторах дублируется, и все. Хотя в последний мак про не пробовал ещё.
Да, матрица 27" 16:9 по высоте почти соответствует 24", но зато она настолько широка, что полностью ломает привычный процесс работы и шаблоны движения мыши по экрану.
Мне не нужен экран 27". У меня 3 монитора по 24", и они отличаются от просто широкого экрана тем, что на каждом мониторе свой отдельный контекст. Я никогда не смотрю на два монитора одновременно. Нужна информация со второго монитора — повернулся к нему. А широкий 27" экран заставляет меня постоянно вертеть головой при работе с одним контекстом.
Рынок правит миром.
Но вот недавно решился на радикальные 43" 3840×2160 в качестве основного монитора. Основной проблемой-ограничением оказалось рабочее место — нужен банально широкий и достаточно большой в глубину (чтобы отодвинуть монитор дальше привычного, увеличив масштаб).
Про «вертеть головой» забылось на следующий день. Сейчас лишь жалею, что не взял изогнутый — теперь понимаю, что это такие же предрассудки, которые развеваются через пару дней реального использования, когда представить возвращение к предыдущему «мелкоскопу» нереально.
Скромный вывод и совет от похожего по тону консерватора — попробуйте, не знаю как, но попробуйте пару дней поработать. Всё не так, как кажется.
Не думали о том, чтобы широкоформатные мониторы ориентировать не в альбомную (стандартную), а портретную ориентацию (ну, как мы А4 листом пользуемся в быту). И тогда по горизонтали проблем не будет, а т.к. ширина кода всегда стандартная (сколько там обычно — 80 символов?), то по вертикали будет влезать больше информации
По этой причине подумываю на счет нового dell xps 15, наконец то ноут с таким соотношением
Монторов с 4k и диагональю 24" (27 мне уже многовато) на яндекс-маркете ровно два
Просто поставьте свой монитор дальше, и получите улучшенный аналог 24".
Единственное, когда нужно 24" — когда слишком маленький рабочий стол. В остальных случаях это слишком мало, т. к. требует ставить монитор слишком близко к глазам.
Менее 27" — слишком маленькая диагональ.
Также менее 27" может быть актуально при нескольких мониторах, т. к. при нескольких нужен ещё более большой компьютерный стол — не у всех такой есть.
Купите нормальный рабочий стол — это не так дорого. Тогда сможете хоть 40" поставить, но дальше от глаз — размер картинки будет такой же, но глазам будет намного полезнее, т. к. не придётся напрягаться для фокусировки на близкое расстояние.
Дополнительно это решит проблему изменения размера картинки при изменении позы.
Я к тому, что чем монитор больше, тем всегда лучше для глаз и для пользователя. Главное, чтобы рабочий стол позволял вместить его.
Исключение составляют пользователи, у которых уже развилась близорукость, и которые теперь не в состоянии сфокусироваться на мониторе, который расположен слишком далеко от глаз. Но чтобы она не развилась, как раз и нужен большой монитор. Если же уже развилась, то не знаю, может плавно отодвигать монитор или сходить к врачу.
Какая разница какой физический размер монитора? Главное его угловой размер, не слишком большой, чтобы головой не крутить и не слишком маленький, чтобы видеть достаточное количество информации. Грубо говоря между 27" на 70 см или 24" на 60 см (цифры от балды, точно считать лень) разницы н едолжно быть заметно при прочих равных.
Какая разница какой физический размер монитора?На самом деле разница есть, хотя и вторичная. 24" в 60см и 55" в 120см (цифры от балды тоже), отличаются тем, что во втором случае можно спокойнее двигать головой, глазу нужно не так сильно изменять фокусировку при движении от края к центру и обратно, изменение освещенности не так заметно и т.д.
Поэтому при прочих равных — чем больше тем лучше.
С фокусировкой и освещенностью согласен, с головой, видимо, не уловил.
Но есть ещё один критерий: прочие равные буду только если место не ограничено, ни, грубо говоря, столом, ни, руками.
С фокусировкой и освещенностью согласен, с головой, видимо, не уловил.Сидишь обычно не неподвижно. Сядешь так, сядешь сяк, голову направо подвинешь, налево. Если монитор небольшой и недалеко, то любое неосторожное движение и вылетаешь из удобного центра, если большой и далеко — то чувствуешь себя свободно.
Но есть ещё один критерий: прочие равные буду только если место не ограничено, ни, грубо говоря, столом, ни, руками.Мы со своей фрилансерской колокольни:) Телек 65" стоит столько же сколько моник 42", но при этом поставить его можно на таком расстоянии, что даже не придется особо думать где сесть что бы все было видно.
- Чем дальше монитор, тем лучше для глаз (меньше напряжение глаз, т. к. чем ближе объект, тем больше усилий требуется для фокусировки; особенно это актуально при длительных нагрузках).
- Чем дальше монитор, тем меньше изменяется угловой размер при изменении позы. Пример:
- Маленький монитор:
- Расположен на расстоянии 50 см. Расстояние до дальней точки (например, в левом верхнем углу) — 58.4 см.
- После изменения позы мы отодвинулись на 20 см дальше, стало 70 см. Расстояние до дальней точки — 76.2 см. Расстояние после изменения позы увеличится в 1.30 раза, а масштаб текста станет меньше в 1.30 раза. Из-за этого может выйти ситуация, что когда мы придвинуты, текст слишком крупный, а когда отодвинуты — слишком мелкий.
- Большой монитор (диагональ в 2 раза больше):
- Расположен на расстоянии 120 см. Расстояние до дальней точки (например, в левом верхнем углу) — 134.4 см.
- После изменения позы мы отодвинулись на 20 см дальше, стало 140 см. Расстояние до дальней точки — 152.5 см. Расстояние после изменения позы увеличится 1.13 раза, а значит масштаб текста уменьшится в 1.13 раза, а не в 1.30 раза как раньше. Это значит, что размер текста будет примерно одинаковым во всех позах.
- Пояснение: тут можно заметить, что большой монитор мы расположили на расстоянии 120 см, а не 100 см. Так произошло, потому что расстояние было подобрано так, чтобы размер текста остался таким же в дальней позе. Дальная поза была 70 см, увеличили диагональ монитора в 2 раза — стало 140 см.
- Маленький монитор:
Но чтобы она не развилась, как раз и нужен большой монитор.
В большинстве случаев, близорукость — это изменение формы глаза, оно не зависит от близости экрана.
Цитирую с Wiki:
Также близорукость может быть вызвана спазмом цилиарной мышцы
К сопутствующим факторам появления близорукости относятся ранние и интенсивные зрительные нагрузки на близком расстоянии
Автор что-то хорошо покурил.
Хотя, может уже память обманывает. Но я точно помню очень крупные «точки» из которых рисовался текст.
Я сейчас хотел сфотографировать кусочек из «Намедни», чтобы показать реальные границы неровности букв, но у меня банально не оказалось чем сделать макроснимок достаточного увеличения: недостатки камеры уже видно, а букв — ещё нет.
Что интересно, предыдущая страница выглядит более-менее
А разница в бумаге не ощущается? Выглядит как будто первая страница на более рыхлой бумаге.
Ну это уже технический вопрос. Глаза у меня напрягаются и болят независимо от того, точки там или расползлось что-то.Я отвечал на утверждение, что в печатном тексте мало точек/низкое разрешение.
Зато C и I слилось (это что, лигатура?).Нет, лигатура — это когда буквы объединяются вместе в новый символ, отличающийся от просто написания двух букв с перекрытием.
выглядит очень размыто
Называется растискивание, потому что краска жидкая, а валик, с которого она переносится, немного вибрирует. Ну и потому что от бумаги очень сильно зависит: у вас в примере дешёвая тонкая матовая (uncoated), у неё растискивание сильнее. Зато контуры получаются плавные (размытые), именно это позволяет печатать фотографии на тонкой газетной бумаге в разрешении 180 dpi без особой потери качества (визуально). В примере из «Намедни» бумага дороже, плотнее и глянцевая (coated), там растискивание меньше.
текст просвечивается с обратной стороны
— популярное издание Конан Дойля из 8 томов было напечатано на очень тонкой плотной бумаге высокой печатью, и текст немного просвечивал с обратной стороны. Но этот совсем не то же, что некачественная оффсетная печать.
На бумажке выходила итоговая картинка в 5к dpi? Потому что за исключением хороших дорогих книг, часто попадаются напечатанные на почти «туалетной» бумаге, шрифт паршивый и глаза устают. Да, сейчас то я умный, а тогда умудрялся покупать и такое.
Это из серии "Слышал я ваших Битлов… Рабинович по телефону напел".
Пока что ни DPI ни контрастность нормальной (даже не высококлассной) бумажной печати для дисплеев недостижимо даже в ближайшем будущем.
А если отправить им картинку с в 4 раза большим количеством пикселей, то не приняли бы?
Глаза устают не потому что «шрифт паршивый», а потому что бумага плохая (тонкая и тёмная, контрастность низкая) и напечатано так, что растискивание очень сильное (там куча факторов на самом деле: и бумага, и краска, и растворитель, и машина, и износ валиков, и прямые руки и иногда волшебство печатника) и буквы «едут».
Финальное разрешение в терминах dpi или ppl посчитать нельзя, есть LPI (lines per inch), но его по факту считают, печатая миры с известным количеством линий и шагом между ними. И понятно что даже внутри одного тиража LPI будет плавать.
Представьте себе дизайнера шрифтов, который тщательно сбалансировал каждую букву, поместил каждую точку с точностью до 1/100 пикселя
Нет, яблочники действительно верят в такое?
Внутри шрифта используется специальная система координат, в которой за 1 единицу принимается 1/N-ая часть кегля, где N = 1000, 1024 или 2048 (в большинстве случаев, но иногда бывает и больше).
Если взять дефолтный вебовский кегль 16px и поделить его на минимальные 1000 частей, то получится, что автор даже почти не преувеличивал.
Переход на 4к монитор — это дорога в одну сторону.
Помню, как купил 4к монитор, подключил, поработал пару дней — вроде неплохо. Ну не знаю, стоило ли оно того, но дело сделано.
А потом практически случайно заглянул в старый FullHD монитор.
И тут я все понял :)
Это правда. 120 не пользовался, но разница между 30 и 60 огромная.
А на ЭЛТ-мониторе когда-то замечал разницу между 60 и 75, глазам было комфортнее на 75.
Возможно, стоило вместо герц вложить деньги в более высокое разрешение, чем 1920x1080, но, поправьте, если я заблуждаюсь, если мне при 1920x1080 приходится работать с масштабом 150%, то при 2560 x 1440 пришлось бы ещё больше увеличивать масштабирование и смысл высокого разрешения был бы потерян.
P.S. Проверьте ещё, что у вас и в ОС выставлено 144Гц, и в играх успевает столько отрисовываться.
А на практике у меня на LCD при 60 Гц начинают болеть глаза, а потом кружиться голова. На 75 — нормально.
У меня такое было на старом (кажется, от samsung) мониторе, купленном в 2005 году. 60Гц ощутимо отличались от 75Гц тем, что на 60Гц ровно через две минуты начинали болеть глаза.
Мониторы, которые я покупал позже, в основном поддерживали максимум 60Гц, но глаза от них не болят.
Если устают глаза, попробуйте уменьшить яркость. Не первый раз слышал от людей, как они этого не замечали и сидели с буквально красными глазами из-за монитора (а у некоторых мониторов контраст/резкость такие высокие по-умолчанию, что там только от этого глазам больно как по мне).
В моём случае в подсветке монитора были люминесцентные трубки дневного света. Неужели и они регулировались PWM, зависящим от частоты обновления экрана? На 75Гц было комфортно и по 12 часов за монитором сидеть, независимо от яркости.
Трубки CCFL тоже регулируются ШИМом (PWM), но от частоты обновления он никак не зависит, его частота задается чипом в мониторе. Для CCFL это обычно 175 Гц. Соответственно, возможна ситуация, когда частота ШИМа и частота обновления "синхронизируются", что усиливает эффект мерцания и ведет к боли в глазах. Изменили частоту обновления, "рассинхронизировали", все ок.
BENQ GW2765, кому интересно
Возможно, стоило вместо герц вложить деньги в более высокое разрешение, чем 1920x1080, но, поправьте, если я заблуждаюсь, если мне при 1920x1080 приходится работать с масштабом 150%, то при 2560 x 1440 пришлось бы ещё больше увеличивать масштабирование и смысл высокого разрешения был бы потерян.Вопрос сводится не к разрешению, а к угловому размеру точки. Если Вам на мониторе при 1920х1080 приходится работать с 150% масштабом, то можно или а) сесть поближе б) купить монитор побольше размером. Второе разумнее.
Если посмотреть нормы санпина, то для комфортной работы 1920х1080 должно быть примерно на 24" мониторе (исходя из размера точка, размеров монитора, расстояния до экрана). Но попробуйте такое сказать публично где-то и Вас заклюют поклонники ретины:) Для 4к надо не меньше 42". Для 2560х1440 в районе 32" нормально.
Но попробуйте такое сказать публично где-то и Вас заклюют поклонники ретины
простите, что? Где именно поклонники ретины (например, автор этой статьи) диктуют логический dpi?
43% всё ещё используют мониторы с плотностью пикселей на дюйм менее 150:
Почему это проблема?
и далее по тексту много аналогичного.
Справочно: 1920х1080 при 24" имеет 90dpi.
А, понял вас. А можете, плиз, дать ссыль на эти нормы санпина, где прописан dpi для комфортной работы — хочу просветиться.
А можете указать, в каком пункте об этом говорится? Не смог найти ничего о размерах точки.
Окей, последний раз — «5.5 Ширина контура знака должна быть от 0,25 до 0,5 мм.»©
Вот прямо сейчас у меня на 4К экране эти буквы шириной около мм.
Я там вижу про знак. Где конкретно про точку? Знак может состоять как из 10 точек, так и из 100 (при ретине). Так что это явно не я издеваюсь.
Сколько бы физических дпи не было — хоть 10 хоть 100, логический дпи вполне четко определяется гостом.
Если Вы не разобрались что такое «знак», то ширина контура знака в минималке это как раз и есть один логический пиксел.
ad1Dima в данном контексте речь про логические пикселы шла. То что физически у Вас 240к экран может быть — не имеет значения, коль скоро Вы фуллхд выставили на нем.
Э-э. Я что-то потерял нить дискуссии. Конечно, в том комменте я говорил о логическом dpi. Давайте вернемся к исходному вашему сообщению, на которое я отвечал:
Если посмотреть нормы санпина, то для комфортной работы 1920х1080 должно быть примерно на 24" мониторе (исходя из размера точка, размеров монитора, расстояния до экрана).
Значит, здесь вы говорили о логическом dpi? И именно этот параметр диктует санпин? Ок, здесь я не имею ничего против.
Но, следующее ваше предложение:
Но попробуйте такое сказать публично где-то и Вас заклюют поклонники ретины:)
вот я, один из поклонников ретины, и я не вижу, за что вас должны заклевать. Поклонникам ретины строго пофигу, какой логический dpi предпочитает юзер, их волнует только физический dpi. Физического dpi должно хватать, чтобы физические точки не были заметны. Только и всего.
для обычного комп. стола нужен не более 27 дюймов, и соответственно не более wqhd 1440p. Проверено.
Если взять угловое разрешение глаза (1 угловая минута) и посчитать разрешение на расстоянии 40 см от экрана, получится как раз 220 dpi. Что и называется Retina — размер пикселя соответствует разрешению глаза. Типа, верхний предел — дальше улучшать нет смысла. Но все что меньше — заметно хуже (при условии фиксированного растояния, если поставить монитор дальше, dpi будет другим, конечно).
А если поставить на 80, то будет как раз 110 dpi, типичный 1080p на 24" :) Я взял 27" 1440p с теми же 110 dpi, просто потому что два монитора дома ставить тупо некуда, надо менять всё начиная с квартиры
OLED гораздо быстрее умеет переключаться и там блюр сильно менее выражен.
К сожалению, OLED-монитор для компьютера за разумные деньги пока не купить.
Зачем нужен заоблачный PPI? После 300 разницу можно увидеть только разглядывая экран вплотную.
А для 1000 Гц нужно уметь полный цикл отрисовки успевать в 1 мс. При том, что сейчас многие приложения даже в 16 не всегда укладываются.
для шрифтов практически нет предела разрешения с которым их можно рендерить
У техники есть ограничения по pixelrate, который она может выдавать :(
И любое увеличение плотности пикселей ведёт к квадратичному росту требуемой производительности и ширины всех каналов.
А про рефреш рейт — пока запроса нет, то и программ таких не будет
Есть такой запрос — VR. Чем выше refresh rate и чем ниже общая задержка всего цикла motion-to-light, тем реалистичнее ощущается виртуальный мир. На текущих технологиях мы где-то в районе 2880x1600@144 Гц и 22 мс. Это на самых топовых компьютерах, в простых по графике играх, с кучкой специфичных оптимизаций драйверов.
То, что сегодня «топовые компьютеры с кучкой специфических оптимизаций» имеет все шансы через десять лет стать просто обычными компьютерами с обычными драйверами.
Это да. А вот по поводу бурного прогресса в топовых компьютерах через 10 лет у меня большие сомнения.
Пока выглядит так, что единственным реальным способом повышать разрешение и снижать задержки является отслеживание движений зрачков и отрисовка в высоком разрешении небольшой области в центре взгляда. Длительность и предсказуемость траектории саккад вполне позволяет проворачивать такой финт за время подготовки кадра.
Но вот обычным мониторам и прикладным программам это никак не поможет, как не помог гейминг в 120 Гц за последние 15-20 лет.
про инпут лаг ещё мало кто слышал
Геймеры в массе слышали и выбирали устройства по нему. С тех пор мало что изменилось.
а вспомнить что тогда было на телефонах так вообще труба — слайдшоу из-за хреновеньких экранов и плохой производительности
Как раз ровно 10 лет назад вышел iPhone 4, который к неплохой производительности и отзывчивости интерфейса добавил Retina экран.
да и софт был ппц, всё подряд блокировало отрисовку
Нет, конечно. Нормальные программисты и тогда разделяли потоки UI и основной работы. А с ппц софтом всё только хуже становится — electron везде, flutter заводят под лозунгом "стабильных 60 fps", которые он не может выдать даже на последних iPhone с процессором мощнее чем в моём ноуте.
Потом постепенно и инпут лаг заметили (и начали бороться, потому что потребители требовательные ныли)
Не вижу я этой борьбы. И отдельные фанатики latency тут ничего не решают.
Разница между 24 кадра фильма и 50-60 кадров ТВ и видео заметна, наверное, всем людям. А вот заметно ли разницу между 60 и 120 кадров даже проверить не на чем. Скорее всего, тоже будет заметно, но насколько — вопрос.
Разницу между 60 и 120 можно увидеть, банально подвигав мышкой.
не проще ли просто переключить тогда мышь на другое разрешениеКак это спасёт от того, что при резком движении курсор перед вами отрисуется в нескольких дискретных точках вместо плавного движения? Или вы предлагаете сделать так, чтобы быстро мышью вообще невозможно было двигать? Такое себе решение.
— Я когда бегаю, мне в ботинках неудобно, может, кроссовки подороже купить?
— Нет, просто прострелите себе ногу! Вы не сможете бегать, и проблема исчезнет.
И эта частота — 24 кадра.
Нет. 24 к/с были выбраны как компромисс после появления звукового кино. И здесь чисто технические причины, а не оптические.
А снимать быстрее 24 к/с уже и тогда умели, никаких сложностей в этом нет. Только расход пленки повышается.
Чтоб вы понимали о чем речь: раньше на кинопленке был записан и звук. Оптическим способом.
Встречный вопрос: почему выбрали 24, хотя слайд-шоу уже не видно и на 16, а Томас Эдисон выступал за 46 (или 48)?
А куда, по-вашему, писался звук?
Где находится верхний предел, за которым человек не видит изменений — не особо понятно и зависит от индивидуальных особенностей, тренировки и того, что мы считаем изменениями и например, яркости (потому что в темноте «скорость затвора» увеличивается как и у фотоаппарата).
Абсолютно согласен что предельная частота кадров это дело крайне темное; особенно, если вспомнить как разницу в FPS можно наблюдать по игровых скелетным анимациям. Реальный предел, по-моему, лежит между 40-50, максимум до 55 Гц.
Кстати, пример с курсором говорит скорее в пользу моего взгляда и того, что наблюдаемая разница выше 40 Гц связана просто с изменениями движения курсора.
Я отлично вижу разницу между 90 и 120 Гц.
Между 120 и 240 для меня уже едва различимо, но профессиональные игроки в шутеры эту разницу отлично чувствуют в слепых тестах.
Что можно увидеть 120Гц кажется маловероятным
Попробуйте посидеть день за монитором с 240 Гц, а потом переключить его в 90 Гц. Отлично видно, как скролл и анимации распадаются на отдельные кадры.
При 240 -> 120 я такого уже не вижу, только ощущаю снизившуюся гладкость интерфейса.
Чтобы изображение дёргалось рывками даже на 240 Гц?
Я думаю, вы хотели сказать про Motion-to-Light latency.
Эта задержка зависит от многих параметров: перифирия ввода, архитектура игрового движка, настройки игры, настройки видеокарты, пропускная способность видеовыхода, софт в мониторе, технологии G-Sync/Freesync… В обычных условиях она может находиться в диапазоне от 25 до 100+ мс.
Чтобы снизить эту задержку для VR до 20 мс пришлось сделать множество нетривиальных изменений в архитектуре игр, видеодрайверах и даже видеоподсистеме Windows.
Собственно, от перехода 120 Гц -> 240 Гц эта latency уменьшается очень незначительно, примерно на 4 мс.
А ещё можно добавить задержку реакции человека, которая превышает 100 мс и скорость нервной проводимости, по которой я видел данные о 20-50 мс от возникновения сигнала в головном мозге до начала движения руки.
Чтобы изображение дёргалось рывками даже на 240 Гц?
Любые кадры сменяются резко, причем граница заметности это смены лежит явно гораздо ниже 240 Гц. Официально, вообще говоря, 50 Гц. Если-же под изображением понимается именно само изображение курсора, то его восприятие упирается всю в ту-же границу.
Я думаю, вы хотели сказать про Motion-to-Light latency.
Нет, ничего общего. Описываемый эффект связан не с геймингом на мониторе, а с использованием шлемов ВР, причем проблемой являются не жалобы на качество картинки или движения в ВР среде, а банальное укачивание игрока.
А ещё можно добавить задержку реакции человека, которая превышает 100 мс
Не уверен но в таком случае хватило бы 10 Гц для иллюзии непрерывности анимации.
Да? Спецификации человека от самого Его?
В смысле, от некоего бога или от какого-нибудь известного деятеля информационной сферы? На самом деле, 50Гц и есть некий максимум восприятия, а +10Гц запас, отсюда и известные всем 60Гц.
И возникает оно потому что показания вестибулярного аппарата расходятся с показаниями глаз.
Ну а информация поступающая через глаза зависит от частоты кадров в самих очках ВР.
Меня, кстати, и в обычных играх с ездой укачивает без всякого ВР, GTA5 укачивала примерно после 15 минут игры.
Вот и я спрашиваю, откуда дровишки?
Даже не обращаясь к какому-либо поиску, можно определить что предел частоты (ок. 50 Гц) для восприятия глаза был установлен примерно в конце 19-го — максимум в начале 20-го века. И об этом очень легко догадаться, если вспомнить о войне токов и о распространении бытовых сетей переменного тока с лампами накаливания.
Как будто от самого Бога получили.
Как видно, для решения вопроса боги тут не нужны, а достаточно лишь вспомнить об освещении или посмотреть на уличные лампы ДНаТ (оранжевый свет).
Ах да, восприятие штука не дискретная.
Не могу не согласиться, скорость восприятия человека действительно может меняться в зависимости от внимания. Напр. можно просто посмотреть на движущуюся секундную стрелку часов, а потом попытаться внимательно проследить за ней, во втором случае покажется, что она движется куда медленнее.
Поворот головы активирует гироскоп, который шлёт сигнал в ПК, который пересчитывает кадры, которые поступают назад на дисплей шлема.
Это скорее уже к производительности или скорости чтения носителя информации.
Кстати, я в туалете поставил дешевые светодиодные лампы — при повороте головы — довольно сильно заметный стробоскопический эффект.
Аналогичный эффект заметен в играх на 60 Гц при резком развороте
Я просто привел иллюстрацию того, что 50-60 Гц обновления картинки на мониторе в некоторых ситуациях — недостаточно.
Если мы, например, пытаемся читать текст при плавной или достаточно быстрой прокрутке — при недостаточной частоте кадров — текст расплывается и для его чтения нужен монитор с высокой частотой кадров, о чем и говорит авто статьи.
Да, без чтения при прокрутке можно обойтись, но если кто-то может позволить себе дополнительный комфорт, то почему бы и нет?
Любые кадры сменяются резко, причем граница заметности это смены лежит явно гораздо ниже 240 Гц.
Я про то, что если снижать именно чувствительность, а не увеличивать Input Lag мыши, то непонятно, чего вы добьётесь, кроме как скачущего рывками курсора мыши.
Официально, вообще говоря, 50 Гц.
Что значит "официально"? Закон такой приняли?
Нет, ничего общего. Описываемый эффект связан не с геймингом на мониторе, а с использованием шлемов ВР
Если что, эта метрика применима к чему угодно. Для VR она просто стала критично необходимой, поэтому о ней много начали говорить.
В игре за монитором она означает время от физического сдвига мыши до изменения изображения на мониторе.
Не уверен но в таком случае хватило бы 10 Гц для иллюзии непрерывности анимации.
Интересно вы так связали между собой задержку реакции и восприятие непрерывности движения.
Я про то, что если снижать именно чувствительность, а не увеличивать Input Lag мыши, то непонятно, чего вы добьётесь, кроме как скачущего рывками курсора мыши.
Я нашел очень простое объяснение — если допустить, что синхронизация изображения и курсора мыши происходит лишь каждый кадр, то все становится на свои места. Увеличение частоты кадров (в т.ч. без всякой оглядки на устройство вывода, напр. 200FPS на 60Гц мониторе) попросту повышает частоту синхронизации изображения и устройства ввода, отсюда и плавность которую люди чувствуют при высоких значениях ФПС. Повышение частоты кадров аналогично должно вызывать и повышение плавности прокрутки, движения самого курсора и т.п., что тут и описывают люди. Однако-же, реально больше кадров человек не видит исходя из общих представлений о физиологии.
Что значит «официально»? Закон такой приняли?
Почему 50 Гц вызывают такую реакцию? Еще 15 лет назад все и везде могли наблюдать лампы накаливания, мерцающие с частотой бытовой сети т.е. с частотой 50 Гц.
Если что, эта метрика применима к чему угодно.
Я не нашел. Да и укачивание за мониторов явление нечастое.
Интересно вы так связали между собой задержку реакции и восприятие непрерывности движения.
0.1сек задержка -> мгновенная реакция -> 0.1 сек задержка -> мгновенная реакция и т.д.
Еще 15 лет назад все и везде могли наблюдать лампы накаливания, мерцающие с частотой бытовой сети т.е. с частотой 50 Гц.
Я и 35 лет назад не мог, и 15, и сейчас не могу...
Я нашел очень простое объяснение — если допустить, что синхронизация изображения и курсора мыши происходит лишь каждый кадр, то все становится на свои места.
Объяснение простое, но неправильное.
Данные от мыши в приложение приходят абсолютно независимо от видеоподсистемы. Драйвер мыши опрашивает устройство с фиксированной частотой (от 125 до 1000 Гц, в зависимости от устройства и драйвера), ОС опрашивает драйвер тоже с какой-то фиксированной частотой и передаёт события в приложение. А уже приложение само решает, в какой момент их обработать. При отсутствии vsync — так часто, как позволяет производительность компьютера рассчитывать новые кадры.
Повышение частоты кадров аналогично должно вызывать и повышение плавности прокрутки, движения самого курсора и т.п., что тут и описывают люди. Однако-же, реально больше кадров человек не видит исходя из общих представлений о физиологии.
Так как же люди видят плавность, если не видят? :D
Вот возьмём равномерно прокручиваемую страницу с текстом. Я отчётливо вижу разницу между прокруткой на мониторе с 60 Гц и с 120 Гц. Откуда взяться увеличившейся "плавности", если не из частоты обновления изображения на мониторе?
Почему 50 Гц вызывают такую реакцию? Еще 15 лет назад все и везде могли наблюдать лампы накаливания, мерцающие с частотой бытовой сети т.е. с частотой 50 Гц.
Лампы накаливания почти не имеют пульсаций, поэтому я не понимаю, что именно вы наблюдали 15 лет назад.
UPD: Поправлю сам себя — это верно только для мощных ламп с теплоёмекой нитью накаливания. Плохие лампы дневного света мерцают гораздо сильнее, поэтому осталось хорошее впечатление от "нагреваек".
Мерцание CRT мониторов вплоть до 100 Гц я наблюдал, да, и меня это крайне раздражало.
Я не нашел. Да и укачивание за мониторов явление нечастое.
Про укачивание я ничего не горорил, это вы начали о нём зачем-то.
Я говорил о том, что по сравнению с полным циклом обработки компьютером одного фрейма, input lag мыши невелик и не вносит существенной разницы (на частотах 120-240 Гц).
0.1сек задержка -> мгновенная реакция -> 0.1 сек задержка -> мгновенная реакция и т.д.
Если вы хотите дёргать рукой на каждое изменение изображения, то больше 10 Гц вы не достигните, да.
Но это не имеет вообще никакого отношения к восприятию непрерывности движения и различению отдельных кадров.
Данные от мыши в приложение приходят абсолютно независимо от видеоподсистемы. Драйвер мыши опрашивает устройство с фиксированной частотой (от 125 до 1000 Гц, в зависимости от устройства и драйвера), ОС опрашивает драйвер тоже с какой-то фиксированной частотой и передаёт события в приложение. А уже приложение само решает, в какой момент их обработать. При отсутствии vsync — так часто, как позволяет производительность компьютера.
А дальше-то что?
А далее некое приложение (что угодно) отрисовывает кадр и показывает его пользователю. Это и есть синхронизация курсора и положения мыши.
Если кадров много мы видим курсор все чаще, его движения кажутся все плавнее. Аналогично про камеру в 3d игре.
Так как же люди видят плавность, если не видят? :D
А я и не разу не использовал слова «видеть» в отношении числа ФПС; я как раз неоднократно писал, что увидеть больше определенного предела кадров невозможно, а почувствовать легко.
Я отчётливо вижу разницу между прокруткой на мониторе с 60 Гц и с 120 Гц. Откуда взяться увеличившейся «плавности», если не из частоты обновления изображения на мониторе?
А какова была и есть частота входящего в мониторы сигнала?
Лампы накаливания почти не имеют пульсаций, поэтому я не понимаю, что именно вы наблюдали 15 лет назад.
Я наблюдал отсутствие мерцания. Это говорит, что более 50Гц увидеть человек не может т.к. это частота тока в бытовой сети.
Про укачивание я ничего не горорил, это вы начали о нём зачем-то.
Именно так, потому что укачивание в ВР-очках и есть главное последствие и проблема данного эффекта.
Я говорил о том, что по сравнению с полным циклом обработки компьютером одного фрейма, input lag мыши невелик и не вносит существенной разницы (на частотах 120-240 Гц).
Это хорошо, но я писал об увеличении чувствительности мыши.
Если вы хотите дёргать рукой на каждое изменение изображения, то больше 10 Гц вы не достигните, да.
Но это не имеет вообще никакого отношения к восприятию непрерывности движения и различению отдельных кадров.
И?..
А далее некое приложение (что угодно) отрисовывает кадр и показывает его пользователю. Это и есть синхронизация курсора и положения мыши.
Так а что тогда предлагается "компенсировать" в эксперименте? Ограничить частоту обновления мыши в 60 Гц на 120 Гц мониторе? Что тогда этот эксперимент вообще может показать?
А я и не разу не использовал слова «видеть» в отношении числа ФПС; я как раз неоднократно писал, что увидеть больше определенного предела кадров невозможно, а почувствовать легко.
У вас в одном предложении "не использовал слова «видеть» в отношении числа ФПС" и "неоднократно писал, что увидеть больше определенного предела кадров невозможно".
Я при всём желании не могу понять, что вы имеете в виду.
Я отчётливо вижу разницу между прокруткой на мониторе с 60 Гц и с 120 Гц. Откуда взяться увеличившейся «плавности», если не из частоты обновления изображения на мониторе?
А какова была и есть частота входящего в мониторы сигнала?
Ровно такая, какую отображает монитор. Мониторы так работают.
Я наблюдал отсутствие мерцания. Это говорит, что более 50Гц увидеть человек не может т.к. это частота тока в бытовой сети.
Вы наблюдали тепловую инерцию нагреваемой спирали. Она не успевает остыть и погаснуть перед следующим циклом.
С мерцанием вообще всё не так, как с восприятием движения. 60 Гц при low-persistance отчётливо видят видят все мои знакомые, которые пробовали Gear VR.
Про укачивание я ничего не горорил, это вы начали о нём зачем-то.
Именно так, потому что укачивание в ВР-очках и есть главное последствие и проблема данного эффекта.
Какого ещё эффекта?
Я указал величину Motion-to-Light задержки только чтобы показать, насколько потенциальное время реакции профессионального геймера превышает максимальную разницу во времени расчёта фреймов на мониторе 120 Гц и 240 Гц.
Это хорошо, но я писал об увеличении чувствительности мыши.
Чувствительность мыши в общепринятых терминах — это количество различимых состояний, которые мышь может сообщить при перемещении на определённое расстояние (DPI — dots per inch).
Если вы что-то другое имеете в виду, прошу расшифровывать.
Так а что тогда предлагается «компенсировать» в эксперименте?
Увеличение чувствительности мыши (предполагается, что пользователь двигает ею с некоторой усредненной но постоянной скоростью; при повышении частоты кадров скорость мыши также увеличивается, смтр. хотя-бы пример с частотой выше).
Ограничить частоту обновления мыши в 60 Гц на 120 Гц мониторе?
Частоты опроса мыши на порядок выше.
У вас в одном предложении «не использовал слова «видеть» в отношении числа ФПС» и «неоднократно писал, что увидеть больше определенного предела кадров невозможно».
Где я указывал что более 50 Гц можно увидеть?
Ровно такая, какую отображает монитор. Мониторы так работают.
В этом и ответ — подключая монитор с большей частотой пользователь заставляет компьютер выдавать сигнал с большей частотой; если производительности на это хватает, то пользователь не увидит кадров больше естественного предела, но почувствует увеличение синхронизации отображаемой картинку с мышью. Это и есть объяснение, почему работающие на мониторах с большей частотой не могут согласиться, что разницы с более низкочастотными нет, но и не могут конкретно указать в чем она.
Вы наблюдали тепловую инерцию нагреваемой спирали. Она не успевает остыть и погаснуть перед следующим циклом.
Для наблюдения разницы спираль и не должна остыть полностью; достаточно вспомнить что разница между поверхностью Солнца и солнечными пятнами составляет всего 1.5 тыс. град. (что совсем немного для термоядерныъ энергий и температур светила), при этом они отлично видны и были засвидетельствованы еще в незапамятные времена.
Кроме ламп накаливания, мерцают почти все типы источников света (в т.ч. мерцать даже светодиодные при плохом источнике питания) — 30 лет назад были очень распространены удешевленные варианты светильников люминесцентных ламп работавших без повышения частоты напряжения.
Какого ещё эффекта?
Я указал величину Motion-to-Light задержки только чтобы показать, насколько потенциальное время реакции профессионального геймера превышает максимальную разницу во времени расчёта фреймов на мониторе 120 Гц и 240 Гц.
Описываемый термин был создан для пояснения эффекта укачивания в очках ВР, к мониторам он прямого отношения не имеет вовсе.
Чувствительность мыши в общепринятых терминах — это количество различимых состояний
А квантовое состояние мыши? Мышь движется лишь по двум осям в одной плоскости, какие уж «количество различимых состояний»…
DPI — dots per inch
Число точек уместнее, но причем они к «количеству различимых состояний»?
С чего бы?
Смтр. пример выше с сайтом который показывает курсор мыши на разных частотах.
Как раз 120 по умолчанию. Можно довести до 1000.
У всех A4Tech в серии X7 (сколько им десятилетий не знаю, но как минимум ок. полутра уже) частота опроса 500-1000 Гц. Хотя, признаться, на максимальной частоте одна мышь у меня испортилась.
Смтр. пример выше с сайтом который показывает курсор мыши на разных частотах.
А теперь запишите видео, как эти курсоры двигаются и увидите, что их линейная скорость одинакова и указана в настройках теста.
У меня F4 и это настройка.
Смысл фразы в русском языке будет тем менее понятен, чем хуже соблюдаются окончания, суффиксы…
Ах да, 90% мышей не являются игровыми, а в офисных используется стандартные 125 Гц (про 120 я ошибся).
Даже частота 125 Гц вдвое выше стандартной частоты монитора, а наложением двух частот и обусловлена прерывистость курсора.
Эм, нет, вы не правы по всем фронтам.
Где?
Увеличение чувствительности мыши (предполагается, что пользователь двигает ею с некоторой усредненной но постоянной скоростью; при повышении частоты кадров скорость мыши также увеличивается, смтр. хотя-бы пример с частотой выше).
Скорость движения курсора мыши не зависит от частоты монитора.
пользователь не увидит кадров больше естественного предела, но почувствует увеличение синхронизации отображаемой картинку с мышью.
Что такое "увеличение синхронизации"?
1) Изменение положения мыши с большей частотой отображается на мониторе? — Так в этом и смысл выставления большей частоты.
2) Меньше задержка от движения мышью до изменения картинки? — Крайне незначительно, не больше 4 мс на 30-50 мс общей задержки.
Описываемый термин был создан для пояснения эффекта укачивания в очках ВР
Ещё раз повторю — этот термин отлично подходит для измерения общей задержки компьютера, от устройства ввода до устройства вывода. Не нравится термин — давайте будем называть "суммарная задержка".
А квантовое состояние мыши? Мышь движется лишь по двум осям в одной плоскости, какие уж «количество различимых состояний»…
Число точек уместнее, но причем они к «количеству различимых состояний»?
Вы в демагогию начали скатываться. Я вас попросил дать расшифровку, что именно вы подразумеваете под "чувствительность мыши", а заодно объясните, каким образом связали с частотой монитора.
Скорость движения курсора мыши не зависит от частоты монитора.
Зависит, конечно
Наглядно www.testufo.com/mousearrow#count=4&pps=3840
Что такое «увеличение синхронизации»?
Когда пользователь чаще видит обновление положения курсора мыши (более соответствующее ее положению).
1) Изменение положения мыши с большей частотой отображается на мониторе? — Так в этом и смысл выставления большей частоты.
Реального смысла тут нет т.к. производительность пользователя никаким образом не изменяется, меняются лишь его субъективные ощущения от использования манипулятора.
Крайне незначительно, не больше 4 мс на 30-50 мс общей задержки.
50 мс это 20 Гц, 30 мс это 33 Гц; хотя эти частоты тоже обсуждались выше, они далеки даже от 50 Гц.
Ещё раз повторю — этот термин отлично подходит для измерения общей задержки компьютера, от устройства ввода до устройства вывода.
Может подходит, может нет. Но для мониторов его все равно не используют, а столь внезапно адаптировать его не время.
Не нравится термин — давайте будем называть «суммарная задержка».
Зачем?
Вы в демагогию начали скатываться.
Я не умею давать ответы на бессвязные фразы. Могу конечно, но смысла в ответе будет не больше чем в вопросе.
Чувствительность мыши в общепринятых терминах — это количество различимых состояний
Так квантовых состояний или каких вообще?
Я вас попросил дать расшифровку, что именно вы подразумеваете под «чувствительность мыши»
Способность датчика мыши регистрировать изменения ее положения в пространстве.
заодно объясните, каким образом связали с частотой монитора
Поскольку я это описывал уже неоднократно, специально повторю чтобы всем было видно и понятно.
Сигнал устройства вывода (монитор) опаздывает относительно сигнала устройства ввода (чаще всего это мышь); момент отображения измененного положения курсора и есть момент синхронизации реального положения мыши с курсором. Очевидно, что частота синхронизации не может превысить частоту обновления кадров.
При низкой частоте кадров заметная часть положений движущегося курсора будут выпадать, отсюда и характерная прерывистость. При высокой частоте наоборот будет появляться плавность т.к. мышь вполне реально чаще опрашивается приложением. Может возникать впечатление, что человек видит дополнительные кадры сверх физиологического предела (ок. 50Гц), но это правда лишь наполовину — движущийся курсор действительно будет виден лучше. Он будет виден лучше лишь потому что движется с большой скоростью, которая заведомо не позволяет отображать все его положения не при 60, не при 120, не при 240 Гц (частота опроса мыши заметно выше). Не уверен, стоит ли разбирать пример с testufo, но это быстро — на нем мы видим, что опоздание и прерывистость курсора тем меньше, чем выше частота экрана. Так получается лишь потому что при повышении частоты повышается шанс увидеть быстро движущийся курсор. «Идеальная» плавность движения курсора будет достигнута при частоте монитора, соответствующей частоте опроса мыши, но конечному пользователю разницы от этого не будет т.к. эффект и заканчивается лишь на скорости движения мыши и плотности отображения ее изменений.
Почему люди работают на 120 Гц мониторе, переходят на 240 Гц и чувствуют разницу? Потому что на 120Гц мониторе сигнал почти всегда будет 120 Гц, а на 240 до 240 т.е. речь идет не столько о двух разных мониторах, сколько о двух разных частотах исходящего из компьютера сигналов. Изменения в работе и правда есть, пользователи не врут, но они вызваны лишь повышением частоты кадров в рабочей среде.
По той-же причине не врут и пользователи, которые заявляют что «видят» разницу, когда приложение с производительностью, скажем, более 100 ФПС, выдает 60 Гц сигнал на обычный монитор. Разница есть, увидеть ее как таковую нельзя (если только не следить за курсором мыши очень внимательно), но почувствовать по движению мыши или изменению плавности прокрутки можно.
Я дал исчерпывающее объяснение большей части описанных в статье и комментариях эффектов?
Извиняюсь, но вы пытаетесь рассуждать на темы, в которых не разбираетесь ВООБЩЕ.
50 мс это 20 Гц, 30 мс это 33 Гц; хотя эти частоты тоже обсуждались выше, они далеки даже от 50 Гц.
Компьютеры не работают мгновенно. Они не выполняют все операции синхронно. Пока один кадр ещё только начинает отображаться на мониторе, второй уже заканчивает рендеринг на GPU, в игровом движке в это время рассчитывается состояние мира для отрисовки третьего, и вот примерно в начале этого рассчёта берётся последнее актуальное положение мыши от ОС, которая получила его от драйвера, который получил данные от устройства. На каждом из этих этапов есть буферы, ненулевое время обработки данных, ненулевое время передачи.
Полное время, за которое информация о сдвиге мыши отображается на мониторе — не меньше 25-30 мс в самом идеальном случае: в сурово оптимизированной игре, на высокочастотном мониторе с G-Sync/Freesync, с мышью с минимальными внутренними задержками (да-да, мышь сама по себе, ещё до передачи данных на USB шину, может вносить до 20 мс).
В реальности выходят цифры ближе к 50 мс.
При этом игра может легко рендерить 500 fps, а монитор отображать 240.
Дальнейшую клоунаду с "речь идет не столько о двух разных мониторах, сколько о двух разных частотах исходящего из компьютера сигналов" комментировать не могу, это какая-то клиника.
Компьютеры не работают мгновенно. Они не выполняют все операции синхронно. Пока один кадр ещё только начинает отображаться на мониторе, второй уже заканчивает рендеринг на GPU, в игровом движке в это время рассчитывается состояние мира для отрисовки третьего, и вот примерно в начале этого рассчёта берётся последнее актуальное положение мыши от ОС, которая получила его от драйвера, который получил данные от устройства. На каждом из этих этапов есть буферы, ненулевое время обработки данных, ненулевое время передачи.
Все это прекрасно; но к чему?
Полное время, за которое информация о сдвиге мыши отображается на мониторе — не меньше 25-30 мс в самом идеальном случае: в сурово оптимизированной игре, на высокочастотном мониторе с G-Sync/Freesync, с мышью с минимальными внутренними задержками (да-да, мышь сама по себе, ещё до передачи данных на USB шину, может вносить до 20 мс).
На основании чего сделаны такие выводы? 20мс отвечают обсуждаемой частоте 50Гц.
Впрочем, почему теперь 20 если выше было 50 и 30 мс?
Дальнейшую клоунаду с «речь идет не столько о двух разных мониторах, сколько о двух разных частотах исходящего из компьютера сигналов» комментировать не могу, это какая-то клиника.
Нужно просто внимательно читать написанное и все станет на свои места.
Кроме того, выше я изложил довольно доступно и подробно большую часть из описанных и наблюдаемых эффектов, можно было бы по ним ответ получить, вместо переписывания общеизвестных фактов?
Все это прекрасно; но к чему?К тому, что курсор может отрисовываться с любой частотой и плавностью, хоть каждую миллисекунду, но реальные движения реальной мыши, которым будет соответствовать каждое его положение, будут произведены за 50мс до отрисовки этого положения. Итого: «момента синхронизации» просто нет — отрисовка курсора в новом положении всегда отстаёт от реального положения мыши, пока она двигается. Пока вы ведёте мышь, курсор следует за ней с отставанием как минимум в 50мс.
пример с testufo, но это быстро — на нем мы видим, что опоздание и прерывистость курсора тем меньше, чем выше частота экранаОт чего вы видите опоздание там? Там реальной мыши нет, от которой можно опаздывать, а положения курсоров в моменты отрисовки полностью совпадают.
К тому, что курсор может отрисовываться с любой частотой и плавностью, хоть каждую миллисекунду, но реальные движения реальной мыши, которым будет соответствовать каждое его положение, будут произведены за 50мс до отрисовки этого положения.
К сожалению, это невозможно т.к. в таком случае реальная частота обновления изображения в кадре в ответ на любые сигналы от устройства ввода не смогла бы превысить 20 Гц. Напр. невозможно было бы вертеть камеру 3d игры с реальной частотой более 20 ФПС.
От чего вы видите опоздание там? Там реальной мыши нет, от которой можно опаздывать, а положения курсоров в моменты отрисовки полностью совпадают.
Точно?
К сожалению, это невозможно т.к. в таком случае реальная частота обновления изображения в кадре в ответ на любые сигналы от устройства ввода не смогла бы превысить 20 Гц. Напр. невозможно было бы вертеть камеру 3d игры с реальной частотой более 20 ФПС.Так почему нет-то? Всё будет с этой скоростью двигаться. Просто с отставанием — начнётся на 50мс позже и закончится на столько же позже. Предположим, вы были неподвижны, а потом двинули мышку, она была в движении 1 секунду. Мышь будет посылать новые координаты каждую миллисекунду, но кадры будут отрисовываться в течение 50мс. Отрисовка вашего движения длиной 1 секунду начнётся на 50мс позже реального, все эти 50мс будут отрисовываться неподвижные кадры, 50 штук, основанные на предыдущих данных, через 50мс кадры начнут меняться, и каждую миллисекунду будет отрисовываться новый кадр, соответствующий положению мыши за 50мс до вывода его на экран. Через 1050мс после того, как вы начали движение (и через 50мс после того, как вы его закончили), кадры снова перестанут меняться, последний из перерисованных кадров будет соответствовать положению мыши за 50мс до его отрисовки — в момент, когда вы остановили мышь.
Точно?Точно. У вас на скриншоте курсоры на нижних двух полосках показаны не в момент их отрисовки, а в промежутке до следующей отрисовки.
Так почему нет-то? Всё будет с этой скоростью двигаться. Просто с отставанием — начнётся на 50мс позже и закончится на столько же позже.
Так будет лишь в одном случае, когда речь идет о заведомо разученном представлении, оно и правда, начнется на 5 минут позже, и закончится на 5 минут позже. Таких громадных задержек не существует (реальная частота опроса хорошей мыши 500Гц т.е. 2мс) просто потому что они накладывались бы друг на друга т.к. движение мышью не является одной линией (да и ее вести с опозданием было бы тягостно), а прерывисто.
У вас на скриншоте курсоры на нижних двух полосках показаны не в момент их отрисовки, а в промежутке до следующей отрисовки.
Это неверно — все курсоры на скриншоте показаны одинаково (да и вообще, почему именно 2 должны быть отдельно, может, 3?), непосредственно в момент их отрисовки (в противном случае их невозможно было бы увидеть). Разница в движении возникает из-за выпадения части положений курсора на меньшей частоте кадров.
просто потому что они накладывались бы друг на друга т.к. движение мышью не является одной линиейТак почему бы им накладываться-то? Для каждой точки, отправленной оптическим сенсором мыши, может отрисовываться соответствующее положение курсора. В каком порядке они приходят, в том и отрисовываются. Какую кривую описала мышь, ту же опишет и курсор, только начнёт он её описывать чуть позже (те самые 50мс). Частота опроса влияет только на количество промежуточных точек в этой кривой.
непосредственно в момент их отрисовки (в противном случае их невозможно было бы увидеть)С чего бы их было невозможно увидеть? Они же после отрисовки не прячутся, а остаются на том же месте до следующей отрисовки.
Так почему бы им накладываться-то? Для каждой точки, отправленной оптическим сенсором мыши, может отрисовываться соответствующее положение курсора. В каком порядке они приходят, в том и отрисовываются. Какую кривую описала мышь, ту же опишет и курсор, только начнёт он её описывать чуть позже (те самые 50мс). Частота опроса влияет только на количество промежуточных точек в этой кривой.
Все это прекрасно, но причем вообще тут?
С чего бы их было невозможно увидеть?
Потому что они не нарисованы.
Они же после отрисовки не прячутся, а остаются на том же месте до следующей отрисовки.
Это и так ясно; но что из этого должно следовать?
Все это прекрасно, но причем вообще тут?Вот это мы и пытаемся понять, какое отношение задержка между моментом сдвига мыши и моментом отрисовки соответствующего нового положения курсора имеет к частоте кадров?
Потому что они не нарисованы.Пока нарисовано новое положение, мы видим предыдущее.
Вот это мы и пытаемся понять, какое отношение задержка между моментом сдвига мыши и моментом отрисовки соответствующего нового положения курсора имеет к частоте кадров?
habr.com/ru/post/508824/?reply_to=21815770#comment_21807398
Пока нарисовано новое положение, мы видим предыдущее.
Это абсолютно верно.
habr.com/ru/post/508824/?reply_to=21815770#comment_21807398
Процитируйте, пожалуйста, что вы тут хотели привести. Там по ссылке комментарий на три экрана.
В котором написано, в том числе, что курсор должен оказаться там же, где и мышь (это вы там называете «синхронизацией»), и это произойдёт, дескать, при отрисовке ближайшего же кадра, поэтому зависит от частоты обновления экрана. Я правильно понял?
А на самом деле, пока вы двигаете мышь, «синхронизации» не произойдёт вообще никогда — курсор всегда будет отставать на ≈50мс (по оценке Viknet), и это никак не связано с частотой обновления, если обработка кадра идёт 50мс. Просто одновременно в обработке будет больше кадров (не кадров как таковых, но данных для перерисовки, проходящих по пайплайну).
Процитируйте, пожалуйста, что вы тут хотели привести.
Все что выделено жирным, я специально это сделал чтобы один раз написать заранее ответ на все однотипные вопросы, требующие подробного разъяснения проблемы.
В котором написано, в том числе, что курсор должен оказаться там же, где и мышь (это вы там называете «синхронизацией»), и это произойдёт, дескать, при отрисовке ближайшего же кадра, поэтому зависит от частоты обновления экрана. Я правильно понял?
Нет, там все написано.
В конце концов уже просто глупо не изучить позицию того с кем ведешь диалог.
А на самом деле, пока вы двигаете мышь, «синхронизации» не произойдёт вообще никогда — курсор всегда будет отставать на ≈50мс (по оценке Viknet), и это никак не связано с частотой обновления, если обработка кадра идёт 50мс.
С чего, почему я должен так думать? То что я так наивно полагать не могу следует уже из моего первого предложения жирным.
Не хочу показаться занудой, но именно умение воспринимать информацию есть основа общения, в прямом смысле. Чтобы быть хорошим собеседником достаточно слушать, ну а чтобы хорошо вести письменные диалоги, нужно внимательно читать. В противном случае, в чем смысл?
50 мс это 20 Гц, 30 мс это 33 Гц; хотя эти частоты тоже обсуждались выше, они далеки даже от 50 Гц.
Я могу только дать статью, в которой подробно разбирается, откуда именно берётся задержка, почему она сама по себе не влияет на фреймрейт, и проводятся экспериментальные измерения: https://www.anandtech.com/show/2803
Есть ещё более техническая статья с приёмами её уменьшения: https://danluu.com/latency-mitigation/
Вы её отвергнете, т.к. там упоминается VR (хотя сам Кармак в ней же говорит, что всё это применимо к обычным играм), но может кому-то будет интересно.
Я могу только дать статью
Зачем?
Вы её отвергнете, т.к. там упоминается VR (хотя сам Кармак в ней же говорит, что всё это применимо к обычным играм)
В чем смысл подсовывания чужих текстов без ознакомления с их содержанием или идеей?
Затем, что вы уже несколько дней с упорством делите секунду на общую задержку компьютера, получаете 20 Гц и выводите, что этого не может быть, потому что не может быть никогда.
Поймите одну простую вещь — во всём пайплайне: от мыши до монитора, в каждый момент времени обрабатывается больше одного положения мыши. Иногда намного больше.
И никакого "момента синхронизации" просто не существует, на мониторе отображатся наиболее актуальное положение мыши на ~50 мс в прошлом.
Увеличение частоты рендеринга и отображения увеличит количество отображаемых положений, но на задержку серьёзно не повлияет — величины не те.
В чем смысл подсовывания чужих текстов без ознакомления с их содержанием или идеей?
Я эти статьи читал больше 5 лет назад и даже применял некоторые идеи, поэтому и советую вам прочитать их внимательно.
Затем, что вы уже несколько дней с упорством делите секунду на общую задержку компьютера, получаете 20 Гц и выводите, что этого не может быть, потому что не может быть никогда.
И никакого «момента синхронизации» просто не существует, на мониторе отображатся наиболее актуальное положение мыши на ~50 мс в прошлом.
Увеличение частоты рендеринга и отображения увеличит количество отображаемых положений, но на задержку серьёзно не повлияет — величины не те.
Смтр. выше, выделено жирным.
Я эти статьи читал больше 5 лет назад и даже применял некоторые идеи, поэтому и советую вам прочитать их внимательно.
И какие идеи? Почему не проще написать прямо о чем там идет речь?
Нет, там все написано.Там написано «момент синхронизации». Но такого момента нет — пока мышь движется, положение мыши и курсора не синхронны.
В конце концов уже просто глупо не изучить позицию того с кем ведешь диалог.
С чего, почему я должен так думать? То что я так наивно полагать не могу следует уже из моего первого предложения жирным.В том и дело, что вы так не думаете, а стоило бы. Вот уж кому стоило бы поучиться читать внимательно, прежде чем поучать.
Там первое же предложение неверное.
По какой причине?
Там написано «момент синхронизации». Но такого момента нет — пока мышь движется, положение мыши и курсора не синхронны.
Смтр. всю ту-же первую фразу.
В том и дело, что вы так не думаете, а стоило бы. Вот уж кому стоило бы поучиться читать внимательно, прежде чем поучать.
Можно подробнее?
Однако-же, реально больше кадров человек не видит исходя из общих представлений о физиологии.
Человеческий глаз воспринимает изображения непрерывно, а не дискретно. А монитор выводит изображения дискретно. Движущийся курсор мыши рисуется без motion blur, и поэтому вместо плавного движения получается шлейф из отдельных дискретных изображений.
Решение проблемы — либо повышение герцовки, либо создание искусственного motion blur. Например, можно рендерить последовательность изображений с увеличенной частотой, а затем усреднять их, но на практике это не делают из-за повышения нагрузки.
Да, каждый кадр виден отдельно — в виде наложения кадров.
И для больших скоростей движения объекта — нужна высокая частота обновления экрана. Иначе вместо иллюзии движения получаем либо сильно размытый объект, либо кучку «привидений»
При этом на страничке с курсорами — если выбрать скорость 1980 пикс. в сек. — 75 Гц моего монитора недостаточно чтобы создать качественную иллюзию движения
Выше приводили ссылки, где двигаются картинки по экрану, хорошая иллюзия движения появляется только тогда, когда смещение картинки за один кадр становится меньше пары пикселей.
Если речь идет о курсоре на разной частоте, то при его движении теряется гораздо больше половины его реальных положений. В случае совсем низкой частоты курсор вообще виден всего несколько раз за время пересечения экрана. Какие тут пикселы…
И для больших скоростей движения объекта — нужна высокая частота обновления экрана. Иначе вместо иллюзии движения получаем либо сильно размытый объект, либо кучку «привидений»
И так будет происходить всегда, пока частота обновления положения мыши не совпадет с частотой обновления кадра. Т.е. нужно порядка 500+ ФПС для средней мыши чтобы видеть курсор в любом его положении.
Есть тестовая страничка с марсианином
Вот этот вроде: https://www.testufo.com/
А в играх сколько FPS?
Интересно, у меня есть айпад на 120 герц и остальная техника на 60 — разницы не вижу. Может нужно положить два девайса рядом и скроллить параллельно, но в обычном использовании 120 Гц оценить не получается.
Чего не скажешь о плотности пикселей — шрифты на ретина-like экранах реально намного приятнее смотрятся. Теперь по возможности использую только дисплеи высокого разрешения.
Я когда проверял на своей прошке ufotest показывало 60fps. Есть подозрение что на айпаде сафари все еще работает максимум с 60гц. Почти уверен что так и есть.
Хм, возможно. Так где же на айпаде можно увидеть 120 фпс в действии? Скроллинг рабочих столов и игры не предлагать).
Любой скролл, в том числе страниц в браузере, все анимации, работа со стилусом.
В целом система обладает меньшим Input Lag, что для меня очень заметно.
Сейчас включил принудительно 60фпс и сразу после переключения разницу при скролле рабочих столов или сворачивании/разворачивании приложений видно. Но это на контрасте. Стоит немного попользоваться и уже не заметно. При скролле в браузере даже этой разницы не заметил.
О, я даже не знал, что оно настраивается, только с телефоном и ноутом мог сравнить ощущения.
Сейчас вот включил этот Limit Frame Rate, ну это же чудовищно!
Все анимации, скролл, перестали быть плавными. Воспринимается не как единое движение, а как подёргивания, почти как слайдшоу. Как будто iPad сломался или очень тормозит.
Ну и писать от руки с помощью Pencil у меня в таком режиме не получается: из-за отставания следа всё время ощущение непропечатавшихся чернил, как от плохо пишущей шариковой ручки.
Такое впечатление, что становится хуже, чем в обычных айпадах, где максимум 60фпс.
Это прямо как дорогой и дешёвый чай)
Нафиг такое, если в итоге производительность падает
Глаза отказываются напрягаться, чтобы распознавать мелкие буквы и/или строки всего по 20 символов
У меня например, эта боль при переходе с двух мониторов и полноразмерной клавиатуры, на один монитор ноута, и его куцую клавиатуру.
А потом практически случайно заглянул в старый FullHD монитор.
И тут я все понял :)
Не знаю, я однажды сменил 27" 4К на 32" 2К, и тут я понял, что счастье разработчика отнюдь не в буквах повышенной чёткости.
Нормально перехожу туда сюда, без особого дискомфорта
Теперь может возникнуть соблазн использовать, например, масштабирование 1,5×. Это даст вам эквивалент 2560×1440 логических пикселей, что, как вы можете подумать, намного лучше. Это неправильное использование! Идея монитора 4k заключается не в том, чтобы получить больше пикселей, а в том, чтобы получить идеальный пиксельный рендеринг с высокой плотностью пользовательского интерфейса.
Идея 4K монитора заключается в получении 4K пикселей на экране. И не надо придумывать лишнего.
Потому как FullHD на 27" очень крупно, а информации помещается как на томже 21"
А вот 2560×1440 смотрятся на 27 ИМХО идеально, а рабочего пространства становится больше, особенно учитывая как сейчас любят отъедать пространство по вертикали. Сам так уже 4 года работаю и счастлив.
А на что реально стоит обратить внимание, это на настройку якрости/контрасности потому как из магазина мониторы обычно настроны на то чтобы выжигать сечатку, а не чтобы за ними было удобно работать.
Прочитал бы пост месяц назад, наверное купил бы 4к
Давно уже ничего в венде особо не разваливается. Насчёт андроида не скажу, благо никогда не было необходимости зумить на нём.
Разваливается на кейсах типа два монитора с разными разрешениями и dpi, один из которых отмасштабирован так, чтобы буквы плюс-минус одинаковые угловые размеры имели на разных расстояниях.
Выставил размер шрифта в системе на 200%:
Заголовок в Параметрах разползся
В скриншотилке глифы заехали на иконки, иконки сохранили свой размер.
Paint.Net неплохо переварил, но вот в истории текст остался маленьким
В ворде (пусть и 2013) кнопки слиплись.
Клиент телеграма вообще срать хотел на системные настройки.
Иллюстрирую виндой, но на большинстве других платформ будет то же самое. Сломать поддержку системного масштабирования шрифта очень легко (просто выставляешь константы), тестированием на разных масштабах шрифта занимаются лишь те, у кого приложение заточено на людей с плохим зрением.
2) Перелогинился, всё, что изменилось, в истории Paint.Net текст стал крупнее (что забавно, учитывая что приложение работает на современном стеке, который поддерживает динамическое DPI). Все остальные проблемы остались на месте, потому что те же параметры полностью поддерживают динамическую смену DPI, тем и других системных параметров.
И у вас ещё винда более-менее свежая, судя по всему. В семёрке вообще ад и израиль.
Это означает, что если у вас есть монитор 4k (3840×2160) и вы используете масштабирование 2×, вы получите эквивалент 1920×1080 логических пикселейЕсли у нас есть монитор 4к, то мы будем использовать там 3840х2160, а не 1920х1080, потому что в современном мире в 1920х1080 тупо ничего не влезает. Ну ладно, влезает, но неудобно.
Так что никаких масштабирований и сглаживания шрифтов и ретины. С мониторными разрешениями и размерами этому просто неоткуда взяться.
в среднем расстояние между моими глазами и экраном составляет 33 см с ноутбуком, но 68 см с монитором. Это двукратная разница!33 см? Привет близорукость, без вариантов вообще. 60см должна быть минималка.
Для себя идеалом обнаружили 2560х1440х32", т.к. при таких характеристиках можно сесть достаточно далеко и видеть все достаточно спокойно. Для 4к пробовали 55" телевизор, вроде удобно, но привыкнуть не удалось.
p.s.: И то что наиболее неприятно — найти ноут имеющий интерфейс позволяющий хотя бы 4к в 120гц достаточно тяжело. Внезапно, даже на относительно свежих ноутах, hdmi даже 4к в 60гц не всегда тянет. У автора об этом мельком сказано, но он смотрит на эти вещи достаточно оптимистично. Наш основной ноут 2560х1440х60гц держит максимум, в 4к уже 30гц приходится выставлять, хотя он свежий, 2018 года.
в современном мире в 1920х1080 тупо ничего не влезает
а какой веб-сайт сейчас шире, чем 1900 пикселей? Или вы имели в виду не сайты, а приложения?
hdmi даже 4к в 60гц не всегда тянет
интересно. Не тянет по причине слабой видеоподсистемы или по причине отсутствия дисплейпорта (4к в 60гц поддерживается hdmi 2.0 и dp 1.2, но много где в ноуты почему-то до сих пор ставят hdmi 1.4, а вот если есть dp — то скорее всего он будет не ниже 1.2).
а какой веб-сайт сейчас шире, чем 1900 пикселей? Или вы имели в виду не сайты, а приложения?Имели ввиду в целом. У нас браузер обычно раскрыт на где-то 2/3 экрана, рядом еще браузер, рядом мессенджеры.
Если речь идет об экселях, фотошопах и средах разработки — там со всеми нужными панелями и 4к-то не всегда хватает:)
интересно. Не тянет по причине слабой видеоподсистемы или по причине отсутствия дисплейпорта (4к в 60гц поддерживается hdmi 2.0 и dp 1.2, но много где в ноуты почему-то до сих пор ставят hdmi 1.4, а вот если есть dp — то скорее всего он будет не ниже 1.2).Видеоподсистема сейчас 4к*60гц у всех тянет, даже если это встройка. Так что тут проблем нет.
Проблема с выходами. На ноуте формально! hdmi 2.0b, но распайка порта (мы честно говоря без понятия что за фигня, цитируем ответ саппорта) сделана для hdmi 1.4. Прикольно, что при этом заводится 2560х1440х59 герц (если прописать их вручную в дровах), хотя 60гц уже не работает.
DisplayPort всё еще ставят не на все ноуты, на интересных нам моделях его нет даже в 2020 году:( При этом самое грустно, что DisplayPort нет на телевизорах. У нас, например, куплен 4к телек специально вместо монитора использовать — приходится юзать в 30гц на hdmi — боль и печаль.
Ноуты в этом смысле вообще как-то фигово расчитаны на подключение внешнего монитора, видимо подразумевается что раз купил что-то мелкое, то мучайся:)
Имели ввиду в целом. У нас браузер обычно раскрыт на где-то 2/3 экрана, рядом еще браузер, рядом мессенджеры.
понял. Ну это другой вопрос на самом деле — если нужно больше пространства, нужно брать монитор 28-32". Если на 24-25" сделать 2560х1440, то все будет очень мелкое.
А если брать 28-32", то для ретины надо разрешение 5К-6К.
На ноуте формально! hdmi 2.0b, но распайка порта (мы честно говоря без понятия что за фигня, цитируем ответ саппорта) сделана для hdmi 1.4
да уж, бред какой-то. Производитель конкретно налажал.
DisplayPort всё еще ставят не на все ноуты, на интересных нам моделях его нет даже в 2020 году
обычно на новых моделях бизнес и про сегментов есть или DisplayPort или usb-c c dp alter mode. Но если в нужных вам моделях не так — это грустно.
DP слишком заточен под большой поток данных и сам по себе очень ограничен длиной и банально даже сгибаемостью.
А hdmi — народный формат для телевизоров и тд. Вопрос в том почему он так сильно отстает от DP.
(одна защёлка чего стоит!)Множества раскуроченных разъёмов она стоит. Нигде больше защёлка не используется (ну, на RJ45/RJ11, разве что), так что люди, обычно, не знают о ней и просто тянут за штекер посильнее.
Монитор 4k имеет смысл только при масштабировании 2× / 200%.
В зависимости от целей и задач это как раз может не иметь смысла, потому что по количеству информации эквивалентен FHD, разве что единственная цель — это избавиться от заметной пикселизации.
Например, мне было мало стандартного FHD, к тому же у него на любом мониторе адекватного размера (даже 24", не говоря уже про больше) сильно заметны пиксели, площади кот наплакал, и после покупки недорогого 4K 32" всё кардинально поменялось — места вайлом, можно одновременно открыть и наблюдать много всего, пиксели почти незаметны (нужно оооочень сильно присматриваться). Всё же видеть 100 строчек текста одновременно гораздо лучше чем 50, при почти неизменном размере шрифта.
Правда, есть и негатив — теперь всё что имеет меньше чем 120 dpi вызывает стойкое неприятие.
Никакое — на всех мониторах только 100% и нативное разрешение, я хочу быть уверен что один пиксель в приложении — это один пиксель на экране. При любом масштабировании отличном от 100% тексты ощутимо мылятся (разве что монитор маленький а разрешение высокое, но с ними очень неудобно и места мало, кроме телефонов и планшетов).
Но это, наверное, мои личные проблемы — многим людям это "мыло" как раз нравится, а я предпочитаю чёткий текст с ровными, несглаженными линиями, к тому же, при любом масштабировании теряется полезная площать.
На 4k без масштабирования площадь эквивалентна 4 FHD (в чём и суть), пусть и мелкий текст (хотя не мельче чем на телефоне), при масштабировании эта возможность исчезнет.
Я бы сказал, универсальные советы в этом случае давать бессмысленно — потому что зрение и восприятие очень индивидуальны.
Да, довольно близко — около 40-50 см. Зрение у меня как раз не очень, но это расстояние позволяет не напрягаться при чтении мелких текстов без очков для чтения — как и в случае со смартфонами/планшетами и прочими мелкими экранами (хотя там уже нужно около 30 см для комфорта).
У людей с нормальным зрением мелкие тексты вызывают проблемы и на смартфонах (в то время как я даже там ставлю минимальный размер шрифтов), так что, как я уже заметил, всё это очень индивидуально.
При любом масштабировании отличном от 100% тексты ощутимо мылятся
Это при нативном разрешении монитора? А уточните, какая у вас ОС?
Поставив домой 49 дюймовый Dell, правда, с 60 Гц, но временем отклика от 8 до 5 мс могу сказать, что это небо и земля со старыми мониторами
На самом деле у нас нет особого выбора. Из того, что я могу найти, прямо сейчас на рынке есть только четыре (да, четыре!) дисплея 4k 120+ Гц!Я как-то не так смотрю?
Я как-то не так смотрю?
Да, дважды не так при чем
1) Вы смотрите все разрешения со стороной 3840, но классический 4к это все же 3840х2160, если говорить о мониторах. Так-то есть разные варианты трактовок, но 3840х1080 (какие у Вас включены) в них всё равно не входят
2) Вы смотрите макс. частоту кадров, а не макс. частоту кадров в макс. разрешении. Монитор 3840х2160 нередко выдает 120гц в фуллхд, но в 4к выдает только 60гц, например. Надо выставлять другой параметр.
Вот более правильная ссылка
market.yandex.ru/catalog--monitory/54539/list?hid=91052&glfilter=4913586%3A12103921&glfilter=16811073%3A120~&onstock=1&local-offers-first=0&how=aprice
p.s.: Daddy_Cool 16:9 может быть достаточно удобно, если этих 9 достаточно. 2560х1440 нам оказалось удобный разрешением, т.к. и по вертикали не урезались и по горизонтали как раз на пару панелек стало хватать «лишних».
Chamie
Если оставить только 27" 16:9, то останется шесть штук. Видимо автор не рассматривает экзотику.
К сожалению в продаже формат 16:10 с высоким разрешением есть только Dell P2421, да и тот 2560x1440. И появился он только неделю назад.
PS. Для спасения вертикального пространтства на виндовс помогает перемещение панели к левому краю (вертикально). Даже на 16:10.
Я и сам предпочел бы формат 16:10, но всему есть предел: тратить на один 30"@2k столько денег, что можно купить 2x27"@4k или 2x32"@2k — это нонсенс.
Такое ощущение, что они его держат для тех редких фанатов, которые увидят заветные циферки 16:10 и
Снизили бы цену хотя бы раза в полтора — можно было бы брать.
Так он не особо новый, 2016 год. Думаю, там специально оставили размер пикселя приблизительно такой же, как в 1920х1200 24"
Вопрос в том, почему за него хотят денег, как будто это современная топ-модель.
Хотя всё равно цена вызывает вопросы — 27"@4k можно купить дешевле, а 32"@4k ненамного (по меркам этого сегмента) дороже. Разумеется, в обоих случаях речь про модели с wide gamut, калибровкой и вот этим всем.
Но вот один из немногих пунктов, за что я могу похвалить эппл — это за то, что они не дают совсем убить это соотношение сторон. И даже dell xps теперь есть с нормальным соотношением сторон, и даже размером экрана. Правда ценник пока конский, но дальше хуавэй подтянется и прочие хп с леново.
Хотя, кажется, у Dell есть ноутбуки с экраном 16:10 и разрешением условно 4к.
То что рекомендует автор или можно отделаться более экономичными вариантами?
Из недорого и хорошего есть BenQ PD2700Q, например.
Это еще почему?
Мы должны покупать новые мониторы потому, что Apple сказали так, а разработчики софта, которым мы пользуемся, согласились и в "довольно дружелюбной форме" вынуждают остальных сделать то же самое или остаться без глаз
Читал ещё в оригинале и не смог разделить это невероятное внимание к пикселизации буковок.
А срач про "обязательно отключите ClearType" существует уже очень давно, когда ЖК-мониторы пошли в массы, то говорили что сглаживание для ЭЛТ, там пиксели не такие четкие, а может и ещё раньше появилось.
сглаживание для ЭЛТ, там пиксели не такие четкиеСглаживание и так нечётких пикселей? Нет, сглаживание — для ЖК, в ЭЛТ они сами сглаживаются.
Но так говорили в первой половине нулевых: выключи сглаживание, это же чёртово мыло.
А что именно работает на винде не так? По моему опыту — софта, который плохо масштабируется, на сегодняшний день очень мало осталось.
В основном глючат старые программы, подключения по RDP к старым Windows и подобное. Для домашнего использования как я понимаю еще будут и игры, которые будут требовать более мощной видеокарты
Т.е. на мой взгляд брать нужно родное разрешение, которое будут работать без масштабирования, для 27 — это 2К, для 30+ дюймов — 4К
Да и сама винда иногда может чудить, если на одном монике у тебя 200%, а на другом 100%
Я еще какую-то проблему упускаю?
За все время столкнулся только с отвратительным масштабированием древнего софта времен чуть ли не XP, и даже оно нормально масштабируется через настройки совместимости.
Я еще какую-то проблему упускаю?иногда нотификации или попапы таскбара рисуются не того масштаба. Сам таскбар иногда рисуется не того размера. На разнице масштабов у 200% и 150% этого не заметно. На разнице 100% и 200% — заметно.
Кажется проблема воспроизводится в таком ключе: подключаю ноут к докстанции, Основной монитор переключается с ноута на внешний (мне так удобнее), часть системных всплывашек продолжают использовать старый масштаб.
Если у тебя несколько моников с разным масштабированием — пиши пропало
да, у винды есть проблемы в этом плане до сих пор. Я бы не сказал, что они системные, скорее глюки. Как решение — использовать мониторы с одинаковым масштабированием. Но будем надеяться, что когда-то винда пофиксит это.
Никаких проблем нет, кроме одной очевидной — нельзя размещать окно сразу на двух мониторах, процент берется с того, на котором находится большая часть окна, и на втором выглядит нелепо.
То есть нет. На каком мониторе «окна больше», с такого DPI и берется.
На винде рисуется в том DPI в котором большая часть окна находится. Сложно это показать на скриншоте, но вот элементы одинаковой высоты зелёным подсветил:
О чем автор и пишет — нужно стремиться к целочисленному масштабированию.
На 4К и Retina смотреть практически не могу — всё контролы интерфейса настолько МЕЛКИЕ, что никакого разрешения самой лучшей лазерной мыши не хватает в них тыкать.
Скриншот рабочего процесса:
Полноразмерный скрин
Солидарен, правда квадратные экраны поменял на ультраширокие, поделенные пополам или на три. Первое время на макбуке ретина казалась огого, но потом заметил, что от неё через пару часов вытекают глаза. Может в каком-то из обновлений после маверикса что-то сломали.
Под обычные мониторы и шрифты легче подобрать — keyrus где надо покрупнее, или MS Mincho 10px, чтобы влезло побольше.
На 4К и Retina смотреть практически не могу — всё контролы интерфейса настолько МЕЛКИЕ, что никакого разрешения самой лучшей лазерной мыши не хватает в них тыкать.
ну так в статье и не предлагают использовать 4К в 100% масштабе. Выставляете удобный масштаб и будете все видеть, везде попадать, только шрифты, иконки, кнопки будут более чёткими.
ЗЫ. Лично мне больно смотреть на ваш скрин.
Действительно, очень обидно наблюдать, как эти прекрасные мелкие детали сжимаются всего лишь в 7×10 пикселей.Ну да, мне, программисту, очень обидно за прекрасные детали в буковках. Я же за комп сажусь, чтобы на букву «g» полюбоваться.
Выбор хорошего инструмента — плохо?
Навязывать субъективно хорошие инструменты как норму — плохо. :) Вот месяц радовался новому монитору 27" 2560х1440 — куча информации помещается. А теперь, оказывается, мне пора его менять.
Вот есть специальные шрифты для дислексиков, которые выглядят так, что дизайнер шрифтов схватится за голову. А читать помогают (дислексикам). Так что мне не очевидно, что, делая шрифты более четкими, мы облегчаем восприятие текста.
С возрастом и читать труднее становится.
Да мозг может отличить И и Л даже просто по ширине штриха, но значительно проще это сделать, когда у этих букв есть и другие отличия.
Про засечки я ничего не говорил. При определённом количестве деталей нейросеть начинает отбрасывать лишние, перестаёт их учитывать. Но для каждой отдельной нейросети это будут свои детали. Так что для меня не очень удивительно, что результат в упомянутом вами исследовании получился неоднозначным. Почти уверен, что он использовал язык знакомый респондентам, так что изменение степени когнитивных усилий было попросту незаметно.
Также, провожу по работе много времени в ide. Разница в шрифтах действительно большая. Больше удовольствия от работы. Особенно, если заменить Courier New на что-то по-современнее вроде Liberation Mono :)
Т.е. в моём случае такое приобретение оправдалось и привносит позитив в жизнь. Хоть прожить, конечно, можно и без 4k.
Из минусов — действительно, есть софт, который ещё не адаптирован. Из того, что применяю, такого мало. В основном, встречаю в плагинах к музыкальному софту.
Использую для разработки 24" монитор в разрешении 1920x1200. По классификации автора это old school. После перехода с винды на убунту обнаружил, что убунту гораздо лучше отрисовывает шрифты малых размерностей
https://ibb.co/54LshxH
Windows 10 на малых размерностях делает буквы шире чем нужно. Но если использовать монитор с разрешением 125 dpi — все приходит в норму. Для себя сделал вывод, что майки опять хотят за счет смены оборудования решить свои проблемы с ПО.
и за все время пиксели целые, цветоотдача не изменилась, матрица в порядке, крепежи все четкие (3х осевой ориентир)… когда моник еще был в продаже, цена выросла овер 1к у.е…
сейчас, смотрю мониторы, думал дополнительный взять… то или аля-маркетинг, или цена дикая с гарантией 12мес… грустно как-то все это.
Автор предлагает именно второй вариант, что очень удобно с точки зрения продаж.
И да, на винде сглаживание (оно же ClearType) отлично отключается (HKEY_CURRENT_USER\Control Panel\Desktop, FontSmoothing — удалить, FontSmoothingType = 1, перезагрузиться). Проверить можно зайдя на сайт озона до и после и убедиться, какой убогий шрифт выбран озоном (и все минусы всех остальных шрифтов моментально улетучатся). Это как раз тот пример, когда шрифт подогнан под обязательное сглаживание.
Я уже писал про размеры мониторов, а также про кривое масштабирование на больших разрешениях (за которые топит автор). Для примера — PuTTY (может у меня версия «старая»? но этот инструмент вроде как не требуется ежедневно обновлять):
И нет, окно не скроллится и не растягивается.
Собственно после написания статьи я себе купил 32" с разрешением 2560х1440 и HDR10 (вот эту тему искренне рекомендую, работа стала значительно приятнее).
Когда люди на продакшне делают кино\сериалы с контрольными мониторами, отвечающими стандартам, а консьюмеры смотрят это добро при ярком свете на своем ТВ с HDR аж 350, получается Игра Пристолов, сезон 8, серия 3. «Слишком темная картинка». Не картинка темная, а производитель ТВ псевдостандарты проталкивает как HDR-capable ТВ.
У меня еще ни разу не было HDR-совместимого монитора, и я не могу понять, зачем нужно покупать существующие, если у них кроме яркости ничего особо и нету (если не брать сегмент $2000+).
В повседневной жизни я использую яркость порядка 100 нит, в лучшем случае 150, если комнату солнце сильно освещает. Более ярко — банально сложно смотреть. Понятно, что если прямо на монитор светит полуденное солнце, то тут чем больше, тем лучше, но не думаю, что смотреть фильмы предполагается под прямыми лучами солнца.
Желательные 12 бит на компоненту, контрастность 10000:1 и выше — это мне понятно, но желание сделать из монитора сварочный аппарат вызывает у меня недоумение.
Кроме того, человеческий глаз отлично подстраивается к окружающей обстановке, и вам совсем необязательно иметь 100500 нит яркости, чтобы обеспечить ощущение того, что что-то очень яркое. Опять же, если все изображение имеет яркость 600+ нит, то ощущение того, что какой-то один предмет является очень ярким, у вас все равно не возникнет — из-за того же подстраивания зрения под общую яркость.
В результате мы снова возвращаемся к необходимости высокой контрастности: чтобы сделать ощущение, что на картинке находится яркое солнце, вы можете сделать среднюю яркость картинки 10 нит, а яркость солнца — 300 нит. Невероятная яркость для этого совсем не нужна.
Поэтому фраза «Ладно контрастность, пусть хоть ниты доберут» вызвала у меня вопросы.
Поэтому фраза «Ладно контрастность, пусть хоть ниты доберут» вызвала у меня вопросы.Проблема в том, что на классических LCD нельзя накрутит нужную контрастность. Остается только яркость. Если нет ни того, ни другого, то это не HDR, что бы там не было написано на коробке.
Я про это и спрашиваю — в каких сценариях увеличение [только] общей яркости изображения дает профит?
UPD. Единственное, про что я могу подумать — в фильме происходит взрыв, и весь экран на долю секунды сильно засвечивается. Или половина экрана, если хотя бы какое-нибудь зонирование подсветки присутствует. Правда, не уверен, что для такого нужно большее тех же 300 нит, если в обычных сценах яркость не была выкручена слишком сильно.
Но это такой специфический и редкий случай, что я сомневаюсь, что его имеют в виду, когда говорят, что для HDR запредельная яркость необходима.
Это всё верно, если комната совершенно тёмная. Экран дисплея отражает около двух нит в хорошо освещенной комнате. В таких условиях картинка со средней яркостью 10 нит будет иметь среднюю контрастность 6:1.
F10-bits per sample Rec. 2020 uses video levels where the black level is defined as code 64 and the nominal peak is defined as code 940. Codes 0–3 and 1,020–1,023 are used for the timing reference. Codes 4 through 63 provide video data below the black level while codes 941 through 1,019 provide video data above the nominal peak.
Таким образом, если ваш монитор физически не способен в «940» nominal peak, то съезжает «в темноту» не только пиковая яркость, но также и нейтральный серый, и все цвета за ними. То есть картинка становится банально темнее, для любителей «как режиссер задумал» картинка тоже долетает, скажем так, «переосмысленной». Других цветовых профилей для HDR в ходу пока нет, поэтому можно конечно наплевать на 1000 нит и выбирать всякие VESA400, но цветовой профиль от этого не поменяется, и цвета со светами будут выглядеть иначе, нежели на нормальном HDR. И дело тут далеко не только в солнце, лампах и прочем, не забывайте: яркость влияет на все, кроме чистого черного.
Более того, если цветовой профиль, который в будущем может\должен будет заменить 2020 (Rec. 2100), и там никаких послаблений для «псевдо-HDR» нет:
For full range color, 10-bit levels are 0 for the black level, 512 for the grey level and 1023 for the nominal peak, and 12-bit levels are 0, 2048 and 4092 (values 4093-4095 are avoided to exclude clipping errors on 10-bit ADC/DAC circuits which have 1023 steps).
Дополню цитатой с rtings.com:
Finally, we take a look at dynamic range. This is where HDR TVs will show the biggest difference. HDR content makes use of their higher brightness capabilities to show lifelike highlights. When a TV has a limited dynamic range, it can only display highlights while crushing the dark elements and vice versa. A TV with higher dynamic range is capable of displaying more of both at the same time.
Я надеюсь, вы не имели в виду, что число 940 должно соответствовать 940 нит яркости.
Хочу заметить, что даже в процитированном вами же отрывке написано про некий «nominal peak», а не про точное значение яркости. Смею предположить, что эта статься на википедии не имеет никаких предубеждений по поводу «ровно 1000 нит, не больше и не меньше» и считает, что «nominal peak» может быть разный, причем зависеть он будет не только от устройства, но и от настроек пользователя. В том числе, наверное, потому, что в условиях, когда на телевизор не падают прямые лучи солнца, нет особого смысла выжигать людям глаза запредельной яркостью.
Дополню цитатой с rtings.comА вы сами прочитали, что именно вы процитировали?
Finally, we take a look at dynamic range. This is where HDR TVs will show the biggest difference.Да, HDR позволяет увеличить dynamic range, для чего от дисплея требуется высокий уровень статического контраста. Если у вас увеличился контраст, то логично двигать не только нижний уровень яркости вниз, но и верхний вверх.
Но напомню, я спрашивал конкретно про случай, когда контраст и, соответственно, динамический диапазон остался прежним, так что эта цитата к делу вообще не относится.
HDR10 — в смысле 10-битный цвет?
Такие мониторы не стандартизируются ни по яркости, ни по контрастности, ни по цветовому охвату, ни по гамме, вообще никак. Просто любой производитель может чуток подправить прошивку и объявить свой монитор HDR10-capable. Я не знаю, какой смысл вкладывал в этот термин Landgraph, фактического технического смысла в нем нет.
Речь идёт о тексте?
Для текста достаточно матрицы ~5х5px на символ. Разница в восприятии между матрицей и sans примерно такая же, как между courier и sans. Ну, это просто другой (плохой) шрифт, только вместо чётких гладких линий — ровные трёхцветные прямоугольнички.
Далее автор, пользователь retina, говорит о разных настройках сглаживания на дисплеях с 96dpi. Но пользователям 96 dpi разница в настройках сглаживания очевидна, она видна невооружённым глазом! Там же пикселы видно, в отличие от экранов 200..250+ dpi. Можно просто перебрать настройки и выбрать то, что нравится больше.
Также я не вполне понимаю, зачем 120fps для кодинга, это же работа с текстом.
Конечно, я понимаю, что 250dpi смотрится лучше, чем 96, и 120гц наверно лучше 60 (тут уже, наверно, не различу). Но что эта разница критична при работе с кодом, не думаю. (строго говоря, нельзя считать, что программист работает только с кодом)
В свое время был замечательный формат 4х3, затем 16х10, 16х9 и ересь вроде 21х9, которая вроде как не взлетела. Потому что жадность продавать большую диагональ при меньшей площади должна иметь предел. Хорошо что есть iPad, который остался верен 4х3. Потому что позволяет вкусить прелесть этого формата, для тех кто вырос при FullHD/4k 16x9.
Так вроде же "длинные" форматы научно обоснованы, типа поле зрения у человека не правильное конусообразное, а сжатое по вертикали.
- На работе привык к двум мониторам, но дома без кардинальной реорганизации рабочего места их не втиснуть
- Под мои задачи я вполне могу ужаться с 1920 до 1720 без особых неудобств, но вот по вертикали иногда 1080 чуток не хватает.
Может, пока не поздно, покритикуете мое решение?
У меня аналогичный от Samsung, в целом доволен. Обычно сижу где-то в 90 см от него, так что головой крутить не приходится и шрифты выглядят достаточно чёткими. Когда нужно работать с мелкими деталями — просто подъезжаю поближе.
1440 по вертикали — самое то. Горизонтальные 3440 редко используются полностью, а разделять их пополам не всегда удобно. Получается, что смотришь под углом (хотя монитор и изогнут), 2 отдельных монитора можно установить под более комфортными углами. Возможно, привык бы, если бы делал так чаще, как привык к изогнутости (по началу тоже слегка некомфортно было).
В моём ещё поддерживается частота обновления в 100 Гц, что является приятным бонусом.
К тому же у меня, если есть второй монитор, то иногда неделями повернут вертикально, чтобы в нем пдфки открывать.У меня второй монитор всегда так висит, очень удобно для монтажа.
А если говорить о работе, то решающую роль играет контент. Например, для видеомонтажа с его длинными горизонтальными дорожками длинный монитор благо. А текстовые листинги, как ни крути, растут вниз, а не вбок. Два листинга рядом это довольно удобно, но даже они не покрывают экран 21:9.
В старые времена, я знаю, журналисты-писатели ставили вертикально мониторы 4:3 — вот это интересный вариант. Да только сейчас таких почти не осталось, если не считать нескольких экзотических моделей по совершенно неадекватным ценам.
Использую 40 дюймовый корейский 4к монитор за $400 на 100% (классические 96dpi) или 125% (чаще, около 120) в зависимости от настроения.
Тоже использую этот вариант сижу на 4К с лета 2015 года ) 5 лет уже.
Хочу попробовать 32 дюйма 4к и 120 fps но монитор хочу с глянцевым дисплеем как у mac.
А кристаллический эффект, зернистая картинка. Не понимаю почему большую часть 4к дисплеев делают с матовыми.
И подсветку хорошо бы без щим.
Опыта использования 4к или ретина — нет. Могу быть не прав, но это всё пока что выглядит как «теплый ламповый звук» и позолоченные провода в аудиотехнике — чисто субъективные впечатления. Да, я про реалии 22", на гораздо больших диагоналях 4к вполне имеет смысл и там разница видна и ощутима.
defaults write -globalDomain CGFontRenderingFontSmoothingDisabled -bool NO
defaults write -globalDomain AppleFontSmoothing -int 1
Последний параметр подобрать по вкусу, после этого перезагрузиться, и можно наслаждаться очень неплохой (почти как на виндоусе) картинкой на 1440.
А я бы с удовольствием продаунгрейдился до SVGA и шрифтов, прибитых к пиксельной сетке. Вполне себе ничё так было :)
Ранее разница между монитором и телевизором была очень существенна и явно заметна на глаз.
Сейчас же я попросту не могу найти информацию о минусах применения телевизора в качестве монитора.
В результате уже пару лет в качестве монитора у меня TV LG 43UJ634V
т.е. это 4К IPS матрица, что работает в связке Hackintosh + RX 5700 XT по HDMI 2.0 — 60 Гц
настройки для работы (в игры не играю) цветность — 40 % яркость — 50 %.
Возможно от времени, я теперь замечаю неравномерность в подсветке, но, это единственная претензия, которая зачастую применима и к мониторам.
Нужна критика.
И, может быть не отключаемой или не отключенной всякие улучшители картинки — дорисовка кадров, их раскрашивание и все такое.
А он как-то определяет, компьютер к нему подключен или какой-то BD плеер или спутниковый ресивер?
Вообще не понимаю, какой наркоман придумал масштабирование картинки. В телевизор идёт цифровой сигнал 1080р, матрица 1080, но нет, мы возьмём, обрежем картинку и замылим что осталось.Почему наркоман? Там два шага, оба логичные.
1. Старые CRT-телевизоры 1940х годов не могут показать всю картинку NTSC… решение: фильмы при записи записывается чёрными полями со всех сторон.
2. Новые LCD-телевизоры показывают фильмы с жукими чёрными полями (потому что они такие и есть)… решение: обрезать поля, растягивать картинку.
И все довольны.
А что там какие-то перфекционисты типа вас странают… так то такое. Хорошо что для вас хотя бы настройку не забыли сделать…
Но когда идёт чистые 1080p, то к чему тут совместимость с проблемами NTSC бородатых годов?Потому что «чистые» 1080p, если они идут с Blu-Ray тоже имеют полосы. Для того, чтобы на «NTSC бородатых годов» всё нормально смотрелось.
Брать монитор с разрешением повыше и ставить разрешение пониже — звучит бредово. Обычно четкость шрифтов, если так прямо видно, регулируется через маштабирование интерфейса, а не понижением разрешения.
Использую 40" Illyama 4k, 100% маштаб интерфейса, проблем с пикселизацией нет, все весьма удобно. Сижу достаточно близко, на расстоянии чуть-чуть меньше полностью вытянутой руки.
Очень жду статью, где расскажут о недостаточно глубоком черном на мониторах и жалобах, что OLED дисплеев почти и нет на рынке
Брать монитор с разрешением повыше и ставить разрешение пониже — звучит бредово. Обычно четкость шрифтов, если так прямо видно, регулируется через маштабирование интерфейса, а не понижением разрешения.
Автор и пишет о масшабировании, а не о понижении разрешения.
Брать монитор с разрешением повыше и ставить разрешение пониже — звучит бредово.
Угу, пускай это и не буквально "ставить разрешение пониже", а "увеличивать масштаб". Звучит как "купите дорогую железку, которая позволяет отображать в 4 раза больше информации чем обычная, и с помощью пары лайфхаков деградируйте её почти до аналогичной обычной. И делайте это прямо сейчас, а не когда обычная сломается".
При том, что лайфхаки рабочие не на 100%.
Звучит как "купите дорогую железку, которая позволяет отображать в 4 раза больше информации чем обычная, и с помощью пары лайфхаков деградируйте её почти до аналогичной обычной
зависит от того, что нужно пользователю. Если гладкие ровные шрифты, то нет проблем поставить больший масштаб и потерять в количестве места. Но тут же такое дело — зачем мне на 4К 24" ставить 100%? Чтобы информации было много, но ее нельзя было разглядеть без лупы?
Тут вопрос зачем покупать 4К 24", если на 2К того же размера всё нормально видится. Глаза не разрывает и после 16 часов за компом почти без перерыва. И шрифты вполне себе гладкие, если голову в монитор не впихивать. В посте же подаётся, что 4к и 200% scale, да ещё на 120 Hz must have для тех, кто много работает с текстом.
120гц, конечно, не нужно никому, кроме геймеров, но и им всякие freesync помогают. Для программирования и работы с изображением достаточно flicker free подсветки. Хорошо, что сейчас уже много таких мониторов.
Всё же между "намного приятнее" и "всем нужен" есть тонкая грань :)
Действительно, не всем это важно. Но чтобы узнать, важно это или нет, наверное, нужно попробовать?
Я тоже годами пользовался ноутбучным монитором 15.6" 1366х768 и не жаловался, потому что не знал, что можно лучше. Но сейчас, после ретины, как взгляну на экран того старого ноута — плакать хочется.
Конкретно ноутбучную ретину я пробовал, но логические 1366 на 13 дюймов под макось мне хуже зашли чем физические 1920 на 17 под лмнуксом. Где взять на попробовать ноутбук с 17 дюймов 4к не представляю, или 27 дюймов монитор 4к.
Вообще я всю жизнь предпочитал пожертвовать частотой кадров и угловым размером текста да элементов UI, ради больше информации на экране, но вот на 120 dpi сдался — начал шрифтами играть да скэйлингом. А может просто совпало, что зрение садится…
Рынок мониторов более инертен, по-моему. Вот даже не знаю как должна карта лечь, чтобы я через год или даже три побежал покупать новый монитор, пускай хоть с 1000 dpi, хотя телефон может и куплю просто потому что Андроид 12 какие-то фичи интересные предложит, а на dpi даже и не гляну. Единственная представимая причина — IDE от JetBrains 2021+ и/или все браузеры разом откажутся нормально работать на 100 c копейками dpi, а будут хотеть 200+.
С месяц назад выбирал новый монитор и встала дилемма в рамках тех же 500 баксов, после отбора по другим параметрам: или 24" 4к, или 27" 2.5к. Как профессионал выбрал 27" — больше кода на экране помещается. А 27" 5к уже совсем других денег стоит.
Есть мнение, всё же, что fhd на 24 или wqhd на 27 — всё же компромисс между комфортностью и тем как должно быть: куча софта заточена под 96 dpi, игнорируя информацию ОС/монитора. В результате указав размер квадрата в 1 дюйм получите квадрат 96х96 пикселей на 24 fullhd мониторе несколько меньшего размера. Идеал "такие какие и должны быть"для fullhd около 23", для wqhd около 31" если для "тупого"софта указывать физические размеры типа дюймов/сантиметров или формат A4
После прочтения статьи взял у коллеги попробовать монитор 4к (те же 24")… Как это теперь развидеть?
4k и 200% масштаб интерфейса — идеальная четкость! С FullHD просто не сравнимо!
Пошел к начальству «плакаться» за новый монитор…
Ну кто бы мог подумать: дорогой монитор лучше дешевого!
И ни слова о расстоянии до монитора. А ведь можно легко сделать из fullhd монитора 4K, если отсесть от него на в 2 раза большее расстояние :)
На экранах 27" 5120 x 2880 вполне себе целочисленное.
Э-э. 1920x1080 на 27" — как-то крупновато будет все. На самом деле macOS позволит так сделать, но стандартное логическое разрешение на такой диагонали, это все-таки 2560x1440.
27" я бы брал 4К с масштабированием для работы
тогда будет проблема с нецелочисленным масштабированием.
На самом деле, не считаю это явление проблемой само по себе. Например возьмем iPhone плюсовых размеров (от 6+ до 8+). Не знаю, многим ли известно, но там физическое разрешение дисплея 1080 × 1920, при этом программное 1242 × 2208. То есть, рендеринг изображения осуществляется не точка в точку. Но слышал ли кто-нибудь жалобы на экран айфона, касающиеся нечетких линий? Я, по крайней мере, нет. А все потому, что запас dpi настолько большой, что этот момент уже становится неважным.
Но будет ли запас dpi на мониторе 27" 4К достаточным, чтобы рендеринг не точка в точку был незаметным? В этом я не уверен.
проблема в том, что на 27 дюймах при нативных 4К интерфейс будет мелким, а при отмасштабированных 1080P — крупным. Тут как раз хорош dpi при 1440Р.
Вопрос баланса работа-развлечения.
Да, для видео согласен — чем больше размер дисплея, тем лучше. В идеале, как по мне, хорошо иметь 4К телевизор на 70" и отдельно 5К монитор на 27". Но, конечно, на практике такое себе сможет позволить далеко не каждый.
по сравнению со стандартным для 27" 2560x1440Простите, но вот как раз 1440P изначально появился, как промежуток между FHD и 4K. Как раз на нем часто жалуются, что не работает масштабирование нормально. Для меня это особенно больная тема, потому что фильмы\сериалы, да даже видео на ютубе — это либо 1080P, либо 4К, остальные — производные. В 1440Р не снимают, для игр это хорошее разрешение (кроме пиксельных), а для видео\фото контента — уже не очень.
Но да, повторюсь, что согласен, что если главная цель компа — монтаж или просто просмотр кино/сериалов — то эта мысль не применима.
А чего автор оригинала докопался до названий USB? Назвали же так. Да и USB 3.2 тоже есть. :)
Она также говорит, что USB 3.1 Gen 2 ограничен 10 Гбит/с, но я думаю, что ограничения USB 3 не распространяются на USB-C? Кроме того, что это за название — USB 3.1 Gen 2? Уже приняли USB 3.2?
Вот Apple не хочет — мучайтесь, господа! Хуже того, все эти Type-C USB 3.x кабели поддерживают HDMI, DisplayPort и ThunderBolt только в альтернативных режимах, что порождает дополнительный геморрой.
В чём смысл переименования, кроме как в возможности второй раз продать «новейший USB 3.2 gen 1» который по сути стандарт 10-ти летней свежестиВ том, что кто-то когда-то решил, что USB 1.1 должен отменить USB 1.0 и ввести понятия «Low Speed» 1.5Mbit/s и «Full Speed» 12MBit/s.
С тех пор каждый новый стандарт отменяет предыдущий. Это, извините, не маркетинг, это просто идиотизм.
Если в 3.0 они пошли по той же дороге, то там есть несколько физически разных режимов, с разной частотой передачи данных, разными требованиями к оммическому сопротивлению проводов и полосе пропускания кабелей. Отсюда и нарастание зоопарка — сохранить возможность экономии пары центов на проводах и разъёмах для медленных устройств типа мышки и клавиатуры
В USB 3.0, если не забыли
Забавно, но про дополнительные проводки я умудрился забыть )
Я неудачно попытался проиллюстрировать идею, что у создателей стандарта USB бывают причины переписывать старый стандарт (возможно, с изменениями) как часть нового.
А вот было ли так с USB 3.0 — я теперь не уверен.
Заглянул в Википедию — там попался режим
USB 3.2 Gen 2 x 2 — «ужас-ужас» — зоопарк всё плодится.
Я неудачно попытался проиллюстрировать идею, что у создателей стандарта USB бывают причины переписывать старый стандарт (возможно, с изменениями) как часть нового.Вот только иллюстрация получается какая-то… неубедительная.
Ну вот посмотрите, скажем, на PCI Express. У них там всё чётко: 1.0 даёт 250 MB/s, 2.0 даёт 500MB/s, и так далее — вплоть до 4 GB/s в PCI Express 5.0 и ожидаемых 8 GB/s в Express 6.0.
При этом, внезапно, вы можете прекрасно вставить PCI Express 1.0 устройство в маму с поддержкой PCI Express 4.0, в стандарте PCI Express 4.0 всё, что нужно, прописано — и вам для этого совершенно не нужно переобзывать PCI Express 1.0 в PCI Express 4.0 Gen ⅛.
USB 3.2 Gen 2 x 2 — «ужас-ужас» — зоопарк всё плодится.Угу. При этом, что самое-то смешное, разных вариантов у PCI Express гораздо больше (у современных матерей с поддержкой PCI Express 4.0 x16 слот может работать в одном из 12 режимов), а путаницы — гораздо меньше.
Вот зачем вот всё это? Зачем называть то, что раньше называлось USB 3.0 сначала USB 3.1 Gen 1, а потом и USB 3.2 Gen 1? Чтобы всех окончательно запутать?
Но да, называнные вами 20 — это наиболее распространённые…
И вроде никто не порывался назвать 2.0 как 3.0 Low Speed.Оно должно было называться как USB 3.0 High-Speed во-первых, а во-вторых его можно было вернуть прямо в магазине.
В случае с USB 3.0 Super Speed данные передаются по дополнительной паре проводников, их наличие или отсуствие банально невооружённым глазом можно заметить.
А фильмы как снимали в 24 к/с, так и снимают.Не все. Ну и есть способы увеличения частоты кадров.
Впрочем, 60ГЦ в основном на ютубе нынче, у блогеров.
У меня от практически каждого нового монитора глаза где-то часов 6 болят, потом что-то подстраивается и болеть перестают. Один монитор, правда, разбил. Не в припадке ярости — случайно, но раздражение от картинки видимо сыграло роль. Это был LG с феерически неравномерной цветовой температурой и сертификатом, торжественно удостоверяющем, что на заводе была откалибрована цветовая температура в центре экрана.
Есть ещё несколько мониторов с диагональю 55 дюймов и более, которые было бы трудно использовать на обычном рабочем столе.
m1rko, огласите весь список пжлст.
Мечтаю повесить такой на стену и работать с расстояния ~1.5 метра, но связываться с телевизорами не очень хочется, бо падение цветовой чёткости, неравномерная подсветка, лаг, повышенная умность, которая мне совершенно не нужна.
Хочется просто качественную полу-матовую или матовую панель с выводом пиксель в пиксель и с мониторным лагом. Вам такое встречалось?
P.S. Сори, пропустил плашку «перевод». Тогда вопрос не к автору, а в общий эфир.
Ну и отвечу на ваш вопрос: проблема телевизоров и их подсветки не в том, что они телевизоры, а в том, что они большие. Поэтому у больших мониторов тоже будут проблемы с подсветкой.
Что касается лага, то есть ТВ с небольшим. Вот, изучите.
А по факту 1.71х (и другие из меню) на макбуках начиная с 2016 выглядят почти так же, как 2х. Я пишу «почти», потому что наверное если куда-то сильно приглядеться, то можно будет увидеть разницу, но я ее в повседневном использовании не вижу.
А использование у меня действительно повседневное. Рабочий мак 13 2019 с 1.71х и личный 15 2015 с 2х. Каждый день использую оба — разницы не вижу. Сглаживание в меню на обоих отключено. Если на 15 2015 поставить 1.71х, то там да, будут мыло и лесенки, видно прям невооруженным глазом.
Уж не знаю, что там Apple сделали, но факт, что на новых макбуках любое разрешение (по крайней мере из предложенных в меню) выглядит четко.
Долгое время работал на макбуковской ретине с масштабом 2х. Потом работал с масштабом 1.71х, потому что на экране мало места, это не вызывало никакого дискомфорта.
Затем подключил внешний монитор LG 29UM69G-B с плотностью пикселей чуть меньше 100. В результате испытываю 0 дискомфорта. А вот когда я подключал Acer Nitro VG270Ubmiipx, я испытывал боль и страдания, но дело было не в плотности пикселей (она там чуть выше, чем на LG) а в цветопередаче и подсветке.
Поддержка MacOS отстой. Официально ни один из компьютеров Apple не поддерживает ничего выше 60 Гц, даже при нормальном разрешении:
Использую macOS на частоте 75 Гц (максимум монитора). Система поддерживает эту частоту, но не вся, например, вертикальные анимации Mission Control дёрганные. Но мне приходится использовать эту частоту, чтобы компенсировать задержку Magic Trackpad.
Бонус: как включить настоящее субпиксельное сглаживание на свежих macOS: https://apple.stackexchange.com/a/337871
Небольшой лайф хак.
Если вы очкарик, как и я, то просто закажите очки на пол-диоптрии послабее. Я так и сделал. Картинка просто отличная, супер сглаженные шрифты, даже на ЭЛТ мониторах. Я не шучу :)
Полагаю, что с другими мониторами с высоким ppi такая же ситуация — после них трудно будет вернуться на низкий.
Но перейдя на макбук осознал, что этого размера хватает (главное, чтобы в IDE 120 символом по ширине влезало). И второй экран мне теперь не нужен, так как у меня любое приложение открыто на весь экран, и переключаюсь я между ними через cmd+tab и cmd+~ между окнами одного приложения. Это очень быстро и не надо искать на каком экране откроется приложение. На винде пробовал так же через alt+tab переключаться, но там тупо сделано — показываются превью окон с маленьким значком приложения в углу. Пока поймешь где нужная программа много времени уходит. Это напрягает и не удобно. На маке просто большие значки приложений, сразу видно куда переключиться.
И самый главный плюс ноута — мобильность. Да, ты всегда можешь отключить ноут от монитора и пойти поработать в другом месте. Но если ты привык работать на большом мониторе, то будет некомфортно, и ты поскорее вернешься к монитору. При работе чисто за ноутом такой привязки нет.
На винде пробовал так же через alt+tab переключаться, но там тупо сделано — показываются превью окон с маленьким значком приложения в углу. Пока поймешь где нужная программа много времени уходит. Это напрягает и не удобно. На маке просто большие значки приложений, сразу видно куда переключиться.Кошмар какой. Никогда даже не задумывался над тем что и кто там показывает. Alt+Tab+Tab+Tab это на три экрана «вниз», чего там смотреть-то? Знаю, что я успеваю переключиться, как правило, до того, как список окон успеет показаться (и вот здесь, как раз, в MacOS X была проблема — она, сволочь такая, не переключала раньше, если я одним движением нажимаю Alt+Tab+Tab+Tab… может починили уже… много лет не общался). А если уж я переключаюсь куда-то так далеко, что я не знаю, сколько экранов мне «крутить», так я скорее через таскбар туда пойду.
Но это, конечно, уже к мониторам никакого отноешния не имеет…
В таком виде очень удобно переключаться между всеми экранами. И не нужно курсором лезть ни в какой таскбар — все делается клавиатурой.
Кроме того можно нажать один раз cmd+tab, а потом уже вместо tab стрелочками переключаться в обе стороны, тоже оч удобно.
При условии, что у макбука клавиатура ANSI (а не убогая ISO), в которой тильда находится прямо над табом — безымянный палец просто переходит чуть выше, а большой остается на месте.
Ага. Только половина виндовых приложений — sdi, другая половина — mdi.
Смотрите — вы топите за унификацию. Типа каждый отдельный документ в отдельном окне. Ну, тогда, чтобы быть последовательным — начните с браузера.
Ах, да, обычно пользователь сидит в одной вкладке (текущей)? Ну, так я и документы обычно редактирую по одному. Ну, или меня не обломает переключиться между двумя документами в рамках одной программы, если вдруг все-таки я буду редактировать два документа в параллель.
Или тогда, получается, какие-то программы более равные, чем другие? И все равно запоминать две комбинации клавиш…. Хм….
VolCh — это и к тебе тоже
У меня часто бывает открыто 2-3 окна браузера (например, рабочее и личное) и в каждом по нескольку вкладок. Или 2 окна Sublime Text (разные проекты) и в каждом по нескольку файлов.
Кроме того, разные окна используются, когда браузеры расположены на разных мониторах. Например, рабочее + доки. В этом случае особенно удобно видеть визуальное соответствие окон с их превьюхами.
Переключение между вкладками в рамках одного окна и между разными окнами — разные вещи. Я вот, бывает, специально вытаскиваю отдельную вкладку в отдельное окно, чтобы как раз пользоваться средствами переключения окон ОС.
5k монитор — весьма редкий зверь
В Win32 возможность адаптации была заложена ещё с древних времён, но это всё ложилось на плечи разработчика ПО, которые это игнорировали в основной массе.
Тут много людей, которые наоборот рекомендуют плотность пикселей чуть больше 100, видать имеют орлиное зрение, как им всем угодить?
Двигать монитор для комфортного углового размера при родном разрешении матрицы :) А так, помню, на ЭЛТ иногда ставил 1600х1200, но ненадолго, потому что частота развёртки снижалась до, кажется, 50 Гц и становилось некомфортно.
Частично это реализовано. Для шрифтов это называется хинтинг. Или например браузеры подгоняют размеры блоков под пиксельную сетку, если они оказались дробными. В частных случаях это возможно.
Но в общем случае — слишком сложно. Учитывая зоопарк технологий, практически невозможно. А растягивать картинку целиком ничего не даёт. Поэтому вектор нас не спасает, за исключением некоторых частностей.
Ждём, пока подъедет маркетинг, и расскажет зачем массово нужны 8k мониторы, потому что сейчас их ну прям очень мало и очень за дорого.
Не, я о том, что сначала появились 4k дисплеи за дорого, потом слово "4k" стало звучать из каждого утюга, а потом цены стали доступными. Ждём того же с 8k.
В «карточном домике» использовали, например, для красивых, отцентрованных планов. То есть можно сэкономить время операторов и актеров, поправив косяки съемки на монтаже. Вот в этом видео про это рассказывают, с 3 минуты — техническая составляющая. И да, это производители контента, а не маркетологи, они вам 8К не продают.
Зачем такое разрешение для дома я ответить затрудняюсь, но я за его продвижение, потому что за техникой подтягиваются площадки. Всегда в подобных обсуждениях даю ссылку на это видео, гораздо приятнее выглядит в 8К даже на 1080P мониторе, особенно если вглядываться в окна или людей на улице. Чем больше детализация, тем лучше, как по мне.
Ну если считать, что DPI на хорошем экране должно приближаться к таковому у дешевого принтера (300 dpi), а не быть уровня первых VGA мониторов (меньше 100 dpi), то для 50+" панелей а-ля "телевизор", должно быть 8к, даже если источник 4к по сути. А то шрифты того же OSD будут віглядеть неркасиво. :)
Ну если считать, что DPI на хорошем экране должно приближаться к таковому у дешевого принтера (300 dpi)А зачем так считать, извините?
Принтеру огромный DPI нужен, чтобы обеспечить приемлемый LPI. Особенности тенологии. Принтеры с темопереносом дают лучшую картинку при 100 DPI, чем типичный оффисный принтер при 600 DPI.
а не быть уровня первых VGA мониторов (меньше 100 dpi),У монитора LPI и DPI совпадают. Пресловутые 72DPI/96DPI — это как раз типичный LPI для качественной печати.
Собственно все беды начались тогда, когда кто-то решил «накакать себе в карман» и сделать так, чтобы вы не получали картинку с должным LPI (при наличии более чем достаточного DPI).
После чего и начались «героические преодоления» собственноручно созданной проблемы.
Почему выход «перестать какать себе в карман» считаетеся плохим… мне ведомо конечно: на нём денег не заработать.
А то шрифты того же OSD будут віглядеть неркасиво. :)Если их нормально рендерить — проблем не будет.
Пресловутые 72DPI/96DPI — это как раз типичный LPI для качественной печати.
Как подсказывает вики, это значения крайне низкокачественной печати на газетной бумаге. Даже копеечный лазерный принтер выдаёт значения лучше.
Самые современные e-ink читалки с DPI >300 только приближаются по детализации к хорошим книгам, что очень легко увидеть, если положить их рядом.
С другой стороны, на больших экранах такой DPI не очень нужен, мы на них не смотрим с расстояния в 30-40 см.
В итоге купил с рук за 45 тыщ монитор Nec EA275UHD… правда еще калибратор пришлось купить, ибо гамма была немного сбита. В итоге получил практически идеал — изображение схоже с маковским, но при этом несколько мягче, глазам спокойнее.
Но повторюсь, этот идеал только для моих глаз. Никого не слушайте, смотрите всё своими глазами. Если много работаете с текстом, перед покупкой смотрите на текст и обращайте внимание не на формальные параметры, а на общее впечатление: легко ли вам смотреть на текст? комфортно? нет давления на глаза? тяжести? Так что всё индивидуально.
перед покупкой смотрите на текстэто да, но обычно в магазинах освещение абсолютно не такое, поэтому «посмотреть перед покупкой» тоже не панацея. У меня в кабинете когда шкаф огромный появился и изменилось освещение пришлось менять настройки моника, чтобы снова глаза не уставали. Я прям удивился, когда понял, в чем дело.
Шрифты действительно выглядят лучше с хинтингом, чем без негоА мне левая часть показалась лучше качеством.
(картинка)
Нет хинтинга (macOS) → есть хинтинг (Windows)
Подумалось тут: может люди, активно топящие за 4к на экранах меньше 40 дюймов сильно пересекаются с людьми, тратящими часы только на первоначально настройку монитора после покупки, причём как монитора под ОС, так и ОС под монитор, а то и калибровки заказывающие при любом апгрейде. С людьми, которые одним взглядом определяют какой шрифт используется в том или ином месте, и те-же часы могут тратить на подбор шрифтов.
Если так, то бесполезно им, по-моему, объяснять что-то таким как я, которые про шрифты знают только то, что они бывают рубленные и с засечками, пропорциональные и моноширные и про шрифты в своём основном инструменте могут только сказать, что они дефолтные. Чем отличается яркость от контрастности не знают и чаще всего оставляют заводские настройки. Я вот подозреваю, что основной шрифт в моей IDE моноширный, но рубленый он или с засечками вспомнить не могу. Отличается ли он от шрифта в терминале — понятия не имею. Наверное, потому что было в анонсе, что джетбрейнс новый шрифт разработала, вряд-ли они его в системе подменили, поэтому там дефолтные убунтовский. Вот вряд ли кто сможет убедить меня купить 4к монитор, чтобы увидеть работу дизайнера шрифтов полностью. Когда-нибудь может куплю 5к, чтобы было, если он будет на процентов на 20 дороже аналогичного 2.5к. А так, если люди первого типа будут доминировать, то скорее работодатель купит мне два 24" 4к без моего ведома, а я и не замечу :)
При этом на работе 2 старых монитора FullHD 23". Разница не прям вау-вау, но в целом домашний комфортнее, глаза меньше устают, все почётче и опять же контент в 4k сочнее.
При покупке 4k домой исходил из того, что в монитор я смотрю много, покупается он надолго, тем более, что это не так дорого, так что почему бы не сделать своим глазам чуть чуть приятно.
Все предложенные мониторы — этот Acer или Asus. То есть быстрые(но это неточно) TN матрицы с наихудшими из всех китайских подходами к «улучшайзингу» цветопередачи(а вот это с гарантией). Хорошая попытка, Acer, но нет.
Н.И.К.О.Г.Д.А.
Искренне ваш, пользователь ужасно низкого разрешения 2.5К на медленном IPS от LG и BENQ
То есть быстрые(но это неточно) TN матрицыпочему сразу TN? Сейчас бывает как минимум 90Гц IPS именно в мониторах (ну а в телеках и выше 120Гц IPS — не то что не новость, а вообще «дела давно минувших дней»). Смотреть надо, времена «быстрое — только TN» давно прошли благодаря телевизорам.
Но есть у меня и ноут с 2к разрешением на 13 дюймах, на маках такое идеально работало, на винде хоть и улучшилась ситуация последние годы, но во многих приложениях жуткое мыло, размывает, поэтому не особо стремлюсь к ретинам для windows, другое дело что на ноутбуках например если ищешь экран с хорошими цветами и яркостью и без кристаллического эффекта, то это обычно автоматом всякие 2к-4к топовые матрицы…
А как разница между 27 и 34? Мне кажется, что 32 — максимум что можно поставить на стол глубиной сантиметров 70
Ну на 27 влезает 1.5 окна, т.е. для одного сильно широко, для двух узко, тем более когда сайт верстаешь под 1920 по ширине… А на 34 тоже самое по высоте, только на треть шире и это как два увадратных монитора поставить, только иногда можно при монтаже видео по ширине таймлайн растянуть, очень удобно, а вечерами фильмы смотреть без полей снизу и сверху, на 27 все равно поля есть… Стол у меня 65 в глубину, монитор на кронштейн прямо к стене прижат почти без отступа от нее...
У меня рабочие мониторы ~95DPI — один 3440x1440 (98mm x 335mm), другой 2560x1440 (597mm x 336mm).
Я использую большие буквы. Во-первых их хорошо видно на расстоянии (а я предпочитаю держать мониторы на расстоянии порядка метра, чтобы не напрягать глаза), во-вторых они довольно хорошо выглядят.
Вот кусок этого комментария в том виде, как я обычно работаю, и 10x зум от него же.
Если смотреть именно на пиксели, а не на то, как мылит ваш редактор, то выглядит это примерно так:
Но эта ошибка навела меня на мысль: внутре ж у неё
Будет примерно вот это:
Что, конечно, неплохо, но если сравнить с технологиями 80х годов на мониторе без «ретины»:
Это «крупный» шрифт Xterm:
То есть всё, что мы получили в результате четверти века «улучшений» — это учетверённую нагрузку на процессор и «радугу» вместо чётких цветов. Ах, ну да: ещё точное соотвествие пропорций шрифты всем феншуям, какие могли в голову придти авторам этих шрифтов.
Оно действительно того стоит? Если вы работаете с текстом, а не с графикой?
Нет, понятно, что дизайнерам, который разрабатывают документы и кому важна точная передача шрифтов и прочего это может быть полезно (хотя если вспомнить что они «верстают», с позволения сказать, в MS Office — то скорее нет), но для программиста?
Я переделывал картинку, и забыл повторно linear выбрать. Посыпаю голову пеплом.
То есть, похоже, в данном конкретном случае жалобы на то, что раньше «трава была зеленее» — вполне объективны.
Если у вас достаточно плохой монитор, дающий достаточно шумную картинку — то мозг отлично её «дорисует» для себя в буквы и всё будет отлично.
А вот если у вас предельно качественный, очень чёткий, монитор… то, внезапно, буквы на нём будут читаться хуже… забавный результат, если честно.
В картографии считается, что минимальный размер объектов, которые можно различить, около 0.1мм.
И, кстати, два монитора FHD гораздо полезнее для программиста и вообще работы с текстами, чем один 4K.
Мне что-то сразу не понравилось в рендеринге на MacBook 15, но не мог понять что. Теперь все стало на свои места. Всегда взгляд цеплялся при нецелочисленном масштабировании, но на макбуке из-за высокого разрешения не было понятно что именно не так.
Настроил сглаживание и масштабирование, картинка стала приятнее. Но все крупнее, на экран влазит чуть меньше. В целом так больше нравится, но надо еще поработать чтобы понять как лучше.
Я бы рекомендовал всем пользователям макбуков попробовать предложенные настройки, есть вероятность, что сделаете работу себе чуть комфортнее.
Два монитора: 27" — 2k, 24" — FullHD. Шрифты выглядят отлично. И под Windows (10, ClearType), и под Linux (Fedora 32, FreeType).
Для вас шрифты выглядят отлично, для кого-то нет. Все просто — что нравится, тем и нужно пользоваться. Но, прежде делать свою оценку, нужно попробовать и то, и то.
Но, прежде делать свою оценку, нужно попробовать и то, и то.Вот только получите вы то, что решили вам впарить маркетологи.
Почему, чёрт побери, когда я набираю текст непосредственно на Хабре у меня буквы появляются с задержкой?
Меня это бесит куда больше, чем какие-то проблемы с тем, что буквы не так сглажены.
И да, я знаю как решить эту проблему: uxterm+vim, copy+paste — и тормозов нет. Одновременно с ними нету и проблем пиксельного сглаживания.
Но почему-то вместо этого мне предложено восторгаться ретиной и вот этим вот ужасном, который я наблюдаю перед собой.
Почему — не подскажите?
Моё мнение: потому что за ретину с меня можно слупить денег, а за uxterm+vim — нельзя. Хотя, возможно, я просто ретроград и ничего не понимаю в эстетике. Всё возможно.
Невозможно только признать что вот эта вот замена — является всегда однозначно полезной и разумной…
Чудес же не бывает: если код написан через задний проход, то он будет тормозить независимо от браузера и железа.
Что-то надо оптимизировать разработчикам хабра. Правда лагает сильно.
Вот только получите вы то, что решили вам впарить маркетологи.
если мне это нравится — не вижу ничего плохого, полезные вещи пусть впаривают.
Почему, чёрт побери, когда я набираю текст непосредственно на Хабре у меня буквы появляются с задержкой?
не знаю, у меня задержек нет.
не знаю, у меня задержек нет.Вы проверяли? Или приучили себя к тому, что когда после нажатия на клавишу буква появляется через полсекунды — то это нормально?
А если вы можете легко приучить себя к тому, что нужно чуть-чуть подождать — то почему не можете привыкнуть в тому, что вот это вот пятно — это и есть буква «ж»? Если уж нормальные растровые шрифты вам не годятся по идеологическим причинам?
если мне это нравится — не вижу ничего плохого, полезные вещи пусть впаривают.Что вам нравится очень сильно зависит от того, что вам говорит реклама и ЛОМы (лидеры общественного мнения) и очень слабо зависит от того, что вам реально приятно и полезно.
Такое появляется иногда. Т.е. часть собеседников в треде не понимает о чём речь, а часть не понимает как этого нельзя не замечать. Закономерности я пока не понял.
Возникает, вроде, когда количество комментариев приближается к 1000 в Хроме. Ну и, вероятно, зависит от того как машина вообще и браузер в фоне нагружены. Не решил ли почитать хабр пока билдится большой проект или разворачивается кластер локально, не открыл ли в соседней вкладке что-то тяжелое, ну или просто сотня вкладок открыта
Вы проверяли? Или приучили себя к тому, что когда после нажатия на клавишу буква появляется через полсекунды — то это нормально?
вау, вы знаете, что у меня текст появляется через полсекунды. Наверно, вам нужно в телепаты идти.
На самом деле, текст у меня появляется практически моментально, при том что я использую bluetoоth-клавиатуру. Задержка, конечно, какая-то есть (она всегда и везде будет), но явно не полсекунды. Измерять ее точнее — извините, не буду, мне это не нужно.
Что вам нравится очень сильно зависит от того, что вам говорит реклама и ЛОМы (лидеры общественного мнения) и очень слабо зависит от того, что вам реально приятно и полезно
да что вы говорите, знаете меня лучше меня самого, наверное? Действительно, мне нравятся IPS-экраны больше, чем TN — это все влияние ЛОМов. Мне нравится интернет 4G больше, чем 2G — это влияние рекламы. Я вас понял. Считаю, дискуссию в этом ключе смысла продолжать нет.
habr.com/ru/post/508824/#comment_21801434
Как это вообще связано? Для начала tonsky — технарь, при чём тут маркетологи?Притом, что вы не можете от них скрыться. Никак.
Вот возьмите хотя бы тот факт, что вы с вами сейчас общаемся не с помощью голого деда или Alpine, а с помощью жуткой поделки, которая тратит ресурсы в никуда, требует, для чётких шрифтов, пресловутой ретины и так далее — по списку.
Потому что вот это вот всё дерьмо — это «модно, стильно, молодёжно», а NNTP — это круто, только сегодня вы в USENET собеседников не найдёте.
Вот я лично хочу и качественную картинку и отсутствие задержки.Вы это имели 20, а то, может, и 30 лет назад (хотя тут спорно: то что вы могли получить отсуствие задержки и качественную картинку в 1990м не значит что много людей это тогда получало).
Проблема только в том, что и то и другое люди по дефолту не требуют, откуда им знать что может быть лучше?Ниоткуда. Они будут требовать того, что, как маркетологи решили — им можно впарить…
А чтобы что-то стало дешёвым, оно должно быть массовым, нужен запрос, сформированная потребность.Нет. Если что-то стало, вдруг, дешёвым, то это что-то вскоре станет объявлено ненужным. Потому что задача маркетологов — деньги зарабывать, а не жизнь вам улучшать.
Вот с разрешением это более менее легко — показал один раз красивую картинку, дал попробовать и привыкнуть и человек уже сам хочет.Не так-то легко, на самом деле. До этого нужно было лет 10-20 внедрять в сознание, что пиксельными шрифтами пользуются только нищеброды.
Потому что с растровыми вы такого эффекта не получите, да и вообще — нет смысла ни в какой ретине, если у вас шрифты попиксельно выверены.
А с задержкой — где у людей возможность сравнить?Было бы желание, а возможности найдутся.
Самое смешное-то заключается в том, что там, где на задержках реально можно заработать (в играх и железе под них) — там их, внезапно, и измерять умеют и продвигать умеют и продажи отличные…
А вот там, где софт создаётся по принципе «возьми дерьмо, заверни в дерьмо, посыпь дерьмом и, главное, фантик „вкусная конфетка“ не забудьте» — там этого нет.
Потому что как только вы заикнётесь о задержках и померяете каковы они где-нибудь в intelliJ Idea или VS Code… так тут же и выяснится, что никакой монитор на 120Hz или 144Hz вы никому не впарите, потому как при задержках в приложениях по полсекунды никакой разницы между 30Hz, 60Hz или 144Hz вам увидеть не суждено.
Нет, отдельные эстеты могут, конечно, купить, чтобы мышка плавнее двигалась… но ясно, что на них кассу не сделать — вот потому и «нету у людей возможности сравнивать».
А если бы и пошли, то тут же нашлись ребята (даже здесь в комментариях есть), которые бы начали говорить «что только маркетологи не придумают, чтобы новое впарить, задержку им надо уменьшить, надо же, я вот в ssh печатаю на другой континент и меня никая задержка не парит».Конечно. Но если бы на этом можно было сделать деньги — то маркетологи бы пробились рано или поздно. Капая на мозги, используя известных людей и так далее.
А если он и есть, то вы же не пойдёте агитировать за уменьшение задержки, потому что «есть urxvt + vim».А вот если денег нет — то всё иначе.
массам можно впарить только какие-то выпуклые, чётко видимые невооружённым взглядом характеристикиЕщё раз: массам можно впарить что угодно вообще. Даже вещи, которых не существует. Посмотрите как прекрасно продаются «органические продукты» или как чудесно AT&T продавал несуществующий у него 5G (а до того 4G… 3G...).
Какая уж тут «видимость взглядом». Но вот впарить массам что-то «хорошее и дешёвое» — нельзя. Ибо нечем платить впаривателям будет.
Так-то понятно, что продать несуществующий товар всё-таки сложнее, чем существующий. Но если на этом можно заработать денег…
Похоже разные продаваны дают такое название по разным критериям.
Например, мне когда-то попадалось, что для США «органик» сводилось к тому, что продукция прошла контроль на содержание вредных веществ вроде ДДТ, пестицидов, нитратов и т.д. Причем нормы при этом были аналогичны ещё советским.
Гарантировать, что это действительно так — не могу.
Даже на 17" на пределе. Уже не комфортно, но терпимо
Дробление пикселя… вы просто получите рождественскую гирлянду
на практике — участвуют красные и зелёные цвета. как итог перелив идёт в сторону красного, заметно это на прямых линиях. ох помню какая это «жопоболь» была на офисниках от Асера, мне тогда три монитора поменяли (одна и та же модель). как итог — у меня проблемы с цветовосприятием, сказали мне коллеги, которые бирюзовый от голубого не могли отличить, а я пол года сидел за монитором, у которого 10-15% текста было красным (не буквы целиком, а только часть, например последняя вертикальная линия в букве «Н»)
В принципе можно ведь и разрешение экрана искусственное поставить в такой же пропорции, и масштабировать будет сам монитор.
Наверное, он делает это хуже. Зато нет проблем со старыми программами, которые не понимают масштабирования (часть элементов интерфейса уезжает за пределы диалогового окна и т.п.)
Или все-таки минусов от изменения разрешения экрана существенно больше, чем от масштабирования?
Мне почему-то кажется, что тексту не особо критично (скорее плюс, что будет точно вмещаться, куда следует), а вот линии всякие от «аппаратного масштабирование монитором» ухудшатся существенно.
Можете про это пояснить?
P.S. Помимо разрешения и размера мне кажется, очень важно, чтобы он по высоте настраивался. Когда выбирал монитор, с удивлением увидел, что большинство подставок такой возможности не предоставляют.
Если честно, большинство этого Hi-Res ничем не отличается от теплых ламповых Hi-Fi компонентов. Толку мало, понту много, хомяки ведутся. Естественно, если смотреть в монитор 30" с расстояния 30см, то там только хайрес, только хардкор!
И как он должен его учитывать? Как я понимаю, при двухкратном масштабировании картинки, условно 1920х1080 нигде в компе нет ни на долю секунды. Есть именно 4к на всех этапах обработки. Какая-нибудь браузерная приблуда с шарингом экрана должна сама понимать какое масштабирование в ОС включено и сама масштабировать 4к в FHD, желательно учитывая, где fullhd растр, а где 4к вектор?
У меня есть еще 27" монитор FullHD — там действительно было пиксели видно и это раздражало. Потом я заметил, что еще и глаза вправо-влево бегают, и понял, что просто монитор слишком близко стоит, т.к. я его там же поставил, где и старый 21". Отодвинул монитор — вопрос снялся. Поэтому и абзац про 30" на 30см.
Про показ экрана — сейчас многие уже учитывают, и просто ограничивают разрешение исходящего видеопотока в самой программулине (Zoom, Teams etc). Там еще веселый промежуточный этап был, когда при подключенном внешнем супер-пупер-HD мониторе пережатие этого самого исходящего видеопотока не могло выполняться на GPU (насколько я знаю, до сих пор такая проблема встречается, зависит от видеокарты и драйвера), и у того, кто включал показ экрана, локально проседал CPU, которому приходилось в реальном времени пережимать 4K :)
Главный посыл моего коммента: если вам лично нравится Hi-Res или Hi-Fi, дело ваше. Но если вы за него агитируете, упоминайте и негативные стороны тоже, и при использоании ответственно относитесь к окружающим (не слушайте музыку на весь район и не шлите скриншоты на 40MB).
Идеа-а-ально :)
текст без ClearType выглядит как дерьмо
текст c ClearType тоже выглядит как дерьмо
У меня:
1) dpi чуть меньше 100 (23" 1920x1080)
2) настройки шрифтов дефолтные, в детали всяких cleartype и сглаживаний не вдавался
Никаких проблем не вижу, правда буквы под лупой не разглядываю в отличие от некоторых.
никогда не променял бы рендеринг текста ретины на едва заметное обновление частоты обновления.
"Обновление частоты обновления..." мда.
Ну если автор играет только в игры на подобие "3 в ряд", то может и так. Однако, в любом FSP разница не будет заметна разве что слепому.
Ну а шрифты — явно не Paint используйте для рисования текстов.
Немного не так.
Mini-LED — это действительно про многозональную подсветку обычных LCD. Это не сильно крутой прорыв, но всё же.
QLED — вообще не про подсветку, а про отдельный слой, преобразующий синюю подсветку в нужный цвет субпикселя.
Большой дисплеи из отдельных светодиодов-пикселей — это просто LED display.
А вот microLED как раз обещает быть "идеалом" — массив мелких неорганических светодиодов-субпикселей, которые выдают идельную контрастность, хорошую яркость и цветопередачу, но при этом не деградируют как OLED.
UPD: В разработке ещё есть active-matrix QLED или QD-LED — практически microLED с диодами на квантовых точках.
Интересно, как чувствуют себя инженеры и ученые, которые решают миллиард проблем, прежде чем условный «микролед» становится реальностью и продаётся на каждом углу, а обыватели только и кричат «фу, нинужный маркетинг, хотят впарить фигню за бешенные деньги»Нормально себя чувствуют. Также точно, как люди, занимающиеся поддержкой каких-нибудь «сайтов с котиками». Или HFT. Понятно, что ни microLED, ни котики, объективно, никому нафиг не нужны, а HFT так даже и вреден… — но инженерные задачи там бывают интересные.
Или наоборот, раз кто-то за это платит, значит кому-то это нужно.
Так что «ничего никому не нужно, а может даже вредно» — это преувеличение. Но да, оно недалеко от истины.
Потому, собственно создание miroLED ничем не отличается от создания какого-нибудь фреймворка: задачи и там и там интересные, а будет ли от этого какой-то прок… заранее предсказать всё равно невозможно.
вообще не про подсветку, а про отдельный слой, преобразующий синюю подсветку в нужный цвет субпикселя.
А я думал, что они на QD создают таки на каждый субпиксель источник своего цвета. Там грубо говоря ширина спектра будет около 6 ТГц у каждой подсветки, т.к. охлаждения хотя бы жидким азотом нет.
Может быть Вы правы, и получилось как-то на поглощении сделать. То есть из спектра «синего» диода светофильтром «синего» субпикселя точно отсекается кусочек около максимума зеленого рецептора и красного, из спектра «зеленого» — возможный хвост в сторону «синего» (хотя скажем при максимум 533 нм наверное возле 633 нм диод очень слабо излучает) и кусочек возле «красного» рецептора.
на каждый субпиксель источник своего цвета
Это как раз вроде пока в разработке.
А то, что давно продаётся под брендом QLED — это слой, который преобразует синий свет в чистый зелёный и красный (с потерями, но меньше, чем в обычных фильтрах).
Впрочем, я знаю ненамного больше, чем в статье на вики.
В этом случае 1080p превращается в допустимый максимум, а я вообще скучаю по традиционному соотношению сторон и плотности пикселей, совпадающей со стандартными параметрами Windows. Я часто бываю на Web-страницах, свёрстанных под низкое (но недостаточно низкое, чтобы просто открыть два окна в разных половинах экрана) горизонтальное разрешение или читаю (а пишу — и не «иногда»!) письма в формате text/plain. С окном почтовика проблема та же (оно узкое, но недостаточно), легче уж в «чистейшем» текстовом видеорежиме — да-да, именно в 80x25 знакомест, — работать.
Для меня у широкого экрана преимущества только два: просмотр фильмов в высоком разрешении без масштабирования и
Кстати, вспоминал я тут как-то о некой распространённой модели «нетбучного» (со схожей диагональю) монитора, у которого входы на все случаи жизни (и HDMI, и VGA, и даже композит). Он ещё в каких-от видео с малинкой и на фан-сайте ZX Evo засветился. Вполне возможно, его я куплю, ибо держать консоль постоянно подключенной к серваку удобнее, а свободных мест у KVM-свитча нет, но на нём и рабочая станция «висит». Но, видимо, он всё равно будет подключен к рабочей станции наряду с текущим FullHD-монитором. И настроен как основной.
Фото на зеркалку. Шрифт Courier New, в RAD Studio 10.2, Win10
старый HD монитор BENQ
Новый 4k монитор с 200% масштабом
1 старый пиксель теперь занимает 4 пикселя, это совсем не тот эффект что описан в статье… почему так?
Комбинация клавиш Win+"+" была дважды нажата, включился magnifier и увеличил всё в 2 раза?
Шрифт Courier New
Вот тут не так. Это старый шрифт с хинтингом под крупную пиксельную сетку.
старый шрифт с хинтингом под крупную пиксельную сеткуА разве это может приводить к тому, что субпиксельное сглаживание растягивается на 4 пиксела?
Больше похоже на то, что приложение сглаживает шрифты, но не умеет в масштабирование и в результате его масштабирует система.
ЗЫ Есть ещё вариант, когда монитор поменяли, а разрешение экрана — нет ))
Да, рассмотрел картинку внимательнее и, похоже, приложение просто не умеет в HiDPI режим.
Приложение — это RAD Studio 10.2 Tokyo, не исключаю конечно что студия не умеет, но эт было бы странно… К сожалению монитор уже вернул, проверять в других прогах не стал поскольку я работаю в студии, как все выглядит в других местах было не важно.
А может кто показать, как должен правильно выглядеть шрифт Courier New 10 в 4k 200%?
Так что, с большой вероятностью, RAD Studio должна уметь.
Но. Решение о том масштабировать вывод приложения или позволить ему самому принимает система на основании информации в манифесте приложения. Есть смысл по-узнавать подробности на профильных разделах Реддита или в техподдержке.
Пара старых статей об масштабировании:
https://habr.com/ru/post/248135/
https://habr.com/ru/post/254211/
Не отличный он. Типичный экранный шрифт дремучих годов, подражающий печатным машинкам, даром что векторный. Чудовищный хинтинг двигающий буквы к сетке, прыгающие начертания букв от изменения размера, позорная отрисовка в больших размерах, когда одного пикселя уже не хватает для толщины штрихов.
Это реликт эпохи, когда пикселей было так мало, что проще было прям по ним рисовать, не пытаясь ничего сглаживать, жертвуя равномерным межбуквенным расстоянием и приятными начертаниями.
Чудовищный хинтинг двигающий буквы к сетке, прыгающие начертания букв от изменения размера, позорная отрисовка в больших размерах
В качестве оправдания вашему кошмару перфекциониста, могу сказать только, что в природе, к счастью, практически нет пользователей, которые способны самостоятельно увидеть эти недостатки, по крайней мере, пока профессиональный дизайнер не скажет «фу-фу-фу», и не покажет пальцем, где :)
То есть не только монитор менять, но и шрифты по всей системе? А приложениями, авторы которых и авторы документов которых указывают конкретный шрифт, типа Ворда невозможно будет пользоваться?
Вкусовщина конечно, но Courier New давно следует сменить на что-то более красивое. Независимо от смены монитора. Этот шрифт хуже читается в мелком размере, по сравнению с многими другими.
Это у меня на hidpi с масштабом 250%, соответственно, если на 100%, то как-то так:
С русскими буквами всё совсем печально. Хотя, вроде, менее отвратительно, чем было. Может обновления винды какие поменяли рендер немного. Год назад (когда купил себе ноут с таким экраном) я прям плакал.
На 250% они оба сверхчеткие, размер пикселя такой, что его не видно. Но из-за тонких линий курьера глаза сильно напрягаются. А с русскими буквами просто ужас — все линии разной толщины.
Хотя, вроде, менее отвратительно, чем было. Может обновления винды какие поменяли рендер немного.Для старых приложений, которые не пересобрали на новых sdk. всё довольно плохо, и действительно немного улучшалось в последних версиях десятки. Но всё равно самое лучшее для этих приложений — перекомпилировать.
Второй совет, выставлять масштабирование кратное 100% так пиксели не будут дробиться при тупом масштабировании.
Ну и вы пробовали менять параметры совместимости?
По поводу кратного масштаба — я понимаю. Но 300% слишком крупно, а 200% — слишком мелко :)
Субпиксельное сглаживание включено — потому что радугу на таком ppi не видно совсем, а вот различие толщин линий и интервалов — немного видно. По крайней мере моими глазами.
На вашем скриншоте радуги нет. Но вот с интервалами всё очень плохо:
Линии стали ещё тоньше, зато каждая чётко по одному пикселю, без цветной мазни.
А то, что текст в прямом смысле нечитабелен — вас не смущает?
К счастью для нас, это легко исправить (по крайней мере, сейчас). Перейдите в раздел Системные настройки → Дисплеи, снимите флажок по умолчанию и выберите вместо этого разрешение 2×:
Под этим абзацом есть скрин на 5 возможных вариантов разрешения. У меня macbook pro 13* 2015, Catalina 10.15.7 (19H15) и только 4 доступных варианта: https://imgur.com/a/yMQAX9v
Это от чего зависит?
Пора обновить ваш монитор