Комментарии 99
На глаза идёт фактически одинаковая картинка, нет единой/универсальной технологии отслеживания глаз(несколько компаний пытаются протолкнуть свои, но поддержка в играх фактически отсутствует), нет поддержки в directX/Vulcan.
Да и на мой взгляд проблема больше упирается в видеокарты. Возможностей ЦП вполне хватает. SLI VR нет, но вроде планируется. Так что посмотрим.
По второй, это вообще мимо. Там речь идёт о одновременном построении картинки на оба глаза.
Ну… в DX12 и SLI нет — там mGPU, а потому реализация этих же фич отдана на откуп самим создателям контента (увы, такова принципиальная позиция авторов DX12). По вулкану пока не готов ответить. А вот синглпасс — штука очень полезная. ЦПУ вместо последовательно-поочерёдной подготовки кадров то для левого, то для правого глаза — готовит их одновременно (явно задействуя ресурс других ядер ЦПУ, иначе пропал бы весь смысл в этой фиче). В теории, ускорение фпс на выходе с ЦПУ (полигоны) возможно до двух раз. И в ряде игр я лично почти такой прирост и наблюдаю (у меня SLI + 3D Vision).
Да, в играх я это тоже заметил. Если в FullHD приходится для комфортной игры ставить антиалиасинг на максимум, то в 4K я его вообще отключаю и не вижу разницы.
Я это к тому, что выше писали, что мол в 4к антиалисинг уже не особо-то и нужен. Потому что значительное увеличение разрешения при незначительном росте физического размера экрана само как антиалиасинг работает — «лесенки» становятся намного менее заметными и без использования АА обработки, просто за счет уменьшения физических(и угловых — для глаза) размеров «ступенек» из которых они состоят.
Аналогично тому, как раньше работали самые качественные SSAA алгоритмы антиалиасинга — обсчитывали(частично) картинку скажем в тех же 4к разрешении, а перед выводом на экран уменьшали разрешение до FHD с которыми работает монитор. Хотя в те времена было больше актуально типа 2048*1536 пересчитываемые при выводе в 1024*768. В общем 4x АА (обсчитывается в 4 раза больше пикселей, чем физически показывается на экране). Это жрало очень много выч. ресурсов, но давало качественный эффект. Потом уже пошли разные ухищрения, чтобы повысить скорости АА (но попутно несколько потеряв в качестве).
Сейчас же на 4к мониторах небольшой диагонали (hi-res) происходит почти тоже самое, только картинка «уменьшается» уже чисто оптически, без пересчета в пониженное разрешение при выводе.
Ну не знаю. Может если сравнивать картинки от игр без какого-то чёткого контура, то разницы и нет, а вот на примере текстов разница обычно хорошо видна. Особенно если текст мелкий. И да, я не имею в виду что мелкий текст это единственное преимущество 8К мониторов. Для проверки можете сделать однопиксельную сетку из черных и белых пикселей, если вы не увидите линии на вашей диагонали при комфортном расстоянии — то да, значит 8К это однозначно переплата.
Задайте этот вопрос производителям телефонов, они туда гораздо быстрее 8к впендюрят.
А без оптики снижающей фокусное расстояние все эти мегапиксели на экране бесполезны, как близко к глазам маленький экран не подноси — без помощи оптики глаз просто не способен сфокусироваться на достаточно близком расстоянии, чтобы их рассмотреть.
В видеокартах и так уже под 16ГГц частоты памяти, а разгон памяти на i9900k с 3 до 3.6 ГГц даёт прирост в пределах 10%.
Интересно, это реальные 16 ггц или маркетинговые 4х4Ггц, например
В видеокартах примерно аналогично, только и частоты уже сейчас намного выше и ширина шины «ширше».
Любой прирост необходим. Сейчас остро не хватает однопоточной производмтельности.
Пример из игр: недавно анонсировали 360гц монитор. В теории он будет полезен уже сейчас, на практике процессоры не вытягивают столько кадров.
Попробуйте ради интереса снизить разрешение и чисто графические эффекты загружающие только видеокарту (типа разных сглаживания и анизотропной фильтрации) и посмотреть сколько кадров интересующая игра выдаст.
1920*1080, 24", зато 360 герц!
Не, их реально видят люди без 1000fps камеры, которая на замедленном повторе покаже, чем монитор А отличается от монитора Б?
А если двойной слепой тест? /irony
Подобный эффект наблюдаю в ванной комнате, где поставил дешевые, мерцающие 100 Гц, светодиодные лампочки.
Так что, сказать что 360Гц монитор нужен всем — нельзя, но про игрокам в шутеры он может оказаться полезен.
Такой эффект можно получить на матрице с достаточно большим временем переключения.
Я хотел сказать, что 360 Гц монитор, возможно, не является необходимостью, но может давать чуть-чуть дополнительного комфорта просто потому что техника стала это позволять (подозреваю, что ценой некоторого ухудшения цветопередачи).
А вот даст ли что-то 360 Гц относительно 144 Гц — сильно сомневаюсь.
А в ванной это «эффект стробоскопа», на нем и 300-500 Гц в принципе заметить можно если достаточно быстро головой успевать крутить (или наоборот очень быстро и резко размахивать источником света перед глазами). Но он проявляется не при быстрой смене картинки, а при резких импульсах яркости.
А в ванной это «эффект стробоскопа», на нем и 300-500 Гц в принципе заметить можно если достаточно быстро головой успевать крутить
Так это типичный сценарий для шутеров.
Но достоверно установлено что в VR шлеме минимально комфортная частота выше чем при игре с монитора(90 против 60).
Вероятно это из за того что в шлеме экран занимает большую часть обзора, тогда как при игре с монитора часть изображения фон который за счет алгоритмов требует меньшее количество ресурсов.
Можно вообще считать, что глаз воспринимает действительность непрерывно, а не дискретно, и передаёт данные в мозг асинхронно — при накоплении определённого количества фотонов в светочувствительной клетке. Поэтому человек будет видеть вспышку, даже если ещё выдержка будет очень короткой.
Хотя зависит от схемы реализации, но для VR нужно либо удвоение горизонтального разрешения (при этом каждый кадр это на самом деле 2 слепленных вместе кадра), либо удвоение частоты кадров, чтобы получить примерно ту же плавность движений.
Не кадр целиком, а его фрагменты при движении объектов в кадре.
Если яркий источник света движется в поле зрения, но при этом не моргает, а имеет примерно постоянную яркость, то эффекта «стробоскопа» вообще не возникает.
Эффект возникает только если он одновременно и быстро движется (или движется глаз относительно него) и одновременно моргает.
Хотя какое-то подобие этого эффекта может быть если яркий источник света в игре движется по экрану с очень большой скоростью. На настолько большой, что его перемещение за время отрисовки 1 кадра существенно превышает его размеры — скажем за 1/10 сек проскакивает весь экран от края до края, а размер объекта при этом небольшой. Тогда глаз может успеть зафиксировать прерывистую траекторию движения состоящую из отдельных, не пресекающихся изображений яркого объекта, вместо непрывного «светового шлейфа» который наблюдался бы если смотреть на аналогичный быстрй яркий объект в реальности не дробящейся на отдельные кадры.
А с полноценной видеокартой нужны выч. мощь и ПСП видеокарты, а не системной памяти.
А контроллеры памяти начиная с Zen2 уехали в отдельный чип и от архитектуры самих ядер теперь не зависят.
Так сейчас получаются «настольные» Райзен с 2х канальной памятью, 4х канальные тредрипепы и 8 канальные Эпики.
При том что чипы с ядрами и кэшем у них одинаковые — меняется только I/O чип ну и количество кристаллов с ядрами.
В принципе можно даже будет тот же Zen2 выпустить с DDR5. Или наоборот Zen4 на DDR4 если зачем-то такая нужда будет.
А сейчас это еще намного проще сделать — достаточно просто разные I/O чипы использовать в каждым из которых контроллер только с одним конкретным типом памяти работает, а не городить универсальный контроллер усложняя его.
Зачем такое может понадобиться? Ну например новые I/O чипы под DDR5 и PCI-E 5.0 будет для AMD уже делать TSMC на 7нм производственном процессе.
А I/O чипы для работы с DDR4 и PCI-E 4.0 будет продолжать выпускать GlobalFoundries на 12нм.
Тем более у AMD c ними долгосрочные контракты с обязательствами заказывать и выкупать не меньше какого-то объема пп пластин в месяц/год, а более тонкие (ниже 12нм) они освоить все-никак не могут. И вроде уже даже официально отказались от таких планов остановившись на 12нм.
Чем их загружать? На одних чипсетах для материнских плат много не загрузишь. Сейчас эти мощности еще дополнительно хорошо загружены производством процессоров на предыдущем Zen+ и вроде бы GPU семейства Polaris тоже у них делаются.
Но все это скоро будет сниматься с производства из-за морального устаревания, а производственные мощности (в т.ч. зарезервированные под AMD) останутся.
Или например поначалу возникнет дефицит и завышенные цены на DDR5 из-за каких-то просчетов у производителей памяти (или опять пожар/наводнение/землятресение). И тогда имеет смысл младшие линейки под DDR4 выпустить в качестве временного решения.
Далеко не факт конечно, что так будет делаться на практике. Просто возможный вариант действий, который теперь в текущей многочиповой компоновке процессоров намного проще реализовать.
Но процессор должен в любом случае оба их содержать, при этом усложняя комутацию. Зачем?Не должен. Контролеры памяти находятся в отдельном чипе. Этот чип раньше назывался северным мостом (North Bridge) и находился на материнской плате, сейчас он находится на одной подложке с процессором и называется I/O die, но его суть та же самая.
И с этим чипом процессор общается по шине Infinity Fabric, той же самой которая используется для работы с L3 кэшем и для обмена данными между ядрами из разных CCX. Которая нужна в любом случае и которая не меняется от того какой контроллер будет в I/O die — DDR4 или DDR5.
Вы объясняете как, но не объясняете «зачем?»
Зачем что? Зачем использовать 12нм — как раз уже написал выше.
Зачем 7нм для DDR5 и PCI-E — частоты этих интерфейсов будут высокие(для DDR5-6400 это например 3.2 ГГц), не факт что на 12нм их вообще получится достичь. А если и получится такой чип будет потреблять довольно много энергии. Вот например в мобильных Zen2 AMD уже отказалась от отдельного 12нм кристалла и i/o часть слепила с CCD чтобы все вместе произвести на 7нм и этим снизить общее потребление энергии. При работе с DDR5 и PCI-E 5 это будет намного более значимый фактор и скорее всего будет комбинация 5нм ядра + 7нм I/O кристалл.
И этим себе костыль на следующие лет 6 поставить? Или потом выпускать несовместимые с старыми сокетами процессоры? Так тогда им придётся с каждым поколением сокеты тасовать, оно им надо?
У них будет zen3 на ddr3 ещё какое-то время. Делать am5 с двумя типами памяти — это вновь по старым граблям. am4 показал, что им это не очень нравится.
Что-то вы не поняли что я писал похоже. Не будет DDR4 на AM5 хотя бы из-за разного количества «ножек» и разной разводки шин памяти. Как и не было DDR2 на AM3, она осталась на AM2/AM2+.
Я о возможности легко поставить новые Zen4 ядра (CCD кристаллы) вместе со старым 12нм I/O кристаллом(от Zen2/Zen3) на старую же подложку(тоже от Zen2/Zen3) и в результате сделать Zen4 процессор под AM4 платформу с DDR4. Вообще без дополнительных затрат на разработку и налаживание производства каких-либо новых чипов — используется уже все готовое.
И поставить те же самые Zen4 ядра вместе с новым 7нм I/O кристаллом на новую подложку устанавливаемую в AM5 c DDR5.
Конечно всегда можно купить память с частотой типа 4200, но она стоит уже далеко не бюджетных денег. Я считаю, что при росте ядер нужно было увеличивать и количество каналов памяти в пользовательском сегменте — тогда можно было бы поставить 4 относительно низкочастотных планки по 8 гигабайт и получить хорошую скорость и нормальный объём.
Обычно они тупо забивают весь доступный объём и начинают спотыкаться.
По поводу задач где понадобятся такие скорости, это уже не домашний сегмент, а работа/бизнес.
Бенчмарки показывают некоторую зависимость производительности игр и от частоты памяти и таймингов (правда больше — от таймингов). А для современных игр даже 15% FPS за счёт значительно более быстрой памяти могут оказаться уже значительными.
В играх разница составляла 1-2 кадра в секунду на 60-70.
TL;DR: кодирование и распаковка — память сильно влияет, рабочие приложения — разброс в пределах погрешности, игры в невысоком разрешении (до fullhd) — изрядно влияет, в разрешении выше 2k — можно пренебречь.
C AMD — немного другая ситуация: с памятью разгоняется и infinity fabric, поэтому 10-15% среднего и до 20% минимального ФПС можно выиграть с памятью в 3600-3733Mhz (по сравнению с 3000) практически во всех приложениях.
Начиная с Zen2 (настольный Ryzen 3xxx и мобильные 4ххх) частота IF выставляется отдельно и от частоты памяти уже не зависит. Заодно и ее ширину в 2 раза увеличили, так что в случае с высокочастотной памятью разница в скорости шины примерно 2 раза, а с низкочастотной и все 3 набирается.
Начиная с Zen2 (настольный Ryzen 3xxx и мобильные 4ххх) частота IF выставляется отдельно и от частоты памяти уже не зависит.
Не совсем так. До частоты памяти 1866 МГц (DDR4-3733) частота IF совпадает с частотой памяти, процесс работы с памятью синхронный. При дальнейшем повышении частоты памяти частота IF отвязывается от памяти и становится равной 1800 МГц. Работа с памятью становится асинхронной, что приводит к ощутимому росту задержек.
Это 3 разных частоты. IF, контроллеров памяти и собственно самой памяти (точнее шины связывающей контроллеры с модулем памяти, т.к. сами чипы на намного меньшей частоте работают).
Всего есть 3 частоты:
FCLK = Fabric Clock (частота работы IF)
UCLK = Unified Memory Controller clock (частота работы контроллера памяти)
MEMCLK = memory clock (частота шины памяти от контроллера до модулей DIMM)
Или на картинке наглядно (вообще там еще и 4я частота есть — lclk но она сейчас нас не интересует):
В Zen/Zen+ все 3 были намертво привязаны и равны друг другу (FCLK = UCLK = MEMCLK) и в результате от частоты памяти зависела не только собственно скорость работы памяти, но и скорость обмена данными между ядрами и другими блоками внутри чипа идущая по IF.
В Zen2 FCLK задается отдельно и независимо и IF может работать асинхронно относительно памяти на своей частоте.
А UCLK либо равен MEMCLK до 1800 мгц включительно (по другим сведениям до 1866 мгц), либо составляет 1/2 от MEMCLK после этой границы.
Но это влияет уже только на задержки при работе с памятью в асинхронном режиме, а не на внутренний обмен данными между ядрами, кэшем и т.д.
P.S.
Хороший пакет тестов по влиянию частоты и таймингов памяти на реальную производительность ПО на Zen2: www.techpowerup.com/review/amd-zen-2-memory-performance-scaling-benchmark/2.html
Кроме игр и еще некоторых программ память влияет очень слабо, а там где влияет важнее обычно оказываются задержки, а не частота и ПСП.
и IF может работать асинхронно относительно памяти на своей частоте… Но это влияет уже только на задержки при работе с памятью в асинхронном режиме
Именно об этом и речь. В асинхронном режиме задержки становятся выше. И, кстати, именно это вы ссылкой и подтверждаете, где 4000 оказывается медленнее, чем 3600. Слюни и сопли, конечно, но сам факт имеет место быть.
В Zen/Zen+ это было действительно так — IF работала всегда на частоте памяти, поэтому прибавка реальной скорости работы от частоты памяти была очень существенной, т.к. одновременно ускорялись и сама память и L3 кэш и пересылка данных между ядрами и например работа с GPU по PCI-E (до которого данные сначала тоже нужно передать по IF).
У Zen2 это уже не так, от частоты памяти ускоряется только память и соответственно только ПО сильно зависящее от работы с памятью. Которого кстати стало заметно меньше, т.к. размеры кэшей выросли в 2 раза и доля обращений к памяти («промахов» кэша) в Zen2 стала меньше.
А выше 3600 МГц память для Zen2 действительно особого смысла не имеет(лучше снизить тайминги если память позволяет). Не только собственно из-за появление 2го асинхронного режима (деления частоты работы контроллеров памяти в 2 раза) ведущего к росту задержек. Но и из-за того, что даже ПСП почти не растет дальше с ростом частоты.
Обычно тут обращают внимание на задержки (становящиеся хуже после 3600 / 3733), но если протестировать ПСП то видно что и она не растет практически:
Чтобы понятно почему так происходит — надо посмотреть на ту же схему компоновки процессора выше, по которой видно что данные из контроллеров памяти дальше к ядрам передаются по IF c передельной ПС 32 байта/такт (256 бит шина в каждом направлении).
А частота IF в текущих процессорах на Zen2 ограничена сверху где-то уровнем 1733-1800 мгц (по умолчанию ЕМНИП 1600 мгц, можно выставлять до 2100 мгц, но на практике выше 1800 мгц уже работает нестабильно или не работает вообще, даже 1800 мгц не всегда стабильны оказываются) что соответствует пиковой пропускной способности 2х канальной DDR4-3600 (~56 ГБ/сек) даже если IF будет загружена только пересылкой данных из памяти в ядра или наоборот. Т.е. не только рост задержек из-за асинхронности, но и просто нехватка ПС на следующем этапе пересылки данных.
Вот для одноканального режима работы памяти очень высокая частота должна давать неплохую прибавку на Zen2. Задержки случайного доступа в этом случае никуда не денутся, но хотя бы все поступающие из памяти данные будут успевать передаваться дальше, а контроллер памяти не будет периодически простаивать ожидая возможности отправить данные дальше.
Игры, которые забивают 4 ядра процессора на 100%, уже существуют.
Системный монитор в окнах нагрузку на ЦП считает довольно криво.
Почему? Обоснуйте.
Ну и это подтверждается бенчмарками, где производительность игры на 6 и 8-ядерниках выше, чем на 4-ядерниках.
Я считаю, что при росте ядер нужно было увеличивать и количество каналов памяти в пользовательском сегменте
Intel в X-серии использует четырёхканальную память. И даже более того, процессоры 10-го поколения обещают быть даже доступными по ценам.
тогда можно было бы поставить 4 относительно низкочастотных планки по 8 гигабайт и получить хорошую скорость и нормальный объём.
Сложно сказать. Во многих задачах больше решает скорость доступа (тайминги), чем пропускная способность.
Intel в X-серии использует четырёхканальную память.
Только материнские платы на них тоже не бюджетные, домашний компьютер золотой получится.
Во многих задачах больше решает скорость доступа (тайминги), чем пропускная способность.
На низкочастотных планках тайминги как раз относительно невелики из коробки. На планку за 2000р с частотой 2400 вижу CL16-CL17. Примерно те же СL16 на моих недорогих Crucialах с частотой 3000 (за эту цену тот же кингстон предлагает 2933 CL19). А количество каналов компенсирует низкую частоту планок.
Понятно, что можно взять какой-нибудь кит на 4000, но комплект из 2 таких планок по 16 гигабайт встаёт в 30 тысяч — это даже дороже 9700К получается.
На низкочастотных планках тайминги как раз относительно невелики из коробки.
Потому что тайминги относительные — они указываются в тактах, а не в наносекундах. По факту их надо переводить в наносекунды, чтобы оценить реальную задержку. Далее стоить учесть, что процессор читает/пишет данные не побайтно, а целыми кэш-линиями, поэтому выполяет команды в burst mode, то есть полная задержка включает в себя ещё и такты на передачу данных.
Ну и ещё тут есть AMD с привязкой частоты памяти к частоте внутренней шины, что заставляет использовать высокочастотную память.
On-Die ECC — это отличные новости! С нынешними объемами памяти пора бы.
AMD Zen4 нацеливаются либо на середину или вторую половину 2021 года, я думал раньше будут принимать DDR5. Intel Sapphire Rapids технологически тоже будут оснащены DDR5 и PCIe5, интересно будут ли у них в 2020г. платформы на PCIe4?
Они ещё летом рассказывали, что 4 версия не нужна и PICE3 хватит всем?
Или это ещё один из приступов Not Invented Here от маркетологов Интел?
PS Всем хватит скоростей 3 версии стандарта, поэтому мы не выпускаем 4, но анонсируем сразу 5, правда, не сейчас, а потом, на 7нм процессорах.
Ну да, к тому времени или ишак помрёт, или патишах /irony
В этом вся и хохма. Хотя сейчас посмотрел, в 2020 наконец будет новая микроархитектура введена: Sunny Cove, с PCIe4.
Недавно их, правда, ударило иронией реальности: ищут среди разработчиков тестировщиков новых PCIe4.0 SSD… да только своей платформы нет: https://www.techspot.com/news/83402-intel-prototyping-pcie-40-ssds-but-needs-amd.html
Сэмплинг Zen2 (серверных) начался ещё зимой прошлого года, а десктопы только зарелизили в середине лета. Я-то прикинул по roadmap +5-6 кварталов после Zen3 — да, поздний 2021 вероятнее. Хм, а раз так, то десктопы может быть сдвинут до презентации CES2022? Хотя тогда рождественские закупки отпадают...
Не знаю как для дома, но для серверов быстрая память даёт много.
Там производительность никогда лишней не бывает, но надо смотреть на цену.
На 85% быстрее — это почти в 6 раз или почти в 2 раза?
Micron пообещала, что новые DDR5 будут на 85% быстрее предшественника