Как стать автором
Обновить

Внедрение DDR5 будет молниеносным: к 2026 году новая память займет 90% рынка

Время на прочтение4 мин
Количество просмотров21K
Всего голосов 48: ↑47 и ↓1+46
Комментарии79

Комментарии 79

Сначала с gpu разберитесь, потом и ddr5 заберем
/ме сижу на ддр2

ага, прям сразу 90%, в лучшем случае будет 25-30%, так как утилизировать производительность ddr4 сложно, а ddr5 прям пока не понятно для чего.

Для процессоров с интегрированной графикой на ура зайдёт. Для встроенных gpu память уде давно узкое место.

утилизировать производительность ddr4
а как же плюс полтора ФПС в очередном шутере?) Ну или изобретут очередную крипту, которую надо майнить в памяти.
Компьютеры используются не только для игр. В рабочих приложениях прирост более заметен, особенно в многопоточной нагрузке, особенно на процессорах с большим количеством ядер. А для игр хватит условного i7 пятилетней давности с 6-ю ядрами и ddr4

p.s. именно поэтому новая память внедряется сначала на серверах, где она нужна сильнее, несмотря на завышенную цену на старте.
p.p.s. У ДДР5 частота и прокускная способность не единственные и не ключевые преимущества. ДДР5 принесёт гораздо более ёмкие планки памяти, что важно для серверов и рабочих станций
Да, но как я понял, мы в этой ветке домашний вариант рассматриваем.
так как утилизировать производительность ddr4 сложно, а ddr5 прям пока не понятно для чего

Я попытался привести аргументы того, почему это утверждение не верно и объяснить для чего она нужна. Также выше писали о том, что она будет очень полезной встройкам, например в тех же ноутбуках.

Ну в посте вроде обсуждалась обычная - пользовательская, если про сервера то там ECC память, но опять же, что бы перейти на ddr5 серверную, нужно менять платформу, нужно останавливать и проводить много работы... ИТОГ: только если новые сервера, ну или очень старые.

а если в пользовательском варианте, то лет через 5 может быть, сейчас многие сидят ещё на ddr3, и не видят смысла перехода.

Очень странно читать такие рассуждения.

1. Частота памяти — это на самом деле просто bandwidth (частота конденсаторной памяти почти не меняется).
2. Игры, заметно сильнее, чем приложения перешли на Cache-Frendly (которое скорее Memory Access Frendly) паттерн разработки.
Грубо говоря «стандартное приложение» — это Array of Structures (Objects), а игра — это Structure of Arrays, где обработка каждого следующего «тика игры» конвейризирована.

Исходя из этого:
а) Скорее игры способны хорошо утилизовать бОльший bandwidth DDR5.
б) Приложения гораздо менее Cache Frendly — соответственно и выигрыша от повышения «частоты — а на самом деле ширины канала» получат меньше.

Хмм, наоборот — чем хуже "cache frendly", тем больше обмен с памятью и ожидание данных, тем сильнее заметен выигрыш от быстрой памяти.

Не преувеличивайте квалификации игроделов. Анмасс они завалятся на вопросе чем
Array of Structures, отличается от Structure of Arrays. По крайней мере мне в рассказывали как в овлкэте приходящих им валили массово.
так как утилизировать производительность ddr4 сложно

Я бы так не сказал. При работе с изображениями можно парой потоков упереться в пропускную способность. А современные процессоры уже 16-ядерные.

так как утилизировать производительность ddr4 сложно
Вся разработка процессоров, по сути — попытка выжать максимум производительности, пока процессор ждет прихода данных из медленной памяти.
НЛО прилетело и опубликовало эту надпись здесь

Новые платы и новые процессоры выпустят с поддержкой только ддр5. И никуда не денешься

НЛО прилетело и опубликовало эту надпись здесь
Эх, опять комп обновлять — хорошо нынешний лет 6 продержался и отлично себя чувствует…

Сижу еще на ddr 3, может еще до ddr 6 протяну

Зачем?
Не зачем, а почему.
Потому что если нет ресурсоемких задач или игрушек, то какой-нибудь Core2Duo вполне себе тащит ютуб, эксель, нотепад++ и HoMM3 одновременно.
Заменить на xeon за $15 — и хром не будет тормозить.

А если все работает, то зачем платить больше?
тащит, но медленно. А сидеть за медленным компом. Только от недостатка денег
AMD A8-3870K (он ещё на сокете FM1) + 8 Gb ОЗУ. В браузере проблемы только при просмотре Ютуба ФуллХД х 60 кадров/сек (нет аппаратной поддержки h.265), частично решаются плагином, который должен переключать на скачивание h.264, потребление памяти у Хрома и Лисы — умеренное (т.к. предиктивное кеширование отключал).

Ощущения медленного компа — нет. Т.е. да, менять вроде бы и пора, но ещё два-три года вполне способен поработать.
ну конечно ощущения медленного компа нет. Вы пересядьте хотя бы на райзен 3600, да с 32гб оперативы, да с хорошим интернетом, да с NVME, а потом обратно.

На актуальном железе не надо искать плагины, уменьшать потребление памяти и тд и тп

Я разницу вижу между райзеном 1600х и 3600. А уж А8…
Дома есть ноут с i3 четвертого поколения. Ну да, работать конечно можно, ток он медленный. А установка софта занимает буквально часы (несмотря на ссд, тупо проц не вывозит)
Не надо рассказывать про «2-3 года вполне способен работать». Работать можно и на более старом железе. Вопрос в скорости этой работы
Вроде по тестам и опыту уже поставивших, в домашнем компе NVME не дает огромных преимуществ перед SATA II
Сата3 же, какой 2. Вы чего. Кто ж с двойкой сравнивать будет. Еще бы с ИДЭ сравнить :)
Комп, где есть одновременно Sata 2 и NVME… Это довольно извращенное техническое решение было бы
Ну да, я с третьим перепутал )

Ссд сата действительно не сильно лучше хдд, а вот средний нвме уже заметно лучше. Но я бы не сказал, что ждать 30 секунд запуска проги вместо 20 напряжно. А ос вообще пофигу за сколько загружается

Главное преимущество SSD — не пропускная способность интерфейса, а низкое время случайного доступа.


Между HDD и SSD, даже SATA-II, разница — пропасть. А вот переход с SATA на NVMe можно заметить только в отдельных задачах, где скорость важнее случайного доступа.

вот не надо врать, я лет 10 пытался перейти на ссд, в результате возвращал диски обратно в магазины. Скорость случайного доступа на глаз незаметна вообще (сейчас по работе сталкиваюсь с ссд. Сата-3 давно везде есть). Разница стала видна только на nvme на [рекламируемой] скорости в районе 3000,
Кстати, восстанавливал убитые хдд на 160-512 ГБт, некоторые оказались быстрее ссд с сата, тестировал не помню какой прогой, почти год назад.

Я 10 лет как раз и перешёл на SSD. Первый SSD был SATA-II, через полгода понял, насколько это круто, и разжился вторым SSD.

У меня дома i7-2600K с DDR-3, ноут с i5-10xxx и на работе Ryzen 3900 с оверклокнутой DDR-4. Разницы вообще не вижу. Есть небольшая разница при работе с IDE или тяжёлыми документами (быстрее отклик): производительность на ядро в современных процессорах и примерно в 1.5-2 раза выше, чем в процессоре 10-летней давности, аналогично со скоростью DDR-4 против DDR-3.


Реальная же разница видна только в серьёзных задач: откомпилировать что-то большое, запустить что-то на просчёт и т.д.


А установка софта занимает буквально часы (несмотря на ссд, тупо проц не вывозит)

Это не проц не вывозит, а антивирус безобразничает.

Никак не могу прокомментировать. Разница в 10% у процессоров заметна на глаз.
ноуты — упираются изначально в теплопакет. Некоторые ноуты даже бенчмарк не могут сделать, перегрев и троттлинг

«производительность на ядро в современных процессорах и примерно в 1.5-2 раза выше, чем в процессоре 10-летней давности, аналогично со скоростью DDR-4 против DDR-3» но разницу Вы не замечаете.
Разница в 10% у процессоров заметна на глаз.
ноуты — упираются изначально в теплопакет

Если это 1-2-поточная нагрузка, то ноутбук оказывается шустрее.


но разницу Вы не замечаете.

Так я же написал, в каких случаях я вижу разницу.


Разница в 10% у процессоров заметна на глаз.

Ещё больше заметна разница в 2-3 раза. Вот при апгрейде видеокарты (а я за 10 лет поменял её 3 раза) разница просто огромна.

Я пересел с и5-3550 на райзен 3800 (3700 не было), 16г ддр3 на 64г ддр4, ускорение заметил. Видео, фото, виртуалки и давно хочется заняться 3д.

С учётом цен и зарплат, я буду обновлять на ддр6, какой-нибудь райзен 10-12 и скорее всего с устаревшей видюхой.

Ну ddr3 это не только CoreDuo, но и какой-нибудь i7 3770k - вполне ещё актуальный

устаревший
ну для офисных задач, ну пойдет да. В игорях (и не только) будет узким местом
А какая версия Sata поддерживается? 2 или 3. А то ведь с двойкой и SSD будет недораскрыт. NVME понятно, не поддерживается
Поддержка SATA 3 зависела от чипсета, а не от процессора.
Были чипсеты для этого сокета (процессора) с поддержкой SATA 3.
NVME вполне себе можно, через плату-переходник в PCIe слот.

В игорях этот проц и прилагающаяся к нему ddr3 не будут узким местом при видеокарте с разумной ценой.

При нынешних ценах, к видеокарте, для которой i3770 будет реально узким местом, новый процессор, с материнкой, памятью и корпусом - насыпят в пакетик как мелкий подарок к покупке.

Вы так пишите, как будто видеокарту нельзя было купить до текущей ситуации

Да нет, не мелкий, средний системник обойдется от 50к без видеокарты. А уж за сколько Вы купите видеокарту — это уже другой вопрос.

i7 4790k тащит норм, проекты билдятся, игрушки играются. Чего действительно не хватает это более 32гб объёма памяти для докера и различных hyper-v виртуалок.

вы можете посмотреть сравнения своего проца и современных. Таких сравнений хватает.
Очевидно, что современные процессоры быстрее на значительное кол-во процентов

Конечно быстрее. Но 3770k или 4790k почти для всего хватает даже сейчас.

От i3-10100 они отстают на 15 и 10% соответственно (на штатных частотах, а К версии брали не для них).

Итого они соответствуют современному i3.

что значит «хватает»?
для игорей не хватает, для рендеринга не хватает
в офисе — в офисах вообще может и пень4 стоять и его «хватает»

Для подавляющего большинства игр хватает.
Ну а рендеринг — довольно узкоспециализированная задача. И не должен ли он делаться на видеокарте?

ну да, за последние 30 лет выпущено не мало игр. разумеется для игр старше 5 лет хватает

И для большинства игр, вышедших в последние 5 лет, тоже хватает. Или вы играми называете только ААА игры с запредельными требованиями?

Дык они «запредельные» для владельца «калькулятора». Для остальных более чем средние
Райзен 1600х (для примера) в мин. требованиях это не запредельно
Из последний игорей требовательных к железу — это Киберпанк. На среднем железе (Райзен 3600 + RX5700) в фуллхд вполне себе соответствовало
Вот у прошлого поколения приставок (где действительно железо за 7 лет успело устареть) — там да, были проблемы (такие, что из магазина для Плойки Киберпанк убрали)
Для грядущего Сталкер2, в минималках райзен 1600х (это разве запредельно?)

я не спорю, просто для информации — в Тень Чернобыля я пытался играть на радеоне 9200 (позже на х1600 вроде) и Дюроне-1200. На задании с Кротом было максимум 0.5 фпс, я игру закрывал 3 минуты. Позже поменял на Атлон-1400 (если правильно помню) и уже можно было играть.
Это всё на минимальных настройках.

ну я на встройке играл в дельта форс какую-то :) а потом, когда сменил видеокарту, выяснилось, что земля другого цвета :)

swat 4 на встройке интела - процентов 30 вообще не отрисовывалось

Для меня запредельные — это значит, что игра в 4K @ 60 fps невозможна на околомаксимальных настройках графики даже на топовой системе. Многие игры опережают своё время и ориентированы не на массовое железо сейчас, а на перспективу. Вспомните тот же Crysis.


По моему опыту, единственная игра, которая на моей системе упиралась в процессор, была Assassin's Creed: Odyssey. Все остальные игры загружали видеокарту на 100%, тогда как загрузка процессора была далека от 100%. В Киберпарк пока не играл — слишком много багов, подожду ещё годик, чтобы не портить впечатление.

«игра в 4K @ 60 fps невозможна на околомаксимальных настройках графики даже на топовой системе.»
4к и 60 фпс это недостижимый идеал. это вообще не массовое железо. Массовое — это 60-75 фпс в фуллхд

Нет сейчас игр с запредельными тех. требования (дураков среди издателей нет, Кризис наглядно показал, что экономически это бессмысленно). Все они (игры) идут вполне нормально на средней системе в фуллхд. Кому надо не фуллхд — покупает видеокарты не среднего уровня

Помимо явного «упиралось» есть еще просадки. Когда вроде средний фпс нормальный, но просадки то тут то там. Именно старые 4-ядерники этим страдают.

Что касается Одиссеи. то она вообще гуманная. Прошел на райзене 1600x и RX 480. Сколько то лет этой видеокарте и сколько сменилось поколений…
Куплена видеокарта 05.10.2016. И фуллхд Одиссея вполне
4к и 60 фпс это недостижимый идеал. это вообще не массовое железо. Массовое — это 60-75 фпс в фуллхд

Мониторы с большой диагональю и разрешением стоят сейчас совсем смешных денег по сравнению с остальным железом.


Что касается Одиссеи. то она вообще гуманная. Прошел на райзене 1600x и RX 480. Сколько то лет этой видеокарте и сколько сменилось поколений…

Да, гуманная по отношению к видеокарте. В моём случае FPS практически не менялся при переключении между 4K и FullHD, а также между максимальными и минимальными настройками. Процессор при этом был загружен на 100%, а встроенный в игру бенчмарк показывал, что на рендеринг кадра расходуется порядка 20 мс CPU time.

«Мониторы с большой диагональю и разрешением стоят сейчас совсем смешных денег по сравнению с остальным железом.»
Смешные для кого? фуллхд -10к. 2к уже 20к. И это довольно бюджетные модели

Ну и мало купить монитор. Надо еще видеокарту покупать классом выше среднего

ну и в целом, какая разница сколько стоит монитор, если есть статистика стима
если есть статистика стима

Да, действительно аргумент.


Правда, согласно той же статистике Стима, даже 2-ядерный процессор — это нормально.

не знаю, что Вы подразумеваете под словом «нормально»
но store.steampowered.com/hwsurvey/cpus
2 ядра это 13 процентов округленно
4 ядра — порядка 40 процентов
6 ядер — порядка 30%
То есть 2 ядра не сказать что самое распространенное

А вот фулл хд это подавляющее преимущество 67.24%, а всякие 4к на уровне стат. погрешности (в сумме и 3% не наберется)
Видимо люди дураки, не знают, что 4к мониторы стоят «смешных денег „

если видео, то видеокарты не умеют кодировать на современных кодеках, там нужно "держать в памяти" несколько кадров подряд. Из опыта — на x265 для нормального качества на видеокарте получилось полтора-два мегабит/сек, на процессоре для такого же визуального качества я смог понизить битрейт до 300-400 килобит с соответствующим уменьшением размера файла. И время 20 минут против 2,5 суток, это да, неприятно.

Для Arma 3 не хватает даже современных, а для CoH2 в которую в основном и играю вроде как хватает. Графикой не занимаюсь, VS и VSC в основном и другие всякие IDE. Только ограничение по объему присутствует

в целом согласен. В игры особо не играю и если бы не видео (полтора часа в адоб премьере с каким-то плагином фильтрации шумов, 80 гигов свопа) и иногда обработка фото на гигабайты (каждая), то мне ихватило бы интела 2012 года (тот самый 3550).

Ну а если не сбудется, можно сказать рынок не оправдал ожидание аналитиков.

Так аналитика - она в первую очередь для производителей, а не покупателей. Чтобы планировали заказы, производства и места на складах. Не оправдается аналитика в худшую сторону - очередное перепроизводство и раннее падение цен, не оправдается в лучшую - дефицит и вот это вот всё что вокруг сейчас повторится.

Тут соль в том, что если что то пошло не так, то это не аналитики ошиблись…

Как раз к появлению какого-нибудь RAMcoin с proof-of-memory, где необходимо результаты расчетов постоянно держать в оперативной памяти. И обычные потребители увидят DDR5 только во сне.

И это очень просто сделать. Расширить какой-нибудь NeoScrypt и всё :)

Найдется особо хитропрошаренный майнер, который будет в памяти держать метаданные, а все расчеты на здоро-овой такой СХД, все равно доставать данные из памяти или с диска для всемирной сети "мгновенно" по сравнению с сетевыми задержками… WAIT, OH SHI-- кажется, это Chia. Не, на памяти майнить не должно взлететь.

Я про распиновку не понял — судя по картинке DDDR5 влезает в разъем DDR4 и наоборот. А так как распиновка поменялась то гарантированно уничтожается и сам модуль и еще что нибудь на плате?
Я как=то давно вставил ddr2 в разъем ddr1, ключ там не совпадал чуть-чуть но я справился, и кончилось все плачевно для материнки. А тут даже и ключ в одном и том же месте.
А почему график прогноза в битах, а не в штуках модулей?
Тайминги! ДАЙТЕ. ХОРОШИЕ. ТАЙМИНГИ.
С внедрением ДДР5 всё будет хуже с таймингами. Да частоты будут выше, и казалось бы, — производительность тоже должна быть выше. НО. НЕТ. ПОТОМУ ЧТО. ТАЙМИНГИ. ДАЙТЕ ХОРОШИЕ ТАЙМИНГИ. И в итоге рост производительности почти никакущий.
Есть даже тесты, процы, которые поддерживают оба типа памяти работают на ддр3 быстрее, потому что доступ к памяти быстрее. К сожалению, пруфы не предоставлю, как я уже писал выше — вроде просто смотришь видосы в ленте, прокручиваешь её, и никогда не знаешь, что потом он в качестве пруфа понадобится, — это я про ютуб. Да и не только ютуб.
Как-то у интел уже были процы с L4 кешем (тоже про них как-то видос смотрел), и вот, там практически не важно было — какая у тебя память стоит. НО. разве сегодня так сделают? Конечно нет, ведь это такой большой бизнес, — продавать «геймерские» модули памяти в дохреналион раз дороже, — столько вендоров этим промышляет — лишить такого куска дохода, — это не камильфо…
АМД анонсировал процессоры, у которых под крышкой будет до 768Мб кэша L4. Наклеено прям на кристалл с ядрами.

Надеюсь с охладом всё ок будет

С таймингами, увы, ничего сделать нельзя с нынешней архитектурой памяти.
Лучше бы количество каналов увеличивали.

Похоже, что речь шла о 4-канальном режиме DDR3 на китайских платах с зионами v3.
А «бутерброды» из таких интелов с L4 на али давненько продаются.
Я полагаю что речь все таки о поколении Skylake потребительском. Там были и платы от брендов с комбинированными слотами ddr3/ddr4. Работать можно было одновременно, разумеется, только с одним типом памяти. И на тот момент когда это было актуально, частоты ddr4 упирались примерно в 2400Mhz(а доступными по цене были и вовсе 2166), а начинались и вовсе с 1866. А ddr3 под закат уже могла вполне себе брать 1866(100%), а ЕМНИП и до 2166 разгоняться в особо удачных случаях(но это не точно). И в те времена разница между ddr3 и ddr4 была действительно не значительной. Вангую что с ddr4/ddr5 произойдет то-же самое. Со старта особого прироста не будет, но как только процессы производства оптимизируют, частоты ddr5 памяти вырастут и вот в таком случае прирост будет заметен. То же самое что и сейчас произошло. ddr3 так и осталась с 2100mhz в пике, а ddr4 уже могет в 4133 и в таких случаях разумеется уделывает ddr3 по всем параметрам(кроме разумеется таймингов. Но при наличии такой высокой частоты — это нивелируется и один фиг доступ к памяти быстрее чем на ddr3).
разве сегодня так сделают? Конечно нет, ведь это такой большой бизнес, — продавать «геймерские» модули памяти в дохреналион раз дороже, — столько вендоров этим промышляет — лишить такого куска дохода, — это не камильфо…
Тут вопрос в скорости. У 4980HQ (тот самый проц с L4 кешем) скорость этого кеша не доставала даже до обычной DDR4 ±3200, не геймерской. Конечно, быстрее актуальной для него DDR3, но все еще хуже обычной, не дорогой DDR4. Поэтому «навалить кеша» — не всегда решение проблемы. Зато вполне может создать новые.

В заголовке одно. На графике - другое. Сравните внимательно темпы с DDR4. И не забываем, что график нарисован по прогнозу продаж, а не долей владения с учётом ранее купленного.

График взят с потолка, неделю назад была статья на хабре что производители прикинули детородный орган к носу и ринулись вместо ДДР5 и ДДР4 печатать ДДР ДВА!
Ребята и правда гоняют китайские ксеоны и утверждают что если комп брать не под апгрейд то ддр3 на тех же процах работает быстрее чем ддр4. А с учётом обстановки в мире (ковид хорошенько тряхнул экономику и последствия только только начинают догонять инерцию) очень сомневаюсь что все побегут за оверпрайсом. Не забываем и ситуацию с криптой и видюшками — нет смысла брать новое железо если в него не получится взять за адекват новую видеокарту.
Так что статья скорее всего вышла из под рук маркетолога, которого перевели за излишнюю назойливость из ХР отдла…
если комп брать не под апгрейд то ддр3 на тех же процах работает быстрее чем ддр4
Это зависит от задач. Какая-то нагрузка чувствительна к задержкам, другая — к пропускной способности.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий