Как стать автором
Обновить

Комментарии 21

Извиняюсь, но 5G быстрее LPDDR4 примерно так же, как миллион долларов больше скорости света, т.к та «всего 300 тысяч».

А меня интересует другое. Вот пропускная способность 6,4 Гбит/с. А это как? Как она реально может быть достигнута? Даже если представить, что мы просто считываем память байт за байтом, то часть времени все равно придется прерваться на «перезарядку». Ну а если мы еще к разным участкам памяти обращаемся, то к этому нужно еще добавить время на смену ячейки. Какая реальная-то получится скорость произвольного доступа?
Я не знаю можно ли распространять эти цифры на ситуацию в целом, но Xilinx для своего контроллера памяти DDR3/DDR4 говорит, что при последовательной записи/чтении утилизация составляет порядка 90% от максимальной пропускной способности (тех самых 6,4), для случайных адресов — 25%.
В общем, важно время ответа (на чтение или на запись), а не скорость. Потому что в основном приходится обращаться к разным участкам памяти, т.к. одновременно работает несколько приложений. Вот и интересно, на сколько изменилось это время для разных моделей памяти.
Для этого есть такие параметры как тайминг. Во времена SDRAM интересовал лишь один из них CAS Latency, который означал сколько тактов надо ждать после ввода команды прежде чем появятся данные на выходе.

Для PC133 были CL3 у медленных и CL2 у быстрых модулей, т.е. самое маленькое время это (1/133)*2=0,015 мкс или 15 нс.

А теперь глянем на DDR4, что стоит у меня (учтём только CL): 19 тактов при частоте 1333 МГц (DDR4-2666). Посчитаем: (1/1333)*19=0,0142 мкс или 14,2 нс.

Ну и где прорыв то? А прорыв в другом. Физику конденсаторов не обмануть, но можно оптимизировать передачу данных и интерфейс. У DDR4 выборка из матрицы шире (зависит от организации матрицы и соотношения между разрядностью RAS и CAS), а значит она в одном пакете выдаст больше данных. И можно интерливом сунуть команду следующего обращения и пока она будет исполняться забирать большой кусок данных из внутреннего буфера от предыдущего обращения.

В общем, все улучшения xDRAM памяти идут по пути оптимизации обслуживающих массив ячеек систем. Но есть и действительно прорывные решения. Я об GDDR6X, которая хранит не 2 а 4 уровня в одной ячейке. И тут, если предположить идеальность компаратора, мы имеем не только уплотнение обьёма в 2 раза но и удвоение скорости в те же 2 раза, т.к. с одной ячейки считываются сразу 2 бита за одну операцию.
Можно много памяти считать, только куда ее деть? Кеша в проце мало. Так что пора (уже давно) вычисления в память переносить.
Так ведь суть не в «куда считать». Кеш как класс появился только из-за того, что скорость работы памяти сильно отстала от скорости ядра. Если её подтянуть до скорости ядра, то кеш автоматом перестаёт быть нужным. Это всегда компромисс между «хочу» и «могу».
Скорость обработки и скорость передачи данных измеряются в одних величинах. Другое дело, что 5G вряд ли может передавать данные быстрее, чем LPDDR4 их обрабатывать, там 10 гигабит теоретический максимум, а LPDDR4x ближе к 35 гигабайт/сек может выдавать.
Более развёрнуто: 6400 Мбит/с у LPDDR5 и 2400 Мбит/с у DDR4 — НЕ скорости чтения/записи массива целиком (в таком случае DDR4 была бы медленнее SATA дисков с их 6 Гбит/с, но мы на практике знаем что это совсем не так), а скорость в одиночной линии данных, коих будет параллельно 16/32/64/128. Вон и в статье есть расчёт скорости в МБайт/с для dual channel DDR4 и quad channel LPDDR5, и в обоих случаях скорости порядка десятков ГБайт/с.
SDRAM
DDR
Да что же это такое!

DDR не является "не SDRAM": оно и называется DDR потому Double Data Rate по сравнению с "не-DDR" SDRAM и правильно называть DDR SDRAM (ну ладно, можно один раз так назвать, а потом добавить что-то вроде «для краткости далее будем называть DDR»)

P.S. дочитал до
Стоит сказать, что DDR — это не замена SDRAM, а просто её частный случай. Поэтому полное название стандарта DDR SDRAM
Верно, DDR это лишь интерфейс, который пришел на смену SDR. А ещё был RAMBUS. :)
Напряжение измеряется в вольтах, а не ваттах.

А вот кстати зря, ибо 0.5 вольта и 0.6 вольта совершенно ничего не говорят о потреблении без указания токов.

Начнём с того, что новый стандарт стал экономичнее на 20%: 0,5 В против 0,6 В.

Это некомпетентность или предумышленная попытка ввести в заблуждение?

Не сто́ит искать злой умысел там, где происходящее можно объяснить глупостью («бритва Хэнлона»).

С 1993 по 2000 года миром правил стандарт SDRAM
Не с 1993, а где-то так с 1997, с появлением Pentium-II. И не по 2000, а поболее, материнок на том же i845 было как грязи.
i845 появился не от хорошей жизни, а от патентного тролля по имени RAMBUS =)
Например, в флеш-памяти, которая используется в смартфонах, картах, памяти, SSD дисках и так далее — данные хранятся в CTR-ячейках, то есть ячейках с ловушкой заряда. Эти ловушки буквально способны запирать заряд и хранить в себе годами


Так вроде ж ячейка деградирует, если годами на ней хранится информация?

Ячейка деградирует от стирания/записи, а заряд утекает через барьер (тоже деградирует) благодаря туннельному эффекту.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий