Как стать автором
Обновить

Комментарии 16

В оригинальной реализации от Dell геометрические размеры модулей зависели от объема памяти. Что зачастую делало Upgrade просто невозможным, увеличивало зависимость покупателя от выбранной модели устройства, и повышало маржу производителя на девайсы с изначально большим объемом оперативной памяти.
В каком варианте принят стандарт? Одинаковый размер или разный для разных по объему памяти модулей?

Не поленился зарегаться на их чудном сайте. Уроды. Что ещё сказать?
Разные физические размеры закреплены в стандарте!

"Various form factors with X = 78 mm, Y = 29.6to 68 mm"

Compression Attached Memory Module (CAMM2) Common Standard (jedec.org)
( https://www.jedec.org/system/files/docs/JESD318.pdf )

Надо посмотреть, насколько взаимозаменяемы модули большего размера и меньшего. Потому что эти типоразмеры очень напоминают М.2 с ихними 30, 80, 110 и сколько там ещё, а на М.2 грабли вроде никто за это не катит.

C M.2 немного другая ситуация. Те же "короткие" 2242 бывают на такие же объемы, что и "длинные" 2280, ну разве что 4TB я пока не видел в "коротком" варианте..

Здесь зависимость размер модуля - объем памяти явно прописана. Будем наблюдать, но тенденция мне откровенно не нравится.

И ни шагу в сторону разумного - в стандарт нужно добавить процессор у каждого чипа (а лучше больше) (т.е. соответственно команды для управления им), даже если он будет дубовый, лишь бы успевал совершить минимальные действия - выбрать нужные ячейки памяти, отправить их по шине внутри (архитектуру лучше делать матричную или сетевую, а не единая шина на все) минимум арифметических операций и условных операторов.

Главное бутылочное горлышко современных вычислений - это доступ процессора к памяти, большую часть времени мы ждем когда содержимое памяти будет перемещено сначала в процессор а потом обратно.

Чтобы стало иметь смысл вычисления на уровне оперативной памяти - нужен стандарт, нужна поддержка компиляторами.

Сделать это 'самому' (для апологетов сделай сам) не имеет смысла, это будет очередной никому не нужный сопроцессор за миллион денег и никем не поддерживаемый.

а программировать этот процессор кто будет? ни х86 ни ARM под такое не заточены

Оба этих процессов слишком сложные, лучше какой-нибудь упрощённый аналог zx80, можно даже зафиксироваться на только 32битных операциях (я знаю что там были только 16 битные)

Уже есть решения с вычислениями на уровне оперативной памяти. HBM-PIM от Самсунг. Но оно кажется массово пока нигде не применяется

отличный пример более чем 5-кратное улучшение производительности на ватт как минимум в задачах обучения нейронок

массовость придет только после стандартизации, как минимум без нее будет исключительно нишевые и очень дорогие решения

You invented HBM again....

Когда коту делать нечего, он... новые форматы оперативки клепает.

Очень сомнительный формат. Особенно метод крепления. Тот же LPCAMM больше импонирует. Так же возникает вопрос: "А в чем сложность добавить в стандарт SO-DIMM более высокие модули?"

в чем сложность добавить в стандарт SO-DIMM более высокие модули

Количества "ножек" не хватит?

Было бы хорошо получить ответ от знающих. В свое время искал информацию о пределе ёмкости для SO-DIMM. Точного ответа не нашел, но и явного утверждения, что большая ёмкость невозможна тоже. Скорее всего идёт ограничение по физическим размерам планки памяти.

"А в чем сложность добавить в стандарт SO-DIMM более высокие модули?"

Некоторые производители смогли увеличить ёмкость модуля с 32 до 48 гигабайт. Но проблема толщины никуда не девается, особенно, учитывая то, что такие объёмы требуют размещать чипы на обеих сторонах печатной платы.

Ну а 128 гигабайтных модулей даже на десктопах ещё нет.

Я имел в виду, под величением высоты, добавление еще 16 или более чипов на плашку. Про DDR5 48GB в курсе.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий