Pull to refresh

Comments 16

В оригинальной реализации от Dell геометрические размеры модулей зависели от объема памяти. Что зачастую делало Upgrade просто невозможным, увеличивало зависимость покупателя от выбранной модели устройства, и повышало маржу производителя на девайсы с изначально большим объемом оперативной памяти.
В каком варианте принят стандарт? Одинаковый размер или разный для разных по объему памяти модулей?

Надо посмотреть, насколько взаимозаменяемы модули большего размера и меньшего. Потому что эти типоразмеры очень напоминают М.2 с ихними 30, 80, 110 и сколько там ещё, а на М.2 грабли вроде никто за это не катит.

C M.2 немного другая ситуация. Те же "короткие" 2242 бывают на такие же объемы, что и "длинные" 2280, ну разве что 4TB я пока не видел в "коротком" варианте..

Здесь зависимость размер модуля - объем памяти явно прописана. Будем наблюдать, но тенденция мне откровенно не нравится.

И ни шагу в сторону разумного - в стандарт нужно добавить процессор у каждого чипа (а лучше больше) (т.е. соответственно команды для управления им), даже если он будет дубовый, лишь бы успевал совершить минимальные действия - выбрать нужные ячейки памяти, отправить их по шине внутри (архитектуру лучше делать матричную или сетевую, а не единая шина на все) минимум арифметических операций и условных операторов.

Главное бутылочное горлышко современных вычислений - это доступ процессора к памяти, большую часть времени мы ждем когда содержимое памяти будет перемещено сначала в процессор а потом обратно.

Чтобы стало иметь смысл вычисления на уровне оперативной памяти - нужен стандарт, нужна поддержка компиляторами.

Сделать это 'самому' (для апологетов сделай сам) не имеет смысла, это будет очередной никому не нужный сопроцессор за миллион денег и никем не поддерживаемый.

а программировать этот процессор кто будет? ни х86 ни ARM под такое не заточены

Оба этих процессов слишком сложные, лучше какой-нибудь упрощённый аналог zx80, можно даже зафиксироваться на только 32битных операциях (я знаю что там были только 16 битные)

Уже есть решения с вычислениями на уровне оперативной памяти. HBM-PIM от Самсунг. Но оно кажется массово пока нигде не применяется

отличный пример более чем 5-кратное улучшение производительности на ватт как минимум в задачах обучения нейронок

массовость придет только после стандартизации, как минимум без нее будет исключительно нишевые и очень дорогие решения

Когда коту делать нечего, он... новые форматы оперативки клепает.

Очень сомнительный формат. Особенно метод крепления. Тот же LPCAMM больше импонирует. Так же возникает вопрос: "А в чем сложность добавить в стандарт SO-DIMM более высокие модули?"

в чем сложность добавить в стандарт SO-DIMM более высокие модули

Количества "ножек" не хватит?

Было бы хорошо получить ответ от знающих. В свое время искал информацию о пределе ёмкости для SO-DIMM. Точного ответа не нашел, но и явного утверждения, что большая ёмкость невозможна тоже. Скорее всего идёт ограничение по физическим размерам планки памяти.

"А в чем сложность добавить в стандарт SO-DIMM более высокие модули?"

Некоторые производители смогли увеличить ёмкость модуля с 32 до 48 гигабайт. Но проблема толщины никуда не девается, особенно, учитывая то, что такие объёмы требуют размещать чипы на обеих сторонах печатной платы.

Ну а 128 гигабайтных модулей даже на десктопах ещё нет.

Я имел в виду, под величением высоты, добавление еще 16 или более чипов на плашку. Про DDR5 48GB в курсе.

Sign up to leave a comment.