Pull to refresh

Comments 15

Интересно, означает ли это что быстрее появиться стандарт тардерболт 5, который будет шустрее чем текущий тб 4.

В Thunderbolt 5, судя по утечкам, применяется очень схожий набор технологий.

Какая-то не здоровая тенденция, когда новые стандарты и поколения выходят все чаще и чаще. Купил в магазине новое супер-пупер устройство, пока от кассы шел на выход уже сменилось два поколения этих устройств. К чему эта гонка - не понятно.

UFO just landed and posted this here

Облака, HPC. Все эти стандарты идут именно оттуда. Для некоторых новых стандартов, которые базируются на pcie, 5.0 просто минимум, с которого можно начинать что-то делать. Потребтельский рынок здесь по остаточному принципу. Ему и 4.0 то по сути не нужен был, а 5.0 не факт, что смогут осилить толком производители плат и процессоров. Как раз это все очень здоровая ситуация, когда идет конвеерная разработка. Один стандарт используется, другой внедряется, третий тестируется, четвертый планируется.

UFO just landed and posted this here

Это не новый подход и совсем не то, что решает CXL. Доступ ссд к памяти это обычное DMA, для чего pcie годился с самого начала. DRAMless ссд здесь тем более не при чем. Это просто способ сэкономить в том сегменете рынка, где не нужны высокие скорости, за счет упрощения контроллера и выноса части его функций в ОС хоста. Для этого не нужны ни высокие скорости как у 4.0, ни новые стандарты. Все топовые решения в любом случае содержат набортную память и избавляться от нее никто не собирается. В том же серверном сегменте вообще по другому пути идут, чтобы решить проблему переусложненного контроллера ссд.

Плойки, боксы, RTX IO, DirectStorage - это все прогресс в софте в первую очередь. Железо было на это способно давным давно. Только сейчас появились API, чтобы разработчики могли этим пользоваться.

Я очень сомневаюсь, что CXL будет в потребильских системах. Он там никому не нужен. В первую очередь его юзкейс это обмен данными в гетерогенных вычислениях с соблюдение когерентности кэшей (и это самое главное) и расширение оперативной памяти за пределы того, что могут дать DIMM слоты. В APU это и так происходит через проприетарные протоколы, а CXL в первую очередь делается для ускорителей на FPGA и ASIC, чтобы оптимизировать теже ML юзкейсы, и использования pcie устройств как модулей памяти. Ни то, ни другое в бытовых системах не нужно.

NVLink никуда пока не денется. CXL в первую очередь предназначен для обмена хост-ускоритель или хост-модуль памяти. NVLink же это P2P обмен для кластеризации GPU. Сможет ли CXL закрыть этот юзкейс неизвестно, я в стандарте прямо указания подобного не помню, может пропустил. По крайней мере скоростей таких он не достигает, а тот же интел все равно на базе CXL сделал свой проприетарный интерконнект для конкуренции с NVLink и их А100.

UFO just landed and posted this here

Я два пути пока приметил в противоположные стороны.

С одной стороны, ZNS диски. Тут пошли по пути упрощения, но вместо переноса это на ОС все сложные механизмы просто удалены. Маппинг физических в логические страницы либо сильно проще, либо вообще отсутствует. Сборки мусора нет. Вместо этого хосту дается просто "голый" флеш, разбитый на зоны, в которые можно писать только последовательно, двигая курсор вперед. Чтобы курсор передвинуть назад надо очищать всю зону полностью. Радикально, зато никакого write-amplification и всех сложных механизмов, которые с ним борются. По имеющимся графикам показывали, что прирост огромный можно получить. Тут конечно проблема, что обычные ФС в таких условиях не работают. Это в первую очередь для софта - базы данных, объектные хранилища, которые собственно так и работают внутри и им ФС полноценная только помеха. Ceph, RocksDB, LevelDB на это идеально лягут. Или WAL какой-нить реляционной базы.

С другой, computational storage. Тут решили еще сильнее усложнить контроллер, засунув в него вычислительную часть. Т.е. вместо размазывания сложности по цепочке хост-ссд, всю сложность сдвинули еще дальше в ссд. Сжатие, шифрование, дедупликация - эти вещи можно делать эффективнее, если у тебя прямой низкоуровневый доступ к хранилищу. Конечно юзкейсов там вагон и ограничены они только фантазией. Кто-то хочет сразу ML запускать или поднимать поисковые системы прямо внутри диска.

Все это бурно развивается. Облачные провайдеры очень активно толкают стандарты хранилищ. Сейчас же еще меняется формфактор и коннектор. В том числе, чтобы быть сразу готовыми к CXL и будущим скоростям PCIe.

DRAMless ссд здесь тем более не при чем. Это просто способ сэкономить в том сегменете рынка, где не нужны высокие скорости, за счет упрощения контроллера и выноса части его функций в ОС хоста

а причём тут ОС? ЕМНИП она участвует только в выделении памяти при загрузке, а дальнейшие обращения контроллера SSD к выделенной в RAM буферу идут прозрачно для ОС.

Ну да, тут я преувеличил участие ОС в этом всем.

Эта история вообще не про пользователей.

Это про сервера. Грядет через пару лет сетевой стандарт 800Гб/сек, ему нужен pcie x16 6.0

Устройства хранения на nmve развиваются бешенными темпами, сейчас в коробку влезает 108 устройств. Хотя бы 2ГБ на ссд уже 216 ГБсек, что 1696 Гбит/сек, уже нужно 2 порта по 800 ГБит

Всякие ГПУ карты хотят тем больше тем лучше

Мы пишем десктопный софт с ускорением расчётов на видеокартах, и пропускная способность шины (и RAM) — узкое место. PCI-E 4.0 даёт реальный прирост производительности приложения.

Майнеры детектед! Ату их!

Sign up to leave a comment.