Комментарии 14
Это какой-то SAS-over-LAN.
Ну а вообще, интересное направление для развития "Интернета вещей", в котором USB заменили на LAN в качестве общего стандарта.
Протокол IP/TCP...?
Контроллер о Marvel умеет и TCP, и RoCE. Видимо, все зависит от того, что умеет клиент.
TCP - это какой должен быть процессор, чтобы обработать 25 Гбит/сек? Я думал там сырые фреймы
Скорее всего оно с обеих сторон (и инициатор, и таргет) оффлоадится в сетевую карту, так что процессор этого трафика вообще не видит. А ему уже nvmeof подсистема выдает блочные устройства.
Да, тут видится два варианта. Либо на стороне инициатора стоит какой-нить DPU, который сможет оффлоадить весь трафик и хосту прилетит уже готовое nvme устройство на шине pcie. Либо 25Гбит будут забиваться банально количеством инициаторов. Через фабрику то приехать сколько угодно может соединенией, грубо говоря.
У амазона вон во всех хостах стоят их nitro карты. Запросто можно через них маунтить эти диски в виртуалки. Параллельно еще рейд делать из нескольких дисков из разных JBOF полок. А может даже каждый диск поделить на неймспейсы и раздавать на несколько клиентов. Все таки pcie4 ssd отдавать одной виртуалке будет жирновато.
Они предназначены для использования вот в такой системе: www.ingrasys.com/es2000
Туда вставляется 24 таких диска и имеется Ethernet-коммутатор с 12 аплинк-портами по 200 гигабит.
И управляется это все открытой SONiC.
Любопытно, что там делает Atom C3538 — вентиляторами управляет?
И зачем ему при tdp 15 Вт радиатор как у 150-ваттного Xeon?
Внутри этой платформы довольно быстрый свитч, у которого, как это обычно бывает, два чипа. Атом управляет платформой и крутит ОС. В данном случае SONiC. Другой это собственно сам свитч ASIC - тут он от marvel. Он как раз под этим большим радиатором и стоит - все таки 1.6тбит это немало. И таких свитчей там два внутри, у каждого по шесть 200гбит аплинков.
Японские SSD с Ethernet-контроллерами. Как и зачем?