Комментарии 3
Random read 4KB
790K IOPS
А как вы эти цифры получаете, можете подробнее расписать? С 4-х 25G портов у меня больше ~220К не получается снять на этих полках, причем, похоже, упирается именно в таргет - увеличение количества хостов/iscsi сессий и т.п. ничего не дает. У дисковой производительность заведомо избыточна (сейчас вот на рейд-0 из 7 pm1643a смотрю, но и на большем количестве мерял).
2 пула, 8 томов на каждом пуле. 2 физических сервера.
Пропускной способности вполне хватит и на 4x 10GbE, в принципе
Померял разные варианты, у меня выходит, что c SSD дисками производительность по IOPS упирается в порты контроллера, с одного 25G iSCSI порта получается выжать чуть меньше 100К IOPS на 4К блоках (неважно, что там с количеством лунов, инициаторов и т.п.), что неплохо коррелирует с вашими 790К с 8 портов. Причем ограничивает именно сетевой порт полки, ибо схема с двумя путями на разные порты полки с одного порта инициатора работает быстрее, чем если используется только один порт полки и сколько угодно портов на инициаторах.
И это всё если в mpio балансировать пути так, чтобы использовался только контроллер-владелец, при трафике на один пул через оба контроллера растет производительность с одного инициатора (что опять же укладывается в предположение о "медленных" портах), зато упирается примерно в 75К/порт, если нагруженных инициаторов несколько.
Мораль - если QSAN что-то сделает с тюнингом сетевых интерфейсов на своих полках, это будет хорошо. :)
Обзор Unified СХД Qsan серии XCubeNXT