Pull to refresh

Comments 10

Спасибо за статью! Конец, конечно, смазанный получился из-за упоминания о vSAN (да простит меня инженер из VMware, который сидит рядом) и аналогах.

Аналоги Cache Tiering есть и у классических СХД. А говоря о сравнении классических стораджей и SDS стоит вспомнить, что на крупных решениях SDS проигрывает и по цене. Это основной показатель, который их сдерживает. Надо было лучше про SVC какой вспомнить)

А так… Punk’s FC Not Dead! FC пророчат смерть уже очень давно, но переживет он еще очень многих)
Так что самое главное в работе архитектора?
Избегать соблазна сделать заковыресто и мудрено там, где можно сделать просто :)
Насчёт oversubscription

Этот труднопереводимый термин предполагает следующую ситуацию:

У вас есть несколько относительно-медленных потребителей и ограниченное число портов на коммутаторе.

Логично, что вы решаете повесить их на один порт с помощью последовательного соединения, вроде того же каскада. В качестве вариации на тему: подключение нескольких клиентов с каналами 8 Гб к отдельным портам коммутатора; а сам коммутатор подключен к сети с хранилищами недостаточно быстрым линком.

Если скорость порта, к которому подключены все эти устройства, не позволяет одновременно обслужить всех без проседания скорости, то с высокой вероятностью у вас будут проблемы. Закон Мерфи никто не отменял.


Это немного узкий взгляд на термин. И даже неожиданный, я бы сказал.

Изначально под ним имеется ввиду соотношение N-портов (конечных устройств) инициаторов к E-портам (ISL) и таргетам. То есть если мы подключим к одному свичу 10 инициаторов на 10 портов и таргет на 1 порт, получим переподписку 10:1. Если же мы таргет подключим к двум портам, то уже 5:1.
Если на пальцах совсем.
Вендорами рекомендуется не больше 6-7:1
Действительно, стоит дополнить, спасибо! Перебрал с образностью :)
Я бы расширил еще больше и ввел переподписку по уровням — на уровне порта, свича (коммутационной матрицы) и сети (ISL линков)
решение на базе Infiniband стоит значительно дороже того же FC

Из расчёта доллар за гигабит выходит дешевле 10 GbE, но его подключишь не к каждой железке, а FC есть везде.
коммутаторы и маршрутизаторы SAN от Brocade, HP и Cisco

Ну Brocade с Cisco понятно — 2 разных решения, а HPE (кстати, теперь правильно HPE, а не HP) то что? Их коммутаторы всё на тех же Cisco/Brocade построены, как и тот же Dell, IBM/Lenovo, etc. Вообще я бы весь этот абзац переписал, ибо я вот, например, на своей практике встречаю больше Hitachi, нежели NetApp и HPE. Тогда уж лучше написать туда топ-10 вендоров схд.
Все верно, сколько инженеров – столько и мнений, потому как опыт у всех разный и примеры из практики тоже.
Sign up to leave a comment.