Как стать автором
Обновить

Комментарии 18

Ответ прост:
Подключение к серверу в данном случае происходит по 4 независимым каналам и каждый из этих дисков представляет собой отдельный канал.

— как-то не очевидно (=
я понимаю вы бы хоть объяснили, что там используются virtual switch san
и отказоустойчивость там 2+n или что-то еще
почему мы видим 4 диска вместо одного
потому что 4 разных пути.
Ну да, очевидно, но увы не всем)
к чему эти десять нечитаемых скриншотов?
Подкорректировал. Теперь всё видно.
Почему сервер видит презентованный ему лун, как 4 отдельных диска одинакового объема

По тому, что надо знать хоте немного теории о том, в чём ты в данной момент ковыряешься?

Подключение к серверу в данном случае происходит по 4 независимым каналам и каждый из этих дисков представляет собой отдельный канал.

Если уж вы пишите для чайников — пишите подробно — каждый контроллер подключён к двум независимым SAN коммутаторам, 2х2 = 4 пути. А то — какой канал, откуда 4 и тд. Не логично так писать для начинающих.
Я бы еще посоветовал в документацию глазами залезть. Такие вещи делались мной еще в 2006-2008 году и как-то все очевидно более чем. еще лучше использовать кластерные ФС.
Залезть в документацию — это да, всегда полезно. Но, увы, не мало тех, кому проще сначала написать или позвонить, чем загуглить.
В любом из вариантов я не вижу проблем в Multipath.
Если оно есть в понимании, то просто идем и хотя бы читаем wiki.

Тренироватся сейчас можно на любой вирт машине. iscsci и подключаем к нему клиентов с Multipath. Это помогает понять логику работы, если она вдруг не понятна.

У вас же сильно частный случай, который описан в документации во всех его красках и для win server в том числе.
Если уж вы пишите для чайников — пишите подробно — каждый контроллер подключён к двум независимым SAN коммутаторам


В общем-то, присутствие в схеме san-свитча не обязательно. При подключении к тому же двухпортовому qlogic'у будет, соответственно, 2 линка.
Но вы же пишите
Внешние FC коммутаторы — HP StorageWorks 8/40 Base 24

Да и в случае с блейдами — нет у вас двухпортовой карты как таковой. Ваше утверждение верно в случае классических серверов и если их не больше 2.
Ну, в случае с лезвием будет какой-нибудь двухпортовый лоджик 2562. Хотя его, конечно, без свитча к хранилке не прицепить.

А по серверам — все так. В общем-то, конфиг распространенный: 2 ноды, одна хранилка. Подключение крест-накрест от каждого контроллера хранилки к каждому серваку.
А по серверам — все так. В общем-то, конфиг распространенный: 2 ноды, одна хранилка.
и 4 подключения, если уж писать полностью то писать.
конфиг распространенный: 2 ноды, одна хранилка

простите, но не знаю где это является распространённым конфигом, по этому согласиться не могу. единственно место, где такую конфигурацию я видел — у себя дома :) но и то, через коммутатор всё-равно
Ну, для дома — это очень солидно (: А так, в малом бизнесе таких решений сейчас хватает. Парочка 360х 6-7 поколения с proxmox'ом или esxi и какая-нибудь p2000g3.
Видимо опыт с малым бизнесом у нас то же крайне разный :)
У одного из наших клиентов недавно возник вопрос, который приобрел раннее сервера и HP Blade, а сейчас прикупил HP MSA 2040:

Я бы перефразировал. А то получается, что блейды приобрёл вопрос.
Спасибо, поправил. Действительно, кривенько было.
1) Нарисовали бы хотя бы схему сети. Новичкам из вашей статьи ничего не понятно, откуда 4 диска, зачем 4 пути. А те, кто подключал СХД через Multipath, задаются вопросом, о чем вообще статья.
2) Для linux multipath настроили бы алиасы, а то названия 36001438005dea4600001a000000f0000 очень много дадут понять последующему админу, где там ALLFlash или HDD
3) В следующей статье про Multipath LUN СХД к Windows Server 2008 и Windows Server 2012 хотелось бы увидеть сравнение работы MPIO против MCS, а не просто инструкцию как подключить X к Y.
Клиенту еще повезло, что он увидел всего 4 диска, а не, например, все 16.
Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.