Комментарии 35
мощный пост, все по полочкам. насолько я понимаю в Cloud One подобным образом организован кластер, только СХД не EVA, а NetApp FAS.
0
Насколько я понял: технология примерна такая же. Единственный нюанс, в C3000 подключение к системе хранения не будет конвергентным, т.е. для трафика Ethernet и FC нужны будут свои коммутаторы. В C7000 Мы можем использовать один тип аггрегаторов для создания виртальных профилей блейд-серверов в совокупности с объединением FC и Ethernet в HP Virtual Connect FlexFabric, что дает безусловный выигрыш в больших виртуальных фермах.
+1
увы, да — пока не поддерживается
h18004.www1.hp.com/products/quickspecs/13652_div/13652_div.PDF
h18004.www1.hp.com/products/quickspecs/13652_div/13652_div.PDF
0
Почти один в один то, с чем мне уже почти 3 года приходится работать. Правда у вас только одна корзина рассматривается, а можно было красивей, сразу про 4 корзины.
несколько моментов хотелось бы отметить:
1. Функция Map Vlan Tags все таки больше в том, чтобы самому управлять теггированием трафика на входе/выходе VirtualConnect-а и Blade серверов.
2. Лучше всего показывать пользу Server Profiles через практические примеры. У нас физически «умер» один из блейдов, привезли новый, быстро перекинули диски между старым и новым, вставили обратно, профиль накатил, включили сервер и как будто ничего и не происходило, и даже zoning не надо править.
3. Зачем создавать два vmotion интерфейса если все интерфейсы грубо говоря работают на одном CNA чипе?
4. Мне кажется вы чуток скопировали скриншоты с 4ой версии vSphere, иначе никак не могу объяснить наличие у вас ESX и Service Console порта вместо ESXi :)
5. Можно еще было бы добавить Link Failure Detection (Smart Uplink называется кажется в VirtualConnect)
6. Было бы супер показать как легко и незаметно работает failover, причем на всех уровнях -выдергивание Ethernet провода, FC провода, перегрузка одного из VC модулей, выключение одного из Blade серверов, чтобы показать что и HA отработало на ура.
7. Самое важное для тех кто решится купить это замечательное и надежное решение — обязательно изучайте все Compatibility Lists, от каждого вендора, как hardware так и software. У нас вот к сожалению некоторые торопыжки не учли, что HP VLS 9200 увы не работает с Blade сервером как Backup сервером. Пришлось доставать старый Dl 360 G6.
несколько моментов хотелось бы отметить:
1. Функция Map Vlan Tags все таки больше в том, чтобы самому управлять теггированием трафика на входе/выходе VirtualConnect-а и Blade серверов.
2. Лучше всего показывать пользу Server Profiles через практические примеры. У нас физически «умер» один из блейдов, привезли новый, быстро перекинули диски между старым и новым, вставили обратно, профиль накатил, включили сервер и как будто ничего и не происходило, и даже zoning не надо править.
3. Зачем создавать два vmotion интерфейса если все интерфейсы грубо говоря работают на одном CNA чипе?
4. Мне кажется вы чуток скопировали скриншоты с 4ой версии vSphere, иначе никак не могу объяснить наличие у вас ESX и Service Console порта вместо ESXi :)
5. Можно еще было бы добавить Link Failure Detection (Smart Uplink называется кажется в VirtualConnect)
6. Было бы супер показать как легко и незаметно работает failover, причем на всех уровнях -выдергивание Ethernet провода, FC провода, перегрузка одного из VC модулей, выключение одного из Blade серверов, чтобы показать что и HA отработало на ура.
7. Самое важное для тех кто решится купить это замечательное и надежное решение — обязательно изучайте все Compatibility Lists, от каждого вендора, как hardware так и software. У нас вот к сожалению некоторые торопыжки не учли, что HP VLS 9200 увы не работает с Blade сервером как Backup сервером. Пришлось доставать старый Dl 360 G6.
+1
На уровне работы с заказчиком, да, мы проводим такие испытания со сборкой нескольких корзин в один домен, показываем как отрабатывают модули при выдергивании одного из корзины, отключении проводов. Но на уровне нашего демо центра одновременно иметь 4 корзины — это сложно, т.к. оборудование часто тредоставляется в бесплатное тестирование заказчикам, а то, которое имеется в офисе — предоставляется в удаленные пользование для испытаний.
Из-за подобных сложностей получилось показать работу на минимальном наборе компонентов.
С VMware — да. И 4 и 5 версия не отличается в настройке для кластера, пробовали и на 4 и на 5.
По функциям Virtual Connect, к сожалению, не получилось все рассказать, только то, что относилось к исследованию. Возможно, удастся показать особенности этих систем в отдельном посте.
Из-за подобных сложностей получилось показать работу на минимальном наборе компонентов.
С VMware — да. И 4 и 5 версия не отличается в настройке для кластера, пробовали и на 4 и на 5.
По функциям Virtual Connect, к сожалению, не получилось все рассказать, только то, что относилось к исследованию. Возможно, удастся показать особенности этих систем в отдельном посте.
0
Я имел в виду что не бывает ESX 5.0, есть только ESXi 5.0
По основной настройке не отличаются, но в дизайне кластера есть существенные отличия между 4 и 5 когда строишь кластеры на более чем одной корзине, ибо в 4ке vSphere HA может положить все 5 Primary HA хостов в одну корзину, и если она упадет, то перезапускать виртуальные машины на других корзинах будет некому. Так что с 4кой надо чуть поаккуратней.
вы в принципе и так впихнули в одну статью «невпихуемое». В идеале тут на 3-4 статьи можно было бы разложить.
По основной настройке не отличаются, но в дизайне кластера есть существенные отличия между 4 и 5 когда строишь кластеры на более чем одной корзине, ибо в 4ке vSphere HA может положить все 5 Primary HA хостов в одну корзину, и если она упадет, то перезапускать виртуальные машины на других корзинах будет некому. Так что с 4кой надо чуть поаккуратней.
вы в принципе и так впихнули в одну статью «невпихуемое». В идеале тут на 3-4 статьи можно было бы разложить.
0
«2. Лучше всего показывать пользу Server Profiles через практические примеры. У нас физически «умер» один из блейдов, привезли новый, быстро перекинули диски между старым и новым, вставили обратно, профиль накатил, включили сервер и как будто ничего и не происходило, и даже zoning не надо править. „
если загрузкас SAN то ничегопереставлять не потребуется. всё в профиле VC. Кстати, можно сделать Spare Blade — тогда и ехать стремглав нге потребуется.
если загрузкас SAN то ничегопереставлять не потребуется. всё в профиле VC. Кстати, можно сделать Spare Blade — тогда и ехать стремглав нге потребуется.
0
А блейды в Spare у HP как объединяются, не подскажете? Нужны какие-нибудь дополнительные модули, или что-нибудь в этом роде? У IBM, я знаю, есть т.н. QPI-шина, на которую надевается специальный коннектор, позволяющий объединять блейды. А здесь как?
0
Spare, то есть запасной Blade никак специально не объединяется с кем либо кроме как через HP VirtualConnect модули. То есть процедура Failover-а сервера по сути — миграция профиля внешних подключений на новый сервер, пердусмотрительно установленный в корзину. Конечно при этом снаружи будет виден провал в доступности но не большой, особенно, если у вас есть загрузка с SAN :)
0
Блейды объединяются через бэкплейн блейд-корзины C7000, дополнительные модули не нужны. Блейд настраивается как Spare через модуль Virtual Connect, который видит все блейды корзины также через этот бэкплейн.
QPI шины в семействе серверов HP актуальны для стоечных высокопроизводительных серверов DL980, когда этими линками связываются процессоры двух материнских плат.
QPI шины в семействе серверов HP актуальны для стоечных высокопроизводительных серверов DL980, когда этими линками связываются процессоры двух материнских плат.
0
Да-да, вот я об этом же. Думал, на блейдах такая технология тоже реализована. Жаль, что нет.
0
На блейдах есть решение, но оно пока для Business Critical Systems на процессорах itanium2, когда создаются виртуальные партиции из нескольких физических машин.
Позднее этот функционал будет реализован и для x86 (2014 год), когда будет анонсирован Superdome2 с блейдами на Intel SandyBridge или на процессорах x86 следующего поколения.
Позднее этот функционал будет реализован и для x86 (2014 год), когда будет анонсирован Superdome2 с блейдами на Intel SandyBridge или на процессорах x86 следующего поколения.
+2
Для блейдов такая технология есть у Hitachi. Вот для такой корзины: www.hitachi.eu/blade/bladesymphony2000.html
0
«В случае отказа ведущего сервера его роль автоматически принимает второй, при этом для заказчика доступ к бизнес-приложению не прерывается.»
Такой фразой Вы вводите потенциальных клиентов подобного решения в заблуждение. В случае отказа физического сервера, на котором работала VM, средствами Vmware HA произойдет полный перезапуск виртуальной машины на другом сервере, следовательно доступ к бизнес-приложению для заказчика прервется на время, необходимое для полной загрузки VM и старта всех бизнес-процессов.
Такой фразой Вы вводите потенциальных клиентов подобного решения в заблуждение. В случае отказа физического сервера, на котором работала VM, средствами Vmware HA произойдет полный перезапуск виртуальной машины на другом сервере, следовательно доступ к бизнес-приложению для заказчика прервется на время, необходимое для полной загрузки VM и старта всех бизнес-процессов.
+1
Ну теоретически это все таки возможно с помощью «хромой» FT.
+1
Вы, видимо, забываете о том, что FT накладывает гигантские ограничения на ВМ. Например, 1 vCPU и отсутствие возможности бекапа ВМ. Как Вам, пойдёт под бизнес-критикал приложение?
+2
Я же написал «хромой» FT, что подразумевало кучу ограничений и узкую сферу применений. А что касается бэкапа, то никто не отменял стандартный способ через бэкап агента.
Бизнес-критикал не всегда означает кучу клиентов, иногда может и одного vCPU достаточно.
Бизнес-критикал не всегда означает кучу клиентов, иногда может и одного vCPU достаточно.
+1
Да понятно всё, и про возможность бекапа гостевой ОС, и про вероятность использования маломощной ВМ в качестве бизнес-критикал. Но (сужу по собственному опыту) процент таких ВМ в инфраструктуре обычно минимален. И, зачастую, проще и надёжнее обеспечить отказоустойчивость кластеризацией на уровне ОС или приложений. Я именно об этом. Мы ведь начали с «потенциальных клиентов», а им, согласитесь, вряд ли будет осмысленно покупать дорогостоящее решение, чтобы обеспечить отказоустойчивость нескольких маломощных ВМ. Это можно сделать гораздо проще и дешевле, без покупки SAN и блейдов.
0
Здесь необходимо уточнить: при использовании Fault Tolerance приложение будет доступно в кластере виртуальных машин при выходе из строя одной машины: download3.vmware.com/vdcos/demos/FT_Demo_800x600.html
0
У меня вот какой вопрос возник: HP Virtual Connect FlexFabric в данном случае является некоей заменой vCenter? Если так, то можно чуть подробнее про эту фичу, хотя бы в формате ссылок?
А если нет, то считаю нелишним добавить в статью информацию о том, что прежде, чем собрать HA-кластер, нам нужно установить vCenter Server на ВМ на одной из нод кластера, либо же на физический хост.
А ещё Вы несколько неправы, и технология VMware HA (Вы ведь о ней пишете, не так ли?) работает несколько иначе: в случае аппаратного отказа активной (в данном случае, той, на которой располагается обсуждаемая ВМ в данный момент) ноды кластера доступ к сервису всё же прервётся. Ровно на то время, которое потребуется ВМ чтобы стартовать на другой ноде. Именно стартовать, не мигрировать. Это же высокая доступность, а не отказоустойчивость.
А если нет, то считаю нелишним добавить в статью информацию о том, что прежде, чем собрать HA-кластер, нам нужно установить vCenter Server на ВМ на одной из нод кластера, либо же на физический хост.
А ещё Вы несколько неправы, и технология VMware HA (Вы ведь о ней пишете, не так ли?) работает несколько иначе: в случае аппаратного отказа активной (в данном случае, той, на которой располагается обсуждаемая ВМ в данный момент) ноды кластера доступ к сервису всё же прервётся. Ровно на то время, которое потребуется ВМ чтобы стартовать на другой ноде. Именно стартовать, не мигрировать. Это же высокая доступность, а не отказоустойчивость.
0
HP Virtual Connect работает в дополнении с vCenter.
По кластеру — опирался на общее понимание высокодоступного кластера: Избыточное число узлов, входящих в кластер, гарантирует предоставление сервиса в случае отказа одного или нескольких серверов.
(http://en.wikipedia.org/wiki/Computer_cluster)
В тесте, при использовании Virtual Connect в HA кластере работа приложения не прерывалась (потерян один пинг), это не сказалось на работе тестового приложения.
В данной статье кластер с резервированием active/active не рассматривался, но я поправлю описание, чтобы не вводить в заблуждение, спасибо!
По кластеру — опирался на общее понимание высокодоступного кластера: Избыточное число узлов, входящих в кластер, гарантирует предоставление сервиса в случае отказа одного или нескольких серверов.
(http://en.wikipedia.org/wiki/Computer_cluster)
В тесте, при использовании Virtual Connect в HA кластере работа приложения не прерывалась (потерян один пинг), это не сказалось на работе тестового приложения.
В данной статье кластер с резервированием active/active не рассматривался, но я поправлю описание, чтобы не вводить в заблуждение, спасибо!
0
У Вас, насколько я понял, пинг потерялся при миграции. А Вы попробуйте блейд выдернуть. =)
А про настройку корзины хорошо написано, надеюсь, пригодится. Спасибо.
А про настройку корзины хорошо написано, надеюсь, пригодится. Спасибо.
+1
Видео по настройке HP Virtual Connect я тоже не нашел на youtube, надеюсь, отснятые материалы тоже пригодятся!
0
Про него вот какой вопрос: это отдельный софт, облегчающий управление виртуальной инфраструктурой, или он поставляется вместе с шасси? Вообще, если есть по нему какая-нибудь подборка ссылок — буду признателен.
0
HP Virtual Connect это технология виртуализации блейдов в стойке. Физически — это модули виртуализации, у которых есть свой софт управления (в случае в Virtual Connect FlexFabric это софт Virtual Connect Manager)
Есть несколько ссылок, не обращайте внимание на заголовки, книжки толковые :)
1. HP Virtual connect for dummies. h18004.www1.hp.com/products/blades/virtualconnect/connectfordummies/regForm.html
2. HP Virtual Connect for c-Class BladeSystem Setup and Installation Guide bizsupport1.austin.hp.com/bc/docs/support/SupportManual/c01732252/c01732252.pdf
3. HP Virtual Connect Ethernet Cookbook: Single and Multi Enclosure Domain (Stacked) Scenarios bizsupport2.austin.hp.com/bc/docs/support/SupportManual/c01990371/c01990371.pdf
4. Virtual Connect Home Page h18004.www1.hp.com/products/blades/virtualconnect/index.html
5. Virtual Connect FlexFabric Cookbook bizsupport2.austin.hp.com/bc/docs/support/SupportManual/c02616817/c02616817.pdf
6. HP Virtual Connect with iSCSI Cookbook bizsupport2.austin.hp.com/bc/docs/support/SupportManual/c02533991/c02533991.pdf
7. Converged networks with Fibre Channel over Ethernet and Data Center Bridging bizsupport2.austin.hp.com/bc/docs/support/SupportManual/c02664786/c02664786.pdf
Это основное. Могу прислать больше :).
Есть несколько ссылок, не обращайте внимание на заголовки, книжки толковые :)
1. HP Virtual connect for dummies. h18004.www1.hp.com/products/blades/virtualconnect/connectfordummies/regForm.html
2. HP Virtual Connect for c-Class BladeSystem Setup and Installation Guide bizsupport1.austin.hp.com/bc/docs/support/SupportManual/c01732252/c01732252.pdf
3. HP Virtual Connect Ethernet Cookbook: Single and Multi Enclosure Domain (Stacked) Scenarios bizsupport2.austin.hp.com/bc/docs/support/SupportManual/c01990371/c01990371.pdf
4. Virtual Connect Home Page h18004.www1.hp.com/products/blades/virtualconnect/index.html
5. Virtual Connect FlexFabric Cookbook bizsupport2.austin.hp.com/bc/docs/support/SupportManual/c02616817/c02616817.pdf
6. HP Virtual Connect with iSCSI Cookbook bizsupport2.austin.hp.com/bc/docs/support/SupportManual/c02533991/c02533991.pdf
7. Converged networks with Fibre Channel over Ethernet and Data Center Bridging bizsupport2.austin.hp.com/bc/docs/support/SupportManual/c02664786/c02664786.pdf
Это основное. Могу прислать больше :).
+2
Проще говоря, VirtualConnect это эдакий свитч (Ethernet и FC в одном лице), прослойка между блэйд серверами и вашей сетевой и SAN инфраструктурой.
0
Спасибо за статью.
Единственно не понятно зачем создавать разные networks для HP-MGMT и HTC-77, учитывая, что у A и B одинаковый номер VLAN.
VC ведь позволяет назначать одну network на 2 FlexNIC.
Или на момент демонстрации это было недоступно?
Единственно не понятно зачем создавать разные networks для HP-MGMT и HTC-77, учитывая, что у A и B одинаковый номер VLAN.
VC ведь позволяет назначать одну network на 2 FlexNIC.
1a HP-MGMT
2a HP-MGMT
1c HTC-77
2c HTC-77
1d vMotion
2d vMotion
Или на момент демонстрации это было недоступно?
0
Зарегистрируйтесь на Хабре, чтобы оставить комментарий
HA (High Available) кластер VMware vSphere на блейд-серверах HP BL460c и EVA