Pull to refresh

Про HPE Synergy, часть II – Шасси и сервера

Reading time7 min
Views9.9K
Продолжение, начало было тут. Отдельно хочу обратить внимание на программку «HPE Synergy Planning Tool».

В продолжении анонсированного цикла статей про HPE Synergy начнем с описания шасси, или, как пишет сам производитель — «The HPE Synergy 12000 Frame is a key element of HPE Synergy».

Общий вид шасси HPE Synergy 12000 Frame


Видно, что дисковый модуль D3940 можно установить в отсеки 1 и 2 (зона 1), или, например, 3 и 4 (зона 2), а в отсеки 2 и 3 – нельзя, потому что разные зоны. Горизонтальные перегородки, видимо, можно демонтировать для установки полноразмерных блейд-серверов, но каким образом(самостоятельно или нет) – не понятно, этот вопрос так же планирую задать производителю при случае. Интересно смотрятся ручки для монтажа в стойку.

На данный момент нет каких-либо нормальных фотографий шасси, а в информационных материалах качество не очень хорошее, поэтому пришлось немного почитить – нарисовать шасси с помощью стенсилсов Visio, взятых на сайте VisioCafe.

Шасси HPE Synergy 12000 Frame, вид спереди:



На передней панели видно – вверху в отсек Appliance Bay 1 установлен Composer (русская документация называет его Компоновщик, дословный перевод — Композитор (автор-составитель), но имхо лучше оставить Composer) и, судя по всему, в этот отсек для основного (или первого) шасси всегда устанавливается только он. В Appliance Bay 2 установлен Image Streamer (а вот его русская документация называет Раздатчик образов. Немедленно вспоминается Андрей Рублев и суровые лики православных святых. Правильный по смыслу перевод — потоковый загрузчик операционных систем). Вместо Image Streamer может быть установлен второй Composer для случая одного шасси. В случае, если шасси больше одного (два и более) HPE рекомендует ставить Composer’ы по разным шасси. Про эти устройства планирую отдельный обзор. Рядом с ними информационный отсек – вытягивается за верхнюю часть движением вниз.

Далее, отсеки для установки блейд-серверов делятся на зоны по два отсека в зоне. Желтые цифры показывают расположение зон, красные цифры – отсеки. В отсеки 1 и 2, то есть целиком в зону №1, установлен дисковый модуль HPE Synergy D3940 на 40 дисков, далее – различные типы серверов:

  • в отсек 7 – установлен двухдисковый и двухпроцессорный Synergy (далее — SY) 480 Gen9;
  • в отсек 8 – установлен бездисковый (sic!) и двухпроцессорный SY 480 Gen9;
  • в отсеки 3 и 9 – четырехдисковый и четырехпроцессорный SY 660 Gen9;
  • в отсеки 4 и 10 – двухдисковый и двухпроцессорный SY 620 Gen9 – по центру видно заглушку разъема стекирования;
  • в отсеки 5-6-11-12 – восьмидисковый и четырехпроцессорный SY 680 Gen9, фактически это две штуки SY 660 Gen9.

Справа видно Synergy Console – консоль для подключения ПК/ноутбука и управления шасси. На консоли 3 порта — DisplayPort v1.2, USB 2.0 и RJ-45. Сзади консоль подключается к Frame Link Module (далее – FLM), который разберу отдельно вместе с Composer и Image Streamer. По всей видимости, консоль ставится при наличии одного шасси, когда шасси больше одного – в отсеки сзади устанавливается FLM, к которому также можно подключаться для управления шасси, также FLM разных шасси стекируются друг с другом. Документация говорит, что подключения идентичны по функционалу, хотя к FLM предлагают подключаться с использованием «simplet VNC services(free VNC software may be downloaded from the internet)» по адресу «192.168.10.1:5900».



Пока писал, нашел таблицу с вариантами нумерации отсеков для различных вариантов расположения оборудования:


Сзади все достаточно стандартно – 6 отсеков для коммутаторов (их рассмотрим отдельно), 10 вентиляторов, шасси идет по умолчанию со всеми десятью, и в документации написано, что это количество не может быть другим, 6 блоков питания – тут есть возможность заказа любого количества, но производитель настоятельно рекомендует воспользоваться программой HPE PowerAdvisor для расчета планируемой потребляемой мощности. Насколько я могу судить, «HPE Synergy Planning Tool», ссылку на которую я дал выше, также содержит в себе этот функционал.



Слева от блока питания №1 – также информация на ярлыке, который вытягивается на себя. Таким образом, минимальная конфигурация шасси:

  • конструктив шасси;
  • десять вентиляторов;
  • два блока питания;
  • один интерконнект-модуль;
  • один FLM;
  • один Composer.

Перейдем к серверам. Для начала общая информация. У каждого сервера есть отдельный информационный ярлык, который содержит:

  • product serial number
  • iLO information
  • QR code that points to mobile-friendly documentation – это улыбнуло.

Самый простой блейд-сервер — HPE Synergy 480 Gen9. Он существует в двух вариантах: с корзинкой на два диска SFF или без корзинки вообще. Разница в стоимости около 100 USD по прайс-листу. Надо отметить, что даже в варианте «без дисков» в блейд-сервер можно поставить SD-карту до 32 Гб, или USB-флешку 8 Гб (тут без вариантов).


Поддерживаемые процессоры: до двух штук на сервер Xeon E5-26xx v4, от Xeon E5-2603 v4 (1.7GHz/6-core/15MB/85W) до E5-2699 v4 (2.2GHz/22-core/55MB/145W).
Чипсет: Intel C610 Series Chipset.
Память: по 12 слотов для установки на процессор, итого – 24 слота, максимум – 1,5 Тб (24 штуки по 64 Gb DDR4 LRDIMM).
Для установки карт коммутации доступно 3 отсека для мезонинных карт.
Сеть: два конвергентных (т.е. поддерживают разные типы сетей) адаптера — SY 3820C 10/20Gb (FCoE+Ethernet) и SY 2820C 10/20Gb (FCoE или iSCSI+Ethernet). Так же – два SAN адаптера – SY 3830C и SY 3530C – 16 Gb FC. Подробно описать коммутацию на бекплейне планируется в статье про интерконнект, сейчас можно сказать, что от каждой карты идет по 4 линии до коммутатора, что в сумме может выдать 40 Gbit/s по формуле 20(up)+20(down).
Диски: поддерживают диски SFF и uFF. Дисков uFF(читается как микро форм-фактор) я не встречал, начал искать и оказалось, что это два m.2 диска, установленные в коробку размером с SFF диск, к коробке крепятся салазки для установки в SFF-отсек. Максимально доступно:

  • SFF SAS – 4.0 Tb как 2 x 2.0 Tb;
  • SFF SATA — 4.0 Tb как 2 x 2.0 Tb;
  • SFF SAS SSD — 7.68 Tb как 2 x 3.84 Tb;
  • SFF SATA SSD — 3.2 Tb как 2 x 1.6 Tb;
  • SFF NVMe SSD — 4.0 Tb как 2 x 2.0 Tb;
  • uFF SATA SSD — 1.36 Tb как 4 x 340 Gb.

Дисковые контроллеры:

  • HPE Smart Array P240nr Controller with 1GB Flash-Backed Write Cache (FBWC), RAID 0, 1, 10, 5, 6, and 1 ADM (два диска в RAID1 и рядом один как hot-spare);
  • HPE Smart Array P542D Controller with 2GB Flash-Backed Write Cache (FBWC), RAID 0, 1, 10, 5, 50, 6, 60, 1 ADM, and 10 ADM – этот контроллер требуется для подключения к дисковому модулю SY D3940;
  • HPE H240nr Smart HBA — RAID 0, 1, 10, 5 – если устанавливаешь в сервер 4 uFF-диска;
  • HPE B140i (chipset SATA).

Опции: можно поставить одну видеокарту NVIDIA Tesla M6 Mezzanine GPU – 8 Gb DDR5 видеопамяти, до 16 пользователей виртуальных рабочих столов. Между прочим, тот еще «кипятильник» — до 100W, фактически, как еще один процессор.

Поддерживаемые операционные системы:

  • Microsoft Windows Server;
  • Microsoft Hyper-V Server;
  • Red Hat Enterprise Linux (RHEL);
  • SUSE Linux Enterprise Server (SLES);
  • VMware ESXi.

Почему-то в списке нет Citrix XenServer 6.5, хотя его поддержка заявлена для NVIDIA Tesla M6. Кроме всего этого есть: один внешний USB 3.0 порт, один внутренний USB 3.0 порт, один внутренний порт для microSD-карт. Управление по iLO или через Composer со встроенным функционалом OneView.

В целом, рабочая лошадка и пригоден для реализации графических VDI-ферм. Аналог среди стоечных серверов – HPE ProLiant DL380 Gen9.

Далее идет HPE Synergy 620 Gen9.


Поддерживаемые процессоры: до двух штук на сервер, но процессоры уже серьезнее — Xeon E7-48xx v4 и E7-88xx v4, включая Xeon E7-8890 v4 (2.2GHz/24-core/60MB/165W).
Чипсет: Intel C602J Series Chipset.
Память: по 24 слота для установки на процессор, итого – 48 слотов, максимум – 3,0 Тб (48 штук по 64 Gb DDR4 LRDIMM). Для установки карт коммутации доступно 5 отсеков для мезонинных карт.
Сеть: без изменений относительно SY 480 G9.
Диски: поддерживают диски SFF и uFF. Как ни странно, тоже поддерживает только два слота SFF-дисков (см. левую часть сервера на картинке). Максимально доступно:

  • SFF SAS – 4.0 Tb как 2 x 2.0 Tb;
  • SFF SATA — 4.0 Tb как 2 x 2.0 Tb;
  • SFF SAS SSD — 7.68 Tb как 2 x 3.84 Tb;
  • SFF SATA SSD — 3.2 Tb как 2 x 1.6 Tb;
  • SFF NVMe SSD — 4.0 Tb как 2 x 2.0 Tb;
  • uFF SATA SSD — 1.36 Tb как 4 x 340 Gb.

Дисковые контроллеры: без изменений.
Опции: нет.
Поддерживаемые операционные системы: без изменений.
Кроме всего этого есть: один внешний USB 2.0 порт, один внутренний USB 2.0 порт (так написано в документации, подозреваю, что ошибка, и на самом деле порты 3.0), один внутренний порт для microSD-карт.

Управление по iLO или через Composer со встроенным функционалом OneView. Ближайший аналог среди стоечных серверов – HPE ProLiant DL560 Gen9, но стоечный сервер не поддерживает Xeon’ы E7-88xx v4.

Переходим к тяжелой артиллерии — HPE Synergy 660 Gen9.



Поддерживаемые процессоры: до четырех штук (три нельзя) на сервер Xeon E7-46xx v4 (в SY 620 G9 – 48xx, важно не перепутать), включая E5-4669 v4 (2.2GHz/22-core/55MB/135W).
Чипсет: Intel C610 Series Chipset (как и в SY 480 G9).
Память: по 12 слотов для установки на процессор, итого – 48 слотов, максимум – 3,0 Тб (48 штук по 64 Gb DDR4 LRDIMM). Для установки карт коммутации доступно 6 отсеков для мезонинных карт.
Сеть: без изменений.
Диски: поддерживают диски SFF и uFF. Максимально доступно:

  • SFF SAS – 8.0 Tb как 4 x 2.0 Tb;
  • SFF SATA — 8.0 Tb как 4 x 2.0 Tb;
  • SFF SAS SSD — 15.36 Tb как 4 x 3.84 Tb;
  • SFF SATA SSD — 6.4 Tb как 4 x 1.6 Tb;
  • SFF NVMe SSD — 8.0 Tb как 4 x 2.0 Tb;
  • uFF SATA SSD — 2.72 Tb как 8 x 340 Gb.

Дисковые контроллеры: без изменений.
Опции: нет.
Поддерживаемые операционные системы: без изменений.
Порты и управление: без изменений. Ближайший аналог среди стоечных серверов – HPE ProLiant DL580 Gen9, но уже блейд-сервер не поддерживает Xeon’ы E7-88xx v4.

Ну и финальный блейд-сервер — HPE Synergy 680 Gen9. Видно, что он «склеен» из двух SY 620 Gen9, все характеристики SY 680 Gen9 равны удвоенным характеристикам SY 620 Gen9.


Поддерживаемые процессоры: до 4 штук на сервер, Xeon E7-48xx v4 и E7-88xx v4.
Чипсет: Intel C602J Series Chipset.
Память: по 24 слота для установки на процессор, итого – 96 слотов, максимум – 6,0 Тб (96 штук по 64 Gb DDR4 LRDIMM). Для установки карт коммутации доступно 10 отсеков для мезонинных карт.
Сеть: без изменений относительно SY 480 G9.
Диски: поддерживают диски SFF и uFF. Максимально доступно:

  • SFF SAS – 8.0 Tb как 4 x 2.0 Tb;
  • SFF SATA — 8.0 Tb как 4 x 2.0 Tb;
  • SFF SAS SSD — 15.36 Tb как 4 x 3.84 Tb;
  • SFF SATA SSD — 6.4 Tb как 4 x 1.6 Tb;
  • SFF NVMe SSD — 8.0 Tb как 4 x 2.0 Tb;
  • uFF SATA SSD — 2.72 Tb как 8 x 340 Gb.

Дисковые контроллеры: без изменений.
Опции: нет.
Поддерживаемые операционные системы: без изменений.
Кроме всего этого есть: один внешний USB 2.0 порт, один внутренний USB 2.0 порт (информация по USB-портам 2.0 от SY 620 G9 повторена в документах по SY 680 G9, видимо, это еще один вопрос вендору), один внутренний порт для microSD-карт. Управление по iLO или через Composer со встроенным функционалом OneView.

Фактически, этот блейд-сервер почти полный аналог стоечного сервера HPE ProLiant DL580 Gen9 (не является аналогом по количеству внутренних дисков и PCI-E слотов). Интересно сравнить, что в два шасси высотой 10U (итого 20U) можно установить 6 серверов SY680 Gen9, тогда как та же вычислительная мощность в виде шести стоечных серверов ProLiant DL580 Gen9 займет уже 24U (т.е. плотность блейд-серверов в этом случае выше на 20%).

Итого:

  • SY 480 Gen9 – сервер для инфраструктурных задач или VDI/графических VDI;
  • SY 620 Gen9 и SY 680 Gen9 – сервера для СУБД или приложений, работающих с большими объемами памяти (OLAP?);
  • SY 660 Gen9 – сервер для бизнес-приложений или высокоплотной виртуализации инфраструктурных серверов.

На этом закончим описание шасси и вычислительных модулей. В следующей части планируется рассмотреть дисковый модуль и, возможно, SAS коммутаторы.

P.S. — нашел в одном из документов, «Five steps to building a Composable Infrastructure with HPE Synergy», хорошую картинку, обобщающую описание:

Tags:
Hubs:
Total votes 16: ↑16 and ↓0+16
Comments6

Articles