Как стать автором
Обновить
298.13

Мир. Труд. Майпу. Или как мы тестировали китайскую СХД

Уровень сложностиСредний
Время на прочтение9 мин
Количество просмотров9.1K

Чем заменить на санкционном безрыбье системы хранения данных Dell, HPE, Huawei и других покинувших нас вендоров? Мы уже долго изучаем этот вопрос и протестировали большинство доступных альтернатив enterprise-уровня.

И что думаете? Кажется, нашли приемлемое решение — СХД китайского вендора Maipu с привычными функциями, перспективными возможностями и не только. Мы привезли его в лабораторию и первыми на российском рынке протестировали — срочно делимся впечатлениями и результатами.

Мы регулярно проводим эксперименты: тесты серверов, систем хранения данных и разнообразного инфраструктурного софта — это обычная практика. У нас накопленная база знаний и приличный опыт. Большую часть железа покупаем сами, что-то получаем от вендоров, тестируем и формируем демо-фонд, который предлагаем заказчикам.

Купили Maipu посмотреть что к чему

С этими китайцами мы уже знакомы и довольно тесно работали в 2022 году в части телекоммуникационного оборудования. Реализовали несколько проектов — вендор неплохо себя проявил, заказчикам и коллегам зашло. В результате в этом году число наших совместных проектов кратно выросло.

И вот мы решили попробовать СХД Maipu, которые в Китае используют многие госструктуры и банки, местный аналог РЖД и всякие крупные предприятия. 

Особенно вдохновляло, что функциональное описание модели обещало все привычные возможности: поддержку репликации: как в режиме active-active метрокластера, так и просто синхронную/асинхронную, снепшоты, клоны, QoS и т. д. Вот она — полноценная mid-range СХД, похоже, единственная на рынке с официальной поставкой и прямой гарантией от производителя.

Гибридное хранилище MPS5520G2 Storage
Гибридное хранилище MPS5520G2 Storage

Мы приобрели в лабу пару Maipu MPS5520G2 в исполнении all-flash. Они относятся к самым ходовым системам хранения, которые закрывают потребности большинства компаний. Эта модель СХД предлагает хорошую производительность и функциональность и подходит для решения распространенных бизнес-задач. 

Смотрим, что представляет собой MPS5520G2 на бумаге:  

  • Шасси высотой 4U, в которое установлены два контроллера (SPs), 2 блока питания, 2 FAN-модуля, 2 батарейных модуля, 24 слота под диски 3.5/2.5, 6 IO-модулей (по 3 на контроллер);

  • У каждого контроллера встроены 3 интерфейса Ethernet 1 Гбит/с и 4 интерфейса Ethernet 10 Гбит/с. Дополнительные порты добавляются IO-модулями 10/25/40/100 Gb/s Ethernet, 8/16/32gb/s FC, 10Gb/s FCoE и др.; 

  • Вертикально расширяется дисковыми полками SAS до 3200 дисков на пару контроллеров;

  • Горизонтально расширяется до 32 контроллеров;

  • Поддерживает метрокластер (symmetric dual-active), репликацию, зеркалирование, снэпшоты;

  • Поддерживает кэш объемом до 1,5 ТБ, что повышает производительность хранилища;

  • Использует открытое программное обеспечение для управления хранением данных и открытый API-интерфейс.

Вообще у Maipu большая линейка хранилищ - гибридные/флеш модели от простого начального уровня до производительных и хорошо масштабируемых, а также отдельная линейка all-NVMe систем с окончанием “MACH” в названии моделей - полный список привели в таблицах ниже. Мы заказали не самую базовую, а более продвинутую модель, которую сочли самой универсальной, подходящей под потребности большинства клиентов и стали потирая руки ждать заказанное железо. 

Модели Hybrid/Flash

Model 

MPS2500G2

MPS3000G2-24D

MPS5520G2

MPS5580G2

MPS7000G2

Product forms

dual-control, disk-control integrated

dual-control, disk-control integrated

dual-control, disk-control integrated

dual-control, disk-control separated

dual-control, disk-control separated

Max. controllers

16

24

32

32

48

Dual-control Max. cache

128GB

256GB

1.5TB

1.5TB

3TB

Max. disks

1200/dual-control

1600/dual-control

3200/dual-control

3200/dual-control

3200/dual-control

Hard disk drive

SSD, SAS, NL-SAS, SATA

NVMe, SSD, SAS, NL-SAS, SATA

Dual-control

IO module

2

4

6

22

16

Dual-control max. host interfaces

34

42

54

80

72

Front-end supporting

FC, iSCSI

FC, iSCSI, NVMe over FC, NVMe over RoCE

Front-end port type

1/10/25/40/100G  Ethernet module, 8/16/32G FC module, 10G FCoE module

Expansion cabinet type

4U24

2U25

4U24

2U25

2U25(NVMe)

Модели All-NVMe

Model 

MPS5500G2

-Mach

MPS7000G2

-Mach

Product forms

dual-control,

disk-control integrated

dual-control, 

disk-control integrated

Max. controllers

32

48

Dual-control Max. cache

1.5TB

3TB

Max. disks

25/dual-control

(expansible)

50/dual-control

Hard disk drive

NVMe

Dual-control

IO module

4

4

Dual-control max. host interfaces

32

36

Front-end supporting

FC, iSCSI, NVMe over FC, NVMe over RoCE

Front-end port type

1/10/25/40/100G  Ethernet module, 8/16/32G FC module, 10G FCoE module

Expansion cabinet type

2U25(NVMe)                                                            no

Ну как же без сюрприза

Ура, приехало! Инсталляция довольно простая, без особенностей — поставили в стойку, подключили и запустили. Опытный инженер, который видел эту СХД впервые, справился с монтажом и базовой настройкой примерно за два часа.

1. Контроллер. 2. Планки кэш-памяти контроллеров с радиатором процессора. 3. IO-модули 10 и 16 Гбит.   4. М.2 модуль для загрузки системы.
1. Контроллер. 2. Планки кэш-памяти контроллеров с радиатором процессора. 3. IO-модули 10 и 16 Гбит. 4. М.2 модуль для загрузки системы.

Выглядит вполне себе как enterprise-решение снаружи и внутри. Первое впечатление подпортила лишь нерабочая батарея — непонятно, то ли заводской брак, то ли пострадала при транспортировке, но осадочек остался.

Та самая батарея (сверху) - устанавливается внутрь единого батарейного и FAN-модуля
Та самая батарея (сверху) - устанавливается внутрь единого батарейного и FAN-модуля
Вид батарейного и FAN-модуля спереди. Он же отвечает за охлаждение прилегающего к нему контроллера
Вид батарейного и FAN-модуля спереди. Он же отвечает за охлаждение прилегающего к нему контроллера

Зато сразу проверили, как работает сервис производителя. Нет худа без добра, как говорится.

Спойлер

Поддержка самая что ни на есть официальная и реально работает— еще расскажем об этом отдельно. Это важный момент: бывает, привезешь железо, и хорошо, если все работает и не приходится сталкиваться с гарантийной заменой. И можно сильно приуныть от того, как все долго и трудно. Нам же сразу подтвердили, что батарея неисправна — посмотрели по логам, проанализировали телеметрию и отправили новую запчасть.

Первоначальная настройка СХД тоже не вызвала особых проблем. User guide на английском - это типовое. Однако, в нем есть только базовые вещи. Что-то посложней, например Rest API, описано только на китайском, но нам не привыкать.

Ну а что? Понятная инструкция!
Ну а что? Понятная инструкция!

В ней вполне реально разобраться, если прогнать через онлайн-переводчик. С более глубокими вопросами мы уже обращаемся к вендору, а он дает развернутый ответ. По крайней мере, старается.

Что там приехало такое интересное

У Maipu в линейке есть модели all flash, которые полностью построены на NVMe, а к нам на тесты попал hybrid flash storage, система хранения данных, которая поддерживает NVMe, SSD, SAS, NL-SAS, SATA.  Аппаратно это — центральный контроллер, в него можно установить 24 диска на 3,5 и 2,5 дюйма, плюс дополнительные дисковые полки.

Конфигурация СХД: 

  • MPS5520G2-AF storage controller dual controllers;

  • 16Gb-FC-IO modules, 4 штуки (I/O Модуль 16GB FC 4 портовый);

  • 10GE-iSCSI-IO module, 2 штуки (I/O Модуль 10GB ethernet  4 портовый);

  • Полка расширения 25 дисков SFF 2.5” , 1 штука;

  • Диски SAS SSD 3.84TB, 25 штук;

  • Кэш 512 гб  на массив (256 на контроллер);

  • 1GbE Base-T встроенные порты, 4 штуки;

  • 1GbE Base-T management port встроенные порты, 2 штуки;

  • 10 GbE SFP+ , 8 штук .

Мы установили в лаборатории сразу пару таких систем (кодовые имена Biba и Boba), чтобы проверить их функциональность вместе и по отдельности.

Biba в левом верхнем углу, Boba — в нижнем (да, мы их различаем), справа вверху SSD из полки, справа внизу — 1 из 4 дисков на которых живет операционная система массива
Biba в левом верхнем углу, Boba — в нижнем (да, мы их различаем), справа вверху SSD из полки, справа внизу — 1 из 4 дисков на которых живет операционная система массива

Тестовый стенд выглядел так: 

  • 4 x лезвия dell poweredge m620 в каждом из которых:

    • 2 x Intel(R) Xeon(R) CPU E5-2660 0 @ 2.20GHz;

    • RAM 128 GB;

  • 2 x SAN-коммутатора FC 8 GB.

Получилась так называемая симметричная Dual-Active схема. Ее смысл в том, чтобы взять пару СХД, установить в разных ЦОД и резервировать данные. Получается катастрофоустойчивая инфраструктура — даже если целый дата-центр выйдет из строя, то сохранность информации обеспечит вторая СХД. Все живет и растянуто на двух ЦОД и переключается автоматически. При этом инфраструктура, приложения и пользователи даже не заметят сбоя. В общем, классический метрокластер.

А что система может в реальности?

Мы уже сталкивались с тем, что у продукции некоторых производителей в реальности работают не все заявленные функции, либо они работают, но не совсем так, как ожидаешь. Поэтому хотели лично проверить, что с Maipu MPS5520G2 все в порядке. Только это позволяет убедиться нам в том, что решение можно использовать в проектах и предлагать заказчикам. 

У нас своя многократно обкатанная методика тестирования, которая состоит из последовательных блоков: 

  1. Административные тесты.

  2. Тесты конфигурации дисковой подсистемы.

  3. Тестирование интеграции с VMware.

  4. Проверка работы в SSH.

  5. Тестирование работы Rest API.

  6. Проверка работы при одиночном сбое аппаратных компонентов.

  7. Тестирование производительности.

В каждом блоке — множество шагов, которые нужно пройти и зафиксировать результаты.

Например, функциональные тесты административного теста выглядят примерно так: войти в GUI → подключиться к массиву с помощью браузера → попасть в интерфейс управления → зафиксировать 3 варианта результата: что хорошего/возможности и идеи доработки/что плохого, нерабочего. 

Ну что, погнали? Посмотрим, на что способна эта малышка.​​

Проверили производительность синтетическими тестами

Синтетические тестирования мы сначала проводили на платформе виртуализации VMware 6.7 с помощью HCIBench на стенде, о котором я рассказывал выше.

Во всех случаях тестирования мы использовали следующие параметры пула:

  • 24 диска SAS SSD 3.84 TB;

  • размер Cell 1 GB;

  • в основу пула легли популярные рейды, которые используются у заказчиков;

  • политика spare равна двум дискам или пространству равному двум дискам.

Выбирая профили нагрузки, ориентировались на типовые кейсы, с которыми сталкиваемся чаще всего. Также решили сравнить будет ли разница в производительности между CRAID-P и CRAID-V. Посмотрев на тесты, можно сделать вывод, что в данном случае результаты CRAID-P и CRAID-V идентичные. 

Проверили отказоустойчивость

На этом этапе мы по полной нарушаем инструкцию по эксплуатации. Прямо во время работы вырубаем питание, выдергиваем жесткие диски и всячески издеваемся над СХД. В результате одновременное извлечение блоков питания контроллеров и полок, самих контроллеров, I/O модулей, SAS и FC-кабелей ожидаемо не повлияло на доступность данных. Отметили только небольшую просадку на время перестроения путей.

Метрокластер тоже не вызвал никаких вопросов и отработал ожидаемо.

Все хорошо, но есть нюансы

В целом тесты дали положительные результаты — вся заявленная функциональность отрабатывает корректно. Массив прост и понятен в администрировании: очевидно, куда нужно нажать, если хочешь, например, сделать снапшот, или еще что-то. Все очень наглядно.

Но есть и некоторые странности. Например, веб-интерфейс, похоже, позиционируется, как основное средство управление СХД. Подключение через командную строку как бы есть, но используется только специалистами техподдержки. Документации по ней как таковой нет и команды при помощи tab-ов не подбираются. 

Что из технических особенностей: 

  • У контролеров нет централизованного управления. Чтобы изменить настройки, нужно ходить непосредственно на каждый узел.

  • Еще заявлена мультитенантность, но по факту она пока не реализована. 

  • Очень широкая политика настройки прав пользователей: прямо 33 параметра, которыми можно разграничить права на разных уровнях. 

  • Есть проблема с заведением массива в Zabbix. Сейчас обсуждаем с вендором эту тему. Пока нам предоставили шаблон, но он довольно сырой, в нем нет триггеров и графиков, чтобы все заработало, придется сделать их самостоятельно.

Контакты с вендором как отдельный повод для позитива

Взаимодействие с техподдержкой вендора у нас пока складывается исключительно положительное. Помимо гарантийной замены батареи на старте, уже в процессе тестирования мы вместе решали  вопросы по конфигурации СХД. И вот у нас есть чатик в Telegram, куда мы кидаем вопросы. А вендор сразу отвечает или идет уточнять эту информацию у разработчиков.

Была выявлена проблема с настройкой репликационных линков, которые связывают два массива. Как мы сработали: отправляли конфигурацию вендору, он говорил да-да, нет-нет. Однажды даже они подключались удаленно, чтобы что-то проверить, и после проверки дали итоговую конфигурацию, сказали, как подключить — и все работает. 

Для нас это необычный кейс. Ведь обычно как: получил систему и все вопросы задаешь через службу сервисной поддержки, которым присваивается низкий уровень критичности и жди ответа в течение недели. А здесь фактически живое общение с сотрудниками компании, которые быстро и спокойно решают вопросы, даже каверзные.

Что в сухом остатке

После всех тестов и впечатлений резюме по Maipu MPS5520G2 Storage у нас такое: 

  • Это СХД, которую можно привезти легально (с точки зрения вендора) и получить полную поддержку производителя. Совсем как в старые добрые времена. 

  • Все тесты система выдержала достойно — мы планируем активно использовать ее в клиентских проектах. 

  • Пока это самое функциональное решение среди официально доступных, что мы нашли на рынке. С привычными техническими характеристиками, позволяющими закрывать основные задачи бизнеса.

  • Решение подойдет enterprise-компаниям, которым нужна система хранения данных, и они планируют модернизировать или расширить существующую инфраструктуру. 

И в конце вишенка на торте – мы собрали в удобную табличку сравнительный анализ функционала Maipu c решениями российских и ушедших иностранных вендоров.

А дополнительным бонусом вы можете запросить полную сравнительную таблицу по имеющимся решениям у меня - AlZotov@k2.tech

Теги:
Хабы:
Всего голосов 28: ↑28 и ↓0+28
Комментарии6

Публикации

Информация

Сайт
k2.tech
Дата регистрации
Численность
Неизвестно
Местоположение
Россия