Как стать автором
Обновить

Комментарии 20

С простотой использования у Cisco частенько всё от «плохо» до «две недели собственный сапорт не разобрался».
Вероятно, Вы имеете в виду какие-то другие продукты Cisco. Именно простота использования HyperFlex, на наш взгляд, является одной из его самых сильных черт. Что касается оперативной работы техподдержки, то конечно ситуации бывают разные. Если с этим иногда и возникают проблемы, мы их мониторим и решаем. Так как HyperFlex — это инфраструктура для хранения данных, часто критичных для бизнеса, мы уделяем большое внимание качеству поддержки этих систем, нашим внутренним требованиям и стандартам и по времени реакции, и по времени устранения неисправности.
Я имею в виду UCS. В прошлом Proof of Concept нам пришлось закупать Dell по причине потраченых двух рабочих недель на телефоне с поддержкой которая не разобралась что причиной проблемы была настройка BIOS. Мы разочаровались тогда сильно, ведь переход на другую серверную систему в планы не входил. Надеюсь я ошибаюсь с HyperFlex и несомненно протестирую его когда прийдёт время обновлений через год полтора если use case под него появится, но после того инцидента с поддержкой осадочек остался. Как и невероятная куча проблем и бессонных ночей которые мне доставил UCS за последние лет пять.
Подозреваю, что в тестировании на гиперфлексе был включен writeback-кэш, а также активность и производительность были оценены на том уровне нагруженности, с которым остальные производители заведомо не справлялись (140 ВМ). Был бы интересен показатель на 70 и 35 ВМ при тех же аппаратных нагрузках — что-то мне подсказывает, что в этом случае победа гиперфлекса окажется не настолько бесспорной. Например, согласно исследованию Cult of Anarchy по WS2016 S2D, высокая нагрузка на диски дает огромную нагрузку на процессоры, но синтетические тесты дисковой подсистемы на сопоставимом оборудовании (правда, там были NVMe-диски, а не SAS SSD) показывали вполне обгоняющие 600k IOPS при 12 ВМ. Кроме того, настоящий хайлоад на таких маленьких кластерах не живет (в смысле количества нод), а для обслуживания корпоративной нагрузки небольшого бизнеса, на который, похоже, ориентируется гиперфлекс, может хватить даже Nutanix CE кластера.

И последнее: Непонятно, какая в тесте использовалась сетевая подсистема — здесь на слайдах 10 Гбит/с, в документе 10 Гбайт/с (т.е. или 2х40Гбит/с, или 1х100Гбит/с). Имхо на 10Гбит/с 400к IOPS по 4кбайт просто невозможны.
Скорее ставилась другая цель – посмотреть насколько можно максимально использовать «железо». Ведь с точки зрения ИТ чем больше нагрузки мы сможем положить на существующую платформу – тем выше эффективность затрат на ее построение. Смысл теста в том, что для поддержки такой же нагрузки у других вендоров требуется оборудования в 2 раза больше. Кстати, NVMe системы у нас тоже вышли, в ближайшее время надеемся сможем поделиться новыми результатами тестов. С точки зрения сети использовались 62-е интерконнекты, с портами 10GE, серверы также подключались через 10G порты. Заявленные показатели – это суммарная производительность системы, речь конечно не идет о том, что все это прокачивалось через одно соединение 10G.
В конце концов, даже если там и 10GE интерфейсы, нет данных о том, сколько их там. А так как Cisco хорошо работает на уровне сетей (LACP в частности), думаю, что узким местом оказалась в итоге не сеть. Тогда интересно, на каком уровне у вас размещен SDS — на гипервизоре или вообще в металле? ИМХО размещение интерфейса SDS в виртуалке не даст такой производительности при всем желании.
SDS в нашем случае представляет собой небольшую виртуальную машину, которая работает на каждом узле. Ресурсов она потребляет немного — 2-4 ядра и около 60ГБ памяти под кэш первого уровня. Согласитесь небольшие расходы для такой высокой производительности? Весь секрет в объектно-ориентированной файловой системе.
Никакого специального железа для обеспечения гиперконвергенции не используется, во всяком случае пока.
Хм, что-то не верится прямо. 2-4 ядра, при том, что нутаниксовой надо 8 минимум (правда, памяти просит меньше где-то вдвое) и при том, что требуется обеспечить защиту от потери данных при выходе одной ноды из строя, т.о. двойную запись плюс метаданные… интересно, как организован весь IO на низком уровне… пока сложно представить себе, как можно всё успеть, всё синхронизировать, имея всего лишь 2-4 ядра на хост.
Три основных «секрета», почему это получается: мы пишем данные каждого логического диска каждой VM сразу на большое число узлов, равномерно распределяя блоки по всем узлам в кластере – выше и «ровнее» производительность, лучше предсказуемость. Второй: Гиперфлекс — это полностью законченное решение, и сеть – его неотъемлемая часть; поэтому насчет сети и ее настроек мы можем быть уверены, она узким местом точно не является. Третий: специализированная распределенная файловая система, заточенная под дедупликацию, компрессию, снапшоты и клоны с минимумом накладных расходов.
Если Вас интересует в деталях, как это все работает и Вы находитесь в Москве, Питере или одном из городов, описанных в статье выше – приходите.
Если эти локации вам не подходят – пишите где Вы, и мы что-нибудь придумаем.
«с которым остальные производители заведомо не справлялись (140 ВМ)» — это явно фантазии Cisco, 140 VM с такими параметрами на хост — это копеечные нагрузки.
Господа, а кто у вас ближайший конкурент собственно, с которым производительность сравнивали?

Документ более чем полуторагодовалой давности приводить конечно можно, но это ни о чем реально не говорит.

Если судить по Magic Quadrant, Cisco не вошла в лидеры по HCI (имея крайне минорную / малозаметную долю на рынке), и находится где-то рядом с Huawei и Pivot3. О ком из них идет речь?

image
Интересно, кто квадрант составлял. Кто такой Stratoscale, например? По описанию у них на сайте, примерный эквивалент того же нутаникса по использованным решениям (деталей маловато, может, хранилище как-нибудь по-другому запилено, скажем, на ceph против cassandra у нутаникса), но где нутаникс и где эти? И ещё, «малозаметная» доля рынка при размещении где-то в районе центральной линии — сомнительный классификатор, обычно точки по осям более-менее соответствующе реалиям располагаются. Но к вопросам присоединяюсь, хотя подозреваю, что сравнивали с нутаниксом, VMware и кем-то ещё.
Гартнер составлял. Там много людей работает над любым квадрантом.

А так вообще-то есть расклад по рыночным долям HCI — и от Гартнера и от IDC. Цифры отличаются, но и по тем и другим — Nutanix + VMware лидеры с огромным отрывом, Cisco и остальные — даже не догоняющие, а жестко отставшие.

Cisco — маргиналы, около 5% всего доля (по IDC) и существенно меньше (по Гартнеру).

IDC:

image

Гартнер:
(Nutanix — 51%, VMware — 41%, все остальные маргиналы — 8%)

www.gartner.com/doc/3891878/market-share-analysis-data-center

Кроме отчета Gartner существуют другие обзоры. Например, более подробный обзор от компании Forrester. В нем названы четыре компании, лидирующие на рынке гиперконвергентной инфраструктуры сегодня. Кроме Cisco, это компании Nutanix, HPE и Vmware c vSAN.
Ссылка на отчет: reprints.forrester.com/#/assets/2/154/RES142274/reports.

Обратите внимание, что остальные вендоры на данном рынке не публикуют данные по производительности своих платформ.

Что касается доли рынка, приведенный квадрат Gartner базируется на данных середины 2017 года. В тот момент Cisco Hyperflex был доступен в течение всего одного года, а некоторые продукты, например Nutanix или vSAN присутствовали на рынке уже 2-3 года. К концу 2018 года мы наблюдаем кардинальное изменения ситуации. Будущие отчеты покажут реальную картину.
Ктулху в помощь тем несчастным что решили использовать VMware vSAN в продакшн. Кстати мне весьма нравится FlashStack. В качестве платформы для VMware.
Всё ещё хуже чем я думал. Muchas Gracias.
Я надеюсь, что Микрософт зачешется в этом направлении — но шансов маловато, винды до сих пор очень хорошо продаются per core, чтобы париться о более многостороннем применении.
А вот, кстати, и свежий квадрант Гартнера вышел.
Теперь, в сравнении с предыдущим, опубликованным выше, вектор движения каждой из компаний становится более понятным.

image
Учитывая что HPE подписала соглашение с Nutanix, а Cisco передвинулась аж на несколько «миллиметров» правее — да, вектор более чем заметен ;)

Итого — вопрос совершенно не отменяется. С какими вендорами вы сравнивались? Кто у вас ближайший конкурент? HPE Simplivity? Ну так это решение мягко говоря так-же специфично, как и HyperFlex.

И почему вы приводите крайне устаревшние данные (когда ESG делали тесты?)
Зарегистрируйтесь на Хабре, чтобы оставить комментарий