Cisco HyperFlex в действии

    C ноября 2018 года компания Cisco начинает серию демонстраций нового гиперконвергентного решения Cisco HyperFlex в регионах России. Записаться на демонстрацию можно через форму обратной связи, перейдя по ссылке. Присоединяйтесь!

    Екатеринбург – до конца ноября 2018 года
    Томск, Новосибирск, Красноярск, Омск – 20 ноября 2018 года – 30 декабря 2018 года
    Владивосток, Южно-Сахалинск: 21 января 2019 года – февраль 2019 года.

    Cisco HyperFlex – это новейшая гипергонвергентная система, которая решает проблему высокой сложности отказоустойчивых систем ЦОД-ов и корпоративных инфраструктур.

    image

    Традиционный подход к построению ЦОД основывается на разделении серверов, сети хранения данных и систем хранения данных. Такой подход делает инфраструктуру крайне сложной и дорогой.

    Cisco HyperFlex по сути является «ЦОД-ом в коробке», которая объединяет вычислительную инфраструктуру, виртуальные машины и систему хранения данных в единую отказоустойчивую и высокопроизводительную инфраструктуру.



    Также HyperFlex является крайне простым решением для внедрения и позволяет организовать высокодоступную ИТ-инфраструктуру с нуля в максимально сжатые сроки всего из 3-х серверов.

    Еще в 2017-ом году независимая лаборатория Enterprise Strategy Group (ESG Lab) провела сравнительные тесты производительности Cisco HyperFlex и конкурентных решений.

    Тесты проводились с помощью HCIBench, который является стандартным отраслевым инструментом для тестирования гиперконвергентных решений. В основе HCIBench лежит Oracle Vdbench, который эмулирует рабочую нагрузку на виртуальных машинах.

    Тесты проводились для двух сценариев: гибридный и all-flash.

    Для гибридного сценария использовался четырехузловой кластер HyperFlex HX220c с одним SSD-диском 480 Гб для кэша и шестью SAS дисками по 1,2 Тб на каждом узле кластера (итого 4xSSD+24xSAS HDD). Нагрузка генерировалась с 140 виртуальных машин (по 35 на ноду кластера), с 4-мя vCPU, 4 GB RAM и виртуальных HDD 20 GB (суммарно на кластер 560 vCPU, 560 GB RAM, 2800 GB HDD).

    В ходе тестирования использовались различные профили нагрузки, но при этом всегда со 100% случайными данными, что наиболее характерно для сред с большим количеством виртуальных машин.

    Наиболее интересным тестом было измерение задержек относительно значений IOPS при соотношении чтения и записи 70%/30% и блоке 4k, full random.

    Результаты приведены на рисунке ниже:


    Как видно из результатов, гибридный вариант HyperFlex более чем в два раза превосходит ближайшего конкурента (~120 000 IOPS против ~60 000 IOPS).

    Если обраться к тесту All-flash сценария, то в этом случае тестировалась та же нагрузка, но использовался четырехузловой кластер HyperFlex HX220c только из SSD-дисков (один SSD 400 GB для кэша и шесть SSD 960 GB для данных, суммарно 4xSSD 400GB+24xSSD 960 GB на весь кластер). У альтернативного поставщика использовалась аналогичная конфигурация.
    При тех же профилях нагрузки (соотношение чтения и записи 70%/30% и блоке 4k, full random) результаты были следующие:



    В итоге при All-flash сценарии решение HyperFlex уже в три раза превзошло ближайшего конкурента (400 000 IOPS против 150 000 IOPS).
    Полная версия отчета о тестировании HyperFlex от ESG Lab приведена по ссылке ниже:
    www.cisco.com/c/dam/global/ru_ru/products/hyperflex/pdf/esg_lab_validation_cisco_hyperflex.pdf

    С момента независимого тестирования от ESG lab уже прошел год, и с тех пор в HyperFlex появились новые возможности – растянутый кластер, поддержка платформы разработки с Kubernetes, а недавно SAP сертифицировал HyperFlex для SAP HANA.

    Таким образом, Cisco HyperFlex стал первым гиперконвергентным решением, сертифицированным по всем трем классам вычислительной нагрузки SAP: SAP Applications, SAP Data HUB и HANA.

    Это еще раз подтверждает, что HyperFlex соединяет в себе высокую надежность, производительность и беспрецедентную простоту использования.
    Cisco
    82,00
    Cisco – мировой лидер в области сетевых технологий
    Поделиться публикацией

    Комментарии 18

      +1
      С простотой использования у Cisco частенько всё от «плохо» до «две недели собственный сапорт не разобрался».
        0
        Вероятно, Вы имеете в виду какие-то другие продукты Cisco. Именно простота использования HyperFlex, на наш взгляд, является одной из его самых сильных черт. Что касается оперативной работы техподдержки, то конечно ситуации бывают разные. Если с этим иногда и возникают проблемы, мы их мониторим и решаем. Так как HyperFlex — это инфраструктура для хранения данных, часто критичных для бизнеса, мы уделяем большое внимание качеству поддержки этих систем, нашим внутренним требованиям и стандартам и по времени реакции, и по времени устранения неисправности.
          0
          Я имею в виду UCS. В прошлом Proof of Concept нам пришлось закупать Dell по причине потраченых двух рабочих недель на телефоне с поддержкой которая не разобралась что причиной проблемы была настройка BIOS. Мы разочаровались тогда сильно, ведь переход на другую серверную систему в планы не входил. Надеюсь я ошибаюсь с HyperFlex и несомненно протестирую его когда прийдёт время обновлений через год полтора если use case под него появится, но после того инцидента с поддержкой осадочек остался. Как и невероятная куча проблем и бессонных ночей которые мне доставил UCS за последние лет пять.
        0
        Подозреваю, что в тестировании на гиперфлексе был включен writeback-кэш, а также активность и производительность были оценены на том уровне нагруженности, с которым остальные производители заведомо не справлялись (140 ВМ). Был бы интересен показатель на 70 и 35 ВМ при тех же аппаратных нагрузках — что-то мне подсказывает, что в этом случае победа гиперфлекса окажется не настолько бесспорной. Например, согласно исследованию Cult of Anarchy по WS2016 S2D, высокая нагрузка на диски дает огромную нагрузку на процессоры, но синтетические тесты дисковой подсистемы на сопоставимом оборудовании (правда, там были NVMe-диски, а не SAS SSD) показывали вполне обгоняющие 600k IOPS при 12 ВМ. Кроме того, настоящий хайлоад на таких маленьких кластерах не живет (в смысле количества нод), а для обслуживания корпоративной нагрузки небольшого бизнеса, на который, похоже, ориентируется гиперфлекс, может хватить даже Nutanix CE кластера.

        И последнее: Непонятно, какая в тесте использовалась сетевая подсистема — здесь на слайдах 10 Гбит/с, в документе 10 Гбайт/с (т.е. или 2х40Гбит/с, или 1х100Гбит/с). Имхо на 10Гбит/с 400к IOPS по 4кбайт просто невозможны.
          0
          Скорее ставилась другая цель – посмотреть насколько можно максимально использовать «железо». Ведь с точки зрения ИТ чем больше нагрузки мы сможем положить на существующую платформу – тем выше эффективность затрат на ее построение. Смысл теста в том, что для поддержки такой же нагрузки у других вендоров требуется оборудования в 2 раза больше. Кстати, NVMe системы у нас тоже вышли, в ближайшее время надеемся сможем поделиться новыми результатами тестов. С точки зрения сети использовались 62-е интерконнекты, с портами 10GE, серверы также подключались через 10G порты. Заявленные показатели – это суммарная производительность системы, речь конечно не идет о том, что все это прокачивалось через одно соединение 10G.
            0
            В конце концов, даже если там и 10GE интерфейсы, нет данных о том, сколько их там. А так как Cisco хорошо работает на уровне сетей (LACP в частности), думаю, что узким местом оказалась в итоге не сеть. Тогда интересно, на каком уровне у вас размещен SDS — на гипервизоре или вообще в металле? ИМХО размещение интерфейса SDS в виртуалке не даст такой производительности при всем желании.
              0
              SDS в нашем случае представляет собой небольшую виртуальную машину, которая работает на каждом узле. Ресурсов она потребляет немного — 2-4 ядра и около 60ГБ памяти под кэш первого уровня. Согласитесь небольшие расходы для такой высокой производительности? Весь секрет в объектно-ориентированной файловой системе.
              Никакого специального железа для обеспечения гиперконвергенции не используется, во всяком случае пока.
                0
                Хм, что-то не верится прямо. 2-4 ядра, при том, что нутаниксовой надо 8 минимум (правда, памяти просит меньше где-то вдвое) и при том, что требуется обеспечить защиту от потери данных при выходе одной ноды из строя, т.о. двойную запись плюс метаданные… интересно, как организован весь IO на низком уровне… пока сложно представить себе, как можно всё успеть, всё синхронизировать, имея всего лишь 2-4 ядра на хост.
                  0
                  Три основных «секрета», почему это получается: мы пишем данные каждого логического диска каждой VM сразу на большое число узлов, равномерно распределяя блоки по всем узлам в кластере – выше и «ровнее» производительность, лучше предсказуемость. Второй: Гиперфлекс — это полностью законченное решение, и сеть – его неотъемлемая часть; поэтому насчет сети и ее настроек мы можем быть уверены, она узким местом точно не является. Третий: специализированная распределенная файловая система, заточенная под дедупликацию, компрессию, снапшоты и клоны с минимумом накладных расходов.
                  Если Вас интересует в деталях, как это все работает и Вы находитесь в Москве, Питере или одном из городов, описанных в статье выше – приходите.
                  Если эти локации вам не подходят – пишите где Вы, и мы что-нибудь придумаем.
          +1
          Господа, а кто у вас ближайший конкурент собственно, с которым производительность сравнивали?

          Документ более чем полуторагодовалой давности приводить конечно можно, но это ни о чем реально не говорит.

          Если судить по Magic Quadrant, Cisco не вошла в лидеры по HCI (имея крайне минорную / малозаметную долю на рынке), и находится где-то рядом с Huawei и Pivot3. О ком из них идет речь?

          image
            0
            Интересно, кто квадрант составлял. Кто такой Stratoscale, например? По описанию у них на сайте, примерный эквивалент того же нутаникса по использованным решениям (деталей маловато, может, хранилище как-нибудь по-другому запилено, скажем, на ceph против cassandra у нутаникса), но где нутаникс и где эти? И ещё, «малозаметная» доля рынка при размещении где-то в районе центральной линии — сомнительный классификатор, обычно точки по осям более-менее соответствующе реалиям располагаются. Но к вопросам присоединяюсь, хотя подозреваю, что сравнивали с нутаниксом, VMware и кем-то ещё.
              +1
              Гартнер составлял. Там много людей работает над любым квадрантом.

              А так вообще-то есть расклад по рыночным долям HCI — и от Гартнера и от IDC. Цифры отличаются, но и по тем и другим — Nutanix + VMware лидеры с огромным отрывом, Cisco и остальные — даже не догоняющие, а жестко отставшие.

              Cisco — маргиналы, около 5% всего доля (по IDC) и существенно меньше (по Гартнеру).

              IDC:

              image

              Гартнер:
              (Nutanix — 51%, VMware — 41%, все остальные маргиналы — 8%)

              www.gartner.com/doc/3891878/market-share-analysis-data-center

              +1
              Кроме отчета Gartner существуют другие обзоры. Например, более подробный обзор от компании Forrester. В нем названы четыре компании, лидирующие на рынке гиперконвергентной инфраструктуры сегодня. Кроме Cisco, это компании Nutanix, HPE и Vmware c vSAN.
              Ссылка на отчет: reprints.forrester.com/#/assets/2/154/RES142274/reports.

              Обратите внимание, что остальные вендоры на данном рынке не публикуют данные по производительности своих платформ.

              Что касается доли рынка, приведенный квадрат Gartner базируется на данных середины 2017 года. В тот момент Cisco Hyperflex был доступен в течение всего одного года, а некоторые продукты, например Nutanix или vSAN присутствовали на рынке уже 2-3 года. К концу 2018 года мы наблюдаем кардинальное изменения ситуации. Будущие отчеты покажут реальную картину.
                0
                Ктулху в помощь тем несчастным что решили использовать VMware vSAN в продакшн. Кстати мне весьма нравится FlashStack. В качестве платформы для VMware.
                  +1
                    0
                    Всё ещё хуже чем я думал. Muchas Gracias.
                  0
                  Я надеюсь, что Микрософт зачешется в этом направлении — но шансов маловато, винды до сих пор очень хорошо продаются per core, чтобы париться о более многостороннем применении.
                +2
                А вот, кстати, и свежий квадрант Гартнера вышел.
                Теперь, в сравнении с предыдущим, опубликованным выше, вектор движения каждой из компаний становится более понятным.

                image

                Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.

                Самое читаемое