Pull to refresh
3
0

Пользователь

Send message
При проведении обсуждаемых тестов HyperFlex работали функции «инлайн» дедупликации и компрессии, они включены в системе всегда. Поскольку этот конкретный тест проводили не мы, а внешняя компания, точных данных у нас нет, попробуем обратиться к коллегам за уточнениями. Из недавнего российского опыта – только что закончилось тестирование производительности у одного из Заказчиков, он тоже использовал прежде всего vdbench, общая итоговая эффективность компрессии – 39%, дедупликации – 33%. Суммарно – 59%, это означает что из 100 условных килобайт на диски пишется 41. Но, конечно же, реально получаемая эффективность сильно зависит от того, как именно формируются наборы данных, и в разных случаях будет разной.
Самый простой способ узнать, какая будет эффективность для ваших приложений — обратиться к партнеру Cisco или напрямую в офис. Мы поможем вам провести тестирование на ваших данных.
И в добавление к свежему квадранту еще немного подробностей о самом тестировании (сылка на обсуждаемый отчет ESG ). Хотелось бы обратить Ваше внимание, что этот отчет посвящен не вопросу достижения максимальной производительноcти на одну VM (ждем такую статью чуть позже), а тому, что в целом можно ожидать от гиперконвергентной платформы в весьма скромной аппаратной конфигурации. И речь идет не столько о миллисекундах и IOPS, сколько о том, что благодаря архитектуре HyperFlex его производительность в целом более «ровная», предсказуемая и прогнозируемая, что не просто «красиво звучит», а позволяет получить измеряемые бизнес-преимущества, разместив на том же оборудовании большее число виртуальных машин и обеспечив для них всех некий заданный приемлемый уровень производительности. Напомним, коллеги говорят про 140 одновременно работающих виртуальных машин, каждая из которых получает по 800 IOPS, попадая в заданный диапазон задержек, на системе начальной конфигурации на крутящихся дисках. При этом с работающими «инлайн» механизмами дедупликации и компрессии.
Уважаемый Максим, спасибо за Ваш комментарий!
Хотелось бы напомнить, что еще в ноябрьском посте ( ссылка на пост), когда Вы поместили в комментариях тот же самый квадрант Гартнера от начала 2018-го года, мы обратили Ваше внимание на то, что с тех пор ситуация сильно изменилась. Вот смотрите, как обстоят дела сейчас.
image

Что же касается отчета – он составлен независимой компанией ESG (Enterprise Storage Group ) и причины, по которым не названы вендоры, скорее всего лежат в юридической плоскости. По нашим данным, в этом отчете тестировались все четыре лидера из верхнего правого угла квадранта Гартнера.

Мы понимаем что Вы, как бывший сотрудник российского офиса компании Nutanix, уважительно относитесь к её продуктам.
В любом случае конечный выбор всегда за заказчиками, наша задача, как вендоров, состоит в том, чтобы обеспечить его правдивой и непротиворечивой информацией.
Использовать облачную ИТ-платформу или строить свою – это решение, которое зачастую лежит не в технической плоскости.
По сути, это решение, где провести границу ответственности, брать ли на себя организационные вопросы обеспечения работы платформы, или найти подрядчика для их решения.
У облачного варианта ведь тоже есть свои особенности, например, организация сквозных политик безопасности, аутентификации и защиты конфиденциальных данных.

Построение ландшафта SAP традиционно считалось достаточно сложной задачей, чтобы серьезно обсуждать вариант ее разворачивание в облаке.

Задача гиперконвергентных решений – понизить уровень сложности on premises внедрений, и в случае с HyperFlex это действительно происходит.
В любом случае – финальное решение всегда за заказчиком.
При публикации из текста случайно пропала ссылка на страницу сертификации, где указаны параметры. Спасибо, что подметили. Вот она.

Базовым вариантом является 2-процессорная конфигурация узла с 768GB памяти, при необходимости, объем памяти 2-процессорного узла может быть увеличен до 3ТБ.

Также стоит отметить, что в кластере HyperFlex могут находиться «бездисковые» узлы, в том числе и 4-процессорные с объемом памяти до 6ТБ.

Напомним, Cisco давно и успешно реализует проекты SAP HANA в трех основных вариантах:
• bare-metal appliance на базе стоечных серверов, который хранит данные на локальных SSD дисках, защита данных обеспечивается программной репликацией;
• Горизонтально-масштабируемый scale-out bare-metal appliance для аналитических систем с реализацией вычислительных узлов на блейдах, подсистемы хранения – на распределенной файловой системе;
• Виртуализированная платформа на базе блейд-серверов и «корпоративного» сертифицированного дискового массива, на основе одного из имеющихся типовых дизайнов Flexpod, FlashStack и т.д.

По сути, HyperFlex – еще одна дополнительная опция, со своими очевидными преимуществами для своего спектра задач. Что важно: ВСЕ эти варианты построены на одной платформе Cisco UCS с интегрированной коммутацией и интегрированным управлением на основе политик и шаблонов. Никто не мешает (если в этом есть необходимость, продиктованная, например, масштабами, историческими причинами, принятыми стандартами и т.д. и т.п.) в рамках одной системы с одной архитектурой с единым управлением строить комбинированный ландшафт HANA на базе scale-up appliance (например, для критичных HANA-систем под ERP-задачи), scale-out appliance (например, для крупной системы аналитики) и HyperFlex (например, для средних по масштабу продуктивных нагрузок, а также систем DEV и QA).

Безусловно, в той же серверной системе с интегрированной коммутацией и управлением, как правило, размещаются и серверы приложений (часто виртуализированные), но что еще интереснее, там же могут быть размещены системы для построения инфраструктуры SAP Data Hub на базе контейнеров поверх HyperFlex, а также системы машинного обучения SAP Leonardo на базе специализированной платформы C480 ML (c 8-ю адаптерами Nvidia V100 объединенных транспортом NVLink).
Три основных «секрета», почему это получается: мы пишем данные каждого логического диска каждой VM сразу на большое число узлов, равномерно распределяя блоки по всем узлам в кластере – выше и «ровнее» производительность, лучше предсказуемость. Второй: Гиперфлекс — это полностью законченное решение, и сеть – его неотъемлемая часть; поэтому насчет сети и ее настроек мы можем быть уверены, она узким местом точно не является. Третий: специализированная распределенная файловая система, заточенная под дедупликацию, компрессию, снапшоты и клоны с минимумом накладных расходов.
Если Вас интересует в деталях, как это все работает и Вы находитесь в Москве, Питере или одном из городов, описанных в статье выше – приходите.
Если эти локации вам не подходят – пишите где Вы, и мы что-нибудь придумаем.
А вот, кстати, и свежий квадрант Гартнера вышел.
Теперь, в сравнении с предыдущим, опубликованным выше, вектор движения каждой из компаний становится более понятным.

image
SDS в нашем случае представляет собой небольшую виртуальную машину, которая работает на каждом узле. Ресурсов она потребляет немного — 2-4 ядра и около 60ГБ памяти под кэш первого уровня. Согласитесь небольшие расходы для такой высокой производительности? Весь секрет в объектно-ориентированной файловой системе.
Никакого специального железа для обеспечения гиперконвергенции не используется, во всяком случае пока.
Кроме отчета Gartner существуют другие обзоры. Например, более подробный обзор от компании Forrester. В нем названы четыре компании, лидирующие на рынке гиперконвергентной инфраструктуры сегодня. Кроме Cisco, это компании Nutanix, HPE и Vmware c vSAN.
Ссылка на отчет: reprints.forrester.com/#/assets/2/154/RES142274/reports.

Обратите внимание, что остальные вендоры на данном рынке не публикуют данные по производительности своих платформ.

Что касается доли рынка, приведенный квадрат Gartner базируется на данных середины 2017 года. В тот момент Cisco Hyperflex был доступен в течение всего одного года, а некоторые продукты, например Nutanix или vSAN присутствовали на рынке уже 2-3 года. К концу 2018 года мы наблюдаем кардинальное изменения ситуации. Будущие отчеты покажут реальную картину.
Скорее ставилась другая цель – посмотреть насколько можно максимально использовать «железо». Ведь с точки зрения ИТ чем больше нагрузки мы сможем положить на существующую платформу – тем выше эффективность затрат на ее построение. Смысл теста в том, что для поддержки такой же нагрузки у других вендоров требуется оборудования в 2 раза больше. Кстати, NVMe системы у нас тоже вышли, в ближайшее время надеемся сможем поделиться новыми результатами тестов. С точки зрения сети использовались 62-е интерконнекты, с портами 10GE, серверы также подключались через 10G порты. Заявленные показатели – это суммарная производительность системы, речь конечно не идет о том, что все это прокачивалось через одно соединение 10G.
Вероятно, Вы имеете в виду какие-то другие продукты Cisco. Именно простота использования HyperFlex, на наш взгляд, является одной из его самых сильных черт. Что касается оперативной работы техподдержки, то конечно ситуации бывают разные. Если с этим иногда и возникают проблемы, мы их мониторим и решаем. Так как HyperFlex — это инфраструктура для хранения данных, часто критичных для бизнеса, мы уделяем большое внимание качеству поддержки этих систем, нашим внутренним требованиям и стандартам и по времени реакции, и по времени устранения неисправности.

Information

Rating
Does not participate
Registered
Activity