Pull to refresh
124
0
Maxim Shaposhnikov @shapa

User

Send message
Если вы не понимаете разницу между лицензионным соглашением вендора и «самоцензурой» — успехов вам.

Фактически, работник «Крок» выставил решение Cisco (партнером которой они и являются) в очень плохом свете, и теперь на эту статью можно ссылаться и показывать — что конкуренты всенепременно и будут делать.

Конкурирующие HCI решения (даже VSAN) покажут в разы более высокие параметры производительности на аналогичном оборудовании.
Пара «нюансов»

1) Вы с cisco согласовали вообще публикацию? Параметры производительности по результатам тестов — очень плохие (особенно учитывая что это All Flash), и такое выкладывать на публику — гхм.

2) EULA читали? Большинство вендоров (включая VMware) вообще-то запрещают результаты любых тестов выкладывать публично. Особенно — если они откровенно плохие (как в этом случае).
Потому что более универсальный / открытый стандарт практически всегда в итоге победит.

Гораздо больше вендоров, гораздо больше средств анализа трафика и борьбы со злоумышленниками (включая DPI / firewall), гораздо больше возможностей (гибкость).

По сути, если сравнить распространение FC SAN сетей и ethernet — вторые будут на несколько порядков (буквально) более распространены — например, все онлайн бизнесы (в сумме обслуживающие многие миллиарды пользователей).

Ни одна «энтерпрайз» платформа даже рядом не лежит с тем же гугл или фейсбук например.
Коллега-автор сего писания на хабре (хотя с трудом «коллегой» язык поворачивается ;) ) просто не знает базовых вещей. Да, по сути SAN намного менее защищен чем нормально спроектированный ethernet.
Речь вообще в целом что концепция 3-tier и внешнего хранилища — уже ущербна. Какой там протокол — уже по сути не важно.

Ну и использовали они не только файлеры.
Божественная пурга.
Сколько раз говорил — не пускайте маркетологов писать «технические» статьи.

«Когда вы в последний раз слышали о взломе сети Fibre Channel? Никогда? Как насчет сети Ethernet?»

Вы выдаете принцип security through obscurity за правильный подход.

FC ломается легко и просто, «спасает» изолированность — но на ethernet легко можно сделать то-же самое, с намного более высокими скоростями передачи данных (сотни гигабит) и меньшими задержками (FC коммутаторы в 2-3 раза выше уровень задержек / latency)

«и с IOPS, превышающим один миллион» — миллион — это много по вашему? Да сегодня одна NVMe / Optane карта больше может выдавать.

Мы еще в 2017 году показывали как в VM легко получается более миллиона IOPS, на SDS с чистыми ethernet подключениями.

Про tcp/ip — тоже крайне неграмотно, изучайте что такое RDMA, RoCE v2 и тд.



Ни одна из крупных онлайн компаний не использует FC (да и традиционные СХД)

Существовала одна компания, которая пыталась это делать — Yahoo. Теперь ее нет, они проиграли технологическую гонку c Google.

Вот хорошая статья на эту тему (почему Yahoo умер).

techcrunch.com/2016/05/22/why-google-beat-yahoo-in-the-war-for-the-internet

«At the beginning of the new millennium, Google and Yahoo started down very different paths to attain the enormous scale that the growing size and demands of the Internet economy (search, email, maps, etc.) required. For Yahoo, the solution came in the form of NetApp filers, which allowed the company to add server space at a dizzying rate. Almost every service that Yahoo offered ultimately ran on NetApp’s purpose-built storage appliances, which were quick to set up and easy to use, giving Yahoo a fast track to meet market demand (and soon made the company NetApp’s largest customer).

But in nearby Mountain View, Google began work on engineering its own software-defined infrastructure, ultimately known as the Google File System, „
Все смешалось в доме Облонских ;)

Для начала — спасибо за то, что как минимум — пытаешься разобраться в реальностях.
Но ты бы хотя бы погуглил чуток перед тем как писать.

1) X-Ray — внезапно — может тестировать что угодно. Нутаникс для него вообще не нужен. И исходники доступны, и параметры тестирования — все открыто. Можно запустить как VM на чем угодно, и далее тестировать хоть 3-tier.

github.com/nutanix/xray-scenarios

2) Насчет «хоть какой» — я так понимаю ты очень серьезно отстал от рынка. У нас масса внедрений огромных баз данных в мире — начиная от «Платона» в РФ (300TB насколько помню крутят на Постгрес) и InBev (70TB базы Oracle), заканчивая всякими Nintendo и прочими Toyota.

Идешь на nutanix.com и смотришь Best Practices.

Как намек — SAP сертифицировал Nutanix для SAP HANA (на 4-х сокетах в том числе), а так-же всех приложений Netweaver.

Которые по определению требуют business critical базу данных.

Или идешь и смотришь результаты CFT (ЦФТ) — на их АБС (которую они официально сертифицировали под Нутаникс) мы порвали даже ExaData (на старом железе результат был с Oracle RAC — около 7000TPS, сейчас я думаю раза в полтора будет выше). В РФ кроме Сбербанка даже нет банков которым столько нужно.

В общем откровенно ты удивил, замечание про «HCI архитектуру» крайне посмешило. HCI (за счет той-же data locality) по определению способен работать с БД намного быстрее и лучше чем традиционные архитектуры.

blog.in-a-nutshell.ru/nutanix-1-tier-business-critical-cft
pgconf.ru/2017/93499
www.reddit.com/r/NintendoNX/comments/51wo4s/whats_in_a_name_nitendo_utilising_nutanix_xtreme

4) Нутаникс поддерживает полноценный тиринг.

Горячие данные на SSD, холодные на SATA. Остальные HCI вендоры нормальный тиринг не умеют (как и большинство традиционных СХД), поэтому пихают All Flash.

Так-что да, Нутаникс о клиентах как раз позаботился.
И снова — на сцене цирка Cisco, под яркими лучами софитов :)

Коллеги, право — статьи писать на техническом ресурсе — все же IMHO не ваше.

«Гиперконвергентные решения до недавнего времени являлись не очень подходящим решением для СУБД, тем более с высокой нагрузкой.» — очень, очень смелое заявление.

Впрочем, учитывая любовь вендора к сравнению с какими-то мифическими «A» и «B» от (опять-же) любимой ESG Labs (Huawei и Pivot3?)…

Между тем как у реальных лидеров (их видно на приведенном вами-же MQ) — с поддержкой баз данных не просто все давно прекрасно, а стало обыденностью жизни.

Показывать на публику тесты на vdbench и делать столь громкие заявления о разрыве в «сотни процентов» — в целом расписаться в полном / вопиющем непрофессионализме.

Почему? Все просто — такие утилиты (iometer, vdbench, и тд) не рассчитаны на тестирование работы современных мультипоточных операционных систем. Они создавались для тестирования традиционных 3-tier архитектур / shared storage.

При тестировании HCI они покажут что угодно (вплоть до погоды на марсе), кроме реальной призводительности.
При реальных тестах баз данных (в том числе по отзывам клиентов) — производителеность SpringPath (компании приобретенной Cisco для «закрытия дыры» HCI) одна из худших на рынке.

Фактически, по результату чтения вашей «статьи», любой грамотный инженер должен вас не пустить ближе порога, ибо в русском языке это называется «голимый маркетинг».

Отсюда, видимо, и вытекает смешная доля Cisco на HCI рынке — около 2%.
Клиенты, к счастью, нынче пошли образованные и умные.

Чуть ликбеза:

«The reason we had to address this problem is because traditional workload generators like iometer, vdbench, and fio are brute force speed tests designed for traditional shared storage arrays. There's a lot of baggage that accompanies that:

They just read and write data.
They were created when the upper limits of storage performance really mattered.
They are leftovers of measuring spinning disks



Ultimately, they were built in a time when storage performance was the first order problem: the most likely limit to your application’s performance was its ability to access storage.

But that changed with SSDs.

Flash changed the storage performance conversation. Just a few SSDs can easily exceed application requirements. If you take advantage of SSDs the way hyperconverged infrastructures (HCI) do, you can move most application bottlenecks to waiting for CPU, not storage. This also changed the way systems scale.

HCI allows for incremental scale with workloads colacted on the same system as your storage. It removes the guesswork needed to evaluate the maximum a storage array can handle. Instead of buying one big instance of storage and adding workloads over time, you scale your storage as your needs increase. You should still understand the performance of a system but it changes to a broader sense, one that is more applicable to true datacenter operations rather than the unsophisticated drag race of the old workload generators.

Because most application requirements are easily met with flash, storage performance becomes a control variable in a more complete test of an entire system. X-ray will run a workload characterization and for most tests it will make the throughput requirement steady state. Instead of testing the limits of storage performance, we shift the focus to that of maintaining consistent and reliable performance in a number of scenarios that are encountered in data centers.

Some of these common scenario categories include:

Noisy Neighbors — Run a workload in one VM and add a new VM with new work. The application in the first VM should be unaffected.
Additional workload — Increase the rational workload of an application, there should be little effect on performance as work is added.
Rolling upgrades — There should be little effect seen at the application as hypervisor and virtual storage controllers are upgraded.
Node failures — Fail a node, there should be a slight pause (that’s probably not noticed by application or user) and then little effect to the application after the failure.
»
Где начитались про «оверхеды»? ;) Сказки от конкурентов?

Гибриды, гибриды.

Запись (кроме последовательной) идет всегда на флеш уровень, далее (когда данные остывают) мигрирует на холодный (для гибридных систем).

Нутаникс ОС умеет делать все оптимизации данных (компрессия, дедупликация и прочее) для любого варианта — All Flash (включая NVMe + SSD), Hybrid и т.д.

All Flash цифры намного выше — можно на 4-х узлах легко 600+ тысяч IOPS получить.
22 IOPS на рабочее место — это дико низкий результат, отчего вся статья выглядит забавно.

В реалиях должно быть намного выше. 60k на 300 пользователей — вполне верю, это как раз примерно 30% нагрузки на базовый кластер Nutanix из трех узлов (около 180k IOPS random write 4k блоки) (N+1 — два узла и один в запасе).

Какой опыт интересует? Практически все крупнейшие VDI инсталляции в мире сделаны на Нутаникс ;) Есть на десятки и даже сотни тысяч рабочих мест.

В РФ активно ВТБ например использует и регулярно дозакупается.
Для HCI уже доказано двумя лидирующими вендорами на этом рынке (Dell EMC Vmware и Nutanix) — лучше делать чисто программно.
В современные процессоры (Intel, IBM, AMD) встроены все нужные аппаратные инструкции — как для сжатия, так и дедупликации и криптования (например аппаратная калькуляция хэшей SHA256)

p.s. 4k для Симпливити тоже не оптимально ;)
Про дико устаревший (около 10 лет ему) проприетарный адаптер дедупликации и компрессии коллеги из Крока или сами не в курсе (?), или предпочитают не рассказывать на публику детали.

Дело в том, что этот адаптер «держит» только блоки данных размером 8 килобайт, в итоге все что больше (а почти во всех случаях на сегодня оптимальнее использовать блоки ФС большего размера) — сначала разбивается на блоки по 8, затем обратно «сшивается».
По сути, этот адаптер кардинально замедляет работу подсистемы ввода-вывода, отсюда настолько низкие результаты при тестировании.

p.s. Пример BestPractices от Microsoft для SQL сервера — «Operating System Best Practice Configurations for SQL Server:

»Hence, on a SQL Server machine the NTFS Allocation unit size hosting SQL database files (Including tempdb files) should be 64K.""
Цены на это чудо (с 6000-й серией) видел? :D

и VSAN (который намного лучше Симпливити технически) и уж тем более NTNX будут намного выгоднее, не говоря о тотальном техническом превосходстве.
Это в стиле Крок :) Продолжать упорно продавливать устаревшие технологии, не информируя клиента о том что есть существенно более грамотные, выгодные и надежные решения.

Проблем технических масса — помимо упомянутой тобой деградации SSD — они еще и лимитируют (резко) скорость записи на SSD, чтобы те не умерли в гарантийный срок.

Это — вопиющий технический косяк.

" Both platforms provide the same capacity and burst performance, but a feature called Media Lifecycle Manager can throttle write performance to ensure a full three years of life on the SSDs in the 4000 series nodes."

h20195.www2.hpe.com/v2/getpdf.aspx/a00019351enw.pdf

TERADICHI как раз смысла на правильных протоколах типа Blast смысла использовать абослютно нет, проблема в жестком перерасходе ресурсов самой Simplivity (RAM в особенности).

В целом даже сами HPE уже все поняли.

https://www.hpe.com/us/en/newsroom/press-release/2019/04/hpe-and-nutanix-sign-global-agreement-to-deliver-hybrid-cloud-as-a-service.html
«с которым остальные производители заведомо не справлялись (140 ВМ)» — это явно фантазии Cisco, 140 VM с такими параметрами на хост — это копеечные нагрузки.
Учитывая что HPE подписала соглашение с Nutanix, а Cisco передвинулась аж на несколько «миллиметров» правее — да, вектор более чем заметен ;)

Итого — вопрос совершенно не отменяется. С какими вендорами вы сравнивались? Кто у вас ближайший конкурент? HPE Simplivity? Ну так это решение мягко говоря так-же специфично, как и HyperFlex.

И почему вы приводите крайне устаревшние данные (когда ESG делали тесты?)
Так «патч» же известен — nginx настройки поменять :)
Что творится в РФ последние годы — я у меня нет культурных слов для комментирования :(
Господа, остается только надеяться что вы хотя-бы реально верите и понимаете что пишете.

Базовые моменты

1) 5ms — это _очень много_, и тестировать решение «до 5ms» уже по сути глупость. Business-critical приложения (да хотя бы тут же на хабре почитайте статьи умные про зависимость скажем производительности SQL DB от latency) на 1-2ms уже проблемы.

Речь идет о микросекундах для нормальных приложений.

Вот конкретный пример более миллиона IOPS и микросекундные задержки на HCI платформе (еще в 2017 году показывали):

600 IOPS на VM — это детский сад, так же как несчастные 70 виртуалок на узел.

2) Не очень ясно какие «другие вендоры» вообще вы приводите в табличках, стыдливо «замазав».

Как я понимаю — взяты все те 8% аутсайдеров (в которые входит и HyperFlex с 1-2% долей глобального рынка, т.е. в размере погрешности измерения), ибо и VSAN и Nutanix совершенно легко в разы (буквально) обходят Cisco HyperFlex по производительности на идентичном / сравнимом оборудовании.

Cisco вообще не вошли в сегмент лидеров, хотя даже HPE Simplivity там.

3) Фактически, выглядит как попытка обмана клиентов и инженеров — приведены какие-то левые данные совершенно левой конторы ESG Labs, которой в индустрии доверия в районе нуля. Детали тестов пожалуйста.

Например — возьмите VMware HCIBench или Nutanix XRay (оба продукта открыты, бесплатны и четко понятно как они тестируют), и прогоните тесты.
Что обычно клиенты и делают. В среднем — проигрыш Cisco HyperFlex по производительности просто коллосален (в разы).

Точно могу сказать что Nutanix (лидер индустрии с огромным отрывом от Cisco) не тестировался например — ибо в Нутаникс нет SSD кэша, весь SSD уровень используется для хранения данных — а вы для всех вендоров пишете «SSD кэш». Ну, или опять же не понимаете что несете.

По гартнеру (которому доверия на порядки больше) — для Cisco все очень грустно.

image
HANA как известно любит память. Какие лимиты (сокеты, TB ram) на узел для Hyperflex?

Information

Rating
Does not participate
Location
Великобритания
Date of birth
Registered
Activity