Как стать автором
Обновить

Комментарии 20

Вариант от MS, пожалуй, наиболее выгодный в этой ситуации. Изучен, стабилен, спецы ещё не все уехали. Нормальные драйвера к нормальным железкам подобрать ещё можно. Все необходимые функциональные возможности есть. Решение взрослое и стабильное.

Ну а Broadcom сейчас и за пределами скрепной территории шок вызывает даже у ярых приверженцев VMWare.

PS Hyper-V network gateway мёртв, верно, прикольный он был. Даже работал ) Зато сейчас есть Network Controller

Самое болезненное Согласно VMware End Of Availability of Perpetual Licensing and SaaS Services - больше не будет таких пролуктов, как:
VMware vSAN ROBO,
VMware vSAN+,
VMware HCI Kit

Не очень понимаю в чем описанная выше боль:

HCI Kit - это просто две лицензии (vSphere + vSAN), которые продавались под одним парт-номером. Не более того.

vSAN+ - это лицензия по подписке с серверов лицензирования в облаке. Вроде тут, да и много где такое, наоборот, не любят. Да и популярность оно не обрело.

vSAN ROBO - тут, с одной стороны, да, потому что если было много площадок, где мало хостов + мало ВМ на хост, то per-VM выходило заметно дешевле, чем per-CPU. Но теперь vSAN идет per-TiB, что в общем-то компенсирует (мало ВМ - мало TiB, мало платить за vSAN). Отсутствие ROBO, скорее, по vSphere ударило, чем по vSAN.

Но уж, чтобы сделать этот комментарий более полезным, то боль может быть в других местах:

1.) Больше нет редакций vSAN Std/Adv. Только старшая, полнофункциональная, которая бывшая Enterprise. И да, на Std сидело достаточно мало людей, ибо см. пункт 4, но вот Advanced был достаточно популярным, если не нужны были растянутые кластера, шифрование, файлеры, HCI Mesh и т.д.

2.) vSAN теперь per-TiB. Это значит, что если раньше у кого-то было очень много RAW Capacity per Node/CPU, то может стать дороже. Но если у кого-то было мало RAW per CPU, то наоборот. Но ИМХО, мне такой подход больше нравится. Стоимость схд должена определяться хранением, а не количеством хостов, к которым оно подключено (я сознательно оставляю за скобками сценарии с HCI Mesh/vSAN MAX).

3.) vSAN можно купить только для VVF (и там практически всегда надо платить сразу за TiB), или для VCF (но там уже входит 1 TiB на ядро, что часто перекрывает потребности). Отсюда вылезает момент, что если нужно много емкости, то дешевле купить сразу VCF, чем VVF+vSAN. Хорошо это или плохо - it depends.

4.) Плоское Per-RAW TiB лицензирование, по сути, убило гибриды. Потому что Usable на All Flash заметно выше при том же RAW, чем на гибридах, за счет Erasure Coding, Compression, Deduplication (это все входило в Advanced). И хотя гибридные vSAN уже давно были крайне нишевой штукой (по моим ощущениям, заметно меньше четверти инсталляций), кейсы под них были. Поэтому остается только vSAN All Flash, да еще и ESA, потому что там EC и Сompression намного лучше работают.

Вот знаете, читаешь ваш комментарий и сразу понимаешь - человек в теме и много и глубоко знает продукты. Но сразу же возникает вопрос - а почему при таких глубоких знаниях он не помогает ответить на вопрос автора... Хотя да, это риторический вопрос.

Во-первых, потому что я в этой статье не вижу вопроса. Это не приглашение к диалогу, а монолог, который даже заканчивается выводом.

Во-вторых, ответ на вопрос "чем заменить vSAN" очень сильно зависит от кучи факторов. Например, окружения, требований и т.д. Под какую платформу, требования по импортозамещению, страна, куда это покупается и т.д.

Ну а если вам интересно мое мнение, то лично я считаю, что наиболее (если не единственная) адекватная замена vSAN для SMB сегмента в РФ - классический внешний сторадж (а там уж на вкус и цвет). Все остальное или требует очень высоких компетенций для проектирования и сопровождения, которых, как правило, нет в SMB организациях, или имеет те же ограничения, как и vSAN (например, не доступно к официальной покупке в РФ).

"SMB сегмента в РФ - классический внешний сторадж" - соглашусь, так как риск использования гиперконвергентной инфраструктуры не узкоспециализировано , а в промышленных масштабах велик и это ещё та затея.

а почему при таких глубоких знаниях он не помогает ответить на вопрос автора... Хотя да, это риторический вопрос.

потому что у автора незаданный вопрос про другое.

HCI Kit - это просто две лицензии (vSphere + vSAN), которые продавались под одним парт-номером. Не более того.

Потому что теперь надо искать две позиции.

и что там, говорите, с постоянными лицензиями, которые купил и используешь ?

Отсюда вылезает момент, что если нужно много емкости, то дешевле купить сразу VCF, чем VVF+vSAN. Хорошо это или плохо - it depends.

Модель лицензирования перетрясли, это просто неприятно. Как и цены.

Потому что теперь надо искать две позиции.

Так и раньше было далеко не одна позиция. Как минимум, лицензия + поддержка/подписка. А теперь одна VVF, а вторая vSAN. Или вообще одна - VCF. Оптимизация. :) А если серьезно, то какая, по большому счету, разница? Все равно спеку всегда делал или партнер, или вендор, поэтому заказчику пофигу.

и что там, говорите, с постоянными лицензиями, которые купил и используешь ?

Да все просто - их больше нельзя купить. Только подписка на 1/3/5 года.

Модель лицензирования перетрясли, это просто неприятно. Как и цены.

Модель лицензирования сделали проще (с 8000 парт-номеров до нескольких десятков (ну может сотни, если все считать)). Как и просили пунктом выше. А цены.. It depends. Знаю тех, кто остался очень доволен. А знаю тех, кто остался ОЧЕНЬ нет.

"С открытым демо-стендом, и возможностью скачать демо для просмотра, и готовым учебным курсом. Желательно онлайн."

Как будто у HPE, DELL, Nutanix и прочих вендоров это всё есть и можно в любой момент этим воспользоваться. :)

vmware hands on lab - это чисто фишка VMware (ныне Broadcom). Даже у самого Broadcom такого нет, т.е. нельзя зайти к ним на сайт и покрутить виртуальный коммутатор, выполнить демо задачи и прочее.

Nutanix CE, бесплатные курсы на портале и демка в AWS. А лабы есть как минимум у Netapp.

За 7 лет эксплуатации VMware vSAN All Flash особых проблем не было (в том числе с ES code 6 +dedup). Переживало всё - умирание дисков, смерть контроллеров, смерть серверов, несколько обесточиваний всего кластера. И железо далеко не всё входило в HCL. В качестве альтернативы - если только S2D, но у МС есть ограничение на размер дедуплицирования дисков. Еще один плюс решений vSAN и S2D - даже если вас кинут с продлением и поддержкой лицензий - у вас будет возможность заменить железо в случае проблем.

За 7 лет эксплуатации ..

+1. Тоже самое могу подтвердить для S2D.

HCI на Hyper-V со Storage Spaces Direct (S2D) в филиале работает уже 8-й год. Беспроблемный совершенно. Страшилки в статье несколько преувеличены. Из плюсов S2D могу назвать возможность запустить стабильный результат на очень большом списке железа. + возможность собрать стенд-прототип на коленке в самом Hyper-V. Иногда бывает полезно.

Астра Брест 3.3.1 отлично работает на 3 серверах в гипер конвергентной конфигурации.

А на кластере из хотя бы 25 серверов?

Спасибо автору за сатиру в тексте, всё знакомо и одаренность сотрудников и кумулятивный патч ломающий ReFS. Соглашусь с тем что, гиперконвергентная инфраструктура это для быстрорастущего малого бизнеса, когда "Ну не-е-ет, на старый VNX с авиты у нас денег нет, а в лизинг надо взять LX470 обязательно, так как наша группа компаний самая групповая"

Скорее наоборот. HCI очень активно используется в супер большом Enterprise, где уже задолбались СХД добавлять в инфраструктуру пачками каждый квартал.

На VMworld в далеком 2020 показывали цифры с телеметрии (~20% заказчиков и самых крупных там нет, т.к. им нельзя в телеметрию).

А что в этом случае добавляется не пачками в инфраструктуру? Откуда объёмы возникают?

просто множество одинаковых хостов (или сразу стоек с серверами и ToR) + leaf (или leaf+spine если рост идет подами/блоками и есть superspine). Хосты, как правило, докупаются на основании рамочного договора закупки - есть цена одного сервера в нужной набивке (или несколько типов, если нагрузка сильно разнородная), по которым вы можете купить сколько вам надо в течение срока контракта.

Здесь речь не о рамочных договорах, а о целесообразности. Если имелось ввиду что то плотноупакованное типа Huawei E6000 Blade Server Chassis и прочие HPE C7000 , то этими решениями уже наелись - очень чувствительные к охлаждению и сообственно, где там объемы дисковые? В пользу классических СХД , говорят дисковые полки высокой плотности AIC JBOD J4078-02  и AIC JBOD J4078-01 (от 100 дисков 3,5) , где (как у одного отечественного производителя ) можно лицензировать только количество дисков, а диски докупать какие душе угодно. Зачем мне заморачиваться с тем что при потере части серверов (при перегреве) у меня "падает" вся инфраструктура и по всей видимости очень проблемно будет восстанавливаться ?

Вы как-то намешали всё в огромную кучу...

Если имелось ввиду что то плотноупакованное

Плотность тут не принципиальна вообще. HCI может быть построен как на обычных 2U железках (или 4U), так и на 1U, или даже на 4N/2U коробках. И да, высокоплотные сервера (те же 4N/2U) сейчас уже не популярны, потому что там вылезают ограничения по набивке (макс. TDP CPU, число RAM слотов, число дисков, карт I/O, etc), а толку никакого нет, т.к. стойку вы ими все равно не забьете. 42U стойка забитая 40 стандартными 1U серверами в средней/обычной набивке потребляет 32кВт и дает 109к BTU/h. Как правило, подвести столько электричества и забрать столько тепла проблематично в большинстве ЦОД. Поэтому плотность, наоборот, принудительно снижают, переходя на 2U сервера и, соответственно, уменьшая их количество на стойку в два раза.

где там объемы дисковые?

Когда блейд системы были более популярны, HCI можно было строить и на них - What Blade Servers Are Certified as VMware vSAN Ready Nodes? | Blades Made Simple Нужно ли это - другой вопрос. Для этого, в реальных кейсах, использовались или дисковые корзины в блейды (типа D3940 в Synergy) или лезвия с бОльшим число дисков (типа CH225 V5). Но сейчас это, действительно, уже мало кому нужно.

дисковые полки высокой плотности AIC JBOD J4078-02  и AIC JBOD J4078-01 (от 100 дисков 3,5)

Такие полки имеют крайне мало отношения к рассматриваемому сценарию. Ибо это, по определению, холодный/архивный тир хранения. Для промышленной нагрузки, в лице смешанной виртуальной инфраструктуры, уже давно большинство крупного Enterprise перешло на All Flash. HCI - это тоже быстрый/основной тир, а никак не холодное хранения. Более того, если мы говорим про плотность, то по сценарию из первого пункта у вас просто вместе с серверами уже идет 480 2.5 слотов на стойку. В случае классической инфраструктуры вам сервера и так, и так надо ставить, а сверху еще контроллеры и полки.

можно лицензировать только количество дисков, а диски докупать какие душе угодно

Не буду говорить за всех, но в самых популярных HCI решениях все аналогично - покупаете лицензии, а диски ставите какие угодно (понятно, что из HCL, но там есть практически все от вендорского железа до оригинальных Samsung/Intel/Micron/Seagate/WD/etc) дисков.

при потере части серверов (при перегреве) у меня "падает" вся инфраструктура и по всей видимости очень проблемно будет восстанавливаться 

В HCI решениях, вы легко можете потерять хоть всю стойку и ничего не упадет. В VMware vSAN это Fault Domains (Designing and Sizing vSAN Fault Domains (vmware.com)), в Nutanix - Rack Awareness (Rack Awareness (nutanix.com)),

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации

Истории