All streams
Search
Write a publication
Pull to refresh
1
0
Андрей @IT_pilot

Пользователь

Send message
Многие пишут про стоимость серверов.
Но предлагаю подумать про стоимость потери данных и стоимость простоя. На западе это один из ключевых критериев. А не «у нас упал сервер и мы подумали о переходе в облако».
Это все конечно хорошо… Хорошо там, где нас нет. Но интересно было бы узнать как в России дела обстоят. Особенно в свете импортозамещения. Сколько внедрений на основе переделанных KVM например.
то vCenter — это не только средство управления и автоматизации, но и средство конфигурирования, без которого половина функционала гипервизора недоступна.
Поэтому я и расписал подробно про различные варианты его применения.
Без VMM админить кластер не удобно, но для базовых операций вполне достаточно. Кроме того есть 5nine Hyper-V Manager, опять же Power Shell. В этом отношении бесплатный Hyper-V конечно же выигрывает в части отказоустойчивости.
Бесплатный ESXi к vCenter не подключается. Просто невозможно, вне зависимости от того, что vCenter с лицензией.
ESXi версии 6 начиная с какого-то апгрейда (не помню номер) уже содержит встроенный веб-клиент. Т.е. к ESXi можно подключаться хоть старым добрым windows клиентом, хоть через браузер.
Немного подробнее про подключение.
Клиент он единый, — вводишь имя vCenter подключаешься к vCenter, вводишь имя ESXi — подключаешься к ESXi. Если это Web клиент, то после имени ESXi нужно вводить "/ui".
Если речь идет не о бесплатном ESXi, то он однозначно управляется vCenter, на котором можно настроить политику, запрещающую подключение клиентом к ESXi.
Если же нужен кластер, то на бесплатном ESXi его не построишь. Необходимо приобрести редакцию Essentials, которая включает максимум три хоста + vCenter, который чисто для этих трех хостов, не более. Ну а если больше трех хостов — то отдельно vCenter + лицензии на проц. для ESXi.
«подключить к VMM» — так его то как раз и нужно купить.
Еще можно почитать статьи на хабре: кто лидер, а кто реальная альтернатива.
Хоть я и рьяный приверженец vmware, но, тем не менее, не буду рекомендовать ставить vmware везде и всегда. Сторонники Hyper-V меня конечно могут закидать чем-нибудь, за подобное сравнение, но считаю что нет смысла возить картошку в мерседесе С-класса. Дорого и глупо.
Каждая платформа для своих задач. И я также не думаю что Hyper-V «вообще не о чем». Просто я работал и с Huawei, и с отечественными продуктами. Есть с чем сравнивать.
А по поводу количества новых инсталляций — это конечно интересно. Где можно посмотреть?
По поводу ESXi — если у Вас есть только два хоста, например в удаленном офисе, и вам не нужна там целая СХД, то vSAN вполне может развернуться на этих двух хостах, а в качестве необходимого третьего будет выступать как раз вложенный гипервизор.
Hyper-V тоже как-бы позволяет собрать хранилку на двух хостах. Но лично у меня кластер при выключении одного хоста жил, а вот при выключении другого уже нет… Т.е. не все хосты одинаково полезны.
Автор кстати не корректно пишет про:
«1.1.4. Отключить Memory Setting -> Node Interleaving (включает NUMA) — отключено.»
Это не так.
Node Interleaving наоборот выключает NUMA. Т.е. если параметр
«NUMA Node Interleaving», включен, то ноды объединаются в единое пространство, что отключает распознавание NUMA-нод.
Иными словами, если гостевая ОС поддерживает работу с NUMA, Node Interleaving необходимо действительно выключать. Иначе гостевая ОС узлы NUMA не увидит.
А по поводу планировщика ESXi, то в версиях 6.0 и 6.5 архитектура виртуальной NUMA отличается.
В версии 6.0. производительность в некоторых многопочных приложениях зависит от настройки ядро-на-сокет. Например если у вас два процессора по 12 ядер, и вы поставили ВМ 32 vCPU (32 процессора по одному ядру) то создается три виртуальных NUMA узла и балансировщик бессильно дергает лапками — производительность падает. Но если вы ручками поставите 4 процессора по 8 ядер, то создается 4 узла vNUMA и балансировщик отлично их раскидывает по двум физическим нодам. Производительность в два раза выше. Т.е. большие ВМ лучше не создавать ибо граблей кроме этого примера хватает.
А вот в версии 6.5. виртуальные NUMA узлы создаются исходя из физической топологии.
Есть такой документ у vmware. Официальный. Он обновляется для каждой версии. Но он содержит скорее общие рекомендации. Автор использует Round Robin — а там очень много нюансов. И они зависят от производителя оборудования и от его рекомендаций по настройке, например число IOPs для переключения. Т.е. правильная настройка может улучшить производительность.
Опять же можно тщательно промониторить как ведет себя дисковый ввод ввывод, где живет очередь команд, как она изменяется в зависимости от типа балансировки (Round Robin — это тип балансировки). Это штатными средствами. Еще можно использовать утилиты не включенные в основной функционал, разработанные самими сотрудниками vmware так сказать в свободное время. Очень полезно знать какие размеры блока и с какой частотой генерирует каждый диск ВМ. В зависимости от этого можно принимать решение на каком сторажде размещать диски или какую политику на них вешать.
Но это уже тонкий тюнинг. В большинстве случаев он не нужен и, следовательно, Hyper-V вполне достаточен.
По первому пункту не согласен — всегда использовал Veeam в бесплатной версии. Лучше родного мониторинга в vmware.
А вот со вторым пунктом полностью согласен.
Недавно проводил углубленный анализ поведения NUMA в ESXi, и даже не представляю как сделать тоже самое в Hyper-V.
CPU/RAM — у Hyper-V виртуалку нужно тушить
.
У vmware HotAdd CPU убивает NUMA.
А горячее добавление RAM только в версии 6.0. позволило раскидывать память по нодам NUMA. Но если машина не большая — то очень полезно (в некоторых случаях и на ограниченном числе ВМ).
Software-defined storage — это то, что мне очень не понравилось в Hyper-V. Storage Spaces Direct не видел SSD, постоянно ломался. Одним словом не работал. В vmware все завелось на раз: HDD + SSD в группе, все ОК. И все это на двух хостах. И я уже начал забывать про Thick provision eager zeroed, ибо дисками управляет политика. И скорость работы очень радует. Но конечно в отличии от windows здесь vSAN стоит денег. Про уменьшение размера диска — это да, есть такое. Правда в версии 6.5. UNMAP вернули, и даже автоматический.
Ну а в целом — вы не затрагиваете продвинутые фичи vmware. Значит они вам не нужны, и, следовательно, для ваших задач Hyper-V достаточен. А если достаточно — зачем платить больше.
Виртуализация Windows — это лишь в малой части роль hyper-V. Это прежде всего System Center с его компонентом Virtual Machine Manager (VMM). И не забывайте про Windows Azure Pack. Сразу скажу, что я не специалист по этой самой hyper-V. Именно на это я и грешил когда у меня Azure Pack как-то не очень корректно работал. В итоге не справившись, я отступил. И очень удивился когда через пару месяцев после очередного обновления все заработало. Но я отвлекся.
В случае с windows я не могу ничего конкретно сказать про «Сертификат экспертные знания в общем случае никак не подтверждает, это просто индикатор того, что человек был на курсах и сдавал экзамен». Просто потому что не знаю насколько сложно сдать экзамен. А в случае с vmware подобное утверждение в корне не верно. И дело не в стоимости порога входа. Да, для получения VCP необходимо отучиться (что стоит немалых денег). И в России с VCP 1200 человек, которые как говориться «отучились и сдались». Но вот для дальнейшей сертификации нужны только знания. И только 46 прошли этот порог. О чем-то это да говорит.
В среднестатистический человеческий мозг конечно помещается, наверное. Но среднестатистическому человеку (IT-специалисту) просто не нужно быть экспертом по двум платформам.
Буду исходить из того, что эксперту хочется как-то закрепить свое положение, т.е. получить сертификат. Хотя конечно проще сказать: я эксперт потому что у меня 10/100/1000 хостов. Но тогда оппонент может заявить: а у меня опыт 10+ лет. Но вернемся к единым системам мер.
На примере vmware — продвинутых профессионалов, т.е. имеющих сертификат VCAP (которые вообще-то фактически эксперты) в России в 2017 году было 46 человек . Если же говорить именно об экспертах, т.е. VMware Certified Design Expert (VCDX), то их в 2017 в мире всего 265 .
Конечно эти цифры не означают, что эксперт без сертификации совсем не эксперт. Но все же склоняюсь к тому, что общее число именно экспертов не сильно больше.
И я совершенно не утверждаю, что эксперты по vmware не могут являться экспертами по Windows, Citrix и другим платформам (тем более что есть конкретные персоны). Но приведенные цифры показывают, что таких экспертов просто не может быть много.
А вот тех, кто работает с двумя и более платформами гораздо больше. Но мы же ведем речь именно о «знании особенностей двух платформ на уровне эксперта».
И если специалист потратил силы чтобы подтвердить свою экспертизу, то ему подойдет не любое место работы. И не многие компании нуждаются в подобных специалистах (в том числе исходя из той суммы, которые они готовы платить). Кроме того, как работодатель определит, что соискатель именно эксперт?
Не каждая компания может держать узкого специалиста по виртуализации.
На самом деле по windows/linux хороших специалистов много. А вот тех, кто реально понимает в одной платформе виртуализации — мало. Но если речь заходит про две платформы… По моему мнению если человек говорит что является экспертом по двум и более платформам — то скорее всего он не является экспертом ни в одной.
По поводу большинства — в vmware провели опрос на тему: «Может ли приватное облако быть дешевле чем публичное». Результаты — 41% сказали ДА! Но не для всех. www.vmware.com/content/dam/digitalmarketing/vmware/en/pdf/products/vrealize-suite/vmware-paper1-can-private-cloud-be-cheaper-than-public-cloud.pdf

Information

Rating
Does not participate
Location
Москва, Москва и Московская обл., Россия
Date of birth
Registered
Activity