Как стать автором
Обновить

Комментарии 41

НЛО прилетело и опубликовало эту надпись здесь

Не даром несколько очень крупных компаний отказалась от VMware в виду непомерных цен.
Наступает момент, когда цена на VMware начинает быть выше содержания в штате пары специалистов по альтернативным системам.

НЛО прилетело и опубликовало эту надпись здесь

Продуктами из облачной платформы и облака на базе VMware мы закрываем разные задачи. Поэтому вопрос затрат с точки зрения эффективности не стоит.

НЛО прилетело и опубликовало эту надпись здесь

В сферическом вакууме - ты "платишь своим, которые делают что скажешь" или "платишь чужим, которые просто берут деньги, и, возможно, когда-нибудь...". Главное преимущество готовых решений в глазах людей - порог вхождения по квалификации - ниже, как и вероятность "зайти не туда".

Для "запустить пару ВМ" - можно и xml руками покромсать, и скрипт с командной строкой на на 2 экрана... А вот для кучи ВМ на куче серверов - явно нужно решение посложнее.

НЛО прилетело и опубликовало эту надпись здесь

А начинающему проекту что бы посоветовали из двух? Или лучше решения от ispsystem.

Все зависит от ваших потребностей, компетенций специалистов и задачи. «Для себя» можно поднять, например, частное облако на OpenStack, если нужна открытость. Хотите готовое решение из коробки — VMware.

Сравнивать решения с тем же ISPmanager будет некорректно, потому что последние это некое «фротенд-решение» для управления веб-хостингом, сайтами, ПО вроде Nginx или Apache.

НЛО прилетело и опубликовало эту надпись здесь

Да, вероятно. Спасибо, что поправили

Понятно, спасибо. Возьму на заметку.

Proxmox или Opennebula (как ниже в комментарии уже кто-то указал). Это если просто нужен инструмент, облегчающий тебе жизнь. Возможно, еще oVirt, но я с ним толком не работал.

Openstack - тяжеловат. В небольшой компании может получиться так, что время админа будет уходить на обслуживание собственно самого Openstack :) (шутка)

Если сравнивать Proxmox vs Opennebula, на мой взгляд Proxmox выглядит более совершенным продуктом. Кроме того, более легковесный, можно развернуть на одном сервере.

Еще - не уверен насчет Proxmox, Opennebula вроде неплохо масштабируется, пишут что несколько сотен виртуалок вполне реально на ней запустить (я запускал три десятка).

Opennebula, в отличии от Proxmox, под капотом имеет libvirt, считаю это плюсом.

p.s. для больших датацентров компаний вроде Selectel и большого числа виртуалок Openstack самое то (как и все технологии VMWare). А там пусть клиент выбирает.

Есть иногда большие ограничения: докер в Proxmox запускать не рекомендуется очень.

Откуда инфа и причина почему нет?

Из двух посоветую третье -ProxMox. Если деплоймент не большой (до 32 узлов). И ещё OpenNebula — которая "облачная" панель и работает с разными гипервизорами.
Но точнее — вы не озвучили цели проекта. Если у вас большой хостинг (10+ хостов) — OpenStack окупает сложность вхождения. Также если в будущем может сильно разрастись. Если меньше — см первое предложение.

НЛО прилетело и опубликовало эту надпись здесь

Смеюсь на тему "особенности регионального мышления". Притом моего собственного ....

Мой совет такой) Однозначно лучше брать проприетарный продукт, который поддерживает вендор, а не опенсорс решение с дырами. Для начинающего - берите вмманеджер. Это наши ребята, они с рынка не уйдут, ценник для начинающих более чем лояльный)

OpenOffice.org pro © 2003, 2010 «Инфра-Ресурс»

Реально классный и довольно совместимый с MS. Но вот компании - кердык. Всё бывает - как видим, и ко всему стоит быть готовым.

Интересно, "куда пойдёт Линукс, если на Линуса упадёт пингвин"? Насколько сообщество к такому готово?

Openstack ну очень... Грубоватый на углах. Open-source версия нуждается в постоянном допиливание, а флейворы от хороших компаний стоит не меньше решений VMware. Словом идёте пути OpenStack, готовьте хороший так штат людей, а не просто админов.

Ещё если масштаб небольшой, то можно попробовать Cloudstack, у него лицо куда человечнее.

Ну и если OpenStack хочется просто попробовать, то Microstack можно развернуть крайне быстро даже на домашнем компьютере.

Все ломает ФОТ..... 2 - дежурных админа 2/2 и 2 не плохих специалиста 5/2 - это минимум для нормального ЦОД и это реально от 8 млн в год на ФОТ в САМОМ минимуме - в случае OpenStack Это нельзя отложить на потом они нужны уже на старте.

в конечном итоге OpenStack Дешевле, но не намного и сильно двигает ROI из-за потребности в Высококвалифицированном персонале.

вот и получается что вроде Бы софт бесплатен, но потребность в дорогом персонале вполне может нивелировать разницу в стоимости софта...

Вероятно для хостера примерно так и есть.
В общем же случае общие рассуждения без применения к сценарию использования это абстрактные знания.

Что есть на практике:
Для среднего сегмента, которому нужно частное облако, у которого нагрузка - это офис с преобладающей Windows инфраструктурой, на своём железе в своём датацентре или используя colocation. Проверено на масштабах от 4 гипервизоров / 200 пользователей до 50 на 5500 пользователей с парой промежуточных по масштабу внедрений.
После расчётов TCO приходили к выводу, что выгоднее будет не VmWare решения или OpenSouce, а Hyper-V.
VmWare - адская зависимость от сертифицированного "железа". Да, если уже работает - будет работать. Но обновления ставить всё равно надо, дыры закрывать. А вот выпадание целых семейств оборудования из поддержки, увы реальность. Кластерные решения фактически требуют двойного лицензирования. Один пакет на VmWare, второй - либо standard лицензии на все ядра ОС в кластере умноженные на количество узлов (!). Либо покрывать ядра гипевизоров, покупая Windows datacenter лицензии.
OpenSource - зависимость другого рода. Специалисты. Нужно их один-два при таком масштабе, но они очень быстро становятся критической точкой отказа. За счет уникальности накрученного конкретно под эту платформу для этого предприятия. Лицезии на гостевые ОС, если это кластер, считаются так же как и в предыдущем случае.
Hyper-V - всеядность по железу. Лицензируя гипевизоры Datacenter лицензиями получаем лицензированные гостевые ОС. Нужно сделать HCI - не вопрос, докупать "фичи" как у VmWare не нужно. Специалисты на рынке есть, стоят меньше. Накрутить что-то уникальное не получится, точкой отказа не станут. В целом выходит так же надёжно и функционально, как и VmWare, в совокупной стоимости владения дешевле, чем два предыдущих варианта.

Если у вас другой профиль нагрузки - считайте обязательно, что будет выгоднее в вашем случае.

Proxmox VE - всеядность по железу )

Прибитость гвоздями к HCL это "эксклюзивная особенность" VmWare.
Есть альтернативные драйверы, конечно, но их мало и они глючные. Поиграть в лабе удобно, в прод ставить с такими драйверами категорически нельзя.

Для Windows Server есть свой лист совместимости, где примерно такое же количество моделей, а по факту работает любой сервер выпущенный с 2017 года за исключением некоторых адаптеров.

Действительно жёсткий HCL для VSAN ESA, но его компенсирует полное отсутствие спецов по S2D на рынке труда

Действительно классное решение у Nutanix с их ПАКами, где требований к персоналу вообще нет и последние версии ближе всех к "облаку в коробке".

по факту работает любой сервер выпущенный с 2017

И даже раньше. На Windows server по факту работают на ура E5-26XX Xeon от 2012-года.

ESXi 7.0 на этом хламе тоже будет работать, но вам это точно нужно с учётом стоимости лицензий на Windows Server Datacenter и размещения в ЦОДе?

Ну, далеко не факт, что ESXi 7 там заведётся. Если только RAID/сетевушки не подбирать, 5.Х - наверняка. 6.Х - скорее да.
Такой "хлам" хорош тем, что он ещё очень даже живой, и на нём отлично работают кластеры Hyper-V на свежих версиях Windows Server. Да, не в проде, но для тестовых сред отлично подходят. Собственно, так и используются сейчас, ЦОД-ы свои, небольшие, стоек на 5-8.

Нормальное железо заведётся, тот же IBM x3550 M4 даже был в HCL для ESXi 7.0 какое-то время.

Проблемы будут только с FC-адаптерами и экзотикой типа Адаптека, а сеть (Mellanox CX3, Intel X520) и диски (LSI 9207, LSI 9270) скорее всего заработают.

к сожалению HyperV Тащит всю нестабильность Windows с собой на Хост, а с учетом текущей политики компании M$ - все получается далеко не весело и не очень интересно.

Да и стоимость кластера с 30+ хостами уже как минимум сопоставима с VMWARE из-за всех необходимых дополнительных фишек для управления.

К сожалению ничего вразумительного с масштабами более 30 Хостов на HyperV я найти не смог - было бы очень интересно пообщаться с админами обcлуживающими Такого или Большего масштаба Кластер и посмотреть на TCO.

про всеядность HyperV - Миф иногда они выдают крайне специфические Глюки на ровном месте особенно на старых Камнях и не совсем простых сетевках. Про работу Сети в Hyper-V можно написать отдельную грустную Оду... особенно про скорость, когда нужно 40/100G..... Запуск гиперконвергентного Хранения на Windows это тоже отдельная Опера во многих актах...

было бы очень интересно пообщаться с админами обcлуживающими Такого или Большего масштаба Кластер и посмотреть на TCO

Welcome, можно в личку. Про стоимость, в случае если workload в основном на винде, я специально отдельно написал. Кластер Hyper-V дешевле кластера на VMWare в этом случае практически всегда.

т.е. при функционально сопоставимых Внедрениях у вас получилось что VMWare дороже? Вопрос - а как вы управляете кластером на HyperV(те же 30 нод)? развертывание, Обновления, Распределение/Балансирование/Квотирование ресурсов?

Да, дороже. Потому как гостевые ОС выгоднее ядрами гипервизоров лицензировать в обоих случаях, а в варианте VmWare нужно ещё и её саму покупать...
Управление - VMM + навеcной мониторинг Zabbix c Grafana.

Пора уже на k8s строить

И ведь строят же: kubevirt, harvester, что-то там флант ещё выкатил. Но не пойму - зачем? Обслуживать нифига не проще.

Свои Плюшки туту есть - если инфраструктура настроена по канонам то получается очень простое и оперативное восстановление и управление обновлениями с возможностями отката..... Плюс тут реально нужен другой концептуально подход отличающийся от классического и тогда есть много плюшек которые могут перекрыть все минусы со сложностью настройки и управления

Один из клиентов: есть и OpenStack и VmWare. По паре админов на каждый. Оффициальная поддержка от RedHat и VmWare. И в тоже время K8S кластера работают намного более устойчиво на OpenStack.

Так себе сравнение руки с пальцем.

VMWare можно сравнивать с Hyper-V, Proxmox, oVirt, потому что они на одном уровне абстракции.

OpenStack выше уровнем абстракции и может под капотом легко работать в VMWare, Hyper-V, KVM, LXC и прочими. Видел даже управление виртуалками в AWS через OpenStack (решение было временное и на коленках, но оцените размах!). Ближайшие аналоги это OpenNebula и Apache CloudStack.

Поэтому сравнение крайне странное.

Proxmox - это "управлялка kvm/qemu" (lxc вроде ещё) - но не вижу проблем "переточить" на что-то ещё. У Linux - есть ZFS = сжатие, снапшоты, клоны, целостность данных. Но далеко не все это проксмокс умеет "как надо".

VMware - комплексное решение, там куча продуктов. Сравнивать его с Hyper-V - даже странно. Зато есть беда - поддержки ИБП "из коробки" не просматривается (есть разные варианты решения - но ёлки-палки, не первый же день на рынке...).

У qemu/kvm - очень широкие возможности по эмуляции различной кучи железа, больший контроль на низком уровне - это бывает очень полезно при переносе физической инфраструктуры (например, можно мак-адреса "утащить", или процессор "изобразить" нужный, и т.д.).

А нужно ли покупать лицензию на ESXi, если использовать его в качестве гипервизора в Openstack?

Зарегистрируйтесь на Хабре, чтобы оставить комментарий