Pull to refresh

Comments 56

Просто в VMware поступили как в старом анекдоте — сначала привели козу в дом, потом прогнали. Теперь, вроде как, и вся модель лицензирования с vRAM не кажется чем-то ужасным.
Анекдот не знаю, но все это выглядит как обычный факап, который в принципе случается у всех — главное то, как быстро были меры: проведены опросы, проанализирована полученная информация и принято решение. Видимо в самой VMware было очень жарко эти дни.
>Анекдот не знаю,
Краткая суть: Хочешь сделать человеку хорошо — сделай сначала плохо, а потом верни как было.
Чего удивляетесь, «пиар, такой пиар...»
почему пиар? по моему это все таки ударило по компании — за эти две недели достаточно много компаний начало прикидывать и оценивать конкурентные продукты от MS и Citrix.
Кстати, хочу реально увидеть спокойное сравнение функционала Xen Cloud Platform и VMWare.

У XCP я сейчас вижу несколько проблемных мест, и мне бы хотелось узнать, как они решены у vmware… Например, как реализован cross-pool migration, за какое время поднимается из дауна пул из 10к виртуалок и т.д…
amarao, я пока еще «ненастоящий сварщик», который vSphere впервые увидел 8 месяцев назад, а первый XenServer поставил дома на лабе только позавчера, поэтому подобное сравнение я сейчас не смогу провести. Вот вы бы сами взялись бы за это дело :)
Для этого у меня слишком поверхностные знания vmware (и, главное, ни малейших стимулов изучать, т.к. посмотреть «как это на самом деле в сырцах» не получится).

У XCP есть несколько проблем, насколько я читаю рассылку, они будут исправлены в XCP 1.5, плюс мы пилим paraxe (https://github.com/selectel/paraxe), что чуток снимает проблему подъёма пула.
А у меня — околонулевые знания XCP и висящий над душой экзамен на VCAP-DCA. Так что, увы, придется нам ждать пока кто нибудь сделает это за нас.
Упс, пардон, ещё не коммитнули. Ну, в общем, эта штука запускает операции в параллель по всем хостам пула.
Мне вот всегда было интересно — а за какое время поднимаются 10000 виртуалок на xcp?
Ну, я при готовности sr'ов выдержать такой поток fsck на виртуалках синхронно, могу это сделать в пуле из 100 хостов примерно за 25-40 минут. (с учётом paraxe, без него буду страдать и мучаться больше суток). Если пулов несколько, то за 15-25 минут (там есть нюансы начальной синхронизации xapi, чем больше хостов в пуле, тем дольше оно тупит в цветочек).
да, если что, речь идёт про паравиртуализацию и линуксы. Сколько там будут винды в HVM рожать — не имею ни малейшего представления.
Страшно подумать сколько будет стоить лицензия на «пул из 10к виртуалок» под VMware :)
Такие цены обсуждаются на уровне руководства регионального представительства и выше, и обычно не имеют ничего общего с «листпрайсом».
Ну я же не всерьез. Я работаю с многими очень большими корпоративными окружениями и ни в одном из них даже близко нет такого количества виртуалок.
А супер-большых паблик клаудов на VMware не встречал.
за эти две недели достаточно много компаний начало прикидывать и оценивать конкурентные продукты от MS и Citrix

Думаю, что всерьёз о выборе конкурентов могла задуматься весьма небольшая часть компаний, у которых решение о покупке уже «горело». У них не было возможности ожидать релиза и окончательных цифр.

С другой стороны, если слухи завтра подтвердятся, для многих VMware вмиг превратится из «зажравшегося монополиста» в прогрессивную компанию, которая слышит своих потребителей. Для других лицензионная политика просто станет приемлемой.

И там, и там — profit для VMware.
Конечно, всерьез прям сейчас переход на новый продукт мало кто собирался делать, но для VMware риском является уже то, что клиенты начали прикидывать переход в долгосрочной перспективе.
Слухи, кстати, уже почти официальные. :)
Отношение к VMWare очень двойственное. С одной стороны они — пионеры виртуализации x86, создатели конецпии binary rewriting (де-факто, основа текущего pv_ops в линуксе) и т.д.

С другой стороны — жирный монолитный гипервизор с уродливой архитектурой, закрытые исходные тексты, закрытая платформа, отвратительное лицензирование и геморрой на ровном месте.

На её фоне xen выглядит как вершина архитектурного совершенства. Хотя его есть за что ругать, но когда их сравниваешь, понимаешь, что VMWare живёт только за счёт своего пионерства (в смысле, раннего старта в области) и приложений, основанных на закрытом тулстеке (всякие directors и т.д.).

До тех пор, пока vmware не вытащит блочные и сетевые устройства из гипервизора, до тех пор у неё гипервизор будет оставаться жирным блобом с нулевыми шансами на более-менее приличную безопасность.
Ну они же «самое зрелое решение на рынке», им простительно. =)

С новой версией Xen становится все лучше и лучше, однако чем больше гипервизоры догоняют друг друга по функционалу, тем больше корпоративные пользователи смотрят на стоимость целостного решения.
Несколько дней назад столкнулся со следующе проблемой: У меня ESXi 4.1 (16 GB RAM), и в виртуалке создана 1 ВМ с 8GB vRAM Win2k8, далее я в виртуалке монтирую tmpfs как отдельный диск и запускаю тест скорости. Результаты теста аналогичны тесту скорости жёстких дисков в RAID10, тем самым получается, что этот диск никакой не tmpfs, а самый обычный RAID10. Вопрос — как обстоят дела у XCP, если в ВМ смонтировать tmpfs, то это будет настоящий tmpfs или через своп на RAID?
Сложно ответить не имея подробных данных. Я, кстати, уже второй раз слышу про низкие результаты скорости ram дисков в виртуальных машинах.
Какой процессор в вашем хосте? Какая именно ОС? Как называется аналог tmpfs для Windows? сколько выделили RAM диску? Чем замеряли скорость?
Я попробую сделать замер с условиями близкими к вашим и сравним. А потом уже попробуем сделать выводы.
Хост: Intel Xeon E31270 @ 3.40GHz (1 шт.) / 16GB RAM DDR3, ESXi 4.1 (348481)
ВМ: Win2k8 R2 SP1 Standard x64 (8GB vRAM), tmpfs делал средствами ImDisk выделял 2GB.
Для тестов скорости использовал CrystalDiskMark
Это вообще не проблема гипервизора, а гостевой машины. Какой она tmpfs сделает, такое оно и будет.
Меня заверяли, что разница в производительности наблюдалась между ram диском на физической машине и виртуальной, поэтому гипервизор тоже играет свою роль.
Сравнивать Xen и ESXi — тоже что холиварить та тему Win vs Unix.
Xen хорош под задачи как у Вас, Amazon'а, Rackspace'а потому что OpenSource и его можно пилить самому + он бесплатен.
Представте себе что будет удобнее, например, для компании в которой IT — не профиль? Там никто не будет ковырять сорци или долго ждать фикс. В таких компаниях интегратор настроит, проведет курсы, выберет железо по HCL и предоставит cаппорт по SLA. Что из того есть у Xen?

Кстати, раз уж Вы занимаетесь Xen — в чем он круче KVM? т.е. меня интересует — о чем можно сказать — «тут лучше использовать Xen чем KVM»
Двумя словами: архитектура и производительность.

На Xen'е совершенно спокойно можно иметь 6-8 гигабит за пределы хоста из виртуалок, несколько гигабит дисковой активности. Насколько я знаю, KVM даже близко пока к таким числам не подошёл.

Про архитектуру можно много говорить, но по сути: он реализует микроядро, которое так и не реализовали в линуксе.
Честно говоря, меня терзают смутные сомнения насчет перевеса Xen в перфомансе перед KVM и именно из за архитектуры. Тем более, что KVM в режиме pass-through выжимает из устройств 100%. Да и virtio не сильно уступает.
Можно посмотреть на вывод iperf на 10G линком под виртуалкой так, чтобы сервер при этом был за пределами самой виртуалки?
честно говоря, нет ниодного 10G в распоряжении. даже в руках не держал.
Это будет не очень честный тест (зен в нём, например, отчаянно мухлюет), но посмотрите под KVM скорость сети между двумя виртуальными машинами на одном хосте.
Это я могу, попробую попоздже вечером.
… напоминаю про обещание, ибо интересно же.
Итак, тест.

Окружение — CentOS 5.5
[root@vmhost1 ~]# uname -a
Linux vmhost1.local 2.6.18-194.32.1.el5.centos.plus #1 SMP Wed Jan 5 18:13:47 EST 2011 x86_64 x86_64 x86_64 GNU/Linux

KVM v.83

[root@********]# iperf -s
------------------------------------------------------------
Server listening on TCP port 5001
TCP window size: 85.3 KByte (default)
------------------------------------------------------------
[  4] local 192.168.5.221 port 5001 connected with 192.168.5.249 port 45514
[ ID] Interval       Transfer     Bandwidth
[  4]  0.0-10.0 sec  5.76 GBytes  4.94 Gbits/sec


[root@********]# iperf -c 192.168.5.221
------------------------------------------------------------
Client connecting to 192.168.5.221, TCP port 5001
TCP window size: 16.0 KByte (default)
------------------------------------------------------------
[  3] local 192.168.5.249 port 45514 connected with 192.168.5.221 port 5001
[ ID] Interval       Transfer     Bandwidth
[  3]  0.0-10.0 sec  5.76 GBytes  4.94 Gbits/sec


Как то так.
Для интереса гонял то же межу Хост<-->Виртуалка — результат примерно тот же.
Ага.

А вот эти же результаты в xen'е (тоже 64 бита, внутри одного хоста, на интерфейсах включены все читы зена, какие только можно — оффлоад чексумм, большой пйэлоад и т.д.):

iperf -c                                            
------------------------------------------------------------                    
Client connecting to 31.186.97.107, TCP port 5001                               
TCP window size:   256 KByte 
------------------------------------------------------------                    
[  3] local  port 48789 connected with  port 5001     
[ ID] Interval       Transfer     Bandwidth                                     
[  3]  0.0-10.0 sec  12.04 GBytes  11.55 Gbits/sec


Именно потому я очень люблю зен.

PS Разумеется, localhost — это одно большое жульничество, в реальности я с него на физику больше 6Гб/c выжать не могу (при том, что голый линукс может до 8.2Гб/c).
Давайте тогда уж vsphere и hyper-v еще :)
Сегодня не удержался и потестил скорость между VM-ками на одном хосте и между VM-ками на двух разных хостах. Оба хоста HP Blade сервера соединенные по 10Гбит к внутренней фабрике Virtual Connect.

между двумя хостами

image

между двумя хостами с TCP Windows 256K

image

Между двумя хостами с TCP Window 256K и JF 4K (увы, физическое ограничение встроенной сетевой карты в HP BL460c )

image

Между двумя хостами с TCP Window 256K и JF 4Kб, 8 сессий

image
Тут мы уже в физику уперлись.

На одном хосте, TCP Window 16K

image

На одном хосте, TCP Window 256K

image
Странно, тут почему то производительность оказалась ниже — может я в чем то ошибся.

На одном хосте, TCP Window 256K, JF 9K

image

На одном хосте, TCP Window 256K, JF 9K, 8 сессий

image

В принципе почти везде производительность упиралась в ограничения ОС и ее сетевого стека.
С другой стороны — у меня никаких твиков. И скорости между виртуалками — как и между виртуалкой и физикой. У меня там еще и куча VLAN, бриджей и всего такого.

Впрочем, мне понятно почему на Xen такой перфоманс. По сути-то в ситуации гость-гость «никто никуда не идет».
На Xen'е совершенно спокойно можно иметь 6-8 гигабит за пределы хоста из виртуалок, несколько гигабит дисковой активности. Насколько я знаю, KVM даже близко пока к таким числам не подошёл.
Мне кажется, у вас очень старая информация, т.е. я смутно помню, что-то такое давно-давно было, но сейчас это уже не актуально. Если я не прав — давайте пруфлинки. :-)
Возможно, т.к. я больше занят зеном, а про KVM больше читаю в статьях из linux symposium. В 2009 их конкретно ругали за low performance. В том числе и virtio.

За 2 года там много что могло поменяться, да. Если мне кто-то покажет циферки буду очень благодарен.
да, поменялось, RH взялся очень плотно за KVM
Что он «взялся» я понял. А вот стало ли от этого лучше — не знаю.
PS Я ничего не имею против virtio и даже с большим интересом смотрю за процессом портирования его под xen, но там файловый доступ. А у зена всю жизнь рулил и педалил блочный паравиртуализированный, а в KVM с его qemu'шной базой для блочного ввода/вывода с этим было всегда как в xen'е до установки PV в hvm домене, то есть жить можно, но хреново.

Если у них блочное устройство хотя бы 300Мб/с может выдать — это признак прогресса (и повод посмотреть на KVM чуть серьёзнее). Если нет — ну, пусть RH старается…
UFO landed and left these words here
UFO landed and left these words here
кажется слышал про 2Тб на хост. А с оверкоммитом ещё в полтора раза больше.

Это зачем вам понадобился такой ESXi?
Чтобы в случае выпадения хоста из кластера до отработки механизма HA, разом пропадало из сети 150-200 продуктивных вм? А перезапуск стакого количества машин может быть весьма небыстрым.

А стораджи? Это сколько и каких СХД нужно, чтобы выдержать такой, совсем необязательный, бутшторм по IOPS'ам, который вы сделаете себе на «ровном месте».

А режим обслуживания серверов? Ставим миграцию машин на 3 ТБ vRAM и к концу недели к вечеру может сможем выключить хост, чтобы поменять сбойную плашку памяти.

Забудьте, никто в здравом уме в корпоративном секторе не ставит для хостов ESX(i) больше 200-300 ГБ RAM.
UFO landed and left these words here
это надо десяток лицензий класса Essential

Жаль, не получится такое количество отдать одному хосту. А то бы не плохая бизнес-идея. Кажется, эти лицензии (те которые, без плюса) VMware отпускает по 5$ за пучок :)
cepera_ang,

во-1, десяток лицензий Essentials в приниципе невозможен, потому что их бывает не более 6.
Во-2, объем vRAM и объем памяти на хосте — разные вещи.

Несложно подсчитать, что для двухсокетного сервера с лицензией Enterprise лицензия дает 64 GB памяти, но что делать, если вы хотите использовать сервер с 128 GB памяти? Можно пойти простым и прямым путем, а именно просто купить еще две лицензии и добавить их в пул.
Но давайте посмотрим на ситуацию в целом.

Скорее всего вы не будете использовать память во всех ваших серверах на 100%. Один только факт использования HA в кластере 4+1 дает нам оверхед в 20% памяти (если упростить ситуацию). Плюс к этому, даже на тяжело нагруженных серверах обычно используется 80-85% памяти. Итого, 128*4*0.85 = 436 GB в нагруженной среде. Что в итоге дает 14 лицензий, исходя из реального потребления vRAM. В случае простого и прямого пути это 20 лицензий.

Целиком здесь — blog.vadmin.ru/2011/07/vsphere-5.html
>Чтобы в случае выпадения хоста из кластера до отработки механизма HA, разом пропадало из сети 150-200 продуктивных вм? А перезапуск стакого количества машин может быть весьма небыстрым.

1ТБ памяти со средним размером ВМ в 2ГБ и оверкоммите 1.5 даст 750 ВМ, а не 150-200.
Я пока не так много знаю в России крупных предприятий с 750 ВМ на всю инфраструктуру, не то что на хост.

А 750 ВМ на хост при 1.5 vCPU в среднем дадут 1125 vCPU. Рекомендованные VMware 8 vCPU / core дают 140 core.
При использовании последних 10 core Xeon'ов это минимум 4 4-хпроцессорных хоста. Добавим 1 хост под HA, итого 5 хостов по 256GB. Или 20 лицензий vSphere Enterprise Plus по 48GB. Что дает нам 960GB vRAM.
Если же слухи верны и Ent+ станет по 96GB, то 1920 GB vRAM, а это с лихвой перекрывает 1500 GB vRAM под эти виртуалки.

Впрочем цена лицензий VMware все равно капля в море после подсчета стоимости СХД под такую инфраструктуру, системы бэкапа, и (сюрприз-сюрприз!) лицензий на гостевые ОС и прикладной софт.
UFO landed and left these words here
Именно. Они испугались, что кто-нибудь в openstack прикрутит поддержку esxi и после этого окажется, что весь их проприентарный тулстек как-то вдруг и сбоку…
Да, всё просто. Старая модель лицензирования существенно не менялась уже больше 3х лет. С тех пор ресурсы типового сервера значительно увеличились (сходите, если будет такая возможность на какой-нибудь семинар Intel :D) Т.е. чтобы развернуть в N раз больше виртуальных машин на современном железе, я заплачу VMware ровно столько же (не учитывая инфляцию и прочие). Прибыль не должна убывать в долгосрочной перспективе. В том числе и чтобы финансировать разработку новых версий. Ничего лично, просто бизнес.

PS: а вот то, что до сих пор нет ясности с судьбой бесплатной лицензии ESXi, лично меня тоже очень настораживает и огорчает.
Sign up to leave a comment.

Articles