Смотреть надо. При правильной настройке ничего отваливаться не должно: сама виртуалка становится «недоступной» только в момент перемонтирования стораджей на новом хосте. Что-то значит со стораджем, если процесс монтирования такой долгий, что успевают отвалиться TCP-сессии. Во время копирования памяти (а это — самая долгая часть процесса миграции) виртуалка остается на старом хосте и продолжает работать.
Так что — смотрите хранилище.
Есть, правда, у меня другие предположения, но они совсем уж невероятные: у вас Windows Server 2008 не R2 — в нем просто нет Live Migration, или же вы используете Quick Migrtaion вместо Live Migration в R2.
балансировку нагрузки на диски хорошо бы так же видет и гипервизору. потому что если он свалит на один стор слишком много прожорливых машин — плохо станет всем. store vmotion они уже большинство умеет, осталось привязать измерялку и переносить диски вируталок между сторами в зависимости от статистики.
Hyper-V, к сожалению, не умеет переносить виртуалки на другой стор без шатдауна. Во всяком случае — пока не умеет. Поэтому нужно заранее, при планировании инфраструктуры — размещать виртуалки так, чтобы нагрузка на один лун была минимальной.
для недорогих полок 500 иопсов могут быть заметной нагрузкой. недавно приводились цифры от разработчиков СХД — 100 иопсов на винт saта, 150 sas.
Боюсь, что пятьюстами иопсами можно положить только совсем уж недорогие полки. А приведенные цифры от разработчиков — это сферический конь в вакууме. Очень многое зависит от интерфейса (iscsi/sas/fc), от контроллеров полки, да и от самих хардов — контроллеры на них бывают разные, оборотистость разная. А бывают вообще диски вроде как SAS, а на самом деле — те же SATA только с SAS-чипом на плате. Еще очень многое зависит от типа операций (рандом, последовательно, запись, чтение) и разумеется — от типа массива.
В ESX же веб-интерфейс вроде был? Или он был только в платном ESX, а в ESXi его нет?
Если уж быть совсем принципиальным — режим Core полноценно поддерживает павершелл, которым можно при желании рулить виртуалками прямо с хоста. Об удобстве речь конечно не идет.
Вот только я не уверен, что оттуда можно подключиться к консоли виртуалки.
Комплектация с кожаными сиденьями стоит, как правило, чуть дороже :)
Внешняя система управления — а что в этом плохого? :)
Кстати, раз на то пошло — есть vmware esxi, который тоже бесплатен, и имеет встроенный веб-интерфейс.
Достаточно купить Windows 7 — и но проблемз. В любой организации есть хотя бы одно рабочее место с Windows. Набор средств управления (RSAT), в которые входит и Hyper-V Manager — бесплатен.
я где-то на хабре новости видел про то что планки уже по 32Г выпускаются.
Давно не смотрел хьюлеттовский product bulletin, возможно уже и есть.
а когда вся БД помещается в памяти, то только тут начинаются юзаться ресурсы CPU, а до этого постоянный своппинг не дает еще использовать весь ресурс CPU :)
Во-первых, зачем-то удалённый доступ засунули в «виртуализацию представления»
Засунули, очевидно, за тем, что так и есть. Удаленный доступ — это когда админ удаленно заходит на сервер что-то подправить. А когда 100 пользователей работают с приложениями на сервере, получая только «картинку» — это уже виртуализация представлений.
Во-вторых совершенно нереальные цифры для терминальных служб. Как по трафику, так и по производительности.
Где именно «нереальные»? Все реально. При разрешении 800*600*8бит вполне реально работать даже через GPRS, а для 1С например — больше и не нужно.
В третьих чушь насчёт вирусов на флешах. Малейшая ошибка сисадмина, и «вирус на флеше» размножается уже на сервере.
Если явно не разрешено монтирование локальных дисков в терминальных сессиях — то флэшка, воткнутая в клиентский комп на сервере и не появится. А следовательно, и вирь с флэшки на сервер не попадет. А от кидо давно уже и патчи существуют, и нативири о них знают. К тому же в WS2008 групповыми политиками AD можно запретить флэшки вообще как класс, а так же политиками AppLocker запретить запуск любых приложений кроме разрешенных.
Насчёт «бежать и нажимать резет» реально смешно. Все сервера, даже 5-7 летней давности имеют impi, который позволяет и включить, и выключить и сделать кучу других вещей.
Ну, к примеру, в HP-шных серверах полноценный iLO с графической консолью и монтированием удаленного CD-ROM'а стоит денег. А виртуальные машины позволяют делать это бесплатно.
Я сегодня уж второй день как е#$%сь с xen cloud, и я хочу сказать, что если бы это не было моей основной работой, то послал бы я нафиг все эти заморочки.
Несколькими постами выше, Вы писали, что Xen Cloud — это мегарулез, по сравнению с которым Hyper-V просто отдыхает, и даже vSphere курит в уголке. По-видимому, это правда — если Вы второй день не можете заставить его работать как надо :)
вы получаете масштабнейший геморрой с администрированием уже xen'овских серверов (не дай бог сервера различаются по степпингу процессоров)
Вообще «правила хорошего тона» говорят, что все ноды в составе кластера должны иметь целиком и полностью идентичное железо.
вероятность, что засранец не только хакнет машину, но и вылезет в гипервизор
У vmware — было. У Hyper-V это сделать намного сложнее из-за микроядерной архитектуры гипервизора.
Про прелесть возни с hyper-v вообще говорить нечего, на этом фоне даже «шуточки» с xenconsole кажутся детским лепетом.
www.techdays.ru/videos/1439.html
Вот пример построения кластера под Windows Server 2008 R2 с Hyper-V и Live Migration. Где тут возня? Во всяком случае, двух дней секса тут точно не было.
Виртуализация — это СЛОЖНО.
Да ничего там сложного нет. Про сайзинг инфраструктуры писали все вендоры систем виртуализации — и vmware, и MSFT, и Citrix. RTFM, как говорится.
До сих пор нет ни одного адекватного метода управления нагрузкой на диски. Ни у MS, ни у VMWare, ни у parallels, ни у quest, ни у citrix/xen, ни у прочих вендоров.
Ваще-т этим железки должны заниматься — RAID-контроллеры и контроллеры СХД.
Пять сотен рандомных операций чтения/записи малых блоков в секунду — и даже сказёвые рейды идут на йюх, включая соседей по виртуализации
Пятистами iops'ами просадить дисковую на сервере? Е-мое, да самая завалящая MSA2000 с легкостью перенесет и более высокие нагрузки (в тысячу-другую иопсов) на одном контроллере. А контроллеров у нее два. Боюсь, 500 иопсов не просадит даже дерьмовенький adaptec с RAID10 из 4 SATA-дисков.
Я пока даже не говорю про растущую опасность ошибки, потому что одно неверное движение с бриджем/биндингом интерфейсов, и машины смотрят не туда или не то делают.
Наша служба и опасна и трудна, и на перый взгляд как будто не видна…
Чем больше критических для бизнеса сервисов в организации (а гипервизор для всех серверов — это явно не дёшево)
Зависит от сервисов и количества серверов. Гипервизор и два сервера вполне могут обойтись дешевле десятка серверов, а если там ПО Microsoft — то дешевле и по лицензиям.
тем больше денег надо платить сисадмину, и тем сложнее ему найти замену (и аутсорс не поможет, потому что там ТОЖЕ умеют считать деньги за работу).
Да, верно. Но это справедливо для любой системы, и виртуализация не особо систему усложняет, а я б сказал даже упрощает.
В VMware — не скажу, ибо не видел. В Hyper-V — меньше минуты сама миграция, при этом ни одного ping timeout'a, и даже терминальная сессия к виртуалке не отваливается. Подозреваю, что у vmware не хуже — иначе б они не носились со своим vmotion как с писаной торбой.
Hyper-V стоит столько же, сколько и IIS — то есть бесплатно. Входит в состав Windows Server 2008.
Есть еще целый Hyper-V Server, который бесплатен — на хабре даже про него пара статей была.
за стоимость сервера 128 гигами можно смело собрать пяток чуть менее пижонистых серверов и сделать из них то, что нужно.
Возьмем самый простой сервер, HP DL160. Есть модели с 12 слотами оперативки, есть — с 18. Процессорных сокетов у него — одна штука. Неужто вы думаете, что DL160G6 с 16 8-гиговыми планками памяти будет стоить, ну, к примеру, как 10 DL160 по 16 гиг в каждом? Даже с более слабыми процами? Да даже один DL580 с четырьмя 6-ядерными Xeon'ами 7000-й серии и 256 гигами памяти (32 слота по 8 гиг планки) обойдется дешевле десятка 160-х.
Про то, что десять серверов занимают 10 юнитов в стойке, а 4-процовый — всего 4 юнита, и энергии один мощный сервер жрет намного меньше, чем десяток более слабых — можно и не говорить, это очевидно.
ЕМНИП Microsoft позволяет лицензировать только активную ноду в active/passive кластере. При фаиловере лицензия как бы передается тому узлу, который становится активным.
Есть старый анекдот про Василия Иваныча, Петьку и нюансы.
Так вот, если сравнивать, например, VMware ESXi и Hyper-V — вроде как делают они одно и то же, но архитектура гипервизора разная принципиально — у ESXi она монолитная, у Hyper-V — микроядерная. В результате, у VMware очень и очень ограниченный список поддерживаемого железа.
Я уверен, такие же нюансы есть и в перечисленных Вами продуктах, и потому, поскольку о них я не знаю ничего, кроме названий — решил и не упоминать, от греха подальше. Если Вы напишите соотвтетсвующую статью — буду только рад.
Модный тренд — потому что о виртуализации всего и вся говорят все, кому не лень. Я заметил это еще во времена Virtual Server 2005 на конференциях вендоров железа — HP и Fujitsu-Siemens. Ну а с появлением Hyper-V все только усилилось, и холивар MS vs VMware уступит разве что Win vs Lin и PC vs Mac.
Так что — смотрите хранилище.
Есть, правда, у меня другие предположения, но они совсем уж невероятные: у вас Windows Server 2008 не R2 — в нем просто нет Live Migration, или же вы используете Quick Migrtaion вместо Live Migration в R2.
Hyper-V, к сожалению, не умеет переносить виртуалки на другой стор без шатдауна. Во всяком случае — пока не умеет. Поэтому нужно заранее, при планировании инфраструктуры — размещать виртуалки так, чтобы нагрузка на один лун была минимальной.
Боюсь, что пятьюстами иопсами можно положить только совсем уж недорогие полки. А приведенные цифры от разработчиков — это сферический конь в вакууме. Очень многое зависит от интерфейса (iscsi/sas/fc), от контроллеров полки, да и от самих хардов — контроллеры на них бывают разные, оборотистость разная. А бывают вообще диски вроде как SAS, а на самом деле — те же SATA только с SAS-чипом на плате. Еще очень многое зависит от типа операций (рандом, последовательно, запись, чтение) и разумеется — от типа массива.
Вот только я не уверен, что оттуда можно подключиться к консоли виртуалки.
А что за контора, если не секрет? Первый раз о таком слышу.
А как у вас там с цисками? IOS тоже платный, и на отдельные фичи иногда приходится покупать лицензии.
Внешняя система управления — а что в этом плохого? :)
Кстати, раз на то пошло — есть vmware esxi, который тоже бесплатен, и имеет встроенный веб-интерфейс.
Давно не смотрел хьюлеттовский product bulletin, возможно уже и есть.
От дисковой все зависит. И от операций с базой.
Засунули, очевидно, за тем, что так и есть. Удаленный доступ — это когда админ удаленно заходит на сервер что-то подправить. А когда 100 пользователей работают с приложениями на сервере, получая только «картинку» — это уже виртуализация представлений.
Где именно «нереальные»? Все реально. При разрешении 800*600*8бит вполне реально работать даже через GPRS, а для 1С например — больше и не нужно.
Если явно не разрешено монтирование локальных дисков в терминальных сессиях — то флэшка, воткнутая в клиентский комп на сервере и не появится. А следовательно, и вирь с флэшки на сервер не попадет. А от кидо давно уже и патчи существуют, и нативири о них знают. К тому же в WS2008 групповыми политиками AD можно запретить флэшки вообще как класс, а так же политиками AppLocker запретить запуск любых приложений кроме разрешенных.
Ну, к примеру, в HP-шных серверах полноценный iLO с графической консолью и монтированием удаленного CD-ROM'а стоит денег. А виртуальные машины позволяют делать это бесплатно.
Несколькими постами выше, Вы писали, что Xen Cloud — это мегарулез, по сравнению с которым Hyper-V просто отдыхает, и даже vSphere курит в уголке. По-видимому, это правда — если Вы второй день не можете заставить его работать как надо :)
Вообще «правила хорошего тона» говорят, что все ноды в составе кластера должны иметь целиком и полностью идентичное железо.
У vmware — было. У Hyper-V это сделать намного сложнее из-за микроядерной архитектуры гипервизора.
www.techdays.ru/videos/1439.html
Вот пример построения кластера под Windows Server 2008 R2 с Hyper-V и Live Migration. Где тут возня? Во всяком случае, двух дней секса тут точно не было.
Да ничего там сложного нет. Про сайзинг инфраструктуры писали все вендоры систем виртуализации — и vmware, и MSFT, и Citrix. RTFM, как говорится.
Ваще-т этим железки должны заниматься — RAID-контроллеры и контроллеры СХД.
Пятистами iops'ами просадить дисковую на сервере? Е-мое, да самая завалящая MSA2000 с легкостью перенесет и более высокие нагрузки (в тысячу-другую иопсов) на одном контроллере. А контроллеров у нее два. Боюсь, 500 иопсов не просадит даже дерьмовенький adaptec с RAID10 из 4 SATA-дисков.
Наша служба и опасна и трудна, и на перый взгляд как будто не видна…
Зависит от сервисов и количества серверов. Гипервизор и два сервера вполне могут обойтись дешевле десятка серверов, а если там ПО Microsoft — то дешевле и по лицензиям.
Да, верно. Но это справедливо для любой системы, и виртуализация не особо систему усложняет, а я б сказал даже упрощает.
Есть еще целый Hyper-V Server, который бесплатен — на хабре даже про него пара статей была.
Возьмем самый простой сервер, HP DL160. Есть модели с 12 слотами оперативки, есть — с 18. Процессорных сокетов у него — одна штука. Неужто вы думаете, что DL160G6 с 16 8-гиговыми планками памяти будет стоить, ну, к примеру, как 10 DL160 по 16 гиг в каждом? Даже с более слабыми процами? Да даже один DL580 с четырьмя 6-ядерными Xeon'ами 7000-й серии и 256 гигами памяти (32 слота по 8 гиг планки) обойдется дешевле десятка 160-х.
Про то, что десять серверов занимают 10 юнитов в стойке, а 4-процовый — всего 4 юнита, и энергии один мощный сервер жрет намного меньше, чем десяток более слабых — можно и не говорить, это очевидно.
Где Вы увидели копипасту? Я рассказывал то, что знаю сам, на собственном опыте.
Можно раскрыть тему подробнее?
Я уже несколько раз написал, что я пишу о том, что знаю. То, что не знаю — не пишу. Буду рад, если Вы дополните мою статью.
Еще раз: я пишу о том, что знаю и с чем работаю. Кроме этого, по-моему продукты MS интересны в этом плане ничуть не меньше, чем все остальные.
Это благодаря TCP Offloading Engine ;)
Так вот, если сравнивать, например, VMware ESXi и Hyper-V — вроде как делают они одно и то же, но архитектура гипервизора разная принципиально — у ESXi она монолитная, у Hyper-V — микроядерная. В результате, у VMware очень и очень ограниченный список поддерживаемого железа.
Я уверен, такие же нюансы есть и в перечисленных Вами продуктах, и потому, поскольку о них я не знаю ничего, кроме названий — решил и не упоминать, от греха подальше. Если Вы напишите соотвтетсвующую статью — буду только рад.