All streams
Search
Write a publication
Pull to refresh
0
Александр Косивченко @System32

User

Send message
Смотреть надо. При правильной настройке ничего отваливаться не должно: сама виртуалка становится «недоступной» только в момент перемонтирования стораджей на новом хосте. Что-то значит со стораджем, если процесс монтирования такой долгий, что успевают отвалиться TCP-сессии. Во время копирования памяти (а это — самая долгая часть процесса миграции) виртуалка остается на старом хосте и продолжает работать.

Так что — смотрите хранилище.
Есть, правда, у меня другие предположения, но они совсем уж невероятные: у вас Windows Server 2008 не R2 — в нем просто нет Live Migration, или же вы используете Quick Migrtaion вместо Live Migration в R2.
балансировку нагрузки на диски хорошо бы так же видет и гипервизору. потому что если он свалит на один стор слишком много прожорливых машин — плохо станет всем. store vmotion они уже большинство умеет, осталось привязать измерялку и переносить диски вируталок между сторами в зависимости от статистики.

Hyper-V, к сожалению, не умеет переносить виртуалки на другой стор без шатдауна. Во всяком случае — пока не умеет. Поэтому нужно заранее, при планировании инфраструктуры — размещать виртуалки так, чтобы нагрузка на один лун была минимальной.

для недорогих полок 500 иопсов могут быть заметной нагрузкой. недавно приводились цифры от разработчиков СХД — 100 иопсов на винт saта, 150 sas.

Боюсь, что пятьюстами иопсами можно положить только совсем уж недорогие полки. А приведенные цифры от разработчиков — это сферический конь в вакууме. Очень многое зависит от интерфейса (iscsi/sas/fc), от контроллеров полки, да и от самих хардов — контроллеры на них бывают разные, оборотистость разная. А бывают вообще диски вроде как SAS, а на самом деле — те же SATA только с SAS-чипом на плате. Еще очень многое зависит от типа операций (рандом, последовательно, запись, чтение) и разумеется — от типа массива.
В ESX же веб-интерфейс вроде был? Или он был только в платном ESX, а в ESXi его нет?

Если уж быть совсем принципиальным — режим Core полноценно поддерживает павершелл, которым можно при желании рулить виртуалками прямо с хоста. Об удобстве речь конечно не идет.

Вот только я не уверен, что оттуда можно подключиться к консоли виртуалки.
(хлопая глазками) А у нас нет. И как бы потребности не испытываем. Убунта на ноутбуках полностью покрывает все возможные сценарии работы.

А что за контора, если не секрет? Первый раз о таком слышу.

А платное ПО означает:

А как у вас там с цисками? IOS тоже платный, и на отдельные фичи иногда приходится покупать лицензии.
Комплектация с кожаными сиденьями стоит, как правило, чуть дороже :)

Внешняя система управления — а что в этом плохого? :)
Кстати, раз на то пошло — есть vmware esxi, который тоже бесплатен, и имеет встроенный веб-интерфейс.
Достаточно купить Windows 7 — и но проблемз. В любой организации есть хотя бы одно рабочее место с Windows. Набор средств управления (RSAT), в которые входит и Hyper-V Manager — бесплатен.
Microsoft Hyper-V Server 2008 R2 — урезанный Windows Server, в котором оставили только Hyper-V. Стоимость — $0.00. Качается с сайта microsoft.com.
я где-то на хабре новости видел про то что планки уже по 32Г выпускаются.

Давно не смотрел хьюлеттовский product bulletin, возможно уже и есть.

а когда вся БД помещается в памяти, то только тут начинаются юзаться ресурсы CPU, а до этого постоянный своппинг не дает еще использовать весь ресурс CPU :)

От дисковой все зависит. И от операций с базой.
Во-первых, зачем-то удалённый доступ засунули в «виртуализацию представления»

Засунули, очевидно, за тем, что так и есть. Удаленный доступ — это когда админ удаленно заходит на сервер что-то подправить. А когда 100 пользователей работают с приложениями на сервере, получая только «картинку» — это уже виртуализация представлений.

Во-вторых совершенно нереальные цифры для терминальных служб. Как по трафику, так и по производительности.

Где именно «нереальные»? Все реально. При разрешении 800*600*8бит вполне реально работать даже через GPRS, а для 1С например — больше и не нужно.

В третьих чушь насчёт вирусов на флешах. Малейшая ошибка сисадмина, и «вирус на флеше» размножается уже на сервере.

Если явно не разрешено монтирование локальных дисков в терминальных сессиях — то флэшка, воткнутая в клиентский комп на сервере и не появится. А следовательно, и вирь с флэшки на сервер не попадет. А от кидо давно уже и патчи существуют, и нативири о них знают. К тому же в WS2008 групповыми политиками AD можно запретить флэшки вообще как класс, а так же политиками AppLocker запретить запуск любых приложений кроме разрешенных.

Насчёт «бежать и нажимать резет» реально смешно. Все сервера, даже 5-7 летней давности имеют impi, который позволяет и включить, и выключить и сделать кучу других вещей.

Ну, к примеру, в HP-шных серверах полноценный iLO с графической консолью и монтированием удаленного CD-ROM'а стоит денег. А виртуальные машины позволяют делать это бесплатно.

Я сегодня уж второй день как е#$%сь с xen cloud, и я хочу сказать, что если бы это не было моей основной работой, то послал бы я нафиг все эти заморочки.

Несколькими постами выше, Вы писали, что Xen Cloud — это мегарулез, по сравнению с которым Hyper-V просто отдыхает, и даже vSphere курит в уголке. По-видимому, это правда — если Вы второй день не можете заставить его работать как надо :)

вы получаете масштабнейший геморрой с администрированием уже xen'овских серверов (не дай бог сервера различаются по степпингу процессоров)

Вообще «правила хорошего тона» говорят, что все ноды в составе кластера должны иметь целиком и полностью идентичное железо.

вероятность, что засранец не только хакнет машину, но и вылезет в гипервизор

У vmware — было. У Hyper-V это сделать намного сложнее из-за микроядерной архитектуры гипервизора.

Про прелесть возни с hyper-v вообще говорить нечего, на этом фоне даже «шуточки» с xenconsole кажутся детским лепетом.

www.techdays.ru/videos/1439.html
Вот пример построения кластера под Windows Server 2008 R2 с Hyper-V и Live Migration. Где тут возня? Во всяком случае, двух дней секса тут точно не было.

Виртуализация — это СЛОЖНО.

Да ничего там сложного нет. Про сайзинг инфраструктуры писали все вендоры систем виртуализации — и vmware, и MSFT, и Citrix. RTFM, как говорится.

До сих пор нет ни одного адекватного метода управления нагрузкой на диски. Ни у MS, ни у VMWare, ни у parallels, ни у quest, ни у citrix/xen, ни у прочих вендоров.

Ваще-т этим железки должны заниматься — RAID-контроллеры и контроллеры СХД.

Пять сотен рандомных операций чтения/записи малых блоков в секунду — и даже сказёвые рейды идут на йюх, включая соседей по виртуализации

Пятистами iops'ами просадить дисковую на сервере? Е-мое, да самая завалящая MSA2000 с легкостью перенесет и более высокие нагрузки (в тысячу-другую иопсов) на одном контроллере. А контроллеров у нее два. Боюсь, 500 иопсов не просадит даже дерьмовенький adaptec с RAID10 из 4 SATA-дисков.

Я пока даже не говорю про растущую опасность ошибки, потому что одно неверное движение с бриджем/биндингом интерфейсов, и машины смотрят не туда или не то делают.

Наша служба и опасна и трудна, и на перый взгляд как будто не видна…

Чем больше критических для бизнеса сервисов в организации (а гипервизор для всех серверов — это явно не дёшево)

Зависит от сервисов и количества серверов. Гипервизор и два сервера вполне могут обойтись дешевле десятка серверов, а если там ПО Microsoft — то дешевле и по лицензиям.

тем больше денег надо платить сисадмину, и тем сложнее ему найти замену (и аутсорс не поможет, потому что там ТОЖЕ умеют считать деньги за работу).

Да, верно. Но это справедливо для любой системы, и виртуализация не особо систему усложняет, а я б сказал даже упрощает.
В VMware — не скажу, ибо не видел. В Hyper-V — меньше минуты сама миграция, при этом ни одного ping timeout'a, и даже терминальная сессия к виртуалке не отваливается. Подозреваю, что у vmware не хуже — иначе б они не носились со своим vmotion как с писаной торбой.
Hyper-V стоит столько же, сколько и IIS — то есть бесплатно. Входит в состав Windows Server 2008.
Есть еще целый Hyper-V Server, который бесплатен — на хабре даже про него пара статей была.
за стоимость сервера 128 гигами можно смело собрать пяток чуть менее пижонистых серверов и сделать из них то, что нужно.

Возьмем самый простой сервер, HP DL160. Есть модели с 12 слотами оперативки, есть — с 18. Процессорных сокетов у него — одна штука. Неужто вы думаете, что DL160G6 с 16 8-гиговыми планками памяти будет стоить, ну, к примеру, как 10 DL160 по 16 гиг в каждом? Даже с более слабыми процами? Да даже один DL580 с четырьмя 6-ядерными Xeon'ами 7000-й серии и 256 гигами памяти (32 слота по 8 гиг планки) обойдется дешевле десятка 160-х.
Про то, что десять серверов занимают 10 юнитов в стойке, а 4-процовый — всего 4 юнита, и энергии один мощный сервер жрет намного меньше, чем десяток более слабых — можно и не говорить, это очевидно.
Прекратите копипастить тексты маркетологов.

Где Вы увидели копипасту? Я рассказывал то, что знаю сам, на собственном опыте.

Про тонкие клиенты каждое второе утверждение совершенно не соответствует реальной действительности. не все так красиво как в брошюрках вендоров.

Можно раскрыть тему подробнее?

Про виртуализацию. Где Xen\KVM\OpenVZ?

Я уже несколько раз написал, что я пишу о том, что знаю. То, что не знаю — не пишу. Буду рад, если Вы дополните мою статью.

Почему рассмотрена вируализация только продуктов MS? Они меньше всего интересны в плане виртуализации.

Еще раз: я пишу о том, что знаю и с чем работаю. Кроме этого, по-моему продукты MS интересны в этом плане ничуть не меньше, чем все остальные.
В частности, сетевые FS стали меньше нагружать I/O, так что остаются свободные ресурсы.

Это благодаря TCP Offloading Engine ;)
Как раз-таки хостерам статья эта и не нужна — для них все изложенное самоочевидно. А вот не-хостинговым конторам, к примеру — не всегда.
Ну уже я замечал, что даже в самую безобидную статейку про Live Migration обязательно зайдет vmware-кун, и начнется лютый срач :)
Интеграторы об этих системах тоже как-то не особо говорят. На корпоративном рынке правят бал VMware, MS и Citrix.
ЕМНИП Microsoft позволяет лицензировать только активную ноду в active/passive кластере. При фаиловере лицензия как бы передается тому узлу, который становится активным.
Есть старый анекдот про Василия Иваныча, Петьку и нюансы.
Так вот, если сравнивать, например, VMware ESXi и Hyper-V — вроде как делают они одно и то же, но архитектура гипервизора разная принципиально — у ESXi она монолитная, у Hyper-V — микроядерная. В результате, у VMware очень и очень ограниченный список поддерживаемого железа.
Я уверен, такие же нюансы есть и в перечисленных Вами продуктах, и потому, поскольку о них я не знаю ничего, кроме названий — решил и не упоминать, от греха подальше. Если Вы напишите соотвтетсвующую статью — буду только рад.
Модный тренд — потому что о виртуализации всего и вся говорят все, кому не лень. Я заметил это еще во времена Virtual Server 2005 на конференциях вендоров железа — HP и Fujitsu-Siemens. Ну а с появлением Hyper-V все только усилилось, и холивар MS vs VMware уступит разве что Win vs Lin и PC vs Mac.

Information

Rating
Does not participate
Location
Москва, Москва и Московская обл., Россия
Date of birth
Registered
Activity