Pull to refresh

Comments 79

есть заглавная каринка с большим разрешением? хочется рассмотреть этот аццкий ад поближе
google «nag.ru ужас»
Раньше на nag.ru был целый раздел «ужасы», где публиковали фотки подобного ада, а теперь nag стал унылым техническим провайдерским ресурсом, так что только гуглить.
UFO landed and left these words here
Технет изначально был узкоспециализированным именно техническим ресурсом. А наг превратился в то же самое, во что превратится sysadmins.ru без хумора и курилки ;)
UFO landed and left these words here
Ну да, можно и так сказать. То есть из полутехнического-полуразвлекательного ресурса он превратился в чисто-технический.
UFO landed and left these words here
Ну да, не с чего поржать теперь :)
UFO landed and left these words here
На фишках юмор по большей части не-айтишный.
UFO landed and left these words here
Белко, ну это уже придирки, ей-богу :) Думаю, оффтоп пора заканчивать ;)
UFO landed and left these words here
Та зашибись — вон, видишь, евангелирую тут потихоньку)
UFO landed and left these words here
Да уже более-менее без трости хожу, но на улицу без нее пока ссыкотно выходить.
UFO landed and left these words here
На этом хотелось бы закончить статью, и заодно – рассказ об архитектуре Hyper-V. В заключение – хотелось бы спросить: у меня есть желание написать статью о Live Migration. Будет ли это интересно аудитории, или же все об этом слышали и все об этом знают?

Давно мечтал, чтобы кто-нибудь написал простенькую статью про пошаговую настройку PRO Tips с Management Pack'ами, которые могли бы как-нибудь экзотически ВМ'ку перезагружать, например, если служба какая-нить внутри ВМ зависала. Нэ? :-)
Дык в PRO задействуются и SCOM и VMM, да еще и про кластеры и live migration рассказывать… «Простенькой» статья никак не получится, потянет на уровень «300» по майкрософтовской шкале. Вопрос только, многим ли тут будут интересны такие статьи — ведь это не обзор нового айпада или андроида…
Добавьте побольше «интриг, скандалов, расследований», напишите что-нибудь вроде: «PRO Tips предоставляет больший функционал, чем VMware DRS и DPM.» и люди к вам «потянутся». «:-)»
Это уж точно — один Антон чего стоит ;)
Как вариант — можно и там :) А здесь — топик-ссылку.
Как там у Hyper-V с множественными аплинками на виртуальном коммутаторе, с политиками active/standby для разных виртуальных сетей?
Антон, вы знаете, о чем спрашивать. Туше.
Да собственно никак — к виртуальному коммутатору можно присоединить только один физический адаптер.
Посмотрим, что придумают в следующей версии — Live Migration же придумали, «по просьбам трудящихся».
Перед этим очень долго рассказывали, что Live Migration почти никому не нужно.
Ну собственно он и правда очень мало кому нужен… Очень хорошая и полезная фича, но заказчиков, реально в ней нуждающихся — не так много.
И именно поэтому MS так ее рекламирует как технологический прорыв и суперфичу.
Маркетинг, фигли. Поэтому же и VMware со своим Memory Overcommit носится как с писаной торбой.
Я похож на сотрудника отдела маркетинга VMware?
Не больше, чем я — на сотрудника отдела маркетинга Microsoft :)

TPS очень хорошо работает, когда используются 4-килобайтные страницы памяти, с большими страницами оно уже почти не работает.

Кроме того, Dynamic Memory в Hyper-V R2 SP1 и есть Memory Overcommit:
Вообще вопрос спорный, и на эту тему можно даже отдельный топик написать :)
В memory bound среде разница в производительности процессора с 4к и 2М страницами будет практически незаметна, а вот «дополнительная» память очень нужна. К слову, TPS можно отключить. Или включить, но у VMware эта технология есть и бесплатно, даже в Free ESXi. И плюс нормальный, уже годами отшлифованный balloon.

При нынешних ценах на память — мне думается, что лучше заранее закупить памяти с запасом, чем рассчитывать на overcommit.
К тому же некоторые ОС, такие, к примеру, как Windows 7 стараются занять всю имеющуюся память — под кэш и superfetch. И тут TPS опять не рулит.
При каких нынешних ценах на память? Открываю HP Product Bulletin, смотрю текущие цены на память для своих блейдов.

HP 8GB 2Rx4 PC3-10600R-9 Kit — 509$
HP 8GB 2Rx4 PC3L-10600R-9 Kit — 609$
HP 16GB PC3-8500R-7 4Rx4 Kit — 1549$

Предположим, 12 модулей по 8 ГБ (три канала по два модуля, два процессора) — это 96ГБ, 6100$ или 7300$. При скромном и консервативном коэффициенте оверкоммита 1.2 «дополнительная» память стоила бы 1220-1450$.
Далее я открываю один из своих продуктивных ESX — 42 GB Granted, 30 Consumed. Итого оверкоммит уже 1,4 при нулевом свопе и нулевом балунинге. Соответственно, сохраняя коэффициент получаем, что экономия уже 2500-3000$. На хосте 27 виртуальных машин, средняя загрузка процессоров (2 * Xeon 5570) составляет 15%.

Возвращаясь к теме NUMA, а Nehalem ведь NUMA система, TPS сильно повышает шансы машины влезть целиком в NUMA узел и соотв. НЕ получить штраф за обращение к чужой памяти.

16 GB FBD PC2-5300 2 x 8 GB Dual Rank Kit — 2069$
16 GB FBD PC2-5300 (2 x 8 GB) Kit — 2069$

Смотрим дальше. У меня есть отличные, очень мощные BL460c G1 с некогда топовыми Xeon 5365, но у них минус — мало слотов под память, всего 8. К сожалению, 8ГБ модулей с 5365 может быть всего 6 из-за тепловыделения процессоров, аж по 120 Вт. Итого я ограничен даже не финансово, а физически, я просто не могу добавить памяти. Т.е. без memory overcommit и TPS нужно было бы купить новую железку, и добавить на нее лицензий на все, а не только на vSphere. 48 GB физической памяти превращаются в 56-64 GB, смотря с каким коэффициентом ужмутся машины.

Кстати, забавный расчет я на этом основывал, и даже графики построил: blog.vadmin.ru/2009/12/hyper-v-vsphere.html
12 слотов 4 гиговым планками по пару сотен $ за штуку, и получаем 48ГБ на сервер. или ставим блейд с 18 слотами, как рекомендует вендор под виртуализацию.
много у вас двухпроцовых серверов с 48+ оперативки?
Весь продуктивный кластер с 64ГБ и судя по всему будет позже добиваться памятью. Поскольку для целей HA 5 хостов вполне достаточно, а загрузка процессоров низкая.

Дешевые мелкие модули памяти имеют реальный смысл только в CPU bound среде.
TPS очень хорошо работает, когда используются 4-килобайтные страницы памяти, с большими страницами оно уже почти не работает.

Как сказать. Какие области памяти чаще всего шарятся? Пустые. Которые вроде как выделены виртуалке, но реально не используются. И таких областей будет достаточно хоть с 4КБ, хоть с 2МБ страницами.

Шарить непустые страницы — тоже та еще задача, даже с размером каждой в 4КБ.
Это да. Но во-первых есть такая штука, как ASLR, которая немного мешает шарингу страниц, а во-вторых некоторые ОС сейчас пытаются утилизировать всю доступную память полностью.
ASLR мешает не так сильно, как оказывается. Цифры, которые я привел чуть выше, на смешанной инфраструктуре, в которой достаточная доля машин с 2008 R2 и 7.
Антон, вы пишете этот коммент к каждой статье о фичах, реализуемых в Hyper-V. Не надоело? =)
Андрей, надоело, но еще более надоело, что MS беззастенчиво вешать лапшу на уши. А затем делает резкий разворот и вешает лапшу на уши уже ровно в обратном направлении.
Ну обычно спрос порождает предложение. И вполне нормально, что компании подстраиваются под потребности рынка.
Было бы хуже, если бы участники рынка не могли менять свое мнение… примером может служить известный мем — lurkmore.ru/640_килобайт
Что интересней всего — в этой статье я ни разу не упомянул VMware. Но тем не менее, Антон не дремлет :))
Настройки безопасности есть для сетей? QoS?
Есть Windows Firewall в хостовой ОС, и на уровне гостевых ОС. В большинстве случаев этого должно хватить.
Хорошо, вопрос поставлю по-другому. Есть аналоги функций безопасности сети ESX:
1) Forged Transmits — защита от подмены виртуалкой своего MAC
2) MAC address changes — смена MAC соотв.
3) Promiscuous mode — зеркалирование трафика всего коммутатора на эту виртуальную сеть

Есть сетевой QoS?
1) и 2) — есть в R2. 3) — ЕМНИП нет.
1. есть ли проброс влан внутрь виртуалки без разбора на уровне всвитча?

2. всвитчи глобальные есть или надо на каждом из десятков хостов вручную создавать одинаковые конфигурации?

3. список сетевух для виртуалок смешной. в вмвари вариантов шесть, есть и совсем старые pcnet32 и известные почти везде e1000.
к первому вопрос в vlan еще дополнение:
vlan настраивается только на адаптере самой VM? или его можно все таки настроить на виртуальных коммутаторах? куда в последствии будут подключаться VM.
VLAN — на виртуальных сетевухах и можно на сетевухах сервера, если они поддерживают VLAN.
я ничего не понял из вашего ответа.
и нет ответа на вопросы выше.
можно как-то подробнее?
1. Проброс VLAN внутрь — ну по идее можно завести транк прямо в всвитч, а уже на сетевках виртуалок прописать необходимые ID. Сам всвитч в hyper-v — вещь практически абсолюно ненастраиваемая.
2. Увы и ах, создавать вручную. Но если хостов очень много — есть SCVMM и Power Shell.
3. Дык Hyper-V и не заявляет поддержку кучи операционок — официально поддерживаются только винды и два линукса, а остальное — на свой страх и риск.
> Проброс VLAN внутрь — ну по идее можно завести транк прямо в всвитч, а уже на сетевках виртуалок прописать необходимые ID.

нет, мне надо что бы транк вланов с физ.сетевухи проходил сквось всвичт и попадал на вирт.сетевуху так же транком.
у меня почти все сервера работают с вланами напрямую.

> Увы и ах, создавать вручную. Но если хостов очень много — есть SCVMM и Power Shell.

уныло. я конечно понимаю, что у вмвари общий в.свитч это недешевая опция, но оно есть и упрощает конфигурацию сети очень заметно.

> Дык Hyper-V и не заявляет поддержку кучи операционок

так это вполне себе сейчас заметный минус при выборе в.платформы.

PS просто первая статья начиналась в виде сравнения вмварь-гиперв, а остальные просто про гиперв. непонятно. надо уж или тогда сравнивать везде и говорить факты типа «тут вообще нет, а тут есть но дорого». или просто говорить только про гиперв без сравнений.
по этому тот же антон так яростно вмварь и противопоставляет.
нет, мне надо что бы транк вланов с физ.сетевухи проходил сквось всвичт и попадал на вирт.сетевуху так же транком.

По идее, если транк с вланами завести в всвитч, а на сетевых у виртуалок прописать vlan id — они сами разберут тегированный трафик.

уныло. я конечно понимаю, что у вмвари общий в.свитч это недешевая опция, но оно есть и упрощает конфигурацию сети очень заметно.
SCVMM — ни разу не уныло.


так это вполне себе сейчас заметный минус при выборе в.платформы.

На самом деле нужно стремиться к максимально однородной сети, если в сети зоопарк операционок — это скорее плохо. Ну разве что в исключительных случаях — всякие RISC-овые сервера с AIX, Sun'ы с соляркой, и т.д. А так надо стремиться к единой платформе, и Microsoft вполне себе справляется с ролью таковой.

PS просто первая статья начиналась в виде сравнения вмварь-гиперв, а остальные просто про гиперв. непонятно. надо уж или тогда сравнивать везде и говорить факты типа «тут вообще нет, а тут есть но дорого». или просто говорить только про гиперв без сравнений.

Да, здесь я решил не сравнивать вообще — каюсь, из-за недостатка опыта с VMware. Я уже пожалел о том, что попытался сравнить вначале.

по этому тот же антон так яростно вмварь и противопоставляет

Антон — классический тролль, что впрочем, ничуть не мешает ему быть профессионалом, и ничуть не мешает мне его уважать. Он просто вбрасывает навоз на вентилятор и все. И надо сказать, у него неплохо получается ;)
> По идее, если транк с вланами завести в всвитч, а на сетевых у виртуалок прописать vlan id

прописать несколько vlanid можно? иначе это получается вывод нетегированного трафика в в.сетевуху.

> — они сами разберут тегированный трафик.

вот в этом и был вопрос.

> SCVMM — ни разу не уныло.

из вышесказанного я не понял, можно ли им скажем добавить ко всем хостовым стетевухам еще один влан быстро и удобно.
типичнейшая задача, мы вводим еще один влан для какой-то вмашины. надо включить его на всех портах свитча и включить на всех всвитчах, что бы в.машина могла мигрировать.

> На самом деле нужно стремиться к максимально однородной сети,

нет-нет-нет. это маркетинговый бред, что бы посадить фирму на одного поставщика, даже если часть решений неудобна, монстрообразна, или наоборот еще недостаточно функциональна. в этой фразе нет ничего от здравого смысла, только пространные рассуждения о «низкой стоимости владения и подержки». любой адекватный инженер/админ должен сам оценивать разумность использования средств, и не быть искусственно ограничен одним производителем.

> если в сети зоопарк операционок — это скорее плохо.

если их там 10 разных бестолково установленных — да. но в современной инфраструктуре строить только на одной — это фейл. начиная с того, что однородные системы подверженны одинаковым уязвимостям, и один вирус/баг может вывести из строя большую часть инфраструктуры.

>Да, здесь я решил не сравнивать вообще — каюсь, из-за недостатка опыта с VMware. Я уже пожалел о том, что попытался сравнить вначале.

может теперь все же сделать сравнение? информации по гипрев уже достаточно. esx/vsphere поставить и изучить не сложно.

> Антон — классический тролль,

да ладно, все его набросы вполне по делу, ничего трольного там нет.
То есть я правильно понял: если мне нужно вынимать из транка несколько разных vlan, то я это буду делать исключительно на каждой VM, а не на виртуальном коммутаторе?
Как вариант — можно настроить VLAN на «железных» сетевухах, а к ним уже подключить всвитчи. В итоге на каждый влан свой всвитч. Собственно, я в статье дал ссылку — там один товарисч очень подробно рассказывает, как он работал с вланами.
почитал статью… мягко говоря — кошмар.
на паре-тройке серверов это еще можно сделать… на целом блейдцентре (14 лезвий) — это превратится в пытку. а если нужно вынуть еще один VLAN, то еще десяток действий.

короче работу с сеткой в Hyper-V пилить и пилить еще. хотя бы удобство работы с ней.
SCVMM вам в помощь — там все можно сделать быстро и автоматизированно. Вы наверняка и если vmware будете туда ставить — то поставите и vcenter?
У меня не совсем про сети вопрос, но про Hyper-V :) Может быть знаете, есть ли какой-нибудь простой management soft для hyper-v, чтобы можно было объединять машины в группы, работать сразу с группой (старт/стоп/снапшоты) и т.п. в целях разработки/тестирования софта — по типу как у VmWare Workstation сделаны Teams. А то Hyper-V MMC console слишком простая, а SCVMM — overhead уже для маленькой компании :)
Если Вы — разработчик, то для Вас самым удобным инструментом будет Power Shell — бо на ней даже GUI нарисовать можно ;)
> сетевые интерфейсы – это единственный способ взаимодействия виртуальных машин как между собой, так и со «внешним миром»

Как, а прослойка «homo sapiens» забыта? :) Медленный транспорт данных, но зато универсальный.
О, а слона я и не заметил))
Симпатичные графики. Ждем SP1 и динамическую память…
Добрый день, пока титаны бьются, можено нуб задаст простенький вопрос знатокам?
А как у всех платформ с прерываниями? У Xen, у Vmware и Hyper V?
Вот у меня задача виртуализировать телефонию, там загвоздка, модуль конференций полюбляет таймер, в конференции в должно быть синхронизированно.
Какие успехи на этом фронте? (Я пользуюсь астериском Linux и Ко)
Есть инфа, что Cisco Call Manager в наше время — это обычная виртуалка, которая вполне справляется со всякими конференциями, видеозвонками и прочей радостью.

Вопрос основан на опыте, или чистая синтетика?
У циски свой водоём, я с ними не плавал. Для астериска есть пару сторонних модулей которые не требуют тайминга, это просто супер. Но мой производитель пока не интегрировал их для успешной виртуализации. А опыт он есть, пускаешь нарудо в конференцию в виртуалке, и слив.
Я ещё чего хотел спросить. А вот если я засуну в сервер 5 карт, а можно каждой виртуалке дать доступ напрямую в одну?
напрямую давать доступ к железу в виртуалках это моветон. что будет когда вмашина мигрирует с одного физ. сервера на другой? что будет, когда физ. сервер, на котором стоит уникальная железка будет выключен для экономии энергии, перезагружен или упадет?
виртуалки будут работать как и работали.
по этому смысла делать виртуалку с пробросом какого-либо железа внутрь не очень много.
>а можно каждой виртуалке дать доступ напрямую в одну?

Можно создать портгруппу с доступом к этой выделенной сетевухе, и подключить к портгруппе только виртуалку с Астериском.

Можно и напрямую пробросить, если процессор новый и поддерживает Intel VT-d, но в этом случае до свидания бэкапы, снапшоты и миграция.
Попробуйте Microsoft OCS ;)
Потому как софт, любящий железо, прерывания и недокументированные функции — это даже не прошлый век, это палеолит времен DOS'а и Intel 80286.
Для OCS 2007 R2 в виртуальной среде поддерживается крайне ограниченное число ролей. Никаких аудио-, видео- и конференций, если хочется поддержки MS.
Это при том, как MS люто, бешено продвигают виртуализацию, особенно — свою собственную? Странно.
Странно. Интересно, почему? Вон у циски с виртуализацией все ОК…
Решние от микрософта не подходят из за нескольких причин.
1: Мы ставим севера для центров дозвона, там уже есть отчётность и разносторонний софт.
2: Попробовал как от я раз их решение, оно, ну очень плохое по сравнению с астериском.

Да телефония это каменный век, вливайтесь.
Only those users with full accounts are able to leave comments. Log in, please.