Comments 109
Проброс USB и PCI-девайсов
Сабака, нужен под 1С с аппаратными ключами (особенно когда 1С не продает программные, а также когда перенос ВМ с хоста на хост рушит лицензирование 1С). Но это больше проблемы 1С, чем гипервизора, что VMware, что Hyper-V.
Маленького дистрибутива, заточенного именно под виртуализацию (аналога esxi).
Есть, в принципе, Hyper-V Server, но ЕМНИП он нифига не datacenter по количеству разрешенных виндов, которые он может на себе запустить. С лицензиями у Микрософт та ещё печаль, но хотя бы datacenter edition позволяет не заморачиваться на количество ВМ и лицензий на них.
VMM крайне неудобная штука
Угу, с учетом того, что её ещё развернуть надо суметь, для пары хостов она просто ни к чему. Для серьезных ферм да, нужна, или действительно рулить через Powershell. vCenter эту штуку уделывает в одни ворота, факт.
Шикарные шаблоны виртуальных машин с Windows. Удивительно удобно.
Мы так и не научились их готовить, в результате шаблоном ВМ с виндой для нас является VHDX от виртуалки, на которой выполнен sysprep и она остановлена вместо перезапуска. После подключения копии диска к новой ВМ все айдишники генерируются заново, т.е. получается "правильный" клон исходной ВМ, к которой потом можно и дисков добавить, и ядер, и всего остального. Как у вас устроены шаблоны?
На мой взгляд VDI – это не к Microsoft и Hyper-V. Но с другой стороны стрим проложений (RemoteApp) сделан весьма добротно, и для большинства компаний мало чем будет хуже, чем тот же Citrix.
К сожалению, да, VDI это тихий ужас (либо у нас мало ресурсов, чтобы его полноценно оценить). А RemoteApp — технология, независимая от Hyper-V, хотя и рекомендовано её использовать в виртуальной среде, и возможно, она тут не к месту. Всё же вещь приятная.
Слабая поддержка сторонними вендорами готовых образов виртуалок для Hyper-V
Главное — получить VHD/X, саму ВМ можно создавать просто по параметрам (vCPU, RAM, network и прочее), вот только скорее всего generation придется ставить первый. Плюс в некоторых ОС нет (или плохо искал) интеграции с гипервизором Hyper-V, а встроенный диск интеграции содержит только файлы для Windows.
А так — хороший гипервизор, уже с версии 2012R2. Раньше было хуже, и намного.
Сабака, нужен под 1С с аппаратными ключами (особенно когда 1С не продает программные, а также когда перенос ВМ с хоста на хост рушит лицензирование 1С). Но это больше проблемы 1С, чем гипервизора, что VMware, что Hyper-V.
Не знал про тему с миграцией и программными ключами, но столкнулся в живую. Тогда не догадался, а сейчас все встало на свои места. Как обычно 1С сделала «все для людей»
Есть, в принципе, Hyper-V Server, но ЕМНИП он нифига не datacenter по количеству разрешенных виндов, которые он может на себе запустить. С лицензиями у Микрософт та ещё печаль, но хотя бы datacenter edition позволяет не заморачиваться на количество ВМ и лицензий на них.
Его установка ничем не отличается от Core установки обычного сервера (за исключением того, что изначальный образ больше). Места он займёт столько же, если выбрать аналогичные роли.
Для бесплатного ESXi:
— Do not have manufacturer support.
— Hast 2 physical CPUs (sockets).
— Unlimited cores per CPU.
— Unlimited RAM memory.
— Maximum 8 vCPU for each VM.
— The license has no expiration date: It never expires.
— The ESXi host can not be added to the Virtual Center.
— vStorage APIs are not available.
Что дает невозможность использовать vMotion, Storage vMotion, нет поддержки кластеров, нет поддержки нормального бекапа.
Для бесплатного Hyper-V:
— Отсутствие поддержки со стороны вендора.
— Отсутствие SDS
— Отсутствие нормально виртуализации сети
— Не лицензирует запущенные на нем ВМ
А все остальное, как собрать кластер, мигрировать на живую (как ВМ, так диск), подключить к VMM и управлять не лимитируется никак. Standard в этом плане только лицензирует 2 ВМ на этом хосте, Datacenter — все Windows Server на этом хосте (под лицензированием понимается не «возможность запуска» ВМ, а «возможность использования» операционной системы Windows Server такой же редакции внутри ВМ).
ЗЫ: Если что — это не троллинг, а я действительно пытаюсь понять про что вы говорите =)
ESXi версии 6 начиная с какого-то апгрейда (не помню номер) уже содержит встроенный веб-клиент. Т.е. к ESXi можно подключаться хоть старым добрым windows клиентом, хоть через браузер.
Немного подробнее про подключение.
Клиент он единый, — вводишь имя vCenter подключаешься к vCenter, вводишь имя ESXi — подключаешься к ESXi. Если это Web клиент, то после имени ESXi нужно вводить "/ui".
Если речь идет не о бесплатном ESXi, то он однозначно управляется vCenter, на котором можно настроить политику, запрещающую подключение клиентом к ESXi.
Если же нужен кластер, то на бесплатном ESXi его не построишь. Необходимо приобрести редакцию Essentials, которая включает максимум три хоста + vCenter, который чисто для этих трех хостов, не более. Ну а если больше трех хостов — то отдельно vCenter + лицензии на проц. для ESXi.
Для управления любым Windows Core сервером нужен либо полноценный сервер с графической оболочкой, либо Windows соответствующего релиза (к примеру для Windows Server 2012R2 Core нужна Windows 8.1, для Windows Server 2016 Core — Windows 10 1607) с установленным бесплатным комплектом RSAT (подробнее).
VMM имеет смысл сравнивать только с полноценным vCenter. Но если VMM по сути только средство управления и автоматизации (кластера и ВМ можно полноценно настраивать через GUI или RSAT), то vCenter — это не только средство управления и автоматизации, но и средство конфигурирования, без которого половина функционала гипервизора недоступна.
то vCenter — это не только средство управления и автоматизации, но и средство конфигурирования, без которого половина функционала гипервизора недоступна.Поэтому я и расписал подробно про различные варианты его применения.
Без VMM админить кластер не удобно, но для базовых операций вполне достаточно. Кроме того есть 5nine Hyper-V Manager, опять же Power Shell. В этом отношении бесплатный Hyper-V конечно же выигрывает в части отказоустойчивости.
Сабака, нужен под 1С с аппаратными ключами (особенно когда 1С не продает программные, а также когда перенос ВМ с хоста на хост рушит лицензирование 1С). Но это больше проблемы 1С, чем гипервизора, что VMware, что Hyper-V.
Пользуемся аппаратной ключницей SEH myUTN, в т.ч. для 1С, работает без нареканий, ни разу не отваливалось ничего.
Ну а в целом — вы не затрагиваете продвинутые фичи vmware. Значит они вам не нужны, и, следовательно, для ваших задач Hyper-V достаточен. А если достаточно — зачем платить больше.
Nano server больше не поддерживается MICROSOFT как ОС для гипервайзера:
https://docs.microsoft.com/en-us/windows-server/get-started/nano-in-semi-annual-channel
В итоге датастор отвалился. Причем для esxi до 5 восстановление работало — а теперь нет =(
Так что chkdsk — штука нужная иногда
Hyper-V — дитя маркетинга или реальная альтернатива?
Такой заголовок, будь он не в блоге MS, автоматически предполагал бы ответ «дитя маркетинга». А в вашем блоге, не менее безусловно, будут обратные выводы.
Спасибо, но — нет.
В Hyper-V виртуальные диски можно как увеличивать, так и уменьшать
При этом гостевая ОС — Windows?
Такой заголовок, будь он не в блоге MS, автоматически предполагал бы ответ «дитя маркетинга».
На мой взгляд весьма странное и весьма спорное утверждение. В таком ракурсе можно сказать про любую сущность в нашем мире — везде присутствует доля маркетинга.
А в вашем блоге, не менее безусловно, будут обратные выводы.
Согласен, что вряд ли бы вышла статья где была бы одна строчка — «MS — must die, XXXX — rules». Тут вроде ресурс для взрослых адекватных людей, которые в основной массе своей понимают что нет абсолютного зла и абсолютного добра. Есть просто инструменты решающие или не решающие задачу. Тем более что в статье есть информация о том, что в продукте плохо.
Спасибо, но — нет.
Тут конечно же у каждого свой выбор, но хотелось бы понять почему. Чисто из любопытства.
При этом гостевая ОС — Windows?
Да, но у Linux появился штатный механизм изменения дисков налету? Без извращений и предварительной доработки напильником? (вполне вероятно что я просто не знаю о том, как это сделать)
Опыт говорит, что на hyper-v хорошо держать только VM с виндой. Линукс можно, но на конкурирующих решениях почему-то он работает лучше.
Ну и не знаешь, чего и ожидать от MS. Придумать лицензирование серверов по ядрам (когда уже не купить сервер, в котором было бы только одно или два ядра) — это все равно что брать плату за вдохи, иезуитская модель, а юзеры не любят, когда их за дураков держат.
Давно юзаю Centos в Azure, а он оказывается плохо работает. Обоснуйте, пожалуйста.
По теме — единственный минус для меня в Hyper-V это то, что не умеет, как VMWare показывать рабочий стол виртуалок с линуксом с копипастом и всем остальным добром. А так несколько лет на Hyper-V и никаких проблем. К тому же он искаропки на десятке. Но я не энтерпрайз, в промышленных масштабах не юзал.
При этом гостевая ОС — Windows?Да, но у Linux появился штатный механизм изменения дисков налету? Без извращений и предварительной доработки напильником? (вполне вероятно что я просто не знаю о том, как это сделать)
Поведение KVM (на примере Proxmox) — увеличил диск — появилось не размеченное место — использовал по своему усмотрению (например добавил в LVM-группу и растянул ФС).
Поведение Hyper-V — увеличил диск — выругался (вместе с гостевой ОС) — перезапустил (!) ВМ — увидел не размеченное место — далее по аналогии с пред. вариантом.
В принципе — тоже самое и про добавление CPU/RAM — у Hyper-V виртуалку нужно тушить.
Все проверял лично на примере CentOS 7. Для Hyper-V гостевые тулзы был поставлены с реп (вроде нынче это — best practice, не?).
Так о каких извращениях речь?
CPU/RAM — у Hyper-V виртуалку нужно тушить.
У vmware HotAdd CPU убивает NUMA.
А горячее добавление RAM только в версии 6.0. позволило раскидывать память по нодам NUMA. Но если машина не большая — то очень полезно (в некоторых случаях и на ограниченном числе ВМ).
Поведение Hyper-V — увеличил диск — выругался (вместе с гостевой ОС) — перезапустил (!) ВМ
Все проверял лично на примере CentOS 7
М-м-м, CentOS — да, в части динамического управления ресурсами Hyper-V для линуксов не родной. RAM, кстати, заявлено, что добавляется/отнимается на лету, по крайней мере, для LIS 4.1. Процессоры, вроде как, и для виндов не добавляются динамически (может, потом допилят динамическое добавление ядер, хотя бы в винды). С дисками надо проверять.
выругался (вместе с гостевой ОС) — перезапустил (!) ВМ
Надо пнуть SCSI-контроллер, чтобы пересканировал шину:
echo 1 > /sys/class/scsi_device/0\:0\:0\:0/device/rescan
echo "- - -" > /sys/class/scsi_host/host0/scan
Это не баг Hyper-V или VMware, а фича линукса на KVM. Также как возможность увеличивать/уменьшать разделы на Windows без плясок с бубном вокруг fdisk и lvm.
Правильное место — а вот тут поподробней, вдруг у нас «правильность» мест — расходится?
При этом при наличии Премьер поддержки, если не получилось по этим статьям «завестись», то МС траблшутит вплоть до выпуска фиксов для указанных ОС.
В качестве конспекта Ж-) Пункт>>Из Gen2 даже шаблон сделать не удалось (привет UEFI вроде).>Отключение SecureBoot и переложить в правильное место загрузчик помогают.
>>Может есть какие лайфхаки у знающих? :)
12. Before attempting to copy the VHD of an existing Generation 2 VHD virtual machine to create new Generation 2 virtual machines, follow these steps:
...
подпункт e.
# sudo mv shimx64.efi bootx64.efi
PS: Кстати, справедливости ради: указано что VSS позволяет делать live backups. Оно их делает. Но порой виртуалка с Zabbix (с довольно интенсивной работой с диском) уходит в ООМ и начинает паниковать. Очень редко, да, но бывает.
Best Practices for running Linux on Hyper-V
The Linux kernel has four different I/O schedulers to reorder requests with different algorithms. NOOP is a first-in first-out queue that passes the schedule decision to be made by the hypervisor. It is recommended to use NOOP as the scheduler when running Linux virtual machine on Hyper-V. To change the scheduler for a specific device, in the boot loader's configuration (/etc/grub.conf, for example), add elevator=noop to the kernel parameters, and then restart.
Мнение о Hyper-V у меня вряд ли уже изменится, но для общего развития будет полезно :)
Нам сейчас надо сделать еще одно крыло виртуализации уже на VMWare… и вот тут для нас начинаются трудности, т.к. «все не так и все не то».
Так что тут дело не холивара, а исключительно привычки и объема навыков и знаний.
1. Отсутствие встроенного мониторинга — надо ставить монстроподобный SCOM вместо красивых графиков с алармами у VMware из коробки.
2. Сложность траблшутинга и скудность информации в сети, тогда как в ESXi большинство проблем лечится перезагрузкой или переустановкой с подтягиванием настроек из хост-профайлов и vDS.
Кстати, а SDN на Hyper-V умеет микросегментацию?
А вот со вторым пунктом полностью согласен.
Недавно проводил углубленный анализ поведения NUMA в ESXi, и даже не представляю как сделать тоже самое в Hyper-V.
2. Тут удивлен. Статей просто море, но вот рускоязычных точно меньше чем по вмваре. Ну и вопрос привычки — линуксоидам ближе вмваря, виндузятникам — гипер-в
Подскажите, а почему вы сравниваете устаревшую версию esx (5.5) с новой версией windows server?
Да и ничего за пределами бесплатной версии вы вроде не используете.
Именно. Иначе выходит игра в одни ворота: сравнивается свежая версия hyper-v с двухлетней esx
В VMWare 5.5 и 6, а уж тем более 6+ это очень разные вещи.
Еще такой вопрос, а вы в VMWare ставили паравиртуалные драйвера для дисков и сети внутри VM?
Это не специфика, это эпик фэйл на мой взгляд.сравнивается свежая версия hyper-v с двухлетней esx
сравнение не идеальное, но тут еще наша специфика — сравнивали с тем, на чем работаем
В VMWare 5.5 и 6, а уж тем более 6+ это очень разные вещи.
К сожалению, на практике, сравнение «имеет право на жизнь»:
в апреле 2017 видел «у людей» — все сервера с ESX 5.X
как это относится к бенчмаркам?Увы, жизнь — не игра по правилам ( real life isn't fair play ) :-(
бенчмарки надо проводить в одинаковых условиях,
а значит сравнивать последние доступные версии
Да, при «честной игре» в поединке участвуют
борцы одинаковой «весовой категории»
А вот «за пределами спортзала» всё происходит несколько иначе
Читаем «постановку задачи»:
мы обновили парк серверов. А старые остались,
причем неплохие, только уже медленные по нынешним меркам
( Кстати, на
Dell FC 630, 2 процессора Intel Xeon E5-2643 v4ESX 6.5 сможет работать? )
решение сделать ферму для разработки
( ESX 5.5 ) последнее, что покупали. Нелицензию не используем
Предполагаю:
не дали денег на закупку ESX 6.5 и(или) vCenter для non-prodaction
и не было смысла тестировать то, что не будет использоваться
Читаем «постановку задачи»
У 5.5 поддержка заканчивается через 8 месяцев и в блоге вендора это выглядит как обычный FUD.
ESX 6.5 сможет работать?
Работать смогут даже десятилетние серверы на Xeon 5400, а FC630 есть в HCL.
среди прочего... )
У 5.5 поддержка заканчивается через 8 месяцевЗначит, вовремя мигрировали
P.S. однако, привередливость к hardware у ESX всегда была выше
а вот поддержку 100Mb DEC она же Legacy LANCard «выкинули»
Шутите? Зачем вам эта карта? Вот честно?
100Mb DEC она же Legacy LANCard
Зачем вам эта карта?
Для Nested ESX inside Hyper-V
Hyper-V все еще не научился будить VM с других карточек?
будить VM
про «wake on lan» в H-V не слышал...
из достижений:
В VM Hyper-V есть два вида карт:
— legacy
и
— syntetic
В Gen2 появился загрузка по PXE и с syntetic lancard
P.S. вот от Nested ESX в GEN2 я бы не отказался Ж-)
Если не нравиться legacy, согласен на драйвер для nested ( и для syntetic SCSI)
Лучше — полномасштабная поддержка работы «внутри Hyper-V»:> пусть MS сделает нормальную эмулируемую сетевую картуVVM>> Для Nested ESX inside Hyper-VVVM>>>> 100Mb DEC она же Legacy LANCard>>>Зачем вам эта карта?
0a) Облака ( источник — communities.vmware.com ):
The whole idea is run ESXi in a VM in Azure IaaS, where I cannot use legacy NIC…
0b) VMware всё равно придётся решать проблему VMware Workstation in Hyper-V.
Обучение отключению Credential Guard/Device Guard ( Turn on Virtualization Based Security ) в Article 2146361 вызывает «сложные эмоции» у заботящихся о защите от «утечки паролей»
1) Эмулированная и так есть в наследство от Virtual PC
Для «игр и роста» достаточно было и legacy сетевой карты с «DECchip 21140 Ethernet driver» из net-tulip-1.1.15-1.x86_64.vib
Именно было, т.к., как сообщает Billy Wong, даже в «линейке» ESX 6.0:
Found the latest version esxi iso block the net-tulipНе говоря уже про ESX 6.5...
Blocked Build version:
ESXi-6.0.0-20171104001-standard (Build 6921384)
Worked Latest version:
ESXi-6.0.0-20170604001-standard (Build 5572656)
Да, драйвера стояли от vmware
это надо учитывать!
efsol.ru/articles/performance-comparison-1c.html
1. По тестам выходит что на vmware 1с работает быстрее чем на простом компе. Это явный показатель подтасовки или/и кривого сбора данных.
2. Опять же кофигурация стенда весма спорная.
3. Не во всех тестах винда хуже
4. Очень старые версии ПО. Ну уж совсем старые
P.S. Комментарии под статьей тоже говорят о большом количестве нюансов неосвещенных в статье
на одном и том же сервере поочередно устанавливалось
1. ESXi 6: Виртулка W2012R2 + 1С 8.3 + MS SQL 2014(Shared memory)
2. Hyper-V 2012R2: Виртулка W2012R2 + 1С 8.3 + MS SQL 2014(Shared memory)
3. Железо: W2012R2 + W2012R2 + 1С 8.3 + MS SQL 2014(Shared memory)
Результат почти такой же как в статье, на Hyper-v проигрыш 10-15%. Железо и ESXi — почти одинаково.
Это явный показатель подтасовки или/и кривого сбора данных
Где-то попадалось, что NUMA-планировщик ESXi работает лучше линуксового и некоторые операции в ВМ выполняются быстрее.
«1.1.4. Отключить Memory Setting -> Node Interleaving (включает NUMA) — отключено.»
Это не так.
Node Interleaving наоборот выключает NUMA. Т.е. если параметр
«NUMA Node Interleaving», включен, то ноды объединаются в единое пространство, что отключает распознавание NUMA-нод.
Иными словами, если гостевая ОС поддерживает работу с NUMA, Node Interleaving необходимо действительно выключать. Иначе гостевая ОС узлы NUMA не увидит.
А по поводу планировщика ESXi, то в версиях 6.0 и 6.5 архитектура виртуальной NUMA отличается.
В версии 6.0. производительность в некоторых многопочных приложениях зависит от настройки ядро-на-сокет. Например если у вас два процессора по 12 ядер, и вы поставили ВМ 32 vCPU (32 процессора по одному ядру) то создается три виртуальных NUMA узла и балансировщик бессильно дергает лапками — производительность падает. Но если вы ручками поставите 4 процессора по 8 ядер, то создается 4 узла vNUMA и балансировщик отлично их раскидывает по двум физическим нодам. Производительность в два раза выше. Т.е. большие ВМ лучше не создавать ибо граблей кроме этого примера хватает.
А вот в версии 6.5. виртуальные NUMA узлы создаются исходя из физической топологии.
— делаем бэкап
— добавляем новый PV в LVM группу
— отключаем старый PV (тогда был риск потери данных, но у нас же бэкап)
А что за лучшие практики VMware упоминались?
Опять же можно тщательно промониторить как ведет себя дисковый ввод ввывод, где живет очередь команд, как она изменяется в зависимости от типа балансировки (Round Robin — это тип балансировки). Это штатными средствами. Еще можно использовать утилиты не включенные в основной функционал, разработанные самими сотрудниками vmware так сказать в свободное время. Очень полезно знать какие размеры блока и с какой частотой генерирует каждый диск ВМ. В зависимости от этого можно принимать решение на каком сторажде размещать диски или какую политику на них вешать.
Но это уже тонкий тюнинг. В большинстве случаев он не нужен и, следовательно, Hyper-V вполне достаточен.
но если пользователей много и VM 1c и sql большие ( на весь хост) то наверно преимущество получается сомнительное.
Когда я тестировал однопоточным тестом результаты были такие:
50 на железе (Shared Memory)
42 на железе на разных серверах
45 на VM (Shared Memory)
37 на разных VM и разных хостах
получается если нужна производительность и много пользователей то только голое железо
с небольшим количеством пользователей можно и на VM.
Может есть у кого примеры виртуализации 1с и SQL 200-300 активных пользователей
с размером базы 500-900GB.
По поводу shared memory — очень спорный момент. 1с сама толком не может дать окончательные рекомендации, но по своему опыту скажу — разнесение дает выигрышь технический. 1с требует быстрые ядра, но не требовательна к их количеству. Sql же наоборот — более требователен к количеству ядер, но их скорость не критична. Вот и получается что постоянно балансируешь межу взаимоисключающими вещами.
Удивительным образом на hyper-v связка работала невозможно медленно, в отличие от kvm и vmware.
А так да, общая стоимость владения у hyper-v выходит меньше, с мигрирующими виртуалками и вот-этим-всем.
Remoteapp же с 1с работает всё ещё паршиво — то модальные окна пропадут, то ещё что. В отличие от полноценного rdp…
esxi позволяет прокинуть vmx внутрь и, например, запустить какую-нибудь ubuntu с cuckoo sandbox внутри виртуалки, запуская внутри еще одну с виндой.
Hyper-V тоже как-бы позволяет собрать хранилку на двух хостах. Но лично у меня кластер при выключении одного хоста жил, а вот при выключении другого уже нет… Т.е. не все хосты одинаково полезны.
Как сейчас обстоят дела с поддержкой nested virtualization?Отлично Ж-)
Windows 10 в Windows 10
На практике «есть варианты»:
Прямо сейчас в «VirtualBOX в VM Windows 10 на Win 10» работает nested VM
Прямо сейчас в «VirtualBOX на Windows 10» работает nested VM
Просто работает, или использует ускорение для вложенной виртуализации?
Скажем так — скорее всего, да:
Все опции в подразделе «Hardware Virtualization» ( VT-x и Nested Pages) включены,
раньше ( до Win 10/Win 2016) их приходилось отключать
grep vmx /proc/cpuinfo
в VM Linux ( Proxmox VE 5.1) в VirtualBOX-in-Hyper-V
внутри «самой вложенной» виртуальной машины VT-x нет
Но, это «особенность ПО» VirtualBOX — VM 64bit in VM нет:
https://www.virtualbox.org/ticket/4032
Ticket #4032 (new enhancement)
[feature-request] Nested Virtualization: VT-in-VT
P.S. Это не отменяет пользу VBOX внутри Hyper-V VM, например:
Proxmox VE 5.1 установить напрямую в H-V VM ни в GEN1, ни в GEN2 не вышло.
Установил proxmox-ve_5.1-3.iso в «VirtualBOX-in-Hyper-V»,
затем скопировал .vhd, подключил к «обыкновенной» H-V VM Gen2,
успешно загружается
1.1.3. Включить System Profile Settings -> Turbo Boost (в документации Turbo Mode) — включено.
1.1.5. Включить Power Management -> Maximum Performance — похоже включено.
1.1.7. Отключить System Profile Settings -> С1E — отключено.
Это настройки для low latency workloads, которые отключают Turbo Boost.
Каждая платформа для своих задач. И я также не думаю что Hyper-V «вообще не о чем». Просто я работал и с Huawei, и с отечественными продуктами. Есть с чем сравнивать.
А по поводу количества новых инсталляций — это конечно интересно. Где можно посмотреть?
Не то в случае использования Hyper-v, во первых, штатно использовать флешку или SD-карту нельзя, нужен внутренний носитель (на мой взгляд это лишнее), во-вторых, если у вас возникнет справедливое желание, для виртуализации использовать Windows Server в режиме ядра, но по каким-то причинам нет желания вводить хост в домен, то настроить удалённое управление hyper-v на этом хосте, вот прямо так просто не получится, т.к. Microsoft считает, что штатно машина должна быть в домене. В-третьих, если вы разворачиваете Windows Server в режиме ядра и по каким-то причинам, поставляемый вендором оборудования мастер установки ПО не отработал, то установка драйверов в Windows Server без графической оболочки, может превратиться в отдельный интересный квест.
Hyper-V — дитя маркетинга или реальная альтернатива?