Присутствует отдельный раздел управления шаблонами ВМ.
шаблоны только Linux, или есть возможности и по win ?
➣Есть и по Win системам.
Группировка ВМ в интерфейсе возможна по тегам.
по кластерам \ локации и как идет раздача прав на группу виртуалок ?
➣Группировка по тэгам есть как отдельное меню, там в раскрывающемся списке под тэгом все помеченные ВМ.
Объединения по организациям слышал обещают.
А раздача прав, насколько мне известно, задаётся на уровне пользователя, может вместе с организациями и это изменится.
Что с affinity ?
➣Affinity в режиме раннего развития, можно с помощью тэгов задавать допустимые для ВМ узлы, через те же тэги реализован anti-affinity для виртуалок, чтобы при отработке механизмов автоматического управления ресурсами машины не размещались на одном узле.
vmxnet3 используется при импорте ВМ из VMware.
Экспорт из вари встроенный или как ?
➣Экспорт встраиваемый, на базе ovftool и vmkfstools, не без нюансов, но перегнать диски и восстановить ВМ хватает. Иногда не угадывает с типом загрузчика, приходится вручную его менять. https://spacevm.ru/docs/6.4.0/how_to/import-export/esxi/
Имеется 4 варианта выбор из раскрывающегося списка: virtio
Скорость virtio не проверялась ?
➣У нас в ВМке скорость практически такая же, как у хранилища, на котором лежит виртуальный диск, у нас обычные SSD.
В карточке диска возможно изменить тип шины диска, либо указать при создании. Доступны четыре режима: virtio, ide, scsi, sata.
NVME нет?
➣NVMe нет, но есть проброс PCI устройств, если надо монопольно и быстро. А в чем смысл такого режима эмуляции? Какое хранилище обеспечит такую скорость?
При использовании разделяемого блочного хранилища между узлами необходимо форматировать LUN в кластерную файловую систему.
правил настройки под вендора нет ? Аналогично Using Claim Rules to Control ESXi Multipathing Modules ? Под AA , ALUA, ANO ?
➣Настройки под вендора есть прям списком, есть Булат, Рейдикс и Ядро. Можно конфигурацию поправить под себя через CLI, но на каждом узле придется.
NFS какой ?
➣3 и 4, с последним обновлением даже заработал all_squash на nobody (65534)
DRS настраивается на кластер и выполняет роль сервиса, который выравнивает нагрузку по всем узлам, входящих в кластер.
Судя по панельке, нет режима "согнать активную нагрузку на хосты, максимально сосвободив парочку серверов" - The vSphere Distributed Power Management (DPM) feature allows a DRS cluster to reduce its power consumption by powering hosts on and off based on cluster resource utilization.
➣Энергосбережения, как мне кажется, ещё не завезли.
Что с режимами и affinity ? https://4sysops.com/archives/vmware-drs-tips-and-tricks/
➣DRS есть, даже работает, у нас отрабатывает по пределам нагрузки на проц. Про аффинити выше написал, можно запрещать и не пускать на определенные хосты.
Ролевой доступ
Наследование ролей на группы VM ?
➣Тут только назначение ролей на пользователя и группы.
Интеграция с почтовыми системами
TLS 1.3 умеет ?
➣Умеет, многие умеют, года так с 2019
Для отказоустойчивости сервера управления рекомендуется настроить репликацию контроллера. Переключение контроллера из slave в master осуществляется в ручном режиме.
И как его искать, если DRS его куда-то утащит ?
➣Кто его утащит, он же памятник. А если серьезно, то тэги и поиск по ним весьма помогают.
Мониторинг присутствует — для этого необходимо перейти на соответствующую вкладку. Отображает всю необходимую информацию.
Аналог esxtop есть ?
➣Ну тут сложно, прям такого нет, но есть top в CLI и есть htop в bash. ВМки там можно найти по ID.
есть интеграция с елкой, чтобы результаты забирать \ отправлять ?
Из ELKи были elastic и kibana, где-то с 6.1 версии они перешли на loki и grafana, можно забирать оттуда.
и классика - что с RDMA 25\100 ?
Ядро сети? LUN в ВМку прокинуть можно, 10G работают и даже бондируются, а вот с адаптерами 25/100, уверен, что лучшим ответом будет, как написали в комментарии ниже, надо тестировать.
Присутствует отдельный раздел управления шаблонами ВМ.
шаблоны только Linux, или есть возможности и по win ?
➣Есть и по Win системам.
Группировка ВМ в интерфейсе возможна по тегам.
по кластерам \ локации и как идет раздача прав на группу виртуалок ?
➣Группировка по тэгам есть как отдельное меню, там в раскрывающемся списке под тэгом все помеченные ВМ.
Объединения по организациям слышал обещают.
А раздача прав, насколько мне известно, задаётся на уровне пользователя, может вместе с организациями и это изменится.
Что с affinity ?
➣Affinity в режиме раннего развития, можно с помощью тэгов задавать допустимые для ВМ узлы, через те же тэги реализован anti-affinity для виртуалок, чтобы при отработке механизмов автоматического управления ресурсами машины не размещались на одном узле.
vmxnet3 используется при импорте ВМ из VMware.
Экспорт из вари встроенный или как ?
➣Экспорт встраиваемый, на базе ovftool и vmkfstools, не без нюансов, но перегнать диски и восстановить ВМ хватает. Иногда не угадывает с типом загрузчика, приходится вручную его менять. https://spacevm.ru/docs/6.4.0/how_to/import-export/esxi/
Имеется 4 варианта выбор из раскрывающегося списка: virtio
Скорость virtio не проверялась ?
➣У нас в ВМке скорость практически такая же, как у хранилища, на котором лежит виртуальный диск, у нас обычные SSD.
В карточке диска возможно изменить тип шины диска, либо указать при создании. Доступны четыре режима: virtio, ide, scsi, sata.
NVME нет?
➣NVMe нет, но есть проброс PCI устройств, если надо монопольно и быстро. А в чем смысл такого режима эмуляции? Какое хранилище обеспечит такую скорость?
При использовании разделяемого блочного хранилища между узлами необходимо форматировать LUN в кластерную файловую систему.
правил настройки под вендора нет ? Аналогично Using Claim Rules to Control ESXi Multipathing Modules ? Под AA , ALUA, ANO ?
➣Настройки под вендора есть прям списком, есть Булат, Рейдикс и Ядро. Можно конфигурацию поправить под себя через CLI, но на каждом узле придется.
NFS какой ?
➣3 и 4, с последним обновлением даже заработал all_squash на nobody (65534)
DRS настраивается на кластер и выполняет роль сервиса, который выравнивает нагрузку по всем узлам, входящих в кластер.
Судя по панельке, нет режима "согнать активную нагрузку на хосты, максимально сосвободив парочку серверов" - The vSphere Distributed Power Management (DPM) feature allows a DRS cluster to reduce its power consumption by powering hosts on and off based on cluster resource utilization.
➣Энергосбережения, как мне кажется, ещё не завезли.
Что с режимами и affinity ? https://4sysops.com/archives/vmware-drs-tips-and-tricks/
➣DRS есть, даже работает, у нас отрабатывает по пределам нагрузки на проц. Про аффинити выше написал, можно запрещать и не пускать на определенные хосты.
Ролевой доступ
Наследование ролей на группы VM ?
➣Тут только назначение ролей на пользователя и группы.
Интеграция с почтовыми системами
TLS 1.3 умеет ?
➣Умеет, многие умеют, года так с 2019
Для отказоустойчивости сервера управления рекомендуется настроить репликацию контроллера. Переключение контроллера из slave в master осуществляется в ручном режиме.
И как его искать, если DRS его куда-то утащит ?
➣Кто его утащит, он же памятник. А если серьезно, то тэги и поиск по ним весьма помогают.
Мониторинг присутствует — для этого необходимо перейти на соответствующую вкладку. Отображает всю необходимую информацию.
Аналог esxtop есть ?
➣Ну тут сложно, прям такого нет, но есть top в CLI и есть htop в bash. ВМки там можно найти по ID.
Кроме того, мониторить можно в веб-интерфейсе.
GFS2. Вроде раньше была еще OCFS.
Журналы системы можно из гуёв выгрузить, на мой взгляд пока слабовато, чтобы прям support бандлом называть, но есть.
есть интеграция с елкой, чтобы результаты забирать \ отправлять ?
Из ELKи были elastic и kibana, где-то с 6.1 версии они перешли на loki и grafana, можно забирать оттуда.
и классика - что с RDMA 25\100 ?
Ядро сети? LUN в ВМку прокинуть можно, 10G работают и даже бондируются, а вот с адаптерами 25/100, уверен, что лучшим ответом будет, как написали в комментарии ниже, надо тестировать.