Технологии intel и amd слегка различаются, amd предлагает возможность программировать контроллер памяти (на процессоре) для снижения вычислительной нагрузки на виртуализацию (nested pages), интел (насколько я знаю) все вычисления перекладывает на ПО.
У Intel это называется EPT.
Существуют следующие методы управления памятью
Забыли упомянуть SWAP на уровне гипервизора.
В настоящий момент разработана довольно интересная система — open vSwitch
У VMware начиная с vSphere 4 есть Distributed vSwitches, позволяющие, помимо всего прочего, разграничивать полосу пропускания для отдельных типов трафика (ВМ, управляющий, iSCSI).
У VMWare анонсирована замечательная возможность контролировать количество операций ввода-вывода, обеспечивая малую задержку в обслуживании всех гостей, притормаживая самых жрущих из них.
У VMware это уже есть в vSphere 4.1.
Идут работы по стандартизации взаимодействия между гипервизорами. Например, предложен XVA формат, как независимый от платформы формат для экспорта/импорта виртуальных машин.
.ovf вполне платформонезависим. :)
Некоторые предоставляют возможность точного аккаунтинга потреблённых ресурсов в виде абсолютного числа тиков, иопов, мегабайт, сетевых пакетов и т.д.
В Hyper-V есть Performance Monitor, который предоставляет необходимую информацию. В VMware аналогично + некоторые консольные утилиты.
Не вижу проблемы, компоненты интеграции для Linux они открыли для включения в ядро. Драйвер balloon для Dynamic Memory идет вместе с компонентами интеграции. Осталось убедить Microsoft сделать поддержку DM для Linux. :-)
Нет, но для этого вы можете использовать, например, Bitlocker To Go, либо сторонние решения — True Crypt, либо программы, которые предлагают сами производители флешек.
Если вы знаете, что такое активный раздел, и что активным может быть только один раздел на накопителе, то зачем пользуетесь неправильной терминологией?
Хм, мы как раз сегодня на работе случай обсуждали.
Предыстория:
Был у нас один Заказчик, которому мы делали небольшой проект по организации всей инфраструктуры на базе VMware ESX 3.5.
Делали все по уму-разуму: два сервера HP Proliant DL380 G5 (с резервированием по дискам, по питанию), одна полка HP StorageWorks MSA 2000i с двумя контроллерами и блоками питания, два управляемых коммутатора Cisco для подключения всего этого и разграничения трафика (VLAN, CHAP аутентификация для пущей надежности). Выделенный сервер резервного копирования Microsoft SCDPM 2007 делал бекапы образов основных серверов и данных приложений на локальные диски.
Это было вступление, а теперь короткая история:
Под Новый Год сдали проект, а через три месяца все сломалось.
Из-за скачка электропитания в полке (как мне потом рассказал админ) поломался backplane, маленькая такая плата, которая, естественно не резервировалась. Плату поменял по гарантии приехавший инженер. Однако, сбой привел к недоступности сервиса на протяжении ~2 дней.
Мораль — а кто же знал??!
Вторая история:
Ни с того, ни с сего, начал глючить файловый сервер, который был организован на сервере-лезвии HP BL460 (поколение, к сожалению, не помню). Тома с данными к блейду подключались по Fibre Channel с хранилища EVA 4400. Но суть не в этом.
Сервер начинал жутко тормозить под нагрузкой, файлы могли открываться минутами, перезагружался по пол-часа.
Слово за слово, решили перенести роль файлового сервера на свежесозданную виртуальную машину, а на это лезвие поставить VMware ESX для тестовой среды. Установка прошла успешно, а вот работать ESX октазался, ругаясь в служебной консоли страшными надписями.
Общение с тех.поддержкой HP заняла некоторое время и слава Google, нашлась похожая проблема у одного админа и причиной ее был… backplane, к которому в сервере подключаются 2.5" SAS диски. Убедив ТП и приехавшего инженера в том, что так оно и есть (это было уже после того, как попробовали заменить мат.плату лезвия, что, естественно, не дало результатов), злополучная железка была заменена, и, о чудо, все заработало.
Умеет еще VMware.
Если имеется ввиду биллинг, то нет — не умеет.
У Intel это называется EPT.
Забыли упомянуть SWAP на уровне гипервизора.
У VMware начиная с vSphere 4 есть Distributed vSwitches, позволяющие, помимо всего прочего, разграничивать полосу пропускания для отдельных типов трафика (ВМ, управляющий, iSCSI).
У VMware это уже есть в vSphere 4.1.
.ovf вполне платформонезависим. :)
В Hyper-V есть Performance Monitor, который предоставляет необходимую информацию. В VMware аналогично + некоторые консольные утилиты.
Наверное потому, что MS так и так получает деньги за лицензии на клиентские и серверные ОС, отчего бы старого партнера заодного не пораскручивать? :-)
Предыстория:
Был у нас один Заказчик, которому мы делали небольшой проект по организации всей инфраструктуры на базе VMware ESX 3.5.
Делали все по уму-разуму: два сервера HP Proliant DL380 G5 (с резервированием по дискам, по питанию), одна полка HP StorageWorks MSA 2000i с двумя контроллерами и блоками питания, два управляемых коммутатора Cisco для подключения всего этого и разграничения трафика (VLAN, CHAP аутентификация для пущей надежности). Выделенный сервер резервного копирования Microsoft SCDPM 2007 делал бекапы образов основных серверов и данных приложений на локальные диски.
Это было вступление, а теперь короткая история:
Под Новый Год сдали проект, а через три месяца все сломалось.
Из-за скачка электропитания в полке (как мне потом рассказал админ) поломался backplane, маленькая такая плата, которая, естественно не резервировалась. Плату поменял по гарантии приехавший инженер. Однако, сбой привел к недоступности сервиса на протяжении ~2 дней.
Мораль — а кто же знал??!
Вторая история:
Ни с того, ни с сего, начал глючить файловый сервер, который был организован на сервере-лезвии HP BL460 (поколение, к сожалению, не помню). Тома с данными к блейду подключались по Fibre Channel с хранилища EVA 4400. Но суть не в этом.
Сервер начинал жутко тормозить под нагрузкой, файлы могли открываться минутами, перезагружался по пол-часа.
Слово за слово, решили перенести роль файлового сервера на свежесозданную виртуальную машину, а на это лезвие поставить VMware ESX для тестовой среды. Установка прошла успешно, а вот работать ESX октазался, ругаясь в служебной консоли страшными надписями.
Общение с тех.поддержкой HP заняла некоторое время и слава Google, нашлась похожая проблема у одного админа и причиной ее был… backplane, к которому в сервере подключаются 2.5" SAS диски. Убедив ТП и приехавшего инженера в том, что так оно и есть (это было уже после того, как попробовали заменить мат.плату лезвия, что, естественно, не дало результатов), злополучная железка была заменена, и, о чудо, все заработало.
Мораль — да, блин… кто же знал??!
Конец.
В России можно смело делить цифры на 3 или на 4 :-)
Для низших сертификаций (MCP, MCTS, CCNA) — на 5-6.