Я только начал. Я не люблю американский подход (когда сначала «как сделать», а потом объяснение как это получилось), мне ближе европейский подход (сначала объяснить как это получится, а потом показать как это делается). Терминология нужна, потому что дальше на ней будет основываться всё остальное.
Надеюсь, что вы напишите цикл статей до логического конца. Тут часто бывает, что начнут, а продолжения нету или оно затягивается. Если это так, очень буду ждать завершения. Самому интересна данная тема.
> когда содержимое виртуальных машин и виртуализатор управляется одной и той же организацией
Таки «содержимое виртуальных машин и виртуальная инфраструктура»?
Скедулер наверное хочет быть планировщиком в этой стране, но это мелочи.
На самом деле стиль повествования похож на доисторическую манеру ведения лекций для студентов младших курсов о чём-нибудь очень для них далёком: там тоже начинали с терминов — «Вы запишите сначала термины, а то непонятно будет». ИМХО термины должны появляться по мере необходимости, а то и заменяться словами «механизм», «структура» и прочими, до тех пор, пока не будет необходимости дать термин.
Ждем то самое «ту би континьюд». ;-)
Я всё это ещё много раз объясню, но не зря на сайте xen'а в API нарисован кружочек со стрелками. Они все друг на друга завязаны, невозможно найти того, с кого можно начинать выстраивать цепочку терминов.
>>Хосты (в случае, если их больше одного) должны быть строго одинаковыми — одинаковый степпинг процессора, материнская плата и т.д.
Это никаким образом не обходится?
В клауде ещё не пробовал а в XenServer можно убедить машины с разными CPU войти в пул. Миграция тогда часто становится возможна лишь в одну сторону. У меня например машина запушщенная на Pentium D дуалкоре мигрирует на Core2Duo, а вот наоборот умирает, т.к. набор фич и инструкций у процессоров разный
Обходится. Можно сказать «принять машину в пул силком», но у этого могут быть сильно печальные последствия, если у процессоров будет разная интерпретация данных (например, список доступных инструкций). Больнее всего это стукнет во время миграции.
Офицальный ответ — «никаких переходов». Хосты должны быть одинаковыми. Неофицально — то, куда мигрируете машину, должно целиком и полностью уметь всё, что умеет то, откуда мигрируете. Как их сопоставлять и выяснять — я не знаю.
Причины по CPU мне прекрасно известны, хотя отсутствие ограниченного фичер-сета для такого применения огорчает.
Меня больше интересует требования к материнской плате и прочим комплектующим, кроме само собой разумеющегося что «так будет лучше ибо одинаково», есть ли действительно каки-либо ограничения в самом ксене.
Вопрос не праздный, камрады собираются две стойки блейдов виртуализировать (Win* экосистема, я есстесно в качестве нативного предлагаю Hyper-V, они хотят Xen (правда аргументировать выше «нравится» и «просто» не могут)), соответственно хотелось бы узнать заранее pro/cons.
Наверное, про материнки никто и не скажет толком… С большой вероятностью это связано с особенностями северного моста каждой из них. Хотя, попытаться можно, наверное.
Основная идея запрета на различия платформ: лучше не экспериментировать.
Я hyper-v настолько не знаю, чтобы говорить о его серьёзном сравнении с зеном. Однако, HVM хуже PV для зена. Если голые винды без намёков на линуксы, ставить hyper-v и грызть мозг майкрософту. Совмещать opensource подход и надменную проприентарщину будет просто психологически тяжело.
Не так. В HVM привелегированные инструкции перехватываются гипервизором с помощью механизма исключений (то, что VT/pacifica предоставляет), а в PV ядро НИКОГДА не выполняет привилегированных инструкций, делая вместо них гипервызовы. HVM может так же делать гипервызовы, но они обычно делаются только драйверами, а ядро свои операции выполняет силком — это приводит к некоторому пенальти в работе (и это свойство всех «принудительных» виртуализаторов, хоть VMWare, хоть Hyper-V).
freshmeat.net/projects/dbench/
виртуалки не откликались ни по сети(легкий вебсервер местного написания с отображением статики), ни по ssh
Все по дефолту, т.к. планировалось еще запускать FreeBSD и возможно Windows.
да и в принципе лучше сразу оговориться, что паравиртуализация меня мало интересовала из-за указанных выше FreeBSD и Windows. Т.к. оборудование под виртуализацию не освободилось, хотелось бы выбрать окончательно ПО.
FreeBSD прекрасно умеет работать в PV-режиме. Насчёт остального, нужно смотреть на guest tools (я откровенно хреново знаю HVM'ную часть, и точно знаю, что с ней геморроя из-за сопротивляющегося гостя куда больше).
RDMA и т.д. будут работать только для dom0. В XCP в принципе не поддерживается прокидывание железа в домены (для возможности лёгкой миграции между хостами). Единственная поблажка, которую я знаю, это netfront2, позволяющий использовать tcp offloading для domU с карточками, которые в курсе наличия нескольких виртуальных устройств (откровенно, я эту часть плохо читал, там как-то хитро сделано, что сетевуха поддерживает несколько независимых потоков, которые раздаются гостевым системам).
… Хотя, возможно, я часть, связанную с blktap2 ещё просто не расковырял, там могут быть интересные фичи.
Откровенно, мы говорим за пределами моей квалификации. Я не работал с IB, так что сказать, что делают в этом случае в зене, не могу. Пока нагуглилось «SmartIO» (судя по всему, это как раз для работы с IB), но есть ли его поддержка в ядрах в XCP, и в каком оно статусе, я не знаю.
Не совсем так. Локальное блочное устройство с точки зрения XCP называется PBD. Оно входит в SR. VDI расположен на SR. Если хост решает, что VBD виртуальной машины ссылается на указанный VDI, а VDI расположен на указанном SR, то он использует свой PBD для получения доступа к VDI.
Xen Cloud Platform в условиях предприятия [1]