Комментарии 22
Спасибо! Ждем следующей части )
/etc/udev/rules.d/70-persistent-net.rules лучше не удалять, а занулять. С некоторыми версиями udev я встречал ситуацию, когда файл не создавался автоматически после ребута, но корректно дописывался, если существовал. Уже не вспомню какое было окружение, к сожалению.
А кто-то подскажет как наиболее эффективно получить хорошую эмуляцию графического вывода у локального Win7-гостя? Я попробовал через VLC и SDL — очень медленно по сравнению с vmware при установленных вмваре-тулзах.
spice? Там обработка изображения, по сути, происходит на стороне клиента, а не сервера.
У меня запускается локально, так что мне все равно. Больше важно использование ресурсов видеокарты для ускорения графики.
В принципе, можно пробросить видеокарту внутрь. Я этого самолично не делал, но success stories об использовании криптоключей читал.
Думаю это Вам поможет libvirt.org/formatdomain.html#elementsUSB
Да и в virt-manager это можно парой кликов мышкой сделать.
Если у Вас получится, напишите, сам в будущем планировал поинтересоваться этим вопросом.
Думаю это Вам поможет libvirt.org/formatdomain.html#elementsUSB
Да и в virt-manager это можно парой кликов мышкой сделать.
Если у Вас получится, напишите, сам в будущем планировал поинтересоваться этим вопросом.
Гуд, то что нужно. Проверю конфиги на Федоре своей.
Спасибо за статью. Кстати win2k8 r2 без бубна ставится/работает?
Спасибо за статью. Кстати win2k8 r2 без бубна ставится/работает?
Спасибо, годная статья, с нетерпением жду продолжения.
Вообще использование proxmox всё упрощает, но Ваше описание делает более понятным то что он делает.
Дополнение про udev — /etc/udev/rules.d/75-persistent-net-generator.rules — в нём есть несколько игнорируемых диапазонов MAC адресов, которые виртуалки генерируют, их лучше сразу закомментировать чтобы не ловить глюки с ненахождением новых виртуальных карт.
# ignore interfaces with locally administered or null MAC addresses
# and VMWare virtual interfaces
ENV{MATCHADDR}=="?[2367abef]:*", ENV{MATCHADDR}=""
ENV{MATCHADDR}==«00:00:00:00:00:00», ENV{MATCHADDR}=""
ENV{MATCHADDR}==«00:0c:29:*|00:50:56:*», ENV{MATCHADDR}=""
Дополнение про udev — /etc/udev/rules.d/75-persistent-net-generator.rules — в нём есть несколько игнорируемых диапазонов MAC адресов, которые виртуалки генерируют, их лучше сразу закомментировать чтобы не ловить глюки с ненахождением новых виртуальных карт.
# ignore interfaces with locally administered or null MAC addresses
# and VMWare virtual interfaces
ENV{MATCHADDR}=="?[2367abef]:*", ENV{MATCHADDR}=""
ENV{MATCHADDR}==«00:00:00:00:00:00», ENV{MATCHADDR}=""
ENV{MATCHADDR}==«00:0c:29:*|00:50:56:*», ENV{MATCHADDR}=""
После долгого использования XEN решил попробовать KVM. В принципе, никаких особых трудностей не встретилось, но есть несколько моментов, которые хотелось бы для себя прояснить:
1) Можно ли привязать виртуалки к определённым ядрам в хост-системе? Для XEN-а обычная практика, когда, скажем, одно ядро отдаётся хост-машине (привелигированной виртуалке — Dom0), а остальное — DomU.
2) Можно ли LVM-тома хоста задействовать как отдельные тома в госте? По умолчанию (во всех туториалах) для KVM берётся один файл или том и его используют как диск, который разбивается на разделы. Хотелось бы использовать тома напрямую как разделы — тогда их можно монтировать просто в случае необходимости.
Ну и хотелось бы прочитать про тюнинг виртуалок с целью выжать из них максимум производительности :)
1) Можно ли привязать виртуалки к определённым ядрам в хост-системе? Для XEN-а обычная практика, когда, скажем, одно ядро отдаётся хост-машине (привелигированной виртуалке — Dom0), а остальное — DomU.
2) Можно ли LVM-тома хоста задействовать как отдельные тома в госте? По умолчанию (во всех туториалах) для KVM берётся один файл или том и его используют как диск, который разбивается на разделы. Хотелось бы использовать тома напрямую как разделы — тогда их можно монтировать просто в случае необходимости.
Ну и хотелось бы прочитать про тюнинг виртуалок с целью выжать из них максимум производительности :)
1. Через libvirt(и через cgroups) можно привязать виртуальную машину к определённым ядрам.
2. Можно использовать как файлы образы, так и целые диски, а lvm разделы просто частный случай.
Тюнинг непосредственно виртуалок ровно такой же, как и для железных машин. Для Linux гостей крайне предпочтительно использовать virtio драйверы, а для ускорения работы памяти можно использовать hugepages, по моим тестам это значительно повышает производительность.
2. Можно использовать как файлы образы, так и целые диски, а lvm разделы просто частный случай.
Тюнинг непосредственно виртуалок ровно такой же, как и для железных машин. Для Linux гостей крайне предпочтительно использовать virtio драйверы, а для ускорения работы памяти можно использовать hugepages, по моим тестам это значительно повышает производительность.
Я-то понимаю, что можно — но хотелось бы, чтобы вы об этом рассказали в следующей самти статьи :)
Для Windows виртуалок тоде рекомендуются virtio драйверы, их делает для hdd RedHat. Как устанавливать и откуда брать написано на pve.proxmox.com/wiki/Paravirtualized_Block_Drivers_for_Windows, ничего сложного.
Насчёт тюнинга — основа в устранении промежуточных уровней доступа к диску, например
+md+lvm++файл как носитель виртуальных машин сильно хуже
диск+lvm+.
Тот же proxmox очень активно продвигает идею отказа от софтрейда для хранения виртуалок в пользу аппаратного рейда. Настолько активно продвигает, что отключили поддержку установки на md утверждая что в продакшне это работать не может. Очевидные минусы софтрейда — уменьшение предсказуемости работы дисковой системы и нагрузка на процессор, но в тонкости я не вникал.
У линукса есть планировщик для допущения приложений к диску — параметр elevator. Например, elevator=deadline будет давать виртуалкам на небольшое время монопольный доступ к диску. Хорошо это или плохо — зависит от приложений.
hugepages уменьшает плотность виртуальных машин — им нужно больше памяти, но ускоряет работу.
А вообще мне кажется, что неправильно рассматривать оптимизацию виртуалок как оптимизацию серверов. В серверах, например, не надо отключать кэш для lvm, а в виртуалках это даёт эффект. Тот же elevator=deadline для виртуалок, файлы которых плотно лежат в одной области диска, даст больший эффект чем для сервера, файлы которого разбросаны по всему диску. Руководство по оптимизации было бы не лишним.
Насчёт тюнинга — основа в устранении промежуточных уровней доступа к диску, например
+md+lvm++файл как носитель виртуальных машин сильно хуже
диск+lvm+.
Тот же proxmox очень активно продвигает идею отказа от софтрейда для хранения виртуалок в пользу аппаратного рейда. Настолько активно продвигает, что отключили поддержку установки на md утверждая что в продакшне это работать не может. Очевидные минусы софтрейда — уменьшение предсказуемости работы дисковой системы и нагрузка на процессор, но в тонкости я не вникал.
У линукса есть планировщик для допущения приложений к диску — параметр elevator. Например, elevator=deadline будет давать виртуалкам на небольшое время монопольный доступ к диску. Хорошо это или плохо — зависит от приложений.
hugepages уменьшает плотность виртуальных машин — им нужно больше памяти, но ускоряет работу.
А вообще мне кажется, что неправильно рассматривать оптимизацию виртуалок как оптимизацию серверов. В серверах, например, не надо отключать кэш для lvm, а в виртуалках это даёт эффект. Тот же elevator=deadline для виртуалок, файлы которых плотно лежат в одной области диска, даст больший эффект чем для сервера, файлы которого разбросаны по всему диску. Руководство по оптимизации было бы не лишним.
Про уменьшение количества уровней доступа к диску я вроде как писал, но так сходу не могу найти.
Я упоминал ссылку на KVM Best practices в статье чуть ранее habrahabr.ru/blogs/virtualization/120432/, там как раз про deadline было написано.
Про софтрейды. Я относительно недавно ходил конференцию, там упоминался отдельный сервер на базе Solaris, который держит софтовый рэйд, и их аргументация для использования софтового рэйда выглядела весьма убедительно. В общем если хост машина не будет заниматься всем этим, то почему бы и нет.
hugepages я пока активно трогаю, очень интересная штука.
Я упоминал ссылку на KVM Best practices в статье чуть ранее habrahabr.ru/blogs/virtualization/120432/, там как раз про deadline было написано.
Про софтрейды. Я относительно недавно ходил конференцию, там упоминался отдельный сервер на базе Solaris, который держит софтовый рэйд, и их аргументация для использования софтового рэйда выглядела весьма убедительно. В общем если хост машина не будет заниматься всем этим, то почему бы и нет.
hugepages я пока активно трогаю, очень интересная штука.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий
Работа с виртуальными машинами KVM. Подготовка хост-машины