У меня вышло с 3-й попытки. По хорошему надо использовать 3 машины. Для oVirt. как менеджера, для хостов(гипервизоров) и для NAS. Я использовал 1 тестовый домашний сервер на котором крутились все 3 компонента. И из-за этого у меня возникали трудности с локализацией проблем.
Я в начале пользовался этим гайдом Вот описанная там схема у меня на центе 6.4 не завелась. Лучше пользоваться официальным
Пару вещей, которые я не сразу допер. После настройки овирта на каждом хосте надо поставить VDSM (в моем случае это та же локальная машина) А так же использовать пакеты из репозиториев цента (репозиторий овирта для цента есть).
Система мне понравилась, но на мой взгляд, она не такая гибкая как стандартный virsh. Я хотел использовать ее для домашнего сервера виртуализации, но засунуть все виртуалки в отдельную виртуальную подсеть средствами овирта нельзя, там схема такова, что 1 сеть — 1 физический интерфейс (как мне позже умные люди объяснили — оно и не нужно, т.к. при миграции между кластерами виртуальная сеть только мешает). Еще у меня не вышло делать live snapshot из коробки, это из-за старой версии qemu в коробке скорее всего. В принципе можно расковырять ovirt и сделать что угодно (у меня получилось сделать виртуальную сеть приконектившись virsh и поменяв его средствами интерфейсы), т.к. это просто менеджер над kvm, но этого не стоит делать. Надо пользоваться как есть, т.к. система сложная и изменение части компонентов может привести к непредсказуемым результатам.
Таким образом в промышленных масштабах овирт себя показывает в более хорошем свете (можно группировать сервера, миграцию между хоставми, кластерами, отдельные NAS создавать, балансировка нагрузки), но для гибкого использования дома он не подходит, слишком неповоротлив.
P.s. сори, долго отвечал, т.к. у меня полетел винт на компе и я его только что восстановил.
Для OpenStack вот такая вот есть обёртка — Altai (дизайн — обычный бутстрап, скрины). Пытались с ней подружиться в версии 1.0 — не удалось толком, но может кому-то больше повезёт, вроде, активно развивается всё-таки.
То тут, то там вылазили неочевидные проблемы — то не разворачивается, то не отображается, ну не знаю, может у нас руки кривые, но я всё-таки думаю, что первый релиз — он всегда такой… :)
Какой-то он мутный… Давно собирался поиграться, тут как раз освободился сервант, на котором раньше KVM на CenOS вертелась, стал на него ставить. Так вот не видит proxmox, собака такая, аппаратного RAID1 на Adaptec1220SA. Выдаёт мне sdc и sdb, а что на них зеркало собрано — ему как-то пофигу. Кстати, если ставить на один из дисков, то зеркало разбивается, а если ребилдить массив — то система уже не стартует.
Второй день читаю маны — пока что всё туманно, большинство вешает софтрейд после установки, но меня такой подход как-то не радует…
Если бы всё так просто… Сентос — видел один диск, Убунта при установке — видела RAID, ставилась на него, но не могла стартовать — непонятно, куда она пихала Grub. А вот Деб его вообще не признаёт за контроллер, пилит в обход и всё тут. Скорее всего, сам по себе 1220 — странный, кастрированный какой-то контроллер. На паре сайтов нашёл упоминание об аналогичных проблемах, народ обзывает его half-soft-raid. Печально… придётся софтовый делать.
В терминологии линукса это fake raid, так и гуглите, то есть это не полноценный raid контроллер, а чуть продвинутая HBA'шка. Лучше отключить на нем любой raid и использовать mdraid.
Это как раз все просто, есть простое правило у линуксоида никогда не используй фейковые рейды, если нет денег на нормальный рейд контроллер юзай софтовый рейд он в тысячу раз лучше фейкового.
у меня crucial m4, а все в один голос советуют на нем включать ОСевой ТРИМ (внутренний подсасывает), а ядро там 2.6.32… трим начался с 2.6.33 насколько я помню, а вот бекпортили они его или нет не понятно) Ну да ладно, в любом случае можно будет я думаю из деба бекпортированное попробовать поставить) благо домашние эксперименты)
Вообще cruciam m4 — это очень, очень странный SSD. Проблем с ним нет только в Win. Хотя может я плохо искал.
В Os X и linux переодически выползают грабли.
В вашем случаи думаю лучше сделать оптимизацию на уровне ФС ext4.
Вообще, практика показывает, что лучше все вынести на отдельное хранилище ( CEPH? :) ) Для загрузки системы вы можете использовать обычные диски или делать как мы, грузить все по сети! ;)
Вышел релиз системы управления виртуализацией Proxmox 3.0