Pull to refresh

Comments 28

Интересно насколько Virtuozzo 7 может решить описанные здесь проблемы? Ведь под капотом там те же технологии, а в преимуществах должен быть как раз удобный способ работы с виртуальными машинами и контейнерами в едином интерфейсе. Есть у кого-нибудь опыт эксплуатации?

И таки как правильно строить сеть на KVM? Особенно если это Nutanix CE, который иногда сам виртуалки таскает.

То есть как инсталлер построил бридж, так его и не трогать. Но проблема promiscuous mode для интерфейсов хоста никуда не девается, правильно? Bonding вещь, но уровень ниже второго, значит, нерелевантно.

Просто не усложняйте то, что сделано простым. Вам чего в имеющемся построении сети в CE не хватает? Не «руки чешутся чего-то поменять, а то заняться нечем», а вот именно что «не хватает»?

Понадобилось пробросить мультикаст в ВМ на нутаниксе. Ууупс.

Надеялся что в статье будет пример переезда, а тут только про боль и никакой конкретики, даже про правильную сеть ничего не написали. Вобщем очередная статья галопом по Европе.
Смотрите, это статья про те грабли, которые мы встретили. Если конкретно, то переезд машины заключается просто в переносе диска. Дальше уже могут быть какие-то особенности, но в случае Linux их практически нет.

Это именно галопом по Европам, потому что в час доклада невозможно всунуть много разных случаев. Напишите в личку, если нужно что-то более конкретное.
«Angular вываливается с исключением еще на входе в Web-интерфейс.» Лечится прямым сертификатом + нормальным билдом ESXi

«Не работает возможность удаленно мониторить статус RAID-массива так, как удобно нам. Раньше было удобно, а в версии 6.5 — все плохо.» Работает для контроллеров из HCL

«Слабая поддержка современных сетевых карт от Intel.» Косяк интела, который наблюдался в ноябре 2018-феврале 2019, связан с vRSS, сейчас пофикшен в прошивках\дровах Интела.
+1. Изначальные аргументы автора точно странные.

Посмотрите на Opennebula, возможно она вам подойдёт

Я мигрировал с vmware sphere 6.5 на kvm
Proxmox, вы скажем так недосмотрели, моё мнение, виртулки с простое 5-7 минут запускали т в новой среде. Без миграция дисков и т. Д проблем за 5летнюю историю не обнаружено

Если бриджи это такой ужас-ужас, боюсь даже представить, что с вами будет, когда вы оверлейные сети обнаружите. Презентация, кстати, пятилетней давности, то есть времен ядер 3.x, неужели ничего не изменилось с тех пор?


И ещё вопрос: сколько у автора живых миграций в сутки, какого размера ВМ (ядра, память) и под какой нагрузкой, что это прямо нравится?

В ProxMox авторов испугало ядро от Ubuntu. Нет слов…

С bridge всё в порядке, особенно, если сеть 10Gbps.
Angular вываливается с исключением еще на входе в Web-интерфейс. Как только вы вводите логин и пароль — сразу исключение!

Было, проходили. Лечится установкой ближайшего патчика.

Не работает возможность удаленно мониторить статус RAID-массива так, как удобно нам. Раньше было удобно, а в версии 6.5 — все плохо.

Зависит от контроллера, очевидно. Адаптек наш мониторился без проблем до тех пор, пока не начинала лагать сама их фигня для мониторинга. Нахер снес ее, надоела. Ну и это, от RAID пора уже было отказаться, раз у вас похоже машин несколько, хочется общее хранилище, быстрые миграции. VSAN и вперед. Дорого конечно, но чего поделаешь.

Слабая поддержка современных сетевых карт от Intel.

Во-первых, виноват таки интел. Во-вторых, новые сетевые карты интела кривые априори и глючат под другими ОС тоже. Что не удивительно с учетом, что все теперь делает прошивка, а не драйвер. Надо было брать старое проверенное.

Нет миграции в рамках ESXi

А с чего ей там быть? ESXi это не средство для управление кластером. Покупайте vcenter и все будет бегать прыгать замечательно. Если у вас несколько машин, то как бы само собой разумеющееся должно быть.

В общем, странные проблемы. Будто вообще толком не разбирались и сбежали при первых проблемах. У vmware стека есть проблема и регулярно чего-то ломается, но уж слишком драматизм какой-то. Когда ставишь все как надо с vcenter, distributed switch, vmotion, получается красота неописуемая. Главное, не лезть во внутренности, когда чего-то ломается. Там мракобесие сплошное. Лучше придерживаться проторенной дорожки.
> zabbix-agent странно ведет себя в контейнере. Если его запустить внутри контейнера, то ряд данных вы увидите с хостовой системы, а не из контейнера. Пока с этим ничего сделать нельзя.

А разве lxcfs не помогает от подобных проблем?
Мы в восторге от миграции. Во многом это благодаря общему хранилищу. Если бы мы мигрировали, перетаскивая диски, то были бы не так счастливы.
Я так и не понял у вас внешний сторедж или локальные диски собранные в рейд у которых на ESXi не работает мониторинг…

А про какие сервера идет речь? мне кажется или это хендмейд?
А про миграцию какого количества хостов идет речь?

присоединяюсь к вопросу выше, и постараюсь его развить:
Почему вы не используете lxcfs (а если используете — не указали этого)?

Вообще, я-бы начал с того, что мониторить lxc-контейнеры «изнутри» стандартными zabbix-шаблонами — моветон.
Их вообще лучше обнаруживать и мониторить «снаружи».
Написать (или найти готовые) для этого скрипты не сложно.

А запускать lxc-контейнеры без lxcfs — сравни поездке в авто без сидения.
По собственному опыту использования lxcfs в docker-контейнерах (использую только /proc/*-шары), могу сказать, что с ними никогда никаких проблем не наблюдалось.
Хотя некоторые контейнеры по полгода-год работают.
UFO just landed and posted this here
Debian, на который натянули ядро от Ubuntu

Можете пояснить, что вы имели в виду этим предложением? И Debian, и Ubuntu используют ядро Linux, при этом дистрибутив Ubuntu базируется на Debian. Скажем, Debian 9 за два года выпуска минорных версий 9.0… 9.9 поменял версию ядра с 3.16 до 4.9. Debian 10 вышел на ядре 4.19. При этом мы помним, что ядро Linux не придерживается семантического версионирования.

Пока статью дочитал, чуть сума не сошел. Конечно же хорошо, что столь обьякт вно подошли к данному вопросу и раскрыли все значимые моменты. (на Ваш взгляд). Но Друзья, таблицами сравнения и графиками производительности (про работу вашего любимого бриджа) — можно было бы сказать куда больше. И с меньшим количеством упоминанием "не использовать бридж".

>Но если у вас сетевая карта на 10 Gb и вы хотите как-то ее утилизировать, то остается только macvtap.

а в докладе на который вы ссылаетесь как раз обратные выводы — хоть потребление CPU и выше на 24-29%, но и утилизация канала выше на 300-600 мегабит(процентов на 10-15) (что иногда критично).
А зачем сверхпростой виртуалке на QEMU вообще какой-то grub/lilo, если в <миллион параметров> можно указать ядро и initrd?

Например, Proxmox VE — это Debian, на который натянули ядро от Ubuntu.

Формально Proxmox это надстройка над связкой KVM+Debian Linux. Его можно отдельно накатить на Debian Linux, или даже на Ubuntu Linux, а ребята из Альт Линукс оптимизировали и установили на свой дистр.

Это выглядит странно, но приносить ли это в продакшн?

Как ни странно ProxMox VE, который на Debian Linux очень хорошо работает в проде. Я знаю много таких организаций, я даже дома поставил себе и на ноутбуке и, с учетом настроенной и работающей технологии GPU Passthrough на моем железе, переехал с 2019г жить и работать в виртуалку. Да это узкий кейс, но там где нужна надежность, кластеризация и далее по списку ProxMox показывает себя очень хорошо.

Наши соседи этажом ниже — Alt Linux. Они придумали красивое решение: собрали Proxmox VE в виде пакета. Они просто ставят пакет одной командой. Это удобно, но мы не катаем Alt Linux в продакшн, поэтому нам не подошло.

Proxmox VE бесплатен, но даже у авторов на него платная поддержка, в условиях импортозамещения в России, когда кому-то этот продукт Важен и полезен, я думаю что он найдет себе нишу, там где требуется виртуализация и сертификаты ФСТЭК, без относительно того как я отношусь к факту заимствования платформы.

Sign up to leave a comment.