Хабр Курсы для всех
РЕКЛАМА
Практикум, Хекслет, SkyPro, авторские курсы — собрали всех и попросили скидки. Осталось выбрать!
крупные операторы вообще предпочитают сдавать в аренду «серверы», собирая их из десктопных комплектующих
а вообще всё же просто: не хотите попасть на оверселинг — покупайте физический сервер. жалко денег на администрирование физического железа? страдайте от оверселлинга.
Так же плюс контейнеров
заключается в том, что память и другие ресурсы, такие как дисковое пространство, не выделяются гостевой системе целиком (например, размер lun, отданного в распоряжение виртуальной машине в качестве диска, уже нельзя уменьшить).
Да просто осознание того, что ты заплатил на неполноценный сервер, уже угнетает душу :)
Да просто осознание того, что ты заплатил на неполноценный сервер, уже угнетает душу :)
Да просто осознание того, что ты заплатил на неполноценный сервер, уже угнетает душу :)
например, размер lun, отданного в распоряжение виртуальной машине в качестве диска, уже нельзя уменьшить
openvz — тоже гипервизор.
Эм. Как это нету? В любом линуксе есть аналог vswap — swap-файл в ramfs ;)
cpuunits есть — cpuset.sched_load_balance
cpulimit по количеству ядер — cpuset.cpus
Что за vzswap такой никому неизвестный?
CPUunits отродясь определял приоритет запросов к CPU между виртуалками. Как раз то же самое делает и cpuset.sched_load_balance. Что-то изменилось?CPUunits отродясь определял приоритет запросов к CPU между виртуалками. Как раз то же самое делает и cpuset.sched_load_balance. Что-то изменилось?
[root@ovz07 ~]# vzcpucheck
Current CPU utilization: 1322084
Power of the node: 1122625
Warning: hardware node is overcommitted
Про OpenVZ vs LXC
Существует несколько разных людей и команд, которые заинтересованы в том, чтобы в Линуксе (в мейнстрим-ядре) появились контейнеры и вся сопутствующая функциональность. Одна из таких команд — OpenVZ. Как я выше написал, мы самбитим патчи в мейнстрим, иногда их даже принимают (какое-то время Parallels даже был в top10 linux contributing companies). Одна из других команд — это ребята из IBM (Франция, Индия, США). Их много и они упорные, и кроме некоторых патчей в ядро, они пишут свои утилиты. Вот LXC — это то, что есть в менйстримном ядре (включая патчи от OpenVZ, IBM и других людей типа Эрика Бидермана), плюс эти самые lxc утилиты. В противоположность, OpenVZ — это то, что в мейнстримном ядре, плюс наши патчи, плюс наши утилиты. Что из этого всего следует — решать вам.
То есть, из этого следует, что не надо противопоставлять LXC и OpenVZ. По сути, это взаимопроникающие вещи, просто LXC более work in progress, а OpenVZ — готовое решение.
Про портирование на новые ядра — выше вроде я описал. Нельзя сказать, что сложность падает — скорее, просто объём портируемого кода уменьшается.
Про OpenVZ vs LXC
Существует несколько разных людей и команд, которые заинтересованы в том, чтобы в Линуксе (в мейнстрим-ядре) появились контейнеры и вся сопутствующая функциональность. Одна из таких команд — OpenVZ. Как я выше написал, мы самбитим патчи в мейнстрим, иногда их даже принимают (какое-то время Parallels даже был в top10 linux contributing companies). Одна из других команд — это ребята из IBM (Франция, Индия, США). Их много и они упорные, и кроме некоторых патчей в ядро, они пишут свои утилиты. Вот LXC — это то, что есть в менйстримном ядре (включая патчи от OpenVZ, IBM и других людей типа Эрика Бидермана), плюс эти самые lxc утилиты. В противоположность, OpenVZ — это то, что в мейнстримном ядре, плюс наши патчи, плюс наши утилиты. Что из этого всего следует — решать вам.
То есть, из этого следует, что не надо противопоставлять LXC и OpenVZ. По сути, это взаимопроникающие вещи, просто LXC более work in progress, а OpenVZ — готовое решение.
Про портирование на новые ядра — выше вроде я описал. Нельзя сказать, что сложность падает — скорее, просто объём портируемого кода уменьшается.
вы так говорите, словно есть какая-то конфронтация с openvz.
Еще чаще возникает необходимость балансировки нагрузки: на одной ноде VPS продали слишком много, а на другой слишком мало. дешевые Xen хостеры вынуждены или выключать часть клиентов, и перевозить их offline на недогруженный сервер, или не обращать внимание на жалобы клиентов на перегруженном сервере: авось кто-то уйдет, и тормозить у остальных VPS перестанут!Про Live Migration на Xen и KVM автор не знает? Между тем очень просто всё настраивается даже на арендованном хецнеровском железе.
нормальный 1U стоит ~ 2500$. дисковая полка на 36 дисков
читали?
# modinfo zfs | grep parm | wc -l
76
# modinfo zfs | grep parm | grep arc | wc -l
16
Для чего делать еще один rsync?
Ага. То-то у меня машинки на SB без сети наливались долгое время =)
И ещё там очень забавно работал Turbo Boost. Некоторые назвали бы это «не работал».
veth не делает oops)?
Если использовать macvlan — то и гигабит мелких пакетов по сети можно спокойно «прокачать».
Значит я тогда не разобрался как ее готовить, ибо не смог завести.
<= 2.6.18stab это были дебиановские ядра.
2.6.9 — это 2004 год? Как бы очень и очень давно.
что Апач на OpenVZ ест меньше памяти, чем на Xen (подсказка: нужно тюнить стек, man ulimit)
С одной стороны, в нужных мне пакетах могут оказаться зависимости от нового ядра, а с другой — хостер может обновить ядро и оно окажется несовместимым с моим
1) Учёт памяти страницами приводит к аварийному завершению процесса, который стал причиной выделения страницы, которая не может быть выделена. Например, все страницы забрали процессы apache, а oom-killer решил прибить mysql. Имеем битые базы.
не дура, и откачивает редкоиспользуемые страницы, а вместо них загружает, например, дисковый кеш.
Кроме того, сейчас OpenVZ рекомендует переходить на ploop,
своё время OpenVZ действительно был нужен и полезен. Когда аппаратная виртуализация стала иметь сравнимые с текущими стабильность и оверхед, технология стала применима лишь в очень узком спектре вроде разещения на одном сервере 10000 виртуалок,
#kernel
Interface RX Pkts/Rate TX Pkts/Rate RX Data/Rate TX Data/Rate
RX Errs/Drop TX Errs/Drop RX Over/Rate TX Coll/Rate
eth0 810955 0 1 0 51901K 0 450 0
30994 61988 0 0 0 0 0 0
OpenVZ (точнее, софтовый бридж из комплекта) не переживают.
intel C602 + 2x Xeon E2670 + 2x Intel-520
36ГБит/с 4,3Мпакетов
3. Оверселлинг никуда не девается.
Как Вы себе представляете то, что бы ресурсы одномоментно потребовало 30-40 контейнеров?
2. OpenVZ не имеет адекватных средств по изоляции виртуалок друг от друга. Пара примеров: mount list (позволяет сильно напрячь ядро из самого дешёвого контейнера), entropy drain.
[root@web33u ~]# time mount list
mount: can't find /root/list in /etc/fstab or /etc/mtab
real 0m0.125s
user 0m0.000s
sys 0m0.001s
[root@web33u ~]#
В этом и есть разница между гипервизорами и контейнерами. У гипервизоров конфликт
бывает только за конечное число легко измеряемых ресурсов (IO, memory, CPU, network),
Но за попытку убедить нас всех идти на оверселеный хостинг, право, могу поблагодарить. Что убедить у Вас получилось, не скажу, но аргументы послушать было интересно.
Я, кстати, встречал хостера, который прямо говорил, что с высоким потреблением CPU и диска клиент им на виртуалке не интересен
1. Не освещена проблема разделяемой памяти. Использование апача на OpenVZ рисковое занятие. (хотя может уже не актуально? просветите пожалуйста.)
2. Не освещена проблема загрузки модулей. Ну тут, конечно, всё от хостера зависит.
что это означает — под OpenVZ многопоточные программы могут занимать занимать в несколько раз больше памяти, чем на реальных машинах
так как нет накладных расходов на запуск гостевых ядер и переключение контекстов
Поэтому процесс, запущенный в Xen и KVM всегда будет работать медленнее, чем в OpenVZ
Не разбирался, но по моему, утвержение безосновательное ибо слабо представляю как же так безопасно заставить работать много контейнеров в пределах одного адресного пространства, чтобы не было переключения контекстов между задачами.
Думается мне, что если Вы возьмете виртуалку на xen и контейнер на OpenVZ, запустите на обоих тестовый код на Си, который будет в цикле считать 1 << 11 несколько млн итераций, то разницы не увидите (при условии, что на гипервизорах не будет сильной конкуренции за ресурсы)
В том-то и дело, что разница будет! В топике есть ссылка как раз на бенчмарк OpenVZ vs Xen.
В таком случаем более уместно сравнивать паравиртуализацию на xen c openvz, а не эмуляцию аппаратной части в xen c openvz.
Попытка развенчания мифов об OpenVZ, или VPS на OpenVZ vs Xen/KVM/Hyper-V/etc