Проблемы после миграции с openvz на lxc в Proxmox 4.x



К сожалению, развитие openvz зашло в определенный тупик, платный вариант virtuozo сильно ушел по кодовой базе в бок и в какой-то момент оказалось, что openvz работает только на старом ядре версии 2.6.32, а работы по слиянию openvz и virtuozo7 идут, сказать честно, не быстро.

Собственно это подтолкнуло команду proxmox в версии 4.0 отказаться от openvz в пользу lxc и ядра версии 4.2.6. К сожалению, команда proxmox совершенно не уделила внимания тестированию lxc в proxmox, всем, кто хочет хочет мигрировать с openvz, я настоятельно рекомендую воздержаться.

Ниже я расскажу о всех трудностях и проблемах после миграции на lxc.

Я пробовал несколько раз уже lxc, сказать честно, он был полон детских проблем, и это каждый раз меня отталкивало от использования его в продакшене, а хоумпаги я могу похостить и на openvz без детских проблем lxc, даже тот же докер намного дальше ушел в стабильности и предсказуемости.

Из глобальных проблем openvz мне вспоминается только проблема в centos 7 где не подымалась сеть, и надо было дефолтроут прописать ручками в rc.local, или установкой вот этого патча.

В lxc оказалось все намного хуже, я переходил на него с openvz, когда вышла версия proxmox 4.1, я честно думал все будет работать в lxc ожидаемо и стабильно, как в винде после первого сервис пака. Плюсом было конвертнуть бекап openvz в lxc двумя командами, но к сожалению переезд в итоге откликнулся мучительной болью и кучей потеряного времени, лучше бы я ещё годик посидел на openvz.

lzop -d vzdump-openvz-126-2016_01_27-11_08_32.tar.lzo
pct restore 126 vzdump-openvz-126-2016_01_27-11_08_32.tar --rootfs local:0

Опцию убирающую дисковую квоту --rootfs local:0 используйте если у вас хранилище не на lvm или zfs. Вот более подробное руководство для тех, кто не разобрался.

Пять основных проблем lxc которые я встретил:

  • В centos 6 пхп не коннектиться к сокету mysql, надо везде прописывать вместо localhost айпи 127.0.0.1, долго рыл эту проблему но решения не нашел, сперва думал это связано с тем, что я конвертил из openvz, но на свежей инсталяции lxc centos 6 наблюдается такая же проблема. Пробовал ставить percona 5.6 проблема сохраняется.
  • Чудовищно медленная работа lxc в image base, то есть если файлы храняйтся в виде образа диска на хостовой машине то производительности дисковой подсистемы падает в разы, от 3 до 20 раз. Я не тестил lxc на lvm и zfs. На lvm до сих пор нет thin provision, но обещают в следующих версиях. У меня довольно много всего развернуто в image base в kvm и там есть определенный оверхед на записать на диск, но он измеряется в процента, даже наверно не в десятках процентов, но такого подвоха чтобы запись в mysql стала в 20 раз медленее от lxc в proxmox я не ожидал. Вылечил в итоге хранением файлов гостей напрямую в файловой системе хоста как в openvz. При этом не работают дисковые квоты, но так как места навалом и стоит мониторинг места то забил на квоты, хотя для ссд систем дисковые квоты более актуальны. При создании и востановление указывайте опцию --rootfs local:0, из вебинтерфейса к сожалению этого сделать нельзя.
  • Не работающие бекапы lxc, бекап proxmox просто зависал на suspend vm даже в версии proxmox 4.1, этот баг пофиксили буквально 2 марта.
  • Оно реально медленнее openvz.
  • Два контейнера у меня намертво зависли и их не получилось убить никакими способами, сервер мягко ребутнуть тоже из за них не получилось в итоге пришлось сделать ресет кнопкой на сервере.


Проблемы миграции:

  • Не удалось запустить нормально дебиан 6 после конвертации в lxc, точно не помню в чем была проблема, но в связи с тем что дебиан 6 сильно легаси, перенес все приложения в свежий debian 8 руками.
  • Выше уже упомянал что php не коннектиться к mysql по socket.
  • В centos 6 не подымается сеть из за переименования сетевых интерфейсов с venet на eth0, надо зайти в контейнер с хоста через pct enter ID и выполнить команды
    sed -i -e 's/venet0/eth0/g' /etc/sysconfig/network
    rm -rf /etc/sysconfig/network-scripts/ifcfg-venet0:0
    rm -rf /etc/sysconfig/network-scripts/ifcfg-venet0
    reboot
  • Нельзя зайти в контейнер redhat based по ssh из за отсутствия tty, как то криво отрабатывает udev после конвертации, полечил вот так
    pct enter ID
    sed -i -e 's/start_udev/false/g' /etc/rc.d/rc.sysinit
    reboot

FYI:

1) Подробное руководство по обновлению proxmox 3->4;
2) Описание проблемы со скоростью дисков в lxc: раз, два, три;
3) Поддержка proxmox 3.x закончится в апреле 2016;
4) Тред, почему lxc плохой;
5) Как смигрировать c lxc обратно в openvz.

Надеюсь, этот пост сохранит кому-нибудь кучу времени.
UPD1: нашел ещё один баг в некоторых виртуалках у меня в бекапе vzdump не сохраняет папку /var/log и если ресториться из бекапа, все сервисы не подымаются и ругаются на отсутствие папки с логами.
Поделиться публикацией
Комментарии 92
    +2
    Я не спешу переходить на PVE 4 и LXC из-за одной, по моему, более глобальной проблемы — Live Migration (CRIU — не допилен). В 3й версии Live Migration с OpenVZ — просто счастье.
      +1
      Да я уже почти месяц занимаюсь сексом с lxc и понимаю что openvz счастье, ниже говорят уже можно немного юзать виртуозо семь бету.
      0
      мучаемся с proxmox 4 с осени, кроме неработающих нормально бекапов и живой миграции всё в целом устраивает. :)
      сторэйдж-бекенд — lvm+iscsi.

      а так согласен, контейнерам мало времени уделяют. к pct вместо vzctl привык буквально за месяц.
      из явных косяков:
      если в контейнере больше одного блочного устройства, то бекапится только первое.
      апи контейнеров не полностью работает, только через pct.
        0
        А что с производительностью дисков у вас на лвме?
        Хотя по идее тонких дисков для лвма нет так что должно быть нормально.
        0
        Кстати говоря, только вот выпустили criu 2.0, так может быть и до проксмокса вскоре доедет.
        http://www.opennet.ru/opennews/art.shtml?num=44015
          –1
          проксмокс всегда был не тороплив к сожалению.
          –1
          "платный вариант virtuozo сильно ушел по кодовой базе в бок и в какой-то момент оказалось, что openvz работает только на старом ядре версии 2.6.32, а работы по слиянию openvz и virtuozo7 идут, сказать честно, не быстро."

          Похоже что пост писали около года назад, когда мы объявили о слиянии OpenVZ и коммерческой Virtuozzo.
          А сейчас, когда уже доступна Virtuozzo 7 Beta с работающей миграцией и в течение следующих нескольких месяцев планируется выпустить RTM, это слышать по меньшей мере странно.

          "платный вариант virtuozo сильно ушел по кодовой базе в бок"

          в openvz три основных компонента: ядро (vzkernel), ploop и vzctl. Из этих трех компонентов разъехался только vzctl. Новая бесплатная и открытая версия Virtuozzo включает vzctl из коммерческой версии Vz. Если какие-то фичи из vzctl для OpenVZ для вас критичны, то их можно спортировать.

          Просто возьмите последнюю версию Virtuozzo 7 и покритикуйте, но не пишите что OpenVZ на старом ядре и прочие неактуальные вещи :)
            +1
            А у него есть веб интерфейс? Я бы сказать честно с радостью смигрировал бы на него.
            0
            Почитал я тут ишью известные
            https://openvz.org/Virtuozzo_7_Technical_Preview_-_Containers
            Как то печаль для продакшена.
              0
              Ага, печально. Потому что никто в здравом уме Technical preview не будет ставить в production. Мы об этом честно писали во всех анонсах.
              К тому же вы зачем-то ссылаетесь на описание ограничений для 1-го Technical preview, который был в июле 2015 года. Хотя неделю назад вышла Beta. Она также не годится для production, но в ней можно пробовать и ВМки и контейнеры. Следующей версей Vz7 уже будет RTM. Вот список ограничений для последней Beta — https://docs.openvz.org/virtuozzo_7_readme.webhelp/_known_issues_and_restrictions.html
              Баги постоянно исправляются и новые валидные билды выкладываются каждый день.
                0
                ну так я же не для хоумпаг его ставить то хочу, че его пробовать если оно с такими проблемами.
                Ждем релиза.
                  –1
                  Вы смотрите на промежуточный релиз полугодовалой давности и делаете выводы. Как-то это неправильно, не находите?
                    +1
                    Ну я глянул там баги в трекере не особо стало лучше. Того же симфс нету ещё
                      0
                      Вы удивляете меня с каждым новым своим утверждением.
                      Вот анонс SimFS в RHEL7 ядре.
                        0
                        Ну там же написано что оно еще не доделано.
                        Вы не переживайте так за виртуозо, надеюсь его все таки допилят.
              0
              Посмотрел, сыромятно все, панельки нативной нет, только либвиртовские, где все довольно убого, ждем релиза и нормальной панели.
                0
                что такое "нативная" панелька?
                  0
                  Ну у openvz есть нативная панелька например от разработчика из паралелса.
                  В целом устроило бы любое вменяемое решение на около уровне проксмокса, но там же по большей части полное уг, я их все смотрел год назад, когда думал куда мигрировать.
              0
              Какая производительность плупа дискового? Насколько велик оверхед?
            0
            Не очень понял, что тут имеется в виду:

            В centos 6 пхп не коннектиться к сокету mysql, надо везде прописывать вместо localhost айпи 127.0.0.1

            Не работает коннект к unix сокету (например /var/run/mysql.sock) или по IP? Если был localhost и помогла замена на 127.0.0.1, то это коннект по IP и подозреваю, что дело в пустом файле hosts.
              0
              Когда ты пишешь в коннекте localhost php коннектится по сокету, а не по айпи.
              А когда 127.0.0.1 то коннект идет по айпи и его можно видеть в том же tcpdump
                0
                Ну так а mysql слушает этот сокет? Команда mysql может подключится по сокету? Может права на сокет странные?
                  0
                  ну конечно слушает
                  ну конечно подключается к сокету мускуль клиент
                  ну отличные права и любой может читать и писать в него

                  ну такие то детские проблемы я бы поди на десятке то контейнеров смог бы и сам решить.
                    0
                    lxc у меня совсем не много, но postgres и mysql там есть и работают. У вас хост случайно не убунта? Беглый обзор гугла выявил такую проблему для включённого apparmor, при хранении фалов гостя на ФС хоста.
                      0
                      у вас mysql на centos 6 и можете подключиться с php-mysql?
                      Это баг именно этой связки.
                        0
                        Какие версии php и mysql взять для теста? Хост будет debian testing
                          0
                          стандартные из centos 6
                            0
                            Итак потестил. Debian testing.
                            создал контейнер. sudo lxc-create -n ct6 -t centos — R 6
                            Сразу обнаружилось, что для старта upstart необходима sys_nice. Добавил.
                            Поставил стандартные mysql-server и php-fpm php-cli php-mysql

                            Создал скрипт из примера в интернете.

                            t.php
                            <?php

                            echo 'hello';
                            $link = mysql_connect('localhost', 'lxcct6', 'lxcct6') or die('Не удалось соединиться: '. mysql_error());
                            mysql_select_db('mysql') or die('Не удалось выбрать базу данных');

                            $result = mysql_query('show tables;') or die('Запрос не удался: '. mysql_error());

                            while ($line = mysql_fetch_array($result, MYSQL_ASSOC)) {
                            foreach ($line as $col_value) {
                            echo "$col_value";
                            }
                            echo "\n";
                            }

                            ?>


                            Создал пользователя в мускле. и потестил.
                            sudo -u apache php /tmp/t.php
                            php /tmp/t.php

                            В обоих случаях все работает прекрасно.

                            вывод скрипта
                            hellocolumns_priv
                            db
                            event
                            func
                            general_log
                            help_category
                            help_keyword
                            help_relation
                            help_topic
                            host
                            ndb_binlog_index
                            plugin
                            proc
                            procs_priv
                            servers
                            slow_log
                            tables_priv
                            time_zone
                            time_zone_leap_second
                            time_zone_name
                            time_zone_transition
                            time_zone_transition_type
                            user


                            Следовательно проблема с проксмос. Они что-то делают не так с конфигом. Например активируют apparmor. Ведь хост убунта?

                            Версии
                            Debian stretch/sid
                            lxc 1:1.1.5-1
                            kernel 4.3.0-1-amd64

                            CentOS release 6.7 (Final)
                            php-common-5.3.3-46.el6_7.1.x86_64
                            php-pdo-5.3.3-46.el6_7.1.x86_64
                            php-mysql-5.3.3-46.el6_7.1.x86_64
                            php-cli-5.3.3-46.el6_7.1.x86_64
                            mysql-libs-5.1.73-5.el6_6.x86_64
                            mysql-5.1.73-5.el6_6.x86_64
                            php-fpm-5.3.3-46.el6_7.1.x86_64
                            mysql-server-5.1.73-5.el6_6.x86_64

                              0
                              Ну в тестинге может уже и пофиксили
                              прокмокс то юзает стейбл
                              0
                              А не покажите конфиг, сгенеренный проксмоксом для этого контенера?
                                0
                                arch: amd64
                                cpulimit: 8
                                cpuunits: 8024
                                hostname:
                                memory: 16000
                                net0: bridge=vmbr0,gw=148.251.213.222,hwaddr=62:35:63:30:64:30,ip=/24,ip6=auto,name=eth0,type=veth
                                onboot: 1
                                ostype: centos
                                rootfs: local:224/vm-224-disk-1.subvol,size=0T
                                swap: 512
                      0
                      На днях бодался с этой проблемой. Да, дело в правах доступа на файл с сокетом.
                      Пока не нашел ничего лучше чем в стартовом скрипте воткнуть chmod 777 $socketfile
                        0
                        Что то правами у меня эта проблема не решилась
                          0
                          у вас там systemd или V init?
                            0
                            в centos 6 нет никакого системд
                            а на всех остальных мускул нормально работает
                            не запустился только старый дебиан, в целом я уже понял что lxc мертвая технология и уже дураку понятно надо мигрировать.
                              0
                              в целом я уже понял что lxc мертвая технология

                              Звучит так, будто это отдельная подсистема ядра, и она не работает.

                              Следуя этой логике можно сделать вывод, что докер не работает. Так как он является альтернативной утилитой для создания неймспейсов, как и lxc.
                                0
                                Ну я же уже не первый раз пробовал lxc ну всегда у него детские проблемы альфа версии.
                  +1
                  Отгреб аналогичных проблем при миграции, еще и не все устройства корректно прокидываются с хота в гостевую систему, адски деградировала сеть, у меня есть контейнер с разбором трафика на L7, так производительность упала боле чем в 10 раз, промучился с неделю, откатился назад на 3 ветку прокса, буду сидеть там до последнего. На сколько я понимаю, предлагаемый тут Virtuozzo не умеет KVM, у меня хоть и не много таких машин, но есть с десяток в кластере и городить отдельный гипервизор как-то не хочется. Меня более чем устраивает OpenVZ в плане допиленности и стабильности, надеюсь что OpenVZ все таки догонит virtuozo7 и прокс вернут обратно OpenVZ, к сожалению lxc даже близко не готов к продакшину.
                    0
                    Сказать честно я ожидал, что все будет не гладко, но что все настолько чудовищно просто сложно представить пока не попробуешь.
                      0
                      "На сколько я понимаю, предлагаемый тут Virtuozzo не умеет KVM"

                      Серьезно?

                      [root@s164 ~]# rpm -qa | grep -e "qemu"
                      qemu-kvm-tools-vz-2.3.0-31.2.4.vz7.12.x86_64
                      ipxe-roms-qemu-20130517-7.gitc4bce43.vz7.2.noarch
                      qemu-kvm-common-vz-2.3.0-31.2.4.vz7.12.x86_64
                      qemu-kvm-vz-2.3.0-31.2.4.vz7.12.x86_64
                      libvirt-daemon-driver-qemu-1.3.1-1.vz7.3.x86_64
                      qemu-img-vz-2.3.0-31.2.4.vz7.12.x86_64
                      [root@s164 ~]# cat /etc/issue
                      Virtuozzo Linux release 7.2
                      Kernel \r on an \m

                      Одна из особенностей версии 7 это переезд на открытый гипервизор KVM и QEMU.
                        0
                        Спасибо, не знал что умеет, буду к лету усиленно копать в сторону Virtuozzo значит.
                        0
                        С виртуалками там все нормально, кстати.
                        Штатный prlctl практически со всем справляется.
                          0
                          Спасибо, последнее что читал в новостях, что виртуалки вроди как в планах, но не знал что допилили. Как только закончится поддержка proxmox 3, самый вероятный кандидат для миграции значит будет Virtuozzo, к лету будет ясно в какую сторону двигаться. Отдельно благодарю за ссылку на вменяемый туториал, я так понимаю вы в теме, подскажите как дела обстоят с кластеризацией? Есть ли живая миграция, поддержка фенсинга и прочие фишки "из коробки" или это уже решается на свое усмотрение средствами самой операционки гипервизора? Есть ли единая система управления кластером? Может по ценам за продукт знаете, а то на сайте нет указаний, только звоните.
                            0
                            Насчет цен не знаю, не уверен что сами Odin уже точно по ценам что-то утвердили. В этом вопросе наверняка estet подскажет.
                            Что касается кластеризации, в документации я ничего об этом не нашел, немного написано только о storage кластерах.
                            Живую миграцию недавно тестировал, до сих пор не работает.
                              0
                              По описанию выглядит вполне достойной альтернативой, подождем релиза. storage — можно кластеризировать средствами самого СХД, либо собрать CEPH, а вот поддержка со стороны гипервизора перевода виртуалки/контейнера на другой сервер при проблемах на основном — фишка очень нужная, как и фенсинг, без которого сервер может зависнуть наглухо так, что плющить будет весь кластер, пока его по питанию не дернуть.
                                0
                                Живую миграцию недавно тестировал, до сих пор не работает.

                                должно работать. Зафайлите пожалуйста баг в https://bugs.openvz.org/
                                  +1
                                  Потестил. Все работает, с багами не столкнулся.
                                0
                                По фичам можете здесь посмотреть — https://openvz.org/Comparison и заодно посмотреть feature parity с другими решениями для виртуализации.
                                HA, распределенное хранилище данных (vzstorage) будут доступны только в платной версии, после установки дополнительных пакетов и активации лицензии. По ценам ничего подсказать не могу. Живая миграция и для контейнеров и для вирутальных машин уже доступна в opensource версии.
                                TRD про функциональность живой миграции:
                                https://lists.openvz.org/pipermail/users/2016-February/006792.html
                                https://lists.openvz.org/pipermail/users/2016-February/006793.html

                                Ну и если просто хотите доступные фичи попробовать, то имеет смысл глянуть гайд "Virtuozzo Beta Homework" — https://docs.openvz.org/
                                  0
                                  Наймите уже тесторов что ли. Меня например )
                                    0
                                    Велкам

                                    А вообще анонсы о новой функциональности это часть открытой разработки. Некоторым пользователям интересно попробовать фичи как только они появляются в продукте, поэтому мы и анонсируем их.

                                    Естественно у нас есть свой отдел QA, который днями и ночами в хвост и гриву тестирует Virtuozzo. Вот чуть-чуть про наше тестирование ядра:

                                      +1
                                      А дайте панельку погонять бесплатно вашу ?
                                      0
                                      А когда ожидается релиз?
                                        0
                                        я не могу говорить точных дат, но в ближайшее время. Как я уже писал, мы выпустили TP1, TP2, недавно Beta и скорее всего следующий анонс уже будет про RTM.
                                0
                                Дошли руки осилить туториал по вашей ссылке, в его todo наткнулся на ссылку на свою же статью на хабре по пробросу устройств в OpenVZ, страшная вещь рекурсия.
                              0
                              >Два контейнера у меня намертво зависли и их не получилось убить никакими способами

                              Я на это же напоролся и прекратил эксперименты с LXC. Какой смысл экономить ресурсы, чтобы перегружать весь сервер?
                                0
                                Это полный ахтунг, я был в шоке, в первый раз подумал что это случайность, но когда это стало каждый день (
                                0
                                "Два контейнера у меня намертво зависли и их не получилось убить никакими способами"
                                Имею более 3000 контейнеров с приложениями на openvz centos6.

                                Так вот залипших таким образом контейнеров скапливается за неделю до сотни минимум. Их невозможно прибить, vzctl залипает и не убивается даже через kill -9. Через gdb выяснил, что зависает на ioctl VZCTL_ENV_CREATE.

                                Дальше не колупал, так как нашёлся костыль — vzctl CTID --cpulimit 0. После этого, внезапно, все процессы оживают.
                                  0
                                  у меня тоже куча контейнеров на опенвз и не встречал такой проблемы. Тут есть ещё такая проблема что такой контейнер в lxc ложит всю ноду в итоге.
                                    0
                                    До нахождения костыля регулярно перезагружалась вся хост нода. Но, возможно проблема общая, так как LXC и OVZ частично используют одни возможности ядра.
                                    0
                                    "Два контейнера у меня намертво зависли и их не получилось убить никакими способами"

                                    Про проблемы лучше писать в рассылку, на форум OpenVZ или в багтрекер.
                                      0
                                      Ну причем тут проблемы lxc в багтрекере опенвз
                                        0
                                        Да я что-то уже запутался с чем там проблемы. В тексте упоминается vzctl и VZCTL_ENV_CREATE, поэтому и подумал что проблемы с OpenVZ.
                                        0
                                        Только что глянул что вы менеджер проекта опенвз.
                                          0
                                          А можно на русском заводить баг?
                                            0
                                            не рекомендуется
                                        0
                                        Все комменты не читал, но с миграциями с PVE3 на PVE4 провозился месяца 2 в общем.
                                        Глобальной проблемой оказались (внимание) обновления проксмокса. Т.е. с каждой новой версией появлялись новые проблемы. После одного обновления вырубилась сеть. После другого — перестала высвобождаться память. Так, создание бэкапов (рсинком) файлов убивал насмерть всю ноду. Сначала грешил на ZFS, но после долгих переборов собрал версии всех компонентов, которые точно работают. Кстати, конкретно проблема с памятью при использовании zfs была прям в оригинальном скачанном с офсайта релизе 4.1.
                                        В одной из миграций вообще получилось так, что в контейнере с редмайном не запускался mysql — не было прав на mysql.pid

                                        До этого в 3 версии все работало пару лет вооообще без проблем. Переезд на 4 нужен был из за нового ядра в первую очередь. В целом, в итоге все вроде стабильно стало работать. Но плевался долго.
                                          0
                                          В общем статья критикует LXC но все проблемы тут исключительно в Proxmox.

                                          • Миграция ovz -> lxc утилитами Proxmox
                                          • IO проблемы скорее всего связаны с монтированием qcow2 образов через nbd.
                                            Зависшие контейнеры, наверное единственная проблема. Но я не встречал такого на LXC ранее. А вот на OVZ — прям сейчас.

                                          По ссылкам на форум в конце поста вообще смешно читать. Просто жалобы без попыток разобраться.
                                          И получается плох LXC, а проксмокс просто ошибся с выбором.
                                            0
                                            lxc реально плох, я уже два раза до этого пытался его заюзать вместо виртуалок несколько лет назад, тогда это был тоже ад, ещё больший чем сейчас, в целом для домашних страничек он ничего, но в продакшене уж лучше на докер перейти, реально он позже стал развиваться, но счастья в нем намного больше, сейчас в нем держит мой программист все проекты.

                                            Миграция это меньшее из зол, в целом я нашел пути как побороть все проблемы с запуском контейнеров после миграции.
                                            ИО проблемы связаны с loopfs которую юзает lxc ну и как вариат в thin provision тоже работает чертовски медленно.

                                            Проблема в том что мы ставим его не для потестить, а для продакшена.

                                            НУ а 3 процента зависших контейнеров меня бы уже давно заставили бы смигрировать на какой нибудь квм.
                                              0
                                              Тут проблема именно в реализации LXC в Proxmox. Отдельно LXC плотно не ковырял, однозначно говорить что проблема в нем не буду, но по факту миграции, когда перенес на тест всего около сотни контейнеров из Proxmox3 в Proxmox4 — начался сущий ад, все виснет, тупит, зависает, отваливается и не работает, один глюк чинишь — вылазит 2 новых, производительность деградировала просто в разы, либо разработчики прокса взяли в команду рукожопов, которые и занимались прикручиванием LXC, либо не все так гладко в королевстве LXC. Я не говорю что OpenVZ безупречен, там своих проблем хватает (контейнеры пару раз висли, из примерно 2.5К контейнеров за крайний месяц зависал один и тот-же дважды), но то, что началось после попытки миграции — кромешний ад. Если LXC по вашему хорош — подскажите продукт на его основе, где он работает без сбоев не на локалхосте (напильник в виде, не нравится — перепиши сам, не предлагать) думаю многие скажут спасибо.

                                              По ссылкам на форум в конце поста вообще смешно читать. Просто жалобы без попыток разобраться.

                                              Жалобы идут обычно после попыток разобраться, когда известные методы решения проблем кончились, если вас веселит откровенно хреновая работа технологии, возможно с вашим ч.ю. что-то не так.
                                                0
                                                Proxmox не виноват. У меня LXC зависли в Debian Jessie с оригинальным дебиановским ядром.
                                              0
                                              Тоже жду релиза Virtuozzo 7.
                                              Реализация LXC в Proxmox меня не устраивает, виртуальные машины не нужны.
                                              Надеюсь, simfs допилят в Virtuozzo…
                                              Пока же сижу на Proxmox 3.4, благо, обновления безопасности еще год будут выходить.
                                                0
                                                Надеюсь, simfs допилят в Virtuozzo…

                                                лучше не надеяться и попробовать самому, чтобы о багах узнать до релиза, а не после него
                                                  0
                                                  Ну, "пробовать" я буду уже релиз:)
                                                  А если буду переходить, то явно не на свежезарелизенную версию — так мне советует мой опыт:)
                                                    0
                                                    Одно из распространённых заблуждений в использовании opensource — люди думают, что надо немного подождать, пока другие выловят все баги, отрепортят их, сами исправят или добьются того, чтобы кто-то исправил, а они потом уже начнут использовать хорошо протестированную версию. Так вот это не так. Ваши сценарии использования могут отличаться от сценариев других пользователей. И если у кого-то все работает хорошо, то это не значит, что и у вас будет тоже все хорошо :) Именно поэтому стоит попробовать тестовую версию до финального релиза — чтобы убедиться, что на ваших сценариях ПО работает.

                                                    Ну и хочу напомнить, что стоимость исправления дефекта прямо пропорциональна времени разработки проекта, поэтому после релиза далеко не каждый баг будет исправлен.
                                                0
                                                Эх, нагуглил этот пост только сегодня в понедельник после выходных проведенных с Proxmox 4. Да, скорость работы дисковой подсистемы на запись сильно огорчила. Сделал уже restore с --rootfs local:0. Производительность чуть выросла, но все равно пока грустно.

                                                Один контейнер (из ДВУХ!) уже успел намертво повиснуть разок.

                                                Кстати, пользуясь случаем хотел уточнить, а как правильно ребутить сервер с Proxmox? В случае с подвисшим контейнером пробовал reboot и shutdown -r now на ноде — реакции никакой.
                                                  0
                                                  хардресет кнопкой
                                                    0
                                                    Это не самый корректный способ перезагрузки сервера =)
                                                      0
                                                      А других нету
                                                    0
                                                    Я тестовый с 4 веткой через IPMI передергивал (за 2 суток 4 раза подвис наглухо сволочь), вообще у меня в продакшинах фенсинг настроен, хотя третья ветка и не подвисает особо.
                                                      0

                                                      Как-то так:


                                                      sync;
                                                      echo 3 > /proc/sys/vm/drop_caches
                                                      echo 1 > /proc/sys/kernel/sysrq
                                                      echo b > /proc/sysrq-trigger
                                                      0
                                                      Вы конечно же отобразили свое негодование в багтрекере проксмокса?
                                                        +1
                                                        Да там как бы всем все известно, проблемы то дикие, и в багтрекере есть и на форуме куча постов и это все прекрасно видят разработчики.
                                                          0
                                                          Ага, я прочитал все посты. Как я понял, основной от них ответ по поводу IO в LXC — The suggested way is to use ZFS. Или отключите барьер на ext4, но это не безопасно.
                                                            0
                                                            барьер то отключен не помогает.
                                                            есть у меня подозрение что с зфс тоже будет все не гладко.
                                                              0
                                                              У меня стоит один тестовый сервер с 4 проксмоксом и ZFS. Пока нареканий нет, но что-то действительно тяжелое я там не запускал.
                                                                +1
                                                                у меня тоже нет нареканий на виртуалках где хоумпаги, но база даже размеров в 30 гигов в мускул заливается два дня местами, а что уж говорить про большие базы.

                                                      Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.

                                                      Самое читаемое