Организация своего хоста виртуализации на Hetzner

    imageimage

    Proxmox Virtual Environment (Proxmox VE) — система виртуализации с открытым исходным кодом, основанная на Debian GNU/Linux. Разрабатывается австрийской фирмой Proxmox Server Solutions GmbH, спонсируемой Internet Foundation Austria.

    … и, надо сказать, очень приятная в обслуживании и эксплуатации система.

    Я работаю со своими клиентами (в большинстве случаев студии веб-дизайна, или standalone-клиенты) уже около 5 лет. Все мои клиенты используют услуги немецкого хостера Hetzner. Можно долго рассуждать о качестве предоставляемых ими услуг, качестве железа в их серверах — но факт остается фактом: предложения Hetzner в сегменте root-серверов вне конкуренции по соотношению цена/качество.

    Справка: по состоянию на время написания статьи стоимость ежемесячной аренды сервера линейки EX60 (Intel Core i7-920, 48 GB DDR3 RAM,2 x 2 TB SATA 3 Gb/s 7200 rpm HDD ) составляет всего 59€ в месяц. Согласитесь, совсем недорого.

    В этой статье я хотел бы описать небольшой howto по установке на root-сервер системы виртуализации proxmox, чтобы просто показать, насколько это легко и доступно. Не буду описывать варианты кластеризации системы из 2-х и более серверов (возможно, сделаю это в следующей статье, если сообществу будет интересно), а распишу самый простой вариант.

    Итак, прежде всего нам необходим собственно сам сервер. Я рекомендую EX60, поскольку он недорог, производителен и не имеет такой неприятной особенности как one-time setup fee (будьте бдительны при заказе других моделей!)

    Мы заказали сервер. Отлично, ждем пока нам его установят, а как на почту придет заветное письмо, приступаем непосредственно к процессу. Стоит сказать, что для целей виртуализации нам потребуются дополнительные IP адреса. Можно приобрести их до 3 штук по отдельности, либо купить сразу подсеть (требует дополнительного пакета услуг FlexiPack, 15 евро в месяц + стоимость аренды подсети). Для этого заходим в панель управления сервером robot.your-server.de и, собственно, на вкладке IPs производим заказ. Обязательно укажите Purpose of use!



    В случае заказа нескольких IP адресов, повторяем по вкусу.

    Теперь нам нужно загрузить сервер в recovery mode. Для этого переходим на вкладку Rescue, выбираем Operating system Linux, Architecture 64 bit и смело жмем на Activate rescue system.



    Записываем пароль, что предложит нам система



    И перезагружаем сервер:



    Логинимся на сервер с записанным ранее паролем, и выполняем следующие команды:
    root@rescue ~ # passwd
    root@rescue ~ # installimage
    

    То есть меняем пароль на более нам удобный, и запускаем процесс установки.

    В открывшемся мастере выбираем Virtualization -> Proxmox-Virtualization-on-Debian-Wheezy

    Откроется редактор конфигурационного файла установки. Приведу его полностью, уже со всеми необходимыми правками, убрав лишние комментарии:
    Конфиг установки
    ## ===================================================
    ## Hetzner Online AG — installimage — standardconfig.
    ## ===================================================

    ## ====================
    ## HARD DISK DRIVE(S):
    ## ====================
    DRIVE1 /dev/sda
    DRIVE2 /dev/sdb

    ## ===============
    ## SOFTWARE RAID:
    ## ===============
    SWRAID 1
    SWRAIDLEVEL 1

    ## ============
    ## BOOTLOADER:
    ## ============

    BOOTLOADER grub

    ## ==========
    ## HOSTNAME:
    ## ==========

    HOSTNAME your_hostname_here

    ## ==========================
    ## PARTITIONS / FILESYSTEMS:
    ## ==========================

    PART /boot ext3 512M
    PART lvm vg0 all
    LV vg0 root / ext4 20G
    LV vg0 swap swap swap 8G

    ## ========================
    ## OPERATING SYSTEM IMAGE:
    ## ========================

    IMAGE /root/.oldroot/nfs/install/../images/Debian-76-wheezy-64-minimal.tar.gz


    Жмем F10, сохраняя внесенные изменения и соглашаемся со страшным предупреждением, что данные на дисках будут потеряны



    И идем пить кофе.

    Когда чашка кофе выпита, и по вашему телу пробегает приятная теплая волна, скорее всего установка нашего сервера уже завершена. Все что нам осталось — это перезагрузиться, введя в консоли
    root@rescue ~ # reboot
    


    Загружаем наш свежеустановленный сервер, и переходим по адресу:
    https://your_ip_address:8006

    Логинимся под учетной записью root и паролем, который вы поменяли перед установкой. Поменяли ведь? Если нет — то используем тот, что нам выдал hetzner =)


    Продолжаем настройку.
    Добавляем storage.
    Datacenter -> Storage -> Add -> LVM


    Отлично, мы подключили наш Volume Group. Немного терпения, осталось чуть-чуть =)

    Настраиваем сеть.
    Datacenter -> Node1 -> Network
    Приводим к виду, изображенному на скриншоте. Обратите внимание, что настроить сеть необходимо как bridge! Смело оперируйте с настройками, до перезагрузки они все равно не применятся…


    И собственно перезагружаем сервер кнопкой Restart в верхнем правом углу.
    Доедаем оставшуюся после кофе печеньку, сервер загрузился и готов к работе.
    Снова логинимся в панель управления Proxmox, и справа сверху нажимаем на Create VM.
    Запускается интуитивно понятный мастер, про который стоит сказать лишь 3 вещи.
    • 1. Не перепутайте во вкладке Hard Disk
    • 2. На вкладке Network в поле MAC Address укажите MAC адрес для заказанного ранее IP
    • 3. На вкладке CD/DVD нужно выбрать образ. Образы iso можно положить самому на гипервизор в директорию /var/lib/vz/template/iso


    Собственно, как генерировать MAC для заказанного IP.
    Заходим в панель управления сервером robot.your-server.de, переходим на вкладку IPs и нажимаем на Request separate MAC address. Получаем MAC, вбиваем в настройки виртуальной машины, и получаем на ней IP по DHCP.

    Что еще стоит добавить.
    • К консоли виртуальной машины можно получить доступ через веб-интерфейс, нажав на кнопку Console.
    • При установке WIndows на виртуальную машину на вкладке Hard Disk следует выбирать SATA контроллер.


    Вроде как все. Можно налить себе еще одну чашку кофе и заслуженно передохнуть.
    Спасибо за внимание, надеюсь, этот материал будет полезен.

    P.S. Добавил голосование, интересно ли уважаемому сообществу о кластеризации серверов Proxmox.

    Только зарегистрированные пользователи могут участвовать в опросе. Войдите, пожалуйста.

    Рассказать о создании кластера Proxmox в следующей статье?

    • 93.4%Да342
    • 6.5%Нет24
    Поделиться публикацией

    Комментарии 74

      0
      Взгляните на virtkick.io, сырой продукт, но очень сочное вступление у них.
        +1
        Там же только контейнеры Docker, нет? А PVE позволяет делать не только OpenVZ контейнеры, но и KVM-машины.
          0
          Virtualize on your bare metal servers
          with KVM, OpenVZ, Xen or Bhyve.
        0
        Айпишники по MAC — это здорово, но их мало. В статье не хватает возможных вариантов конфигурации подсети адресов на отдельном бридже. Таких вариантов есть несколько. Лично у себя я использовал самый простой (подсеть на бридж и статическая адресация) и кратко описал его у себя, но так и не дошёл до публикации. Такой вариант годится только если все машины доверенные. Иначе можно спокойно прицепиться к чужому IP. Вот другие варианты не помешало бы описать, так как они уже не такие простые.
        Ну и ещё хорошо бы было описать вариант виртуалок за NAT. Ну и кластер, да. Он интересен.
          0
          Какая версия proxmox и kvm у вас в итоге получилась?
            0
            Proxmox 3.3-2
            kvm 2.1.2
            0
            С чем я столкнулся в Hetzner несколько лет назад: SATA диски очень медленные. Реально на ноде запускается только несколько виртуалок, потом начинаются тормоза во время бэкапа. Всё это привело к тому, что я перешёл на аренду их же виртуалок.

            Кластеризация очень интересно, особенно из >2 машин с общим хранилищем.
              0
              SSD-диски попробуйте :)
                0
                Так совсем другие деньги получаются. Я, кстати, попробовал, вот после этого и понял что 128Гб SSD проще превратить в кучу арендованных виртуалок в разных DC. Расходы, кстати, резко упали.
                0
                Мы в cyberplat отказались от идеи бекапа на уровне виртуалок, уж очень он медленный, хотя хранилища на NAS'ах infotrend. Используем bacula, так оно надежнее.
                  +1
                  Это уже другой уровень администрирования. Proxmox хорош тем, что его поставить и админить может любой школьник. Но я с Вами согласен, бэкап виртуалки это неправильно. И ведь есть проекты инкрементального бэкапа для KVM — но что-то никак не доходят до продакшна.
                    0
                    Как вариант — снапшоты lvm, но уж очень долго их потом удалять.
                      0
                      Есть более интересный проект wiki.qemu.org/Features/Livebackup — создаётся список изменённых секторов на диске, так как делается в VmWare. Года два-три назад я спрашивал на форуме proxmox про него — тогда был не готов.
                  0
                  SSD RAID10 бекап скорость красота :).
                  У нас nfs сата писать не успевает…
                  +1
                  Я тоже экспериментировал с Proxmox, только не в Hetzner, а у Kimsufi, сервер с 8ГБ за 15 евро (я как-то делал обзор этих серверов и их сравнение с Hetzner).
                  Я делал виртуальный кластер — создал шесть виртуалок (я использовал OpenVZ), и назначил каждой из них свои роли:
                  1) frontend — установлен только nginx
                  2 и 3) web1 и web2 — app-серверы, установлен только php-fpm
                  4) storage — установлен только nfs-server
                  5) db — установлена MariaDb
                  6) cache — установлен memcache. Также сделал отдельную виртуалку с Redis.

                  Итого я пытался повторить структуру кластеров, с вынесенными сервисами на отдельные машины. Все данные у меня лежали на машине 4, и через nfs подключались к 1-3, которые их использовали. В Nginx был настроен upstream, и запросы направлялись на оба веб-воркера с php.

                  Такая структура позволяет очень легко вынести один из сервисов, который начинал тормозить (обычно это app-серверы, а дальше БД), на отдельную реальную железку.
                  Всё получилось, всё работало шустро, до тех пор, когда в сервере не полетел диск, а скиллов не хватило его восстановить, и я переехал на DigitalOcean. Я вообще не админ, на настройку всего этого у меня ушло где-то дней пять. И потом где-то с год всё работало, крутило пару моих личных сайтов.
                  –2
                  У меня был proxmox на Hetzner'е, полетел жесткий диск потом на этом Hetzner'е. Ну и как-то оболочка не доставляет. Поставил условно бесплатную винду, VMWare туда — решение неплохое. Гемора меньше в разы.
                    +1
                    Ну полетел. Дисков на их серверах как минимум 2, собираете их в RAID1, потом пишите в саппорт и вам меняют один из дисков. Пересобираете RAID, и летим дальше.
                    Гемора меньше в разы.

                    А собственно, в чем заключается, как вы выразились, «гемор»?
                      0
                      Это если поменяют тот диск, который сломался. Прецеденты известны :( А вообще VmWare лучше, конечно. Вот только судя по описанию, использовалась десктопная версия, это совсем не то же что KVM.
                        0
                        Это если поменяют тот диск, который сломался.

                        Не очень понял ваш выпад. Перед заменой диска суппорт хетцнера всегда сообщает SN диска, и просит подтвердить, его ли меняем или нет.
                        За 5 лет моей практики мне неизвестно о случаях, когда меняли не тот диск.
                          0
                          На сёрче время от времени мелькают леденящие душу истории такой замены.
                          Да и далеко не все помнят SN дисков, наверно.
                            0
                            Позвольте, а зачем мне их помнить?
                            Я вот знаю как минимум два варианта их узнать:
                            /sbin/udevadm info --query=property --name=sda | grep ID_SERIAL
                            sudo hdparm -i /dev/sda | grep SerialNo
                            

                              0
                              А это сработает на нерабочем диске?
                                0
                                Зависит от степени его неисправности. Если контроллер живой и диск виден в системе — определённо, да.
                                  0
                                  при запросе смены диска в админке хетцнера есть вариант указать СН исправного диска. Тогда заменят второй.
                                    0
                                    Там либо defective (испорченый) диск указывается, либо intact (живой). Поэтому если он не определяется возможность есть.
                                0
                                Вам крупно повезло, либо нам не очень, т.к. пару месяцев назад вместо того, чтобы заменить один диск в RAID-е они вынули оба и вставили один новый :) Хотя в их форме запроса на замену диска по-моему невозможносно промахнуться.
                                  0
                                  вам крупно не повезло, либо вы что то не так написали в запросе.
                                  Я уже раз 6 менял диски за последний год (если не больше). Ни разу не перепутали. Делаю всё по статье которую написал для себя в корпоративной вике. На хабре вроде тоже подробно это обсуждали. Я не могу 100% утверждать, что хетцнер не мог проколоться, но у меня пока такого не случалось.
                            0
                            Для того что бы поставить ESX у немцев надо брать KVM за 25евро на час, а проксмокс ставится из рекавери.
                              0
                              Вы не правы, LARA console выдается бесплатно.
                                0
                                Сорри, сейчас цена и правда 0. раньше было так yadi.sk/i/u2OL1ZGEcQX6a
                                  0
                                  Может имеется в виду гарантированный KVM на более чем 2 часа? Он действительно платный и сейчас.
                                    0
                                    Хотите сдам вариант, как kvm остается у тебя гораздо больше, чем на два часа?
                                    Заказывайте его к концу рабочего дня(по Берлину) пятницы, он уже никому не нужен после вас и его не забирают, обычно до понедельника остается подключен.
                                      0
                                      На самом деле не возникало никогда такой проблемы. Как только он заканчивается я заказываю его заново и его обычно включают заново в течение 15 минут :)
                            0
                            Пробовали Xenserver? Если да, то: Чем не устроил? В чём плюсы ProxMox по сравнению с Xenserver?

                            Не для холивара, просто интересно.
                            Сам столкнулся с KVM в начале этого года. Был использован голый libvirt (не мной). Пробовал всё это перенести на OpenNebula, потом на Proxmox, но имеющиеся машинки импортировать так и не удалось (каких то скиллов мне видимо не хватило). Плюнул и поставил Xenserver. Да, пришлось пересетапливать все машинки, но админить одно удовольствие. Сейчас в Хетцнере 10 хостов, в офисе 4 хоста. Работает стабильно.
                              0
                              Пробовал xenserver, лично меня — все устроило, но клиентам нужны красивые кнопочки в веб-интерфейсах… Ну, вы поняли)
                                0
                                Преимущество ProxMox отчасти в том, что параллельно имеется возможность создавать как витруальные машинки KVM, так и контейнеры OpenVZ. На практике бывает полезно.
                                XenServer вроде бы и платный был раньше. Теперь бесплатен?
                                  0
                                  Да вот уж лет пять, если не больше, как была бесплатная версия с неполным функционалом, но вполне рабочая и с год как в разряд свободных перешла полноценная версия.
                                    0
                                    С тех пор как он стал бесплатным он похоже перестал развиваться. как в декабре 13 вышел 6.2 sp1 так на этом прогресс и закончился.
                                    У xenserver ужасная консоль управления под WIndows, и другой нету. Либо монстр xencenter либо ssh.
                                    Есть api от citrix… и он ужасен. Ужасен тем, что команды могут не выполняться без каких либо внятных записей в логах.
                                    Логи… эта самое ужасное, что есть в citrix xen. Если вам не повезет поймать баг или ошибку, то о ее причинах можно узнать только из гороскопа. А проблемы будут рано или поздно… И приходят они как правило не по одиночки.
                                    Пользовался Citrix 2 года. Пока все хорошо, из претензий только монстроватый xencenter. Но в любой момент он мог начать вытворять совершенно ужасные вещи. Безмерно рад, что избавился от него. Теперь сплю гораздо спокойнее. Citrix Xenserer — никогда больше!
                                      0
                                      Чем стали пользоваться и вообщем для каких задач пользовались Xen-ом?
                                        0
                                        Ts и vdi на windows. Sip, почта на linux. Поностью вынесенная на удаленку инфраструктура. Очень хотелось vmware, но из соображений простоты вхождения для коллег остановились на hyper-v, да и лицензии уже были. Есть свои нюансы, но в целом доволен. Система стала гораздо более предсказуемая. И есть возможность делать что-нибудь на самом сервере, например сделать бэкап виртуалки, сжать его и в ночное время по расписанию отправить на сервер бэкапов, и это все парой скриптов на ps. Решение конечно не энтерпрайз, но работает неплохо. На vmware такого не сделать.
                                        0
                                        Про «с тех пор как он стал бесплатным», ну он бесплатен был уже лет 5, как я выше писал. Вы хотели сказать с момента отдачи всех версий в OpenSource? Ну я за ним не следил с той поры.
                                        Про логи, ну что про логи, все системные логи, как в любом линукс-дистрибе, а вот логи xapi это да, грусть и печаль.
                                        Про управление согласен, XenCenter выглядит страшноватым, а его свободный аналог давно не развивается. Никаких страшных вещей он у меня за эти 5 лет не вытворял, но для удобной морды приходилось держать винду в виртуалке, что тоже было тем еще сюром, сидеть под линухой, админить линуховые сервера и для удобной морды к одному из серверов с виртуалками держать винду под виртуалкой.
                                        Я его использовал лет 5, сейчас остался один и когда он уйдет никаких Xenserver больше не будет.

                                        Предвосхищая вопрос ТС: Proxmox и чистый KVM без сторонних морд.
                                  0
                                  Очень интересно было бы прочитать про кластеризацию, когда делал — сам был неприятно удивлен тем (наверное конечно своими кривыми руками), что ноды нормально работали только находясь в одной подсети, а при ВПН подключении совсем не хотели работать, как я тогда смог понять из-за того, что ВПН поднимался позже чем инициализация ноды.

                                  если вы уделите в статье этому вопросу пару строк — буду Вам очень благодарен за ликбез.
                                    0
                                    Вообще-то приоритет выполнения скриптов можно задавать, и VPN вполне несложно поднять самым первым.
                                      0
                                      да, это понятно… впн то уже было потом и не было желания с ним возиться… а вот почему в разных сетях ноды не видели друг друга… или это у меня локально были проблемы с руками?
                                        0
                                        Сложно ответить без предустановленной libtelepathy. Нужно больше информации)
                                          0
                                          Ну больше инфы можно только по памяти, но смысл был в чем… Делаем ноду, указываем ей сервер нод, все ОК, перегружаем — статус у ноды — неактивна.
                                            0
                                            Тоже разные варианты. Может быть голосов для кворума не хватило (Expected votes), может быть ещё что-то. Но в норме кластеры должны быть максимально близки, вплоть до коммутатора или даже прямого кабеля.
                                          0
                                          В разных сетях — что имеется ввиду? Ноды должны видеться везде, они по SSH и IP адресам связываются, если не ошибаюсь. Могла быть проблема с видимостью между VM на разных нодах из разных сетей — эта проблема описана, с присвоением отдельных MAC адресов она вроде уже снята с повестки.
                                            0
                                            В вики написано черным по белому, что по умолчанию кластерные ноды обмениваются информацией по мультикасту. Если хотите в разных ДЦ, то нужно иначе настраивать, и там свои ограничения.
                                              0
                                              спасибо за ответ, значит не дочитал. А ведь знал, что просто неправильно делал)) Если опишут в статье, буду рад, ну и теперь знаю что можно и самому разобраться.
                                                +1
                                                Привычка читать мануалы с самого начала повышает зарплату ;)
                                                ЕМНИП, статью можно найти по ключевому слову multicast. Можно переключить на unicast, но не более нескольких нод, вроде бы трех-четырех. Связано с тем, что используемый протокол очень флудит сеть(по их словам)
                                                upd: через впн дорожно работать. Ну или через IPSec, vlan. У хецнера можно попросить свою подсеть.
                                        0
                                        Привет и спасибо автору.
                                        У меня всё вертится на том же hetzner, но на Oracle VirtualBox (полный зоопарк: Windows XP, Ubuntu 12 LTS, etc.)
                                        Был ли опыт у автора и можете ли вы сравить VBox и Proxmox? Какие основные различия? Плюсы и минусы продуктов?
                                          0
                                          А чего там сравнивать. Производительность должна сильно отличаться.
                                            0
                                            Кстати, отличная тема для статьи.
                                              0
                                              И кто «производительней»? Я не в курсе, только начал пробовать ProxMox на том же железе.
                                                0
                                                Замеров не производили, но по субъективным ощущениям производительность повыше у Proxmox.
                                              0
                                              По-моему сравнивать VirtualBox и Proxmox некорректно, так как Proxmox — это в первую очередь панель управления, а не система виртуализации. Или имеется в виду сравнение производительности VirtualBox-а и KVM на ядре поставляемое с proxmox-ом?
                                                0
                                                Имел в виду удобство использования и гибкость. Надеюсь, про производительность напишут выше.
                                                  0
                                                  Ну тут стоит уточнить, что вы под удобством и гибкостью подразумеваете. Кластеризуется проксмокс довольно просто, интерфейс более чем вменяем и приятен в обращении…
                                              0
                                              Зашел прочитать о создании кластера, а увидел упоминание в нем только в голосовалке :(
                                              Проксмокс хорош, но только OpenVZ не любит Debian.
                                              Сейчас у нас как раз кластер на Proxmox'е, рассматриваю вариант миграции на CoreOS со всеми плюшками(автонастройка сервисов через etcd, распределенная файловая система, автозапуск упавших/требущих обновления сервисов, перекидываение контейнеров в зависимости от нагрузки)
                                                0
                                                Наберитесь терпения, мой друг, очень постараюсь написать про кластер после выходных.
                                                  0
                                                  Миграция на CoreOS достаточно сьерзеное решение. Вам же придется пересмотреть всю инфраструктуру.
                                                  Тоже подумывал об этом и развлекался с coreos в vagrant, но честно говоря очень сложно сообразить каким образом переразбить текущие VPS по котнейнерам.
                                                  В Proxmox есть возможность использовать ceph, так что это эта плюшка CoreOS, которая у вас и так уже есть :)
                                                    0
                                                    С CoreOS гораздо больше проблем, чем хотелось бы. Однако я верю, что за LXC будущее. Сеанс даже смартфоны во всю используют «песочницу».
                                                    Основная проблема в том, что на хост машину поставить ничего нельзя. Хотел хранить все контейнеры, пришлось сильно мудрить.
                                                    Кстати, никто не сравнивал производительность glusterfs(реплика) с блочным устройством ceph?
                                                    0
                                                    OpenVZ не любит Debian.

                                                    В чем проявляется нелюбовь?
                                                      0
                                                      Наверное имеется в виду, что openvz официально перестали поддерживать в штатном ядре Debian.
                                                        0
                                                        До сих пор нет поддержки openvz в ядре дебиана выше 2.6.
                                                        Поподробнее можете прочитать в release notes ProxmoxVE.
                                                        Ну и очень странные и неповторимые проблемы со стартом сети. Жил контейнер, его никто не трогал, хост тоже не трогали, а сеть после загрузки не поднимается автоматом. Даже lo.
                                                          0
                                                          А разве для RH/Centos 7.x есть поддержка OpenVZ?
                                                      0
                                                      Никак не добьюсь работы snapshots в ProxMox. Сделал 2 VG: vg0, vg1. все данные на vg0: local и новый storage. Предполагал, что ProxMox увидит vg1 чтобы делать snapshots на отдельный диск. Но, опция всё равно не появилось.

                                                      Есть советы по поводу организации внутренней локальной сети? Так сказать «best practice»?

                                                      Спасибо заранее!
                                                        0
                                                        Дабы snapshotы работали, вам нужно повнимательнее ознакомиться с документацией.

                                                        Requirements
                                                        In order to use Proxmox VE live snapshots all your virtual machine disk images must be stored as qcow2 image or be in a storage that supports live snapshots and is managed by Proxmox (like Ceph’s RADOS Block Device (RBD)). Future version will support also Sheepdog or Nexenta.


                                                        pve.proxmox.com/wiki/Live_Snapshots#Difference_between_LVM_snapshots_and_Live_snapshots (информация отсюда)
                                                          0
                                                          Спасибо! qcow2 image — это всё объясняет. Пропустил.
                                                          0
                                                          Касаемо LAN, что именно вас интересует?
                                                            0
                                                            Best practice.
                                                            Например, на одной ВМ рекомендуется поставить OpenVPN, чтобы подключаться в сети всех ВМ и хоста.
                                                            ВМ-ки в одной ли локальной сети или лучше четко разграничивать, в то же время, чтобы трафик не ходил через белые адреса, полученные от Hetzner. На что еще следует обратить внимание? Если есть советы. Может примеры схем запомнились, которыми можете поделиться. Может свою рисовали, и т.д.
                                                            Спасибо!
                                                              0
                                                              Ну в конкретно моем случае я настраиваю на «белые» адреса hetzner, просто куплен flexi pack и подсеть.
                                                              В целом, особых проблем при организации LAN на Proxmox нету. Буду, наверное, банален, но по сетям рекомендую изучить этот раздел справочной документации:
                                                              pve.proxmox.com/wiki/Network_Model

                                                              Если есть какая-то конкретика, обращайтесь, разберем.

                                                        Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.

                                                        Самое читаемое