All streams
Search
Write a publication
Pull to refresh
3
0
Send message
  1. Поищите для чего нужен Discard в настройках диска ВМ. И для чего нужен trim заодно.

  2. Я про СЕРВЕРНЫЕ ssd ранее и не упоминал. И да, далеко не у всех они есть - у процентов 90% максимум что-то типа Samsung 9XX, если это nvm.

Поищите альтернативные клиенты для синхронизации с NC.

Обновляю и минор и мажор через apt update; apt dist-upgrade

Проблем нет.

Поддержу.

0 Выкл ВМ c 1C и в настройках ВМ сменить cpu type = host, socket = 2, NUMA = enabled

1 Откл. memory balloning 

2 Сменить аппаратный рейд (он у вас еще и 5-го уровня, к-ый давно deprecated и самый медленный) на программный рейд zfs.

3 Перейти с файлового варианта на sql от postgres pro (он free)

https://bun.uptrace.dev/postgres/tuning-zfs-aws-ebs.html

https://vadosware.io/post/everything-ive-seen-on-optimizing-postgres-on-zfs-on-linux/

К сожалению, большинство установив proxmox не читает оф. доку к нему (

В оф. доке есть КАК правильно приготовить ВМ для макс. быстродействия

Особенно, это касается галки на Discard (+ галка на ssd, если диск ВМ располагается на ssd-пуле) в настройках диска ВМ. Иначе trim внутри ВМ не будет отрабатывать.

Пример настройки ВМ. Галку с SSD emulation снять, если ssd не используется.

Обязательно установить qemu agent внути ВМ - он есть и для win (virtio drivers) и для linux (устанавливается просто через менеджер пакетов ОС)

P.s. Заметки по работе с pve, zfs etc https://forum.netgate.com/topic/163435/proxmox-ceph-zfs-pfsense-и-все-все-все-часть-2/

Спасибо)

Предложу варианты.

  1. Linux без DE + cockpit для управления.

  2. Поднять полноценный nas - openmediavault (omv) или truenas.

  3. Поднять proxmox ve + nas как вирт. машину с пробросом дисков в этот nas или без оного.

    https://forum.netgate.com/topic/163435/proxmox-ceph-zfs-pfsense-и-все-все-все-часть-2/

Последний вариант самый универсальный и дает просранство для творчества - напр., можно поднять в ВМ pfsense\opnsense в кач-ве программного роутера.

pv + netcat

  1. Грузимся на принимающей стороне с linux live-cd (linux mint вполне подойдет):

  2. Принимающая сторона (создаем предварительно на esxi ВМ с диском чуть большего размера):

nc -w 3600 -l <port> | gzip -dfc | cat > /dev/<disk-name>

  1. Грузимся на отдающей стороне с linux live-cd и:

pv /dev/<disk-name> | gzip -fc | nc <remote-server-ip> <port>

  1. После миграции поправить в fstab id диска (-ов), если возникнут проблемы при загрузке.

Или clonezilla live https://clonezilla.org/clonezilla-live.php по схеме описанной выше. Она это из коробки умеет.

И вообще, переходите на светлую сторону - открытое ПО для виртуализации Proxmox VE

https://forum.netgate.com/topic/163435/proxmox-ceph-zfs-pfsense-и-все-все-все-часть-2/

Добавлю еще glusterfs, drbd\linstor (привет, @kvaps и спасибо за труд)

VDI:

https://github.com/joshpatten/PVE-VDIClient

https://www.reddit.com/r/Proxmox/comments/c8karr/deploy_deskpool_vdi_on_proxmox/

https://www.deskpool.com/quick-startup/proxmox/

https://github.com/dkmstr/openuds

https://github.com/UPC/ravada

https://www.kasmweb.com/index.html

Касаемо проброса gpu.

С недавних пор нек-ые десктопные модели gpu от nvidia позволяют на pve проброс

gpu сразу в неск-ко gpu одновременно:

VGpu/Shared GPU in multiple VM setup on proxmox 7.1 https://www.reddit.com/r/Proxmox/comments/v637fn/vgpushared_gpu_in_multiple_vm_setup_on_proxmox_71/
Proxmox 7 vGPU – v2 https://wvthoog.nl/proxmox-7-vgpu-v2/

Split GPU into Multiple VMs (vGPU?) https://www.reddit.com/r/Proxmox/comments/tmarrw/split_gpu_into_multiple_vms_vgpu/
Proxmox GPU Virtualization Tutorial with Custom Profiles thanks to vGPU_Unlock-RS https://youtu.be/jTXPMcBqoi8

Cloud Gaming Server Tutorials https://www.youtube.com/playlist?list=PLGbfidALQauKNWMqrVXGd63aa9EcevFn9
Cloud Gaming Server Build https://www.youtube.com/playlist?list=PLGbfidALQauLclCL3d4MWZ8F5krtwToZ3

+

В кач-ве арбитра может быть raspberry pi. Это точно возможно для ceph на proxmox ve.

https://forum.netgate.com/topic/163435/proxmox-ceph-zfs-pfsense-и-все-все-все-часть-2

Спасибо)

А на matrix смотрели?

Zfs c включенным сжатием и дедупликацией может существенно сэкономить Вам место )

Если zfs не по душе - взгляните на lvmvdo от redhat. У этого решение накладные расходы на дедупликацию ниже.

В одной сети быстрее с netcat + pv.

На принимающей стороне:

  • создаем на pve ВМ с диском чуть большего размера (1ГБ +), чем диск источника;

  • загружем ВМ с любого свежего linux live-cd;

  • выполняем в консоли:

    date; nc -w3600 -vvnlp <port-number> | gzip -dfc | cat > /dev/sdX; date

На отдающей стороне:

  • загружаемся с любого свежего linux live-cd;

  • выполняем в консоли:

    pv /dev/sdX | gzip -fc | nc -w30 -vvn <remote-server-ip> <remote-server-port-number>

Или clonezilla-live в помощь - у нее есть аналогичная клиент-серверная функция.

P.s. Если надо виртуализировать ms windows, пользую disk2vhd (спасибо, Марк!) в safe mode или обычном режиме просто стопнув службы.

Зачем тогда вмваря? Есть же открытый proxmox )

Цикл заметок по работе с proxmox, zfs, pfsense etc - https://forum.netgate.com/topic/163435/proxmox-ceph-zfs-pfsense-и-все-все-все-часть-2

Bsd была выбрана из-за своей лицензии и возможности не делиться кодом?

Иначе почему не взять коды того же proxmox-а и реализовать свое.

Спасибо )

Proxmox VE в плане гипервизора как-то интереснее.

Цикл заметок по работе с proxmox, zfs, pfsense etc - https://forum.netgate.com/topic/163435/proxmox-ceph-zfs-pfsense-и-все-все-все-часть-2

>Системы виртуализации (ProxMox и другие варианты) исключил, т.к. хочется коробочное решение, а не конструктор.

Proxmox коробочен из коробки - развернул на zfs и через вебку рули. Удобно до ужаса..

В кач-ве роутера, впн etc - pfsense в вирт. машине на proxmox-е.

У меня по такой схеме 5+ лет немелкие конторы нес-ко штук живут.

У вас неск-ко железок. Почитайте по zfs replication proxmox в гугле. Удобно и не надо что-то сложное городить типа ceph.

И про proxmox backup server поищите.

Цикл заметок по работе с proxmox, pfsense etc - https://forum.netgate.com/topic/163435/proxmox-ceph-zfs-pfsense-и-все-все-все-часть-2

P.s. Пиши в личку , если заинтересовал касаемо proxmox, pfsense etc

Общие замечания:

  • не использовать русский в интерфейсе pve - это набор недоперевода с откровенной халтурой (discard в св-вах диска ВМ - это "отклонить" и понимай как хочешь), english там более чем уместен;

    Создание ВМ:

  • в св-вах диска ВМ ОБЯЗАТЕЛЬНА галка на discard для ОС выше Win XP и для всех относительно свежих _nix + галка на ssd emulation, если диск на ssd-разделе;

  • использовать virtio scsi single + scsi в кач-ве дисков;

  • сеть - virtio;

  • bios - EFI;

  • type - q35

  • cpu - host (+ NUMA ,если физ. cpu на матплате 2+);

  • memory - галка на balloon;

  • установка qemu guest agent и на linux и на win;

  • сеть сменить с linux bridge на openvswitch (гуглить разницу самостоятельно);

  • в настройках сетевой ВМ в Multiqueue указать число эквивалентное кол-ву vcpu (спорный момент - проверить);

    Таким образом получаем макс. производительность ВМ.

    Эта инф-ция есть в оф. доке, но кто ж ее читает (

    Везде пользую zfs - надежно, удобно, нет привязки к произ-лю hw raid.

    Опасения касаемо прожорливости zfs в плане ОЗУ решаются чтением оф. доки и правкой конф. файла, в к-ом указывается какой объем памяти отдать под zfs-кэш 1-го уровня (larc cache).

    Если имеется 2+ pve-ноды и хочется отказоустойчивости, то можно использовать zfs-репликацию ВМ между нодами https://www.youtube.com/watch?v=08b9DDJ_yf4

    Бэкапы у pve нативно из коробки прямо в веб-гуи настраиваются + отдельно можно развернуть PBS для инкрементного сохранения.

    Разработчики в след. релизе обещают довести до ума sdn (аналог vswitch на vmware) https://pve.proxmox.com/wiki/Roadmap#Roadmap

    P.s. Цикл заметок по работе с proxmox, zfs, pfsense etc https://forum.netgate.com/topic/163435/proxmox-ceph-zfs-pfsense-и-все-все-все-часть-2/

Information

Rating
Does not participate
Registered
Activity