Комментарии 23
Btrfs уже вывел из беты свою raid-подсистему?
Хм, не знал, спасибо за информацию, надо будет затестить.
Но есть проблема и заключается она в том, что btrfs не поддерживает создание виртуальных блочных устройств как lvm или zfs, а для образов виртуальных машин, хранящихся в файловой системе, предлагают отключать copy-on-write, что бы иметь хорошие показатели, что вообще теряет всякий смысл использовать btrfs для хранения образов файловой системы.
Производительность точно будт не лучше чем на lvm.
Тем не менее поддержка raid в zfs была реализована еще в самых первых релизах, а raidz (улучшенный raid5) является одной из ключевых особенностей этой системы, чего нельзя сказать про btrfs.
У вас получается, что включение writeback-кэша на запись в разы ускоряет последовательное чтение с SSD. Разве такое может быть?
Я привел только голые цифры, никаких дополнительных твиков не описанных в статье я не применял.
На сколько я понимаю режим cahce=writeback
кэширует как операции записи так и чтение с диска.
Во первых: proxmox не использует блочные тома zfs (zvol), а хранит диски прямо в файловой системе. В отличии от lvm, где обращение идет напрямую к тому минуя файловую систему, а это согласитесь уже на уровень абстракций меньше.
Во вторых: я думаю что дело в особенностях работы самой zfs. Zfs вопреки своей гибкости и динамичности содержит более сложные алгоритмы сохранения данных, в следствии чего приходится расплачиваться бо́льшим количеством ресурсов.
Имеет, в большинстве случаев это даст вам бо́льшую производительность, чем хранение образов в файловой системе.
Странно. У меня все образы KVM-машин лежат именно в zvol:
root@pve02 ~ # zfs list -t volume NAME USED AVAIL REFER MOUNTPOINT storage/kvm/vm-100-disk-1 2.70G 2.46T 2.70G - storage/kvm/vm-101-disk-1 4.92G 2.46T 4.92G - ...
Вы точно при создании хранилища указали его тип, как "ZFS"?
Да, должен признать, я действительно ошибся, proxmox все таки умеет zvol, а конфигурация моего хранилища осталась в результате обновления с предыдущих версий proxmox, где zfs был только как local storage.
В новых версиях Proxmox используется уже zvol, так что переписал статью с тестами на zvol.
Спасибо за замечание!
Очень часто это действительно так.
you refer to an old post, newer kernels and newer qemu version are in place now. for zfs, cache=writeback is the recommended setting.
Буду рад любым пояснениям на этот счет.
Немного о дисковой производительности Windows VM в Proxmox VE. Результаты бенчмарков ZFS и MDADM+LVM