Comments 12
То есть, неродной для линукса ZFS настраивается проще и быстрее чем родной MDRAID, на который инсталляторы большинства дистрибутивов ставят ОС уже много лет без лишних телодвижений? Очень сомнительно. Если что — сабж не ставил.
Я сам любитель ZFS, но для решения такой простой задачи в линуксе это оверкилл.
Я сам любитель ZFS, но для решения такой простой задачи в линуксе это оверкилл.
Оставлю пожелания-вопросы:
1) UUID — очень нечитабельные метки. Разве в Линуксе нет возможности на диски «навесить» свои GPT метки и собрать по ним диски в пул?
2) gpart не в базовой паставки Линукса :(
3) Непонятен механизм подключение дисков с Sector Sizes = 4K bytes physical
4) Есть ли в реализации линуксового ZFS опция autoexpand? что будет, при расширении дисков в ручном и автоматическом режиме? будет ли как уже существующих данных?
1) UUID — очень нечитабельные метки. Разве в Линуксе нет возможности на диски «навесить» свои GPT метки и собрать по ним диски в пул?
2) gpart не в базовой паставки Линукса :(
3) Непонятен механизм подключение дисков с Sector Sizes = 4K bytes physical
4) Есть ли в реализации линуксового ZFS опция autoexpand? что будет, при расширении дисков в ручном и автоматическом режиме? будет ли как уже существующих данных?
Спасибо, очень интересно. Если в сервер потенциально можно доставить ещё дисков, то вполне возможно такое решение оправдано.
Тоже как раз нарисовалась задача поставить PVE4 на 4 диска. Только вот там доставить дисков не получится. Вот и думаю, ставить классический mdadm raid10 или уже стоит переходить на новые технологии. Тем более, что в PVE ZFS поддерживается.
Кстати, правильно я понимаю (судя по Installing for i386-pc platform), вы сервер загружаете через BIOS/CSM? На вики PVE пишут, что корень на ZFS не живёт с UEFI.
Тоже как раз нарисовалась задача поставить PVE4 на 4 диска. Только вот там доставить дисков не получится. Вот и думаю, ставить классический mdadm raid10 или уже стоит переходить на новые технологии. Тем более, что в PVE ZFS поддерживается.
Кстати, правильно я понимаю (судя по Installing for i386-pc platform), вы сервер загружаете через BIOS/CSM? На вики PVE пишут, что корень на ZFS не живёт с UEFI.
Я тоже пока «приглядываюсь» к ZFS, там много интересных плюшек, но, ИМХО, это все только в raidz. А для него уже надо от 6 дисков + памяти выделять немеряно — гигов 10 только на поиграться, а сколько оно в продакшене будет потреблять?
Я в реальной работе пока использую mdadm raid1 (10) если мало дисков и бюджетно надо.
Да, все верно, BIOS Legacy mode.
Я в реальной работе пока использую mdadm raid1 (10) если мало дисков и бюджетно надо.
Да, все верно, BIOS Legacy mode.
От 6? Та же вики PVE утверждает, что от 3(raidz)/4(raidz2) штук.
Т.е. за те три года с тех пор пока у меня появился первый UEFI-only сервера, ситуация с софтрейдами нисколько не улучшилась (mdadm/zfs). Это печально.
Т.е. за те три года с тех пор пока у меня появился первый UEFI-only сервера, ситуация с софтрейдами нисколько не улучшилась (mdadm/zfs). Это печально.
А как она должна была улучшиться?
Актуальной проблемой сейчас является то, что в UEFI не предусмотрено механизма резервирования ESP, которая по сути не совместима с программными RAID-массивами. Три года назад я надеялся, что сообщество придумает какие-то «трюки» для добавления отказоустойчивости к ESP и придет к какому-то общему знаменателю.
Но этого не произошло. И, видимо, не произоидёт. Сейчас я думаю это можно решить только обновлением стандарта UEFI. Пока же ставим либо аппаратный RAID+UEFI (машины подороже) либо SoftwareRAID+CSM (для бедных).
Рад был бы ошибаться.
Но этого не произошло. И, видимо, не произоидёт. Сейчас я думаю это можно решить только обновлением стандарта UEFI. Пока же ставим либо аппаратный RAID+UEFI (машины подороже) либо SoftwareRAID+CSM (для бедных).
Рад был бы ошибаться.
Кстати, про RAID10. Попробовал установить PVE4 с корневым пулом ZFS в режиме RAID10 на 4 диска (штатно, через инсталлятор). В результате имеем только два из четерёх дисков с разделами BIOS boot И только на них и установлен груб (судя по сигнатуре в начале диска). Итого, это по сути RAID1.
Сыровато ещё, похоже :-)
P.S.: ну и тоже не понимаю, почему бы не быть честным до конца и не сделать штатный рейд mdadm в инсталляторе.
Сыровато ещё, похоже :-)
P.S.: ну и тоже не понимаю, почему бы не быть честным до конца и не сделать штатный рейд mdadm в инсталляторе.
Sign up to leave a comment.
Proxmox 4.0: Корневой раздел на ZFS RAID1 или как увеличить отказоустойчивость если в сервере всего 2 диска