Comments 17
Если остались данные скорости записи чтения, то можно было бы приложить.
Интересно, на сколько просела скорость чтения.
Интересно, на сколько просела скорость чтения.
Запись была 108-116, чтение скакало от 40 и падало до 2. Диски деградируют, сделаю еще один тест на надежность. Посмотрим, что будет на большем наборе данных (закину туда около 1Т, для которых надо посчитать контролльные суммы).
На запись похоже работал кэш контроллера. Гораздо интересней было бы посмотреть результаты через hba.
К сожалению, hba не завалялось. Был lsi 1066ir, но и он не полноценный hba.
Для избежания ошибки прошивки adaptec, при проверке пула пришлось вообще все кэширование отрубить. Так что, на тесте с 1Т результаты будут более похожи на hba.
4 диска то всего, может имеет смысл потестировать в сервере/десктопе со свободными sata портами? Чтоб так сказать закрыть вопрос и не гадать какой вклад вносит контроллер. И да, тест fio был бы приятным дополнением.
А btrfs в подобных условиях кто-нибудь тестировал?
После того, как зфс портировали на линукс бтрыс стала никому ненужна, ну и тормозная она
А пруфы? Я вот нашёл пруфы не совпадающие с вашими выводами:
https://www.phoronix.com/scan.php?page=article&item=ubuntu-xenial-zfs&num=2
https://www.phoronix.com/scan.php?page=article&item=ubuntu-xenial-zfs&num=2
В прошлом году использовал BTRFS на ноутбуке поверх dm-crypt. После третьей поломки ФС надоело, перешел на ext4, с которой проблем нет.
Самое поганое, что может случиться с зфс-ом это битая оперативка. Пропадающие диски, битые сектора просто побоку.
Древний Adaptec + ушатанные диски. Я даже теряюсь, что из этих двух зол хуже =)
Всегда используйте крипточексуммы на ZFS, тем более на сбойном/десктопном железе
Sign up to leave a comment.
ZFS: Тестируем надежность на плохих дисках