Как стать автором
Обновить

Практические кейсы по созданию IT-инфраструктуры на базе дисковых полок Western Digital Ultrastar

Время на прочтение 12 мин
Количество просмотров 5.4K
Всего голосов 9: ↑7 и ↓2 +5
Комментарии 16

Комментарии 16

НЛО прилетело и опубликовало эту надпись здесь
О том же подумал=)
Так и не понял — в примерах используется Windows Storage Spaces и при этом еще аппаратный RAID. Если есть одно, зачем мучать второе?
Скорее всего — что нашли, то и использовали. Storage Spaces даёт достаточно много интересных возможностей — ту же дедупликацию, например. Впрочем, можно надеяться, что контроллеры использовали как HBA.
Ой страшно за такую полку, если ее выдвигать придется для замены дисков. С лентой как то спокойнее: и масштабирование, и хранение на другой территории, и кассета все же не разлетится в тартарары даже если ее уронить.
JBOD

Жесткие диски были сконфигурированы в несколько наборов RAID-массивов, у

Вы ещё RAIDите? В XXI веке? Про ZFS, я так понимаю, не слышали?

При всех фишках ZFS, она не лишена проблем с производительностью и эффективностью хранения. А для бекапа она и вовсе overkill. Вспомните Nexenta — она так и не захватила мир, то есть одной ZFS для счастья недостаточно.

Здесь, видимо, использование Veeam является требованием и в данном случае лучше поставить Windows Server и на него Veeam и подключить диски напрямую через контроллер.

Можно, конечно, поднять ZFS с SMB на дополнительном сервере и примонтировать к Veeam по SMB, только это +1 сервер к полке только ради ZFS и прогон трафика по Ethernet будет не бесплатен для процессора, поэтому в данном случае просто не имеет смысла.

А так какие преимущества ZFS при бэкапах? Запись и чтение обычно линейные в очень большие файлы, записанные файлы уже сжатые, снапшоты не нужны. Ну ок, можно RAIDZ3 собрать ценой повышения нагрузки на CPU, но то такое, надо еще обосновать чем это лучше альтернативных вариантов в контексте бэкапового профиля нагрузки.

> А так какие преимущества ZFS при бэкапах?

После того, как Вы погоняете ZFS пару месяцев, в один прекрасный день увидите, что винчестеры отдают Вам несколько не то, что на них было записано (несмотря на коды Рида-Соломона и прочее контрольные суммы секторов, которые вроде как должны там быть), и поседеете — вот тогда этот вопрос у Вас отпадёт.

Смысл ZFS в том, что она не перекладывает контроль за целостностью данных на винчестер.

Я делаю полный скраб раз в пару месяцев — и время от времени оказывается, что данные где-то немножко покоцаны. ZFS тут же исправляет ошибки, в то время как RAID1 попросту не знает, какая из двух копий — истинная: он ведь не хранит контрольные суммы.

Да, проблема порчи данных на уровне жестких дисков есть.

Ну в контексте резервного хранения RAID1 никто использовать не будет. Скорее всего будет RAID5 (так как потеря бэкапов при ребилде из-за второго сдохшего винта как правило не критична) или RAID6.

Кроме того, вполне вероятно, что если бэкап сжатый (а такое бывает не редко), то контрольные суммы будут в самом алгоритме сжатия и да, восстановить при этом данные будет нельзя, но что бэкап битый станет ясно при попытке восстановления. Ну тогда откатиться на день позже. Если люди восстанавливаются из бэкапов, они уже готовы потерять 1-2 дня работы ибо там где откатываться на 1-2 дня нельзя, там снапшоты, репликацию и т.п. подходы используют.

Опять же про восстановление данных, если исходить из ненадежности хранилища (есть еще передача по сети, если хранилище по сети монтируется к бэкапилке), то разумно это вынести в бэкапилку, а не в файловую систему, чтобы она могла прожевать сбои и сети и дисков и здесь тогда разумно поднимать вопрос не про ZFS, а про наличие такого функционала в бэкапилке.

З.Ы. все это в контексте бэкапа, а не работы виртуальных машин и системы хранения для них, где действительно фичи ZFS более сильную позицию имеют.

Критика.
Не понятно структура raid на полке.
Будет как у нормальных полок? Упадет емкость?
Скорость явно не блещет, не под что другое кроме длинных архивов (Backup(Copy)по версии Veeam) использовать не стоит.
И то при условии что поймем как там raid работает.
Полка — JBOD, в ней нет мозгов. И никакого raid в ней нет Всё, что вы хотите помимо базовой работы с конкретным диском, реализуется контроллером/софтом в вашем сервере.
Тогда ценность полки падает ниже плинтуса.
Кроме красиво в продуктивной среде использовать слишком рискованно.
Проще на Nutanix CE собрать. Там и емкость будет большая и копия данных будет (2 или 3 по выбору). И скорость приличная. Плюс бесплатно. Плюс вылет дисков проблему не создаст.
См. software-defined storage. С его реализацией в Nutanix Вы уже знакомы, а теперь представьте, что существуют ситуации с SDS, в которых требуются петабайты объёма и с максимально плотной упаковкой. Место в стойке стоит денег, и стандартных 12xLFF на 2 юнита бывает недостаточно.
А как КДПВ продувается?
Используем аналогичную полку, только другого вендора. В подобных хранилищах остро стоит вопрос резервирования. Raid уже не справляется с дисками по 10-14Тб, велика вероятность выхода из строя второго и последующих дисков в группе из-за резко возросщего числа операций чтения-записи. Для себя пока остановились на ErasureCoding. Не бэкап, но справляется с отказами дисков и умеет восстанавливаться.
Зарегистрируйтесь на Хабре , чтобы оставить комментарий