Комментарии 28
За 1200 часов работы из 1000 дисков один сдохнет. ;)
Что в принципе недалеко от истины - см. статистику Backblaze
И в даташите на эти диски прямо указано: Рейтинг надежности в круглосуточном режиме работы (годовая интенсивность отказов) 0,73%
Мне, конечно, напомнят про неизбежность бэкапов, но бэкапы — это не решение проблемы надёжности, а переложение её на кошелёк: если удельная надёжность понижена в N раз, значит, покупай N дисков и составляй из них RAID, и тогда, авось, твои данные доживут до момента нужды в них. Но не проще ли тогда вообще не обзаводиться сверхёмкими дисками? Они ведь ещё и сверхдорогие.
Ежедневно, ага. И это не считая того что пока он читается всё остальное замедляется в разы, даже если это RAID.
Единственное разумное использование таких дисков — это длительное хранение данных с редким чтением, с дедупликацией и "только дополнение" — по крайней мере отпадает вопрос бэкапов — при наличии RAID, разумеется.
Впрочем, страшно представить ребилд покоцанного RAID, это ж пару суток минимум уйдёт, а если дисков не сильно много — то ещё и с сильно урезанной производительностью всего массива. А если это ещё и любимый многими ZFS...
есть парочка zfs на 16 ТБ дисках, проверка занимает меньше суток. ребилд тоже делать приходилось, ЕМНИП занимает времени примерно столько же, сколько и scrub
Если хранить на ZFS большие не фрагментированные файлы, то может быть, хотя я сомневаюсь насчет суток, а вот scrub, а тем более rebuild mirror ZFS pool на 2 Tb дисках WD Gold с данными виртуальных машин занимает 10 суток.
- о какой версии вы говорите? в 0.8 были очень серьёзные изменения
https://github.com/openzfs/zfs/pull/6256
https://github.com/openzfs/zfs/releases/tag/zfs-0.8.0 - метаданные можно хранить на ssd (у меня так и сделано почти на всех используемых zfs)
"Нет, такой футбол нам не нужен." Нужен! Наработка на отказ - это, грубо, 99% механика: "летающие" головки над вращающимися "блинами" и 1% электроника - тоже грубо. 8-10 "блинов" на оси - не принципиально. Вся конструкция давно "вылизана" расчетно и на практике. Поэтому надежность застыла на таком значении. А дальше вспоминаем, что ежегодно объем информации увеличивается, и чтобы не строить новые ДЦ, надо увеличивать единичную емкость HDD. Да и кое-где новые ДЦ уже не разрешают строить.
Но не проще ли тогда вообще не обзаводиться сверхёмкими дисками? Они ведь ещё и сверхдорогие.
разве? когда в последний раз считал, то дешевле всего выходил массив на дисках по 16 ТБ.
тем более, нужно учитывать, что чем менее ёмкий накопитель, тем больше требуется серверов/полок, место под них в стойке и т. д., и т. п.
При больших и очень больших объемах хранения, помимо расходов на покупку дисков, становятся важными другие параметры: энергопотребление и место.
ЖД, независимо от объема, потребляют в активном режиме около 10 Вт. Поставим их в дисковые полки 2U на 12 дисков.
24 диска по 16 Тб потребляют 240 Вт и умещаются в 4U (две 2U полки).
Дисков по 2 Тб нужно уже 192 шт. Это 1920 Вт и 32U: шестнадцать 2U полок на 12 дисков.
Надо купить больше полок, больше стоек, больше платить за электропитание и охлаждение. Ну и больше дисков купить, а диски 16 Тб выгоднее по стоимости за 1 Тб.
Для рядового домашнего пользователя это всё не нужно. Поставил 1-2 диска на 2-4 Тб, забил фильмами/играми/сериалами и норм. Места в корпусе для дисков хватает; 10-20 или 40 Вт потребляет – не важно; сломается, не жалко.
А для дата-центров, которые являются основными покупателями жестких дисков, всё это очень важно.
Поэтому производители и увеличивают постоянно емкости дисков.
Странная у вас арифметика.
Купив два 20 терабайтника и двадцать 2 тарабайников вы получите тот же объем, но вероятность безотказной работы второго массива дисков будет намного ниже, чем вероятность отказа первого из двух дисков.
Ну и диски большого объема покупают не от хорошей жизни, а потому что ставить диски малого объема уже некуда.
Откройте уже для себя квантовые особенности гелия: ему нет дела до давления, он туннелирует спокойно практически через всё и вопрос лишь в том, на какой срок рассчитаны запасы гелия в подобных HDD. То, что падение давления гелия внутри гермоблока станет отсечкой времени жизни для всех гелиевых HDD, не умерших от прочих проблем, кажется вполне очевидным и вопрос лишь в интервале времени от герметизации до "кукуляля".
Кажется, квантовые свойства (сверхтекучесть) проявляются только в жидком гелии, а не в газе.
то избыточного давления гелия внутри нет
А если сравнить с парциальным давлением гелия в атмосфере? Что-то мне подсказывает, что именно оно будет определять уход гелия из корпуса НЖМД
А в теории, что мешает производителям размещать баллон со сжатым гелием внутри диска, чтобы он, туннелируя через стенки баллона, пополнял потерянное туннелированием через стенки диска, тем самым резко увеличивая срок службы?
У вашего диска совершенно иные допуски и требования. Пыль в гермоблоке? Ну и пусть. Уронили на пол? Если геометрия не поехала, головы или микросхемы от перегрузки не оторвало, то ничего ему не будет.
Когда-то давно у собрата вашего диска на 20 Мб перестал крутиться шпиндель, механически что-то там зацепилось. Понимая, что диск сдох - я его разобрал, руками прокрутил шпиндель и ради интереса попробовал запустить. Диск к моему удивлению ожил. Оповестил владельцев о необходимости срочной эвакуации данных, сделал для полного спокойствия бекап на дискеты и забыл о машине. Через 3 года узнал, что диск никто не менял по принципу "а зачем? он же работает" и он без проблем прожил пару лет до замены машины.
Как говорится, "раньше строили на века" :D
А вообще, проблема-то есть. Где гарантия, что условный сигейт на несколько ТБ заведется после лежания на полочке в сухом прохладном месте в течение десятка-другого лет? Даже если его реально не трогали столько времени. 20-МБ хард заведется с куда большим шансом, если необходимое железо (ПК! Ага) положить рядом.
Тест Seagate IronWolf Pro ST20000NE000 — флагманский HDD на 20 TB