Pull to refresh

Comments 125

Какой будет срок практической работы, до первого бэда?!

Как и у всех сигейтов, срок службы равен сроку гарантии.

У меня крутятся 3 винта, которые я ещё от "цеце" профилактировал.

8 с лишним лет в компе работает сигейт (из линейки дисков для видеонаблюдения). Куплен на замену тошибе, которая начала сыпать бэдами аккурат за 2 недели до окончания гарантии.

У меня в одном из системников установлен WD серии блэк, так у него наработка 75 тысяч часов (8,5 лет в режиме работы) и он прекрасно себя чувствует, более того, по скорости даст фору современному ширпотребу.

Покупали по тендеру сервера, сигейты получились, дешевле были, работают.

Учитывая что там еще и лазером нагревают до 500 градусов, думаю срок сильно сократится. Температура очень сильно влияет на отказоустойчивость, у меня так у знакомого диски летели один за другим, 4 шт. поменял т.к. температра была сильно высокой в закрытом корпусе, поставил обдув и все нормализовалось уже 5 лет без замены.

Статистика гугла говорит об обратном, от температуры и нагрузки мало что зависит: https://static.googleusercontent.com/media/research.google.com/en//archive/disk_failures.pdf

One of our key findings has been the lack of a consistent pattern of higher failure rates for higher temperature drives or for those drives at higher utilization levels.

Не согласен, если внимательно изучить данные то для температуры график AFR после 45°С начинает ползти вверх. AFR (Annualized Failure Rate) - это показатель, который используется для оценки вероятности отказа жесткого диска в течение года. У друга была температура около 62°С когда он играл в игрушки, так что не удивительно что диски помирали.

Возможно. У них в ДЦ дисков с температурой >50, судя по всему, нет - поэтому график на этом заканчивается. Возможно колебания в дальней части это просто погрешность от малого количества данных.

С другой стороны, я думаю это ещё от дисков зависит. У меня есть прекрасные диски Hitachi Ultrastar 7K3000 , которые уже почти 10 лет 24х7 работают при 50-60 градусах - и ни один из пары десятков ещё не помер и даже ни одного Reallocated Sector. Я на них молюсь, хоть и 3ТБ всего. Сейчас уже сложно что-то похожее купить.

(81650 часов - это 9.3 года)

9 Power_On_Hours 0x0012 089 089 000 Old_age Always - 81650
194 Temperature_Celsius 0x0002 117 117 000 Old_age Always - 61 (Min/Max 3/69)

Да, тут еще от диска зависит, если партия хорошая они будут работать вечно. Hitachi хорошие диски делали, вот на сайте backblaze можно смотреть статистику отказа дисков, но там не все диски, а только те что они используют в своей компании, вот один из многих отчетов, если нужно поищи на их сайте другие отчеты: https://www.backblaze.com/blog/backblaze-drive-stats-for-q1-2023/

Эх, у меня в целой 2U полке 72ТБ (12 * 6 TB SAS LFF), а тут один диск на 50ТБ. Скоро на 10+ ТБ диски будем смотреть как на капитально устаревшее нечно, как сейчас на 147 GB SCSI.

Да и сейчас уже реально 10-15Тб маловато. Особенно для видеонаблюдения. Слишком много хардов приходится ставить.

Рей Хейнеман, вице-президент по развитию бизнеса в сфере видеонаблюдения компании Spectra Logic, работающей в штате Колорадо. Он призывает индустрию безопасности обратиться к записи на магнитную ленту.

Вы иронизируете, а в 90-х это было очень круто. Я сравнительно недавно последние арвидовские ленты на HDD сбэкапил.

В девяностых это была несбыточная мечта для бэкапа...

Вопрос в том, как ребилдить рейд из таких дисков. Оно же несколько суток будет ворочаться.

никак - технический мы уже с массивом в 11+1 spare и 16ТБ дисками можем в принципе не дождаться ребилда с учетом всех факторов... в том смысле что при возникновении отказа диска при высоких загрузках массивов он не будет успевать отребилдится до нового отказа....

тут впору задумываться о отказе от RAID как основы для построения СХД....

HDD сейчас используются под холодные данные с эпизодическим доступом и без нагрузки ребилд проходит за 24 часа. Плюс давно существует распределённый RAID (DDP, DRAID и т.д.), который существенно ускоряет процесс.

Увы, не проходит. Если считать, что диск будет писаться с идеальными 200 мегабайт в секунду всё время, то за 24 часа можно туда записать только 17 терабайт. С диском на 30 терабайт из новости - надо уже непрерывных двое суток без нагрузки вообще. Если он, конечно, может обеспечить такую непрерывную скорость записи - иначе надо будет больше.

24ТБ диски уже вроде под 300МБ\c выдают, по идее 30ТБ должны быть ещё побыстрее. Но это, конечно, в идеальном сферическом вакууме и в самом начале диска. Средняя там ближе к 200 наверное, да.

Я писал про 16 ТБ из сообщения выше, а сам лично видел ребилд 12 ТБ за 24 часа с рабочей нагрузкой в районе 12 часов. Про 30 ТБ согласен, там сразу надо делать dRAID.

впору задумываться о отказе от RAID

Не могу сказать, как в Эстонии, а так — RAIDZ наше всё.

И резеврный пул

Не стоит использовать ZFS без особой надобности, оно явно не для корпоративного использования

оно явно не для корпоративного использования

Ну и правильно, не барское это дело — заботиться о целостности своих данных...

сейчас уже реально 10-15Тб маловато

Депутат Яровая, перелогиньтесь!

Если не секрет, что там можно хранить? :)
Кроме видео с камер наблюдения, конечно.

у меня там контент, который вне закона

Машинка выехала, ожидайте!

— Ты за что сидишь?
— Убил пятерых. А ты за что?
— А я сотню терабайт «Флибусты» раздал.
— АААААА!!! ОХРАНА!

Видеонаблюдению могут алгоритмы обработки данных помочь. У меня например камера с детектором движения, записывать пустое пространство нет смысла. А при наличии движения пишет. Типично 50 Мб в день. Но если идет снег, то и гигабайт может записать ))

По хорошему нужно допилить алгоритм, который распознает снег и будет записывать без его влияния, не пропуская при этом реальные события в кадре.

А в идеале сжатие гигабайт данных может быть до 100 байт текста: в 15:00 проходил Иванов И.И. с черной сумкой в руке.

"...с черной сумкой в руке и с тревожным лицом."

> "...с черной сумкой в руке и с тревожным лицом."

Полностью закрытым маской.

Но если идет снег, то и гигабайт может записать ))

Обычно в софте есть алгоритмы, которые отсеивают движение, если оно по всему кадру. Хотя тут можно и пропустить чего.

А в идеале сжатие гигабайт данных может быть до 100 байт текста: в 15:00 проходил Иванов И.И. с черной сумкой в руке.

Скоро большой брат и до этого дойдёт. Искренне для экономии места и денег электората на дисках, конечно же.

Ох, про алгоритмы.

Пару недель назад была задача найти на ~20 часов видео с домофона момент ДТП. Запись непрерывная, но есть метки, в которые было движение. Так вот - ночь вся была в этих метках, потому что у кого-то на окне мигала гирлянда, и отсвет попадал на снег. Этого хватило.

> ночь вся была в этих метках, потому

> что у кого-то на окне мигала гирлянда

Помогла бы запись звука, которую можно использовать в качестве ещё одного типа меток. ДТП создаёт звук обычно ж.

Кстати нет, особого звука нет, так чтобы явно выделялся на фоне городского шума. Попадание колеса в яму или когда грузовик на лежачем полицейском прыгает дает сильнее звук. Автомобили мягкие, под металлом звукопоглощающие конструкции, ничего не резонирует.

В моём случае были звуки сигнализации. В три часа ночи они вполне выделяются.

Но возможности использовать звук как метку не было, видео я смотрел из приложения домофона, а там метки только по видео.

Если запись непрерывная, можно было написать скрипт что сам найдет места, которые выделяются по звуку. Как и скрипт что уберет кадры с миганием гирлянды. Тут можно подумать над универсальным решением на основе OpenCV какого-нибудь. Хотя вручную конечно быстрее в этом случае.

Я вообще не понимаю, о чём сыр-бор. Достаточно очевидно, что после ДТП на его месте остаётся разбитая машина. А дальше методом половинного деления находим момент, в который она там появилась.

ДТП разные бывают. Мог кто-то проехать, царапнуть и не остаться.

Спасибо за статью. Первый вопрос который возник лично у меня после прочтения — отказоустойчивость. На первый взгляд очень сомнительное решение. Думаю, что такое решение — одна из последних попыток «выжать» что-либо из HDD, и будущее всё-таки за другими технологиями.

В процессе работы пластины жесткого диска локально нагреваются лазером и перемагничиваются в ходе записи данных. Нагрев достаточно высокий — вплоть до 500 градусов Цельсия. Он позволяет обеспечить возможность намагничивания поверхности относительно слабым магнитом. Температура никак не влияет на химические свойства пластины, что касается физических — речь идет лишь об изменении магнитных свойств, и на этом все.

Может я чего-то недопонял, но этот абзац содержит взаимоисключающие утверждения. При нагреве любого вещества будут меняться его, как химические так и физические свойства, даже если вещество имеет уникальные показатели теплоемкости и теплопроводности.

Первый вопрос который возник лично у меня после прочтения — отказоустойчивость

А вопрос-то какой?

а сколько проживет эта "дорожка" с таким режимом Работы? в смысле не окажется ли что Это отличная технология для архивных дисков с крайне редкой перезаписью.

и отдельный вопрос - нужно ли это только для Записи или при чтении тоже нужен нагрев? а то реально может оказаться что отличный HDD диск на 30 ТБ и DWPD 0,003..... и еще и требование не более 30% READ в день....Согласен что сейчас для HDD как раз такая роль и в приоритете, но и столь жесткие ограничения могут стать критичными.....

При чтении нагрев не нужен. Нагрев требуется, чтобы сделать материал более восприимчивым к смене магнитной полярности, а это нужно лишь во время записи.

Мне попадалась информация, что HAMR, действительно, приводит к постепенной деградации магнитного слоя. Уже не помню деталей, там чуток материала испарается с каждым нагревом, что ли… Но это преподносилось как существенный недостаток HAMR по сравнению с MAMR, который пыталась реализовать WD (хотя, вроде бы, они недавно отказались от этой идеи и тоже переходят на HAMR). Однако никаких конкретных чисел мне пока не удалось найти. Вполне может оказаться, что новые HDD теперь будут, как и SSD, ограничиваться в гарантийном сроке по числу перезаписей. А может, и не будут, если деградация окажется очень слабой…

Скорее всего, подразумевается отсутствие остаточных изменений указанных характеристик. Когда остывает, всё становится как было, только перемагничено в другую сторону.

Ну не совсем как было, возможно количество испарившихся и диффузировавшихся атомов магнитного слоя в процессе нагрева будет пренебрежимо мало и этим фактором можно будет пренебречь.

То есть, резюмируя это уточнение, становится как было.

Фраза "сжечь диск" заиграла новыми смыслами ))

Новый класс зловредов - прожигающих пластины (если на одну дорожку непрерывно писать данные). А может и нарезающих пластины на кольца - головки с лазерами с двух сторон же?

При нагреве любого вещества будут меняться его, как химические так и физические свойства, даже если вещество имеет уникальные показатели теплоемкости и теплопроводности.

Оно, конечно, так, но все зависит от вещества и изменения температур. Условно - вода при нагреве с 10 до 11 градусов, наверно, что-то поменяет, но навряд ли это на что-то повлияет. Скорее всего для пластин Seagate нашла такие вещества, которые , может, и меняют какие-то свойства, но это ни на что не влияет. Кроме сохранения данных, конечно.

Почему бы не увеличить размер корпуса хдд до 5 25 дюймов.

Явно можно будет запихать блины большего зармера.

У дисков такого диаметра возникают свои большие проблемы с вибрацией на высоких скоростях вращения. Ну и головки с очень большими тяжелыми приводами будут.

Скорости вроде такие-же. То есть маленький диск вращается так, чтобы скорость пролета головки над поверхностью была условно 25 м/с, и у больших будет такая-же скорость. Маленький диск для этого вращается со "скоростью" 3000 об/мин, а большой будет вращаться на скорости 1000 об/мин.

Головки по размеру такие же. Приводы примерно такие же, длина больше в 2-3 раза.

Зато площадь диска квадрат размера, диск больше в 3 раза, а площадь больше в 9 раз.

Сейчас проблема решается 4 блинами, это еще более сложная задача, головки тяжелые потому-что их много, механика сложнее намного.

Диски на 15kRPM были только в форм-факторе 2.5", в 3.5" только 7.2kRPM. Так что явно связь есть, может не очевидная.

Зато площадь диска квадрат размера, диск больше в 3 раза, а площадь больше в 9 раз.

5.25" больше 3.5" всего в 1.5 раза. Но оно ещё и выше, так что блинов можно воткнуть больше. Но это всё фантазии, никто этим заниматься не будет - 3.5" давно стандарт и всё будут впихивать туда. "Мало? Воткни больше дисков"

Диски на 15kRPM были только в форм-факторе 2.5", 

С чего это вдруг?)

Потому что даже в 3.5" были мелкие пластины.

Возможно, вы неправильно понимаете смысл термина "форм-фактор"?

В данном случае я имел в виду габариты пластин. Если запихать те же пластины в больший корпус - суть не изменится.

Суть может и не изменится, а форм-фактор очень даже изменится.

WD Raptor X был 3.5 дюймовым и на 10к оборотов. Хотя есть подозрения, что там пластины все-таки уменьшенного диаметра.

В знаменитых IMB DTLA на 20 гигабайт стояли две обрезанные пластины по 15 гиг. И не обрезанные в модели 30 гиг. Поэтому 20 гиговая модель была БЫСТРЕЕ чем все остальные "дятлы"

Линейная скорость диска на внешней его части при этом может вообще не отличаться. Как следствие, максимальная скорость чтения-записи тоже.

Такие же скорости только угловые, а линейная скорость края диска у 5 дюймов значительно выше, чем у 3.5.

Центробежными силами будет растягивать блины. А если снизить скорость вращения - упадет скорость доступа к данным, особенно случайного.

проще всего увеличить толщину - но себестоимость за ТБ это скорее всего не опустит...

насчет диаметра там все вполне решаемо только вот индустрия построена под стандарт в 19" - и да все попытки запустить Альтернативные форм факторы пока умирают....

в целом уже сейчас себестоимость SSD + LTO достаточна для того чтобы в 90 % случаев отказаться от HDD полностью после не самого длительного переходного периода

LTO для дома очень сомнительно, по стоимости и удобству - не будете же вы пихать на LTO музыку, фильмы\сериалы (для просмотра, скажем, через DLNA) и прочие холодные данные (у меня лежит архив VMок и копия рабочих данных)? Да даже для домашнего архива, LTO очень дорого. Я бы с радостью заменил Amazon Glacier на LTO, но стоимость за гигабайт просто космическая

уже сейчас вопрос Надежности SSD не стоит....

вопрос только емкости и искусственного завышения Цены за емкость SSD - тут у китайцев начали появлятся SSD по 4 Тб при цене меньше чем HDD и адекватном качестве..... собственно революция в хранении уже свершилась...

уже сейчас вопрос Надежности SSD не стоит....

Стоит. У меня в ноябре 23 умер терабайтный Samsung 870EVO, похоронив недельную работу и только автоматические бэкапы на HDD\NAS, помогли пережить этот волнительный момент. Недели работы конечно было жалко, но не критично. Как потом выяснилось, диск был куплен в октябре 22, и уже в декабре 22 был создан топик на ixbt мол много брака куча возвратов и пр.

А до этого лет 5-7 назад у меня умер Intel 520-540(кажется), потому что счетчик переполнился и фирмваре сказала кря.

На работе, в панель HMI поставили SSD, через два года виндоус радостно сообщила, что ресурс подходит к концу. Меняли за свой счет, при стоимости SSD в 10% от всех расходов (командировка, допуски и пр. радости жизни).

Да, у хардов тоже бывают мухиCC, но выглядят они надежнее SSD.

лет 5-7 назад у меня умер Intel 520-540

У мея Intel 320 Series отпахал в десктопе хер знает сколько и все еще живой в виде внешней коробки с Ventoy. И да, помнится производители обещали что флеш память перестается записываться, но читаться то продолжает

И да, помнится производители обещали что флеш память перестается записываться, но читаться то продолжает

Это если флеш дохнет. А если ошибка в прошивке, как у упомянутых самсунгов, то всякое может быть.

Писать тоже можно, но изношенный NAND меньше хранит данные в ячейках - скорее прошивка блокирует запись, чтобы избежать повреждения данных.

Так я про что? То что оно переводится в только для чтения

Главное — чтобы оно ВНЕЗАПНО не переводилось в режим "ой, всё!"

От этого никто не застрахован: ошибки в сервисной зоне флеши, недопропаи, термические нагрузки — которые еще и со временем могут меняться — и вот, приехали.

для ответственного все равно что Харды что Твердые - резервировать надо и то и то - а для дома уже пофиг набить NAS 4ТБ SSD - там скорость не критична от слова совсем

для ответственного все равно что Харды что Твердые

Не все равно, mtbf\MTTF важно, плюс стоимость гигабайта. У нас был проект когда на 1 Гб пользовательских данных приходилось 5 Гб сырого объема. И вот у LTO, $ за гиг, такой что HDD и SSD никогда не смогут его достигнуть.

Второе, надо понимать нагрузку - офисные SSD (которые "у китайцев начали появлятся SSD по 4 Тб") позволяют полностью переписать диск 600 раз для TLC и 360 раз для QLC*, при сопоставимой цене.

Серверные SSD с 1752 циклов полной перезаписи (что в 3 раза больше) имеют ценник х2 - и вот как этот сегмент будет конкурировать с HDD который при той же стоимости имеет х4 объем?

для дома уже пофиг набить NAS 4ТБ SSD

возьмем 1Тб серверных SSD для рейда (мы же в NAS будем использовать рейд хотябы 5?) - 16к х4 = 64 000 ₽, теперь 2 Тб WD Red = 10к * 4 = 40 к.... Вот и весь сказ... 3 Тб SSD vs 6 Тб HDD.

Можно возразить, что китайский-офисный SSD на 4 Тб на QLC имеет TBW равный 1440. И это будет правдой. И даже будет работать, НО! если вы НИКОГДА не будете держать на нем более 1 Тб. Т.е. 3\4 диска придется зарезервировать под TRIM.

Продолжим математику, т.е. чтобы сравняться в 2 Тб WD Red, 4Тб SSD должен стоить 5к. Как-то так.

* за референсные модели данные взяты 1 Тб Samsung 870EVO, 870EVO QLC, PM893

Можно возразить, что китайский-офисный SSD на 4 Тб на QLC имеет TBW равный 1440.

Китайский-офисный SSD через 3 минуты непрерывной записи по скорости просядет ниже SD карты. Этого, в целом, достаточно, чтобы их забраковать. Как RAID из них ребилдить - тоже не ясно, там реально проще HDD в hot spare ставить, и то быстрее будет.

Продолжим математику …

… А чтобы сравняться с одним m2 ssd по iops — вам нужен будет пятиюнитовый storage (штуки три), 144 канальный hba, специализированный хоронилищный софт, охлаждение на 3 кВт — и все равно этого будет мало. Ну и стоить это будет, как ремонт плиток Шаттла.

Фьють-ха!

При чем тут iops, если в качестве метрики мы выбрали стоимость гигабайта?

Ясен пень, что если бы в качестве метрики была бы скорость, то мы б смотрели на PCIe\RAM-Drive

Да? А в ветке вообще обсуждалась надежность.

в целом уже сейчас себестоимость SSD + LTO достаточна для того чтобы в 90 % случаев отказаться от HDD

Цены за емкость SSD - тут у китайцев начали появлятся SSD по 4 Тб при цене меньше чем HDD

Мы про это

Дальше расчеты, что цена на гиг при +- одинаковой надежности (и случаях этой одинаковости), нифига не равны HDD. Т.е. у последних, есть своя, вполне себе определенная, ниша - холодные данные все еще проще и дешевле держать на HDD

Кстати, а можно пример нормальных китайских SSD на 1-2 Тб, а то может быть и прикупил бы для не критичных торрентов данных

Надо тогда с номерами партий писать, ибо они могут быть из совсем разных деталей собраны.

Вот еще бы этот LTO купить домой за вменяемые деньги (на авито как то не получается найти) и при этом еще вопросы по шуму и к тому что у меня вот стойка стоит дома а не в датацентре - пыли...хватает. LTO ж пыль убьет?

Да, как второй уровень архива, первый на бытовых QLC SSD на 4 TB

У LTO безумно высокие задержки при случайном доступе, ограничение на общее количество чтений данных с ленты до обязательной перезаписи, лимит ресурса ленты.

Это очень специфическое устройство, которое хорошо подходит для бекапов и почти никак не подходит для данных, в которых в среднем в сутки тебе нужен доступ к 0.1-1% всех записанных данных.

В современных корпусах настольников таких посадочных мест почти не осталось. Почти все «маленькие» корпуса стали совсем маленькими, и половинный 5.25 туда не влезет. «Продвинутые» корпуса демонстративно имеют одно – два места под половинные 5,25, и десяток внутренних под 3,5 — чтобы делать RAID'ы из типовых соврменных винчестеров. Про ноутбуки я вообще молчу.

А так можно вспомнить и диски ЕС ЭВМ — на пластину такого формата сотни гигабайт влезут...

Ну, справедливости ради, заряжать диски такого объёма в десктопный ПК вообще контрпродуктивно и не особо предполагается.

Дык и в серверных корпусах от 5.25 тоже поотказывались...

Можно и не заряжать. Не все же компоненты внутри ПК располагаются. Снаружи громоздкий монитор, клавиатура, акустика, принтер, модем и сетевые устройства. Ни каких проблем снаружи поставить дополнительно диск размером с монитор. Можно использовать как подставку под монитор, прикрепить сбоку системника или сзади монитора. Для работы системы маленький SSD, а большие файлы на внешнем большом во всех смыслах накопителе. Если это накопитель на 100 гигабайт и более, неудобства вполне терпимы.

У меня например "временно" был подключен SSD большой через USB 2.0 и так и остался. Там хранятся фильмы и торренты на раздачу. Медленный интерфейс проблем не создает, для просмотра фильмов хватает. Если нужно что-то переписать на основной диск скорость тоже не критична, поставил копироваться 10 гигабайт, время займет минут 30 и это не проблема, твое участие не требуется, занимаешься своими делами и одновременно идет копирование. Такое нужно раз в год и ни разу срочного чего-то не потребовалось. Вместо скорости SSD 300-500 Мб/с у меня 15 Мб/с итого хватает для архивного диска.

Я думаю, что шум и вибрация от этого чудовища будет такая, что в комнате без корпуса его поставить будет малореально.

Проигрыватель пластинок же не шумит и не вибрирует, при том что там большой диск.

Там линейное чтение и задержка не имеет значения, поэтому оно слабо ворочается. Если HDD замедлить до таких скоростей, то во время навигации по диску при переходе между папками можно будет уходить чай пить.

Папки могут быть в памяти, а запуск фильма более долгий на 100 мс можно пережить. Диски такие же не для ОС с миллионами файлов, а для хранения крупных файлов. Даже если ОС ставить, можно гибрид делать SSD плюс медленная механика.

Папки могут быть в памяти

Это уже функция ФС, а не диска. Не слышал, чтобы на уровне диска такие проблемы решались.

а запуск фильма более долгий на 100 мс можно пережить

Запуск фильма - можно, а фоточки листать с такого диска будет то еще удовольствие.

Диски такие же не для ОС с миллионами файлов, а для хранения крупных файлов.

Почему сразу "крупных файлов"? Просто большого объёма. Размер каждого отдельного файла - вопрос отдельный.

Это вообще своего рода гибрид между LTO и HDD по скорости получится. Ну, допустим, если реально только как мультимедиа (причем жирное медиа) хранилище использовать - то да, возможно.

Уже было. Взять теже Quantum BugFoot из 2000-х, масимальная скорость вращения 3600rpm, ну и головкам туда-сюда возить дольше. И были они люто тормозные

Точно bugfoot?

Жаль, багфут сигею лучше бы подошло.

Опечатался, конечно BigFoot. Но это не отменяет их полной унылости по скорости. Хотя для тех времен (первые Pentium) их брали как раз из за объема

Назад к истокам ? У меня был пятидюймовый HDD в середине 90-х. Аж на целых 20 Мб.

У меня такой до сих пол лежит. Причем полной высоты, а не половинка.

Полной высоты это какой? Как CDROM? У меня какой-то SCSI Seagate был в 20 веке, он занимал 2х5.25" слота аж.

Нет, CD-ROM — это как раз «половинка». «Нормальный» — в два раза выше.

Вопрос в том, как ребилдить рейд из таких дисков. 

Тоже интересно при 30 ТБ объёма какова вероятность возникновения ошибки при записи всего диска ? Мне почему-то практически равна единице. Да и ребилд об вообще закончится или для таких объёмов в СХД уже другие технологии не RAID ? Есть ли возможность ребилда с высокой скоростью ? Хорошо что еще не засунули черепичную запись.

Помимо HAMR была же еще MAMR (Microwave Assisted Magnetic Recording) по ней есть диски или забросили ?

И на сколько я помню Seagate уже делала диски 2 блоками головок на 1 оси. Учитывая что пластин там 10 то можно сделать до 2 или 5 блоков что поднимет скорость записи

Тоже интересно при 30 ТБ объёма какова вероятность возникновения ошибки при записи всего диска ?

В идеале нужно что-то типа ZFS юзать, которое:

  • Не будет ребилдить весь диск, а только те блоки где данные

  • При возникновении Checksum Mismatch просто ещё разок перезапишет блок

Не особо поможет. Зачем вам хранилище на 10 петабайт, которое нельзя заполнять больше, чем на половину?

А если оно забито под 90%, то и данных на дисках будет 90% и ребилдить будет как раз "весь диск" (за минусом незанятого пространства).

Зачем вам хранилище на 10 петабайт, которое нельзя заполнять больше, чем на половину?

Просто нужен не отдельный диск, а два (или более) в ZRAID. Вероятность того, что в обеих копиях будет побит один и тот же блок, околонулевая, а если побит в одной — то будет тут же восстановлен из другой. Такой можно заполнять хоть под завязку.

В режиме RAID-Z ребилдить будет столько же, да. Но зато битовые ошибки будут исправлены, если возникнут - вопрос же был про возникновение ошибок во время ребилда.

Но там ещё есть такие интересные штуки как dRAID: https://openzfs.github.io/openzfs-docs/Basic Concepts/dRAID Howto.html

Интересно. В правой части графика они обещают записать16-терабайтный диск за 15 часов. Т.е., в среднем писать терабайт за час или 300 мбайт за секунду. Современные диски на такое не способны, насколько я знаю.

a dRAID vdev must shuffle its child vdevs in such a way that regardless of which drive has failed, the rebuild IO (both read and write) will distribute evenly among all surviving drives.

Насколько я понимаю - там процесс замены диска делится на два этапа (как, в общем, и с обычным RAID):

  • Быстрый ребилд на виртуальный (размазаный по всем дискам) Hot Spare - тут I/O идёт на все диски, поэтому мы не упираемся в один

  • После замены сдохшего диска - более долгий процесс ребалансировки, тут уже упираемся в один диск

Т.е. на первом этапе массив из деградировавшего состояния переходит в нормальное быстро, а потом неторопливо меняем диск и ребалнсируем. Сам я dRAID не юзал, поэтому могу путать.

Стеклянные пластины? Опять? Они не боятся потревожить духов дятлов?

По-моему сейчас их в основном из стекла или керамики один фиг делают.

Seagate - уничтожим ваши данные наверняка.

Теперь и лазером.

Технология [текущая] позволяет достичь плотности записи в 2,32—7,75 Тбит/см².

Плотность записи на пластине, с использованием этой технологии [перспективной], составляет около 1 248 Гбит/дюйм².

Как мастерски вы оперируете с единицами измерения - захочешь, не сможешь сравнить

На вскидку, перспективная технология будет иметь гораздо более низкие (худшие) показатели плотности записи .

хорошая причина искать другие источники информации если авторы такие финты крутят.

Верно, надо в библиотеках конгресса на футбольных полях. Тогда сразу будет понятно

Я бы не доверил бы долговременное хранение данных такому носители. Да, технология разработана достаточно давно и назначение ей было для увеличения скорости магнитной записи ( доменны при нагреве до определённой температуры становятся более "сговорчивы" в скорости смены направления их магнитной поляризации., и к тому же со значительно меньшей энергией). В данный момент эта технология используется для критического уплотнения доменов на поверхности носителя. Да, можно использовать эти диски для оперативного хранения больших массивов данных и недолговременного хранения при обработки их в вычислительных центрах, но для архивного хранения - нет.

Nikolyrus2 часа назад

Я бы не доверил бы долговременное хранение данных такому носители. Да, технология разработана достаточно давно и назначение ей было для увеличения скорости магнитной записи ( доменны при нагреве до определённой температуры становятся более "сговорчивы" в скорости смены направления их магнитной поляризации., и к тому же со значительно меньшей энергией). В данный момент эта технология используется для критического уплотнения доменов на поверхности носителя. Да, можно использовать эти диски для оперативного хранения больших массивов данных и недолговременного хранения при обработки их в вычислительных центрах, но для архивного хранения - нет.

А кто в теме - почему бы для специфического хранения не использовать диски не 2.5 формфактором, а как старые дискеты 4.5? Ведь в НДД цена самого блина практически 0, в сравнении с остальной начинкой. Масштабирование тоже не сильно должно нагибать движущиеся части, будет головка бегать не 3см вверх\вниз, а скажем 10. 1см доп диаметра это почти 30% поверхности (обьёма).

Увы, с увеличением радиуса диска его скорость придётся сильно замедлять. Иначе линейная скорость края диска будет слишком высокой. Но основная проблема - это просто не нужно. Внедрять новый стандарт - долго и дорого, а его задачи и сейчас уже выполняются. Кому нужно медленное и ёмкое хранилище для архивов - тем проще взять ленты. Кому нужно не такое медленное для бэкапов текущих - проще взять два диска.

Sign up to leave a comment.