Технологии магнитной записи HDD: просто о сложном


    Первый в мире жесткий диск, IBM RAMAC 305, увидевший свет в 1956 году, вмещал лишь 5 МБ данных, а весил при этом 970 кг и по габаритам был сопоставим с промышленным рефрижератором. Современные корпоративные флагманы способны похвастаться емкостью уже в 20 ТБ. Только представьте себе: 64 года назад, для того чтобы записать такое количество информации, потребовалось бы свыше 4 миллионов RAMAC 305, а размеры ЦОДа, необходимого для их размещения, превысили бы 9 квадратных километров, тогда как сегодня для этого будет достаточно маленькой коробочки весом около 700 грамм! Во многом добиться столь невероятного повышения плотности хранения удалось благодаря совершенствованию методов магнитной записи.
    В это сложно поверить, однако принципиально конструкция жестких дисков не меняется вот уже почти 40 лет, начиная с 1983 года: именно тогда свет увидел первый 3,5-дюймовый винчестер RO351, разработанный шотландской компанией Rodime. Этот малыш получил две магнитные пластины по 10 МБ каждая, то есть был способен вместить вдвое больше данных, чем обновленный ST-412 на 5,25 дюйма, выпущенный Seagate в том же году для персональных компьютеров IBM 5160.


    Rodime RO351 — первый в мире 3,5-дюймовый винчестер

    Несмотря на инновационность и компактные размеры, на момент выхода RO351 оказался практически никому не нужен, а все дальнейшие попытки Rodime закрепиться на рынке винчестеров потерпели фиаско, из-за чего в 1991 году компания была вынуждена прекратить свою деятельность, распродав практически все имеющиеся активы и сократив штат до минимума. Однако стать банкротом Rodime оказалось не суждено: в скором времени к ней начали обращаться крупнейшие производители винчестеров, желающие приобрести лицензию на использование запатентованного шотландцами форм-фактора. В настоящее время 3,5 дюйма является общепринятым стандартом производства как потребительских HDD, так и накопителей корпоративного класса.

    С появлением нейросетей, Deep Learning и интернета вещей (IoT) объем создаваемых человечеством данных стал лавинообразно расти. По оценкам аналитического агентства IDC, к 2025 году количество информации, генерируемой как самими людьми, так и окружающими нас девайсами, достигнет 175 зеттабайт (1 Збайт = 1021 байт), и это при том, что в 2019-м таковое составляло 45 Збайт, в 2016-м — 16 Збайт, а в далеком 2006-м общий объем данных, произведенных за всю обозримую историю, не превышал 0,16 (!) Збайт. Справиться с информационным взрывом помогают современные технологии, среди которых не последнее место занимают усовершенствованные методы записи данных.

    LMR, PMR, CMR и TDMR: в чем разница?


    Принцип работы жестких дисков достаточно прост. Тонкие металлические пластины, покрытые слоем ферромагнитного материала (кристаллического вещества, способного сохранять намагниченность даже при отсутствии воздействия на него внешнего магнитного поля при температуре ниже точки Кюри) движутся относительно блока пишущих головок на большой скорости (5400 оборотов в минуту или более). При подаче электрического тока на пишущую головку возникает переменное магнитное поле, которое изменяет направление вектора намагниченности доменов (дискретных областей вещества) ферромагнетика. Считывание данных происходит либо за счет явления электромагнитной индукции (перемещение доменов относительно сенсора вызывает в последнем возникновение переменного электрического тока), либо за счет гигантского магниторезистивного эффекта (под действием магнитного поля изменяется электрическое сопротивление датчика), как это реализовано в современных накопителях. Каждый домен кодирует один бит информации, принимая логическое значение «0» или «1» в зависимости от направления вектора намагниченности.

    Долгое время жесткие диски использовали метод продольной магнитной записи (Longitudinal Magnetic Recording, LMR), при котором вектор намагниченности доменов лежал в плоскости магнитной пластины. Несмотря на относительную простоту реализации, данная технология имела существенный недостаток: для того чтобы побороть коэрцитивность (переход магнитных частиц в однодоменное состояние), между треками приходилось оставлять внушительную буферную зону (так называемое guard space — защитное пространство). Вследствие этого максимальная плотность записи, которой удалось добиться на закате данной технологии, составляла всего 150 Гбит/дюйм2.


    В 2010 году LMR была практически полностью вытеснена PMR (Perpendicular Magnetic Recording — перпендикулярная магнитная запись). Главное отличие данной технологии от продольной магнитной записи состоит в том, что вектор магнитной направленности каждого домена располагается под углом 90° к поверхности магнитной пластины, что позволило существенно сократить промежуток между треками.

    За счет этого плотность записи данных удалось заметно увеличить (до 1 Тбит/дюйм2 в современных устройствах), при этом не жертвуя скоростными характеристиками и надежностью винчестеров. В настоящее время перпендикулярная магнитная запись является доминирующей на рынке, в связи с чем ее также часто называют CMR (Conventional Magnetic Recording — обычная магнитная запись). При этом надо понимать, что между PMR и CMR нет ровным счетом никакой разницы — это всего лишь другой вариант названия.


    Изучая технические характеристики современных жестких дисков, вы также можете наткнуться на загадочную аббревиатуру TDMR. В частности, данную технологию используют накопители корпоративного класса Western Digital Ultrastar 500-й серии. С точки зрения физики TDMR (что расшифровывается как Two Dimensional Magnetic Recording — двумерная магнитная запись) ничем не отличается от привычной нам PMR: как и прежде, мы имеем дело с непересекающимися треками, домены в которых ориентированы перпендикулярно плоскости магнитных пластин. Разница между технологиями заключается в подходе к считыванию информации.

    В блоке магнитных головок винчестеров, созданных по технологии TDMR, на каждую пишущую головку приходятся по два считывающих сенсора, осуществляющих одновременное чтение данных с каждого пройденного трека. Такая избыточность дает возможность контроллеру HDD эффективно фильтровать электромагнитные шумы, появление которых обусловлено межтрековой интерференцией (Intertrack Interference, ITI).


    Решение проблемы с ITI обеспечивает два чрезвычайно важных преимущества:

    1. снижение коэффициента помех позволяет повысить плотность записи за счет уменьшения расстояния между треками, обеспечивая выигрыш по общей емкости вплоть до 10% по сравнению с обычной PMR;
    2. в сочетании с технологией RVS и трехпозиционным микроактуатором, TDMR позволяет эффективно противостоять ротационной вибрации, вызванной работой винчестеров, что помогает добиться стабильного уровня производительности даже в наиболее сложных условиях эксплуатации.

    Что такое SMR и с чем его едят?


    Размеры пишущей головки примерно в 1,7 раза больше по сравнению с размерами считывающего сенсора. Столь внушительная разница объясняется достаточно просто: если записывающий модуль сделать еще более миниатюрным, силы магнитного поля, которое он сможет генерировать, окажется недостаточно для намагничивания доменов ферромагнитного слоя, а значит, данные попросту не будут сохраняться. В случае со считывающим сенсором такой проблемы не возникает. Более того: его миниатюризация позволяет дополнительно снизить влияние упомянутой выше ITI на процесс считывания информации.

    Данный факт лег в основу черепичной магнитной записи (Shingled Magnetic Recording, SMR). Давайте разбираться, как это работает. При использовании традиционного PMR пишущая головка смещается относительно каждого предыдущего трека на расстояние, равное ее ширине + ширина защитного пространства (guard space).


    При использовании черепичного метода магнитной записи пишущая головка смещается вперед лишь на часть своей ширины, поэтому каждый предыдущий трек оказывается частично перезаписан последующим: магнитные дорожки накладываются друг на друга подобно кровельной черепице. Такой подход позволяет дополнительно повысить плотность записи, обеспечивая выигрыш по емкости до 10%, при этом не отражаясь на процессе чтения. В качестве примера можно привести Western Digital Ultrastar DC HC 650 — первые в мире 3.5-дюймовые накопители объемом 20 ТБ с интерфейсом SATA/SAS, появление которых стало возможным именно благодаря новой технологии магнитной записи. Таким образом, переход на SMR-диски позволяет повысить плотность хранения данных в тех же стойках при минимальных затратах на модернизацию IT-инфраструктуры.


    Несмотря на столь значительное преимущество, SMR имеет и очевидный недостаток. Поскольку магнитные дорожки накладываются друг на друга, при обновлении данных потребуется перезапись не только требуемого фрагмента, но и всех последующих треков в пределах магнитной пластины, объем которой может превышать 2 терабайта, что чревато серьезным падением производительности.

    Решить данную проблему помогает объединение определенного количества треков в обособленные группы, называемые зонами. Хотя такой подход к организации хранения данных несколько снижает общую емкость HDD (поскольку между зонами необходимо сохранять достаточные промежутки, препятствующие перезаписи треков из соседних групп), это позволяет существенно ускорить процесс обновления данных, так как теперь в нем участвует лишь ограниченное количество дорожек.


    Черепичная магнитная запись предполагает несколько вариантов реализации:

    • Drive Managed SMR (SMR, управляемая диском)

    Основным ее преимуществом является отсутствие необходимости в модификации программного и/или аппаратного обеспечения хоста, поскольку управление процедурой записи данных берет на себя контроллер HDD. Такие диски могут быть подключены к любой системе, в которой присутствует необходимый интерфейс (SATA или SAS), после чего накопитель будет сразу готов к работе.

    Недостаток этого подхода заключается в изменчивости уровня производительности, в связи с чем Drive Managed SMR оказывается неподходящей для корпоративных приложений, в которых постоянство быстродействия системы является критически важным параметром. Тем не менее такие диски хорошо показывают себя в сценариях, предоставляющих достаточное время для выполнения фоновой дефрагментации данных. Так, например, DMSMR-накопители WD Red, оптимизированные для использования в составе малых NAS на 8 отсеков, станут отличным выбором для системы архивирования или резервного копирования, предполагающей долговременное хранение бэкапов.


    • Host Managed SMR (SMR, управляемая хостом)

    Host Managed SMR — наиболее предпочтительный вариант реализации черепичной записи для использования в корпоративной среде. В данном случае за управление потоками данных и операциями чтения/записи отвечает сама хост-система, задействующая для этих целей расширения интерфейсов ATA (Zoned Device ATA Command Set, ZAC) и SCSI (Zoned Block Commands, ZBC), разработанные комитетами INCITS T10 и T13.

    При использовании HMSMR весь доступный объем накопителя разделяется на зоны двух типов: Conventional Zones (обычные зоны), которые используются для хранения метаданных и произвольной записи (по сути, играют роль кэша), и Sequential Write Required Zones (зоны последовательной записи), занимающие большую часть общей емкости жесткого диска, в которых данные записываются строго последовательно. Неупорядоченные данные сохраняются в области кэширования, откуда затем могут быть перенесены в соответствующую зону последовательной записи. Благодаря этому все физические сектора записываются последовательно в радиальном направлении и перезаписываются только после циклического переноса, что позволяет добиться стабильной и предсказуемой производительности системы. При этом HMSMR-диски поддерживают команды произвольного чтения аналогично накопителям, использующим стандартный PMR.

    Host Managed SMR реализована в жестких дисках enterprise-класса Western Digital Ultrastar HC DC 600-й серии.


    Линейка включает в себя SATA- и SAS-накопители высокой емкости, ориентированные на использование в составе гипермасштабных центров обработки данных. Поддержка Host Managed SMR существенно расширяет сферу применения таких винчестеров: помимо систем резервного копирования, они прекрасно подойдут для облачных хранилищ, CDN или стриминговых платформ. Высокая емкость жестких дисков позволяет существенно повысить плотность хранения (в тех же стойках) при минимальных затратах на апгрейд, а низкое энергопотребление (не более 0,29 Ватта на каждый терабайт сохраненной информации) и тепловыделение (в среднем на 5 °C ниже, чем у аналогов) — дополнительно сократить операционные расходы на обслуживание ЦОДа.

    Единственным недостатком HMSMR является сравнительная сложность имплементации. Все дело в том, что на сегодняшний день ни одна операционная система или приложение не умеют работать с подобными накопителями «из коробки», в силу чего для адаптации IT-инфраструктуры требуются серьезные изменения стека программного обеспечения. В первую очередь это касается, конечно же, самой ОС, что в условиях современных ЦОД, использующих многоядерные и многосокетные сервера, является достаточно нетривиальной задачей. Узнать подробнее о вариантах реализации поддержки Host Managed SMR можно на специализированном ресурсе ZonedStorage.io, посвященном вопросам зонального хранения данных. Собранные здесь сведения помогут предварительно оценить степень готовности вашей IT-инфраструктуры для перевода на зональные системы хранения.

    • Host Aware SMR (SMR, поддерживаемая хостом)

    Устройства с поддержкой Host Aware SMR сочетают в себе удобство и гибкость Drive Managed SMR и высокую скорость записи Host Managed SMR. Такие накопители обратно совместимы с устаревшими системами хранения и могут функционировать без непосредственного контроля со стороны хоста, однако в этом случае, как и при работе с DMSMR-дисками, их производительность становится непредсказуемой.

    Подобно Host Managed SMR, Host Aware SMR использует два типа зон: Conventional Zones для произвольной записи и Sequential Write Preferred Zones (зоны, предпочтительные для последовательной записи). Последние, в отличие от упомянутых выше Sequential Write Required Zones, автоматически переводятся в разряд обычных в том случае, если в них начинает вестись неупорядоченная запись данных.

    Реализация SMR с поддержкой хоста предусматривает внутренние механизмы восстановления после непоследовательной записи. Неупорядоченные данные записываются в области кэширования, откуда диск может переносить информацию в зону последовательной записи, после того как будут получены все необходимые блоки. Для управления неупорядоченной записью и фоновой дефрагментацией диск использует таблицу косвенного обращения. Однако, если корпоративным приложениям требуется предсказуемая и оптимизированная производительность, достичь этого по-прежнему можно лишь в случае, когда хост берет на себя полное управление всеми потоками данных и зонами записи.
    Western Digital
    Компания

    Комментарии 50

      +3
      Подскажите, если я возьму новый HDD, запишу на него данные и положу на полку — сколько лет данные будут читаемые? Такие тесты производитель делает?
        +2
        Вот он на полке и будет лежать. Что еще с ним сделаешь? Такие вопросы задавались насчет записываемых CD, DVD, насчет дискет, кассет для дорогущих стриммеров, и т.д. Теоретически оценить, вероятно, можно. Но это вообще, в принципе. А у Вас в руках конкретный экземпляр устройства конкретного производителя. Например, «нормально» хранимые дискеты BASF нормально читаются спустя 30 лет после записи. И что тут можно сказать? CD/DVD Verbatim и не только — 20 лет как новенькие. А про некоторых производителей ну никогда бы не подумал. Боюсь, технология носителей меняется быстрее, чем деградирует запись. Если HDD лежит в хорошем сейфе и повезло с экземпляром (кто знает?), думаю, лет на 30-40 можете рассчитывать, имхо. Если найдете интерфейс через такое время.
          0
          С другой стороны, такой распространенный носитель, как флешка, или, например, SSD (или NVME)-накопители не предназначены для долговременного хранения.
          0
          Такие тесты никто не делает, ввиду невозможности их выполнения, отсутствия методик и сложности влияния параметров друг на друга:
          -При какой температуре хранить диск?
          -Подключенным или отключенным?
          -ТО механики делать или нет?
          -Критерий читаемости — должны читаться все биты (1 в 1) на диске? Или достаточно возможности считать записанную информацию?

          По этому, все ограничиваются расчетными значениями MTTF\MTBF. Т.е. берем вероятность отказа каждого компонента суммируем и получаем некоторую условную циферку для конечного изделия. У того же WD Gold MTBF = 2,000,000 — 2,500,000 часов, т.е. порядка 200+ лет. Цифры впечатляющие, но надо понимать, что основаны они на вероятности. Может произойдет, а может нет. Плюс WD пишут именно MTBF — средняя работа между поломками, а не MTTF — время до первой поломки.

          Если вернуться к задаче длительного (10+ лет) хранения данных то на текущий момент:
          -Не придумали ничего лучше старых добрых ленточных накопителей (см. LTO). Но это дорого. Очень. Входить туда имеет смысл с бюджетом от 300-500 т.р. (стриммер, кассеты, отдельное помещение с заданными условиями хранения и пр.)
          -Жесткие диски с системой мониторинга и периодической заменой по времени (а не по отказу). Дешевле, но не бюджетно. Два серверных диска + контроллер обойдутся тыщ. в 30-50. Схемы может быть две, или горячего хранения (постоянно подключены), или холодного, но с периодическими (раз в месяц) тестами.
          -Облака. Есть всякие Amazon Glacier, которые за $ предлагают хранение информации на лентах. Цена хранения низкая (мне около ~100 Гб обходятся в ~0.5$), НО доступность никакая (несколько дней). Плюс отдельных (немалых)денег стоит траффик по скачиванию\выкачиванию. В общем, сервис ориентирован на долгосрочное хранение архивов.
          -Прочие CD\DVD\BR, в серьезных решениях не встречал (но не означает что их нет), больше для энтузиастов.
            +1
            Не придумали ничего лучше старых добрых ленточных накопителей (см. LTO). Но это дорого. Очень.


            На самом деле, если посчитать, ленты все еще самое дешевое долговременное хранение больших обьемов данных. Дорого первоначальное вложение в ленточную библиотеку (если вам требуются серьезные обьемы, если нет — можете обойтись отдельным приводом).

            HDD — 6TB — 15000рублей + электричество если вы их не вынимаете + опять же место в стойке занимают.
            LTO-7 — 6TB — 7000рублей

            Но при больших обьемах вам все равно придется покупать корзинку для HDD + контроллер, так что тут еще под вопросом что будет дороже на первоначальных вложениях.

            Мы себе брали в итоге ленты на 2ПБ. И ПО к нему соответственно.

            Мне могут конечно возразить — на HDD же можно сделать дедупликацию и место будет заниматься меньше и потребуется меньший объём — но по факту — если у вас будет сбойный блок без возможности восстановления или внезапно зальет стойку(был такой случай) или сервер глюканет, что диски повылетают — весь ваш бэкап превратится в тыкву. Данные на HDD я я бы назвал оперативным бэкапом на небольшой срок (например месяц).
            0
            У меня 6.5 лет лет на полке из 5 у меня умерло 2. Подробности 2gusia.livejournal.com/591490.html
              0
              В свете недавней статьи Кингстон «заряжаете ли вы свои ЮСБ флэшки» вопрос звучит актуально :)
              0

              Нужно искать новые подходы.
              С одной стороны, тема HDD всегда интересная.
              С другой, сколько их уже было – обзоров истории дисков и всей этой черепичной петрушки.

                0
                HDD становится уже довольно нишевой вещью. В основном для хранения холодных данных (бэкапы и т.п.) Разница в цене за гигабайт с ssd составляет всего 2 раза. И при этом флеш память все дешевеет (и при этом ssd уже дешевле 15к rpm дисков). В общем будут это теперь игрушки для цодов с сервисами бэкапа.
                  +1
                  Не соглашусь, раза в 4, если не сравнивать совсем уж с одноразовыми китайцами.
                    0
                    Тут скорее речь про себестоимость. Какую цену предлагают рынку — это уже отдельный разговор. Если вы захотите партию SSD дисков очень крупным оптом (десятками тысяч штук) — вам сделают очень хорошую скидку и упадут до разницы в 2 раза. С HDD же сложнее — их меньше покупают крупные оптовики и в рознице — они снижают цену почти до себестоимости, чтобы рынок покупал хоть что-то.

                    В текущей компании еще 3 года назад изначально стали делать хранилище на SSD. Как показала практика — не прогадали, развитие компании заставило еще наращивать обьемы. При этом не уперлись в производительность (на HDD бы просели очень сильно, особенно на текущих с SMR, а 15к диски покупать уже нету смысла), дедупликация частично отбила разницу в ценах по сравнению с HDD (по чистому обьему). У всех пользователей выкинули обычные диски из компов и ноутбуков и поставили SSD — убрали проблему апгрейда компов, они перестали тормозить — сэкономили на апгрейде.
                    +1

                    покупали накопители на 16 ТБ за ~30 тысяч. даже чтобы купить SSD на 4 ТБ, придётся заплатить больше.

                    +7
                    SMR HDD? In my NAS???

                    Никогда не думал, что увижу такое здесь, но, похоже, pecunia non olet.

                      0
                      Для меня объёмы HDD закончились на 10Тб и то, моделью без SMR и гелия.
                        0
                        Что не так с гелием? Они тише и холоднее воздушных, а к моменту вытекания газа диски морально устареют.
                          0
                          На тишину и нагревучесть мне, как человеку, использовавшему в домашнем компьютере IBM DDYS (шумит — адски; греется, ну… 55*С это нормальная температура, 65*С тоже ещё терпимо) — наплевать. А вот к тому, что с этим хардом будет через десять лет — нет. Плюс у меня ещё прекрасно используются харды Samsung F1, а этой модели уже более 10 лет. И не следует забывать о случае «ой, а бэкапов нету...», когда приходится лезть в гермозону харда — в случае гелия это кхм… более проблематично.
                            0
                            А вот к тому, что с этим хардом будет через десять лет — нет

                            скорее всего, выйдет из строя


                            И не следует забывать о случае «ой, а бэкапов нету...», когда приходится лезть в гермозону харда — в случае гелия это кхм… более проблематично.

                            а есть опыт с современными винтами? слышал, что «в домашних условиях» оно сильно проблематично.

                              0
                              В домашних условиях проблематично уже давно. В условиях бокса и с инструментом — можно.
                            0
                            Что значит "морально устареют"? Вот у меня сейчас стоит 256 + 512 ГБ. SSD правда, а не HDD, но терабайтные жёсткие диски были вполне доступны 10 лет назад. За сколько забъётся 8-10-12-14 ТБ диск при использовании для домашних бэкапов и скидывания фоточек сделанных телефоном?
                              0
                              Их перестаёт хватать и/или вырабатывают ресурс.
                              У меня лежит пачка дисков на 500-2000 ГБ после апгрейдов, которые некуда ставить и стрёмно использовать без резервирования из-за возраста (а это ещё х2 к месту и портам).
                                +1
                                Их перестаёт хватать и/или вырабатывают ресурс.
                                Это уже физическое устаревание. Старые диски можно поставить в зеркальный RAID в каком-нибудь NAS. Ну и если диск стоит в NAS, используется редко(по сравнению с датацентром который работает 24/7) для бэкапов и глушиться в моменты простоя — то работать он будет очень долго. И наличие гелия который ограничивает срок службы 5 годами(например, я не знаю точно, информации не нашёл) вне зависимости от того, работает ли диск или лежит на полочке, не очень хорошо для сценария редких домашних бэкапов…
                                  0
                                  Я в итоге заменил все старые диски на зеркало из пары 12 ТБ дисков.
                                  для бэкапов и глушиться в моменты простоя — то работать он будет очень долго.

                                  Постоянные включения/выключения разве не сокращают срок службы любых устройств?
                                  И наличие гелия который ограничивает срок службы 5 годами(например, я не знаю точно, информации не нашёл) вне зависимости от того, работает ли диск или лежит на полочке, не очень хорошо для сценария редких домашних бэкапов…

                                  Не уверен на 100%, но не запомнилось про гарантированную работу в течении 10 лет для первых моделей от HGST. И возможность читать данные при вскрытой банке.
                                    0
                                    Постоянные включения/выключения разве не сокращают срок службы любых устройств?
                                    На лампочки накаливания точно влияет(у холодной лампочки сопротивление мало — в момент включения происходит скачок тока). Жёсткий диск который запарковал головки и остановил блины не совсем выключен(или совсем не выключен). Раскрутка шпинделя происходит плавно как раз для снижения влияния переходных процессов.
                          +2

                          Да, почему-то забыли рассказать как радуются таким дискам RAID контроллеры. И сколько времени может занимать восстановление массива на таких дисках (спойлер: бесконечно долго).

                          +2
                          КРУТО! Я честно давно хотел почитать в чём физ. процесс. Автор, я залип. Спасибо.
                            +6

                            В силу недавнего скандала с SMR, не могу отделаться от мысли, что вся статья написана для его "легализации" в умах читающих, вполне в стиле Овертона. Даже если это не так, то мысль очевидна и паранойя неизбежна.
                            По этому случаю скажу, что SMR — стратегическая ошибка, а при состоявшейся подаче ещё и тактическая.

                              0
                              У производителей выбора нету. Фактически уперлись в текущий лимит механических частей. Я с трудом представляю как они позиционируют головки с такой точностью. В этом плане производство производство и эксплуатация электроники проще. И сильно проще наращивать емкость в конкретном форм-факторе.

                              Хотя может в HDD случится какая-нибудь революция, но слухов о кардинальной смене технологии пока нету.
                                0

                                Выбор "давайте увеличим номинальную емкость на 20%, но чтобы это все не вытормаживалось дичайше пусть пользователь оставляет 30% свободного месте и ждет до посинения" тоже как-то не ок.
                                MAMR должна стать следующей ступенькой наверх.

                                  +1
                                  MAMR должна стать следующей ступенькой навер

                                  20ТБ от WD/HGST уже MAMR, только производитель стесняется признаться :)

                                  Следующая ступенька это HAMR, на MAMR так плотность не поднять, как на HAMR.
                                    0
                                    Но выше 100-150 iops диск все равно не прыгнет к сожалению. Flashcache конечно как-то спасает ситуацию, но сильно зависит от профиля нагрузки.
                                      0
                                      С SSD-ями тоже не все хорошо стало, дешевые SSD они стремятся к QLC, а там вот так вот (чуть быстрее HDD)
                                      image
                                        0
                                        Не знаю что здесь вкладывается в HDD Config, но это явно не HDD. Скорее какие-то настройки тестирования.

                                        HDD выдает 150 iops, 15k rpm выдает 300 iops
                                        SSD выдает 10.000+
                                          0
                                          полная статья — blog.dataonstorage.com/2020/04/06/testing-qlc-nvme-ssd-storage-with-microsoft-azure-stack-hci
                                          QLC SSD Config – 4x Intel D5-P4326 NVMe 15TB QLC SSDs (storage) with 2x Intel P4610 NVMe 1.6TB SSDs (cache) per node
                                          MLC SSD Config – 4x Intel P4510 NVMe 4TB MLC SSDs (storage) per node (no cache)
                                          HDD Config – 4x 14TB HDDs (storage) with 2x Intel P4610 NVMe 1.6TB SSDs (cache) per node
                                            +2
                                            Статья на самом деле «прекрасна». Не указана методика тестирования, не указаны обьемы данных, не указана файловая система, не указана разбивка разделов. По факту если прогреть NVME кэш на чтение (а он судя по всему прогрет) — диски вобще использоваться не будут. Далее по поводу записи — такой обьем ssd кэша на запись естественно не забьется за те 10 минут теста и что там под этим ssd уже практически не важно. В общем статья очень маркетинговая (что прямо написано в статье — реклама 2-х новой хранилки «two-node Azure Stack HCI solution consisting of DataON S2D-5224 nodes» — а в них совсем по другому запись реализована — тут вобще в память пишется сначала и коммит идет как только записалось в память 2-х нод).

                                    0
                                    В 2011 перешли от 512 к 4к блокам.
                                    Никто не думал выпустить диски специально для бэкапов с 16к или даже 64к?

                                    Насколько я помню за счет уменьшения служебных данных там можно и больше 20% места выиграть.
                                      0

                                      хотите сказать, что служебных данных почти килобайт на сектор?

                                        0
                                        в 512 блочных накопителях, логические служебные данные занимали 65 байт (50 байт ECC и 15 байт расстояние между блоками для синхронизации), то есть более 10%, при переходе на 4к они уменьшились до 15+100 байт на 4к блок.
                                        То есть использование физических возможностей накопителя улучшилось с 88.7 до 97.3

                                        То есть почти 10% буквально вообще без всяких физических улучшений, чисто программный код.

                                        Понятно что производительность для рандомной записи/чтения упадет, но вот для линейного разницы быть не должно. Может быть даже увеличится.
                                        Также понятно, что это довольно нишевые диски, хотя… для файлопомойки почему бы и нет.
                                        Просто любопытно задумывался ли кто из производителей о таком, и если да, почему не выпустили для пробы?
                                          0
                                          То есть использование физических возможностей накопителя улучшилось с 88.7 до 97.3

                                          так выходит дальнейшее повышение размера сектора не принесёт и 3%

                                            +2
                                            Та да, сам уже смотрю на свои же цифры и думаю что 6 утра и 38 градусов меня не оправдывает
                                    +2

                                    На самом деле самый большая ошибка производителей — попытка впарить этот SMR по тихому. Написали бы об этом явно, как это было с Advanced Format (4K секторами), проблем было бы меньше.

                                  +10
                                  Напомните, пожалуйста, WD стала честно и открыто указывать наличие/отсутствие SMR у каждой модели, или это по-прежнему может быть сюрпризом для покупателя?
                                  +2
                                  Хм, черепичная запись дает 10% прироста емкости? И ради этого придумали «Host Managed SMR (SMR, управляемая хостом)»? Стоит ли овчинка выделки? По мне так это лишние проблемы ради каких то жалких 10%.

                                    0

                                    Зато цену на CMR-диски подняли на радостях чуть ли не на четверть. WD Red и так были не дешевы, мягко говоря.
                                    Извлечение прибыли из переименования…

                                    +3
                                    Интересно, а почему заведомо лживая статья, вводящая в заблуждение читателей имеет положительный рейтинг на Хабре? Вот это утверждение
                                    DMSMR-накопители WD Red, оптимизированные для использования в составе малых NAS на 8 отсеков, станут отличным выбором для системы архивирования или резервного копирования, предполагающей долговременное хранение бэкапов.

                                    настолько лживое, что как я помню стало предметом судебного рассмотрения в США. Не поделитесь — договорились уже до чего-то?

                                    Тем более, что в коментах выше восторга, мягко говоря, нет?

                                    У меня вот на столе лежит DM-SMR диск, который мне пришлось заменить на нормальный, так как надоело выпадание из массива в малом NAS. Куда б такое убожество приспособить, не подскажете? Мой диск чисто случайно оказался от Сигейта — но лгали потребителям обе фирмы в унисон.
                                      +2
                                      SMR хлам пригоден для сбора мусорной машинки формата «В интернетике посидеть, музычку послушать», хотя куда оной девать терабайты я не знаю. Для серверного и около-серверного применения (особенно с аппаратным рейдом) — непригоден совершенно, если он только не в режиме «только чтение» используется.
                                        0

                                        При замене одного из накопителей в raid на вот такой вот диск, его весь потребуется перезаписать одномоментно, чего сделать не получится из-за диких задержек при записи. Массив просто не дожидается ответа от диска и маркирует его как сбойный. Поэтому, даже в режиме "только чтение" использовать его не особенно то и получится. Разве что диск будет стоять в массиве прямо при его создании.


                                        А вот в уже работающий массив его не установить никак.

                                          +1
                                          Чисто теоретически — будет можно, rebuild rate надо выставить совсем мизерным (1-10мб/с максимум) и тогда этот макет жёсткого диска будет успевать свой «кеш» писать в черепицу. Но вот «Array Rebuilt Estimated — 14 days 8 hours» или около того порадует всех.

                                    Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.

                                    Самое читаемое