Pull to refresh

Comments 72

Интересно, почему диск Samsung 840 Pro 256GB во всех тестах показал максимальную скорость, а в последнем минимальную.
На графиках, кроме последнего — замеры скорости, которые производились на очищенных дисках. На последнем — результаты непосредственно самого эксперимента. На нем по оси X отмечена средняя скорость цикла. А каждый цикл — запись 10 ГБ. Когда оставалось свободным 23 ГБ диск очищался. Samsung после очистки имел самые высокие показатели, которые быстро падали по мере записи.
Это происходит из-за особенностей реализации wear-leveling — механизма уменьшения износа и распределения данных по страницам. Предполагаю, что алгоритм Samsung-a самый хитрый и вычислительно сложный, зато, судя по рекордному количеству записанных данных, самый эффективный в плане уменьшения износа.
А как эти ТБ перевести в годы жизни диска, который используется для разных целей, вроде «только система»/«система и рабочие программы»/«игры»?
1 PB ресурса для диска на 250 GB в повседневном использовании это далеко за пределами морального устаревания.
В целом — никак, можно только замерить, сколько на конкретно твоем компе чтений-записей в месяц например проходит, разделить на 30 и получишь в среднем в день.
Потом взять 2ПБ и поделить, получишь от 5 лет и больше я думаю :)
Здесь, скорее, актуальнее показатель mean time to failure в часах — для SSD он повыше, чем у HDD и приближается к миллиону.

У Toshiba есть толковая брошюрка по этому вопросу, смотрите №4-5: www.toshiba.com/taec/news/media_resources/docs/SSDmyths.pdf

Переводя это всё на человеческий язык — игнорируйте советы не класть swap file и temp на SSD, всё равно не укатаете его до пределов, заложенных производителем. Но и backup делать всё равно нелишне — какой бы носитель вы не использовали.
Можно воспользоваться софтиной SSDLife.
Но вообще всё зависит от того, как много данных в сутки пишется на диск.
Моего, к примеру, еще почти на 7 лет должно хватить.

image
Странно что с вашего диска читается информации меньше чем на него пишется! Я считал что в большинстве случаев бывает наоборот.
когда-то эта софтина стала показывать, что процент здоровья моего SSD уменьшается. Дойдя до нуля, он снова стал 100% и все продолжилось по новому кругу. Накопитель реально умер через 2 месяца.
OCZ-AGILITY3 (OCZ-6D89Z2UHIRH21QVV) 4 года в использовании, по началу был системным и файлопомойкой, сейчас просто файлопомойка. 15 ТБ на запись выработанный ресурс.
TOSHIBA THNSNH256GMCT (43HS101YTOMY) года 1,5, системный. К сожалению в смарте нет пояснений к некоторым параметрам, так что трудно сказать. Есть что-то похоже на 150 и 180 тысяч но МБ это мало, а для ГБ много. Есть ещё 7 миллионов, может это 7ТБ…
Crucial_CT512M550SSD1 (14360D97EC74) где-то полгода. Системный и помойка. 853 ГБ.
Спасибо за перевод, он пригодится. А то выяснилось, что дремучая предубеждённость против SSD в интернетах сильно коррелирует с незнанием английского — спорщики на форумах просто неспособны осилить оригинальную статью на Tech report.
Из всех SSD, которые юзал, гавкнулся только Intel 520 серии, при чем не где-то, а дома ;(
Примечательно, что все диски вообще переставали работать после заполнения резерва секторов и перезагрузки. Видимо, БИОС прошит как раз в конце адресного пространства, и он затирался данными. Удивительно, что от этого не предусмотрели никакой защиты.

Непонятно почему эта же проблема коснулась интела, который перешел в r/o…
BIOS на отдельную микросхему, видимо, посадили. (И правильно сделали, я ещё б две микросхемки для резервирования запилил, особенно если речь идёт о корпоративном ссд, а не о домашнем).
Тоже не понимаю этого. Ну забились все сбойные сектора, ну нельзя больше на SSD писать, но данные то почему пропадают после перезагрузки? Ячейка изнашивается настолько, что даже не поддаётся чтению?
Давно на своей шкуре понял, что морально компьютеры устаревают горазд быстрее, чем физически. Поэтому за шкафом стоят два рабочих системных блока, которых заменял из-за морального устаревания. За кучу лет делал всего один апгрейд, когда материнская плата треснула под весом тяжёлого кулера… Поэтому поставил себе SSD не беспокоясь о времени его жизни. Всё-равно сменил его на новый прежде, чем он хоть насколько-то стал хуже. Сперва был 40 и 60 гигабайтный, сейчас 128. Хотел поставить 512 на НГ, но кризис…
Думаю, этот тест показал единственно важную проблему — некоторые диски молча превращаются в кирпич. Т.е. если заранее не озаботился скопировать данные, то сам виноват. Что лишь подтвердило давно озвученную истину, что SSD для системы и программ, а данные записываются на более надёжный носитель и бэкапятся.
>что морально компьютеры устаревают горазд быстрее,
к слову, время официальной поддержки RHEL 7 лет.
Вопросы автору, если они будут, предлагаю собирать под этим комментарием, чтобы все было сгруппировано.
Хотелось бы узнать, как часто производились перезагрузки. Раз они окирпичивались именно после перезагрузки, может ребут на что-то влияет? Типа включение-выключение для них тоже вредно, а не только перезапись.
Во время инициализации диска контроллер считывает информацию о размещении блоков в свой RAM и поддерживает ее во время работы. Если запись служебной информации на диск произойдет неудачно, то в RAM она все еще актуальна. А после перезагрузки попытка чтения провалится. Но это мои предположения.
Несколько лет назад, когда SSD только появились, то о режиме «только чтение» говорилось, что SSD превращается в некое подобие CD-ROM. Т.е. записать данные нельзя, а считывать можно. Но об окирпичивании тогда речи не шло. Так что или что-то принципиально поменялось или программно диск умерщвляют. На мой взгляд — зря. Если на диске фильмо-помойка, то режим «только чтение» не сильно на него повлияет. Думаю, это заговор производителей.)
Ниже уже был вопрос-предложение от Rumlin — интересно знать, какая начинка («внутренности SSD и маркировку микросхем») и (это уже от меня) в какой период были выпущены эти диски (интересно потом, если кто-то проведет подобный тест, узнать, были ли изменения в качестве/логике работы в последующих партиях).
Показатели очень хорошие. Выше, чем заявлено производителями, видимо они с запасом пишут. Это радует. Например Kingston для данной модели указывает ресурс в 765TB. Хотя возможно методика тестирования различается.

Ещё интересно бы было посмотреть на такие же тесты накопителей рассчитанных на корпоративное использование и на работу в серверах. Там на сколько я знаю отличаются критерии надёжности и способы замеров.
Жалко в обзор не попали диски от OCZ — до сих пор работают все их старые «добанкротные» диски. Искренне обрадовался их возвращению на рынок. А новые Vector заявлены, как «короли износостойкости», было бы интересно проверить.
У меня Vector начал накрываться через несколько месяцев в качестве системного в windows7. Теперь я обновил ему биос и смотрю что будет.

На самом деле все эти тесты бессмысленные — кто гарантирует, что на самом плохом SSD был старый биос или просто некачественный экземпляр?
У меня есть Vector2 и Vector3. На них не очень удачные чипы стояли и деградация скорости очень большая была. Стояли в качестве системных, скорость записи упала до 20 мегабайт/сек. Vertex2 стоял под ХР, там вообще страшные вещи с им творились… Больше не рискнул их покупать, хотя они и перешли на более совершенные чипы и проблем с trim не имеют больше. Но осадок-то остался.
Читал про кучу проблем с Векторами. Судя по всему, самые надежные из ихних моделей все еще Вертексы (3/4).
Почему вот только они дохнут. Ну переходили бы в глухой Рид онли. Это было бы не так катастрофично. У меня был ssd adata какой то дешманский. За два года он загнулся, но не наглухо а в режим только чтения. Так я на нем еще месяц жил без особых проблем. Ну перезагружался два три раза в день да и только. Зато все данные целые были. Потом его склонировал на новый диск и поехало все дальше.
Переходить в рид-онли возможно далеко не всегда:
1) Умер контроллер.
2) Нарушилась целостность служебных данных.
Для равномерного износа контроллер не может записывать в тот физический блок, в который его просят (например, к началу диска происходят более частые обращения из-за таблиц файловой системы). Поэтому, контроллер должен иметь таблицу соответствий логических и физических блоков. И тут появляется куча проблем: а где ее хранить? Где искать? А еще учесть, что перезаписывать нельзя. Только стирать целыми блоками. Поэтому, контроллер хитро гоняет ее по всему диску. И если что-то в ней не удастся прочитать, то получим беспорядочную мешанину блоков.
А что мешает целенаправленно уйти в блокировку записи до того как случится неизбежная потеря информации. Да это чуток уменьшит ресурс, но ценность данных не в пример важней
> У SSD этой модели есть одна особенность — они прекращают работу, как только появляются сбойные сектора
Вот так?
прекращают работу, как только появляются сбойные сектора. Сразу после этого накопитель входит в режим чтения, а затем и вовсе превращается в «кирпич».

По моему последнее явно лишнее. В кирпич он не должен превращаться ни в каком раскладе. Ну кроме явного выхода электроники из строя.
Вроде бы появление сбойных блоков не такое уж редкое явление. Контроллер может, например, выделить 2% резервных блоков для их замещения. Когда контроллер читает или записывает страницу он проверяет ее корректность с помощью кодов исправления ошибок. Ошибку в одном бите точно можно исправить. Возможно, процесс появления нечитаемых бит происходит во время всей жизни, поэтому контроллер не паникует. Пока однажды он внезапно не сможет скорректировать ошибку.
Всегда же можно предусмотреть некий лимит после которого гарантированный Рид онли. Без всяких кирпичей.
Окирпичивание всё таки надежнее для сохранности данных. А вдруг там контроллер поехал умом и станет всё равно писать? Поэтому как только что-то пошло не так, контроллер принудительно переходит в режим кирпич. Диск передается специально обученным людям и данные извлекаются.
С чего бы это. Слет с катушек это поломка. Он может и сразу после начала эксплуатации крышей потечь. А уход в Рид онли это должна быть совершенно штататная плановая ситуация завершения жизненного цикла. В этом случае диск становится действительно безотказным. Он не ломается, а безопасно блокируется. Это логично и правильно.
С каждым чтением ячейки она разряжается и также чтение ячейки влияет на соседние, также там идёт процесс дозаряда ячеек, чтобы не потерять 1. Если запись, а т.е. пополнение заряда не возможно, то и чтение скоро нагнется из-за невалидности данных. Тут если только действительно заранее в ридонли, до выхода из строя.

У Intel, вроде, это является фишкой. По достижении некоторого порога записанных данных, SSD переходит в режим read only. Таким образом, устройство гарантировано от потери данных, но это обходится заметно дороже.

У меня это произошло с очень дешёвым AData, одним из первых купленных ssd. На 10 чтоль гб был. Очень прикольно работать под виндой которая рид онли. Свопы вынесены были на другой диск, поэтому винда работала норм. Но аптайм был не более 8 часов. Потом начинала разваливаться. После перезагрузки как новая :) на 8 часов.

Если знать когда она случиться, можно заранее приобрести новый накопитель и склонировать его, но УВЫ неисправности обычно случаются внезапно и непрогнозируемо. Есть только матожидание по результатам опытов над подопытными накопителями и/или статистика с реального использования и есть прогнозируемый срок службы, который, впрочем, тоже имеет ряд условий и носит вероятностный характер.

А всё таки, если диск отказал и уже не умеет записывать, то как с него вытянуть данные?
Раньше думал, что он просто переходит в режим RO и это позволяет вполне успешно вытянуть данные, а оказывается что всё не так хорошо…
Во всём интернете пишут, что только контроллер диска знает, где какие данные записаны. И данные восстановить штатными средствами невозможно. Типа, сперва нужно выпаять контроллер с TRIM'ом, чтобы он данные не похерил при включении, а потом делать дамп всего диска и пытаться из мусора собрать что-то осмысленное… Всё очень плохо с этим.
> У SSD этой модели есть одна особенность — они прекращают работу, как только появляются сбойные сектора

Кто, интересно, до такого додумался.
Ничего удивительного. Часть диска используется контроллером для своих внутренних нужд. В частности, в памяти размещается таблица соответствий логических и физических блоков, которая постоянно изменяется и перемещается по сложным алгоритмам.
пример схемы работы таблицы соответствий блоков


Если что-то из нее не удастся прочитать, то контроллер не сможет воссоздать правильный порядок блоков.
Поэтому, возможно, перевод в рид-онли, не дожидаясь пока посыпятся другие ячейки (со служебными данными), это правильно.
В read-only — ради бога. Хотя даже это должно настраиваться — SSD может использоваться в качестве кэша с дополнительными проверками контрольных сумм (например, в ZFS L2ARC), в таких условиях мне совершенно наплевать что он время от времени теряет данные целыми пачками блоков.

Но в статье же идёт речь о смерти без возможности чтения.
Драйвер запрашивает у диска 123-й сектор, например. Как диск его найдет, если таблица запорота?
Очевидно что никак не найдёт и вернёт ошибку чтения.
Я бы не доверял такой статистике. По одному образцу каждой модели — это не статистика, а измерение уровня «везучести» автора исследования ) Если бы автор взял каждой модели хотя бы по 3 штуки — все же какой-никакой научный подход.
По 3 штуки такой же научный подход, как и этот. И по 5. И по 10. Есть ведь разные серии, разные материалы, объемы. Реальная проверка это где-то 1% от всех дисков, чтобы получить достоверную статистику.
Главный вывод, который в принципе подтверждается вот такой вот выборкой — заявленные объемы информации они обрабатывают, что в общем-то неудивительно. Потому паспортным данным можно доверять. После срока — используется на свой страх и риск, с учетом поведения контроллера.
В свое время Гугл опубликовал исследование для обычных HDD, где одним из сюрпризов было отсутствие убедительной связи температуры диска с его поломкой.

Пожалуй, до сих пор, единственное в своем роде. Там нет упоминания производителей дисков, но насколько я помню «из утечек» — победил WD. Сейчас многие облака переходят на SSD, ждем )
Это главная проблема всех подобных исследований — никто не уверен на 100% в результате. Потому и не разрешается называть производителя. Мелкосерийные тесты можно отбраковать как «нерепрезентативные», многосерийные требуют денег, так что при риске судебного дела очернять репутацию никто не будет (может ведь быть недостаток у методики выбора тестируемого оборудования).

Поскольку 6 разных дисков свой ресурс отработали, то можно предположить, что диски этого периода проработают весь заявленный срок с некоторой достоверностью (думаю, там где-то 95%). Проблема в расширяемости этих результатов. Изменят техпроцесс производства или сменят поставщика каких-то деталей — и результат этого исследования уже может быть неприменим.

Единственное место, где можно получить достоверные результаты — ОТК предприятия, только вот информация эта закрытая. Все остальные тесты на сегодня могут лишь указать на общие тенденции, не более.

В целом, учитывая рост отрасли, реальные результаты, которые можно будет без опасений применять к последующим выпускам, будут лет через 7-10, когда устаканиться весь процесс производства.
Вот-вот! О какой репрезентативности вообще может идти речь?

Конечно, выборка из 6 SSD не может служить показателем работы для всех SSD без исключения, но определенная репрезентативность у этой выборки все же есть.
Как я понял, цель исследования была не показать что модель А лучше модели Б, а показать что современные SSD диски, в большинстве своем, достаточно надежны. Для этого результата выборка из 6 дисков вполне репрезентативна.
UFO just landed and posted this here
Главная проблема SSD не в том, что они не отрабатывают свой ресурс, а в том, что производители слишком явно экономят на ОТК, и как следствие — очень высокий процент брака.
Если диск пережил первый месяц эксплуатации, дальше он с высокой вероятностью будет работать сколько заявлено. Но слишком уж часто новые диски этот месяц не переживают, причём основная проблема — низкое качество сборки. Вплоть до того, что там может просто «отклеиться» разъём, припаянный кое-как.
И производители похоже не видят в этом проблемы: мол, диски на гарантии, ну не повезло — меняйте, бесплатно же.
Но почему-то далеко не всем пользователям хочется становиться тестерами, проверяя, не брак ли им попался.
Отдельно «радует» то, что брак обычно идёт не поштучно, а сразу партиями. Т.е. если вы купили партию SSD, и один из них сдох в первую же неделю, то и все остальные скорее всего помрут столь же быстро.
Поэтому нередки случаи, когда пользователь покупает SSD в небольшом компьютерном магазинчике, потом диск дохнет, пользователь его меняет в этом магазине… на другой из той же партии, и он точно так же дохнет. После третьего сдохшего SSD пользователь будет шарахаться от этой технологии как от чумы.
Фактически тестеру осталось только продемонстрировать зрителям внутренности SSD и маркировку микросхем.
2 терабайта за 8 лет, считай практически не пользовались.
4 месяца. 8 лет ему жить осталось.
Он взял шесть моделей накопителей: Corsair Neutron GTX, Intel 335 Series, Kingston HyperX 3K, Samsung 840, Samsung 840 Pro
А шестой-то диск какой?
Судя по оригинальной статье, было два диска Kingston HyperX 3K — один в режиме с компрессией, второй без. Об этом же можно догадаться, глядя на легенду к графикам.
Я предполагал, но не думал, что режим компрессии в диске можно отключать. Разве что он искусственно в один лил файлы, которые хрен сожмёшь, а в другой — обычные. Что-то такое было в статье.

Короче, мораль получается такая: если хочешь, чтобы SSD долго работал, нужно покупать самсунги серии pro, то железу они — самые крутые безо всякой компрессии.
Я один ничего не понял?

Следующим отказал Kingston HyperX 3K — у модели тоже есть инструкция прекращать работу при появлении ряда сбойных секторов. К концу работы устройство начало выдавать уведомления о проблемах, позволяя понять, что конец близко. После отметки в 728 ТБ накопитель перешел в режим чтения, и после перезагрузки перестал отвечать.

А ниже мы видим

Осталось всего две модели Kingston и Samsung 840 Pro, которые героически продолжали работать, достигнув отметки даже в 2 ПБ.

И как это понять? Kingston HyperX 3K — SSD Шредингера?
В тесте использовалось два Kingston HyperX 3K. Один вышел одним из первых, второй одним из последних.
Судя по фотке появились подозрения.
Условия теста разные — проверяли насколько положительно влияет компрессия данных:
Among our test subjects, only the SandForce-based Intel 335 Series and Kingston HyperX 3K SSD can compress incoming data on the fly. We'll be testing all the SSDs with incompressible data to even the playing field. To assess the impact of SandForce's DuraWrite tech, we'll also be testing a second HyperX drive with Anvil's 46% «applications» compression setting.

Купил себе такой HyperX 3K, именно из-за этого теста и трехлетней гарантии, пока нравится быстродействием.
Есть вопрос к автору — как много ошибок целостности записанных данных он словил, и в какие моменты? Хотелось бы увидеть график.
Интересны не столько конкретные модели, сколько контроллеры — по этим тестам видно что выиграл по сути самый мудрёный алгоритм, а значит, контроллер в который он заложен. А контроллер может разными производителями дисков использоваться. И алгоритмы обычно наследуются в новых моделях.
Intel 335 Series. У SSD этой модели есть одна особенность — они прекращают работу, как только появляются сбойные сектора. Сразу после этого накопитель входит в режим чтения, а затем и вовсе превращается в «кирпич».

И похожее про другие модели.

«Затем» — это через какой срок? Т.е. вот у меня на системном диске появились сбойные сектора. Если он переходит в r/o, то с большой вероятностью продолжать работу система уже не сможет, т.е. мне нужно перезагрузиться в другую ОС, чтобы считать с него данные. Я успею это сделать? Это предусмотрено?
Sign up to leave a comment.

Articles