Pull to refresh

Comments 69

А ещё можно потерять данные на SSD на следующий день при нормальных условиях хранения: если его украдут, например.
Это очевидно и применимо для любых носителей информации. А вот описанное в статье для простого смертного отнюдь не очевидно. Легко найти (это вполне может оказаться даже просто в инструкции) для носителя допустимые диапазоны внешних условий — температура, влажность, вибрации и т. д. В итоге большинство людей приходит к выводу «ну вроде за эти цифры не выходит, значит всё будет хорошо». А это не так. Например, отсюда следует, что SSD плохо подходят для бекапов.
Повреждение информации — вероятностный процесс, насколько я понимаю. Как MTBF не говорит мне о том, когда мой жёсткий диск помрёт, так и эти цифры не говорят абсолютно ничего полезного. Кроме как, «если хранить SSD при более высокой температуре, то он помрёт раньше».
Все привыкли, что бездействие обычно более безопасно, чем действие. То есть, если хочешь, чтобы носитель информации сохранил данные подольше (разумеется, в разумных пределах времени — за десятки лет любой носитель испортится, но большинству интересны периоды времени покороче) — положи его в сейф, а не используй каждый день. А тут получается, что это может оказаться хуже, чем таки непрерывно его использовать. Более того, длительность хранения информации зависит не только от условий хранения, но и от условий записи.
Хм, точно. Этот момент я упустил.
Например, я получил из этой статьи совершенно не очевидную информацию — если планируется хранить SSD при повышенной температуре, то и запись на него следует производить при повышенной температуре. При том разница существенна. Из той же таблицы для пользовательских SSD — если записать при 25 градусах (идеальные условия для электроники), а хранить при 55, то вероятный срок хранения будешь лишь 1 неделю, а если запись тоже производить при 55 градусах, то целых 8. Разница в 8 раз может сыграть огромную роль. А ведь совсем не очевидно. Если не знать физическое устройство и особенности SSD и не прочитать такую статью, то любой пользователь решит, что надо минимизировать время воздействия высокой температуры и, раз не получается хранить при 25 градусах, но можно хотя бы записывать в комфортных условиях, то надо делать именно так. И скорее всего лишиться своих данных через неделю офлайна.

С другой стороны запись в агрессивных условиях, а потом хранение в комфортных тоже может дать немалую выгоду.
Быть может я неправ, но мне кажется, что рядовому пользователю будет проще диск по гарантии поменять, чем вот так заморачиваться.

В любом случае, исследование попахивает фейком либо очень сильно перевранной информацией. Если рассматривать отдельно взятый блок flash-памяти, к которому не обращались год, то шансы на выживание у него должны быть такие же, как и в случае выключенного диска. По крайней мере технология flash-памяти не включает в себя механизмы регенерации, как в DRAM, поэтому было бы довольно странно, если бы такая ячейка памяти хранила информацию дольше при поданном питании.
Диск то по гарантии поменять можно, более того, он по логике не должен дохнуть, просто потерять данные, но оказаться полностью исправным после перезаписи. Проблема в том, что пользователь потеряет ценные данные. А раз диск долго не использовался, то данные как раз таки могут оказаться какими-нибудь бекапами. Ну или, скажем, пользователь может надолго отлучиться (от отпуска и путешествия до призыва в армию), а потом обнаружить, что все его данные утеряны.
Мне кажется, что даже самая ущербная usb-флешка не может просто так потерять данные и не пометить сектор как сбойный. Хотя бы потому, что между данными во flash-памяти и данными пользователя есть прослойка из скремблирования и помехоустойчивого кодирования.
Ну качественный контроллер по идее должен попытаться отформатировать ячейку прежде чем считать её безвозратно утерянной. Это позволит как раз таки избежать подобных случаев, что диск накрывается, хотя физически он исправен, хоть и потерял данные.
Он-то её отформатирует в итоге, да. Но если факт сбоя не будет никак отражён хотя бы в том же SMART, это будет свинство со стороны производителя. Данные потерялись, ответственности никакой.
Разумеется, но суть в том, что диск должен остаться работоспособным. И в SMART должно быть помечено именно, что ячейка восстановилась после перезаписи, а не что она больше никогда работать не будет.
В жёстких дисках тоже есть процедура перераспределения, после которой сектор становится «хорошим». Но это ведь не значит, что с диском всё хорошо, правда? Так и здесь, наличие таких «однажды сбойных» секторов по-моему должно быть весомым аргументом для замены диска по гарантии.
Принцип хранения информации в SSD основан на хранении заряда в конденсаторе.
Современные флешки имеют очень большую плотность информации, и, как побочный эффект, большие токи утечки заряда. Со временем конденсатор разряжается и информация теряется. Высокая температура резко увеличивает ток утечки.
Во включенном состоянии контроллер периодически перезаписывает информацию, т.е. восстанавливает заряд на конденсаторе.

Разрядившийся конденсатор не становится неисправным.
www.explainthatstuff.com/flashmemory.html
Не совсем конденсатор конечно, а транзистор с плавающим затвором, в который инжектируется заряд. Но в целом физика процессов похожа.
Не перепутал.
Плавающий затвор является одной из обкладок конденсатора.
Диэлектрик из-за большой плотности получается очень тонким. Отсюда большой ток утечки.
В добавок заряд не 0 или 1, а многоуровневый. Потому так сильно влияет утечка.
Кстати, основное отличие от DRAM в том, что конденсатор заряжается/разряжается путем пробоя диэлектрика, а не ключом. Потому и плотность больше т.к. транзисторов меньше.
Контроллер хранит таблицу всех блоков flash-памяти в которой есть количество циклов перезаписи этого блока и когда была его последняя перезапись.
Если какой-то блок очень долго (сколько именно это зависит от конкретного контроллера и от конкретной микросхем флэша — на усмотрение производителя) не обновляется в процессе обычной работы, то контроллер считает из него данные и переместит в другой блок, а этот пометит свободным для записи других данных. Это нужно как для выравнивания износа, так и для предотвращения потери пользовательских данных из-за утечки зарядов в ячейках.

В результате при адекватном контроллере и заложенных в нем алгоритмах пока диск в работе (или хотя бы подключен к питанию) вероятность потери данных из-за утечек заряда в ячейках флеш-памяти сведена к минимуму. Но как только SSD диск оказывается отключен от питания она начинает расти. И растет тем быстрее чем сильнее изношен диск (по количеству циклов перезаписи).

Т.е. это не механизм присущий самой флэш памяти, а SSD как устройству в целом. (и хорошим флешкам).

Сама флеш-память не имеет механизмов, но этим постоянно занимается контроллер твердотельного диска, который постоянно перегруппировывает данные по мере их изменения.

А если по существу: где хоть какая-то конкретика? Что потеряется через неделю? Один бит на флешке с возможностью восстановления, один бит без возможности восстановления, данные в секторе, данные на всём диске?
Кстати, по поводу «низкого потребления» — это достаточно спорный момент. У меня два SSD, при этом перед покупкой я специально выбирал их в том числе и по параметру потребляемого тока, так как ставить собирался в ноут. Так вот в ряде случаев HDD даже меньше жрут чем они. Может быть там указано пиковое потребление, я не уверен, но ноут по результатам тестов заметно дольше жить не стал, хотя вроде как указанное на этикетке SSD потребление было чуть меньше стоявшего ранее HDD.
Несмотря на вращающийся с дикой скоростью блин, потребление диска куда меньше потребления остальных устройств. Таких как подсветка экрана, и, да-да, нагревательного элемента.
В серверах оперативка — второй потребитель электричества после ЦП.
Указывают максимальное потребление. И там и там. Вот только HDD практически постоянно тратит энергию на вращение диска, а SSD только во время активности и «засыпать» может чаще и быстрее чем HDD без ущерба производительности.
Увидел заголовок, и меня аж передёрнуло. На базе того же доклада сделали перевранную информацию, бурно гуляющую по соц. сетям, о том, что любой ssd нельзя бросать без питания, при любой температуре. А при повышении температуры на 9 (я не знаю почему они решили взять такую) уменьшается объём диска в 2 раза. Транзисторы там что-ли по их мнению спекаются попарно или что, но люди верили.
Спасибо, что донесли правдивую информацию и спасли меня приступа.
Странно, что никто еще не спросил — получается, лучше всего хранить SSD в холодильнике?
А, теперь понятно, почему забытый летом на даче на солнце на месяц нетбук с дешевым SSD A-DATA 60GB потерял как минимум загрузочный сектор. SSD форматнулся в нормальный объём и был отдан знакомому с предостережением «скоро сдохнет», надо узнать, что с ним дальше было
Реально не знал что SSD такой ненадёжный. Всегда сравнивал их с флешками которые могут годами лежать в ящике стола и ничего им не будет.
Видимо к флешкам это тоже относится.
SSD использует более плотные ячейки чем во флешках, с увеличением плотности падает гарантированное время хранения информации и количество циклов перезаписи. Канули в лету те 128Мб флешки которые имели ресурс 1млн перезаписей и срок хранения информации 40 лет при 25 градусах.
Технологии конечно совершенствуются, но ныне мы имеем чипы с характеристиками 1500 гарантированных перезаписей и 2 года хранения при 25 градусах, но объемы 256Гб-512Гб-1024Гб.
Итого, объём вырос в 8000 раз, ресурс уменьшился в 1000 раз а срок хранения в 20 раз. Прогресс в принципе налицо.
Массовые USB флешки становятся более дешевыми не просто так. В них часто ставят дешевые TLC чипы, их изготавливают по все более тонким техпроцессам, имеющим меньшую надежность (стоимость производства чипа определяется его площадью, и если usb flash стали дешеле и увеличили объем, значит на той же площади разместили больше данных). Просто в SSD те же (или чуть более современные) чипы упаковываются плотнее. И еще в некоторых usb и всех microsd используются чипы меньшей площади.
Интересно, играет ли какую-то роль здесь технология изготовления? (SLC-MLC-TLC)?
Насколько я знаю, промышленные ссд обычно стараются делать по технологии SLC — и тем более это довольно странно звучит.
SLC, MLC и TLC — это технологии использования; иногда чипы могут использовать часть объема по менее плотной технологии (SLC формат для части MLC и TLC чипов). Есть диапазон хранимых в ячейке напряжений, в SLC используется 2 уровня, в MLC — 4 уровня, в TLC — 8 уровней. Со временем и при износе появляются вариации заряда ячеек, соответственно чем больше было уровней, тем плотнее они друг к другу расположены, и тем сложнее их разделять друг от друга после износа или утечки части заряда. (примерная схема есть в www.iaesjournal.com/online/index.php/TELKOMNIKA/article/download/4616/pdf на стр 2 — после частичного износа ячейки уровни расширяются)

Промышленные SSD раньше делали по SLC, сейчас все больше переходят на MLC (enterprise MLC) и постепенно пытаются продвигать TLC в этот сегмент (пример; MLC и TLC в 2 и 3 раза дешевле за единицу объема чем SLC); на начало 2014 года поставки SLC-чипов составляли менее 1.5% рынка www.bswd.com/FMS14/FMS14-Abraham.pdf (Architectural Considerations for Optimizing SSDs — Micron, aug 2014) слайд 8. На слайде 16 — графики с количеством электронов на ячейку (слева, для MLC видимо еще поделили на количество уровней — т.е. сколько электронов соответствует разнице между уровнями) и динамика по времени. Чем тоньше (современнее) техпроцесс, тем хуже с надежностью (количеством циклов стирания) и у SLC и у MLC; для современных чипов требуется более сильные коды коррекции ошибок (ECC). SLC имеет несколько лучшие параметры по количеству циклов и требует немного меньше ECC чем MLC.

Possible to optimize endurance for data retention (examples below)
• Consumer MLC NAND: 3K cycles, 1 year retention
• Enterprise MLC NAND: 10K cycles, 3 months data retention

19: Some MLC and TLC NAND Flash have the ability to
write and read data in SLC mode
* Smaller block size; mode is determined block by
block and managed by the SSD controller
• MLC (X pages per block)  SLC Mode (1/2 X)
• TLC (Y pages per block)  SLC Mode (1/3 Y)
О чём я и говорил. Очевидно, что дестабилизировать ячейку, где каждый уровень занимает (условно) 50% от всех возможных уровней заряда, сложнее, чем ячейку, где уровень занимает 25% или, тем более, 12,5%.
Логично было бы промышленные накопители делать максимально устойчивыми ко всевозможным внешним воздействиям, и странно, что даже там сейчас идёт упор на удешевление, а не надёжности.
Проще добится надежности дублированием/резервированием чем пытаться сделать «вечную» вещь.
А каким образом время хранения зависит от температуры при эксплуатации? Типа, ячейка записанная при 50°С имеет больший потенциал чем записанная при 20°? Может тогда стоит ставить в корпусах SSD поближе к процессору чтоб подогревались?
При высокой температуре плавающий затвор NAND захватит больше электронов, соответственно, деградация заряда будет идти дольше.
А к флэшкам это относится? Или там плотность информации по площади кристалла маленькая, и данные деградируют в миллионы раз медленнее?
Всего лишь в тысячи(по сравнению с очень старой технологией по которой делали еще 128Мб флешки) а для современных и того меньше — сейчас они тоже приближаются к характеристикам SSD по надёжности хранения, но пока еще отстают.

Эх, я бы не отказался от современной флешки на 128Мб с низким ресурсом(800...1500 циклов) но очень низкой ценой порядка 0.1$-0.5$, был бы прекрасная замена для «дисков с драйверами» и аналогичным применением.
Кстати, согласен ) Недавно искал флешку на 1Гб для Live-flash линукса… ниже 4Гб не нашел… Не сказать, что опечален сильно, но… нафиг мне такая флешка, где 3/4 будут пустовать?

Сделайте зеркалирование. И место используете, и надежность повысите.
Плюс, у некоторых современных флэшек есть какие-то зачатки wear leveling'а, т.е. сколько-то места можно и неразмеченным оставить.

Какая разница сколько будет пустовать, если стоимость одинаковая? От "зачем мне так много" до "почему так мало" всего один шаг...

В самое начало данной статьи нужно добавить, что результаты исследования относительно потери данных относятся к SSD, которые уже выработали свой заложенный производителем ресурс по количеству циклов перезаписи. Новые же накопители и по десять лет спокойно сохраняют информацию. Так что публикация несколько вводит в заблуждение и сеет ненужную панику.
А можно минусующих попросить как-то аргументировать свою позицию?
> что результаты исследования относительно потери данных относятся к SSD, которые уже выработали свой заложенный производителем ресурс по количеству циклов перезаписи
Вы такое утверждение в www.jedec.org/sites/default/files/Alvin_Cox%20%5BCompatibility%20Mode%5D_0.pdf нашли?
Хотя в www.anandtech.com/show/9248/the-truth-about-ssd-data-retention есть:
«Finally, the drive must retain data without power for a set amount of time to meet the JEDEC spec. Note that all these must be conditions must be met when the maximum number of data has been written i.e. if a drive is rated at 100TB, it must meet these specs after 100TB of writes.» (не совсем ресурс по стираниям, это рейтинг от производителя, в пределах которого действует гарантия)

> Новые же накопители и по десять лет спокойно сохраняют информацию.
Новые накопители, выпущенные в 2015 году еще не хранились 10 лет без питания (есть только эксперименты при повышенных температурах). Накопители, выпущенные в 2005 году могли храниться 10 лет без питания, однако в них использовался более «толстый» техпроцесс и ячейки имели намного более высокие характеристики (SLC и MLC а не TLC, десятки тысяч стираний вместо единиц и долей тысяч, физически в ячейках на порядки больше электронов).
Ну, начать следует с того, что прочитать название презентации, на которую Вы ссылаетесь: «JEDEC SSD Specifications
Explained». То есть, презентация просто разъясняет те требования, которые JEDEC предъявляет к производителям SSD для стандартизации спецификаций. И на странице 25 и далее там рассказано, как надо считать надёжность. Сохранность данных на отключенном SSD в течение некого периода времени — это просто требование, и если оно не выполняется, то такой накопитель согласно JEDEC не считается исправным. И это значит, что в течение всего срока эксплуатации эти требования выполняются, в том числе и в самом худшем случае — при окончании ресурса.

Далее можно обратиться к тому, как считает надёжность Intel — приведённые таблицы ведь взяты у этого производителя, о чём явно указано в презентации. Если взять любой даташит на серверную модель SSD (например), то там будет чётко описано, что согласно стандартам JEDEC, Data Retention — это the time period for retaining data in the NAND at maximum rated endurance. Кстати, для DC S3500/S3700 этот период составляет 3 месяца при 40 градусах — как, собственно, и положено.

Ну а 10 лет — это оценочный прогнозируемый срок хранения данных в новых ячейках MLC NAND. Понятно, что практика может отличаться как в большую, так и в меньшую сторону, однако ж речь будет всё равно идти не о неделях, а о годах.
и всё же, есть ли документ, в котором приводятся данные о том, сколько (по мнению производителя) должны храниться данные на SSD, выработавшем ресурс только на 50%, 20%, 10%?

И большое спасибо за разъяснение, а то я начал волноваться и градусы считать.
Я таких документов не встречал, к сожалению. Максимум, что говорят производители: «Для длительного хранения данных используйте HDD».
И тогда последний вопрос, возможно детский — все обсуждаемые в посте страшилки касаются только обесточенного SSD? В реальных условиях, при штатной работе в составе исправного сервера в качестве накопителя данных, SSD же не может потерять информацию, которая просто давно записана?
Нет конечно. Миллионы людей во всём мире используют SSD, например, как системные накопители, куда один раз и навсегда записана ОС и файлы которой потом не перемещаются и не изменяются. Как показывает практика, проблемы в таком случае могут возникать только у самсунговских накопителей на базе TLC, но это — признанный производителем баг, а не нормальное поведение. Больше ни с какими моделями SSD подобных проблем не выявлялось.
Хорошо, спасибо!
ваш коментарий-возражение по ценности информации почти как сам пост.
Но если в отдельную ячейку не производится запись, а может быть из нее даже и не читают ничего — какая ей разница, есть питание на контроллере, или нет?
Некоторые контроллеры/прошивки имеют функцию периодического чтения и перезаписи блоков, имеющих много ECC-ошибок (а некоторым контроллерам такую функцию принудительно добавили — те самые Samsung 840 evo — tlc, со второй попытки и не для всех OEM-вариантов...).

Swissbit… 4) Auto Read Refresh: The controller reads the entire data stored in the device from time to time and compares the number of bit error against an ECC threshold. If the number of bit errors is above the threshold, the affected data is refreshed…
Panasonic SDUD / SDUC / SMGA Series have an automatic refresh function,…
hynix… Some blocks can be accessed continuously or remained for a long time without P/E and read operation. -> Unwanted errors are increased!!!
To avoid uncorrectable errors over ECC capability, data in these blocks are moved toward other blocks…
phison … SmartRefresh™ Read Disturb Monitor
Monitoring block ECC health status enables Phison flash controller to refresh blocks when necessary, in results improving data retention of the NAND cell. By implementing real-time media scan (RTMS) and idle-time media scan (ITMS), the data will be well protected as the NAND wears out over time.
А есть какая-то разница между хранением данных в новой ячейке или выработавшей свой ресурс?
Я так понимаю, что ресурс тратится именно на процесс записи, а не просто по времени?

То есть, верно ли я понимаю, что если включить SSD в сеть, и никогда на него ничего не писать, он должен работать вечно пока не поржавеет?
Есть конечно — чем сильнее ячейка «изношена», тем быстрее/вероятнее она потеряет данные при обычном хранении.
Деградация по времени вроде бы тоже есть (диффузия, фоновая радиация), но она намного менее значима чем деградация от перезаписи. Основной износ идет, когда повышенным напряжением «пробивают» барьер ячейки, чтобы загнать заряд (электроны) в ловушку за барьером. А вот для чтения этого «пробития» не требуется — сам факт наличия этого заряда влияет на свойства транзистора под ним и считывать состояние можно вообще не взаимодействуя напрямую с этим зарядом, поэтому при чтении деградации нет. Ну по крайней мере она не больше, чем при работе обычных транзисторов в любой современной микроэлектронике.

А зачем он нужен, если на него вообще ничего не писать (хотя бы несколько раз, например если данные в основном для быстрого чтения нужны, но перезаписываются редко)?
Совсем вечным конечно не будет, но сам флэш проживет очень долго. Скорее контроллер или кэш накроются, но если они качественные то десятки лет работы вполне возможны, дальше скорее всего их сильное моральное устаревание или несовместимость с новыми стандартами диск «убъет». Диск рабочий, но например уже и подключить некуда, т.к. SATA нигде уже и не осталось после замены его на что-то более новое.

Мои самые первые флэшки и самые тупые карты памяти(без контроллеров типа SD и MS), которые не насиловались большими объемами записи уже по 10-15 лет работают и до сих пор живы и читаются без проблем. Правда кому они сейчас нужны при объеме в 8-256 МБ…

А вот первый SSD работавший с довольно большой нагрузкой протянул всего около 2х лет и умер, 2й SSD за примерно 2,5 года израсходовал весь гарантированный производителем ресурс и «ушел на пенсию» (переехал в машину, где на него совсем мало пишется), чтобы не повторить судьбу 1го.
3й по счету SSD пока новый и еще бодрячком.
> А зачем он нужен, если на него вообще ничего не писать (хотя бы несколько раз, например если данные в основном для быстрого чтения нужны, но перезаписываются редко)?

Хранение отдельного бэкапа, отключенного от компа — тот самый «диск в сейфе на случай метеорита, шифровальщика и так далее».

Автоматические бэкапы важных данных делаются регулярно, но для них нужен постоянный доступ к носителю, вдобавок если что-то пойдет не так, и сгенерятся кривые архивы, они перезапишут старый бэкап. Хранить версионные полные бэкапы — накладно.

Поэтому выгодно просто изредка доставать с полочки носитель, подключать и выполнять синхронизацию вручную, что гарантирует что в этот момент я уверен, что данные адекватны.
Ну для бекапа намного логичнее обычный внешний жесткий диск(HDD) убранный «на полочку» (в сейф) выглядит, чем SSD.

А так я похоже просто не так понял фразу «что если включить SSD в сеть, и никогда на него ничего не писать, он должен работать вечно пока не поржавеет»
Я ее воспринял, как включить диск и держать включенным(подключенным), но ничего на него не писать. И не понял зачем вообще так делать.

А так да, если диск новенький (с минимальным износом по записи), сбросить бекап на него, да еще еще в прохладном месте хранить, производители обещают не меньше нескольких лет(до 10 для MLC и и совсем не изношенных ячеек) сохранности данных без обновления. А при подключении(для следующего бекапа) контроллер и прошивка сама должны определить самые старые (давно не переписывавшиеся) ячейки и обновить их автоматически, после чего данные еще несколько лет должны храниться, ну и просто при записи свежей версии бекапа скорее всего данные окажутся перезаписаны заново.
И так далее, циклов от этого будет мало, диск скорее всего полностью устареет/окажется не нужен раньше чем выйдет из строя.

Копия презентации в архиве: http://web.archive.org/web/20141031164835/http://www.jedec.org/sites/default/files/Alvin_Cox%20%5BCompatibility%20Mode%5D_0.pdf


Пояснения, которые автор презентации, Alwin Cox, дал PCWorld — данные слайды показывают что будет с SSD после окончания его жизни (полностью "изношенный" SSD) и хранившегося после этого при повышенных температурах
http://www.pcworld.com/article/2925173/debunked-your-ssd-wont-lose-data-if-left-unplugged-after-all.html


Debunked: Your SSD won't lose data if left unplugged after all
Gordon Mah Ung | @Gordonung, Executive Editor, PCWorld May 21, 2015 5:58 AM
“I wouldn’t worry about [losing data],” Cox told PCWorld. “This all pertains to end of life. As a consumer, an SSD product or even a flash product is never going to get to the point where it’s temperature-dependent on retaining the data.”
It was intended to help data center and enterprise customers understand what could happen to an SSD—but only after it had reached the end of its useful life span and was then stored at abnormal temperatures. It’s not intended to be applied to an SSD in the prime of its life in either an enterprise or a consumer setting.
Хорошая презентация.

А вот пояснения тоже корявые и тоже вводят в заблуждение (только уже в другую сторону чем исходная волна в СМИ).

Да, такая быстрая потеря данных при хранении (в зависимости от температуры) относится к изношенным дискам, но не ПОЛНОСТЬЮ изношенным. А достигшим или превысившим свой рейтинг выносливости указываемый производителями как TBW, а не по максимальному кол-ву циклов перезаписи ячеек.

К примеру SSD объемом 128 ГБ на базе ячеек с расчетным ресурсом в 3000 циклов и выставленным производителем гарантированным ресурсом в 72 TBW. После записи 80 Террабайт данных будет еще вполне рабочим, т.к. во флеш было записано скажем 120 Гб при WAF 1.5, что меньше 1000 циклов в среднем на ячейку и диск в СМАРТ будет показывать что у него еще ресурс порядка 70%(30% износа) и все диагностические программы будут оценивать его состояние как отличное и рисовать ему еще много лет успешной работы.
Но при этом такой диск будет уже достаточно быстро терять заряд при хранении в выключенном состоянии (см. табличку в зависимости от температуры), будет иметь повышенный уровень ошибок чтения (UBER) и снимается с официальной гарантии большинством производителей.

Соответствовать стандартам JEDEC, т.е. уровень неисправимых ошибок меньше 1 на 10^15 прочитанных бит, хранение данных при отключенном питании не меньше 1 года при температуре хранения не выше +30гр SSD должен только до момента превышения TBW завяленного производителем. Дальше начинается деградация параметров — насколько быстрая, это как повезет.
Но обычно быстрая, т.к. производители как раз на начало быстрой деградации и ориентируются определяя TBW для конкретной модели. За исключением разве что когда в процесс присвоения TBW рейтинга вмешался маркетинг (искусственно заниженный показатель относительно реальных характеристик, чтобы допустим не создавать конкуренции более дорогой линейке продуктов той же компании).
В частности из 2й ссылки прямое введение в заблуждение:
Consumer drives such as this Corsair Neutron GTX have been pushed beyond 1.1 petabytes of writes before wearing out. That’s one of the criteria you’d need to lose data.


Приведен для примера Corsair Neutron GTX на 240 Гб. И написано что вот в тестах он умирает от износа только после записи больше 1000 ТБ данных. И дескать вот это и имелось ввиду. Но это вранье практически прямое — после 1000 ТБ записанных данных он умирает буквально «на ходу», т.е. не может адекватно сохранять данные хотя бы в течении нескольких часов которые занимает один цикл тестирования.

А уровня потери данных в зависимости от температуры хранения указанного в таблице (год при 30 градусах, 4 недели при 50 градусах) он достигнет уже после примерно после 128 ТБ записанных данных (TBW для данной модели). Хотя при стресс-тесте «до упора» (пока не сдохнет прямо в процессе теста и когда на сохранность данных плевать) может и в 10 раз дольше проработать.

А достигшим или превысившим свой рейтинг выносливости указываемый производителями как TBW, а не по максимальному кол-ву циклов перезаписи ячеек.

Нет, это одно и то же, можете почитать JEDEC SSD Specifications Explained.

Мой краткий пересказ (в относящейся к теме части):
Есть такая вещь, как WAF: коэффициент, который показывает во сколько раз запись в флеш больше записанного системой на накопитель. При последовательной записи WAF близок к 1, при случайной мелкоблочной записи он растёт, насколько сильно растёт — зависит от алгоритмов контроллера ssd, количества свободного места, необходимости синхронной записи. В некоторых случаях WAF может превышать 10.
Так вот, паспортные TBW указываются для некоторой эталонной нагрузки: сколько терабайт можно записать с соответствующим этой нагрузке WAF, чтобы уложиться в паспортный ресурс флеш-памяти по числу циклов erase.

Реальная нагрузка, разумеется, может отличаться как в худшую для накопителя (редко), так и в лучшую сторону, именно поэтому если мы смотрим состояние накопителя в SMART, то процент износа почти всегда отличается от отношения объёма записанной информации к паспортному значению TBW.

Вот его я как раз и читал (ссылка www.jedec.org/sites/default/files/Alvin_Cox%20%5BCompatibility%20Mode%5D_0.pdf). Вы похоже читали не внимательно, т.к.
1 — такой режим расчета там предлагается только как упрощенная/ускоренная модель, если нет возможности прогонять полноценную имитацию полного цикла жизни диска (например большой объем диска при низкой скорости записи, что может потребовать по году или даже дольше диск под нагрузкой гонять, и у производителя нет возможности столько долго ждать при подготовке модели к выводу на рынок, то можно прикинуть по такой формуле и назначить TBW рейтинг предварительно, не дожидаясь результатов практического тестирования)

2 — в этой формуле для упрощенного расчета (страница/слайд №30) есть дополнительный коэффициент 2, т.е. по достижении TBW диском в среднем паспортное количество циклов стирания флэша(установленное производителем микросхем флэш-памяти), использованного в нем производителем SSD, должно быть использовано только максимум на половину, причем это уже с учетом WAF. Это закладывается на учет неравномерности износа (неидеальности механизмов его выравнивания), когда часть блоков флэша фактически стиралась существенно больше чем в среднем и «просто чтобы был запас», т.к. под конец ресурса характеристики флэша обычно уже сильно падают.

А полноценная (не упрощенная/ускоренная) процедура назначение TBW должна проводиться путем практического тестирования образцов конкретный дисков (а не считаться в теории) под симуляцией целевой нагрузки и по условиям как я описывал (слайды 13, 25-28), пока не достигнут TBW по стандарту диск должен:
The SSD manufacturer shall establish an endurance rating for an SSD that represents the maximum number of terabytes that may be written by a host to the SSD, using the workload specified for the application class, such that the following conditions are satisfied:
1) the SSD maintains its capacity;
2) the SSD maintains the required UBER for its application class;
3) the SSD meets the required functional failure requirement (FFR)
for its application class; and
4) the SSD retains data with power off for the required time for its
application class.

Т.е. пока не превышен TBW диск должен:
1 — сохранять номинальный объем
2 — сохранять заявленным производителем уровень ошибок чтения (UBER, для дисков потребительского класса это 1 неисправимая ошибка на 10^15 бит данных, т.е. не хуже чем у типовых жестких дисков)
3 — сохранять частоту поломок от внутренних причин (FFR)
4 — сохранять стабильность хранения данных в отключенном состоянии (для потребительских дисков — не менее года при температуре хранения до 30 градусов)

я считаю, что вы неправы.
ресурс в терабайтах вторичен. он зависит от (a) ресурса флеш-памяти, (b) характера нагрузки (значения WAF).

TBW указывается просто потому, что пользователям иначе было бы непонятно как оценивать ресурс SSD (равно как ресурс двигателя машины указывают в километрах, а не в моточасах).

и да, в smart всех ssd есть процент износа, считающийся по числу циклов стирания.

Что случилось с SSD?

Был отличный SSD, никаких проблем не было, куплен в 2011 году, Intel 520, 240 Gb

Отработал отлично около 8 лет, не помню точно, никаких ошибок не было.

Затем куплен другой около 2019 года, 450 Gb, примерно этих же серий, а старый просто положен на полку в статический пакет.

И вот спустя 2 года открыл, подключил, а он ВООБЩЕ не видится компутером, ошибка 2100 (если подключен как главный) или 2102 (если подключен в cdrom-слот через переходник).

Что делать?

Можно ли восстановить?

Во время загрузки
2100: Detection error on HDD0 (Main HDD)
Press Esc to continue.
Что случилось? — Он просто «утек». Что собственно в статье и описано, данные с флэша в т.ч. SSD утекают со временем и для длительного хранения в выключенном состоянии технология по большому счету непригодна.
В т.ч. и данные прошивки для контроллера и другие служебные данные (таблица трансляции адресов например), которые хранятся в этом же самом флэше, просто в зарезервированной и недоступной для пользователя области тоже со временем «утекают».

Процессор не может считать служебные данные (в т.ч. программу управляющую диском) = даже инициализация диска не проходит.

Так обычно SSD и умирают чаще всего. Пользователи обычно в этом случае говорят «контроллер сдох». Хотя скорее всего и флэш и контроллер там исправные и чисто в теории диск (но не данные) можно восстановить — залив прошивку заново через программатор. Но оно того не стоит.
Sign up to leave a comment.

Articles