Comments 69
С другой стороны запись в агрессивных условиях, а потом хранение в комфортных тоже может дать немалую выгоду.
В любом случае, исследование попахивает фейком либо очень сильно перевранной информацией. Если рассматривать отдельно взятый блок flash-памяти, к которому не обращались год, то шансы на выживание у него должны быть такие же, как и в случае выключенного диска. По крайней мере технология flash-памяти не включает в себя механизмы регенерации, как в DRAM, поэтому было бы довольно странно, если бы такая ячейка памяти хранила информацию дольше при поданном питании.
Современные флешки имеют очень большую плотность информации, и, как побочный эффект, большие токи утечки заряда. Со временем конденсатор разряжается и информация теряется. Высокая температура резко увеличивает ток утечки.
Во включенном состоянии контроллер периодически перезаписывает информацию, т.е. восстанавливает заряд на конденсаторе.
Разрядившийся конденсатор не становится неисправным.
Не совсем конденсатор конечно, а транзистор с плавающим затвором, в который инжектируется заряд. Но в целом физика процессов похожа.
Плавающий затвор является одной из обкладок конденсатора.
Диэлектрик из-за большой плотности получается очень тонким. Отсюда большой ток утечки.
В добавок заряд не 0 или 1, а многоуровневый. Потому так сильно влияет утечка.
Если какой-то блок очень долго (сколько именно это зависит от конкретного контроллера и от конкретной микросхем флэша — на усмотрение производителя) не обновляется в процессе обычной работы, то контроллер считает из него данные и переместит в другой блок, а этот пометит свободным для записи других данных. Это нужно как для выравнивания износа, так и для предотвращения потери пользовательских данных из-за утечки зарядов в ячейках.
В результате при адекватном контроллере и заложенных в нем алгоритмах пока диск в работе (или хотя бы подключен к питанию) вероятность потери данных из-за утечек заряда в ячейках флеш-памяти сведена к минимуму. Но как только SSD диск оказывается отключен от питания она начинает расти. И растет тем быстрее чем сильнее изношен диск (по количеству циклов перезаписи).
Т.е. это не механизм присущий самой флэш памяти, а SSD как устройству в целом. (и хорошим флешкам).
Сама флеш-память не имеет механизмов, но этим постоянно занимается контроллер твердотельного диска, который постоянно перегруппировывает данные по мере их изменения.
Спасибо, что донесли правдивую информацию и спасли меня приступа.
Технологии конечно совершенствуются, но ныне мы имеем чипы с характеристиками 1500 гарантированных перезаписей и 2 года хранения при 25 градусах, но объемы 256Гб-512Гб-1024Гб.
Итого, объём вырос в 8000 раз, ресурс уменьшился в 1000 раз а срок хранения в 20 раз. Прогресс в принципе налицо.
Насколько я знаю, промышленные ссд обычно стараются делать по технологии SLC — и тем более это довольно странно звучит.
Промышленные SSD раньше делали по SLC, сейчас все больше переходят на MLC (enterprise MLC) и постепенно пытаются продвигать TLC в этот сегмент (пример; MLC и TLC в 2 и 3 раза дешевле за единицу объема чем SLC); на начало 2014 года поставки SLC-чипов составляли менее 1.5% рынка www.bswd.com/FMS14/FMS14-Abraham.pdf (Architectural Considerations for Optimizing SSDs — Micron, aug 2014) слайд 8. На слайде 16 — графики с количеством электронов на ячейку (слева, для MLC видимо еще поделили на количество уровней — т.е. сколько электронов соответствует разнице между уровнями) и динамика по времени. Чем тоньше (современнее) техпроцесс, тем хуже с надежностью (количеством циклов стирания) и у SLC и у MLC; для современных чипов требуется более сильные коды коррекции ошибок (ECC). SLC имеет несколько лучшие параметры по количеству циклов и требует немного меньше ECC чем MLC.
Possible to optimize endurance for data retention (examples below)
• Consumer MLC NAND: 3K cycles, 1 year retention
• Enterprise MLC NAND: 10K cycles, 3 months data retention
19: Some MLC and TLC NAND Flash have the ability to
write and read data in SLC mode
* Smaller block size; mode is determined block by
block and managed by the SSD controller
• MLC (X pages per block) SLC Mode (1/2 X)
• TLC (Y pages per block) SLC Mode (1/3 Y)
Логично было бы промышленные накопители делать максимально устойчивыми ко всевозможным внешним воздействиям, и странно, что даже там сейчас идёт упор на удешевление, а не надёжности.
Эх, я бы не отказался от современной флешки на 128Мб с низким ресурсом(800...1500 циклов) но очень низкой ценой порядка 0.1$-0.5$, был бы прекрасная замена для «дисков с драйверами» и аналогичным применением.
Сделайте зеркалирование. И место используете, и надежность повысите.
Плюс, у некоторых современных флэшек есть какие-то зачатки wear leveling'а, т.е. сколько-то места можно и неразмеченным оставить.
Какая разница сколько будет пустовать, если стоимость одинаковая? От "зачем мне так много" до "почему так мало" всего один шаг...
Вы такое утверждение в www.jedec.org/sites/default/files/Alvin_Cox%20%5BCompatibility%20Mode%5D_0.pdf нашли?
Хотя в www.anandtech.com/show/9248/the-truth-about-ssd-data-retention есть:
«Finally, the drive must retain data without power for a set amount of time to meet the JEDEC spec. Note that all these must be conditions must be met when the maximum number of data has been written i.e. if a drive is rated at 100TB, it must meet these specs after 100TB of writes.» (не совсем ресурс по стираниям, это рейтинг от производителя, в пределах которого действует гарантия)
> Новые же накопители и по десять лет спокойно сохраняют информацию.
Новые накопители, выпущенные в 2015 году еще не хранились 10 лет без питания (есть только эксперименты при повышенных температурах). Накопители, выпущенные в 2005 году могли храниться 10 лет без питания, однако в них использовался более «толстый» техпроцесс и ячейки имели намного более высокие характеристики (SLC и MLC а не TLC, десятки тысяч стираний вместо единиц и долей тысяч, физически в ячейках на порядки больше электронов).
Explained». То есть, презентация просто разъясняет те требования, которые JEDEC предъявляет к производителям SSD для стандартизации спецификаций. И на странице 25 и далее там рассказано, как надо считать надёжность. Сохранность данных на отключенном SSD в течение некого периода времени — это просто требование, и если оно не выполняется, то такой накопитель согласно JEDEC не считается исправным. И это значит, что в течение всего срока эксплуатации эти требования выполняются, в том числе и в самом худшем случае — при окончании ресурса.
Далее можно обратиться к тому, как считает надёжность Intel — приведённые таблицы ведь взяты у этого производителя, о чём явно указано в презентации. Если взять любой даташит на серверную модель SSD (например), то там будет чётко описано, что согласно стандартам JEDEC, Data Retention — это the time period for retaining data in the NAND at maximum rated endurance. Кстати, для DC S3500/S3700 этот период составляет 3 месяца при 40 градусах — как, собственно, и положено.
Ну а 10 лет — это оценочный прогнозируемый срок хранения данных в новых ячейках MLC NAND. Понятно, что практика может отличаться как в большую, так и в меньшую сторону, однако ж речь будет всё равно идти не о неделях, а о годах.
И большое спасибо за разъяснение, а то я начал волноваться и градусы считать.
ваш коментарий-возражение по ценности информации почти как сам пост.
Swissbit… 4) Auto Read Refresh: The controller reads the entire data stored in the device from time to time and compares the number of bit error against an ECC threshold. If the number of bit errors is above the threshold, the affected data is refreshed…
Panasonic SDUD / SDUC / SMGA Series have an automatic refresh function,…
hynix… Some blocks can be accessed continuously or remained for a long time without P/E and read operation. -> Unwanted errors are increased!!!
To avoid uncorrectable errors over ECC capability, data in these blocks are moved toward other blocks…
phison … SmartRefresh™ Read Disturb Monitor
Monitoring block ECC health status enables Phison flash controller to refresh blocks when necessary, in results improving data retention of the NAND cell. By implementing real-time media scan (RTMS) and idle-time media scan (ITMS), the data will be well protected as the NAND wears out over time.
Я так понимаю, что ресурс тратится именно на процесс записи, а не просто по времени?
То есть, верно ли я понимаю, что если включить SSD в сеть, и никогда на него ничего не писать, он должен работать
Деградация по времени вроде бы тоже есть (диффузия, фоновая радиация), но она намного менее значима чем деградация от перезаписи. Основной износ идет, когда повышенным напряжением «пробивают» барьер ячейки, чтобы загнать заряд (электроны) в ловушку за барьером. А вот для чтения этого «пробития» не требуется — сам факт наличия этого заряда влияет на свойства транзистора под ним и считывать состояние можно вообще не взаимодействуя напрямую с этим зарядом, поэтому при чтении деградации нет. Ну по крайней мере она не больше, чем при работе обычных транзисторов в любой современной микроэлектронике.
А зачем он нужен, если на него вообще ничего не писать (хотя бы несколько раз, например если данные в основном для быстрого чтения нужны, но перезаписываются редко)?
Совсем вечным конечно не будет, но сам флэш проживет очень долго. Скорее контроллер или кэш накроются, но если они качественные то десятки лет работы вполне возможны, дальше скорее всего их сильное моральное устаревание или несовместимость с новыми стандартами диск «убъет». Диск рабочий, но например уже и подключить некуда, т.к. SATA нигде уже и не осталось после замены его на что-то более новое.
Мои самые первые флэшки и самые тупые карты памяти(без контроллеров типа SD и MS), которые не насиловались большими объемами записи уже по 10-15 лет работают и до сих пор живы и читаются без проблем. Правда кому они сейчас нужны при объеме в 8-256 МБ…
А вот первый SSD работавший с довольно большой нагрузкой протянул всего около 2х лет и умер, 2й SSD за примерно 2,5 года израсходовал весь гарантированный производителем ресурс и «ушел на пенсию» (переехал в машину, где на него совсем мало пишется), чтобы не повторить судьбу 1го.
3й по счету SSD пока новый и еще бодрячком.
Хранение отдельного бэкапа, отключенного от компа — тот самый «диск в сейфе на случай метеорита, шифровальщика и так далее».
Автоматические бэкапы важных данных делаются регулярно, но для них нужен постоянный доступ к носителю, вдобавок если что-то пойдет не так, и сгенерятся кривые архивы, они перезапишут старый бэкап. Хранить версионные полные бэкапы — накладно.
Поэтому выгодно просто изредка доставать с полочки носитель, подключать и выполнять синхронизацию вручную, что гарантирует что в этот момент я уверен, что данные адекватны.
А так я похоже просто не так понял фразу «что если включить SSD в сеть, и никогда на него ничего не писать, он должен работать вечно пока не поржавеет»
Я ее воспринял, как включить диск и держать включенным(подключенным), но ничего на него не писать. И не понял зачем вообще так делать.
А так да, если диск новенький (с минимальным износом по записи), сбросить бекап на него, да еще еще в прохладном месте хранить, производители обещают не меньше нескольких лет(до 10 для MLC и и совсем не изношенных ячеек) сохранности данных без обновления. А при подключении(для следующего бекапа) контроллер и прошивка сама должны определить самые старые (давно не переписывавшиеся) ячейки и обновить их автоматически, после чего данные еще несколько лет должны храниться, ну и просто при записи свежей версии бекапа скорее всего данные окажутся перезаписаны заново.
И так далее, циклов от этого будет мало, диск скорее всего полностью устареет/окажется не нужен раньше чем выйдет из строя.
Копия презентации в архиве: http://web.archive.org/web/20141031164835/http://www.jedec.org/sites/default/files/Alvin_Cox%20%5BCompatibility%20Mode%5D_0.pdf
Пояснения, которые автор презентации, Alwin Cox, дал PCWorld — данные слайды показывают что будет с SSD после окончания его жизни (полностью "изношенный" SSD) и хранившегося после этого при повышенных температурах
http://www.pcworld.com/article/2925173/debunked-your-ssd-wont-lose-data-if-left-unplugged-after-all.html
Debunked: Your SSD won't lose data if left unplugged after all
Gordon Mah Ung | @Gordonung, Executive Editor, PCWorld May 21, 2015 5:58 AM
“I wouldn’t worry about [losing data],” Cox told PCWorld. “This all pertains to end of life. As a consumer, an SSD product or even a flash product is never going to get to the point where it’s temperature-dependent on retaining the data.”
It was intended to help data center and enterprise customers understand what could happen to an SSD—but only after it had reached the end of its useful life span and was then stored at abnormal temperatures. It’s not intended to be applied to an SSD in the prime of its life in either an enterprise or a consumer setting.
А вот пояснения тоже корявые и тоже вводят в заблуждение (только уже в другую сторону чем исходная волна в СМИ).
Да, такая быстрая потеря данных при хранении (в зависимости от температуры) относится к изношенным дискам, но не ПОЛНОСТЬЮ изношенным. А достигшим или превысившим свой рейтинг выносливости указываемый производителями как TBW, а не по максимальному кол-ву циклов перезаписи ячеек.
К примеру SSD объемом 128 ГБ на базе ячеек с расчетным ресурсом в 3000 циклов и выставленным производителем гарантированным ресурсом в 72 TBW. После записи 80 Террабайт данных будет еще вполне рабочим, т.к. во флеш было записано скажем 120 Гб при WAF 1.5, что меньше 1000 циклов в среднем на ячейку и диск в СМАРТ будет показывать что у него еще ресурс порядка 70%(30% износа) и все диагностические программы будут оценивать его состояние как отличное и рисовать ему еще много лет успешной работы.
Но при этом такой диск будет уже достаточно быстро терять заряд при хранении в выключенном состоянии (см. табличку в зависимости от температуры), будет иметь повышенный уровень ошибок чтения (UBER) и снимается с официальной гарантии большинством производителей.
Соответствовать стандартам JEDEC, т.е. уровень неисправимых ошибок меньше 1 на 10^15 прочитанных бит, хранение данных при отключенном питании не меньше 1 года при температуре хранения не выше +30гр SSD должен только до момента превышения TBW завяленного производителем. Дальше начинается деградация параметров — насколько быстрая, это как повезет.
Но обычно быстрая, т.к. производители как раз на начало быстрой деградации и ориентируются определяя TBW для конкретной модели. За исключением разве что когда в процесс присвоения TBW рейтинга вмешался маркетинг (искусственно заниженный показатель относительно реальных характеристик, чтобы допустим не создавать конкуренции более дорогой линейке продуктов той же компании).
Consumer drives such as this Corsair Neutron GTX have been pushed beyond 1.1 petabytes of writes before wearing out. That’s one of the criteria you’d need to lose data.
Приведен для примера Corsair Neutron GTX на 240 Гб. И написано что вот в тестах он умирает от износа только после записи больше 1000 ТБ данных. И дескать вот это и имелось ввиду. Но это вранье практически прямое — после 1000 ТБ записанных данных он умирает буквально «на ходу», т.е. не может адекватно сохранять данные хотя бы в течении нескольких часов которые занимает один цикл тестирования.
А уровня потери данных в зависимости от температуры хранения указанного в таблице (год при 30 градусах, 4 недели при 50 градусах) он достигнет уже после примерно после 128 ТБ записанных данных (TBW для данной модели). Хотя при стресс-тесте «до упора» (пока не сдохнет прямо в процессе теста и когда на сохранность данных плевать) может и в 10 раз дольше проработать.
А достигшим или превысившим свой рейтинг выносливости указываемый производителями как TBW, а не по максимальному кол-ву циклов перезаписи ячеек.
Нет, это одно и то же, можете почитать JEDEC SSD Specifications Explained.
Мой краткий пересказ (в относящейся к теме части):
Есть такая вещь, как WAF: коэффициент, который показывает во сколько раз запись в флеш больше записанного системой на накопитель. При последовательной записи WAF близок к 1, при случайной мелкоблочной записи он растёт, насколько сильно растёт — зависит от алгоритмов контроллера ssd, количества свободного места, необходимости синхронной записи. В некоторых случаях WAF может превышать 10.
Так вот, паспортные TBW указываются для некоторой эталонной нагрузки: сколько терабайт можно записать с соответствующим этой нагрузке WAF, чтобы уложиться в паспортный ресурс флеш-памяти по числу циклов erase.
Реальная нагрузка, разумеется, может отличаться как в худшую для накопителя (редко), так и в лучшую сторону, именно поэтому если мы смотрим состояние накопителя в SMART, то процент износа почти всегда отличается от отношения объёма записанной информации к паспортному значению TBW.
1 — такой режим расчета там предлагается только как упрощенная/ускоренная модель, если нет возможности прогонять полноценную имитацию полного цикла жизни диска (например большой объем диска при низкой скорости записи, что может потребовать по году или даже дольше диск под нагрузкой гонять, и у производителя нет возможности столько долго ждать при подготовке модели к выводу на рынок, то можно прикинуть по такой формуле и назначить TBW рейтинг предварительно, не дожидаясь результатов практического тестирования)
2 — в этой формуле для упрощенного расчета (страница/слайд №30) есть дополнительный коэффициент 2, т.е. по достижении TBW диском в среднем паспортное количество циклов стирания флэша(установленное производителем микросхем флэш-памяти), использованного в нем производителем SSD, должно быть использовано только максимум на половину, причем это уже с учетом WAF. Это закладывается на учет неравномерности износа (неидеальности механизмов его выравнивания), когда часть блоков флэша фактически стиралась существенно больше чем в среднем и «просто чтобы был запас», т.к. под конец ресурса характеристики флэша обычно уже сильно падают.
А полноценная (не упрощенная/ускоренная) процедура назначение TBW должна проводиться путем практического тестирования образцов конкретный дисков (а не считаться в теории) под симуляцией целевой нагрузки и по условиям как я описывал (слайды 13, 25-28), пока не достигнут TBW по стандарту диск должен:
The SSD manufacturer shall establish an endurance rating for an SSD that represents the maximum number of terabytes that may be written by a host to the SSD, using the workload specified for the application class, such that the following conditions are satisfied:
1) the SSD maintains its capacity;
2) the SSD maintains the required UBER for its application class;
3) the SSD meets the required functional failure requirement (FFR)
for its application class; and
4) the SSD retains data with power off for the required time for its
application class.
Т.е. пока не превышен TBW диск должен:
1 — сохранять номинальный объем
2 — сохранять заявленным производителем уровень ошибок чтения (UBER, для дисков потребительского класса это 1 неисправимая ошибка на 10^15 бит данных, т.е. не хуже чем у типовых жестких дисков)
3 — сохранять частоту поломок от внутренних причин (FFR)
4 — сохранять стабильность хранения данных в отключенном состоянии (для потребительских дисков — не менее года при температуре хранения до 30 градусов)
я считаю, что вы неправы.
ресурс в терабайтах вторичен. он зависит от (a) ресурса флеш-памяти, (b) характера нагрузки (значения WAF).
TBW указывается просто потому, что пользователям иначе было бы непонятно как оценивать ресурс SSD (равно как ресурс двигателя машины указывают в километрах, а не в моточасах).
и да, в smart всех ssd есть процент износа, считающийся по числу циклов стирания.
Что случилось с SSD?
Был отличный SSD, никаких проблем не было, куплен в 2011 году, Intel 520, 240 Gb
Отработал отлично около 8 лет, не помню точно, никаких ошибок не было.
Затем куплен другой около 2019 года, 450 Gb, примерно этих же серий, а старый просто положен на полку в статический пакет.
И вот спустя 2 года открыл, подключил, а он ВООБЩЕ не видится компутером, ошибка 2100 (если подключен как главный) или 2102 (если подключен в cdrom-слот через переходник).
Что делать?
Можно ли восстановить?
Ошибка чего?
В т.ч. и данные прошивки для контроллера и другие служебные данные (таблица трансляции адресов например), которые хранятся в этом же самом флэше, просто в зарезервированной и недоступной для пользователя области тоже со временем «утекают».
Процессор не может считать служебные данные (в т.ч. программу управляющую диском) = даже инициализация диска не проходит.
Так обычно SSD и умирают чаще всего. Пользователи обычно в этом случае говорят «контроллер сдох». Хотя скорее всего и флэш и контроллер там исправные и чисто в теории диск (но не данные) можно восстановить — залив прошивку заново через программатор. Но оно того не стоит.
Отключённый промышленный твердотельник может потерять данные за неделю