Pull to refresh

Comments 77

>> «дисковод» — тоже очевидный даже ребёнку механизм

Нынешнему? Где они дисководы нынче встречают?

>> вот именно этот «разбег» в неидеальных условиях важен, и он зовётся «скоростью случайного доступа».

Зависит напрямую не только от скорости памяти, но от лимита IOPS. И его наращивание нынче тоже приуныло. Вы собственно тоже примеров этого прогресса не привели. Сложно найти, небось? )) А раньше да — много было накопителей со слабенькими первыми контроллерами и было куда расти.

Тридцатилетнему ребёнку вполне очевидно.
Дисководы нынче в игровых приставках. Не совсем «те самые» дисководы, но смысл-то всё равно тот же.
Ни одна тема не раскрыта, кроме того, что в SSD нет диска! Нет конкретики ни про скорости доступов, ни про живучесть, ни про причины тормозов, статья так написана, как будто этих параметров объективно вообще не существует, и вся полна какими-то неадекватными сравненями с женщинами.
Главная тема все же раскрыта:
Kingston таких оплошностей не допускал никогда


Полагаю, это именно то, ради чего и писался текст.
Помню, когда купив несколько флешек Кингстон (8ГБ) мы с друзьями понесли их обратно, т.к. они оказались глюкавыми, не видились в биосе, а только в ОС (даже установка драйверов, хоть и проходила автоматически, но не всегда гладко). У нас была куча флешек от других производителей, и ни одна из них не была такой глюкавой. Нам попадались много разных моделей и размеров флешек Кингстон и у всех какие-то проблемы были. Как выяснилось позже, Кингстон сэкономила на контроллерах (на данный момент по их следах пошли почти все — борьба за низкую цену). С тех пор никогда не покупаем флешек этого производителя.
Уважаемые представители Kingston. Такой вопрос
SSD 120ГБ, Kingston UV400 — подойдет в macbook pro?
Здраствуйте! Скажите какой мак, год, процессор и диагональ
MacBook Pro (с дисплеем Retina, 13 дюймов, середина 2014 г.)
Процессор 2,6 GHz Intel Core i5
Не соглашусь насчёт торрентов. Качать торренты на SSD на скорости 10 мбайт/сек и выше — одно удовольствие, так как HDD просто не справляется с таким потоком данных, особенно когда объём торрента превышает оперативную память, используемую как дисковый кэш. Держать файл подкачки на SSD — тоже вполне разумная идея. Ведь SSD покупается ради повышения производительности, а не ради дальнейшего сохранения циклов перезаписи.

Очень важный момент относительно SSD — это размер записываемых блоков.
SSD оперирует крупными блоками. SSD не может записать один сектор в 4 килобайта, как это делает HDD. SSD вынужден полностью прочитать внутренний блок (его размер составляет около 512 кбайт), внести изменения и записать обратно. Так как торрент клиент пишет большими блоками (по 1-2 мбайта), запись в файл подкачки тоже идёт крупными блоками, то такая запись весьма эффективна.

А вот что реально плохо, так это куча мелких записей: раличные логи и т.д. При записи 1 кластера в 4 кб SSD вынужден переписать около ~512 кб флеш-памяти. При работе компьютера 24/7 где-то 2/3 всех записей на диск составляют именно мелкие записи операционной системы, оставшаяся 1/3 — торренты и повседневная работа.

P.S. У меня OCZ RevoDrive X2 возрастом в 5 лет. Израсходовано всего 1% ресурса — ну не вижу никакого смысла экономить на записи.
Какие-то вы страсти рассказываете про торренты. Может у вас раздел под них забит под завязку и для последних закачек место уже выделялось «во всех дыры» с дикой фрагментацией. Вот на них производительность диска (особенно если 5400) может прилично просесть). А так файлы не фрагментированы, кеш всю память не забивает. Сотня-другая гигабайт торрентов прекрасно себя чувствует на HDD. Одновременно я их все, разумеется, не пытался качать. Качал по 2-3. Раздаются до 10 штук обычно. Доступные 100 мбит утилизируются на ура даже при раздаче.

А если торрентов терабайты и сотня активных, так они и на SSD не влезут. И под них логично несколько HDD завести. Соответственно — это уже совсем не тот случай.

Т.е. я предполагаю, что проблема в фрагментации. Или перенастроили параметры кеширования так, что клиент перестал эффективно функционировать.

>> Так как торрент клиент пишет большими блоками (по 1-2 мбайта), запись в файл подкачки тоже идёт крупными блоками, то такая запись весьма эффективна.

А можно подробнее о механизме? Откуда инфа, что эти 1-2 мб лягут «кучно» с высокой эффективностью?

>> У меня OCZ RevoDrive X2 возрастом в 5 лет. Израсходовано всего 1% ресурса — ну не вижу никакого смысла экономить на записи.

В объемах бы не помешало и ресурс, и расход.

Нынешние доступные любому карману SSD на дешевой памяти предлагают 20-30 Тб гарантированного ресурса на 120 Гб объема диска.
При этом, у знакомых в год расходуется 2-4 Тб. У меня где-то 2.5 получится (при этом я не пользуюсь гибернейтом и отключена очистка свапа при выключении ПК, т.е. ежедневно я не записываю приличное количество гиг, которые могут записывать другие, на тех же ноутбуках).

И при таком SSD, коих сейчас на рынке чуть ли не большинство, за год расходуется порядка 10% ресурса. Ни о какой норме «1% за 5 лет, т.е. 100% за 500 лет» даже и близко речи не идет )) Даже у Самсунга, у которого ресурс в разы выше.

Для больших торрентов проблема с медленными HDD действительно есть проблема когда с сотни сидов тянется инфа одновременно разбросанная по сотне гигов. Кэш торрента быстро переполняется и скорость прыгать начинает между нулем и 10 мб/сек
Проблемы медленного HDD отлично решаются быстрым HDD, а не только SSD. Почему об этом вечно забывают? Чтобы скорость упала до «4k random» нужно пихать данные именно по 4k-16k в разные дырки. Если вы добились именно такого, то нечего пенять на диск.
> Т.е. я предполагаю, что проблема в фрагментации.

Фрагментация при работе с торрентами есть всегда: файлы качаются/раздаются не последовательно, а в случайных позициях. Такой сценарий не очень благоприятен для HDD.

> Или перенастроили параметры кеширования так, что клиент перестал эффективно функционировать.

Да просто попытался скачать и раздать файл, в 3 раза превышающий размер свободной оперативной памяти.

> А можно подробнее о механизме? Откуда инфа, что эти 1-2 мб лягут «кучно» с высокой эффективностью?

Потому что данные в торрент-протоколе разбиваются на блоки, и этими блоками и обмениваются клиенты. Размер блока зависит от размера данных торрента и для больших раздач составляет от 2 до 8 мегабайт. Клиент обычно пишет блок на диск после того, как он будет полностью получен. Соответственно, запись получается довольно кучной.

> В объемах бы не помешало и ресурс, и расход.

Объём 240 гигабайт, ресурс — 10к циклов перезаписи, расход — 13 тб записано («грязными» — 40 тб), 74 тб прочитано, 40к часов.
>> Фрагментация при работе с торрентами есть всегда: файлы качаются/раздаются не последовательно, а в случайных позициях. Такой сценарий не очень благоприятен для HDD.

>> Размер блока зависит от размера данных торрента и для больших раздач составляет от 2 до 8 мегабайт. Клиент обычно пишет блок на диск после того, как он будет полностью получен.

Я что-то запутался. Блоки по 1-2 Гб — это благоприятный сценарий. А губительная фрагментация — это когда приходится гонять по всему диску с гораааааздо меньшими порциями данных. Вот тогда диск начнет тупить. Каша на диске образуется, когда он почти заполнен и одним куском выделить место для крупных файлов уже не получается. И/или если отключить предварительное выделение места в настройках клиента. Так (удаляя и добавляя торренты/файлы, распаковывая что-то и т.д.) можно добиться совсем впечатляющей фрагментации.

>> Объём 240 гигабайт, ресурс — 10к циклов перезаписи

Это вы теоретический потенциал вашего массива памяти посчитали (при чем с учетом использования его как четырех дисков по 64 Гб, а не рейда 4х64, в котором ресурс расходуется параллельно, т.е. уменьшается в 4 раза). А речь была совсем не об этом показателе ))

Как минимум вы не учитываете необходимость периодически освежать ранее записанные данные. Почему-то эта сторона черного ящика мало освещается. Хотя актуальная и для HDD, и для SSD. Но если нам побоку, чем там HDD в свободное время занимается и как часто перезаписывает весь объем хранимых данных, то в случае с SSD было бы любопытно знать. В частности это могло бы пролить свет и на оверхед в вашем первом SSD.

А так же не учитываете то, что это вовсе не «от X циклов», а «порядка X циклов». Т.е. опираться на этот показатель нельзя никак. А с учетом всех софтовых нюансов получается, что этот теоретический потенциал нужно уменьшить в 5-10 раз и вот на полученное число уже можно опираться.

А у нынешней TLC памяти и теретический потенциал не ~10k, а ~1k. Так что, гарантированные 250 полных перезаписей диска (+«теневая» перезапись неизвестно сколько раз в течение всего срока эксплуатации) — это очень даже не плохая гарантированная оценка.

Разумеется, если память качественная и контроллер грамотный, то обычно накопитель превосходит заявленный гарантированный ресурс, но в СМАРТах мы сейчас наблюдаем тикающие проценты относительно именно TBW (гарантированного ресурса записи).

Обычно параметр «SSD Life» отражает процент расходования гарантированного ресурса. Использовать в названии такого параметра слово «life» было дурацкой идеей, как по мне ))
> Я что-то запутался

Торрент-клиент обычно выделяет место сразу под весь файл, поэтому на диске фрагментации нет (или она минимальна). А вот потом начинает читать и писать в произвольных местах. Читать — мелкими порциями (для каждого из качающих пиров), писать — довольно крупными (около 1 мегабайта).

> Хотя актуальная и для HDD, и для SSD.

HDD тоже данные забывает, к сожалению, если их долго не читать (сталкивался уже с таким).

> Оверхед в первом SSD

Оверхед всегда будет. Запись куска данных в 4кб в произвольное место потребует стирания целого блока в SSD размером около 1мб.

Кстати, судя по смарту, в первом SSD максимальное число циклов перезаписи для некоторых ячеек вообще достигало 100к. Т.е. контроллер насиловал ячейки не до определённого лимита, а до выхода ячейки из строя.
> Нынешние доступные любому карману SSD на дешевой памяти предлагают 20-30 Тб гарантированного ресурса на 120 Гб объема диска.

Ну это же очень мало! Всего 250 циклов перезаписи.

Впрочем, мой самый первый SSD (Corsair x128) сдох уже после 4.8 Тб записи «чистыми», при этом Average erase count = 7300/10000 — соответствует ~900 Тб записи «грязными». Походу, была просто дикая неэффективность прошивки и памяти.

> При этом, у знакомых в год расходуется 2-4 Тб. У меня где-то 2.5 получится (при этом я не пользуюсь гибернейтом и отключена очистка свапа при выключении ПК, т.е. ежедневно я не записываю приличное количество гиг, которые могут записывать другие, на тех же ноутбуках).

Аналогично. Добавлю, что в моём случае включение свопа на SSD увеличивало количество записи на диск где-то в полтора раза. Правда, это была ситуация, когда мне 16 гигов памяти не хватало — немного нетипичная ситуация для обычного пользователя.

> И при таком SSD, коих сейчас на рынке чуть ли не большинство, за год расходуется порядка 10% ресурса. Ни о какой норме «1% за 5 лет, т.е. 100% за 500 лет» даже и близко речи не идет )) Даже у Самсунга, у которого ресурс в разы выше.

Современные SSD имеют меньший ресурс, чем более старые. Но в данном случае это оправдано и компенсируется существенно более низкой ценой (за 5 лет SSD подешевели примерно в 4 раза).
>> Современные SSD имеют меньший ресурс, чем более старые.

Логично. И не только это. Потому после вашего «1% за 5 лет» последовало мое «ну это даже близко не норма и не отражает суровой действительности».
Эта проблема давно преодолена. Совместно с TRIM блоки не перезаписываются без насущной необходимости — просто ведётся учёт незанятых мест по 4К в блоке 512К и все изменения пишутся именно по 4К, а старый кластер помечается как свободный но не чистый, когда все кластеры блока становятся свободными — блок помечается свободным и после процедуры TRIM становится доступным к использованию. Периодически накопитель во время простоя собирает все разрозненные актуальные куски на почти свободных блоках в один свободный блок а эти блоки помечает свободными и они дальше идут в дело. Таким образом на новых накопителях так называемый WriteAmplification уже не актуален, хотя может появится из-за совместимости со старыми размерами кластеров при необходимости записывать 512, 1024 и 2048-байтные сектора.
Если бы всё было так, то современные SSD с 1к циклов перезаписи должны были жить дольше, чем старые с 10к циклов. На деле же TRIM — не панацея. Тасовать SSD может разве что крупные блоки, да кластеры внутри блоков (в этом случае TRIM действительно поможет с дописыванием кластера в блок), иначе будет проседать скорость из-за маппинга.

А как насчёт баз данных, файловой системы, системного лога и прочих ситуаций, когда происходит запись поверх существующих данных, а в блоке нет свободных участков?
Отнюдь, это просто выравнивает износ. Делает жизнь накопителя дольше, но не так кардинально. TRIM — это отложенное стирание ячеек, делается оно исключительно во время простоя накопителя, чтобы не затормаживать процесс и если накопитель используется слишком интенсивно то волшебство перестаёт работать.
На хабре была статья по этому поводу. Пишется в свободные части блоков, стираются только свободные но не чистые блоки, и добавляется магия от производителя как освободить почти освобождённые но не чистые блоки от актуальных данных и собрать их в одном месте чтобы можно было операцией TRIM освободить блоки которые станут доступными для немедленной записи.
Для этого, собственно, накопитель какое-то время должен простаивать чтобы работала магия — иначе перед каждой записью будет задержка на время очистки блока и его перезаписи. Короче — волшебство исчезнет.
Кроме того, вместе с этим механизмом работает ещё и механизм выравнивания износа который подсчитывает количество записей в ячейку и на запрос записи очередной порции данных подсказывает самую свежую.
Что значит не актуален? WriteAmplification никуда не делся и присутствует во всех современных SSD.
Просто за счет умной работы контроллера (в т.ч. всего описанного вами) его конкретное значение удалось существенно снизить по сравнению с ранними дисками. Но он все-равно всегда остается больше 1. Т.е. физически в микросхемы флэш памяти записывается ВСЕГДА больше данных чем суммарно присылала ОС в контроллер диска для записи.

И поэтому производители продолжают перестраховываться выставляя TBW значения намного (как минимум в разы) ниже чем ресурс используемых микросхем. Например раз уж мы в блоге Кингстон они для дисков на 256 (240) Гб обычно ставят 128 TBW (64 ТБ TBW для 120/128 ГБ дисков). Т.е. ресурс диска на запись — 128 ТБ при емкости 256 ГБ. Т.е. получается что можно перезапись полный объем всего 500 раз. Хотя ресурс ячеек стоящих внутри при этом — минимум 1500-3000 циклов записи.
Это в том числе из-за того, что в зависимости от характера использования диска со стороны пользователя из-за WriteAmplification 128 ТБ записанных пользователем (точнее присланных от ОС в контроллер — пользовательских данных может быть еще меньше, т.к. ОС шлет уже минимум целыми секторами даже если полезный объем данных был всего 1 байт) легко могут превратиться и в 256 ТБ и даже в 512 ТБ которые контроллеру придется записывать физически в блоки флэш-памяти. И нужен хороший запас чтобы не превысить ресурс ячеек.
Sandforce пытается данные при записи сжимать и утверждает, что это позволяет получить коэффициент даже меньше единицы.
>>>SSD не становятся быстрее год от года

Ещё как становятся!<<<

А как же TLC?
Становятся, но для этого пришлось изобретать новые интерфейсы (M.2, мертворождённый SATA-Express, U.2). Да и стоят такие устройства заметно дороже. А в сегменте обычных потребительских всё уперлось давно в ограничение скорости самого SATA III. Поэтому все ударились в снижение себестоимости и, соответственно, цены — конкурировать как-то ведь нужно. Отсюда и переход на TLC.
TLC опровергает идею о том что SSD становятся со временем только быстрее: понятно что в пределах одной технологии скорее всего так и есть, но этот самый массовый переход и означает что ~средний~ ссд на самом деле достиг пика и пошел на снижение. Или нет?
TLC сама по себе действительно медленнее и менее надёжна, но грамотно реализованными алгоритмами её показатели удаётся довести до уровня MLC. Можно сказать, что средний SSD упёрся в возможности интерфейса.
www.ulmart.ru
на «жесткий диск SSD 120ГБ, Kingston UV400, SUV400S37/120G» нет скидки по промокоду
Я так и пробую сделать:
http://imgdepo.com/id/i9501331
Полагаю в Уфе не работает потому что там стоит 2900 рублей, а в Москве/Питере и некоторых других городах — 3090, хотя со скидкой 2781. Не думаю что 119 рублей такая уж большая переплата.
По поводу протирания «дырки» в флэше: самую большую нагрузку на мой домашний ssd оказывает файрфокс, на каждое открытие страницы записывая по 2 Мб.
Можно попробовать отрезать чуток от оперативки и разместить на полученном виртуальном диске кэш браузера. Сделать это чем-нибудь вроде PrimoCache. Если внезапно пропадёт питание, то всё, что потеряете — это кэш, а его не жалко.
Покамест SSD еще дорогие, в сравнении с НЖМД, в особенности, емкостью выше 200 ГБ.
Народным массам нужен качественный скачок по объемам, дабы на один накопитель вмещалось, ну, например, терабайт 10. Как-никак, 8K-фильмы придут в недалеком будущем, им и потребуется и высокая скорость считывания, и большие объемы.
А чем плоха связка SSD для программ и HDD для медиа свалки огромных размеров
Это идеальный вариант. 250ГБ SSD на систему и программы и большой HDD на рабочие файлы и всякие медиа. Главное, не забыть перенести на HDD каталог TEMP, своп и всякие кеши от браузеров. Спросите, почему своп не на SSD? При наличии нормального объема памяти туда всё равно почти ничего не пишется, так что быстродействие не пострадает. А вообще, всякие медиа файлы с стала убирать на USB HDD 2.5" — это удобно. Так что, нужен ли большой внутренний HDD — вопрос.
А зачем это всё переносить на HDD? Ладно, если SSD 60-гиговый и каждый гигабайт дорог, но зачем такое делать для 250 гб?
— Temp: сюда, например, инсталляторы распаковывают временные файлы, зачем тормозить установку, перекидывая всё на HDD?
— Своп: если памяти много, то лучше своп вообще отключить (времена Win98 прошли, когда своп был необходим), а если мало — пусть тогда своп на SSD используется — система шустрее будет.
— Кэш браузера: начальная загрузка браузера с SSD ощутимо быстрее.
> Народным массам нужен качественный скачок по объемам, дабы на один накопитель вмещалось, ну, например, терабайт 10.

Это что за народные массы такие, которым 10 терабайт нужны?
>им и потребуется и высокая скорость считывания

Боже, да на ютубе уже даже кулинарные шоу в 4K. Опомнитесь — никто ничего давно не качает. Вернее качают, но только те, кто это делает из известного принципа, те у кого нет нормальных скоростей и еще пара незначительных по весу групп.
UFO just landed and posted this here
>За всех не пишите, пожалуйста. что это за мода такая…

Я за всех и не пишу, я пишу за то большинство, которое составляет основную потребительскую корзину. Никто не будет выпускать 10TB SSD потому что бедным пользователям скорости для скаченных с торрентов 8K фильмов не хватает. Ну серьезно.

>Вот появятся дети, сразу начнёте качать мультики и складывать в кучку.

Во-первых для этого всяко не нужны 10TB диски. У меня анимы и без собственных детей тонны, уверяю вас. 2-3 терабайта на это хватает за глаза, даже если у вас все исключительно в BDrip 1080p.

Во-вторых никаких 8 и даже 4к там нет и не предвидится, кроме апскейла. Даже в 1080р сейчас мультфильмы практически не делают.

>Да, я про различного рода полнометражные премьеры.
Может быть, я за последние 10 лет смотрел фильмов 10, ибо кроме фестивального кино там стоящих лент особо и не было. Может быть и есть такая проблема. По мне так лучше сходить в кино, а к тому времени как захочется пересмотреть оно уже и так будет в онлайне.

>А на теликах 40" + любой онлайн

Если этот онлайн дает честные 1080, то выглядеть он будет также как и ваш спираченный BDrip, если только вы за своей плазмой не на расстоянии метра сидите.
> Никто не будет выпускать 10TB SSD потому что бедным пользователям скорости для скаченных с торрентов 8K фильмов не хватает. Ну серьезно.

Правильно, 640 килобайт хватит всем.

> Во-вторых никаких 8 и даже 4к там нет и не предвидится, кроме апскейла.

К сожалению, качественный апсекейл до 4к в реалтайме пока фантастика, а смотреть мыло при автоматическом резайсе как-то не очень хочется. Вот и приходится качать предварительно увеличенное видео.

Из наиболее качественных современных алгоритмов, которые я щупал:

— SI-2 — 70 ms для увеличения до 4к (AVX, 4 потока 4.5 GHz) — для простого FullHD уже получается реалтайм, но на калькуляторах не потянет. Реализация на GPU/FPGA невозможна из-за большого словаря.

— SRCNN (нейросеть) — даёт максимальное качество, но требует 40 секунд на кадр (аналогичная реализация). При реализации на GPU время обработки одного кадра может быть уменьшено до 1 секунды на топовой видеокарте.

Остальные относительно быстрые алгоритмы имеют уже более низкое качество.
>Правильно, 640 килобайт хватит всем.

Угу, только не в тему совершенно.

>Вот и приходится качать предварительно увеличенное видео.

То, что вы процитировали было совершенно о другом. Оно было о тех самых мультфильмах, которые в принципе только в апскейле выпускаются по сути. Само собой апскейл предварительный.
Так или иначе — 10 теров не надо даже для рипов с дисков.
Не окажется ли правильно приготовленный жёсткий диск лучше?

Не будет.


Ребят, врите, да не завирайтесь. У меня только что со стендов несколько консьюрмерских SSD — при постоянном random write с fsync'ом обычный WD green (лоуэнд на 5200 rpm) по max lantency рвёт всех. И вас, и ваших злейших конкурентов.

Ни один уважающий себя жёсткий диск не покажет latency под секунду. У SSD — как нефиг делать.

ЛАРЁК ЗАКРЫТ. УШЛА НА БАЗУ ДЕЛАТЬ ХАУСКИПИНГ.

Средняя latency будет ок. Пиковая — отвратительно и ниже плинтуса. Реально, когда речь идёт о более-менее ожидаемой производительности, десяток шпинделей работает. Да, пиковая latency 300ms. Зато ты уверен, что хуже не будет, а если будет — выкидывать диск как неисправный.

А у SSD — нет. У SSD пиковая latency может оказаться и 800ms, и секунду и больше.

Худшее, что я видел — это Samsung SSD 840 Series (S14GNEACB37180L). Пиковая latency при sustained random write (4k, iopdepth=1, span100%, fsync) была 4558 ms.

ЧЕТЫРЕ С ПОЛОВИНОЙ СЕКУНДЫ. Примерно в два раза хуже, чем у флопповода.

Средняя была терпимая (43ms), даже какие-никакие iops'ы были (750), но ЧЕТЫРЕ С ПОЛОВИНОЙ СЕКУНДЫ В ПИКЕ?

Ну хвалитесь — хвалитесь, но вот только HDD хаять не надо. Они консьюмерский уровень SSD по ряду параметров уделывают только в путь.
У меня Samsung SSD 840 PRO. При сохранении файла и открытии окна сохранения всё подзависает на несколько секунд, дико раздражает. Вы про это?
Возможно, зависит от SSD или вообще является дефектом. У меня Crucial MX100 512GB, за почти уже 2 года использования никогда с подобными проблемами и близко не сталкивался.
В виндовс восьмерке может такое наблюдаться, если не отключить настроенное по умолчанию хранение части данных на их облачном хранилище.
У меня похожий глюк был с папкой downloads — решилось сменой типа оптимизации папки (картинки > обычное)
Вы же объемы записи указывайте, которые нужно без перерыва записать, чтобы начались затыки. Они ведь существенно разные у тех же OCZ Triton 100 (и его аналоги), улучшенной в этом плане OCZ Triton 150 (и его аналоги) и, например, Samsung 850, верно?

P.S.: А кому нужен вчерашний 840-ой и на кой вы его тестировали, если не секрет? Тесты для статей или собирались закупать для серверов?
Я просто бенчмаркал весь хлам, какой есть в лабе. В продакшен пойдёт, разумеется, DC-grade intel, который вполне выдаёт больше 15кIOPS в fsync'е.

Всё плохо начинает работать почти сразу (для тех консьюмерских SSD, кто fsync уважает. Кто не уважает — через минут 10 теста или даже раньше).
Кстати, затыки по несколько секунд без проблем можно увидеть на том же OCZ Triton 100 или Goodram CX100. Даже без всякой синтетики. Загаживаем системный раздел, потом дефражим его чем-то типа Vopt9 (чтобы файлы тягало туда-сюда, а не только фрагментацию устраняло). А ведь такая перетасовка данных и близко не похожа на полный рандом.
Хм, а он здоров был? 750 iops'ов для ssd это очень странная цифра
Более чем. Это не «iops'ов», это «iops'ов в fsync'е», т.е. с обязательной записью из собственных кешей SSD. Без оного — десятки тысяч iops'ов, но кого это интересует-то, если у линуксов и так page cache есть.

750 не самая плохая цифра. Самая плохая на SSD, которую я видел — около 100.
Файловую систему всё же стоит использовать такую, которая предназначена именно для SSD и учитывает их особенности. Например, F2FS. Просто для того, чтобы она сама шустрее работала.

Поэтому — аппаратное шифрование в руки и паранойя во все поля, если по-другому не получается. Параноику на заметку: в накопителях Kingston шифровать файлы «на лету» позволяет даже недорогой KC300.

Как может параноик доверять проприетарной реализации шифрования?
Программное шифрование тоже не панацея, поскольку даже при полном шифровании у накопителя есть резервная область, которую он использует при нехватке свободного места (полностью зашифрованный накопитель для контроллера выглядит, как забитый по завязку). И в эту резервную область он будет постоянно копировать содержимое блоков, чтобы эффективно «тасовать», снижая неравномерность износа памяти. Что там останется в тот момент, когда товарищ майор изымет ваше оборудование — никто предсказать не возьмётся.

Именно поэтому, в руководстве к TrueCrypt/VeraCrypt рекомендуется не использовать SSD, если вы на нём планируете держать информацию, попадание которой в чужие руки может принести вам серьёзные неприятности.
И в эту резервную область он будет постоянно копировать содержимое блоков, чтобы эффективно «тасовать», снижая неравномерность износа памяти. Что там останется в тот момент, когда товарищ майор изымет ваше оборудование — никто предсказать не возьмётся.
Так а в чём проблема-то? Если во всех блоках куски зашифрованной ФС, то от того, что какие-то из ранее «перезаписанных» блоков на самом деле всё ещё доступны — ничего не изменится, ведь они тоже были зашифрованы.
Some storage devices (e.g., some solid-state drives, including USB flash drives) and some file systems utilize so-called wear-leveling mechanisms to extend the lifetime of the storage device or medium. These mechanisms ensure that even if an application repeatedly writes data to the same logical sector, the data is distributed evenly across the medium (logical sectors are remapped to different physical sectors). Therefore, multiple «versions» of a single sector may be available to an attacker. This may have various security implications. For instance, when you change a volume password/keyfile(s), the volume header is, under normal conditions, overwritten with a re- encrypted version of the header. However, when the volume resides on a device that utilizes a wear-leveling mechanism, VeraCrypt cannot ensure that the older header is really overwritten. If an
adversary found the old volume header (which was to be overwritten) on the device, he could use it to mount the volume using an old compromised password (and/or using compromised keyfiles that were necessary to mount the volume before the volume header was re-encrypted). Due to security reasons, we recommend that VeraCrypt volumes are not created/stored on devices (or in file systems) that utilize a wear-leveling mechanism (and that VeraCrypt is not used to encrypt any portions of such devices or filesystems).
Если старый пароль был скомпрометирован… А если не был, то все ок.
Именно поэтому «интеллектуальное» железо — зло. Организацией работы компьютера должна заниматься ОС. Производители железа могут поставлять драйвера, могут добавлять в железо отдельные процессоры ввода-вывода для разгрузки центрального, но задавать программы для всего это счастья должна именно операционная система. И тогда не возникнет проблемы, что абстракция протекла, а залатать — нельзя, потому что доступа к фирмвари нет.
UFO just landed and posted this here
Для совсем голого флеша есть ФС типа JFFS2 или UBIFS. Довольно интересные штуки, но на обычном ПК их использовать не получится — они работают на более низком уровне по сравнению с привычными ФС.
F2FS скорее подойдет для накопителей типа eMMC или SD, где накопитель вроде как есть, но не такой умный, как в SSD. И то в большей степени из-за скорости, а не из-за надежности.
> SSD прямо-таки созданы для того, чтобы рулить крохотными файлами в огромных количествах, а жёсткие диски в аналогичных сценариях быстро «захлебываются».

> А вот качать торренты, если есть из чего выбирать, лучше всё-таки на жёсткий диск. Потому что есть внедорожники для удовольствия, а есть — для путешествия в грязи.

Но, ведь торрент по сути состоит из кучи мелких блоков, которые практически в рандомном порядке выкачиваются во множестве параллельных потоках, особенно это чувствуется на больших скоростях интернета. Для этого как раз лучше всего подходит SSD. Плюс к этому, SSD пофиг на фрагментацию, которая образуется во время выкачивания торрента. Лично я на своей файлопомойке настроил transmission чтобы он качающиеся торренты сначала записывал на SSD, а уже потом готовые перекидывал на HDD.
Не таких уж и мелких, от 512К и больше. К тому же, по умолчанию клиент кеширует в RAM и записывает на диск только законченные блоки, а если настроить дополнительно то и блоками по 16-32-64Мб будет писать — целую пачку закачанных блоков сразу. С включенным режимом последовательной загрузки, даже дефрагментации не будет.
материнские платы чаще всего не поддерживают режим AHCI, а значит, режим «профилактики и самообслуживания» (TRIM) не будет работать.

Не правда, не укрепляйте мифы. Наличие AHCI вовсе не обязательно. TRIM — комманда ATA интерфейса, поэтому она может быть переслана контроллером даже в IDE режиме, даже контроллером, который не умеет AHCI. Я заводил TRIM на Win7 на материнке с мостом ICH9(не R). Да, это медленнее, но всёравно гораздо лучше HDD.
> И не забывайте о гарантии, которая для современных накопителей Kingston простирается ни 3-5 лет использования. А вот качать торренты, если есть из чего выбирать, лучше всё-таки на жёсткий диск.

Ну так если есть гарантия, то зачем заморачиваться, всё равно по завершению диск пойдёт в топку.

Кстати, не рассказали об одной весёлой особенности: SSD — не энергонезависима. Отключишь от питания, данные со временем рассеиваются. Чем новее SSD, тем быстрее он теряет данные после отключения питания.
Наоборот же — чем новее диск, тем дольше он хранит данные без перезаписи. Чем старее (сильнее изношены ячейки циклами записи) — тем быстрее утекает из них заряд после очередной записи и риском не прочитать потом, то что было записано. От нескольких лет у новеньких и до пары месяцев у тех, где расчетный ресурс записи к концу подходит.

Или новее в смысле из более новых производственных поколений? Тут зависимость есть, но основное ухудшения были скачком при переходе по типам ячеек SLC-MLC-TLC а не от года выпуска.
Например у меня в гарантии есть пункт что она аннулируется если записать 100 ТБ. А это не так уж и много
Где-то тут статья была, что если SSD не подключать к питанию на протяжении какого-то времени (года, неапример), то данные портятся. У классических жестких дисок таких проблем нет — если уж записал, то записал. Так что с т.з. хранения информации SSD пока не подходят. А жаль, т.к. хороши их скорость, да и объёмы подрастают.

https://geektimes.ru/post/250406/ "Отключённый промышленный твердотельник может потерять данные за неделю", 14 мая 2015


Доклад Элвина Кокса в… (JEDEC)… http://www.jedec.org/sites/default/files/Alvin_Cox%20%5BCompatibility%20Mode%5D_0.pdf

http://www.pcworld.com/article/2925173/debunked-your-ssd-wont-lose-data-if-left-unplugged-after-all.html (Пояснения, которые автор презентации, Alwin Cox, дал PCWorld — данные слайды показывают что будет с SSD после окончания его жизни, т.е. полностью "изношенный" SSD, и хранившийся после этого при повышенных температурах)


Debunked: Your SSD won't lose data if left unplugged after all
Gordon Mah Ung | @Gordonung, Executive Editor, PCWorld May 21, 2015 5:58 AM
“I wouldn’t worry about [losing data],” Cox told PCWorld. “This all pertains to end of life. As a consumer, an SSD product or even a flash product is never going to get to the point where it’s temperature-dependent on retaining the data.”
It was intended to help data center and enterprise customers understand what could happen to an SSD—but only after it had reached the end of its useful life span and was then stored at abnormal temperatures. It’s not intended to be applied to an SSD in the prime of its life in either an enterprise or a consumer setting.
Насколько я помню, при обычных температурах он терял данные не за неделю, а всего лишь за месяц. И при чём здесь срок жизни SSD? Он что ломается от того, что лежит на полке?

Под сроком жизни здесь видимо понимается достижение заявленного производителем TBW (т.е. высокий износ ячеек по количеству циклов p/e). (Например, http://www.anandtech.com/show/9248/the-truth-about-ssd-data-retention May 13, 2015: "Remember that the figures presented here are for a drive that has already passed its endurance rating, so for new drives the data retention is considerably higher, typically over ten years for MLC NAND based SSDs.")


В самой презентации
http://web.archive.org/web/20141126205812/http://www.jedec.org/sites/default/files/Alvin_Cox%20[Compatibility%20Mode]_0.pdf есть такие данные (фактически из JESD218.pdf):


(26) SSD endurance classes and requirements:
Application Class: Client; Workload: Client; Active Use (power on): 40 °C, 8 hrs/day; Retention Use (power off): 30 °C 1 year

JESD218 Solid-State Drive (SSD) Requirements and Endurance Test Method, 2010


3.3 Data Retention The ability of the SSD to retain data over time. Synonymous with retention in this document.…

6.3 Requirements for standard classes of SSDs.… Client: 1 year; Enterprise: 3 month. The retention use time is the period over which data must be retained with power off.

Annex C (informative): Estimated retention time for nonstandard active use temperatures. An SSD whose data retention is verified to the standard class requirements of Table 1 will have different data retention capability if the actual use temperature differs from that listed in the table.… For example, the standard client use condition is 40 °C active temperature and 30 °C power-off temperature, at which condition the data retention verified by this standard is the required 52 weeks (one year). On the other hand, if the actual power-off retention temperature were 25 °C, then this standard would ensure that the retention would be at least 105 weeks, or a little over two years.
>Забавное поверье, родом из эпохи жёстких дисков, которые в десктопном форм-факторе были почти всегда быстрее, чем ноутбучные 2,5” модификации.

Таки не верно. По скорости 2.5" всегда были быстрее своих больших братьев на равных оборотах шпинделя, если их конечно не обделяли нормальной электроникой. Маленький диск, маленький двигатель, лёгкие головки и более плотная компоновка в начале диска делают своё дело. Не просто так последние velociraptor'ы делали именно в таком формате.
> Маленький диск

Но ведь при одинаковой плотности записи за один оборот головка пройдет бОльшее расстояние на большом диске, поэтому прочитает/запишет больше информации за оборот диска. Разве нет?
Таки это тоже не верно. Даже если забыть что 2.5 как раз почти всегда имеют меньшую скорость вращения (4200-5400 rpm иногда даже 3 с чем тыс. об/мин встречаются против типовых 5400-7200 rpm для 3.5) и принять обороты равными, то 2.5" при прочих равных чуть-чуть быстрее в плане поиска нужной дорожки (время доступа складывается из поиска дорожки головками + задержки на поворот диска, первое у 2.5 чуть ниже, второе по определению равно при одинаковых оборотах) информации, но медленнее по линейному чтению/чтению большими блоками — т.к. при одинаковой угловой скорости(оборотов в минуту) у большего по размеру диска всегда выше линейная скорость с которой магнитная поверхность движется под головками (метров в минуту). В результате в реальных условиях обычно оказываются медленнее даже на одинаковых оборотах.
А уж разницу между 3.5" 7200 rpm и ноубычным 2.5" 5400 rpm заметно буквально на глаз без тестов — ноубучные диски просто тормоза по сравнению с десктопными 3.5

Рапторы же были быстрыми просто из-за скорости вращения пластин в 10000 об/мин и переход на 2.5" в первую очередь потому что так проще добиться стабильного вращения пачки дисков на такой скорости и меньше потребление энергии и нагрев.
Не поленился и распотрошил свои ноутбуки с самыми обычными бюджетными дисками внутри, подключил к ПК и сравнил с двумя 3.5" дисками:

2.5 Seagate ST500LM12. 500ГБ, 8МБ кеш, 5400 об/мин
image

2.5 Western Digital WD3200BPVT. 320ГБ, 8МБ кеш, 5400 об/мин
image

3.5 Seagate ST31500541AS. 1500ГБ, 32МБ кеш, 5900 об/мин
image

3.5 Western Digital WD20EARX. 2000ГБ, 64МБ кеш, 5400 об/мин
image

Оба 2.5" оказались быстрее своих больших братьев даже несмотря на то, что кеша в последних разительно больше.
Что-то у вас с десктопными 3.5 не в порядке. Хотя зеленые вестерны знатные тормоза, но все-равно как-то слишком медленно даже для них. У меня 5400-5900 под рукой нет, но вот мои 7200 диски в этой же программе:

1й старый диск (уже 6 лет физически, а самой модели лет 8 уже с начала производства) 1 ТБ Hitachi Deskstar 7K1000.C

Hitachi Deskstar 7K1000.C
-----------------------------------------------------------------------
CrystalDiskMark 3.0.4 (C) 2007-2015 hiyohiyo
Crystal Dew World : http://crystalmark.info/
-----------------------------------------------------------------------
* MB/s = 1,000,000 byte/s [SATA/300 = 300,000,000 byte/s]

Sequential Read : 117.606 MB/s
Sequential Write : 113.556 MB/s
Random Read 512KB : 43.095 MB/s
Random Write 512KB : 43.544 MB/s
Random Read 4KB (QD=1) : 0.530 MB/s [ 129.3 IOPS]
Random Write 4KB (QD=1) : 1.051 MB/s [ 256.6 IOPS]
Random Read 4KB (QD=32) : 0.696 MB/s [ 169.9 IOPS]
Random Write 4KB (QD=32) : 1.000 MB/s [ 244.0 IOPS]



Относительно свежий диск из недорогих и совсем не скоростных: TOSHIBA HDWD110 (1 ТБ, 7200 rpm) но в данном случае еще и скорость поиска искусственно ограничена. У него скорость головок при поиске специально снижена через AAM — зато не трещит громко головами как обычные 3.5 диски, а почти беззвучно работает из-за этого скорость случайного доступа самыми мелкими 4к блоками даже ниже чем у старого диска, хотя на последовательной записи и 512к намного быстрее.
TOSHIBA HDWD110
-----------------------------------------------------------------------
CrystalDiskMark 3.0.4 (C) 2007-2015 hiyohiyo
Crystal Dew World : http://crystalmark.info/
-----------------------------------------------------------------------
* MB/s = 1,000,000 byte/s [SATA/300 = 300,000,000 byte/s]

Sequential Read : 196.633 MB/s
Sequential Write : 184.630 MB/s
Random Read 512KB : 61.681 MB/s
Random Write 512KB : 75.008 MB/s
Random Read 4KB (QD=1) : 0.756 MB/s [ 184.5 IOPS]
Random Write 4KB (QD=1) : 0.559 MB/s [ 136.6 IOPS]
Random Read 4KB (QD=32) : 0.833 MB/s [ 203.5 IOPS]
Random Write 4KB (QD=32) : 0.583 MB/s [ 142.4 IOPS]

Количество пластин определяет плотность записи. В больших дисках больше пластин, теряется скорость чтения.
Sign up to leave a comment.