Комментарии 77
Нынешнему? Где они дисководы нынче встречают?
>> вот именно этот «разбег» в неидеальных условиях важен, и он зовётся «скоростью случайного доступа».
Зависит напрямую не только от скорости памяти, но от лимита IOPS. И его наращивание нынче тоже приуныло. Вы собственно тоже примеров этого прогресса не привели. Сложно найти, небось? )) А раньше да — много было накопителей со слабенькими первыми контроллерами и было куда расти.
Kingston таких оплошностей не допускал никогда
Полагаю, это именно то, ради чего и писался текст.
SSD 120ГБ, Kingston UV400 — подойдет в macbook pro?
Очень важный момент относительно SSD — это размер записываемых блоков.
SSD оперирует крупными блоками. SSD не может записать один сектор в 4 килобайта, как это делает HDD. SSD вынужден полностью прочитать внутренний блок (его размер составляет около 512 кбайт), внести изменения и записать обратно. Так как торрент клиент пишет большими блоками (по 1-2 мбайта), запись в файл подкачки тоже идёт крупными блоками, то такая запись весьма эффективна.
А вот что реально плохо, так это куча мелких записей: раличные логи и т.д. При записи 1 кластера в 4 кб SSD вынужден переписать около ~512 кб флеш-памяти. При работе компьютера 24/7 где-то 2/3 всех записей на диск составляют именно мелкие записи операционной системы, оставшаяся 1/3 — торренты и повседневная работа.
P.S. У меня OCZ RevoDrive X2 возрастом в 5 лет. Израсходовано всего 1% ресурса — ну не вижу никакого смысла экономить на записи.
А если торрентов терабайты и сотня активных, так они и на SSD не влезут. И под них логично несколько HDD завести. Соответственно — это уже совсем не тот случай.
Т.е. я предполагаю, что проблема в фрагментации. Или перенастроили параметры кеширования так, что клиент перестал эффективно функционировать.
>> Так как торрент клиент пишет большими блоками (по 1-2 мбайта), запись в файл подкачки тоже идёт крупными блоками, то такая запись весьма эффективна.
А можно подробнее о механизме? Откуда инфа, что эти 1-2 мб лягут «кучно» с высокой эффективностью?
>> У меня OCZ RevoDrive X2 возрастом в 5 лет. Израсходовано всего 1% ресурса — ну не вижу никакого смысла экономить на записи.
В объемах бы не помешало и ресурс, и расход.
Нынешние доступные любому карману SSD на дешевой памяти предлагают 20-30 Тб гарантированного ресурса на 120 Гб объема диска.
При этом, у знакомых в год расходуется 2-4 Тб. У меня где-то 2.5 получится (при этом я не пользуюсь гибернейтом и отключена очистка свапа при выключении ПК, т.е. ежедневно я не записываю приличное количество гиг, которые могут записывать другие, на тех же ноутбуках).
И при таком SSD, коих сейчас на рынке чуть ли не большинство, за год расходуется порядка 10% ресурса. Ни о какой норме «1% за 5 лет, т.е. 100% за 500 лет» даже и близко речи не идет )) Даже у Самсунга, у которого ресурс в разы выше.
Фрагментация при работе с торрентами есть всегда: файлы качаются/раздаются не последовательно, а в случайных позициях. Такой сценарий не очень благоприятен для HDD.
> Или перенастроили параметры кеширования так, что клиент перестал эффективно функционировать.
Да просто попытался скачать и раздать файл, в 3 раза превышающий размер свободной оперативной памяти.
> А можно подробнее о механизме? Откуда инфа, что эти 1-2 мб лягут «кучно» с высокой эффективностью?
Потому что данные в торрент-протоколе разбиваются на блоки, и этими блоками и обмениваются клиенты. Размер блока зависит от размера данных торрента и для больших раздач составляет от 2 до 8 мегабайт. Клиент обычно пишет блок на диск после того, как он будет полностью получен. Соответственно, запись получается довольно кучной.
> В объемах бы не помешало и ресурс, и расход.
Объём 240 гигабайт, ресурс — 10к циклов перезаписи, расход — 13 тб записано («грязными» — 40 тб), 74 тб прочитано, 40к часов.
>> Размер блока зависит от размера данных торрента и для больших раздач составляет от 2 до 8 мегабайт. Клиент обычно пишет блок на диск после того, как он будет полностью получен.
Я что-то запутался. Блоки по 1-2 Гб — это благоприятный сценарий. А губительная фрагментация — это когда приходится гонять по всему диску с гораааааздо меньшими порциями данных. Вот тогда диск начнет тупить. Каша на диске образуется, когда он почти заполнен и одним куском выделить место для крупных файлов уже не получается. И/или если отключить предварительное выделение места в настройках клиента. Так (удаляя и добавляя торренты/файлы, распаковывая что-то и т.д.) можно добиться совсем впечатляющей фрагментации.
>> Объём 240 гигабайт, ресурс — 10к циклов перезаписи
Это вы теоретический потенциал вашего массива памяти посчитали (при чем с учетом использования его как четырех дисков по 64 Гб, а не рейда 4х64, в котором ресурс расходуется параллельно, т.е. уменьшается в 4 раза). А речь была совсем не об этом показателе ))
Как минимум вы не учитываете необходимость периодически освежать ранее записанные данные. Почему-то эта сторона черного ящика мало освещается. Хотя актуальная и для HDD, и для SSD. Но если нам побоку, чем там HDD в свободное время занимается и как часто перезаписывает весь объем хранимых данных, то в случае с SSD было бы любопытно знать. В частности это могло бы пролить свет и на оверхед в вашем первом SSD.
А так же не учитываете то, что это вовсе не «от X циклов», а «порядка X циклов». Т.е. опираться на этот показатель нельзя никак. А с учетом всех софтовых нюансов получается, что этот теоретический потенциал нужно уменьшить в 5-10 раз и вот на полученное число уже можно опираться.
А у нынешней TLC памяти и теретический потенциал не ~10k, а ~1k. Так что, гарантированные 250 полных перезаписей диска (+«теневая» перезапись неизвестно сколько раз в течение всего срока эксплуатации) — это очень даже не плохая гарантированная оценка.
Разумеется, если память качественная и контроллер грамотный, то обычно накопитель превосходит заявленный гарантированный ресурс, но в СМАРТах мы сейчас наблюдаем тикающие проценты относительно именно TBW (гарантированного ресурса записи).
Обычно параметр «SSD Life» отражает процент расходования гарантированного ресурса. Использовать в названии такого параметра слово «life» было дурацкой идеей, как по мне ))
Торрент-клиент обычно выделяет место сразу под весь файл, поэтому на диске фрагментации нет (или она минимальна). А вот потом начинает читать и писать в произвольных местах. Читать — мелкими порциями (для каждого из качающих пиров), писать — довольно крупными (около 1 мегабайта).
> Хотя актуальная и для HDD, и для SSD.
HDD тоже данные забывает, к сожалению, если их долго не читать (сталкивался уже с таким).
> Оверхед в первом SSD
Оверхед всегда будет. Запись куска данных в 4кб в произвольное место потребует стирания целого блока в SSD размером около 1мб.
Кстати, судя по смарту, в первом SSD максимальное число циклов перезаписи для некоторых ячеек вообще достигало 100к. Т.е. контроллер насиловал ячейки не до определённого лимита, а до выхода ячейки из строя.
Ну это же очень мало! Всего 250 циклов перезаписи.
Впрочем, мой самый первый SSD (Corsair x128) сдох уже после 4.8 Тб записи «чистыми», при этом Average erase count = 7300/10000 — соответствует ~900 Тб записи «грязными». Походу, была просто дикая неэффективность прошивки и памяти.
> При этом, у знакомых в год расходуется 2-4 Тб. У меня где-то 2.5 получится (при этом я не пользуюсь гибернейтом и отключена очистка свапа при выключении ПК, т.е. ежедневно я не записываю приличное количество гиг, которые могут записывать другие, на тех же ноутбуках).
Аналогично. Добавлю, что в моём случае включение свопа на SSD увеличивало количество записи на диск где-то в полтора раза. Правда, это была ситуация, когда мне 16 гигов памяти не хватало — немного нетипичная ситуация для обычного пользователя.
> И при таком SSD, коих сейчас на рынке чуть ли не большинство, за год расходуется порядка 10% ресурса. Ни о какой норме «1% за 5 лет, т.е. 100% за 500 лет» даже и близко речи не идет )) Даже у Самсунга, у которого ресурс в разы выше.
Современные SSD имеют меньший ресурс, чем более старые. Но в данном случае это оправдано и компенсируется существенно более низкой ценой (за 5 лет SSD подешевели примерно в 4 раза).
А как насчёт баз данных, файловой системы, системного лога и прочих ситуаций, когда происходит запись поверх существующих данных, а в блоке нет свободных участков?
На хабре была статья по этому поводу. Пишется в свободные части блоков, стираются только свободные но не чистые блоки, и добавляется магия от производителя как освободить почти освобождённые но не чистые блоки от актуальных данных и собрать их в одном месте чтобы можно было операцией TRIM освободить блоки которые станут доступными для немедленной записи.
Для этого, собственно, накопитель какое-то время должен простаивать чтобы работала магия — иначе перед каждой записью будет задержка на время очистки блока и его перезаписи. Короче — волшебство исчезнет.
Кроме того, вместе с этим механизмом работает ещё и механизм выравнивания износа который подсчитывает количество записей в ячейку и на запрос записи очередной порции данных подсказывает самую свежую.
Просто за счет умной работы контроллера (в т.ч. всего описанного вами) его конкретное значение удалось существенно снизить по сравнению с ранними дисками. Но он все-равно всегда остается больше 1. Т.е. физически в микросхемы флэш памяти записывается ВСЕГДА больше данных чем суммарно присылала ОС в контроллер диска для записи.
И поэтому производители продолжают перестраховываться выставляя TBW значения намного (как минимум в разы) ниже чем ресурс используемых микросхем. Например раз уж мы в блоге Кингстон они для дисков на 256 (240) Гб обычно ставят 128 TBW (64 ТБ TBW для 120/128 ГБ дисков). Т.е. ресурс диска на запись — 128 ТБ при емкости 256 ГБ. Т.е. получается что можно перезапись полный объем всего 500 раз. Хотя ресурс ячеек стоящих внутри при этом — минимум 1500-3000 циклов записи.
Это в том числе из-за того, что в зависимости от характера использования диска со стороны пользователя из-за WriteAmplification 128 ТБ записанных пользователем (точнее присланных от ОС в контроллер — пользовательских данных может быть еще меньше, т.к. ОС шлет уже минимум целыми секторами даже если полезный объем данных был всего 1 байт) легко могут превратиться и в 256 ТБ и даже в 512 ТБ которые контроллеру придется записывать физически в блоки флэш-памяти. И нужен хороший запас чтобы не превысить ресурс ячеек.
Ещё как становятся!<<<
А как же TLC?
на «жесткий диск SSD 120ГБ, Kingston UV400, SUV400S37/120G» нет скидки по промокоду
Народным массам нужен качественный скачок по объемам, дабы на один накопитель вмещалось, ну, например, терабайт 10. Как-никак, 8K-фильмы придут в недалеком будущем, им и потребуется и высокая скорость считывания, и большие объемы.
— Temp: сюда, например, инсталляторы распаковывают временные файлы, зачем тормозить установку, перекидывая всё на HDD?
— Своп: если памяти много, то лучше своп вообще отключить (времена Win98 прошли, когда своп был необходим), а если мало — пусть тогда своп на SSD используется — система шустрее будет.
— Кэш браузера: начальная загрузка браузера с SSD ощутимо быстрее.
Это что за народные массы такие, которым 10 терабайт нужны?
Боже, да на ютубе уже даже кулинарные шоу в 4K. Опомнитесь — никто ничего давно не качает. Вернее качают, но только те, кто это делает из известного принципа, те у кого нет нормальных скоростей и еще пара незначительных по весу групп.
Я за всех и не пишу, я пишу за то большинство, которое составляет основную потребительскую корзину. Никто не будет выпускать 10TB SSD потому что бедным пользователям скорости для скаченных с торрентов 8K фильмов не хватает. Ну серьезно.
>Вот появятся дети, сразу начнёте качать мультики и складывать в кучку.
Во-первых для этого всяко не нужны 10TB диски. У меня анимы и без собственных детей тонны, уверяю вас. 2-3 терабайта на это хватает за глаза, даже если у вас все исключительно в BDrip 1080p.
Во-вторых никаких 8 и даже 4к там нет и не предвидится, кроме апскейла. Даже в 1080р сейчас мультфильмы практически не делают.
>Да, я про различного рода полнометражные премьеры.
Может быть, я за последние 10 лет смотрел фильмов 10, ибо кроме фестивального кино там стоящих лент особо и не было. Может быть и есть такая проблема. По мне так лучше сходить в кино, а к тому времени как захочется пересмотреть оно уже и так будет в онлайне.
>А на теликах 40" + любой онлайн
Если этот онлайн дает честные 1080, то выглядеть он будет также как и ваш спираченный BDrip, если только вы за своей плазмой не на расстоянии метра сидите.
Правильно, 640 килобайт хватит всем.
> Во-вторых никаких 8 и даже 4к там нет и не предвидится, кроме апскейла.
К сожалению, качественный апсекейл до 4к в реалтайме пока фантастика, а смотреть мыло при автоматическом резайсе как-то не очень хочется. Вот и приходится качать предварительно увеличенное видео.
Из наиболее качественных современных алгоритмов, которые я щупал:
— SI-2 — 70 ms для увеличения до 4к (AVX, 4 потока 4.5 GHz) — для простого FullHD уже получается реалтайм, но на калькуляторах не потянет. Реализация на GPU/FPGA невозможна из-за большого словаря.
— SRCNN (нейросеть) — даёт максимальное качество, но требует 40 секунд на кадр (аналогичная реализация). При реализации на GPU время обработки одного кадра может быть уменьшено до 1 секунды на топовой видеокарте.
Остальные относительно быстрые алгоритмы имеют уже более низкое качество.
Угу, только не в тему совершенно.
>Вот и приходится качать предварительно увеличенное видео.
То, что вы процитировали было совершенно о другом. Оно было о тех самых мультфильмах, которые в принципе только в апскейле выпускаются по сути. Само собой апскейл предварительный.
Так или иначе — 10 теров не надо даже для рипов с дисков.
Не окажется ли правильно приготовленный жёсткий диск лучше?
Не будет.
Ребят, врите, да не завирайтесь. У меня только что со стендов несколько консьюрмерских SSD — при постоянном random write с fsync'ом обычный WD green (лоуэнд на 5200 rpm) по max lantency рвёт всех. И вас, и ваших злейших конкурентов.
Ни один уважающий себя жёсткий диск не покажет latency под секунду. У SSD — как нефиг делать.
ЛАРЁК ЗАКРЫТ. УШЛА НА БАЗУ ДЕЛАТЬ ХАУСКИПИНГ.
Средняя latency будет ок. Пиковая — отвратительно и ниже плинтуса. Реально, когда речь идёт о более-менее ожидаемой производительности, десяток шпинделей работает. Да, пиковая latency 300ms. Зато ты уверен, что хуже не будет, а если будет — выкидывать диск как неисправный.
А у SSD — нет. У SSD пиковая latency может оказаться и 800ms, и секунду и больше.
Худшее, что я видел — это Samsung SSD 840 Series (S14GNEACB37180L). Пиковая latency при sustained random write (4k, iopdepth=1, span100%, fsync) была 4558 ms.
ЧЕТЫРЕ С ПОЛОВИНОЙ СЕКУНДЫ. Примерно в два раза хуже, чем у флопповода.
Средняя была терпимая (43ms), даже какие-никакие iops'ы были (750), но ЧЕТЫРЕ С ПОЛОВИНОЙ СЕКУНДЫ В ПИКЕ?
Ну хвалитесь — хвалитесь, но вот только HDD хаять не надо. Они консьюмерский уровень SSD по ряду параметров уделывают только в путь.
P.S.: А кому нужен вчерашний 840-ой и на кой вы его тестировали, если не секрет? Тесты для статей или собирались закупать для серверов?
Поэтому — аппаратное шифрование в руки и паранойя во все поля, если по-другому не получается. Параноику на заметку: в накопителях Kingston шифровать файлы «на лету» позволяет даже недорогой KC300.
Как может параноик доверять проприетарной реализации шифрования?
Именно поэтому, в руководстве к TrueCrypt/VeraCrypt рекомендуется не использовать SSD, если вы на нём планируете держать информацию, попадание которой в чужие руки может принести вам серьёзные неприятности.
И в эту резервную область он будет постоянно копировать содержимое блоков, чтобы эффективно «тасовать», снижая неравномерность износа памяти. Что там останется в тот момент, когда товарищ майор изымет ваше оборудование — никто предсказать не возьмётся.Так а в чём проблема-то? Если во всех блоках куски зашифрованной ФС, то от того, что какие-то из ранее «перезаписанных» блоков на самом деле всё ещё доступны — ничего не изменится, ведь они тоже были зашифрованы.
Some storage devices (e.g., some solid-state drives, including USB flash drives) and some file systems utilize so-called wear-leveling mechanisms to extend the lifetime of the storage device or medium. These mechanisms ensure that even if an application repeatedly writes data to the same logical sector, the data is distributed evenly across the medium (logical sectors are remapped to different physical sectors). Therefore, multiple «versions» of a single sector may be available to an attacker. This may have various security implications. For instance, when you change a volume password/keyfile(s), the volume header is, under normal conditions, overwritten with a re- encrypted version of the header. However, when the volume resides on a device that utilizes a wear-leveling mechanism, VeraCrypt cannot ensure that the older header is really overwritten. If an
adversary found the old volume header (which was to be overwritten) on the device, he could use it to mount the volume using an old compromised password (and/or using compromised keyfiles that were necessary to mount the volume before the volume header was re-encrypted). Due to security reasons, we recommend that VeraCrypt volumes are not created/stored on devices (or in file systems) that utilize a wear-leveling mechanism (and that VeraCrypt is not used to encrypt any portions of such devices or filesystems).
F2FS скорее подойдет для накопителей типа eMMC или SD, где накопитель вроде как есть, но не такой умный, как в SSD. И то в большей степени из-за скорости, а не из-за надежности.
> А вот качать торренты, если есть из чего выбирать, лучше всё-таки на жёсткий диск. Потому что есть внедорожники для удовольствия, а есть — для путешествия в грязи.
Но, ведь торрент по сути состоит из кучи мелких блоков, которые практически в рандомном порядке выкачиваются во множестве параллельных потоках, особенно это чувствуется на больших скоростях интернета. Для этого как раз лучше всего подходит SSD. Плюс к этому, SSD пофиг на фрагментацию, которая образуется во время выкачивания торрента. Лично я на своей файлопомойке настроил transmission чтобы он качающиеся торренты сначала записывал на SSD, а уже потом готовые перекидывал на HDD.
материнские платы чаще всего не поддерживают режим AHCI, а значит, режим «профилактики и самообслуживания» (TRIM) не будет работать.
Не правда, не укрепляйте мифы. Наличие AHCI вовсе не обязательно. TRIM — комманда ATA интерфейса, поэтому она может быть переслана контроллером даже в IDE режиме, даже контроллером, который не умеет AHCI. Я заводил TRIM на Win7 на материнке с мостом ICH9(не R). Да, это медленнее, но всёравно гораздо лучше HDD.
Ну так если есть гарантия, то зачем заморачиваться, всё равно по завершению диск пойдёт в топку.
Кстати, не рассказали об одной весёлой особенности: SSD — не энергонезависима. Отключишь от питания, данные со временем рассеиваются. Чем новее SSD, тем быстрее он теряет данные после отключения питания.
Или новее в смысле из более новых производственных поколений? Тут зависимость есть, но основное ухудшения были скачком при переходе по типам ячеек SLC-MLC-TLC а не от года выпуска.
https://geektimes.ru/post/250406/ "Отключённый промышленный твердотельник может потерять данные за неделю", 14 мая 2015
Доклад Элвина Кокса в… (JEDEC)… http://www.jedec.org/sites/default/files/Alvin_Cox%20%5BCompatibility%20Mode%5D_0.pdf
http://www.pcworld.com/article/2925173/debunked-your-ssd-wont-lose-data-if-left-unplugged-after-all.html (Пояснения, которые автор презентации, Alwin Cox, дал PCWorld — данные слайды показывают что будет с SSD после окончания его жизни, т.е. полностью "изношенный" SSD, и хранившийся после этого при повышенных температурах)
Debunked: Your SSD won't lose data if left unplugged after all
Gordon Mah Ung | @Gordonung, Executive Editor, PCWorld May 21, 2015 5:58 AM
“I wouldn’t worry about [losing data],” Cox told PCWorld. “This all pertains to end of life. As a consumer, an SSD product or even a flash product is never going to get to the point where it’s temperature-dependent on retaining the data.”
It was intended to help data center and enterprise customers understand what could happen to an SSD—but only after it had reached the end of its useful life span and was then stored at abnormal temperatures. It’s not intended to be applied to an SSD in the prime of its life in either an enterprise or a consumer setting.
Под сроком жизни здесь видимо понимается достижение заявленного производителем TBW (т.е. высокий износ ячеек по количеству циклов p/e). (Например, http://www.anandtech.com/show/9248/the-truth-about-ssd-data-retention May 13, 2015: "Remember that the figures presented here are for a drive that has already passed its endurance rating, so for new drives the data retention is considerably higher, typically over ten years for MLC NAND based SSDs.")
В самой презентации
http://web.archive.org/web/20141126205812/http://www.jedec.org/sites/default/files/Alvin_Cox%20[Compatibility%20Mode]_0.pdf есть такие данные (фактически из JESD218.pdf):
(26) SSD endurance classes and requirements:
Application Class: Client; Workload: Client; Active Use (power on): 40 °C, 8 hrs/day; Retention Use (power off): 30 °C 1 year
JESD218 Solid-State Drive (SSD) Requirements and Endurance Test Method, 2010
3.3 Data Retention The ability of the SSD to retain data over time. Synonymous with retention in this document.…
6.3 Requirements for standard classes of SSDs.… Client: 1 year; Enterprise: 3 month. The retention use time is the period over which data must be retained with power off.
Annex C (informative): Estimated retention time for nonstandard active use temperatures. An SSD whose data retention is verified to the standard class requirements of Table 1 will have different data retention capability if the actual use temperature differs from that listed in the table.… For example, the standard client use condition is 40 °C active temperature and 30 °C power-off temperature, at which condition the data retention verified by this standard is the required 52 weeks (one year). On the other hand, if the actual power-off retention temperature were 25 °C, then this standard would ensure that the retention would be at least 105 weeks, or a little over two years.
Таки не верно. По скорости 2.5" всегда были быстрее своих больших братьев на равных оборотах шпинделя, если их конечно не обделяли нормальной электроникой. Маленький диск, маленький двигатель, лёгкие головки и более плотная компоновка в начале диска делают своё дело. Не просто так последние velociraptor'ы делали именно в таком формате.
Но ведь при одинаковой плотности записи за один оборот головка пройдет бОльшее расстояние на большом диске, поэтому прочитает/запишет больше информации за оборот диска. Разве нет?
А уж разницу между 3.5" 7200 rpm и ноубычным 2.5" 5400 rpm заметно буквально на глаз без тестов — ноубучные диски просто тормоза по сравнению с десктопными 3.5
Рапторы же были быстрыми просто из-за скорости вращения пластин в 10000 об/мин и переход на 2.5" в первую очередь потому что так проще добиться стабильного вращения пачки дисков на такой скорости и меньше потребление энергии и нагрев.




Оба 2.5" оказались быстрее своих больших братьев даже несмотря на то, что кеша в последних разительно больше.
1й старый диск (уже 6 лет физически, а самой модели лет 8 уже с начала производства) 1 ТБ Hitachi Deskstar 7K1000.C
-----------------------------------------------------------------------
CrystalDiskMark 3.0.4 (C) 2007-2015 hiyohiyo
Crystal Dew World : http://crystalmark.info/
-----------------------------------------------------------------------
* MB/s = 1,000,000 byte/s [SATA/300 = 300,000,000 byte/s]
Sequential Read : 117.606 MB/s
Sequential Write : 113.556 MB/s
Random Read 512KB : 43.095 MB/s
Random Write 512KB : 43.544 MB/s
Random Read 4KB (QD=1) : 0.530 MB/s [ 129.3 IOPS]
Random Write 4KB (QD=1) : 1.051 MB/s [ 256.6 IOPS]
Random Read 4KB (QD=32) : 0.696 MB/s [ 169.9 IOPS]
Random Write 4KB (QD=32) : 1.000 MB/s [ 244.0 IOPS]
Относительно свежий диск из недорогих и совсем не скоростных: TOSHIBA HDWD110 (1 ТБ, 7200 rpm) но в данном случае еще и скорость поиска искусственно ограничена. У него скорость головок при поиске специально снижена через AAM — зато не трещит громко головами как обычные 3.5 диски, а почти беззвучно работает из-за этого скорость случайного доступа самыми мелкими 4к блоками даже ниже чем у старого диска, хотя на последовательной записи и 512к намного быстрее.
-----------------------------------------------------------------------
CrystalDiskMark 3.0.4 (C) 2007-2015 hiyohiyo
Crystal Dew World : http://crystalmark.info/
-----------------------------------------------------------------------
* MB/s = 1,000,000 byte/s [SATA/300 = 300,000,000 byte/s]
Sequential Read : 196.633 MB/s
Sequential Write : 184.630 MB/s
Random Read 512KB : 61.681 MB/s
Random Write 512KB : 75.008 MB/s
Random Read 4KB (QD=1) : 0.756 MB/s [ 184.5 IOPS]
Random Write 4KB (QD=1) : 0.559 MB/s [ 136.6 IOPS]
Random Read 4KB (QD=32) : 0.833 MB/s [ 203.5 IOPS]
Random Write 4KB (QD=32) : 0.583 MB/s [ 142.4 IOPS]
«Знакомый моего знакомого сказал…». Разоблачаем сплетни и мифы об SSD