Pull to refresh

Comments 120

Операционная система — Windows 8 Consumer Preview, загрузка которой, как видно из видео, занимает всего 16 секунд.
всего 16 секунд
всего
Это вы так шутите, ведь правда? Как-то очень много для загрузки с RAID-а из SSD.
UFO just landed and posted this here
Мой ssd загружает release preview за 3 секунды
Он у вас поди загружает на горячую. Ну, из гибернации ядра без юзерспейса.
Знаете, у нас тут как бы it-специалисты и могут различить гибернацию от загрузки и перезагрузки
В Win8 новый режим же. Оно отправляет в гибернацию только ядро без юзерспейса и из этого состояния грузится весьма быстро. Мелкомягкие в своих бенчмарках это обозвали «загрузкой», хотя холодным стартом это не является.
До этого была Win7, тоже грузилась быстро, явно не 15 секунд. И все же холодный старт по любому когда-то происходит, драйвера, bsod и т.п. но к счастью это все в рамках 5 секунд
Мой SSD грузит Win7 именно 10-15 секунд, ну это до экрана с паролем.
SSD на ноуте(Lenovo Y570S) — то пароля за 7-10 секунд.
Я вот тоже не очень понимаю как отличить на своем. Win8 RP на Crutical M4 грузится за 3 сек после завершения работы и примерно столько же из спящего режима (хотя может и секунды 2, не знаю). Как выключить так чтобы совсем? Шнур питания выдернуть что-ли?)
Можно попробовать отключить эту штуку и замерить без неё.
Users can either disable it or enable it. In order to do so they need to fire up Control Panel and make their way to Power Options.
Да, этот пример — точно не показатель.
У меня ноутбук Lenovo ThinkPad T430s, ОС установлена на SSD OCZ Nocti 120Gb (mSATA; SATA2). Загрузка Win7 x64 SP1 — порядка 17 секунд до ввода пароля.
Я думаю у меня тупит инициализация какого-то устройства.
А теперь очень серьёзный профессиональный вопрос: 100% span, 4k блоки, random write устоявшийся сколько?

Тщательно культивируемый миф о скорости SSD натыкается на суровую правду — ssd сосут по записи. Они в общем и целом быстрее, чем SATA-диски, но с 15k RPM SAS уже идут нос-в-нос.

* магнитный диск даёт постоянную производительность вне зависимости от того, как долго нагружен. SSD начинает терять производительность под длительной нагрузкой.
* Магнитный диск не испытывает никаких затруднений от последовательной записи мелким блоком с задержкой, SSD вынужены постоянно ремапить большой блок.
* Магнитный диск не имеет заметного износа (У SSD он не катастрофический, но требующий мониторинга).
И главное: на запись массив из тупых SATA оказывается в разы дешевле (в пересчёте на IOPS), чем SSD.

На чтение SSD — короли, да. Но в большинстве случаев ram-кеш и магнитным дискам неплохо помогает.

Именно потому производители SSD любят упирать на время загрузки — в это время у магнитного диска нет живого кеша.

А в более реальной нагрузке SSD… иногда имеет смысл.
А для desktop-а обычного посоветуете взять ssd на 120 на 3-4 килорубля или лучше на что-то иное смотреть?
Мне трудно сказать, я специализируюсь на серверном. На 3-4круб проще всего взять нормальный магнитный диск. Особенно, если основной задачей считать не загрузку ОС, а другие виды нагрузки с активным кешем.

Мягко говоря спорное утверждение. Для домашнего компа лучше брать SSD под систему. И кэш отдыхает (у меня к примеру 8 гиг оперативки, т.е. под кэш всего хватает), но после того как поставил систему на Crucial M4 винда и остальной софт никогда так не летали. Основной плюс SSD не в скорости чтения, а во времени случайного доступа, а тут любой HDD отдыхает просто. Да и что касается записи то на домашних компах нет такой необходимости постоянно много писать. Разве что торренты, но под них лучше поставить вместительный большой HDD, причем не самый быстрый, чтобы потише работал.
Берите, систему будет работать существенно быстрее, и не только на загрузке. amarao не слушайте, сами проверьте.
На сегодняшний день посмотрите в стороны Vertex 4 128Гб. Но только если у вас мать подддерживает SATA3. С SATA2 возможны проблемы.
SATA2 на intel'овских чипах вполне жизнеспособна. Использовал как Vertex3, так и Vertex4.
Тут еще не сказали что ssd в отличие от hdd не шумит, не греется и ему не страшны падения и удары.
Даже не сомневайтесь, ssd сейчас брать целесообразнее.
Сэкономит вам кучу нервов из-за более высокой отзывчивости системы.
SAS диски на 15к, да еще кондиционер ему в придачу обойдется в разы дороже нежели SSD диски. SSD берется для дома, массив SATA как-то еще одна печка. Так что ваше высказывания совсем не для домашнего использования, если нужна скорость. Я пользую SSD диск порядка 8 месяцев, за это время сильно привык, не шумит, не кочегарится как HDD.

Но я согласен, что SSD страдают в скорости, это заметно когда он забит под завязку, начинаются жуткие тормозюки.
В какие разы? Вы цены на SSD видели? Там четырёхзначные цифры. Топовая SSD'шка от интела стоит столько же, столько полный jbod, с дисками (которые дадут большие попугаи на запись).

Я это всё пишу не чтобы языком потрепать, я по этим граблям с SSD лично прошёлся и не один час провёл над тестами и осмыслением того пиз… ца, куда сваливается производительность после 2-3 часов.

И, кстати, насчёт забивки на 100%. Просто для информации: у 320ой серии (intel), например, даже с 20% overprovisioning (т.е. 20% резерва места, куда никто не пишет) в треш-нагрузке на запись (80% спан) производительность падает до 600 IOPS. Просто для понимания драмы: одинокая SATA'ка на 7200 показывает в том же тесте 150-180 IOPS. RAID10 (20 дисков) из таких SATA'шек даёт большие попугаи на запись при меньшей стоимости, чем RAID10 из 4х SSD.
Про потерю производительности под постоянной нагрузкой в первый раз слышу, если честно. Можно поподробнее?
Ну, Интел никогда подобного не скрывала. Если посмотрите презентации, там всегда говорят о том, что результаты меряются после устоявшейся нагрузки в течнение нескольких часов.

Суть проблемы: Если вы создаёте SSD некомфортные условия (например, многопоточная случайная запись по большому span с максимально возможной загрузкой) первое время (порядка 10-20 минут) вы видите фантастические результаты в тысячи IOPS'ов. То есть запросто можно видеть и 3, и даже 6к IOPS. В приницпе, я с RAID10 получал до 20kIOPS на 80% span 4k блоками (iodepth=32).

Через некоторое время производительность начинает падать. Вполне себе так предсказуемо — и падает до реальной производительности. Вместо 10k IOPS там образуется постепенно сначала 4к, потом 2к, а потом можно видеть что-то порядка 1.2k (читай — 600 IOPS на диск). Если снять нагрузку — SSD начинает восстанавливаться (снял нагрузку на 30с — пару минут быстро, потом обратно. Снял нагрузку на пол-часа — минут 10 высокой производительности).

Причина — в housekeeping'е внутри SSD. SSD физически не может писать блоки по 4к, то есть пишутся блоки по 512к (или сколько там внутри), переупорядочиваются данные и т.д.

Собственно, возьмите fio, возьмите ssd и оставьте на два часа в режиме трешинга. результат будет ужасающим.

А чтобы не быть голословным — на ark.intel.com для 320ой серии вообще обещано 400 IOPS для 100% span.

Как показал опыт — 80% span увеличивает производительность на 50% — до 600 IOPS.
Интересно услышать отзыв о работе SSD, как хранилища для систем виртуализации. Если брать Intel 520 или Corsair Performance Pro в RAID10, например. Будет ли это выгодней, чем RAID10 из 15k SAS + SSD для кеширования на чтение/запись?
В такой формулировке ответ простой: берите самые дешёвые диски максимальной ёмкости (грины по 3Тб), делайте raid6 на 36 дисков — и вы получите самый дешёвый (выгодный) гигабайт в истории СХД.

Если же хотите внятного ответа, то задайте внятный вопрос.
Имелось ввиду с точки зрения производительности и IOPS, а не цены за гигабайт. Задача сделать производтельное решение, пусть и не очень большого объема.
P.S. Вы используете сейчас SSD в продакшене?
Правильно формулируйте вопросы. Пока у вас вопрос не подразумевает явного ответа.

Мы используем SSD в продакте и я всё это пишу по мотивам отчаянной борьбы за адекватную их производительность.
К примеру лично я использую.
Для наших задач подходит. Соотношение чтение/запись — около 95/5. Чтение — в основном рэндомное, но при этом достаточно крупными блоками, чтобы SSD эффективно работал, но недостаточно крупными, чтобы это можно было отнести к потоковому чтению. Для других задач — возможно они не подходят.
А вообще, по поводу надо не надо в конкретном случае — дома мне нафиг не нужен RAID 10 на 20 дисках, даже если мне такая производительность будет нужна. Я скорее посмотрю на RAID 10 x 4 SSD, даже если немного проиграю в некоторых специфических сценариях, которые в реальных задачах воспроизводятся редко и далеко не всегда.
И вообще, речь об обычном ДОМАШНЕМ применении. Серверную со спальней путать не надо… А то мы сейчас еще что нибудь типа HP StorageWorks вспомним, и выяснится, что остальные то решения просто дерьмо какое-то…
Вы какие-то странные сравнения даете.
128ГБ crucialm4 в райде будет несравненно быстрее и в записи и в чтение нежели 500гб сата стоит столько же сколько 128 гб ссд, но не дает такой же производительности и времени доступа.
даже 2х500 гб сата, даже с райдом приличным (а это уже цену для ссд увеличивает до возможности покупки минимум еще 6 дисков (ссд), что выводит нас в теже размеры и большие скорости)
Можно цифры? Я не очень понимаю смысла фразы «такой же».

span=80%, 4k random write, iodepth=4k, нагрузка минимум час. Сколько IOPS на запись?
Ну Вы говорите, что SSD один диск опускается до 600 IOPS.
Насколько мне известно, даже у SAS 15K IOPS редко достигнет 150.
При этом 4 диска SAS в железном RAID с BBU (куда же без него) догоняющие по скорости 1! SSD будут несравненно дороже, чем SSD software raid 10 из 4х дисков (Да что уж там, можно и SLC или дорогие контроллеры зафигачить, я насколько помню на них цены 500 баксов за 100 гб, столько же стоит 600гб SAS 15k rpm).
7200 SATA выдают 160-180 IOPS. 4k, iodepth=32, span=100%.
Одна штука? Без райда и кэша? Не верю
Так возьмите, да проверьте. Кто ж вас заставляет мне на слово верить? Условия текста я уже много раз повторил: blocksize=4k; span=100%, iodepth=32, direct=1/buffered=0,rw=randwrite.

Я бедный диск неделю в этом тесте продержал — константная производительность.
И сколько SATA 500 gb надо чтобы 600 иопсов получить? в райд 10?
Хотя если честно я сомневаюсь про 600 иопсов у 128гб ссд… 3000-6000 иопсов может быть, но не 600
36 дисков в RAID10 выдают около 8к IOPS.
36 дисков о_О. Дают столько же сколько один ССД?
И сколько стоит райд для этих 36 дисков?
facepalm.

Не столько же, а сильно больше. На той же нагрузке raid10 из 4х SSD (320 серия intel) выдаёт 1.2-2к IOPS.

4 SSD стоят около $4k. 36 дисков стоят $7.2k.
4 SSD стоят 4K? Это может быть PCIxE карты SSD стоят столько, но никак не аналоги SATA. (SSD под 1000 долларов, с ума сойти)
И PCIxE картый выдают столько IOPS (даже одна), что никакой суперпупер райд их не догонит
Начались сказки. PCIxE имеют преимущество над SAS/SATA интерфейсами из-за меньшего оверхеда на операции и большей пропускной шины. Это помогает в случаях, когда «потроха» SSD способны выдать бОльшую, чем интерфейс скорость. Что, разумеется, помогает при чтении (ура, SSD на коне), но совершенно не помогает на произвольной записи, которая лимитируется не оверхедом на декодирование SCSI/ATA-команд, а производительностью потрохов.
Сначала мы говорим про Intel 320 и приводим IOPS для него, а цену озвучиваем Intel 710. Который один диск 38.5k IOPS на чтение и 2k IOPS на запись при 100% span выдает. В RAID10 при 80% span вполне может быть 10k IOPS на запись.
Это немного больше, чем 8k для 36 дисков, но цена почти в 2 раза дешевле. 4хIntel 320 обойдутся примерно в $2k.
По каким параметрам это «серверное» железо будет лучше «десктопного» крушала или вертекса?

В hdd есть явные отличия, в том числе по надежности, но у ssd их нет (потому, что технология еще развивается). По скорости, аналогично.
Крушалы, как и ocz отлично работают под длительной нагрузкой. Стоят по 250 баксов за 250 гигов.
Ну и да, это все-же не серверное, а ноутбучное решение, с весьма скромными скоростными характеристиками. Дорого, видимо просто потому, что intel, без дополнительных причин.
OCZ Agility 3 120Гб — 3240р.
OCZ agility 3 180Гб — 5 340 р.
Вы меня реально смешите. Сколько я там получу IOPS'ов? А если на три-четыре часа оставить под нагрузкой?

SSD младшего уровня мало отличаются от «напаянного на плату MMC», то есть показывают ёмкость, дают какую-то линейную скорость, вполне приличны на чтении но феноменально тормозят на рандомной записи.

Просто для понимания — у intel'а топовая серия в 5 раз быстрее 320ой (пруф: ark.intel.com/compare/56585,56567), однако, и в цене… 710ая (которая действительно даёт не меньше 2kIOPS в любом случае) на 300Гб стоит… барабанная дробь… 80к руб.

А вот эти штуки, которые вы приводите, они годятся только в нетбуки пихать, чтобы меньше тряски боялось. Никакой приличной производительности вы даже близко не получите.
У меня agility3 240 24 часа в сутки под нагрузкой, вечерами с таких дисков (14 штук) легко снимаем 20 гигабит, упираясь в канал. во-первых никаких проседаний производительности под нагрузкой, во-вторых, сколько мне надо будет винтов, чтобы снять с них 20 гигабит при нескольких тысячах потоках?
Во-первых, я говорил про запись.

Во-вторых, нужно смотреть на тип нагрузки, степень её произвольности и т.д. Для того, чтобы отдать 2.5ГБ/с (20Гбит/с) нужно штук 20-30 дисков. С JBOD'ов я с лёгкостью получал >3.5ГБ/с (28 гигабит). Если же данные сильно константны и кеширование играет роль, то тип диска в этом случае вообще становится маловажным.

Если хотите похвастаться — покажите IOPS'ы с диска в момент отдачи этих самых 20 гигабит.
Данные не кешированные, потому что сервер с ssd и есть кэш и файлы на всех 14ти дисках это очень востребованные данные. Т.е. чтобы кэш в памяти играл роль, надо чтобы его было столько-же, сколько места на дисках.

Как будет топовая нагрузка, постараюсь не забыть сделать вам скрин с iops.
Я не знаю, какой у вас тип нагрузки, но число дисков и общий их объём не играют ни какой роли в общем случае. Ключевым является паттерн доступа.

Современные ОС не могут не использовать кеш при доступе к данным на файловой системе (за вычетом O_DIRECT), так что в вашем случае кеш используется точно. Какую часть нагрузки он при этом вам сохраняет — вопрос интересный. Если у вас там одна SSD, то легко понять, что она вам 20Гбит не выдаст в одиночку.
На ssd лежат файлы от 100Мб до 2Гб размером, раздаются по http тысячам клиентов. Файлы актуальные все, потому кэш системой хоть и используется, реально не играет никакой роли (это подтверждает и то, что установка 8 Гб памяти вместо 16 не изменило вообще ничего).

Дисков 14, я уже говорил. Нагрузка примерно одинаковая на все. Каждый диск выдает по 220 МБ примерно (скорость прыгает от 180 до 220, видимо из-за того, что упираемся в канал).

В таком режиме обычные sata2 винты 7200 выдают порядка 40-50МБ, крутые sas 15k — в районе 80.
Померял я iops, до 200 в секунду. т.е. хвастаться нечем, основное преимущества — скорость чтения при таких iops.
Спасибо. Получается, производительность там на запись ровно такая же, как на WD RE'шках (на SAS'ах 15к, соответственно, выше).

ЗЫ Меряли сколько времени?
Какая производительно на запись? там вообще запись только ночью идет, когда нет нагрузки. Мерял недолго, увидев порядок цифр (если вы про iops) так, как сильно меньше паспортных.
А, пардон, я думал вы топовую производительность померяли.

Если это текущая нагрузка (200 IOPS), то да, такую нагрузку (со скрипом) выдержит SAS-диск, а десяток — с комфортом.

Насчёт низкой latency, да, это у SSD сильно лучше. Хотя именно в вопросах latency MTD (всякие PCI-E) платы уделывают SSD с SATA интерфейсом (потому что ATA-протокол довольно громоздкий).
Я ж объясняю, что на таких iops скорость чтения с дисков в 3-5 раза ниже (3 для sas 15к оборотов, 5 для обычных sata2 7200). Т.е. получаем 220 с каждого ssd (и это не предел), а с винта в 200 потоков сколько получите?
У SATA дисков в линуксе глубина очереди ограничена 31, то есть разницы между iodepth=32 и iodepth=256 просто никакой — диск достигает пиковой производительности и дальше всего лишь увеличивает latency для запросов (которые ждут даже не в очереди, а в блокированном приложении своей очереди встать в очередь).

Впрочем, спорить, что производительность SSD на чтение выше, чем у магнитных дисков глупо. Вопрос в первую очередь в записи.
Я не знаю что такое IOPS, но у меня стоял обычный пользовательский винт от WD какой-то подороже, на 1ТБ, так вот после перехода на SSD за относительно скромные деньги, 3000р, скорость компиляции выросла примерно раза в два, и сейчас упирается в проц, у товарища core i7 и SSD прошлой серии, один и тот же проект собирается у него в полтора раза быстрее(сравнивали время сборки), отсюда и вывод что у меня сейчас затык в процессоре, а не в жестком диске, а до этого не хватало именно жесткого. Не знаю как там для серверов, но для задач программиста SSD это действительно огромный плюс, все становится значительно быстрее, за очень малые деньги.
Т.е. вы считаете, что поставить 4 винта (а мы знаем нынешние цены на винты) в RAID 0, у которых объем станет заметно больше, да и при этом шанс откинуть копытца поднимется в 4 раза, ну да, можно поставить 8 винтов в RAID 10 (ну на худой конец сообразить RAID 5 или RAID 6) и это для десктопа? Вы серьезно? Не думаете, что это перебор?
Я уже говорил про декстопы, могу повторить снова: не имею ни малейшего представления. Десктопы всегда собираются из дешёвого малонадёжного железа, и руководствуются при этом задачами сильно отличающимися от задач производительности и надёжности.
Так понимаете в чем проблема, топик про десктопы, а не сервера. Вот представьте, говорят мужики про ВАЗ, а вы им про свой мерс все втираете, что у него вот так и он круче, как думаете, что с вами сделают мужики?
Топик про SSD, и мой комментарий касался того, что производительность SSD на запись и на чтение сильно различается, более того, SSD в условиях интенсивной записи показывает очень сложнопредсказуемое поведение по снижению производительности.

Да?
Ну ладно, вы можете возить с своим ноутом тележку с винтами и аккумуляторами, чтобы насладиться скоростью SSD на обычных HDD. Думаю другие люди на это не пойдут.
У ssd сильно падает скорость чтения, если одновременно идет запись, у hdd этого не наблюдается.

Но, в любом случае, ssd дает массу премиуществ, по сравнению с дисками и на десктопе и для серверов с большим трафиком на раздачу (статика, как большие, так и мелкие файлы). При этом, по записи тоже быстрее, но не на столько сильно. По отказам сложно сказать, у нас вылетали ssd но в самом начале, те, что работали хотя-бы 3-4 дня, работают и сейчас с 0 перемещенных секторов. под очень высокой нагрузкой.

Так что сейчас лишь цена за гигабайт останавливает от полной замены hdd на ssd в массовых системах.
На чтение — вопросов нет, ssd на коне. На запись, повторю, про декстопы ничего не скажу, а на серверах применение SSD во write-intensive приложениях требует очень большой аккуратности (см про деградацию производительности) и не всегда рационально.
Серьезная проблема SSD в сравнении с HDD как раз в том, что они себя ведут необычно по сравнению с HDD. И когда у вас стоит задача сделать сайзинг, то есть количественную оценку под проект (пример: база данных, OLTP, 4k block, 25/75 r/w 100% random, столько-то IOPS минимум), то с HDD все более-менее понятно. Диск выдает сколько-то IOPS линейно и предсказуемо. И на запись и на чтение — примерно поровну и одинаково. Вне зависимости от того, сколько на нем данных. Вне зависимости от того, как долго на него писали перед этим. Вне зависимости от того, какой микс размеров блоков на него поступает. Там не все просто, но все, строго говоря, уже известно и пройдено.

Но в случае SSD это все не так. И для энтерпрайза такая непредсказуемость в сайзинге системы это жуткая проблема.
А с учетом их цены еще и цена ошибки (промазать в сайзинге) становится очень высокая.
ssd снижают iops при активной записи и чтении с одного носителя. Если только читать, то скорость и iops очень стабильные (стабильнее, чем у винтов потому, что не зависит от местоположения данных). Если нужно одновременно и читать и писать, то iops тоже можно посчитать, но сделать это сложнее.

Рейды сейчас вообще не очень корректно с ssd работают, не учитывают они эту особенность, что читатать нужно с одного винта, а писать на другой, пока идет чтение и потом синкать (если речь о зеркальном рейде). В этом, полагаю, и проблема.
вопрос: а зачем вам такие параметры диска — 100% span, 4k random write? Беглый подсчёт говорит, что если не перезаписывать, то за 8 часов вы забьёте полностью диск 120Гб при 1k IOPS. Вы говорите, что через 2 часа он выходит на 600 IOPS — ну диск забьёте за 12 часов.
Что значит «забьётся»? В OLAP-нагрузке «забивается» довольно редко.
а разве OLAP-сервера не оптимизируют запись на жёсткий диск?

Мне кажется, что данные параметры тестирования очень нестандартные. И простому смертному будет крайне сложно достичь их в боевых условиях.
Оптимизируют. Сначала делается запись в журнал, потом в БД, потом в журнал снова. Разумеется, всё оптимизируется таким образом, чтобы было побольше random IO.

Вообще, я немного даже не знаю что сказать. Мне говорят «ну, нетипичная нагрузка бла-бла-бла», а у меня тут несколько десятков СХД, на которых я эту нетипичную нагрузку чистым randomIO шумом могу наблюдать круглосуточно.
я не сомневаюсь, что можно найти кучу серверов, которые будут иметь такую нагрузку. Можно просто для сервера, раздающего статические картинки, включить atime и будешь иметь эти тысячи IOPS. Вопрос в том — зачем это.

Если в БД нет оочень критичных данных, то можно включить запись в лог транзакций раз в секунду. При большом логе транзакций, СУБД будет крайне редко записывать данные на диск и достаточно большими блоками (по крайней мере это в mysql, думаю другие СУБД тоже имеют такие фичи).

Если информация временная — то обычно используется память для хранения данных (вроде memcached). Если информация постоянная и хочется много писать, то всё равно на ссд вся информация не влезет — слишком маленький объём. Поэтому мне кажется нестандартым, что хочется много писать временной информации, но в память она не влезает.

И да, для большинства админов, установка ссд на сервер никак не поможет, так как его надо ещё правильно использовать.
Ubuntu 12.04 x64, SSD OCZ Vertex 2 120 GB — ~7 секунд загрузка ОС.
Могу предположить, что какое-то устройство у меня долго инициализировалось
А зачем такие велосипеды, если есть RVD3X2-FHPX4-240G, в котором 4 контроллера из коробки? Заявленная скорость чтения/записи: 1500/1225 Мб/сек.
Ммм, это крутая штука.
Я не совсем понял, как результат в SiSoft Sandra получился 636 МБ/с, если максимальная пропускная способность SATA 3 составляет 600 МБ/с?
Так диски подключены же по трем каналам. 600МБ/c это на канал, кстати у меня и того меньше, потому что мое железо поддерживает только SATA II
Вообще, теоретическая скорость на один SATA-II — 300 мбайт/с. На практике же такую скорость не получить, будет ~200. Так что можно сказать, Вы выбили действительно максимальную скорость на вашем контроллере.

У меня вот лежит ssd sandisc extreme на 120Гб, и тоже SATA-II — все не могу поставить, времени совсем нет. Но очень интересно посмотреть.

Кстати, что за музыка играет в ролике? Очень крутая, по-моему.
Лучше вместо рейда купить нормальную материнскую плату с SATA III на чипсете и процессор + нормальный SSD, в итоге получили бы аналогичные скорости.
Потратил бы кучу денег и получил бы в итоге аналогичные скорости :)
За те же деньги: Аналогичные скорости + меньше точек отказа + современную платформу :)
Есть подозрение, что скорость возможно и выросла бы, т.к. дикие данные читать с диска надо довольно редко, а проц тоже покушать некоторым хочется.
UFO just landed and posted this here
Ну может человеку это не данных хранить, а на Кристалдискмарк подрочить перед сном и выключить :)
Важные данные надо бакапить вне зависимости от того, на чём они лежат.
Как раз-таки из SSD не стремный, мониторить правда сложно, но можно.
Лучше райд софтовый делать. Т.к. не софтовый не умеет корректно с ссд работать.
У ССД никогда не бывает непредвиденных отказов с потерей информации? Не верю.
Виндовый рейд на 100% известно, что корректно работает с тримом или это догадки? А то там даже с дисками есть неочевидные и нелогичные проблемы с ним связанные, где даже тупейший контроллер тупейшей мамки дает ему фору.
Отказ зависит от контроллера, не от механики, как в ЖД
А разница? В контроллерах пока всё ещё популярны грубые ошибки, вызывающие моментальную непредсказуемую заранее смерть.
Как часто? Есть статистика или это Ваше заявление?
Статистики у меня нету ни по ссд, ни по хдд. Зато около года назад я видел такую ошибку у «аж самого интела», который могу просто вайпнуться при некорректном выключении питания. Баг был вполне официальный и долгоживущий, что с ним сейчас — не знаю.
С другой стороны, есть статистика отказа именно механики в стационарных PC? Думается, ей там не от чего неожиданно дохнуть.
Около года назад? За это время уже поколение ССД сменилось и неизвестно сколько для них фирмварь.
>>Думается, ей там не от чего неожиданно дохнуть
Некачественные БП, производственный брак, нарушения температурного режима.
Пользователю, в принципе, всё равно, механика сбойнула или прошивка, или смывка припоя съела микруху (MPG, Дааа!).
До сих пор жалею, что не записывал меняные харды, одних ST 7200.10 там штук 30 наверно было бы.
Небольшой апдейт в статье, упомянул что 320 — младшая серия.
Да. И причём для 320-й серии зависимость скорости от объёма очень заметна.
У 40-гигового на запись вообще скромные 45мб/сек. И у модели на 120гиг тоже далеко не предельная производительность (зато на чтение одинаково у всей линейки — 270).
Открою вам секрет, в ssd дисках больших размеров используеться больше внутрених каналов и работают они быстрей. RAID только портит всю малину так как отключает функцию TRIM.
И вовсе не в 3 раза.
Вот скриншот с единственного диска.
Это, конечно, не SiSoft, а штатная системная утилитка — но цифры весьма говорливы.

image

ЗЫ: платформа — ноутбук thinkpad t420s. Модель диска очевидна из скриншота (куплен на amazon, обошёлся около 6,5 т.р.). Диск занял место в трее, где обитал сидиром — покуда в штатный отсек HDD этого ноутбука стандартные 9,5 мм диски не влезают.
Я уже добавил в статью, что модель не топовая
Так Crucial M4 на 256GB стоит чуть дороже чем ваш Intel 320 на 120GB.
Есть модели с SSD1 на конце, они 7мм. Должны подойти в основной отсек.
Там и стоит в основном отсеке как раз и стоит Intel 320.
У меня тоже был рейд на SSD — но в итоге забил я на это дело.

Надежность — раз (хотя Интелы ломаются редко), скорость — разницы особо не заметно.
С обновлением прошивки — гемор. Ну и о TRIM беспокоится нужно, без танцев оно так просто не заработает.
Смутило 16,000 с. Неужели так точно, без сотых и десятых долей?
Sign up to leave a comment.