Как стать автором
Обновить

Комментарии 39

Ехал DEPO через DEPO
Сунул DEPO DEPO в DEPO
DEPO DEPO DEPO DEPO!
image
Я не употребляю, простите.
По вашим комментариям сразу и не скажешь.
А вот что не так с моими комментариями?
Первым комментом в этом топике я просто попытался подколоть автора за то, что название компании в топике упоминается уж слишком часто (SEO такое SEO), использовал я для этого типичную мем-конструкцию, применяемую в подобных случаях.
всего 4 раза и только там где нужно… зачем нам SEO?
Я пять насчитал. Это еще кроме того, что читатель и так зашел в блог «DEPO Computers». Зачем вам SEO я не знаю, но четыре из пяти надписей DEPO являются активными ссылками.
5ое название сервера. А гипертекст на то и есть чтобы иметь возможность быстрого перехода от одного к другому :)
А как у них с долговечностью? Мне всегда говорили что в серверы пока что не надо втыкать SSD и лучше взять обычный диск, так как технология ещё не совсем доросла до нужной надёжности. Это пока что действительно так или мне лапшу на уши вешали?
raid10, же.
А так примерно столько же служат (1-2 года), по крайне мере, у меня года полтора на серваке простояли 4 ssd, пока 1 не помер.
Возможно просто повезло :)
Мы недавно провели у себя эксперимент 4 SSD RAID10 в одном сервере OCZ, в другом Intel. Дали нашу стандартную нагрузку (до 1 млн. обращений к базе в час). По быстродействию OCZ заметно был впереди, но первый диск помер через 2 часа. Первый интел умер через 2 дня. Через 2 недели неосталось ниодного живого диска.
У нас SSD диски живут дольше — больше полугода, правда у нас они используются на чтение…
какие используете? статистику скинуть можете?
У нас в рейде под базу(маленькую) используются intel 311 на slc.
Пока объем перезаписи около 10ТБ
CORSAIR Model: CMFSSD-256GBG2D Rev: 8C1Q
Админы говорят, что уже 2 года картинки раздают.

А по вашей статистике Интел в 24 раза живучее OCZ :)
И старшная цифра «2» присутствует везде, только сейчас заметил: 2 типа дисков, 2 рэйда, 2 часа, 2 дня, 2 недели :D
По объему перезаписи это сколько?
Интелы были mlc или slc?
17-30 Tb
Device Model: INTEL SSDSA2CW080G3
Firmware Version: 4PC10362

vs.

Model Family: SandForce Driven SSDs
Device Model: OCZ-VERTEX2
Firmware Version: 1.35
свободного места много было?
30Тб/80Гб — это меньше 400 циклов выходит на ячейку…
«1 млн обращений в час» — какое соотношение чтение/запись?
raid 10 софтварный? Если нет, какой контроллер использовали с поддержкой TRIM?
Помоему TRIM в raid контроллерах так до сих пор и не работает.
ну вопрос был с подвохом :), никто не спорит.
А как долго у вас живут обычные винты? Просто невыгодно получается: там где нужна скорость ssd (важные базы данных и т.д.) они довольно бысто выходят из строя (и дорого же!), а для сервера с сайтом про моего котэ ssd не нужен вообще.
Мой котэ бы посмотрел на меня глазами кота из шрэка и развел на самые крутые SSD для сервера своего сайта.
В серверах диски являются расходным материалом.
И вставляют в сервер тот диск, который будет «перемалывать» дисковую нагрузку.
А надежность повышают с помощью всевозможных RAID технологий.

Если нагрузка на дисковую подсистему в вашем сервере небольшая, то используйте обычные диски, а если обычные диски перестанут справляться — вставьте SSD.

Только вставляйте SSD правильных производителей, а не компромиссные варианты.
Это верно.
Мы тоже сначала подошли к вопросу применения SSD очень консервативно.
Устанавливали в серверы только SLC — серверные 32 и 64 GByte, с марта прошлого года было сделано около 40 установок, пока не вышел из строя ни один. В основном ставили в кеш контроллера для кеширования чтения — наиболее безопасный вариант. Спрашивали клиента об среднем объеме информации на запись, если он в течении гарантийного срока диска превышал лимит установленный производителем — установку со стандартной гарантией не разрешали. Для нас это критично, т.к. можно потерпеть убытки в течении гарантийного срока.

Сейчас же ситуация несколько изменилась — во-первых сильно подешевели MLC, во вторых появилась возможность делать кеш на запись. Соответственно появился соблазн применять SSD более массово.
Поэтому больше интересует информация — для каких приложений точно лучше не использовать, потому как быстро придет в негодность.
В случае с гибридным массивом «4xSAS2 RAID10+MLC» SSD выполняет функцию кэша. Если он выйдет из строя — массив умрет, но для этого предусмотрено зеркалирование SSD-кэша. Таким образом достигается необходимая отказоустойчивость и производительность.
Поправка — RAID не умрет. При выходе из строя SSD умрет только кэш.
Имелось ввиду, что кэширование и чтения и записи — тогда умрет
НЛО прилетело и опубликовало эту надпись здесь
Cогласен, действительно может ввести в заблуждение, учтем на будущее.
Я вот что не понял: почему, когда к обычному рейду добавили SSD, он резко «просел» на линейных операциях?

Опять же: что за идея использовать MLC для записи, да еще и бюджетный?
cache-miss'ы не бесплатны.
Настолько, что производительность падает в 4 раза? В таком случае хотелось бы больше конкретики: какие HDD, SSD, контроллер; как организован кэш?
При подготовке статьи тестировали эталонный массив из 4х SAS 2.5" 10k 300GB HDD в RAID 10. Потом на контроллер подключили 2 MLC диска 120GB в RAID 1 и включили кеширование на чтение/запись. Сделано было это с умыслом, что бы выявить и показать тот случай когда применение кеширования на SSD в контроллере не увеличивает производительность а снижает.

Насчет того, что лучше применять SLC диски в кеше согласны, в плане тестирования и написания статей они есть.
Естественно если использовать SSD вместо SAS 10k, то количество IOPS будет в несколько раз больше. Это особенности каждого из накопителей. Но вот если бы вы рассказали о идее или уже существующей разработке СХД на SSD с функционалом дедупликации хотя бы, было бы гораздо интереснее. А поставить в сервера SSD на это много фантазии не надо.
Кстати интересны мнения о применении ramdisk. Ну, к примеру купил я сервак с 512 гигов оперативы,… итд.
Как считаете это применимо в качестве альтернативы или не стоит того?
Синтетические тесты — это просто бесполезные цифры.

Для того, чтобы действительно _сравнить_ дисковые подсистемы можно сделать так:
1. Ставим MS SQL
2. Начинаем следить за performance counters
3. Нагружаем MS SQL какой-нибудь типовой нагрузкой (как например tpcc или sysbench) — и смотрим, например, количество транзакций в секунду на той или иной системе хранения

Ближе к реальности надо стараться быть.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий