Comments 39
Ехал DEPO через DEPO
Сунул DEPO DEPO в DEPO
DEPO DEPO DEPO DEPO!
Сунул DEPO DEPO в DEPO
DEPO DEPO DEPO DEPO!
-11
+6
Я не употребляю, простите.
-2
По вашим комментариям сразу и не скажешь.
+1
А вот что не так с моими комментариями?
Первым комментом в этом топике я просто попытался подколоть автора за то, что название компании в топике упоминается уж слишком часто (SEO такое SEO), использовал я для этого типичную мем-конструкцию, применяемую в подобных случаях.
Первым комментом в этом топике я просто попытался подколоть автора за то, что название компании в топике упоминается уж слишком часто (SEO такое SEO), использовал я для этого типичную мем-конструкцию, применяемую в подобных случаях.
-3
всего 4 раза и только там где нужно… зачем нам SEO?
+2
А как у них с долговечностью? Мне всегда говорили что в серверы пока что не надо втыкать SSD и лучше взять обычный диск, так как технология ещё не совсем доросла до нужной надёжности. Это пока что действительно так или мне лапшу на уши вешали?
+2
raid10, же.
А так примерно столько же служат (1-2 года), по крайне мере, у меня года полтора на серваке простояли 4 ssd, пока 1 не помер.
Возможно просто повезло :)
А так примерно столько же служат (1-2 года), по крайне мере, у меня года полтора на серваке простояли 4 ssd, пока 1 не помер.
Возможно просто повезло :)
+1
Мы недавно провели у себя эксперимент 4 SSD RAID10 в одном сервере OCZ, в другом Intel. Дали нашу стандартную нагрузку (до 1 млн. обращений к базе в час). По быстродействию OCZ заметно был впереди, но первый диск помер через 2 часа. Первый интел умер через 2 дня. Через 2 недели неосталось ниодного живого диска.
+5
У нас SSD диски живут дольше — больше полугода, правда у нас они используются на чтение…
+2
какие используете? статистику скинуть можете?
0
У нас в рейде под базу(маленькую) используются intel 311 на slc.
Пока объем перезаписи около 10ТБ
Пока объем перезаписи около 10ТБ
0
CORSAIR Model: CMFSSD-256GBG2D Rev: 8C1Q
Админы говорят, что уже 2 года картинки раздают.
А по вашей статистике Интел в 24 раза живучее OCZ :)
Админы говорят, что уже 2 года картинки раздают.
А по вашей статистике Интел в 24 раза живучее OCZ :)
-1
По объему перезаписи это сколько?
Интелы были mlc или slc?
Интелы были mlc или slc?
0
«1 млн обращений в час» — какое соотношение чтение/запись?
raid 10 софтварный? Если нет, какой контроллер использовали с поддержкой TRIM?
raid 10 софтварный? Если нет, какой контроллер использовали с поддержкой TRIM?
0
А как долго у вас живут обычные винты? Просто невыгодно получается: там где нужна скорость ssd (важные базы данных и т.д.) они довольно бысто выходят из строя (и дорого же!), а для сервера с сайтом про моего котэ ssd не нужен вообще.
0
В серверах диски являются расходным материалом.
И вставляют в сервер тот диск, который будет «перемалывать» дисковую нагрузку.
А надежность повышают с помощью всевозможных RAID технологий.
Если нагрузка на дисковую подсистему в вашем сервере небольшая, то используйте обычные диски, а если обычные диски перестанут справляться — вставьте SSD.
Только вставляйте SSD правильных производителей, а не компромиссные варианты.
И вставляют в сервер тот диск, который будет «перемалывать» дисковую нагрузку.
А надежность повышают с помощью всевозможных RAID технологий.
Если нагрузка на дисковую подсистему в вашем сервере небольшая, то используйте обычные диски, а если обычные диски перестанут справляться — вставьте SSD.
Только вставляйте SSD правильных производителей, а не компромиссные варианты.
+1
Это верно.
Мы тоже сначала подошли к вопросу применения SSD очень консервативно.
Устанавливали в серверы только SLC — серверные 32 и 64 GByte, с марта прошлого года было сделано около 40 установок, пока не вышел из строя ни один. В основном ставили в кеш контроллера для кеширования чтения — наиболее безопасный вариант. Спрашивали клиента об среднем объеме информации на запись, если он в течении гарантийного срока диска превышал лимит установленный производителем — установку со стандартной гарантией не разрешали. Для нас это критично, т.к. можно потерпеть убытки в течении гарантийного срока.
Сейчас же ситуация несколько изменилась — во-первых сильно подешевели MLC, во вторых появилась возможность делать кеш на запись. Соответственно появился соблазн применять SSD более массово.
Поэтому больше интересует информация — для каких приложений точно лучше не использовать, потому как быстро придет в негодность.
Мы тоже сначала подошли к вопросу применения SSD очень консервативно.
Устанавливали в серверы только SLC — серверные 32 и 64 GByte, с марта прошлого года было сделано около 40 установок, пока не вышел из строя ни один. В основном ставили в кеш контроллера для кеширования чтения — наиболее безопасный вариант. Спрашивали клиента об среднем объеме информации на запись, если он в течении гарантийного срока диска превышал лимит установленный производителем — установку со стандартной гарантией не разрешали. Для нас это критично, т.к. можно потерпеть убытки в течении гарантийного срока.
Сейчас же ситуация несколько изменилась — во-первых сильно подешевели MLC, во вторых появилась возможность делать кеш на запись. Соответственно появился соблазн применять SSD более массово.
Поэтому больше интересует информация — для каких приложений точно лучше не использовать, потому как быстро придет в негодность.
+3
В случае с гибридным массивом «4xSAS2 RAID10+MLC» SSD выполняет функцию кэша. Если он выйдет из строя — массив умрет, но для этого предусмотрено зеркалирование SSD-кэша. Таким образом достигается необходимая отказоустойчивость и производительность.
+3
UFO just landed and posted this here
Я вот что не понял: почему, когда к обычному рейду добавили SSD, он резко «просел» на линейных операциях?
Опять же: что за идея использовать MLC для записи, да еще и бюджетный?
Опять же: что за идея использовать MLC для записи, да еще и бюджетный?
+1
cache-miss'ы не бесплатны.
+2
Настолько, что производительность падает в 4 раза? В таком случае хотелось бы больше конкретики: какие HDD, SSD, контроллер; как организован кэш?
+1
При подготовке статьи тестировали эталонный массив из 4х SAS 2.5" 10k 300GB HDD в RAID 10. Потом на контроллер подключили 2 MLC диска 120GB в RAID 1 и включили кеширование на чтение/запись. Сделано было это с умыслом, что бы выявить и показать тот случай когда применение кеширования на SSD в контроллере не увеличивает производительность а снижает.
Насчет того, что лучше применять SLC диски в кеше согласны, в плане тестирования и написания статей они есть.
Насчет того, что лучше применять SLC диски в кеше согласны, в плане тестирования и написания статей они есть.
+3
Естественно если использовать SSD вместо SAS 10k, то количество IOPS будет в несколько раз больше. Это особенности каждого из накопителей. Но вот если бы вы рассказали о идее или уже существующей разработке СХД на SSD с функционалом дедупликации хотя бы, было бы гораздо интереснее. А поставить в сервера SSD на это много фантазии не надо.
0
Кстати интересны мнения о применении ramdisk. Ну, к примеру купил я сервак с 512 гигов оперативы,… итд.
Как считаете это применимо в качестве альтернативы или не стоит того?
Как считаете это применимо в качестве альтернативы или не стоит того?
+1
Синтетические тесты — это просто бесполезные цифры.
Для того, чтобы действительно _сравнить_ дисковые подсистемы можно сделать так:
1. Ставим MS SQL
2. Начинаем следить за performance counters
3. Нагружаем MS SQL какой-нибудь типовой нагрузкой (как например tpcc или sysbench) — и смотрим, например, количество транзакций в секунду на той или иной системе хранения
Ближе к реальности надо стараться быть.
Для того, чтобы действительно _сравнить_ дисковые подсистемы можно сделать так:
1. Ставим MS SQL
2. Начинаем следить за performance counters
3. Нагружаем MS SQL какой-нибудь типовой нагрузкой (как например tpcc или sysbench) — и смотрим, например, количество транзакций в секунду на той или иной системе хранения
Ближе к реальности надо стараться быть.
0
Sign up to leave a comment.
Сравнительный анализ производительности дисковых подсистем серверов с применением SSD. Часть I