Сравнительный анализ производительности дисковых подсистем серверов с применением SSD. Часть I

    В тестовой лаборатории DEPO Computers уже проводились тесты дисковых подсистем для домашнего пользования. Результаты описывались в статье «Сравнительный анализ производительности накопителей PCI-E SSD, SSD и HDD». Описанные в той статье решения подходят для персональных систем и не могут быть использованы в серверах и системах хранения данных, так как не отвечают требованиям к надежности и отказоустойчивости.

    Поэтому мы протестировали несколько конфигураций дисковых подсистем, подходящих для использования именно в серверах. В нашем случае — моделях серии DEPO Storm 3300.


    Тестирование проводилось на следующих конфигурациях:

    • 4 x 300GB SAS2 10K + RAID10 на дискретном контроллере PCI-E 2.0 (Эталонный 4 x 300GB RAID10)
    • PCI-E SSD накопитель 120GB MLC (Бюджетный PCI-E SSD 120GB)
    • 2 x SSD 120GB MLC + RAID0 на дискретном контроллере PCI-E 2.0 с оптимизированной под SSD прошивкой (Бюджетный 2 х SSD 120GB RAID0)
    • 4 x 300GB SAS2 10K + RAID10 на дискретном контроллере PCI-E 2.0 + SSD MLC 120GB для кэширования чтения/записи (Гибридный 4 x 300GB RAID10 + SSD caching)


    Методика сравнения


    Во всех случаях использовалась одинаковая конфигурация сервера с ОС Microsoft Windows 2008 R2 Enterprise. Тестирование производительности проводилось синтетическим тестом Iometer. В сравнении использовались показатели производительности при случайном чтении/записи блоков по 4КБ. Так же оценивалась стоимость одной операции ввода/вывода в секунду и стоимость одного гигабайта полезной ёмкости дисковой подсистемы (включая контроллер).

    Обозначения на графиках:

    IOPS – количество операций ввода/вывода в секунду
    $/IOPS – относительная стоимость $ одной операции ввода/вывода в секунду
    $/GB – относительная стоимость $ одного гигабайта полезной ёмкости

    Случайное чтение




    На графике видно, что при использовании SSD в любом виде, резко возрастает показатель IOPS, что вполне естественно. Но помимо этого снижается стоимость одной операции ввода/вывода в секунду, и остается низкой независимо от типа доступа к SSD. В случае со стоимостью за гигабайт полезной ёмкости видим явное преимущество SSD-кэширования – мало того, что эта система показала максимальный показатель IOPS, так еще и стоимость за гигабайт оказалась чуть выше уровня обычного дискового массива. Так же на графике отражено, что применение дискретного RAID-контроллера только для того, что бы реализовать страйп из двух SSD – не очень бюджетный вариант.

    Случайная запись




    По операциям случайной записи наиболее производительным вариантом стал RAID0 из двух SSD, однако он же оказался и самым дорогим. К тому же необходимо учесть, что стоимость решения придется удвоить для обеспечения отказоустойчивости с переходом к RAID10. Гибридный массив с SSD-кэшированием показал оптимальный результат по всем показателям.

    Последовательное чтение




    При потоковых операциях чтения, как мы видим, обычный дисковый массив выигрывает по всем показателям, результаты по записи отличаются не сильно, поэтому мы их не приводим.

    Выводы


    Безусловно, данные могут отличаться в зависимости от размера блоков или дисков в массиве. Так же следует учесть, что в реальных приложениях в ряде случаев требуется абсолютная производительность, а не относительная стоимость. Но, в любом случае, использование SSD для кэширования позволяет существенно повысить показатели операций ввода/вывода в секунду для серверных дисковых подсистем.

    Тестирование производилось в лаборатории DEPO Computers. Торговые марки и производители оборудования не указывались, т.к. обзор не является рекламным.

    Мы будем благодарны за все конструктивные отзывы и рекомендации.

    Если у Вас есть интерес к тестированию производительности дисковых подсистем на реальных задачах и если вы готовы предоставить данные и ПО для проведения тестов – приглашаем Вас в демо-центр DEPO Computers.

    senko,
    ведущий менеджер по продукции DEPO Computers
    DEPO Computers
    86.87
    Компания
    Share post

    Comments 39

      –11
      Ехал DEPO через DEPO
      Сунул DEPO DEPO в DEPO
      DEPO DEPO DEPO DEPO!
        +6
        image
          –2
          Я не употребляю, простите.
            +1
            По вашим комментариям сразу и не скажешь.
              –3
              А вот что не так с моими комментариями?
              Первым комментом в этом топике я просто попытался подколоть автора за то, что название компании в топике упоминается уж слишком часто (SEO такое SEO), использовал я для этого типичную мем-конструкцию, применяемую в подобных случаях.
                +2
                всего 4 раза и только там где нужно… зачем нам SEO?
                  +1
                  Я пять насчитал. Это еще кроме того, что читатель и так зашел в блог «DEPO Computers». Зачем вам SEO я не знаю, но четыре из пяти надписей DEPO являются активными ссылками.
                    +1
                    5ое название сервера. А гипертекст на то и есть чтобы иметь возможность быстрого перехода от одного к другому :)
        +2
        А как у них с долговечностью? Мне всегда говорили что в серверы пока что не надо втыкать SSD и лучше взять обычный диск, так как технология ещё не совсем доросла до нужной надёжности. Это пока что действительно так или мне лапшу на уши вешали?
          +1
          raid10, же.
          А так примерно столько же служат (1-2 года), по крайне мере, у меня года полтора на серваке простояли 4 ssd, пока 1 не помер.
          Возможно просто повезло :)
            +5
            Мы недавно провели у себя эксперимент 4 SSD RAID10 в одном сервере OCZ, в другом Intel. Дали нашу стандартную нагрузку (до 1 млн. обращений к базе в час). По быстродействию OCZ заметно был впереди, но первый диск помер через 2 часа. Первый интел умер через 2 дня. Через 2 недели неосталось ниодного живого диска.
              +2
              У нас SSD диски живут дольше — больше полугода, правда у нас они используются на чтение…
                0
                какие используете? статистику скинуть можете?
                  0
                  У нас в рейде под базу(маленькую) используются intel 311 на slc.
                  Пока объем перезаписи около 10ТБ
                    –1
                    CORSAIR Model: CMFSSD-256GBG2D Rev: 8C1Q
                    Админы говорят, что уже 2 года картинки раздают.

                    А по вашей статистике Интел в 24 раза живучее OCZ :)
                      0
                      И старшная цифра «2» присутствует везде, только сейчас заметил: 2 типа дисков, 2 рэйда, 2 часа, 2 дня, 2 недели :D
                  0
                  По объему перезаписи это сколько?
                  Интелы были mlc или slc?
                    0
                    17-30 Tb
                      0
                      Device Model: INTEL SSDSA2CW080G3
                      Firmware Version: 4PC10362

                      vs.

                      Model Family: SandForce Driven SSDs
                      Device Model: OCZ-VERTEX2
                      Firmware Version: 1.35
                        0
                        свободного места много было?
                        30Тб/80Гб — это меньше 400 циклов выходит на ячейку…
                      0
                      «1 млн обращений в час» — какое соотношение чтение/запись?
                      raid 10 софтварный? Если нет, какой контроллер использовали с поддержкой TRIM?
                        0
                        Помоему TRIM в raid контроллерах так до сих пор и не работает.
                          0
                          ну вопрос был с подвохом :), никто не спорит.
                        0
                        А как долго у вас живут обычные винты? Просто невыгодно получается: там где нужна скорость ssd (важные базы данных и т.д.) они довольно бысто выходят из строя (и дорого же!), а для сервера с сайтом про моего котэ ssd не нужен вообще.
                          0
                          Мой котэ бы посмотрел на меня глазами кота из шрэка и развел на самые крутые SSD для сервера своего сайта.
                        +1
                        В серверах диски являются расходным материалом.
                        И вставляют в сервер тот диск, который будет «перемалывать» дисковую нагрузку.
                        А надежность повышают с помощью всевозможных RAID технологий.

                        Если нагрузка на дисковую подсистему в вашем сервере небольшая, то используйте обычные диски, а если обычные диски перестанут справляться — вставьте SSD.

                        Только вставляйте SSD правильных производителей, а не компромиссные варианты.
                          +3
                          Это верно.
                          Мы тоже сначала подошли к вопросу применения SSD очень консервативно.
                          Устанавливали в серверы только SLC — серверные 32 и 64 GByte, с марта прошлого года было сделано около 40 установок, пока не вышел из строя ни один. В основном ставили в кеш контроллера для кеширования чтения — наиболее безопасный вариант. Спрашивали клиента об среднем объеме информации на запись, если он в течении гарантийного срока диска превышал лимит установленный производителем — установку со стандартной гарантией не разрешали. Для нас это критично, т.к. можно потерпеть убытки в течении гарантийного срока.

                          Сейчас же ситуация несколько изменилась — во-первых сильно подешевели MLC, во вторых появилась возможность делать кеш на запись. Соответственно появился соблазн применять SSD более массово.
                          Поэтому больше интересует информация — для каких приложений точно лучше не использовать, потому как быстро придет в негодность.
                          +3
                          В случае с гибридным массивом «4xSAS2 RAID10+MLC» SSD выполняет функцию кэша. Если он выйдет из строя — массив умрет, но для этого предусмотрено зеркалирование SSD-кэша. Таким образом достигается необходимая отказоустойчивость и производительность.
                            +3
                            Поправка — RAID не умрет. При выходе из строя SSD умрет только кэш.
                              +1
                              Имелось ввиду, что кэширование и чтения и записи — тогда умрет
                          +5
                          В графиках которые учитывают относительную стоимость линии — лишние. Создается впечатление что стоимость $/GB сперва резко растет, а потом резко уменьшается, хотя стоимость намертво привязана к конфигурации дисковой подсистемы.
                            +3
                            Cогласен, действительно может ввести в заблуждение, учтем на будущее.
                            +1
                            Я вот что не понял: почему, когда к обычному рейду добавили SSD, он резко «просел» на линейных операциях?

                            Опять же: что за идея использовать MLC для записи, да еще и бюджетный?
                              +2
                              cache-miss'ы не бесплатны.
                                +1
                                Настолько, что производительность падает в 4 раза? В таком случае хотелось бы больше конкретики: какие HDD, SSD, контроллер; как организован кэш?
                                  +3
                                  При подготовке статьи тестировали эталонный массив из 4х SAS 2.5" 10k 300GB HDD в RAID 10. Потом на контроллер подключили 2 MLC диска 120GB в RAID 1 и включили кеширование на чтение/запись. Сделано было это с умыслом, что бы выявить и показать тот случай когда применение кеширования на SSD в контроллере не увеличивает производительность а снижает.

                                  Насчет того, что лучше применять SLC диски в кеше согласны, в плане тестирования и написания статей они есть.
                              0
                              Естественно если использовать SSD вместо SAS 10k, то количество IOPS будет в несколько раз больше. Это особенности каждого из накопителей. Но вот если бы вы рассказали о идее или уже существующей разработке СХД на SSD с функционалом дедупликации хотя бы, было бы гораздо интереснее. А поставить в сервера SSD на это много фантазии не надо.
                                +1
                                Кстати интересны мнения о применении ramdisk. Ну, к примеру купил я сервак с 512 гигов оперативы,… итд.
                                Как считаете это применимо в качестве альтернативы или не стоит того?
                                  0
                                  Синтетические тесты — это просто бесполезные цифры.

                                  Для того, чтобы действительно _сравнить_ дисковые подсистемы можно сделать так:
                                  1. Ставим MS SQL
                                  2. Начинаем следить за performance counters
                                  3. Нагружаем MS SQL какой-нибудь типовой нагрузкой (как например tpcc или sysbench) — и смотрим, например, количество транзакций в секунду на той или иной системе хранения

                                  Ближе к реальности надо стараться быть.

                                  Only users with full accounts can post comments. Log in, please.