Скорость решает все! Только SSD! Опыт mClouds.ru



    Мы в блоге делимся своим опытом построения инфраструктуры облачного провайдера mClouds.ru. Так, мы уже описали опыт выбора сертифицированного TIER3 ЦОДа в Москве, наши 10/40 GBE коммутаторы Huawei, и уже выпустили первую часть статьи по виртуальному маршрутизатору Cisco CSR для облачных сред VMware, сегодня же мы обзорно пробежимся по типам дисков, используемых различными VPS и IAAS провайдерами и нашем мнении о их типах и применимости в современном облаке.

    О истории и трендах.

    Не будем уходить в длительный обзор истории. Обмолвимся лишь кратко о том, что начиная с ориентировочно 2012 года в корпоративных ЦОДах начали селиться СХД с SSD дисками на борту. И мы, за свой опыт не встретили заказчиков, которые попробовав производительность своих приложений на SSD дисках вернули бы их на SAS 10-15к, только лишь если прижимал бюджет. Ведь производительность при использовании SSD прирастала на порядки, снимая головную боль и вызывая одобрительные отзывы бизнеса, который хоть как-то начинал чувствовать что деньги на ИТ не просто куда-то дели, и ничего не изменилось, но, наконец то — заметили на глаз повышение комфорта при работе с приложениями различных ERP и прочих 1С. А с 2016 года наиболее плотно наметился тренд на оснащение All-Flash системами. Мы, в свою очередь, прогнозируем полный уход с рынка накопителей на шпинделях для производительных сред, где критичны IOPSы. All-Flash системы полностью займут этот рынок. Вопрос производительности будет снят, останется только вопрос емкости, ждем и тут прогресс у SSD накопителей. Такие тренды рынка накопителей для ЦОД мы наблюдаем, если очень коротко.

    Теперь о облаках.

    Облачные провайдеры, как правило, используют те же промышленные серверы и СХД, что и бизнес пользователи в своих корпоративных ЦОД. Оборудование может отличаться лишь ньюансами, моделями, расширяемостью, но базовые характеристики те-же самые. Они также считают бюджеты и используют разные типы дисков, начиная от 7,2к SATA до быстрых SSD различных типов. Кто-то использует SSD как кеш, а данные помещает потом на 7,2к. Кто еще как-то умудряется оптимизировать и находить компромиссы. Но, как правило, заказчик облака сегодня почти на 90% столкнется с ситуацией, когда IAAS провайдер заставит его выбирать где же разместить его сервера, на SSD, SAS 10-15к или медленных 7,2к дисках.

    Что мы думаем по этому поводу?

    Проектируя нашу инфраструктуру, мы поставили себя на место заказчика, а также посмотрели на время — на дворе был таки январь 2016 года. Что мы видим со стороны заказчика? Мы опросили потенциальных клиентов на VPS серверы. По большей вывод по результату опроса был простой — заказчики совершенно не хотят еще и в облаке тратить время на выбор типов дисков, как с одних на другие потом переходить, в случае если не будет хватать производительности. Хотят быстрый массив для своих серверов. И хотят этот массив на SSD дисках — в абсолютном большинстве случаев это дает заметно бОльшую производительность.



    Со стороны 2016 года — мы были уверены в двух вещах. SAS диски на шпинделях — время оставшейся жизни 2-3 года, потом все, отомрут как SCSI, стоят дорого, скорость дают так-себе. Строить дисковую подсистему на SAS — недальновидно и заранее проигрышно в долговременной перспективе. Минусы — для дистижения хотя-бы 10 000 IOPS надо ставить пару полок по 25 дисков SAS 10к. Это не особо энергоэффективно, и не очень то быстро, и со временем будет занимать кучу места в стойках. Все эти кучи полок вы наверное уже видели на многочисленных брутальных фото из ЦОДов. Все это скоро уйдет в историю. Те, кто это замечают, уже с достаточно высокой скоростью переходят на flash диски. Это вопрос буквально пары-тройки лет. Вряд-ли дольше. Вот что мы думаем по этому поводу.

    Немного выводов

    Подводя итог нашему краткому обзору и отвечая на вопрос в заголовке… Мы считаем что облачные серверы, будь то одиночные пулы VPS серверов, или же полноценный набор ресурсов по модели IAAS — в 2017 году должны быть только на SSD хранилищах, обеспечивая стабильно высокую скорость отклика приложений, и не заставлять заказчика делать выбор в заранее проигрышную сторону, погружая его в думы, что разместить на средних дисках, что на медленных, а что на быстрых. Все бизнес приложения должны быть на быстром хранилище, без компромиссов. Исключение мы допускаем только для архивных данных.

    Это наш опыт, наше видение настоящего и недалекого будущего. Поэтому мы в своем IAAS проекте mClouds.ru используем только SSD диски. О типе нашего хранилища будем рассказывать в следующих сериях. Оставайтесь с нами :)
    mClouds.ru
    0,00
    IaaS и VPS провайдер на платформе VMware.
    Поделиться публикацией
    AdBlock похитил этот баннер, но баннеры не зубы — отрастут

    Подробнее
    Реклама

    Комментарии 13

      0
      В общем и целом согласен. Для архивных данных разумнее держать обычные блины на 7к, потому как на сегодняшний день они всё ещё дешевле при расчетах $/GB. Однако, live сервисы, которые находятся в продакшне, всегда требуют высокого отклика со стороны дисковой подсистемы.
      На месте провайдера я бы выдвал пользователю дисковое пространство клиенту как раз только на ССД дисках.
      А вот хранилка бэкапов (возможно как доп.услуга?) на мой взгляд должна оставаться на блинах.
      В итоге у клиента будет что-то вроде 100ГБ ссд за 10$ и хранилка бэкапов 10ТБ за 10$ (цифры взяты с потолка).
      Кастомер доволен, кастомер НЕ может размещать приложения на блинах, у него нет жалоб на то, что его сервисы тормозят, все довольны!
        –2
        Мы придерживаемся такого-же мнения. Архивные данные — исключаем, их храним на медленных дисках. Скорость там особо не критична в большинстве случаев, а объем большой нужен. А продуктив клиентов только на SSD =)
        0
        А продуктив клиентов только на SSD =)

        Ведь обычно объём актуальной информации не очень высок и спокойно влезет на 1 полку с 24 SSD.
        А ведь для достижения сравнимой скорости и IOPS понадобиться много полок с SAS 10к-15к.
        А какова разница в цене между SSD и SAS сравнимого объёма? Просто думаю за 3-5 лет SSD просто отобёться экономически место в цод энергия и охлаждение.
        И какую скорость выдают серверные SSD?
          0
          И какую скорость выдают серверные SSD?

          Даже обычный SATA MLC SSD Kingston выдает 3000 иопсов, вот сейчас думаю стоит ли пробовать покупать SAS SSD Hitachi 1600МR или нет, 500 уе за 250 гб =\
          0
          Мы используем массив из SATA SSD Intel S3520. Хорошее соотношение производительность/цена/надежность/емкость.
            0
            А ещё можно посмотреть в сторону ССД дисков под pci-e.
            Не так давно собирали железяки на самсунговских 850ых карточках (точную модель не припомню, ценник около 15к деревянных на момент покупки) для m.2 + переходники m.2 to pci-e x4 от асуса(2,5к деревянных). Они не позиционируются как серверные. Но их характеристики на бумажке и их показатели в тесте (скорость чтения внутри виртуалки, виртуальный диск которой лежит на этом ССД с выключенными кэшами выдавала более 3ГБ/C) впечатлили весьма и весьма. Надёжность оценить сложно, т.к. на момент сборки никто не тестировал данное железо в реалиях сервера. Знаю лишь, что когда сервисы компании переехали на сервер с такой дисковой подсистемой — даже самые привередливые пользователи сообщили, что они в шоке от быстродействия. Ну и год — полёт нормальный.

            И да. 3ГБ/C — 3 гигабайта в секунду, 1 диск не в массиве.
              0
              Наврал чутка. Самсунг был 960ой серии.
                0
                pci-e.
                Они не позиционируются как серверные.

                тут есть два момента
                1 — горячая замена отсутствует
                2 — защита от пропадания питания? Intel DC вроде как защищены…
                  0
                  П.С.
                  я когда то брал на тест PCIe SSD HP 600281-B21. Ускорить 1с не получилось, отчеты строились быстрее на процентов 10-15, а стоимость ускорителя была заоблачная.
                    0
                    Мне на вскидку попались эти ССД с ценником от 450К и выше за 360ГБ MLC
                    А вот копипаста с 3dnews:
                    Накопители семейства 960 PRO будут предлагаться в модификациях вместимостью 512 Гбайт, а также 1 и 2 Тбайт. Заявленная скорость последовательного чтения достигает 3500 Мбайт/с, скорость последовательной записи — 2100 Мбайт/с. Показатель IOPS (операций ввода/вывода в секунду) достигает 440 000 при произвольном чтении и 360 000 при произвольной записи.

                    Cтоит это добро сейчас на 512ГБ около 22,5К (в местячковом магазине).
                    Да. У него нет хотсвапа. Но если собрать удобный массив на таких дисках — должно получиться что-то очень и очень хорошее. Даже для 1Сочек, если они жирные и базы там огромные.
                      0
                      Мы значительную часть внимания и средств инвестируем в надежность, поэтому никак не можем использовать десктопные диски.
                        0
                        Ну, сие я говорил не к тому на самом деле.

                        Тенденция нынче на рынке такова, что ССД дешевеют потихонечку. Те же самсунг выставили свои диски за условные пусть будет 15к, когда я их держал в руках. В то же время конкурирующие аналоги стоили многим больше. Видимо разница технологий привела к разнице в цене, я не знаю точно.

                        Соответственно и серверные решения совсем скоро поползут вниз по стоимости.

                        Хотя конечно никто из вендоров не может объяснить вменяемо, в чем разница между двумя одинаковыми по характеристикам ССДшками (и скорости, и время наработки на отказ, и иопсо-попугаи), когда одна десктопная за 15к, а другая серверная за 670к. Как по мне, так это всё больше походит на коммерческое нае… Как-то так.
                          0
                          Уже дешевеет, поэтому и перешли на SSD, при этом цены на облачные серверы остались доступными, не заоблачными. Надеемся что дальше продолжит дешеветь данный тип дисков, а скорость и надежность расти )

              Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.

              Самое читаемое