• Пример экспресс-анализа производительности СХД при помощи бесплатного сервиса Mitrend
    0
    Все верно, за исключением того, что сброс кэша — это не последовательная запись. Трэки записываются в свои физичесие адреса на дисках в соответствии с логикой организации данных в LUN, а в кэше эти же трэки находятся в порядке поступления. В итоге на жесткие диски сброс данных сделать сложнее, чем на флэш.
  • Дизайн виртуализованного ЦОД
    0
    Антон, отличная статья. Спасибо.
    «Магический коэффициент» 1.25 при расчете процессоров взят из какой-то универсальной best practice?
  • DellEMC Unity 400F: небольшое тестирование
    0
    И в случае с более дорогими системами, увы, тоже :)
    Вся разница в том, сколько SSD повесить на контроллер.
    Это свойство всех scale-up систем, где на контроллер навешивается все новая и новая нагрузка без увеличения процессорной мощности.

    Исключением не является даже является разве что DSSD D5, выдающий 10 миллионов IOPS из 5U коробки. Но там а) другая логика работы, где сервер может обращаться к флэш-ячейкам СХД напрямую, как к своей памяти и б) физически ограничено количество флэша, которое можно поставить
  • DellEMC Unity 400F: небольшое тестирование
    0
    Алексей, спасибо за грамотно проведенное и документированное тестирование.
    Это, кстати, тонкие луны тестировались?
  • VxRail — гиперконвергентная система на все времена
    0
    Друзья и коллеги! ;)

    Большое спасибо вам всем за проявленный интерес!
    Приходите 4 марта в 13-00(МСК) на наш открытый вебинар по VxRail! Там мы дадим ответы на возникшие вопросы и разъясним моменты, затронутые в комментариях. Короткая ссылка на вебинар: https://goo.gl/cqywBu

    Если не получится послушать 4 марта — вебинар после проведения будет доступен в записи.
  • Квантовый скачок
    0
    Друзья, спасибо за проявленный интерес!
    Мы вчера записали вебинар про DSSD, на котором тоже было очень много слушателей. Там больше технических деталей и ответы на вопросы по ходу доклада. Регистрируйтесь и заходите на наш канал на Brighttalk.
    Ссылка на вебинар вот: https://goo.gl/635EIg
  • Квантовый скачок
    +1
    Вентиляторы все равно будут шуметь, только тише :)
  • Квантовый скачок
    +1
    В этой статье идет речь о промышленных системах корпоративного класса. Там цены другие и технические требования к решениям другие. В сравнении носителей используется оценка 4-х летней стоимости владения, это не то же самое, что цена в Джасте. Ссылка на источник сравнения приведена по ссылке под картинкой.
    Однако, в любом случае флэш дешевеет быстрее, чем механические диски и факт постепенного перехода на флэш имеется. В корпоративном сегменте это более чем чувствуется.
  • Квантовый скачок
    +1
    В промышленных системах флэш память работает надежней механики за счет
    1) алгоритмов выравнивания износа (wear leveling)
    2) применения флэш-памяти повышенной надежности, выдерживающей по несколько циклов полной перезаписи всего носителя в день.

    Например, практика применения флэшей в системах XtremIO показывает, что за всю историю этих флэш систем, мало какой из носителей использвал хотя бы 10% запаса живучести.
    Ну, и алгоритмы защиты от сбоев никто не отменял. А восстановление после сбоя у флэшей в десятки раз быстрее.
  • VxRail — гиперконвергентная система на все времена
    +3
    Никто не оспаривает того, что сегодня Nutanix является технологическим лидером в области производства софта для HCS.

    Однако, прогресс не стоит на месте и в ближайшие несколько лет все IT вендоры будут иметь в портфеле гиперконвергентные решения, а конкурентная борьба за потребителя будет идти не только на уровне “тысяч фич”, а на уровне возможностей комплексного решения и того, как оно удовлетворяет бизнес-потребности.

    Кроме того, в комплексных решениях важны такие нюансы как доступность, уровень локальной технической поддержки вендором, простота управления и т.д. Про это см. ниже.

    Другим важным трендом является то, что “приобретателем” IT-инфраструктур все больше становится сам бизнес (например, владельцы приложений). При выборе решений их прежде всего интересуют не фичи, а то, насколько удобно и быстро они смогут получить надёжную инфраструктуру для своих приложений. Это не значит, что у VxRail нет фич, но фокус сделан не на их количестве.

    Так что, несмотря на внешнее сходство, у VxRail и Nutanix состав предложений разный, а у продуктов разная целевая аудитория.

    EMC не продает управляющий софт для OEM производителей железа. VxRail – это комплексное предложение для быстрого и надежного построения IT инфраструктуры в сегменте Mid-market, в котором вендор берет на себя все риски, связанные с поставкой решения до ЦОДа, запуском его в продуктив и дальнейшей поддержкой всех компонент решения, включая железо, гипервизор и управляющий софт.
    Далее, хочу ответить по пунктам.

    1. Масштабируемость
      EMC большая корпорация и она не стремится единственным продуктом решить все задачи заказчиков — от маленьких до супербольших. VxRail позиционируется под mid-market сегмент, где 64-узлового кластера более чем достаточно. Для больших масштабов есть vBlock и VxRack, которые закрывают любые спектры задач крупных предприятий.
    2. Надежность оборудования
      Не могу сказать наверняка, почему у Nutanix были проблемы с поставщиками железа. У корпорации EMC работа с многочисленными поставщиками элементной базы – хорошо отлаженный производственный процесс, унаследованный от производства mission critical систем, включающий стресс-тестирование, отбраковку, систему контроля и улучшения качества.
    3. Уникальность
      Полная поддержка всех компонент решения одним вендором, включая гипервизор VMware – уникальное предложение на рынке (по крайней мере, пока). Кроме того, решение включает в себя продукт и лицензии CloudArray, который умеет представлять внешние облачные хранилища как NAS или SAN массивы. Очень удобное средство быстрого расширения дисковой емкости.
      В состав VxRail включен продукт EMC RecoverPoint for VM, который обеспечивает локальную и удаленную репликацию VMs и возможность их автоматического восстановления в любой точке времени. При желании можно обеспечивать RPO близкое к 0. Все решение поставляется и поддерживается одним производителем.

    4. Простота и удобство управления VxRail.
      Для управления достаточно использовать VxRail Manager для основного управления и мониторинга, он объединяет в себе весь необходимый функционал для решения задач, под которые позиционируется продукт. Для управления VxRail пользователям не надо читать Библию VxRail. В этой системе максимально автоматизированы более 200+ типовых задач, а запуск занимает около 15 минут и может быть выполнен пользователем.

    5. Поддержка
      Вся гарантия и техподдержка VxRail выполняется EMC. В России имеются свои сервисные центры, склады запчастей, и множество инженеров поддержки. Есть даже возможность прямой поддержки производителя в режиме 24/7.

    6. Стоимость и доступность систем начального уровня
      В стоимость начальной модели ($60К ) входит четырехузловой кластер, ВСЕ лицензии VMware, софт EMC по защите данных и интеграции с облаками и работы по установке и запуску и единая поддержка на все решение.

    7. Доступность для заказа
      Про доступность к заказу в официальном пресс-релизе указаны все сроки, никакого обмана нет. Все гибридные модели, кроме VxRail 60 доступны к заказу уже сейчас. VxRail 60 и Флэш модели VxRail будут доступны со 2го квартала. VSAN 6.2 будет доступен со второго квартала.
  • Даёшь флэш-революцию! Как быстро и безопасно перейти на флэш-накопители
    0
    Да, эта пятилетняя гарантия просто бомба. Молодцы!
  • Даёшь флэш-революцию! Как быстро и безопасно перейти на флэш-накопители
    0
    Влад, поздравляю! Отличная штука эти 3D флэши, работают быстро и стоят недорого. Можно на них перенести самые требовательные к производительности приложения. Так что насчет количества циклов перезаписи? Вопрос был выше.
  • Пример экспресс-анализа производительности СХД при помощи бесплатного сервиса Mitrend
    0
    Да, скорее всего проблема именно в этом. Она усугубляется тем, что в пулах нельзя отключить кэш записи. Для однородных дисковых групп лучше бы использовали классические RAID группы. Там можно управлять кэшем значительно более тонко.
    В данном случае при внедрении были сделаны однородные пулы, в которых возможности управления DRAM кэшем отсутствуют.
    Все было бы хорошо, если бы не повышенная нагрузка по записи именно на медленный пул. Т.е. в нем содержатся какие-то области, которые регулярно обновляются.
    Средства же для настройки у пулов «заточены» под FAST VP, который тоже использовать не получается из-за однородности дискового состава.
    Остается в результате не такой уж большой выбор маневров ресурсами.
  • Isilon.Next — как Big Data СХД стала больше, облачнее и мягче*
    0
    Спасибо за комметарий. Я не совсем это имел ввиду.
    Смотрите, пожалуйста, ответы ниже.
    А насчет санкций и курса — не все в наших силах. Надеюсь, ситуация улучшится.
    Сейчас могу сказать лишь, что программная версия СХД (IsilonSD) может использоваться в сочетании с серверами отечественного производства. Это частично помогает.
  • Isilon.Next — как Big Data СХД стала больше, облачнее и мягче*
    0
    Согласен с вами. До сих пор нет общепринятого понимания что такое в точности «Big Data» и где его границы.
    И я согласен, что это скорее про методику работы с данными, чем про их хранение. Сам прекрасно помню, как еще года три-четыре назад Бигдатой называли вообще все, что может хранить много данных. Даже ленточки. Сейчас ситуация уже получше.

    Что же касается Isilon, то он к Big Data все же относится. Аргументы в пользу этого тезиса следующие:
    1) будучи системой горизонтально масштабируемой Isilon может обеспечивать большие скорости для работы с хранимыми данными (сама обработка уже происходит на клиентской стороне)
    2) данные могут обрабатываться независимо друг от друга (параллельно) на множестве узлов в силу практически неограниченной многоузловой архитектуры
    3) на всем этом может быть развернут HDFS, который к методике Big Data имеет самое прямое отношение

    Этому всему не хватает, конечно, математики, которая собственно выдает результат обработки. Но Isilon это все таки СХД.
    Она может быть частью какого-то большего решения (на Pivotal, например). Т.е. имеется определенная свобода выбора.

    По поводу мелких блоков — да, ситуация стала получше, так как в каждый узел можно ставить твердотельные диски в качестве акселератора работы с мелкими блоками и метаданными.
  • Isilon.Next — как Big Data СХД стала больше, облачнее и мягче*
    0
    Данное мое утверждение отражает фактический процесс, а не мое суждение хорошо/плохо. Факт в том, что Isilon теперь может работать без остановок и прерывания обслуживания клиентов как в случае сбоев любых компонентов, так и во время обновления (как вперед, так и назад) микрокода. Это свойство систем корпоративного уровня.
    Что касается OpenStack и Hadoop, то это все же скорее фреймворки, чем законченные решения. Isilon с ними умеет работать, кстати. Встроенный HDFS в нем есть на этот случай. Немного разного плана решения. Я бы не сказал, что они конкурируют даже.
  • 4 причины рискнуть перейти к программно–определяемому ЦОД–у
    0
    zim32, спасибо за ваш комментарий.
    Извините, что заставил вас почувствовать неловкость.
    Подробней про программно-определяемый ЦОД можно узнать вот тут:
    www.youtube.com/playlist?list=PLSHgmTQvHHVFDD0Kks_nayvtx586Hllwk
    И, возможно, нам стоит сделать по этому поводу отдельную публикацию.