Экономическая эффективность решения Nutanix



    Голландский партнер Nutanix опубликовал в своем блоге интересные расчеты сравнения экономической эффективности классических решений, или «конвергентных 1.0», таких как VCE/EMC vBlock, Cisco/NetApp FlexPod и EMC VSPEX, взяв опубликованные ими референсные архитектуры (CVS, Citrix Validated Solutions) под VDI с использованием XenDesktop, и повторив их на Nutanix. У Nutanix также есть такой документ: Citrix Validated Solution for Nutanix.
    Сделать это несложно, тем более, что Nutanix выложил в открытый доступ свой сайзер, что стало возможным за счет того, что сами по себе формулы расчета нагрузки для VDI у Nutanix сравнительно несложны, что также заслуга его архитектуры.

    Вот как происходил процесс расчета.

    При сайзинге вы можете исходить из того, что на один вычислительный узел (ноду) 3000-й серии приходится нагрузка в 110 VDI VM или 200 HSD (так называемых XenApp) пользователей. Соответственно, в случае полного 2U блока с 4 нодами это будет 440 VDI VM XenDesktop и 800 пользователей XenApp. Далее рост линеен с шагом по одной ноде.

    На первых двух нодах системы мы поместим виртуальные машины инфраструктуры проекта.
    На рисунке изображены два варианта, первый — для XenApp, второй — для VDI.





    Можно предполагать, что характеристики профиля нагрузки всех вендоров примерно равные, так как все дизайны оценивались по производительности с помощью бенчмака LoginVSI: Medium Workload.

    Стоимость электроэнергии в расчете была принята равной усредненной для промышленных потребителей в Голландии (0,23 Euro за kWh), где писалось автором это сравнение. Для России и возможных других значений стоимости электроэнергии изменятся лишь абсолютные показатели в деньгах, но сохранится относительное значение экономии. Кстати, кто владеет информацией, подскажите в комментах, какую цену за киловатт стоит принять для расчета в датацентре в Московском регионе?

    Потребление электричества и тепловыделение взято из материалов вендоров и указанного в описании референсных архитектур, а также из орлайн-калькуляторов, например Cisco UCS power calculator и принято как типичная величина, или же взято равным 75%, если указано только пиковое, максимальное значение.

    Стоимость за десктоп вычислена исходя из общей стоимости инфраструктуры, так как брокеры, коммутаторы и прочие компоненты необходимы для работы десктопов.

    Методика вычисления затрат на охлаждение взята из этой публикации Edwin Weijdema. Согласно его расчетам, для того, чтобы утилизовать 1000 BTU в час, вам нужно затратить 293 Watt/h на охлаждение. Примем его методику за примерную и воспользуемся его результатами.

    Версии XenDesktop могут быть слегка различными (так, в разных архитектурах использовались версии 7.1 и 7.5. Также могли отличаться гипервизоры, в случае Nutanix мы использовали Hyper-V, в других архитектурах использовался VMware vSphere.

    Nutanix vs VCE vBlock


    Начнем с занимаемого решением объема, так называемого footprint. VCE vBLOCK в сравнении с Nutanix для системы на 100% XenDesktop VDI для 2500 десктопов. Взять референсный дизайн VCE можно здесь.
    Ниже приведена картинка размещения в стойке обоих решений.



    VCE vBlock на 2500 VDI XenDesktop занимает практически полный шкаф (35U из 42U емкости шкафа), тогда как решение Nutanix использует в нем 20U. Согласно расчетам, нам понадобится 25 нод в кластере, причем, как вы видите на схеме, вы верхнем блоке используется всего одна нода. 6U наверху шкафа занимают коммутаторы Arista (2x 48-port Gigabit switch и 4x 24-port 10G switch) обеспечивающие необходимую коммутационную инфраструктуру кластера.
    Так как дизайн vBlock использует Provisioning Services и 4 сервера PVS, мы удалили десктопы с первых двух нод, чтобы разместить там 4 дополнительных сервера PVS. Это значит, что 2500 десктопов работают на 23 нодах (всего 2530 десктопов).

    Теперь посмотрим на расчеты:



    Расчет показывает нам, что vBlock обходится нам в 69547 Euro в год затрат на его эксплуатацию (только энергопотребление и охлаждение, без учета затрат на администрирование и обслуживание), исходя из 75% загрузки. В сравнении с ним, стоимость эксплуатации решения Nutanix стоит примерно половину от такой же цены VCE vBlock. Расчет стоимости десктопа дает нам 27,81 Euro в год для десктопа на vBlock, и только 13,85 Euro в годдля Nutanix. Общая экономия составляет 50%.

    Nutanix vs NetApp/Cisco Flexpod


    Теперь сравним Nutanix c другим решением, возьмем референсный дизайн Cisco/NetApp, который можно посмотреть здесь, он сделан для 2000 пользователей, 75% работают в XenApp и 25% в VDI.

    Занимаемое место в шкафу:



    Вновь мы видим существенную разницу в занятом месте. FlexPod лучше, чем vBlock, по занимаемому месту, но все еще хуже, чем Nutanix, 30U против 11U у Nutanix. У Nutanix используется 4 блока, причем в верхнем установлено только 2 ноды. На 2 инфраструктурных нодах работают по 100 XenApp пользователей на каждой, поэтому нам нужно около 9 нод для 1500 поьзователей в XenApp, и еше 5 для пользователей VDI. Мы несколько превысили результаты по десктопам у оригинального дизайна, на 100 пользователей XenApp, и на 50 VDI, но это превышение упростило нам дальнейшие расчеты, да и «больше — не меньше» :).

    Результаты:



    Результаты говорят за себя. 60% снижение затрат в год, с ценой за десктоп, равной 9,49 Euro в год. Получить цену за десктоп ниже 10 евро в год позволило использование модели Flexcast в Hosted Shared Desktop (XenApp), который позволяет размещаться плотнее, чем при использовании VDI, при этом «меньше оборудования» означает «меньше стоимость».

    Наконец, третье сравнение.

    Nutanix vs Cisco UCS B bladeserver + EMC VSPEX


    Сравним Nutanix с дизайном Cisco + EMC VSPEX. Это дизайн для 1000 пользователей, поделенных в соотношении 70%/30% между HSD XenApp и VDI. Наш объем в стойке был около 50% меньше для сравнения с FlexPod, «конвергентным решением v1.0», а тут мы видим, насколько фатально неэффективно смотрится использование классической системы хранения и традиционного решения «серверы + СХД» для задачи десктопной виртуализации:



    Основываясь на нашем CVS (Citrix Validated Solution) нам потребовалось всего 7 нод для 750 HSD и 250 VDI пользователей, что заняло у нас в стойке всего 4U для Nutanix и плюс 3U для коммутаторов наверху рэка.

    Вот результат:



    70% экономии затрат, или 25654 Euro в год, с ценой за десктоп 11,23 Euro в год. Экономия места в шкафу при этом – 80%.

    Выводы


    Не стало большим сюрпризом, что гиперконвергентная инфраструктура дает нам существенно меньший footprint, то есть занимаемое в стойке датацентра место вашей инфраструктурой. Но вы занимаете не просто меньше места в стойке, используя Nutanix. Меньше становятся и затраты на электропитание, а также на охлаждение. Многие традиционные решения требуют больших объемов подачи электропитания, что, иногда, бывает просто невозможно в некоторых датацентрах, а даже если эти дополнительные ресурсы и доступны, их использование может обойтись в весьма круглую сумму в год дополнительных затрат, по сравнению с решением Nutanix.

    И тогда, возможно, эта картинка для некоторых клиентов VCE vBlock окажется пророческой. :)

    image

    Список использованных материалов:


    Citrix Validated Solution for Nutanix
    VBlock Specialized System for Extreme applications with Citrix XenDesktop 7.1
    Flexpod Datacenter with Citrix XenDesktop 7.1 and VMware vSphere 5.1
    Cisco Desktop Virtualization Solution for EMC VSPEX with Citrix XenDesktop 7.5 for 1000 seats
    Cisco UCS Power Calculator
    Blog Edwin Weijdema: How to calculate costs for power and cooling
    EMC XtremIO System Specifications
    EMC VNXe Series Specifications
    EMC VNX Series Specifications
    Arista 7048-A Datasheet
    Netapp Site Requirements Guide
    Nutanix Spec Sheet

    Источник http://www.nutinus.nl/?p=51
    Nutanix
    0,00
    Компания
    Поделиться публикацией
    AdBlock похитил этот баннер, но баннеры не зубы — отрастут

    Подробнее
    Реклама

    Комментарии 47

      –2
      «Nutanix мы использовали Hyper-V, в других архитектурах использовался VMware vSphere.»

      Перефразируя, означает что другим архитектурам дали фору, ввиду того что HyperV где-то на 20-25% меньше производительность показывает.

      Это в общем-то некритично для клиентов (учитывая коллосальную экономию на лицензировании), но фактически означает что на Nutanix + ESXi можно смело результаты производительности на 1.2 умножать — т.е. экономия по размещению / охлаждению / энергетике еще выше.
        0
        Перефразируя, означает что другим архитектурам дали фору, ввиду того что HyperV где-то на 20-25% меньше производительность показывает.

        Пожалуйста, приведите источники со сравнением производительности.
        –1
        1) К одной стойке в которой стоят FI, я могу без проблем подключить ещё 2 стойки заполненой шаси с блейдами и тогда плотность RU/кол-во пользоватилей изменится.
        2) Расчёты с использованием Cisco UCS power calculator не показательны.
        Мой вывод: Каждый вендор сравнивая своё «бумажное» решение с «бумажным» решением другого вендора — выиграет.
        Они бы реальные тесты различных решений заказали и конкретные графики привели, вместо «бумажных» побед.
        • НЛО прилетело и опубликовало эту надпись здесь
            –2
            Да, но это, во-первых, уже не будет Validated solution

            Если вы сравниваете «Validated solution» то сравнивайте всё фичи, технологии, провижининг, возможности ПО управления, лицензирование, поддержку и пр. Если в вашем сравнении этого нет, то и не нужно подчёркивать эту фразу.
            А расчет с чем показателен? Снова: если эти данные и этот инструмент официально опубликованы — инженеры компании-производителя считают его релевантным и показательным инструментом и признают его результаты, иначе зачем он нужен?

            Прочтите Disclaimer к этой «утилите», а потом пишите комменитарий. Либо за актуальными данными обратитесь к нормальному интегратору, а лучше вендору.
            У вас есть другие результаты? Покажите их, иначе это беспредметный разговор.

            В своих выводах, я предложил сделать реальные тесты, а вы уже просите у меня результаты?
              +1
              «всё фичи, технологии, провижининг, возможности ПО управления, лицензирование, поддержку и пр. „

              Об этом не волнуйтесь. по всем названным параметрам решения Cisco / EMC колоссально отстают.

              Общая стоимость владения Nutanix ниже того-же EMC на 62% — вот статья на Forbes.

              www.forbes.com/sites/petercohan/2014/11/21/nutanix-beating-emc-by-cutting-customer-it-costs-62/
              • НЛО прилетело и опубликовало эту надпись здесь
                  +2
                  .А какие именно фичи, технологии, провижининг, возможности ПО управления, лицензирования, поддержку и прочее Вы имеете в виду?
                    0
                    То, что меня привлекает в решении с Cisco UCS в первую очередь:

                    • НЛО прилетело и опубликовало эту надпись здесь
                        0
                        Извините, но я никогда не считал усложнение инфраструктуры какой-либо полезностью.
                          0
                          Вот только есть проблема — решения SAN и FC собственно умирают, о чем Гартнер и пишет говоря о webscale системах.

                          Ни Гугл, ни Амазон, ни прочие — не используют FC SAN.

                          Тобишь перечисленный набор «полезностей» является очевидным набором костылей. Перефразируя — создавать проблемы на пустом месте и их же решать.

                          Еще раз, без обид — но вам реально стоит подтянуть фундаментальные знания.
                            +1
                            Вот только есть проблема — решения SAN и FC собственно умирают, о чем Гартнер и пишет говоря о webscale системах.
                            Не в корпоративном мире. Спросите сколько тот же КРОК внедрил/сейчас внедряет SAN сетей.
                            Ни Гугл, ни Амазон, ни прочие — не используют FC SAN.
                            Возможно эти компании и не используют SAN на базе FC, не имею понятия.
                            Еще раз, без обид — но вам реально стоит подтянуть фундаментальные знания.
                            Не путайте «тренды» и фундаментальные знания.
                            И коль уж вы решили давать советы, советую вам и вашему коллеге nutanix пройти треннинги по этике переписки в «корпоративных ресурсах». Хотя возможно в компании Nutanix принято сразу оскорблять и давать глупые советы, не могу судить.
                    0
                    К одной стойке в которой стоят FI, я могу без проблем подключить ещё 2 стойки заполненой шаси с блейдами и тогда плотность RU/кол-во пользоватилей изменится.


                    И? А СХД-то что? IOPS резиновые? :)

                    Напоминаю — Nutanix на каждые 2U — 130.000 IOPS чтение и около 60.000 IOPS записи на кластерном датасторе.

                    Cisco UCS power calculator не показательны


                    Вы утверждаете что документам и инструментам Cisco нельзя доверять? Не могу не согласиться, всем известно что этот вендор очень любит завышать цифры производительности и занижать расходы, так что дела на самом деле обстоят еще хуже для них чем показано в этой статье.

                    В свою очередь, Nutanix гарантирует точность всех цифр — если взять наше оборудование, по RA поднять инфраструктуру — они будут или такие-же, или еще лучше (постоянно улучшается ПО и скорость работы).

                    Насчет сравнения архитектур / решений — как-бы не зря Gartner поставил Nutanix технологическим лидером (визионером) индустрии конвергентных решений, при том что тот-же Гартнер говорит что web-scale IT будет более 50% рынка к 2017 году.

                    При том что на рынке сейчас единственный реальный webscale вендор.

                    Так что уже все сравнили, до вас ;)

                    Если коротко — хотите 400 VDI / VM на 2U блока 3460 — вы их получите. За 20 минут запустите инфраструктуру и еще максимум пару часов на настройку высокоуровневого ПО.

                    Вот тут люди за 5.5 часов vCloud с нуля поднимали:

                    vcdx56.com/2014/09/16/greenfield-vcloud-automation-center-deployment-on-nutanix/
                    longwhiteclouds.com/2014/10/19/nutanix-and-vcloud-automation-center/
                      0
                      И? А СХД-то что? IOPS резиновые? :)
                      Серевера Cisco UCS поддерживают Fusion ioMemory3 или LSI WarpDrive. Выходит, что по IOPS Nutanix дажен проигрывает.
                      Вы утверждаете что документам и инструментам Cisco нельзя доверять?
                      Ещё раз прочтите дисклеймер к этому продукту.
                      При том что на рынке сейчас единственный реальный webscale вендор.
                      Разве в статье не о решениях для VDI велась речь?
                      Если коротко — хотите 400 VDI / VM на 2U блока 3460 — вы их получите. За 20 минут запустите инфраструктуру и еще максимум пару часов на настройку высокоуровневого ПО.
                      Вот тут люди за 5.5 часов vCloud с нуля поднимали:
                      Я предпочитаю, этому субъективному опыту не доверять, это же не исследования Гартнер.
                      • НЛО прилетело и опубликовало эту надпись здесь
                          –2
                          С вами, вашими же методами.
                          • НЛО прилетело и опубликовало эту надпись здесь
                              0
                              заодно покажете, что Cisco умеет не только какашками кидаься
                              Я не имею никакого отношения к компании Cisco Systems.
                              Кстати, просто чтобы не допускать этого в будущем, не могли бы вы перечислить «мои методы», которые вызвали такую реакцию? Обещаю исправиться.
                              Под «вашими методами» я подразумевал не использование результатов рельныхх тестов.
                              И, кстати, как насчет правильного расчета тепловыделения и энергопотребления и «реального» тестирования с вашей стороны?
                              У меня таких возможностей нет.
                              • НЛО прилетело и опубликовало эту надпись здесь
                          +1
                          «не исследования Гартнер.»
                          — по исследованиям Гартнер, Nutanix обошел Cisco и прочих (визионеры индустрии ковергентных решений).

                          «Fusion ioMemory3 или LSI WarpDrive.»


                          Это выдает ваш непрофессионализм. FusionIO — Nutanix отказался от использования (в 2000-й серии снятой с произодства стоял как раз Fusion), ввиду массовых проблем у решений FusionIO (деградация производительности после полугода, постоянные апдейты прошивков с потерей данных и тд).

                          HotPlug замена таких адаптеров невозможна, что тоже резко понижает надежность системы (замена — только с полной остановкой нода / сервера)

                          Далее — сравнивать кластерную web-scale систему хранения данных и локальные PCI акселераторы (от которых толку очень немного — это просто кэши локальные) — это даже не смешно.

                          по IOPS Nutanix дажен проигрывает.

                          Это — феерично неразумное заявление. Стойка с Nutanix выдает несколько миллионов IOPS кластерной «СХД».

                          Ещё раз прочтите дисклеймер к этому продукту.


                          Перефразируя, вы утверждаете что Cisco на самом деле ничего не знает, а вот локальные интеграторы (особенно — на Украине, откуда вы и пишете), точно знают как надо просчитывать нагрузки. Скажите, какое самое большое внедрение VDI вы делали лично, делал ваш интегратор и вообще есть на Украине?

                          Примеры внедрений VDI на Nutanix (из того что можно публично называть, реально их на порядок больше, есть на десятки тысяч мест):

                          Metro Cash & Carry
                          US Department of Health & Human Services (Number of desktops — 5000) (минздрав США)
                          Federal Communications Commissions (Number of desktops — 3000) (знаменитая FCC)
                          US Army Intel (Number of desktops — 6000)
                          Intelligence Community integrator (Number of desktops — 2500)
                          Department of Justice (Number of desktops — 2500) (генпрокуратура США)
                          Rush University Medical Center — They had over 1,000 VDI desktops deployed by the end of December 2013 (now it’s much more)
                          Serco — 4000+ desktops running.

                          Refence:

                          Perdue Farms
                          Covance
                          Toyota Motor Sales
                          Vantiv
                          Limited Brands
                          Amway
                            0
                            Это выдает ваш непрофессионализм. FusionIO — Nutanix отказался от использования (в 2000-й серии снятой с произодства стоял как раз Fusion), ввиду массовых проблем у решений FusionIO (деградация производительности после полугода, постоянные апдейты прошивков с потерей данных и тд).
                            Это показывает отсутствие опыта работы с данным продуктом.
                            Далее — сравнивать кластерную web-scale систему хранения данных и локальные PCI акселераторы (от которых толку очень немного — это просто кэши локальные) — это даже не смешно.
                            В статье сравниваются VDI решения.
                            Перефразируя, вы утверждаете что Cisco на самом деле ничего не знает, а вот локальные интеграторы (особенно — на Украине, откуда вы и пишете), точно знают как надо просчитывать нагрузки. Скажите, какое самое большое внедрение VDI вы делали лично, делал ваш интегратор и вообще есть на Украине?
                            Лично у меня такого опыта нет. Но вы можете посмотреть примеры внедрённых решений. Есть небольшие внедрения, но есть и сопоставимые с вашими примерами.
                            Это — феерично неразумное заявление. Стойка с Nutanix выдает несколько миллионов IOPS кластерной «СХД».
                            Мы сравниваем VDI решения. Считаю, что самым правильным сравнением решений различных вендоров будет следующий сценарий. Каждому вендору выдать ТЗ, бюджет. Получить решения и протестировать это. Если бы в статье с таким сравнением заявили, что решение Nutanix лучше, я бы и не сомневался в этом.
                              0
                              Не совсем понятна суть конкретно данного спора к теме статьи.
                              В статье говориться про эксплутационные расходы, когда Вы пытаетесь сравнить производительность решения, причём не оперируя вообще никакими цифрами и фактами.
                      –1
                      Я что-то так и не понял в чем приемущество решения. Например Nutanix vs NetApp/Cisco Flexpod 13.1кВт vs 4.4кВт или 16x серверов UCS c 2xCPU Xeon vs 4 ноды Nutanix где 2xCPU Xeon. То факту получаеться что Cisco на 20-25% лучше и это учитывая что в нагрузку идет еще много других полезностей :)
                        +1
                        По факту — с точностью до наоборот, и не на 25% :) По костам на эксплуатации — выигрыш на Nutanix 70%, что достаточно ясно показано в данной статье.

                        Перефразируя:
                        При решении одинаковых задач с одинаковой производительностью, выигрыш на Nutanix обычно более чем в два раза.
                        Точные цифры приведены в таблицах.

                        Кстати, какие «полезности» идут в нагрузку, если не секрет?
                        • НЛО прилетело и опубликовало эту надпись здесь
                            +1
                            А расскажите, пожалуйста, про полезности?
                            0
                            Сорри за вопрос, я не так хорошо разбираюсь в виртуалзизации, как хотелось бы. Как понимаю, nutanix вынуждает покупать меня их оборудование.
                            А нет ли решений от поставщиков гипервизоров по распределенной файловой системе? Например, что нибудь от самой vSphere?
                            • НЛО прилетело и опубликовало эту надпись здесь
                                0
                                Понял. Вендорлок конечно, неприятно, но и к вам я привязан буду чуть более чем полностью.
                                А можете дать преимущества по техническим характеристикам?
                                Напимер, может быть у Вас гибкая настройка избыточности хранения или лучшая кеширующая прослойка из SSD?
                                  +1
                                  Да нет у нас никакого вендорлока ;)

                                  Обычные платформы супермикро. Просто конкретные платформы сертифицированные.

                                  Сервера нынче — это просто железки одинаковые. Не зря IBM продал подразделение X86 серверов Китайцам (умные люди сидят в IBM).

                                  Мы например готовы были сделать поддержку для HP — но нашли фундаментальную (!) проблему, которую HP не может исправить в своих серверах. Это как раз к вопросу, насколько хорошо что такие компании глубоко модифицируют прошивки / биосы / референс дизайны Интела и других.

                                  h20565.www2.hp.com/portal/site/hpsc/template.PAGE/public/kb/docDisplay?docId=c03835455&ac.admitted=1415791140275.876444892.492883150

                                  Dell при этом например никаких проблем нет.

                                  А так — мы наоборот даем максимум свободы, поддеживаем все основные гипервизоры (HyperV, ESXi, KVM) — для последнего даже есть встроенная система управления (бесплатно).

                                  Если учитывать стоимость лицензий на ESXi (особенно Enterprise Plus + SRM например) — вопрос математики и «привязок» становится очень интересным.
                                    0
                                    Даже так: я бы с удовосльтвием прочел статью про отличие Вас от VSAN. Да и Вам было бы приятно написать ее, особенно если Вы лучше такого именитого вендора по всем параметрам. Если у Вас есть список статей к написанию, поставтье в очередь, плиз :)
                                    • НЛО прилетело и опубликовало эту надпись здесь
                                        0
                                        А, точно! Сорри, статья в комментах есть, спасибо. Сейчас буду читать. А вот еще вопрос вдогонку. У меня на моих малых потребностях испольуется ESXi 5.5, и одна из проблем — это скорость копирования данных через NFS. При том, что сетевые интерфейсы позволяют копировть 1Гб/с реальная скорость ниже 10Мб/с. Я думал, это моя личная проблема но 12тыс. запросов говорят иначе.
                                        Так вот, суть вопроса. Если вы поставляете свое хранилище в ESXi через NFS, то подтверждаете ли вы проблему низкой производительности NFS и как ее побороли?
                                        • НЛО прилетело и опубликовало эту надпись здесь
                                            +1
                                            Да, традиционные СХД с NFS3 имеют такие проблемы. Причина — NFS3 — однопоточный, в отличии от того-же SMB3 например. Отсюда и все беды :) Поэтому сейчас очередная шумиха идет по поводу NFS4.1 (он-же pNFS).

                                            В Nutanix (опять-же, нескромно — но это на самом деле так, ввиду уникальной архитектуры) этот вопрос решен фундаментально.

                                            Дело в том что на каждом хосте есть отдельный NFS thread (поток) — монтирование по NFS идет с локального CVM (виртуального контроллера).

                                            Получается, что «старый» NFS3, который не умеет параллелизацию — становится параллельным. 3 нода — три потока NFS, 100 нодов — сто потоков.

                                            Архитектура хорошо показана в Nutanix Bible
                                          +1
                                          Да зачем статьи ;)

                                          Все очень просто.

                                          Фундаментально важные «фичи», которые не поддерживается VSAN и поддерживается Nutanix (список далеко не полный)

                                          Native Snapshots
                                          Native Clones
                                          Compression
                                          De-duplication
                                          Data Tiering
                                          Data Locality
                                          Data Leveling
                                          VAAI Support
                                          Data Protection Rebuild start time 60 min (Нутаникс — мнговенно)
                                          Max Disk Size 2TB (нутаникс — безлимитно)
                                          UI — Outdated Flash (нутаникс — шикарный HTML5 интерфейс, с AJAX и RESTful API)
                                          Monitoring — All CLI with Ruby (мониторинг только из CLI, в отличии от 100% полного UI Nutanix)
                                          Integration — Hypervisor module (встроен в ядро на ESXi, является точкой отказа. В свою очередь — Nutanix это виртуальная машина / контроллер, отказ которой не приводит к отказу хоста).

                                          И т.д.

                                          В общем это примерно как сравнивать Windows 3.11 и MacOS 10.10
                                            +1
                                            У VSAN есть свои плюсы:
                                            -Возможность хранения от 1 до 4 копий объектов (у Nutanix 2 или 3).
                                            -У VSAN кол-во копий, размер резервируемого кэша, thin/thick provisiong задается с помощью политик на уровне ВМ и отдельных виртуальных дисков, у Nutanix — это нужно делать на уровне датасторов ВМ.
                                            -Отсутствие легаси в виде виртуальных апплайнсов, которые отдают датастор по NFS.
                                            -Возможность установки в один сервер до 5-и SSD и до 35 жестких дисков (у Nutanix — в зависимости от модели, но не более 20).
                                            -В целом, более широкий перечень поддерживаемых конфигураций оборудования.
                                            -Возможность ограничения размера fault domain'а в рамках одного хост сервера за счет создания нескольких дисковых групп.
                                            -VSAN входит в состав старших редакций View.

                                            Так что сравнение Windows 3.11 и MacOS 10.10 выглядит несколько натянутым.
                                              +1
                                              "-Возможность хранения от 1 до 4 копий объектов (у Nutanix 2 или 3)."

                                              Да хоть 500 копий. Nutanix держит отказ (в случае 3 блоков или больше) 4 контроллера / нода одновременно, а если Metro Cluster — то 8 нодов одновременно.

                                              Сколько узлов одновременный отказ держит VSAN? :D

                                              Важно не количество копий, а умение с ними работать и логика их распределения.

                                              «Отсутствие легаси в виде виртуальных апплайнсов, которые отдают датастор по NFS.»

                                              да, у VSAN полностью свой левый протокол, ни с чем не совместимый, встроенный в ядро ESXi (и совместимый только с ней), с массой ограничений, не умеющий даже родной VAAI, ограниченный 2TB размером диска и прочим.

                                              Учитывая то что Nutanix показывает выдающиеся параметры производительности, и не имеет лимитов по размеру кластера (а EVO:RAIL — всего 16 нодов), то насчет легаси очень забавно вы написали :)

                                              «у Nutanix — это нужно делать на уровне датасторов ВМ.»

                                              да, и это огромный плюс — нет привязки к ESXi, работает с HyperV / KVM и прочими что мы будем/захотим поддерживать

                                              "-Возможность установки в один сервер до 5-и SSD и до 35 жестких дисков (у Nutanix — в зависимости от модели, но не более 20)."
                                              в «жигули» можно посадить 10 человек, но комфортно им от этого не будет. SSD в VSAN — это просто кэш, который крайне неэффективно расходуется. Кстати отказ SSD (даже одного) приводит к катастрофическим потерям производительности

                                              «В целом, более широкий перечень поддерживаемых конфигураций оборудования.»

                                              Это в теории. А на практике, для VSAN / EVO:RAIL бурно сокращают HCL список, ибо у клиентов возникают серьезнейшие проблемы.

                                              "-Возможность ограничения размера fault domain'а в рамках одного хост сервера за счет создания нескольких дисковых групп."

                                              Этот момент не ясен, поясните. Fault Domain у VSAN засчет встроенности в ядро — не изолирован совершенно.

                                              "-VSAN входит в состав старших редакций View."

                                              HyperV + XenDesktop на Nutanix — очень эффективное решением (цена / возможности / производительность)

                                              Ну и как бы очень забавно говорить про VSAN как серьезное решение для VDI, если даже техдир VMware говорить про «early adopters» в 2015 году. Как сделают, так серьезно и поговорим. Года через 2-3 в лучшем случае.

                                                +1
                                                Сколько узлов одновременный отказ держит VSAN? :D
                                                Гарантированно — столько, каков показатель Fault to tolerate. При оптимистичном сценарии — в VSAN данные доступны, пока доступно более половины компонентов и хотя бы одна полная копия данных.

                                                Учитывая то что Nutanix показывает выдающиеся параметры производительности, и не имеет лимитов по размеру кластера
                                                Делать неограниченный по размеру кластер — не всегда хорошая идея. Иногда несколько кластеров меньшего размера более оптимальны. Учитывая, что размер кластера VSAN (32 узла) равен размеры кластера HA/DRS, то это небольшое ограничение.

                                                SSD в VSAN — это просто кэш, который крайне неэффективно расходуется.
                                                А можете написать поподробнее — почему неэффективно? В VSAN данные в кэше на чтение хранятся однократно, один объект может быть разбит на несколько компонентов, каждый из которых может хранится в отдельной дисковой группе, а значит, использовать отдельный SSD по кэширование операций чтения.

                                                Это в теории. А на практике, для VSAN / EVO:RAIL бурно сокращают HCL список, ибо у клиентов возникают серьезнейшие проблемы.
                                                Про сокращение HCL — речь об исключении Intel AHCI в финальном релизе VSAN? У вас, насколько я знаю, он тоже не используется.

                                                Этот момент не ясен, поясните. Fault Domain у VSAN засчет встроенности в ядро — не изолирован совершенно.
                                                На текущий момент мне неизвестен ни один баг, который бы приводил из-за этого к отказу ядра, зато известен как минимум один баг с реализацией NFS. kb.vmware.com/selfservice/microsites/search.do?language=en_US&cmd=displayKC&externalId=2076392
                                            0
                                            Уже проскакивало такое сравнение в блоге. Вот здесь.
                                        +1
                                        Есть конечно.

                                        Называется VSAN. Вторая попытка VMware сделать что-то рабочее, первая была полностью провальной.

                                        К 2017 году допилят до состояния когда сможет держать tier-3 нагрузки в лучшем случае.
                                        В принципе, лет через 5 может стать вполне неплохим продуктом и пригодным для tier-1.

                                        К этому времени у Nutanix будет уже видимо 10-я версия ПО (каждые три-четыре месяца новый релиз с огромным количеством нового функционала).

                                        Одна из основных проблем — EMC владеет VMware, и внутри одной компании конкуренция решений маловероятна.
                                        Ну а сами EMC ничего противопоставить Nutanix реально не могут.

                                        Пока же, по словам технического директора VMware в США, годится только для небольших VDI проектов и лабораторного использования. Причины — фундаментальные, VSAN это фактически сетевой рейд с большим количеством ограничений, который не поддерживает родные-же протоколы акселерации СХД (такие как VAAI), не умеет использовать SSD как полноценный tier (только как кэш) и т.д.

                                        twitter.com/cswolf/status/372400435111657472
                                        blogs.vmware.com/cto/author/chriswolf/

                                        «Timeline for vSAN to be mainstream? I'm thinking 2016. 2014 Dev/Test + small VDI, 2015 early adopters, 2016 mainstream for tier 3 „
                                        Chris Wolf, VMWare CTO of America
                                        0
                                        Посмотрел на сайте предоставляемое оборудование. Интересуюсь, а есть ли (когда планируются) сервера на E5-1600 серии? У СуперМикро они уже давно поставляются.
                                        Еще, расскажите о политике ценообразования, если мы сами закупим СуперМикровские сервера и захотим использовать Nutanix. Из чего тогда будет складываться стоимость?
                                        • НЛО прилетело и опубликовало эту надпись здесь
                                          0
                                          И еще. То ли я искать разучился, то ли действительно хоть где нибудь есть опубликованные цены?
                                            0
                                            Нашел цены в штатах. Кстати NX-1020 более низок по характеристикам, чем, к примеру SuperServer 5028R-WR на E5-1680 v3. У вас в поставках пока, видимо, не отработан Haswell-EP.

                                            • НЛО прилетело и опубликовало эту надпись здесь

                                            Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.

                                            Самое читаемое