Закупка железа против облака: как правильно считать



    Оказывается, что, когда ИТ-подразделение наших заказчиков оценивает затраты на владение собственной инфраструктурой, большая часть из них забывает посчитать, например, электричество. Потому что лицензии и железо оплачивает ИТ-отдел, а тепло-холод-питание — вообще завхоз.

    Совокупная стоимость владения физическим оборудованием — вещь сложная, особенно если вспомнить про меняющуюся стоимость денег, покупки в кредит и другие параметры. Давайте я покажу, по какой методике мы считаем и в каких случаях физическое железо лучше.

    Итак, обычно нужно сравнить переезд в облако и новую стойку либо в момент плановой замены устаревшего оборудования, либо в момент создания новой инфраструктуры — например, под новый проект.

    Поехали считать.

    Клиент — крупный агрохолдинг. Вариант 1 — собственное ИТ-решение:

    • Программно-аппаратная инфраструктура на оборудовании Hewlett Packard:
      1. 5 серверов HP 460c blade;
      2. СХД общим объёмом 17 280 Гб;
      3. Коммутатор — 2 шт.;
      4. ПО для работоспособности оборудования НР и виртуализация VMware.
    • Клиент имеет скидку у вендора Hewlett Packard 25%.
    • Клиент имеет собственную серверную для размещения оборудования.

    Вариант 2 — облачная услуга:

    • Виртуализация VMware: vCPU — 325; RAM — 1 526 Гб, HDD — 12 250 Гб.

    Теперь давайте посмотрим на числа, а потом обсудим, где и какие есть подводные камни. Если коротко, ИТ-специалистам надо финансово образовываться. В России почти всегда ИТ-директор подчиняется финансовому. Точнее, вроде как они на равных в структуре компании, но курирует CIO частенько CFO. И у них могут возникать непонимания и разногласия. В итоге все кейсы айтишников проверяет финансист. Почему финансисты странные и часто дают нелогичные на первый взгляд замечания — это всегда вопрос точного просчёта.

    Начнём с итогов этих двух моделей:



    Теперь давайте посмотрим на цены железа:



    ПО:


    Стоимость эксплуатации:



    Затраты на продление технической поддержки ПО:


    Получается вот что: сравнение проводили за пятилетний период.
    Для оценки обоих вариантов между собой пользуемся показателем: Чистый Дисконтированный Денежный Отток (ЧДДО).

    Почему именно он?
    Потому что его можно напрямую сравнивать с KPI из управленческого отчёта о движении денежных средств. Это позволяет оценить степень его влияния на KPI бизнеса.
    И избавляет нас от необходимости запрашивать финансовые данные у клиентов по каждому проекту.

    Преимущество виртуализации в виде постепенного увеличения арендуемых ресурсов объясняется тем, что они наращиваются по мере необходимости. В данном кейсе запланирован запуск виртуальных мощностей с 40% в первый год до выхода на полную мощность к концу третьего года. Данный подход позволяет постоянно гибко подходить к планированию расходов, чем обеспечивается максимальная утилизация вычислительных ресурсов. В то время как закупка оборудования обычно происходит в объёме, покрывающем не столько текущие потребности (на месяц-два вперёд), сколько на год-два вперёд. Также заказываемый объём увеличивается для покрытия пиковых нагрузок. В том числе увеличение объёма закупки позволяет получить определённые скидки у поставщиков.

    Рассчитывается ЧДДО следующим образом.
    Размер чистого денежного оттока (ЧДО) включает в себя операционные расходы (OPEX), остаточную стоимость капиталовложений на конец года, налоговые платежи.

    Далее нам надо понять, какова стоимость ЧДО по всему проекту за 5 лет на сегодня, т. е. выразить её «сегодняшней» суммой. Так как будущие деньги всегда стоят дешевле сегодняшних, то для корректировки их стоимости мы применяем дисконтирование ЧДО, в результате чего получаем Чистый Дисконтированный Денежный Отток по проекту в целом за 5 лет.

    В нашем примере ЧДДО был рассчитан как для варианта In-House, так и для CLOUD, а разница составила 38,5 млн рублей в пользу облачного решения.

    Вы можете справедливо заметить, что купленное оборудование может через 5 лет стоять и работать. Хотя стоит помнить, что через 3 года оно будет амортизировано полностью, техническая поддержка станет дороже.

    Также самые практичные из вас подумают о том, что купленное оборудование является активом и его можно будет продать, чем и покрыть совершённые в начале проекта капиталовложения. И здесь важно понимать, что продажа получается не только с очень большим дисконтом (более 50%), но ещё и растягивается на годы.


    Ещё несколько важных вещей:

    1. При проектировании и закупке собственного железа должен быть резерв на кластеры высокой доступности. На это нужно больше оборудования. Нагрузка на систему обычно рассчитывается из прогноза в 1,5–2 года, затем утилизация постепенно растёт. А покупать стараются сразу, потому что есть объёмная скидка. Ещё дополнительное железо берётся на сезонность, то есть под пиковое потребление.

      В облаке же можно гибко варьировать мощность и резервирование уже есть — ВМ умеют переезжать при отказах конкретных хостов. С другой стороны, если у вас заложен геораспределённый кластер под критичные процессы, понадобится и второе облако тоже. При использовании облака есть возможность гибко масштабировать ресурсы на время увеличения сезонной нагрузки либо потреблять по модели Pay-as-you-go. Можно создавать машины, управлять ими, потом их удалять, когда необходимость отпадает. У нас это постоплата, квантование по часам — но условия могут отличаться. Можно пользоваться услугой по другой модели тарификации и получать фиксированный пул ресурсов с фиксированной ежемесячной оплатой. Удобно для планирования затрат на будущие периоды.
    2. Серверная — это либо расширение офиса, либо аренда стойки в дата-центре (площадки у провайдера). Соответственно, это тоже расходы.
    3. Редко правильно считается эксплуатация, конкретно фонд оплаты труда (зарплаты). Руководитель может решить, что он нагрузит своих уже имеющихся сотрудников — и не придётся увеличивать ФОТ. Не учитывается обучение работе с новым железом и ПО и дополнительные специалисты. А каждый новый человек имеет коэффициент примерно от двух до трёх (в западных компаниях — до пяти) от своей зарплаты. Это налоги, отчисления в фонды, ДМС, сотовая связь, затраты на рабочее место (канцтовары, компьютер), место в офисе (кусок аренды площади), кусок зарплаты обслуживающего персонала типа офис-менеджера, уборщицы и внутреннего ИТ.
    4. Охлаждение, пожарная безопасность — это не касается ИТ напрямую, но составляет свою статью затрат, это понимает финансовый директор. Цена электропитания сильно зависит от потребителя. В офис киловатт приходит в среднем дороже, чем на завод или в дата-центр.
    5. Амортизируются не только сервера и СХД, но и сетевые компоненты. У обычного сервера срок амортизации составляет 3 года, у коммутатора — 5 лет. После этого оборудование надо менять, за этот период возрастает количество сбоев, увеличивается потребность в ремонте. Оборудование не только вырабатывает свой ресурс, но и просто морально устаревает. Мы у себя гарантированно меняем всё сетевое железо раз в 5 лет, дублируем по схеме 2N, а в серверном парке всегда имеем резерв 30% на пики.
    6. В приведённом расчёте заказчик выбрал сравнение с серверами HP, поскольку у него был опыт их эксплуатации. Понятно, что можно выбрать куда более дешёвый китайский ноунейм, но тогда это приведёт к меньшей функциональности оборудования, мучениям при его установке и эксплуатации, а зачастую ещё и к отсутствию нормальной техдокументации. Можно взять железо вообще без поддержки или поддержку с ослабленным SLA, но это тоже риски простоя и потерь. Ещё можно не заложить лицензии, это старая российская традиция.
    7. В облаке можно арендовать лицензии Microsoft (или программные услуги) и не закупать лицензии на годы вперёд, а оплачивать по фактическому использованию ежемесячно. А можно перенести некоторые свои собственные лицензии Microsoft и не нести дополнительных затрат, если провайдер имеет подписанное соглашение Mobility license.
    8. Стоимость денег — оборудование можно взять в кредит, в лизинг или по программе HP для крупных закупок с меняющимся количеством оборудования от года к году. Заказчику условия программы HP были менее выгодны, чем другие инструменты. Оплата железа ведётся в долларах или евро, что накладывает дополнительные риски. Поэтому при оценке нужна отдельная встреча с финансистом: все денежные потоки в расчётах дисконтируются для учёта временной стоимости денег. Если вы останавливаетесь на железе, нужен договор с вендором о фиксации курса доллара либо хеджирование рисков. Нужно учитывать инфляцию. Ещё бывает инхаус-кредит — это когда одна компания в группе компаний даёт денег другой. Если условия божеские, это может оказаться очень выгодным вариантом в пользу железа с OPEX-моделью затрат.
    9. Старое оборудование можно продать, но в связи с тем, что продажа ИТ-оборудования обычно не является основной деятельностью предприятия, а также из-за обычно низкого спроса на устаревшее и отслужившее оборудование, возможных ограничений по оплате только безналичным способом и прочих неудобств, продать технику удаётся с очень большим дисконтом, далеко не всё и процесс растягивается на месяцы, а то и годы.

    Когда железо выгоднее?


    Когда вы сразу утилизируете его не менее чем на 80%, когда у вас есть дешёвый кредит внутри группы компаний и когда у вас уже есть неиспользуемая инфраструктура, которую нужно утилизировать, — например, простаивает сеть, контроллер СХД потянет с запасом все необходимые объёмы хранения, а собственный ИТ-персонал пьёт чай и курит по 8–10 раз в день.

    Если вам нужен такой расчёт по вашей конфигурации, мы можем сделать. Бесплатно, но со злым умыслом, конечно: после таких сравнений к нам в облако нередко приходят новые клиенты. Иногда не сразу, а через полгода. Разумеется, все любые непонятные сейчас термины и расчёты мы сможем вам объяснить, а также показать, как они могут влиять на итоговые результаты. Если нужно, пишите на ESinegubkina@technoserv.com.

    Comments 67

      +5
      В статье нет затрат на риски, а они самые дорогие.
        –1

        Риски есть всегда и при организации внутреннего проекта, и при переезде в облако.
        При закупке оборудования для собственной ИТ-инфраструктуры всегда есть риск потерять потраченные деньги при невостребованности или неполной загрузке этой ИТ-инфраструктуры. Это может произойти по разным причинам, например, самые распространенные:


        • Ошибки в расчете потребности и прогнозировании роста вычислительных ресурсов и СХД, когда закупают слишком много и оборудование простаивает
        • Ошибки в проектировании инфраструктуры, когда оказывается, что в данной конфигурации решение не работает
        • Закрытие проекта внутри компании, под который закупалось оборудование. И если в крупных копаниях иногда есть возможность утилизировать это оборудование под другие проекты, то остальные компании теряют деньги.
        • Ошибки при выборе модели оборудования, не всегда заранее известно, что закупаемое оборудование будет работать без ошибок и сбоев. Особенно это относится к новым моделям оборудования или бюджетным вендорам. Это влечет за собой простой и финансовые потери из-за постоянных сбоев и длительного решения проблем вендорской поддержкой.
          +4
          Всё как-то волшебно получается, только где у нас такие огромные холдинги в стране, готовые выкладывать разово по 26 лямов только на оборудование? Ситуация 1 (реальная). Друг рассказывал, пригласили его на должность админа в такой крупный холдинг. После того, как увидел поросшие мхом древние серваки и пообщавшись с сотрудниками, что от него ожидают и что готовы предложить по условиям работы (не оплаты, а именно рабочих моментов), развернулся, и крестясь левой ногой, свалил побыстрее с той конторы. Это один момент. Ситуация 2 (возможная). Переехали дружно в «облака», радостно работаем какое-то время, а потом рядом с нашим офисом начинается стройка и случайно рвётся кабель Интернетов. Сидим, курим бамбук. Ситуация 3 (тоже реальная). Работаем долго и плодотворно с облачным провайдером. А в один «прекрасный» день он, вместе с «облаком» исчезает на 3 дня. И таких рисков можно смоделировать не один десяток.
          0

          Всё замечательно строго до того момента, когда приходит РКН/КГБ/НКВД и банит сеть по маске /10 (выносит оборудование).
          Всё было замечательно, пока в столб с оптикой для интернета не приехал бульдозерист.
          Всё замечательно, пока работает датацентр
          Google: "Авария в датацентре" Результатов: примерно 7 130 000


          Соответственно вроде и дешевле и выгода сплошная, но вот критичную для бизнес процессов инфраструктуру лучше всё же держать под боком, потому что шанс пострадать за компанию с кем-то всегда есть.

            +1
            Если использовать облако чисто для внутренних нужд, как расширение собственной инфраструктуры — то никто не забанит. (на примере AWS, оно само будет к вам подключаться по VPN)
            Если открывать ресурсы в итернет из облако, то блокировки тоже можно обойти, например сейчас все пользуются сервисами защиты от DDOS, которые как плюс помогают не замечать блокировок AWS, Microsoft и Google. Как пример, но все может зависеть от архитектуры приложения.

            Всё было замечательно, пока в столб с оптикой для интернета не приехал бульдозерист.
            Всё замечательно, пока работает датацентр

            Так как раз таки облачные провайдеты позволяют вам не бояться этого, используя разные AZ.

            Не знаю как обстоят дела в облаке Техносерва, но крупные Cloud-провайдеры позволяют значительно снизить риски.

            Насчет выноса оборудования, это да… есть такая проблема, которая никуда не девается если у вас ЦОД под боком.
              +1
              Был у меня такой случай. На одном из тестовых окружений, развёрнутом на Амазоне, отпал EBS диск от сервера БД.
              Это было и раньше и перезагрузка помогала ) но в этот раз не помогло. После обращения в саппорт, саппорт задумался на сутки и потом нам пришло письмо с извинениями, что мол в результате последовательности софтверных и хардверных ошибок ваши данные потерялись) и вообще рекомендуем вам регулярно бэкапиться )
              Это было тестовое окружение и разумеется был, но был как водится на том же диске )
              Восстановление работы окружения заняло три дня) данные взяли с другого тестевого окружения, и потом пришлось сервера приложений перенастраивать, не сильно много, но от графика мы отстали.

              Это заставило меня задуматься что же значат, те самые три девятки после запятой по доступности сервиса, которые обещает кладут провайдер.

              Что вообще можно с провайдера потребовать, если данные потерялись по их вине. И после изучения соглашения об уровне сервиса оказалось… что ничего нельзя потребовать) никакие штрафы или бенефиты не предусмотрены, если уровень сервиса оказался не такой как обещано.

              То есть в целом провайдер вам ничем не обязан, а цифры по уровню доступности сервиса, это просто маркетинговые материалы.

              Я для себя сделал вывод, что продакшн в Клауде можно разворачивать, только если данные в нем не нужны, а например трёхдневный простой развёрнутой системы никак (или почти никак) не повлияет на Ваш бизнес.

              Вот такое мое скромное мнение, никак не претендующее на истину в последней инстанции)

            +2
            Несколько замечаний.
            1. Совсем не обязательно закладываться на дорогие комплектующие. Б/у серверов с новыми дисками часто хватает на 5+ лет выше крыши. Тот же 'монстр' Гугл не гнушается такими решениями совершенно.
            2. Можно выносить обслуживание и настройку в аут-сорс, совсем не обязательно самим делать всё.
            3. Про риски уже сказали. Хорошо, пока всё хорошо. Но когда завтра из кабеля по какой-то причине не будет торчать ваши 17 тер, что будете делать? Лезгинку плясать? Своё под боком можно исправить ВСЕГДА (ок, кроме пожара, ладно).
              0
              Не всегда: сгорело, украли и т.п. Все-таки нужно делать что-то гибридное пока есть вероятность отсутствия интернета в офисе.
                0
                1. Само по себе наличие интернета еще не абсолютный гарант наличия облака, увы.
                2. Сгорело/украли решается за относительно недорого (охранная/пожарная сигнализация). Тем более, что, по хорошему, с хранилищем или без это всё равно нужно решать.
              +6
              Добавлю замечаний и я.
              1. Как-то сильно резко забыли про канал от офиса до облака. Была своя стойка и интернет был нужен для почты и мелких нужд. Хватало 2x30Мбит. Теперь пара сотен виртуальных рабочих столов и резко стало надо 2x1000Мбит, что по минимуму стоит тысяч 80 в месяц, что на 5 лет дает 5 миллионов. Ах да. Если раньше при обрыве интернета все работало, то теперь весь офис идет куковать. Что выливается в потери ФОТ на сотенку сотрудников…
              2. Трафик от серверов до офиса, очевидно не включен. А он, как я понимаю, стоит $$$/
              3. Вы как-то странно считаете расходы.
              Тех поддержка оборудования, тех поддержка СХД, и при этом есть ФОТ персонала и еще ваши услуги за тех обслуживание и ремонт СВЕРХУ. И при этом оборудование на расширенной гарантии.
              Я чего-то не понимаю, или тут должен быть только ФОТ персонала (хоть и больше, чем 100 тысяч), который собственно будет поддерживать облако?
              Ваши облачные сервера типа сами собой поднимаются, ОС накатывается, сами выключаются и тд. И программистов совсем не надо, что бы раздать права доступа, что бы состыковать ваше API с заказчиком и еще куча всего.
              Я молчу про варианты Б/У оборудования, где, внезапно, аналогичный сервер стоит примерно на порядок дешевле.
                +5
                Думаю, что ФОТ на it персонал в «облачной услуге» тоже стоит заложить.
                Потом не стоит забывать про тот же OpenStack.
                В общем картина нарисована таким образом, чтоб показать выгодность облака. Для каких-то компаний этот расчёт будет справедливым, но далеко не для всех.
                  0
                  да да, а потом и вовсе, окажется что штатный админ со знанием ажура и авс окажется на 30-50% дороже…
                    0
                    Повесьте на админа еще пару-тройку IT-related обязанностей, чтобы было, чем его занять в свободное от безделья время и, внезапно, «окажется что штатный админ со знанием ажура и авс окажется на 30-50% ДЕШЕВЛЕ»
                      0
                      Напишите список типичных задач админа за месяц и проставьте трудозатраты в человеко часах. Вряд ли там будет больше 5% на решение задач с серверным железом.
                      Если сервера брендовые типа HP — скорее всего цифра будет 1%.

                      Львиная доля времени уходит на настройку ОС, настройку бекапов, обновление ОС, настройка фаервола(ов), работа с пользователями и их ПК, следить/настраивать прикладное ПО.
                      Облака все эти задачи не решают.
                        0
                        Не так — львиная доля уходит на зоплнение всях там журналов, систем отчености и составление документации.
                          0
                          Которой с облаками только прибавится…
                            0
                            Собственно, как и при любом «перелопачивании» IT-структуры.
                  +4
                  Как изящно и красиво выкинут ФОТ из облачного решения.
                  плюс «забыли» посчитать редандант линии на 1/10Г до этого облака (директ коннеткы там, экспресс роуты), или оно через публичный интернет? :-)
                    0

                    ФОТ на эксплуатацию облачного решения содержится в тарифах на облако. Причем, как известно, при масштабировании облака затраты на эксплуатацию растут не прямо пропорционально.  Кроме того квалификация СЭ и автоматизация системы управления облачного оператора позволяет в широких диапазонах наращивать мощности облака при несущественном росте ФОТа.
                    Приведенный в статье кейс посчитан с учетом того, что доступ к облаку осуществляется через публичный Интернет. Средство VMware NSX позволяет настраивать Ipsec VPN поверх Интернета.

                      0
                      Реально компания, в эту цену заложено manager решение? Или кто будет настраивать гостевые системы и по на них?
                        0

                        Мы предоставляем клиенту инфраструктуру как услугу – IaaS, настройку ОС и ПО клиент делает самостоятельно. Если у клиента нет таких компетенций, то настройку и поддержку ОС и ПО можем взять на себя, но это дополнительные услуги, в данном кейсе их нет.

                          0
                          Больше смахивает на чемодан без ручки, а не на кейс.
                            0
                            У средней компании и настройку ПО внутри виртуалок и поддержку 5 серверов выполняет одна и та же команда. Что сводит экономию на ФОТ к нулю.
                          0
                          IPSec over Intentet, really?
                          полосы, задержки, надежность это все гарантирует?
                          если мы строим полную аналогию — ок
                          выделенная линия 1/10G резервированная до датацентра провайдера
                          выделенный купленный спец канал до облака (express route (Azure), Direct Connect (AWS), прочие директы для остальных клаудов, ну или выделенный линк с гарантированным качеством/полосой/летенси до используемого клауд облака), естественно резервированный

                          и да резервный это не 2 линка — а два линка по разным путям если что (что тоже обычно увеличивает стоимость)
                          это если одна площадка
                          и конечно оплата чей-то работы на запуск и поддержку этого всего чумудана

                          это только сетевка

                          из плюсов — разве что опекс, и то нужно считать когда он перекрывает реальные (а не раздутые) затраты заказчика в случае онпремис

                          P.S. я за клауд если что, чем больше народу туда переползает — тем больше я зарабатываю 5-)
                      • UFO just landed and posted this here
                          +1
                          В случае с облаком у них нет ИТ персонала в расчете от слова совсем.
                          Единственный момент, я попрошу вас и остальных участников обсуждения не путать ФОТ и ЗП. Чтобы получить из ФОТ ЗП на руки нужно ФОТ поделить на 1.5 (это грубая оценка).
                          • UFO just landed and posted this here
                              0
                              Если нет ИТ персонала, то кто же будет пользоваться виртуалками? Бухгалтера и финансовый директор? :) ИТ персонал в данной схеме в любом случае нужен.
                              +1
                              Я чего-то подумал… У меня домашний сервер по объему как этот СХД…
                              Все на самом деле гораздо проще. Берется 3 с7000 б/у забитые серверами тысяч за 700 в конфигурации с загрузочным диском и x2 ssd по 960 гигов на каждом сервере и пара грамотных человек.
                              Располагаются в геоудаленных ДЦ на коло тысяч за 20-25 в месяц за каждый и поднимаются кластером.
                              В общем-то получается явно не хуже и где-то на порядок дешевле ежемесячно и, внезапно, катастрофоустойчиво.
                              А те суммы, что шли на «обслуживание» решения как раз уйдут персоналу на ЗП.
                                0
                                «грамотный инженер» за 100k в месяц соберёт более производительную и оптимизированную под конкретные задачи клиента систему на железе от «дешманского» Supermicro с парой запасных узлов и резервированием СХД в 2 раза дешевле

                                В сравнении вендорских СХД и тех, которые можно построить самостоятельно на базе того же Supermicro, не все так однозначно.

                                Например, вендорская СХД: 2 контроллера, куча RAM кэша, рабочие dedup/compression, thin volumes, различные программные прослойки для удобства управления дисками, массивами и т.д.

                                Чтобы построить что-то хоть немного аналогичное: нужно 2x сервера c HBA и производительными CPU, шареный jbod, подключенный к головам по SAS, различная мелочевка для коммутации этого всего, ну и, собственно, SAS диски (SAS-SSD от любого вендора будут не дешевыми). По программной части будет что-нибудь типа: mdadm — lvm — iscsi_target. По итогу: нету RAM кэша (мы же не можем рисковать, с отдельным сервером может случиться что угодно), нету dedup/compression, с mdadm+lvm нельзя добиться такой гибкости и такого функционала, какой есть в вендорских СХД (пример). При этом по цене не факт, что получится дешевле, особенно вместе с SAS-SSD дисками.

                                Альтернативой может быть ceph, но его грамотная поддержка потребует больше ресурсов и более квалифицированный персонал чем первые 2 варианта. Желательно разбираться в кодовой базе ceph, возможно понадобится вносить правки, тестировать все это.
                                • UFO just landed and posted this here
                                    0
                                    Примерный порядок розничных цен для стандартных компонентов я привёл ниже.

                                    Так нужны SAS SSD, чтобы все диски были доступны с 2ух «голов» СХД для возможности online переезда RAID'а (если мы хотим получить аналогичное вендорскому решение). А они будут намного дороже, особенно если схожих с Optane характеристик. В случае с SATA дисками кроме RAID'а нужен будет еще механизм синхронной репликации, а это сразу просадка по производительности, и уже сравнивать с вендорской 2ух котроллерной СХД нельзя.
                                    против одиночной «брендовой»

                                    Так не одиночная же. Обычно берут 2ух контроллерную, а это аналог 2ух узлов в самодельном SAN'е.
                                    мы получим стоимость более чем в 2 раза меньше

                                    Вот как раз если попытаться повторить один в один вендорскую СХД (например какую-нибудь OceanStor Dorado5000 V3) с близки показателями по iops, latency, доступности, то будет сопоставимо по цене (заоблочные цены из статьи не рассматриваем), но при этом может быть меньшая функциональность (тот же dedup мало где нормально работает, да еще чтобы без просадки по производительности).
                                    • UFO just landed and posted this here
                                    0
                                    ( по Ceph — можно попробовать PetaSAN )
                                    СХД: 2 контроллера, куча RAM кэша, рабочие dedup
                                    ...
                                    Чтобы построить что-то хоть немного аналогичное

                                    Купив лицензию на StarWind HA ( про SAS «диски» не уверен, но не совсем «эконом класс»: RAID10, SCSI с «батарейкой» и SSD Cache, 10Gb Eth)
                                    «грамотный инженер»... соберёт... производительную и оптимизированную под конкретные задачи клиента систему на железе от... Supermicro
                                    «2-х узловую резервированную СХД» на 30% дешевле ( а в сравнении с 3PAR — будет ещё больший отрыв)

                                    P.S. «Грамотные инженеры» по «сети», и по «железу» СХД — мои коллеги
                                    Я, «грамотный инженер» который успешно эксплуатировал комплект как СХД для Hyper-V кластера ( к слову, Hyper-V — ещё один пункт экономии)
                                    P.P.S. Кстати, это 3/5-тых Ж-) ИТ-подразделения
                                      0
                                      Купив лицензию на StarWind HA

                                      Это, как и ceph — распределнное программно определяемое хранилище, т.е. другой тип решений. Обсуждалась же классическая централизованная блочная СХД.
                                      «2-х узловую резервированную СХД» на 30% дешевле

                                      Резервированную? Т.е. поверх будет еще синхронная репликация? Тогда это, опять же, другой тип решений с другим показателем производительности. Обсуждалась реализация аналога 2ух котроллерной СХД, когда каждый узел одновременно видит все диски из jbod. Диски для этого должны быть с SAS интерфейсом (по path на каждый узел СХД) и jbod, подключенный по SAS одновременно к 2ум узлам. В этом случае мы одновременно используем 2 узла, балансируем между ними нагрузку (каждый держит разные raid'ы, раздает разные луны), и при этом не нужна никакая ухудшающая производительность репликация. Тут по ценнику может быть тоже самое, но при этом меньше функционала (который не всегда, конечно, нужен), отсутствие кэша (аппаратный raid с батарейкой и кэшем не подойдет, т.к. с ним не реализовать 2ух узловой режим работы без доп. механизмов репликации).

                                      О NVMe и говорить не нужно, в этом случае аналог 2ух контроллерной вендорской СХД особо собрать и не получится (как диски по PCIe одновременно на 2 сервера пробрасывать).
                                      Я, «грамотный инженер» который успешно эксплуатировал комплект как СХД

                                      Имеются в эксплуатации всевозможные типы SAN: самодельные на базе supermicro без репликации (2x 2U head, lsi hba, Nx 4U jbods via sas, software: mdadm,lvm,scst_target), самодельные на базе supermicro c репликацией (2x 4U head, lsi hba, software: drbd, mdadm,lvm,scst_target), различные вариации вышеперечисленного, различные вендорские СХД. Конечно, 2x 4U Supermicro сервера с drbd репликацией будут в разы дешевле стоить готовой СХД, ну так и производительность будет совсем другая. При приближении функционала сравнивается и цена.
                                        0
                                        Что мешает взять двухголовую систему от того же supermicro? Софт — Windows Storage Server в комплекте, залит уже предварительно настроенным. Это линейка Storage Bridge Bay. SAS, балансировка нагрузки, дедупликация и всё прочее есть.
                                          0
                                          Всё-таки, мы обсуждаем как избежать, например, "«оригинальных» SAS-дисков от HPE за $900 штучка" и/или 3PAR StoreServ 8400 ( возможно, для 17Tb «крупного агрохолдинга» подойдёт и одна из «младших» линеек)

                                          NVMe — согласен, сегодня решающий фактор

                                          Поэтому почему бы и не рассмотреть PetaSAN? MS Storage Spaces Direct (S2D)?

                                          ( «Аналог 2ух контроллерной СХД, когда каждый узел одновременно видит все диски из jbod», но не LSI и не *nix, — тоже эксплуатировал. Выразимся так: Starwind HA показал себя лучше, более удобным)
                                          • UFO just landed and posted this here
                                          0
                                          Поправка. В LVM давно уже реализовано практически всё то же, что и в mdadm,
                                          0
                                          СХД от HPE этот наш «грамотный инженер» за 100k в месяц соберёт более производительную и оптимизированную под конкретные задачи клиента систему на железе от «дешманского» Supermicro

                                          Я просчитывал подобный подход. Пришёл к тому, что тот же SM с HPE по ценам сопоставим. Тогда уж смотреть в сторону какого-нибудь Dell. Он действительно дешевле, а вот по качеству лучше. Ремарка. Последние SM не пробовал, но все предыдущие решения 2005-2013 мне не понравились совершенно. Мелкая неприятность, но досадная, например — ломается пластик сазалок винта в корзине. Итог — пластиковая панель в руке, винт в корзине.
                                            0
                                            Вынул вставил несколько тысяч раз, не специально сейчас, а за 14 лет работы с супермикрой, ни разу не сломал этот пластик.
                                            • UFO just landed and posted this here
                                            +6
                                            Это правильные цифры? Чтобы разместить менее 18 ТБ (12 дисков по 3 ТБ в RAID 1) нужно чуть менее 18 млн рублей? По миллиону на терабайт? Я нигде порядок не потерял?
                                            • UFO just landed and posted this here
                                              0

                                              Мы много раз считали. На короткую облако дешевле, а вот в горизонте 3-5 лет — в разы дороже выходи

                                              • UFO just landed and posted this here
                                                0
                                                Описаны разумные вещи — но убедить так текстом не достаточно.
                                                Сделайте лучше вебинар по расчету — было бы здорово послушать, позадавать вопросы как считается, какие расходы, какие SLA.
                                                  0

                                                  Такие планы у нас есть. Обычно анонсы о вебинарах публикуются в ленте новостей в  группе в Facebook или на нашем сайте.

                                                  0
                                                  А откуда взята цифры в 333 т.р. в месяц opex своего решения? Просто разместить 5 серверов + схд на коло в любом ЦОД будет стоить минимум раз в 10 меньше.
                                                    0
                                                    Клиент имеет скидку у вендора Hewlett Packard 25%.

                                                    Странная формулировка при учете, что отдельные позиции в прайсе имеют разный процент скидки, даже те же серверы лучше дискаунтируются, чем описано, не говоря уже об СХД.

                                                    В расчетах приведено 5 серверов, а считают VC на полное шасси, что не является особо корректным. Понятно что нельзя купить часть портов, но и докупая серверы, тратиться на VC не нужно будет. Да и говоря об 1 корзине целесообразность наличия VC вызывает сомнения…

                                                    Для чего посчитаны отдельно еще 2 коммутатора (непонятно каких), если VC может Direct-Attach к 3PAR?

                                                    3PAR 8400 взят на 18TB — не слишком ли жирно?

                                                    Что такое ПО для работоспособности СХД, если у 3PAR сейчас лицензии все включены в поставку?
                                                      0
                                                      1) Как замечательно выкинут ФОТ из облачного решения. А пусконаладкой/обслуживанием в течении обговоренных 5 лет оставшуюся клиентскую инфраструктуру кто будет?
                                                      Ведь в облако вы перевозите только «стойку с серверами», а это далеко не вся it инфраструктура заказчика.
                                                      2)Затраты на обслуживание своей стойки у вас в расчетах дублируются. Указывайте что-то одно — либо расширенную гарантию, либо стоимость обслуживания
                                                      3) Плюс мы сразу добавляем к ОРЕХу стоимость возросших каналов между офисом и облаком.
                                                      4) Покупая новое железо у HP по GPL еще и с расширенной гарантией я покупаю новое железо с расширенной гарантией. А вот переезжая в облако — в качестве основы я получаю б/у сервера и неизвестно какие диски в СХД (хотя в случае со своим решением вы разумеется посчитали самые дорогие для увеличения CAPEX)

                                                      Вкратце — хранить железо у себя невыгодно, это большие минусы, переезжайте к нам мы храним железо у себя и внезапно это оказывается выгодно (нам) (с)
                                                      Хорошая попытка, но нет
                                                        0
                                                        Точно в минус работать никто не будет, еще же государство надо кормить.
                                                        Вот только мучает вопрос для чего агрохолдингу такие сервера? аксапту крутить и видео с полей складывать? Как же работали раньше когда таких вычислительных мощностей не было?
                                                        0

                                                        Стоимость спецификации клиенту тоже Техносерв считал? Можно только посочуствовать доверию клиента интегратору, кем бы он ни был.


                                                        На месте CFO я бы сильно наказал закуперов за 25% на такой сумме контракта (HP судя по статье не первый раз покупают).


                                                        И да "и ящик водки обратно". В смысле свои железки.

                                                          0
                                                          Простите, может что-то не понял.
                                                          Собственнное ИТ-решение 721 тыс/мес
                                                          Облачная услуга 606 тыс/мес

                                                          О чём вторая половина статьи? Ведь облачное выгоднее.
                                                          • UFO just landed and posted this here
                                                              0
                                                              О том, что бы убедить, что собственное решение действительно стоит 721 тысячу в месяц.
                                                              Я пока из обоснованных трат вижу разве что электроэнергию за 300 в ГОД.
                                                              Если сравнивать в лоб, то получится все наоборот.
                                                              30 тысяч в месяц электричество.
                                                              300 тысяч в месяц = ФОТ 2 спецов + помощника. (спецы по 80ке и помощник 40)
                                                              Итого 330 в месяц
                                                              Из большого плюса — независимость от интернет канала.
                                                              Против
                                                              606 тысяч Облако
                                                              тысяч 80 расширение канала до облака (2 по гигабиту за 40 тысяч)
                                                              150 зп 1 спеца+ помощника. (это прям по минимуму… Спец за 60 тысяч и помощник за 35)
                                                              Итого 836 тысяч + риски обрыва каналов с полной остановкой деятельности.
                                                              500 тысяч в месяц чистой экономии.
                                                              Ну а дальше считайте — за 5 лет это 25 лямов. Хватит или нет?
                                                              0
                                                              Я все правильно понял? В статье железо посчитали на 17ТБ а облако на 12ТБ?
                                                              На мой взгляд, на 5 серверов и 17 ТБ, в ряде случаев хватит и MSA2xxx, а если в расчетах имеется в виду all flash массив — то это надо указывать т.к. сильно влияет на цену как железа так и облака.
                                                                +1
                                                                Ну то что расчет сделан для болванов все уже поняли, я хочу добавить пару слов:

                                                                1. Экономика в РФ везде по разному не стабильная, что будет если сейчас денег выделили а на следующий год нет или мало/меньше? Отдельный вопрос кстати фиксации цены на облако в РФ, я имею в виду валюта и условия изменения (повышения :) ) цен.
                                                                2. Учитывая п1 и то, что 2006-7 год давно позади и денег не много, я не думаю что сервера выкидываются через 5 лет эксплуатации если с ними все порядке следовательно считать 5 лет не совсем корректно. Мне кажется что в РФ скорее дефицит железа чем избыток, следовательно для старого сервака задачу найдут.
                                                                3. Непрозрачность в реалиях РФ просто шкалящая: кто и когда имеет доступ к оборудованию (включая силовые структуры)? Какая цепочка услуг-посредников-субподрядчиков контракта? Какое оборудование используется в облаке и есть ли на него контракты сервисные?
                                                                4. Вообще у меня есть сомнения относительно качества услуг наших Мега облаков, в Амазоне круто что если мне нужно к концу квартала какую то специфичную считалку для репортов которая будет работать с особенными пиками нагрузки — я ее закажу и заплачу ровно до копейки за то сколько минут она работала. Насколько API, например техносерва, такую оркестрацию предоставляет, а тарифы гибкость — я не знаю. И также касаемо надежности/DR — хочу иметь гео кластер — галку жмакнул и получил, для энтерпрайза это важно.

                                                                Вообще расчет сделан по лекалам США/Европа НО у них на стороне заказчиков: стабильность валюты, стабильность-прогнозируемость экономики, очень высокая цены персонала; а на другой стороне Азур, AWS и Google которые во первых режут косты в глобальных масштабах, а во вторых не покупают стораджи 3par для своих облаков.

                                                                Вот посмотрите всерьез, кто из ентерпрайзов в РФ планирует реальный бюджет на 5 лет? Государство живет в однолетнем бюджете.
                                                                  0
                                                                  про пункт:
                                                                  >В облаке можно арендовать лицензии Microsoft (или программные услуги) и не закупать лицензии на годы вперёд, а оплачивать по фактическому использованию ежемесячно.

                                                                  В последние года, ~ с 2014 года, почти все корпораты сидят на подписках на ПО и ОС на 3 года с возможностью проводить перерасчёт в большую сторону когда нужно. И прекрасно его размещают на своих железках.
                                                                    0
                                                                    — Не увидел в расчетах стоимости толстенного канала связи до этого прекрасного облака;
                                                                    — 17Гб СХД — это слезы.

                                                                    Долго писать не хочется… если нужно действительно объемное хранилище — облако в пролете, там хорошие цены только при небольших объемах. Канал связи — еще одна точка отказа, если постоянно льются данные изнутри компании и обратно — то облако в пролете. Я уже не говорю про кучу вопросов по безопасности, которая может стоить сильно дороже всей этой груды железа и ФОТ одного админа (который к слову может параллельно заниматься многими другими полезными для бизнеса вещами).

                                                                    Есть еще куча «но», почему большие компании нередко предпочитают свои ЦОДы и даже отказываются от облаков. А вот для малого бизнеса — таки да, это выгодно.
                                                                      0
                                                                      Облако умеет хранить данные
                                                                      очень хорошо
                                                                      но и так же дорого
                                                                      есть варианты гибридные

                                                                      есть компании кому это надо, но здесь явно не этот случай
                                                                      0
                                                                      Извините, а ФОТ ИТ персонала 104 тыс в месяц? А что это за персонал посчитан? ( Выше уже видел, что тоже не понимают данного вопроса народ.
                                                                      Облаком ни кто не будет управлять?
                                                                      Разовый платеж, как то странно что его нет, а кто тогда будет настраиваться вся инфраструктура — сеть, сервера и тд?
                                                                      Виртуализация VMware: vCPU — 325; RAM — 1 526 Гб, HDD — 12 250 Гб. — это один сервер, не думаю, это целая инфраструктура и ее нужно будет спланировать, настроить, что-то туда перенести из существующей инфраструктуры, при этом учесть простои и тд.

                                                                        0

                                                                        ФОТ ИТ персонала 104 тыс в месяц – это экспертная оценка затрат только на поддержку проекта, переносимого в облако. Фактически это 1 системный администратор, который поддерживает несколько проектов клиента, включая переносимый в облако, и обладающий навыками работы в vCloud Director.
                                                                        Расходы на управление облаком со стороны сервис провайдера заложены в тарифы на облако.
                                                                        Разового платежа нет, потому что инфраструктура для клиента разворачивается в публичном облаке, облако уже сконфигурировано и настроено таким образом, что дополнительно не требуется делать большого количества настроек под каждого клиента.
                                                                        Своими виртуальными ресурсами в облаке клиент управляет самостоятельно: конфигурирование виртуальных машин и сетей, настройка IPsecVPN и т.д. Затраты со стороны клиента на проектирование инфраструктуры, настройку, планирование миграции и саму миграцию не включены в кейс, потому что они есть у клиента в обоих случаях.

                                                                          0
                                                                          С ФОТом все равно не ясно, почему выделили не понятного сотрудника со знанием каких решений? Если компания не будет брать облако, а решит купить железо и поставить у себя в серверной? Это сотрудник, как Вы выше написали ( сотрудник ЦОДА?) раз он поддерживает нескольких клиентов в облаках. Тогда почему расходы ФОТ стоят под собственным решением? ( Как минимум необходимы специалисты по СХД и специалисты по Vmware )
                                                                          А куда делись 37 миллионов? Почему только Opex сокращен? Вместо там 700тыс в месяц, компания получает все хотелки за 600 тыс в месяц, при этом не тратит 37 лимонов?

                                                                            0

                                                                            Под собственным решением понимается in-hous решение, которое клиент закупает, полностью им владеет и самостоятельно управляет. Решение размещается в серверной клиента или его ЦОДе. ФОТ в этой колонке указан на собственный ИТ-персонал клиента. В данном случае клиент посчитал, что у него есть сотрудник, который переиспользуется на несколько проектов, знакомый с администрированием VMware. Как раз в этом случае и есть риск, что этот один сотрудник в какой-то момент времени может оказаться некомпетентным в каком-либо вопросе или сильно перегруженным. Может потребоваться его дополнительное обучение или привлечение дополнительного персонала, что влечет за собой дополнительные расходы для компании.


                                                                            Единоразовых расходов 38 575 млн. руб. в случае использования облачной услуги у клиента нет, потому что он приобретает ИТ-инфраструктуру на облачной платформе и ежемесячно платит только за использование этой инфраструктуры. В этом случае ему не требуется закупать оборудование на несколько лет вперед.

                                                                        +2
                                                                        Вы забыли предложить среднее решение: пойти в приличный ДЦ, арендовать там голое железо под нужны проекта, договориться, что срок аренды будет таким вот — и цифра аренды в месяц окажется, во-первых, меньшей, чем облако (причем надежность и ЗИП будет за счет ДЦ), а, во-вторых, аренда пойдет в OPEX, а не в CAPEX.

                                                                        Да, к этому не забудет ФОТ своих спецов добавить (это мы оплачиваем просто вынос стойки в ДЦ и аренду железа) и канал до ДЦ, но это более понятно для всех — и для админов, и для бизнеса.
                                                                          0
                                                                          Цены на железо из расчёта выглядят какими-то просто аэрокосмическими. 17,5 миллионов за СХД ёмкостью 17ТБ?

                                                                          Скажем, к этой СХД подходят SAS-диски HP K2P94B ёмкостью 1,8ТБ. Возьмём 20 штук, RAID10, ёмкость 18ТБ.
                                                                          Вот предложение на них по 118 т.р.: itb2bgroup.ru/zhestkiy-disk-hp-k2p94b-1-8-tb-10520-rpm-sas-2-5--hdd
                                                                          Вот зарубежный магазин — по 560 долларов: www.serversupply.com/HARD%20DRIVES%20W-TRAY/SAS-12GBPS/1.8TB-10000RPM/HPE/K2P94B.htm
                                                                          Вот ещё один, по 400: storagepartsdirect.com/hpe-storeserv-8000-k2p94b-1-8tb-10krpm-2-5inch-sas-12gbps-3par-hdd

                                                                          Лично я пару лет назад покупал сравнимые 900ГБ SAS-диски Леново для СХД по 400$ за штуку. Хорошо, с учётом того, что цена на такие комплектующие может сильно меняться в зависимости от условий поставки, положим 200т.р. за диск, итого — 4 миллиона за 20 дисков. Ещё, скажем, миллион на саму СХД. Полки расширения не нужны. Кое-что нужно на всякие дополнительные вещи вроде интерфейсных модулей и опциональных лицензий. И всё равно, как вы насчитали 17 с лишним миллионов?

                                                                          Only users with full accounts can post comments. Log in, please.