Обновить

В сотый раз про IaaS: где ошибаются при расчете выгоды on-premises

Время на прочтение9 мин
Количество просмотров2.9K
Всего голосов 24: ↑23 и ↓1+30
Комментарии24

Комментарии 24

Цель текста — не переубедить, а заставить задуматься и призвать к дискуссии.

Моя простая математика на Colo хостинг моих серверов:40VMs+ за $9k на 5 лет ($150/мес).

Hidden text

-- 2 сервера 1u : 20 ядер, 786GB RAM, 10x800GB SSD + 2.4TB internal SSD : $3200
-- 1 PFSense 1u: Sophos 125: $200
-- Хостинг по $125/мес за 3u + 32 IP. Со скидкой за пять лет заплатил $5000.

Один сервер хостит 40-50 VMs, второй - резервная копия ESXi.
В дата центре за 2 года поменял 1 вентилятор.
Итого $9k на 5 лет ($150/мес).
DR на AWS, чтоб в пустую не платить.

А поделитесь секретом как и где машинку с ресурсами "20 ядер, 786GB RAM, 10x800GB SSD + 2.4TB internal SSD" собрали за 1600$ ? Сейчас 1u-супермикра с такими ресурсами порякка 17K$

Так какие-нить зионы 10-летние могут и больше ядер показать, ддрами 3ими тоже авито за копейки завалено. ССД там самое ценное небось.

BL360 G6 за 10к рублей вон стоят

Взять такие серверы и у нас в аренду также стоит значительно дешевле современных моделей. В bare-metal сегменте.

А поделитесь секретом как и где машинку с ресурсами "20 ядер, 786GB RAM, 10x800GB SSD + 2.4TB internal SSD" 

На eBay. И чеки есть, для бухгалтерии. :)

Такой кричащий заголовок и так мало комментариев. Непорядок, надо исправлять. :)


On-premises дешевле вашего облака, говорю вам это в 101 раз. :)


Возьмём классический пример. Небольшая компания, офис находится в бизнес-центре, вся инфраструктура — это 2-3 стойки с оборудованием, которое размещается в подсобке. Сама подсобка — небольшое помещение, которое охлаждаются 2-мя бытовыми кондиционерами.


1. "Два отдельных ввода по питанию, резервирование от дизель-генераторов (ДГУ)."
Бесполезная вещь, вычёркиваем. Если электричество пропадает в бизнес центре, то не работает интернет и компьютеры моих сотрудников, а это значит, что им всё равно на то, работают ли серверы или нет, ведь они не могут с ними взаимодействовать.


2. "«Чистое» электричество, защищенное от перепадов, и выровненное по синусоиде напряжение — все благодаря ИБП."
ИБП стоят дёшево. В стойках стоят ИБП, которые помогут пережить отсутствие электричества в течение 15-30 минут.


3. "Два ввода интернет-сети."
В бизнес-центрах тоже можно подключиться к разным интернет провайдерам. Вводы там тоже разные. Я даже у себя дома могу иметь сразу несколько разных провайдеров, причём уже 10 лет как.


4. "Собственная локальная сеть."
Она и так у нас есть. Компы и серверы объединены в единую сеть.


5. "Централизованное охлаждение."
Два кондиционера, которые охлаждают наши стойки, не дадут соврать.


6. "Мониторинг всех перечисленных показателей — от температуры до потребления электричества."
На стене висит ртутный термометр, который был куплен на сдачу с обеда. Счётчик потребления электричества есть у всех. Каждый месяц по этому счётчику мы платим за электричество.


7. "Защита от пыли и фильтрация воздуха."
Зачем нам защищаться от пыли и фильтровать воздух? Что-то не вижу массовой гибели серверов из-за обычной офисной пыли. Или у вас в офисе никто не убирается? У нас в конце каждого дня уборщица делает уборку, поэтому в офисе чисто. В серверной у нас тоже чисто, т.к. админы не устраивают срач, а кушают на кухне и переодеваются в раздевалке.
В офисе вы дышите обычным воздухов и вроде как не умерли от этого, зачем вам его дополнительно фильтровать?


8. "Отказоустойчивость можно повысить также за счет геораспределения инфраструктуры в разных дата-центрах.".
Я разместил у вас 1 виртуальную машину. Ваш дата-центр перестал функционировать, например, сетевики неправильно настроили маршрутизацию. Моя виртуальная машина перестала быть доступной. И как мне поможет ваша геораспределённость и наличие у вас нескольких дата-центров? Ваши два дата-центра готовы принять на себя всю нагрузку, если станет недоступен третий? Но как вы перетянете данные оттуда, если третий дата-центр недоступен, а значит и данные оттуда получить не удастся, пока не починят сеть.


Ну и далее всё в таком же ключе.

Согласен с Вами.
Плюс еще иногда может провайдер глючить и тогда отключается 1С.
Или надо добавлять резервирование по каналам. По мне так самое простое это с двух сторон микротик. Упс и микротик может выйти из строя, тогда два микротика в стойку.

Преимущество маленькое тоже есть - это регистрация на физическое лицо и в тяжелом случаи все отключить с удалением, быстро.
И если товарищ майор не подготовился к такому сценарию (скажем рыбачил всю неделю, редкий дятел), то он получит по шапке.

позвольте, а куда же тут применить девопс и сре?

Классическое столкновение бизнеса и инженерии)

1 - это важно для данных. Плюс если сервер не локальный, то даже если сотрудники в здании неделю гуляют, не означает что сотрудники и клиенты в других местах так же гуляют.

2 - "дешевые" ИБП потом дорого обходятся. И для больших серверных как раз выгоднее иметь "глобальный ИБП" с автоматикой на генераторе. И вилка выгоды там 10 и более раз.

3 - И ваши 100500 интернет-операторов так же пропадут из сети вместе с интернетом. Автор подразумевал выделеное оптоволокно от узловой линии (которая имеет свои генераторы для автономии и тд), а два подразумевает две разные линии, что бы даже если легла одна магистральная линия, клиенты не сидели без интернета.

4 - сетевой принтер и единая сетевая папка, это не совсем то что имел в виду автор, но ладно.

5 - Если это сплт-система выведеная прямо на радиаторы воздухообмена, то честь вам и хвала. Если это подразумевает просто да кондиционера в помещении серверной то такое себе.

6 - А потом происходит "магия" по типу "почему у нас постоянно выходит из строя один и тот же сервер" или вообще зажигательное диско, которое возникло из-за развивающегося КЗ, вызваного тем что пол года назад сисалмин уронил системник на сетевой кабель, из за чего между жилами изредко искра проскакивает да автомат на розетку выбивает.

7 - И опять таки автор имел в виду не ситуации с мелкими компаниями, у которых гордое название сервера несет на себе системник с установленным 1С, а крупные потребители, где бесперебойность работы инфраструктуры стоит в приоритете. Раз в месяц чистить от пыли 100-200 серверных лезвий это целый отдельный сотрудник занимающийся только этим. И его зарплата отобьет систему фильтрации за год от силы.

8 - Распределенность подразумевает во-первых больше двух нод, во вторых размешение нод у РАЗНЫХ провайдеров. И опять и с нова - автор описывал кейс для создания серверной, покупка VPS у строннего провайдера это не создание серверной)

Устаревший морально сервер можно продать, однако оценить наперед выгодность сделки будет сложно. Не согласны — опишите своей кейс в комментариях, подискутируем.

Устаревший сервер отлично переезжает в контур разработки и тестирования, продолжая "занедорого" приносить пользу, вместо покупки за конские деньги ресурсов в облаке для всяких экспериментов. Заодно и аппетиты нерадивых разрабов ставит на место.

В сценариях аренды и colocation автор статьи тактично умалчивает о потерях за период простоя, если компания-клиент лишается выхода в интернет. Экскаватор повредил оптоволоконный кабель — и всё, работа останавливается.

А как же второй ввод интернета? ;)

Можно. Но тогда приплюсуйте резервный канал доступа в интернет у клиента к затратам в сценариях аренды и colocation.

Уточнил у коллег, у нас намного больше, чем два ввода интернета в ДЦ (до 10+ операторов). Соответственно, при повреждении кабеля одного оператора - воспользуемся другим. Как и в целом весь трафик идёт по разным каналам. По умолчанию такое резервирование уже включено в услуги коло и аренды, доплачивать ничего не нужно.

Речь о резервном канале доступа в интернет идет не про вашу копанию, а про клиентов вашей компании:


если компания-клиент лишается выхода в интернет
приплюсуйте резервный канал доступа в интернет у клиента

Теперь понял, про что речь.
Да, но у ваших клиентов доступ к ресурсам останется.

Похоже, вы так и не поняли, о чем речь.
У каких "ваших клиентов", если я сам, предположим, арендую у вас IaaS?
При наличии у меня резервного канала интернета доступ к вашему IaaS естественно останется, это и так ясно. Если, конечно, этот резервный канал не выведет из строя второй экскаватор )

В случае если вы - это бизнес, у которого есть клиенты, и они пользуются вашими сервисами. Например, заходят на ваш сайт, который размещен на вашем сервере.

Если мы говорим о консьюмерских решениях, то лично я при удалённой работе в качестве резервного канала интернета использую мобильную точку доступа. Чтобы её повредить - должен встретиться очень настойчивый экскаваторщик.

Мы говорим о B2B.
И если моя компания пользуется вашим IaaS, то для надежности я должен обеспечить резервный канал доступа в интернет. Чтобы если пропадет связь с вами через основной канал, мои сотрудники могли продолжить работу как ни в чем не бывало.
Но об этом резервном канале вы в статье не сказали, и стоимость этого резервного канала не учли.
Это всё, что я хотел сказать.

Сделайте резервный офис в чем проблема ?

Проблема в том, что автор статьи не учел стоимость этого резервного офиса в своей публикации ?

Единственное, когда облако может быть лучше bare-metal - отсутствие в компании 2-3 более или менее адекватных админов. Но даже тогда, порой достаточно дешёвых vps.

Ну не может быть в облаке дешевле, просто потому что в реальном мире арифметика положительных чисел только увеличивает итог, но никак не уменьшает. Полно инструментов, чтоб поднять достаточно отказоустойчивую систему виртуализации, которые чуть ли не сами за собой следят и обслуживают.

Единственное преимущество облака: кнопка "сделать хорошо" (обновить кластер бд, куба и т.п.). Но даже это преимущество в какой-то момент становится недостатком, потому что приходится сталкиваться с теми или иными ограничениями.

Представил себе ситуацию у меня при переезде на bare-metal

  • около 1000 ядер + 1.5Тб памяти только на приложения

  • 60+ БД от Постгреса до Redis

  • 400 Tb инфы в бакете

  • 30 Тб в кластере кассанды 15+ нод

  • всякие мелочи вроде куба, аудита, впн

Это все не напрягаясь обслуживают в облаке три девопс-а
При переезде смело умножаем это количество на 3, а то и на 5. Плюс геморрой с сетью, питанием, охлаждением, бэкапами, доступом, аварийным восстановлением и ремонтным бюджетом

Не, я лучше в облака, дешевле

Вас могут задеть мои слова, поэтому не воспринимайте, пожалуйста, на личный счёт - это скорее накапливающаяся боль от того, что в ИТ перестали считать деньги от слова совсем как будто.

Вот я взял просто калькулятор того же Облако Яндекс (у них как раз средние цены "по больнице") и посчитал из ваших рассказов стоимость и вот что примерно получилось:

  • примерно 1.5 млн просто за виртуальные машины и память (считал 20% нагрузки самого дешёвого проца)

  • считал что это входит в первый пункт

  • примерно 820к просто за хранилище данных (даже GET-запросы не считал)

  • это отдельно посчитать от п.1?

  • даже не считал сеть и запросы наружу, которых явно должно быть много при таком объёме в базах и т.п.

И это всё (ориентировочно с сетью и доп.расходами на разные сервисы 3млн рублей) в месяц и три вообще не напрягающихся инженера. При этом описанная конфигурация уместится в две стойки (одна из которых тупо ИБП промышленного уровня) и не требует особого обслуживания (раз в месяц сдохший SSD менять). Даже если раскидать это по трём разным ДЦ, заложить зп отдельного сетевика, ещё пары линуксоидов и пары дежурных - такая конфигурация отобъётся за год на bare-metal. При этом, если бизнесу не нужно четыре девятки после запятой по доступности (а если вы не маркетплейс где каждую минуту оформляется 100 заказов или вы не система мониторинга транспорта/газопровода/авиарейсов или вы не связаны с онлайн процессингом и т.п. то скорее всего так и есть), то можно и проще сделать, при этом отбить стоимость по сравнению с облаком за полгода.

Если CTO такой расклад устраивает, то у меня как бизнеса было бы дофига вопросов к квалификации. Это от создателей "хадупа на 500Гб" и "доступности интернет-магазина с оборотом меньше 1млн руб на 99.99999%".

Представил себе ситуацию у меня при переезде на bare-metal

То что вы описали это прям очень маленькая инфраструктура, ради которой даже облако вроде OpenStack/CloudStack/OpenNebula не нужно разворачивать и можно уложиться в VMWare/ProxmoxVE/oVirt (хотя тут спорно насчёт последнего куда его относить). Если девопсы всё же потрудятся, то могут всю эту инфраструктуру автоматизировать обычным Ansible/Terraform даже без контейнеров и Kubernates и втроём смотреть в красивые дашборды.

Единственное, когда облако выгоднее чем bare-metal, это резко меняющаяся нагрузка с крутыми и короткими пиками нагрузки (чёрная пятница, экстренные новости и т.п.) или с периодическими крупными параллельными вычислениями (вроде научных или там всякие аналитические обработки), которые требуют резкого увеличения количества стоек (не серверов, а именно стоек с плотно упакованными серверами). А вторая категория "облачного смузихлёбства" это прям наноорганизации или стартапы, когда ещё неизвестно взлетит ли проект вообще, чтобы реализовать минимально работоспособный продукт и выпустить его с готовностью перенести всё на bare-metal, как только проект вырастет и стабилизируется. Но в такой организации отдельные инженеры это прям вообще трата денег на ветер, если это не дешёвые дежурные глазастики.

Я в ИТ прошёл и путь "красноглазика-гентушника" и путь "сеньора-помидора смузиразработчика". Чем больше трудится маркетолог облачных провайдеров или инфоцыган курсов по ИТ, тем грустнее мне становится.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Информация

Сайт
slc.tl
Дата регистрации
Дата основания
Численность
1 001–5 000 человек
Местоположение
Россия
Представитель
Влад Ефименко