Комментарии 24
Цель текста — не переубедить, а заставить задуматься и призвать к дискуссии.
Моя простая математика на Colo хостинг моих серверов:40VMs+ за $9k на 5 лет ($150/мес).
Hidden text
-- 2 сервера 1u : 20 ядер, 786GB RAM, 10x800GB SSD + 2.4TB internal SSD : $3200
-- 1 PFSense 1u: Sophos 125: $200
-- Хостинг по $125/мес за 3u + 32 IP. Со скидкой за пять лет заплатил $5000.
Один сервер хостит 40-50 VMs, второй - резервная копия ESXi.
В дата центре за 2 года поменял 1 вентилятор.
Итого $9k на 5 лет ($150/мес).
DR на AWS, чтоб в пустую не платить.
А поделитесь секретом как и где машинку с ресурсами "20 ядер, 786GB RAM, 10x800GB SSD + 2.4TB internal SSD" собрали за 1600$ ? Сейчас 1u-супермикра с такими ресурсами порякка 17K$
Так какие-нить зионы 10-летние могут и больше ядер показать, ддрами 3ими тоже авито за копейки завалено. ССД там самое ценное небось.
BL360 G6 за 10к рублей вон стоят
А поделитесь секретом как и где машинку с ресурсами "20 ядер, 786GB RAM, 10x800GB SSD + 2.4TB internal SSD"
На eBay. И чеки есть, для бухгалтерии. :)
Такой кричащий заголовок и так мало комментариев. Непорядок, надо исправлять. :)
On-premises дешевле вашего облака, говорю вам это в 101 раз. :)
Возьмём классический пример. Небольшая компания, офис находится в бизнес-центре, вся инфраструктура — это 2-3 стойки с оборудованием, которое размещается в подсобке. Сама подсобка — небольшое помещение, которое охлаждаются 2-мя бытовыми кондиционерами.
1. "Два отдельных ввода по питанию, резервирование от дизель-генераторов (ДГУ)."
Бесполезная вещь, вычёркиваем. Если электричество пропадает в бизнес центре, то не работает интернет и компьютеры моих сотрудников, а это значит, что им всё равно на то, работают ли серверы или нет, ведь они не могут с ними взаимодействовать.
2. "«Чистое» электричество, защищенное от перепадов, и выровненное по синусоиде напряжение — все благодаря ИБП."
ИБП стоят дёшево. В стойках стоят ИБП, которые помогут пережить отсутствие электричества в течение 15-30 минут.
3. "Два ввода интернет-сети."
В бизнес-центрах тоже можно подключиться к разным интернет провайдерам. Вводы там тоже разные. Я даже у себя дома могу иметь сразу несколько разных провайдеров, причём уже 10 лет как.
4. "Собственная локальная сеть."
Она и так у нас есть. Компы и серверы объединены в единую сеть.
5. "Централизованное охлаждение."
Два кондиционера, которые охлаждают наши стойки, не дадут соврать.
6. "Мониторинг всех перечисленных показателей — от температуры до потребления электричества."
На стене висит ртутный термометр, который был куплен на сдачу с обеда. Счётчик потребления электричества есть у всех. Каждый месяц по этому счётчику мы платим за электричество.
7. "Защита от пыли и фильтрация воздуха."
Зачем нам защищаться от пыли и фильтровать воздух? Что-то не вижу массовой гибели серверов из-за обычной офисной пыли. Или у вас в офисе никто не убирается? У нас в конце каждого дня уборщица делает уборку, поэтому в офисе чисто. В серверной у нас тоже чисто, т.к. админы не устраивают срач, а кушают на кухне и переодеваются в раздевалке.
В офисе вы дышите обычным воздухов и вроде как не умерли от этого, зачем вам его дополнительно фильтровать?
8. "Отказоустойчивость можно повысить также за счет геораспределения инфраструктуры в разных дата-центрах.".
Я разместил у вас 1 виртуальную машину. Ваш дата-центр перестал функционировать, например, сетевики неправильно настроили маршрутизацию. Моя виртуальная машина перестала быть доступной. И как мне поможет ваша геораспределённость и наличие у вас нескольких дата-центров? Ваши два дата-центра готовы принять на себя всю нагрузку, если станет недоступен третий? Но как вы перетянете данные оттуда, если третий дата-центр недоступен, а значит и данные оттуда получить не удастся, пока не починят сеть.
Ну и далее всё в таком же ключе.
Согласен с Вами.
Плюс еще иногда может провайдер глючить и тогда отключается 1С.
Или надо добавлять резервирование по каналам. По мне так самое простое это с двух сторон микротик. Упс и микротик может выйти из строя, тогда два микротика в стойку.
Преимущество маленькое тоже есть - это регистрация на физическое лицо и в тяжелом случаи все отключить с удалением, быстро.
И если товарищ майор не подготовился к такому сценарию (скажем рыбачил всю неделю, редкий дятел), то он получит по шапке.
позвольте, а куда же тут применить девопс и сре?
Классическое столкновение бизнеса и инженерии)
1 - это важно для данных. Плюс если сервер не локальный, то даже если сотрудники в здании неделю гуляют, не означает что сотрудники и клиенты в других местах так же гуляют.
2 - "дешевые" ИБП потом дорого обходятся. И для больших серверных как раз выгоднее иметь "глобальный ИБП" с автоматикой на генераторе. И вилка выгоды там 10 и более раз.
3 - И ваши 100500 интернет-операторов так же пропадут из сети вместе с интернетом. Автор подразумевал выделеное оптоволокно от узловой линии (которая имеет свои генераторы для автономии и тд), а два подразумевает две разные линии, что бы даже если легла одна магистральная линия, клиенты не сидели без интернета.
4 - сетевой принтер и единая сетевая папка, это не совсем то что имел в виду автор, но ладно.
5 - Если это сплт-система выведеная прямо на радиаторы воздухообмена, то честь вам и хвала. Если это подразумевает просто да кондиционера в помещении серверной то такое себе.
6 - А потом происходит "магия" по типу "почему у нас постоянно выходит из строя один и тот же сервер" или вообще зажигательное диско, которое возникло из-за развивающегося КЗ, вызваного тем что пол года назад сисалмин уронил системник на сетевой кабель, из за чего между жилами изредко искра проскакивает да автомат на розетку выбивает.
7 - И опять таки автор имел в виду не ситуации с мелкими компаниями, у которых гордое название сервера несет на себе системник с установленным 1С, а крупные потребители, где бесперебойность работы инфраструктуры стоит в приоритете. Раз в месяц чистить от пыли 100-200 серверных лезвий это целый отдельный сотрудник занимающийся только этим. И его зарплата отобьет систему фильтрации за год от силы.
8 - Распределенность подразумевает во-первых больше двух нод, во вторых размешение нод у РАЗНЫХ провайдеров. И опять и с нова - автор описывал кейс для создания серверной, покупка VPS у строннего провайдера это не создание серверной)
Устаревший морально сервер можно продать, однако оценить наперед выгодность сделки будет сложно. Не согласны — опишите своей кейс в комментариях, подискутируем.
Устаревший сервер отлично переезжает в контур разработки и тестирования, продолжая "занедорого" приносить пользу, вместо покупки за конские деньги ресурсов в облаке для всяких экспериментов. Заодно и аппетиты нерадивых разрабов ставит на место.
В сценариях аренды и colocation автор статьи тактично умалчивает о потерях за период простоя, если компания-клиент лишается выхода в интернет. Экскаватор повредил оптоволоконный кабель — и всё, работа останавливается.
А как же второй ввод интернета? ;)
Можно. Но тогда приплюсуйте резервный канал доступа в интернет у клиента к затратам в сценариях аренды и colocation.
Уточнил у коллег, у нас намного больше, чем два ввода интернета в ДЦ (до 10+ операторов). Соответственно, при повреждении кабеля одного оператора - воспользуемся другим. Как и в целом весь трафик идёт по разным каналам. По умолчанию такое резервирование уже включено в услуги коло и аренды, доплачивать ничего не нужно.
Речь о резервном канале доступа в интернет идет не про вашу копанию, а про клиентов вашей компании:
если компания-клиент лишается выхода в интернет
приплюсуйте резервный канал доступа в интернет у клиента
Теперь понял, про что речь.
Да, но у ваших клиентов доступ к ресурсам останется.
Похоже, вы так и не поняли, о чем речь.
У каких "ваших клиентов", если я сам, предположим, арендую у вас IaaS?
При наличии у меня резервного канала интернета доступ к вашему IaaS естественно останется, это и так ясно. Если, конечно, этот резервный канал не выведет из строя второй экскаватор )
В случае если вы - это бизнес, у которого есть клиенты, и они пользуются вашими сервисами. Например, заходят на ваш сайт, который размещен на вашем сервере.
Если мы говорим о консьюмерских решениях, то лично я при удалённой работе в качестве резервного канала интернета использую мобильную точку доступа. Чтобы её повредить - должен встретиться очень настойчивый экскаваторщик.
Мы говорим о B2B.
И если моя компания пользуется вашим IaaS, то для надежности я должен обеспечить резервный канал доступа в интернет. Чтобы если пропадет связь с вами через основной канал, мои сотрудники могли продолжить работу как ни в чем не бывало.
Но об этом резервном канале вы в статье не сказали, и стоимость этого резервного канала не учли.
Это всё, что я хотел сказать.
Единственное, когда облако может быть лучше bare-metal - отсутствие в компании 2-3 более или менее адекватных админов. Но даже тогда, порой достаточно дешёвых vps.
Ну не может быть в облаке дешевле, просто потому что в реальном мире арифметика положительных чисел только увеличивает итог, но никак не уменьшает. Полно инструментов, чтоб поднять достаточно отказоустойчивую систему виртуализации, которые чуть ли не сами за собой следят и обслуживают.
Единственное преимущество облака: кнопка "сделать хорошо" (обновить кластер бд, куба и т.п.). Но даже это преимущество в какой-то момент становится недостатком, потому что приходится сталкиваться с теми или иными ограничениями.
Представил себе ситуацию у меня при переезде на bare-metal
около 1000 ядер + 1.5Тб памяти только на приложения
60+ БД от Постгреса до Redis
400 Tb инфы в бакете
30 Тб в кластере кассанды 15+ нод
всякие мелочи вроде куба, аудита, впн
Это все не напрягаясь обслуживают в облаке три девопс-а
При переезде смело умножаем это количество на 3, а то и на 5. Плюс геморрой с сетью, питанием, охлаждением, бэкапами, доступом, аварийным восстановлением и ремонтным бюджетом
Не, я лучше в облака, дешевле
Вас могут задеть мои слова, поэтому не воспринимайте, пожалуйста, на личный счёт - это скорее накапливающаяся боль от того, что в ИТ перестали считать деньги от слова совсем как будто.
Вот я взял просто калькулятор того же Облако Яндекс (у них как раз средние цены "по больнице") и посчитал из ваших рассказов стоимость и вот что примерно получилось:
примерно 1.5 млн просто за виртуальные машины и память (считал 20% нагрузки самого дешёвого проца)
считал что это входит в первый пункт
примерно 820к просто за хранилище данных (даже GET-запросы не считал)
это отдельно посчитать от п.1?
даже не считал сеть и запросы наружу, которых явно должно быть много при таком объёме в базах и т.п.
И это всё (ориентировочно с сетью и доп.расходами на разные сервисы 3млн рублей) в месяц и три вообще не напрягающихся инженера. При этом описанная конфигурация уместится в две стойки (одна из которых тупо ИБП промышленного уровня) и не требует особого обслуживания (раз в месяц сдохший SSD менять). Даже если раскидать это по трём разным ДЦ, заложить зп отдельного сетевика, ещё пары линуксоидов и пары дежурных - такая конфигурация отобъётся за год на bare-metal. При этом, если бизнесу не нужно четыре девятки после запятой по доступности (а если вы не маркетплейс где каждую минуту оформляется 100 заказов или вы не система мониторинга транспорта/газопровода/авиарейсов или вы не связаны с онлайн процессингом и т.п. то скорее всего так и есть), то можно и проще сделать, при этом отбить стоимость по сравнению с облаком за полгода.
Если CTO такой расклад устраивает, то у меня как бизнеса было бы дофига вопросов к квалификации. Это от создателей "хадупа на 500Гб" и "доступности интернет-магазина с оборотом меньше 1млн руб на 99.99999%".
Представил себе ситуацию у меня при переезде на bare-metal
То что вы описали это прям очень маленькая инфраструктура, ради которой даже облако вроде OpenStack/CloudStack/OpenNebula не нужно разворачивать и можно уложиться в VMWare/ProxmoxVE/oVirt (хотя тут спорно насчёт последнего куда его относить). Если девопсы всё же потрудятся, то могут всю эту инфраструктуру автоматизировать обычным Ansible/Terraform даже без контейнеров и Kubernates и втроём смотреть в красивые дашборды.
Единственное, когда облако выгоднее чем bare-metal, это резко меняющаяся нагрузка с крутыми и короткими пиками нагрузки (чёрная пятница, экстренные новости и т.п.) или с периодическими крупными параллельными вычислениями (вроде научных или там всякие аналитические обработки), которые требуют резкого увеличения количества стоек (не серверов, а именно стоек с плотно упакованными серверами). А вторая категория "облачного смузихлёбства" это прям наноорганизации или стартапы, когда ещё неизвестно взлетит ли проект вообще, чтобы реализовать минимально работоспособный продукт и выпустить его с готовностью перенести всё на bare-metal, как только проект вырастет и стабилизируется. Но в такой организации отдельные инженеры это прям вообще трата денег на ветер, если это не дешёвые дежурные глазастики.
Я в ИТ прошёл и путь "красноглазика-гентушника" и путь "сеньора-помидора смузиразработчика". Чем больше трудится маркетолог облачных провайдеров или инфоцыган курсов по ИТ, тем грустнее мне становится.
В сотый раз про IaaS: где ошибаются при расчете выгоды on-premises