Комментарии 30
Облачко — это виртуализация где всегда будет миллион точек отказа, оверселинга, и взлома.
Дедик — единственная точка отказа это сеть или питание (что у облачка есть и ещё более зависимо).
aws ec2 — 32 потока, 128гб, 8000гб диск, 100 тб трафика — 2000 баксов в месяц за виртуалку на мертвом процессоре с соседями.
Если работаешь на дядю и тратишь не свои деньги то конечно разницы нет, проще покликать кнопки в биллинге и пойти домой.
browser.geekbench.com/v5/cpu/8203377 — aws 72 потока 24000 долларов/мес
И месяц аренды стоит десяток райзенов.
И точно так же у того же Hetzner может и дата-центр сгореть (привет, OVH?) и гроза в него ударить (AWS) и кабель повредить (у кого только не было). Или снова на глобальном маршрутизаторе правило ошибочное зальют (как, возможно, было и сегодня).
И тогда дедик ваш будет так же грустно стоять в темном ДЦ вместе с серверами из "облака".
Только облако могут забэкапить средствами того же провайдера и отзеркалить в соседний ДЦ (зависит от плана, конечно же).
Вы правда не понимаете разницу между облаком и выделенным сервером (это не вопрос).
И вы правда думаете что облака — это для отмывания денег?
И, по сути вопроса — как вообще поможет выделенный сервер для проблемы в статье? К чему вы вообще это упомянули?
Давайте сделаем так: вы пойдете поработаете, например, в одну из компаний из статьи (Reddit, Spotify, Twitch, Stack Overflow, GitHub, gov.uk, Hulu, HBO Max, Quora, PayPal, Vimeo, Shopify, Stripe, weather.com) в отдел Operations, а через пару лет вернетесь сюда и мы продолжим этот разговор.
[для контекста] Например, я работал 8 лет в достаточно крупном телефонном провайдере и отвечал за проект, который управлял развертыванием примерно 4тыс серверов на продакшене (и в 3 раза больше на тестовых). Я считаю, что могу утверждать, что ваши аргументы, во-первых, неверны. А, во вторых, никак не применимы для проблемы из статьи.
К сожалению, мне не хочется долго убеждать кого-то в интернете что он неправ, так что спор продолжать и искать для вас аргументы я не собираюсь, извините.
Сколько нужно усилий, чтобы поднять нормальный Load Balancer, сервера в нескольких AZ и развернуть приложения в контейнерах на своих серверах? А потом повторить это в изолированной сети для тестового окружений. И еще раз для разработки.
У нас это заняло около недели просто потому что есть готовые решения типа ECS, RDS, ALB.
И да, мы переезжали со своих физических серверов, потому что нам не нужен мощный сервер. Куча мелких, но быстро разворачиваемых в автоматическом режиме и с нормальной балансировкой нагрузки.
Итогово не нужна куча обслуживающего персонала. Не проблема, если сервер падает. И мы можем отключать около 80% мощностей в тот период, когда нагрузок планово нет.
А вот с вами, кстати, я соглашусь, в отличие от предыдущего комментатора. Для больших компаний иногда выгоднее построить свою инфраструктуру самим, но это если и правда вы готовы отвечать за SLA.
AWS — это дорого, но если у вас не такие большие штаты, то, поверьте, это окупается.
Сейчас я, практически, единственный инженер/программист/архитектор/сисадмин в не очень большой инвестиционной компании. Если бы не AWS, то многие проблемы было бы довольно тяжело исправлять и вообще ухаживать за хозяйством. Всего 4-6 серверов, кстати.
С тем же RDB (наверное, имелся в виду RDS?) у меня очень хороший опыт. В том смысле что именно "поставил и забыл". Я не люблю настраивать базы, но если бы у меня был Postgres на отдельном сервере, то я примерно представляю сколько сил у меня бы отняло то, что с успехом (и с гарантией) делает RDS.
На AWS есть спотовые сервера — они тоже хорошо решают свою задачу и в 10 раз дешевле. Был проект, в котором на короткое время надо было быстро поднимать, скажем, 200 серверов, выполнить на них какие-то вычисления и прибить. Через AWS API это решается удобно и быстро.
Мне просто, интересно, какие фичи того, же RDS Вы использовали, что нельзя было реализовать на вдс, или на дедике.
PGSQL ставится и настраивается в 3 «клика», для базовых вещей, естественно без репликации и шардинга(тут совершенно другая история)
Но нужен ли он на Вашем проекте?
Репликации нет, но база растет непредсказуемо. Была, допустим, 2Гб, сейчас почти 100. Я даже не знаю сколько точно и не беспокоюсь об этом. RDS сама меняет диск при необходимости и делает бэкапы. И я знаю что их бэкап точно можно развернуть в два клика и с этим справится и мой CTO в 2 часа ночи, а если я буду делать сам — не факт что я не забуду о чем-нибудь. И если даже все сделаю правильно — надо следить за местом, надо бэкапы регулярно тестировать, старые удалять. Я такой гарантии не дам и у меня хватает своей работы. Я слежу за нагрузкой по логам, добавляю индексы если надо, партиционирование, но это все. За пять лет сервер бы сам по себе пришлось обновлять пару раз (с даунтаймом), а здесь оно само. Все затраты клиента на аренду всех этих серверов в облаке меньше моей зарплаты, но если он захочет сэкономить и переехать на отдельные сервера — ему придется нанимать еще кого-то, чтобы следил за базами, сетью и безопасностью.
На другом проекте на относительно мелкую базу (2 CPU) внезапно приходило более 1400 входящих коннектов. Редко, но, бывает что надо. На своем сервере я бы сидел и настраивал max_connects, ставил бы pg_bouncer/pg_pool и настраивал бы уже их, либо придумывал какие-то еще способы. С RDS я не делаю вообще ничего из этого. Оно просто работает. А я делаю свою работу.
В отличие, от, кстати, Aurora, от которой только негативный опыт остался. Частые беспричинные разрывы связи, внезапные тормоза или высокая загрузка процессора… Когда-нибудь они ее, все-таки, допилят, но пока что мой опыт совпадает с отзывами других из интернета.
ax101 hetzner — ryzen 5950x, 128Gb, 2x 4tb nvme, 1 гбит безлим — 94 евро мес
aws ec2 — 32 потока, 128гб, 8000гб диск, 100 тб трафика — 2000 баксов в месяц за виртуалку на мертвом процессоре с соседями.
Но вот беда — ax101 предлагается только в ДЦ Helsinki, цена его 111 евро (+ 117.81 € setup fee) и доступен он только для предзаказа. "currently no delivery date", пичалька.
Но, предположим, нам нужны сервера в США? Или на обоих побережьях (резервирование, доступность), а еще в Европе и Японии, например?
И нужны прямо сейчас. Я не знаю почему вы выбрали именно такой сервер, но пусть нам нужны все эти 32 потока. Вам они нужны прямо постоянно и надолго? Reserved Upfront 1year для c5.18xlarge (ок, пусть будет такой, хотя вопросы к вашему бенчмарку тоже есть) — стоит $1296/mo. Нужен ненадолго, на час-день? Спотовый инстанс стоит $1.2/час. (все цены для США)
Не нравится цена за большой дорогой сервер? Проектируйте приложения чтобы работали на более мелких серверах и настраивайте auto-scaling чтобы экономить в зависимости от нагрузки. Зачем нужны 72 потока на одном сервере?
Вы боитесь DDoS-атак? Ну, для этого и есть CDN и CloudFront/Akamai, например. Выделенный сервер загнется сразу, а PayPal под DDoS продолжит принимать платежи.
Еще раз — конфигурации серверов взяты из ваших исходных данных. Действительно нужна именно такая мощность на одном сервере?
Если вам он нужен для своего пет-проекта чтобы сидеть и считать модельку круглые сутки на всех ядрах — конечно, проще купить выделенный сервер и дешевле — неважно где он стоит.
Если у вас динамическая нагрузка, веб-сервера, которые обслуживают пользователей по всему миру и высокий SLA — вы будете использовать облако. Или купите дата-центр и построите свое облако там. И наймете кучу людей чтобы это обслуживать.
Стоимость эксплуатации одного сервера не равна стоимости самого сервера (или его аренды).
И при пожарах и наводнениях.
И при необходимости быстро и без головняка получить норм отклик во всем мире.
И при ддосе конкурента.
От всего помогают короче.
Покупайте наших
Сколько будет стоить бекап 1тб данных каждый день в интернет с облачка? А пару раз в день? А 100тб каждый день?
Как облачко поможет сделать быстрый отклик во всем мире? Соседи и медленный процессор ускоряет отклик?
Сколько тысяч баксов в день будет стоить защита в облачке? (hetzner, ovh — 0$)
А если ваш ресурс в облачке начнут ддосить то сколько миллионов счет будет?
Ой а если конкурент решит с ботнета выкачивать данные с вашего сайта, на скорости 10-100гбит? Какой счет набежит за пару часов?
Вы правы. Все вокруг заблуждаются и ошибаются, не умеют считать риски, стоимость эксплуатации и владения, а <s>640кб хватит всем</s> дедики на все ответ !
Хорошо, что у вас такой прекрасный опыт и вы работаете там где ваша позиция полностью подходит под ситуацию, а пара баш скриптов решают все проблемы :) lucky !
Я лично после вашего сообщения сразу понял - нахрен ажур и авс, весь мир нагнули маркетологи.
Дедики в хецнере помогают при проблемах cdn апстрима, а если не помогут, то сэкономим. Спасибо ! Пошел переносить инфру, так что не смогу вам отвечать в ближайшее время.
Я удивляюсь что в компаниях такого масштаба все еще не придумали "ИИ на блокчейне" (сарказм), который будет проверять заведомо ошибочные конфигурации и блокировать их установку на всю инфраструктуру.
«ИИ на блокчейне»
А обучать его кто будет и на чем?
Сначала для того же BGP требуется определить, что такое "заведомо ошибочная" конфигурация, хотя бы для людей. И только потом попытаться эти правила формализовывать каким-либо образом. BGP он же всего лишь список правил типа "маршрут до подсети А через провайдера Б", и обновляется из-за того, что у провайдера Б появляется или теряется прямой линк до этих А, кто бы они ни были.
В проблемах с доступом ко множеству популярных сайтов оказалась виновата CDN от Fastly