Comments 59
Да, впечатляет. Может быть, они теперь хотят сделать задел на будущее с большим запасом?
Железо стоит дёшево, а программисты дорого (с), а также удобное и и не бьющее по капексу масштабирование в облаке, особенно когда тебя финансируют миллиардеры, умудрилось вылиться в то, что для обработки 70ТБ данных нужно 116ТБ памяти.
Если архитектура неэффективна то стоимость железа для её реализации может легко превысить стоимость программистов, а стоимость облачного "железа" и так довольно высока.
Я правильно понимаю, что Parler не только не умеют в приватность, но и в инфраструктуру, зато хорошо умеют в маркетинг, раз на это им выделяется столько денег?
Мне только AliCloud на ум приходит по таким мощностям.
Два предположения:
- Они публикуют требования, которые ни один из мелких провайдеров(крупные отказались) не может выполнить, чтоб потом иметь возможность сказать инвесторам / пользователям: "это не мы не смогли набрать юзербазу, а нас деплатформнули. Дайте больше денег, что-нибудь придумаем."
- Менеджеры/разработчики почесали голову и решили, что управлять проектом, который помещается на 2 сервера(как stackoverflow, например) — недостаточно круто. Частая проблема, на самом деле.
Менеджеры/разработчики почесали голову и решили, что управлять проектом, который помещается на 2 сервера(как stackoverflow, например)
Однако ж, 10, нет, 11 лет назад у stackoverflow была такая конфигурация:
Однако ж, 10, нет, 11 лет назад у stackoverflow была такая конфигурация:
Это их полная инфраструктура, я имел ввиду их реальные потребности в железе. Например, в 2016-м у них было 11 веб-серверов, но реально необходим всего один. Они писали про прогон прода на двух серверах(как тест минимальной конфигурации на случай проблем), но сейчас не могу найти.
Конечно блин в сети раскритиковали. В сети в принципе все вечно критикуют
Я так понимаю, официального комментария от самой компании нет, только вот это фото экрана, где невозможно сказать, не является ли это просто фото документа, которое опубликовавший набрал самостоятельно в редакторе?
Тогда можно хоть заобсуждаться, а я могу сделать такое же фото и там указать, что Parler нужно 500 машин с тремя эксибайтами RAM каждая.
Какие именно метаданные позволяют говорить, что этому заявлению в твиттере стоит верить?
Del
— всевозмжные теги (вон у SO целых 3 сервера под это)
— соц сети (куда надо пушить какую-то инфу)
— нотификации (нужно регулярно что-то проверять и отправлять пользователю нотификацию, а когда откроет — показывать по ней нужную инфу)
— опять же, теперь и «авторизация уже не та, что по http», недостаточно проверить пароль в plain text
Там выше вон про утечку данных и что у них данных то 70 тб, то есть 1.5 раза можно в оперативку сложить.
какая там архитектура, безопасность, эффективность всем пофигу
их некомпетентность не сильно видна, если у сайта посещаемость дохлая, а как только нагрузка вырастает так сразу все и летит к чертям
Я вовсе не оправдываю AWS, цены у них действительно конские, но согласитесь, что удобно не сидеть и самому все это настраивать, а просто заказать нужные сервисы в нужном количестве и продолжать разработку. В случае Hetzner вы сами все настраиваете и платите своим временем и страданиями, в AWS вы просто платите большими деньгами.
Балансировку завезли уже
Вообще если Парлер внезапно заработает сразу после инаугурации можно будет запросто скатиться в конспирологию, привет ZOG.
Ваша правда
- Сервера же не на 100% загружены по умолчанию в on-premise конфигурации. 10К ядер для БД, 2.5К для приложения и 2.5-6.5 для прочего — огромный оверкилл. Когда я работал в одном тематическом поисковике(кстати, примерно те же 2M MAU), у нас весь бэкенд поиска c 1.5k RPS хостился на ~150 ядрах суммарно и 500gb ram, раскиданных по трём десяткам мелких машин при 50% загрузки в пиковые часы.
- Parler — соцсеть, а не банк. Они могут позволить себе деградацию производительности / отсекать часть запросов в крайнем случае / отключать самые тяжёлые фичи.
- Так не важно на сколько они загружены, суть в том что нагрузка вырастет, в лучшем случае линейно. Если у вас 100 серверов с 5% утилизацией, значит вы уже переплачиваете за сервера. Абсолютные цифры вообще не важны.
- Речь то не о Parler а о разнице cloud vs dedicated. Решать проблему регулярных спайков через отключение функциональности мягко говоря странно, даже для социалочки.
У хетцнера проблемы со стабильностью несколько больше чем у амазона.
Но… Вы по деньгам уложитесь в 10—кратные спайки в сравнении с амазоном.
Да, да — переплачивать в 10 раз всегда — на хетцнере дешевле, чем платить за нормальную нагрузку на амазоне. Во всяком случае именно так было по рекомендованным поддержкой амазона конфигурациям, когда их попросили "вот такое, но в облаке".
А спайки. Ну, спайки вам в амазоне посчитают отдельно сверху плюсом.
Да, да — переплачивать в 10 раз всегда — на хетцнере дешевле, чем платить за нормальную нагрузку на амазоне. Во всяком случае именно так было по рекомендованным поддержкой амазона конфигурациям, когда их попросили «вот такое, но в облаке».
Эм, ну давайте с вами посчитаем. Возьмем указанный выше конфиг AMD EPYC 7502P 32 Cores 512GB 4x 4TB NVMe и рассчитаем сколько это выйдет за год.
Hetzner
www.hetzner.com/dedicated-rootserver/ax161/configurator
В евро 551.25 x 12 + 148.75 = 6736.75. Доверимся гуглу — 8,186.09 долларов.
AWS
calculator.aws/#/addService выбираем EC2.
Наиболее близким аналогом будет i3.metal 64vCPU 512mb 8 x 1900 NVMe. No upfront payment. 12 x 3,663 = 43 956$.
43 956 / 8,186 = 5.3
Итого: Вы можете купить в hetzner в 5.3 раза больше железа, если разбежка между стандартной нагрузкой сервером и пиком меньше х6 то вам выгоднее использовать hetzner если же выше то выгоднее использовать инстансы которые вы в любой момент можете слить. Как видно x10 тут и не пахнет.
А спайки. Ну, спайки вам в амазоне посчитают отдельно сверху плюсом.
Не понял о чем вы говорите. Я имел в виду что если вам несколько раз в месяц нужно x10 серверной мощности то в случае дедикейтед у вас только один вариант — иметь мощности способные обслужить эти спайки. Если же у вас облако то вы упрощенно говоря вы просто создаете кластер с min, max количеством серверов и типом этих серверов. Как только нагрузка упадет ваш кластер просто вернет машины обратно амазону и вы будете дальше платить за x1. Да, этот x1 вам обойдется в 5 раз дороже но не в 10 как если бы вы просто выкупили x10 мощности у хетцнера.
Я уже не говорю что если урезать осетра и иметь в виду сервера попроще (8-16 ядер и 32-64 гб) то вы можете сэкономить до 70% используя спотовые инстансы если вы умеете их готовить.
TLDR: нельзя просто взять и оценить сумму всех затрат на вашу инфраструктуру сопоставив ценник из хетцнера и из aws.
Как видно x10 тут и не пахнет.
Hint: если поставить страну, например, Украину, то получите цены на 19% ниже и ваши 8186$ превратятся в 6600$
К тому же ваш расчет это если брать голые инстансы.
Но по факту в Amazon вам предложат (и надо заметить справедливо и правильно предложат) использовать соответствующие технологии в облаке — всякие там ELB, RDS и иже с ними.
На это навесятся соответствующие прайсы за iops, трафик, еще что-то.
Не понял о чем вы говорите.
Говорю о том, что на резервирование для спайков в авс мы заплатим дополнительно. А тут у нас мы его заложили исходно.
Хуже всего то, что масштабирование там только на бумаге моментальное, если мне не наврали девопсы, то dns propagation работает к сожалению не мгновенно и бывали случаи, когда новый инстанс включался работу аж через пару часов (что уже сопоставимо со скоростью развертывания hetzner или ovh).
reserved и spot instances спасут только некоторых отцов русской демократии.
Первые, если я правильно понял, уже учтены в вашей калькуляции. А spot требуют отдельного обвеса для контроля и стабильности работы уже вашего сервиса плюс их или нужно будет брать в избыточном количестве в виду возможного отключения, или же брать их с гарантированной длительностью (2е емнип дороже, насколько именно — не помню). Это все время и человеческий труд, который зачастую стоит дороже железа.
Hint: если поставить страну, например, Украину, то получите цены на 19% ниже и ваши 8186$ превратятся в 6600$
Любопытненько. Возможно иногда будет выгодно открыть юрлицо на Украине специально для таких оплат.
К тому же ваш расчет это если брать голые инстансы.
Но по факту в Amazon вам предложат (и надо заметить справедливо и правильно предложат) использовать соответствующие технологии в облаке — всякие там ELB, RDS и иже с ними.
Да, именно что предложат а не заставят. Вы же можете задеплоить haproxy на один из инстансов? С другой стороны ведь это тоже время и человеческий труд. Для dedicated у вас роскоши выбора нету.
На это навесятся соответствующие прайсы за iops, трафик, еще что-то.
Иопсы учитываются если вы используете блочные девайсы(виртуальные ssd) и то наверное не всегда. Тут же согласно условиям задачи чистый металл, nvme. В любом случае не уверен что это составит ощутимую часть платежа.
Говорю о том, что на резервирование для спайков в авс мы заплатим дополнительно. А тут у нас мы его заложили исходно.
Ну вы же заплатите когда оно понадобится, если не понадобится то не заплатите. А с дедикейтед придется заплатить сразу.
Хуже всего то, что масштабирование там только на бумаге моментальное, если мне не наврали девопсы, то dns propagation работает к сожалению не мгновенно и бывали случаи, когда новый инстанс включался работу аж через пару часов (что уже сопоставимо со скоростью развертывания hetzner или ovh).
Может инстансов не оказаться в наличии в нужном регионе. Но из моего опыта масштабирование 1-300+ c5 занимало в районе получаса. Хочется мгновенного масштабирования и ноль работы девопса — сейчас есть серверлесс концепция. Все уже будет включено в стоимость.
Первые, если я правильно понял, уже учтены в вашей калькуляции.
Нет не учтены, я сравнивал без оплаты вперед, иначе какой смысл от облачного масштабирования.
А spot требуют отдельного обвеса для контроля и стабильности работы уже вашего сервиса
Это верно, опция не для всех но тем не менее она есть. Либо экономить на железе либо на персонале.
Уже неделю никто в мире официально не может предоставить Parler необходимые мощности
Да ладно? Прям у все все занято? И у китайцев (Alibaba Cloud, в Китае вообще 75% всех cloud-мощностей в мире) тоже?
Т.е. странички будут загружаться на 0.1 сек медленнее и все.
Тут либо фейк, либо требования на нехилый такой вырост, типа решили заложить в 10 раз больше, авось кто-нибудь пожалеет жертв демократии и сделает скидку.
По количеству серверов интересно сравнить с Одноклассники.
2018
Спустя 12 лет Одноклассники превратились в гигантский сервис с более 70 миллионами пользователей. У нас больше 7 000 машин в 4 дата-центрах
Здесь
У Parler пользователей: 15 million (total) 2.3 million (active)
Как это часто бывает, прямое сопоставление невозможно. Придется сделать допущение, что 70 миллионов пользователей для Одноклассники это total для Parler.
Тогда:
- Одноклассники, пользователей на сервер: 70E6/7000 = 10000
- Parler, пользователей на сервер: 15E6/550 ~= 27000
Понятно, что тут не учтены параметры серверов, что, безусловно, весьма важно.
Очень любопытно, почему Скотт Хансельман упомянут как пользователь, а Джон Кармак, как культовый разработчик. Скотт Хансельман мягко говоря не последний человек в .Net сообществе и в этой конкретной теме, думаю, понимает побольше Кармака, который занимается игровыми движками.
В сети раскритиковали затратность технической архитектуры Parler