Pull to refresh

Comments 29

Чего-то какие-то сумашедшие цены за трафик. Большинство же за трафик ничего не платит. У нас в России те же 100Мбит бесплатно, а выделенный 1Гбит 27000р.

Пусть в России хостятся раз такое дело. :)

это немного разный трафик

В прошлом году один стартап онлайн платежей заплатил Амазону за передачу данных 22 тыс евро за месяц. При этом цена для них была где-то 0.05 $ за гигабайт. Считайте. Ну и чисто ради интереса, можете посчитать сколько по времени будете на гигабите передавать этот объём...

А вообще, статья с наездом на Амазон, мол цены гнёт, потому что знает, что от него никуда не уйдут. Но на самом деле, антимонопольный комитет должен присмотреться как раз таки к стае недохостеров, которые объединились против и демпингуют.

А сидят все на Амазоне не потому что не могут съехать, а потому что ничего лучше и удобнее на рынке нет. Было бы невыгодно - бизнес уже бы всё подсчитал и перенёс всё в другое облако/к другому хостеру.

В USA и NL есть хостеры где ты платишь толко за железо, и раздавай с гигабитного линка сколько сможешь, без дополнительной оплаты за трафик.
У меня есть в USA один сервак с которого раздается 280 Мегабит.
И это сотны долларов в месяц, а не тысячи.


Раздавать много трафика через облачных провайдеров безумного дорого, если у вас такой трафик, то дешевле взять обычный сервер и платить ЗП админу который его будет обслуживать, благо его можно быть не на фултайм а заказать просто такую услугу за 50-100$ в месяц.

Ну и мне стало интересно, что это за сегмент рынка где сотни терабайт данных хранить приходится?
И что за компаниям между собой приходится гонять такие обьемы данных?

Данные транспортировать в контейнерах, это тоже прям удивительный сегмент для меня.
Тк пару терабайт перегнать даже между разными ДЦ вообще не проблема по сети. Ну и 10Т тоже быстрее точно перелить чем везти в контейнере.

Везти ценные данный в контейнере для безопасности??
Ну хз. Я бы лучше передал их внутри ssh тунеля.

Тк пару терабайт перегнать даже между разными ДЦ вообще не проблема по сети. Ну и 10Т тоже быстрее точно перелить чем везти в контейнере.
Этот сервис не на терабайты, а на петабайты ориентирован. Передать по сети будет очень долго и дорого, так как трафик при таких объемах тоже совсем не бесплатный.

Ну и мне стало интересно, что это за сегмент рынка где сотни терабайт данных хранить приходится?

Список довольно большой

  • Наука

  • Торговля (онлайн в основном)

  • Банки

  • Промышленность

  • Авиация

  • Службы доставки

  • и много кто еще

Ну и 10Т тоже быстрее точно перелить чем везти в контейнере.

А 10PB? А 100PB?

Так рассказ про устройства на 80ТВ. 300$ аренда одного устройства + дорога в два конца.

Мне вот тоже стало любопытно зачем такая странность. На первый взгляд тупо перелить проще.

UFO just landed and posted this here

Ну и мне стало интересно, что это за сегмент рынка где сотни терабайт данных хранить приходится?
И что за компаниям между собой приходится гонять такие обьемы данных?

Любой, у кого месячный (недельный/необходимый) размер backup составляет такой объем. Мы когда перешагнули 100 Тб, перешли на on-prem: несколько выделенных линков до Amazon + свое хранилище на 200Tb оказались дешевле.

На мой личный взгляд (и смотря на то, что вижу вокруг себя), основные расходы - это люди (прямая - свои работники, косвенная - услуги подрядчиков), а вовсе не железо, услуги в облаках или трафик. Причём, предполагаю, но никак не могу обосновать статистикой, соотношение - как один к четырём или пяти (то есть расходы на услуги людей в несколько раз больше расходов на железо, облака и трафик). Те компании, у которых это не так - водимо имеют большое конкурентное преимущество.

UFO just landed and posted this here

Они возмущаются тем, что вытащить данные из AWS намного дороже, чем продолжать это терпеть. Плюс, намного дороже работать другим компаниям с компанией в AWS.

UFO just landed and posted this here

А клиентам возмущаться некогда. Они заняты своим бизнесом, в т.ч. расчетом рентабельности и эффективности затрат. И как только будет выгоднее съехать - переедут незамедлительно.
Ведь не все платят пару сотен в месяц. Некоторые платят миллионы - в этом случае даже 10% экономия весьма существенна.
Есть же и FinOps engineers - там где я работаю они отчитываются о весьма существенной экономии каждый квартал.

Очень мило считать цену за 100Тб траффика и сравнивать разницу. Вот только какой процент пользователей использует такой объем? Да что уж, кто хотя бы 1Тб использует?

Реалии в том, что для подавляющего большинства клиентов стоимость траффика стоит далеко не на 1 месте. Поэтому разница в несколько десятков $ в месяц не окупит вложений в миграцию к другому CDN

устройства Snowball Edge Storage Optimized (24 vCPU, 32 ГБ RAM)
А зачем файловому хранилищу такие процессорные мощности и столько памяти?

Может быть они внутри ZFS используют?

один ксеон силвер и 4 димма. 12Тб гелиевые диски и рейд десять

Там вон и с видюшкой вариант есть - gse. Наверное, предполагается, что можно в дороге продолжать работу.

SnowBall'ы позволяют обрабатывать данные в процессе перекачки в/из хранилища. Именно для этого такие мощности.

цены конечно немалые, но тут важно еще и качество, бесперебойность и прочие параметры, некоторые готовы платить больше, за стабильность, например

А что это за бизнесы у которых петабайты данных?
Накидайте какие есть варианты, а то у меня только какие то экзотические варианты, а в статье звучит так как будто это мейнстрим.

Геномы расшифровывают?
Белки кодируют?
Предсказания погоды и землетрясений?

Любой биллинг уровня федеральной компании это десятки терабайт.

Если про хранение, где счёт идёт на сотни терабайт и больше - OLAP базы, DWH, бигдата.

Трафик? Любая компания со стримингом чего-либо.

Прошу прощения за дилетантский вопрос ), а эти данные навсегда остаются? Т.е. постоянно добавляется новое хранилище или они перезаписываются?
UFO just landed and posted this here

Для биллинга настроена обрезка на срок исковой давности (3 года) и/или на срок, спущенный регулятором. Но часть данных хранится и дольше.

OLAP, DWH, БигДата обычно зависят от целей и задач. Могут быть только с добавлением. Тут от пожеланий клиента, кошелька и задач зависит.

Сбор телеметрии с сотен тысяч датчиков с высокой частотой, например.

Например, когда автопроизводители собирают данные со специально оборудованных машин для обучения и проверки своих систем автономного вождения. Там петабайты для одной модели только могут быть.

Странно сравнивать трафик из S3, там же для больших объемов используется CloudFront через который отправляется трафик S3. Там другие тарифы

Sign up to leave a comment.