Как стать автором
Обновить

Комментарии 10

Snowflake реально революция. Четвертый год с ним работаю - он идеален для аналитики.

Действительно, когда у вас есть контейнеры или функции их легко почти мгновенно масштабировать и нет большой разницы, на какой именно машине это делать.

спасибо, повеселили!

для начала, встряхнем Основы:

“Вы не влипнете в недостаток ресурсов“ -- блестящая фраза! Деньги тоже ресурс, и вы обязательно влипнете.

Почему? Они все время "забывают" вам сказать, какой сервер стоит масштабировать... И какой точно нет!

Ага, значит гуглим какой сервер масштабировать и... Вот поэтому была написана эта статья.

https://ders.by/arch/scale/scale.html

и немного добавим про Функции:

In a serverless system, the marginal cost of extra work is NOT constant! Just like in other multi-service architectures.

https://www.linkedin.com/pulse/what-scalability-anyway-sergey-derevyago-qt7uf

без понимания Сути, вы бесконечно кормите всю эту саранчу...

Давайте честно. Инстансы в Kubernetes прибавлять не сложно, как и менять им лимиты потребления. Kubernetes сам за вас сделает большинство работы. Разумеется, надо подходить с умом, при кривых руках все можно поломать, и микросервис с кронджобой нельзя так просто в два инстанса ставить (иначе вас ждет неприятный сюрприз), но даже кронджобы при определенных реализациях (с дополнительным сохранением очередности в Redis) можно масштабировать. Лично мы на своем проекте не испытываем проблем поднять 2-3-10 нужных инстансов. А вот с данными требующими ACID вы получаете новый уровень сложности при переходе на распределенные системы

И вы в комментарии вместе привели цитаты из статьи и ваших внешних источников. Я не спорю, что там по делу, но когда этих цитат нет в статье, а они взяты из совершенно другого места, немного сложно аргументировать.

В статье и не говориться, что дешевле, только то, что именно Serverless локально теряет основной свой смысл. Представим, что вам нужна аналитика на запросах в терабайт. Можно локально поднять Trino со 100 CPU и 1000 Гб ОЗУ, но это дорого (пара серверов нужно дорогих), а реально будет утилизировано нормально час в день. И это еще эксплуатировать нужно. Как вы правильно сказали, локально целесообразно разворачивать стабильные нагрузки требующие малых усилий на администрирование

да, в мире уже давно ВСЕ новые аналитические проекты стартуют в облаках.

вот прям все? а, ahref - это совсем не аналитика?

1000 Гб ОЗУ на час

если считать не час, а 3, то 330Гб, или ~10 серверов? это много, и в течении рабочего дня их будет нечем занять?

ahref  это вообще кто?

это про интернет

Зарегистрируйтесь на Хабре, чтобы оставить комментарий