Как стать автором
Обновить

Комментарии 9

Тут ещё стоило написать про ущербный набор сторадж-классов, поставляемых «из коробки». Например, если кубик многозонный, а вы используете обычные сетевые диски, то они не умеют в миграцию между зонами. Вытеснило под по ресурсам на другую ноду в другой зоне и привет.

Так что нужно быть готовом решать и эту задачу.

А почему вообще SberCloud? Особенно, если, как написано, это связано с Huawei Cloud, не лучше ли напрямую, без посредников?

Привет, спасибо за вопрос. Тут скорее требование со стороны заказчика, а не наше желание или выбор. Именно поэтому и решили описать проблемы, с которыми столкнулись и какие варианты решения были найдены.

Господа. Не совсем понял пункт про маскарадинг. Он ведь там есть из коробки, нужно лишь при создании кластера выбрать режим tunneling, а не то что предлагает по умолчанию - routing. Выходит что вы создали кластер с routing и сделали свои городушки. Ну и в routes у вас будут правила, в которых ноды кубера выступают маршрутизаторами для отправки трафика на pods.

Также есть момент по pods, вы покупаете у sbercloud vm, с объемом 150 гб - меньше не дает, но при этом, каждый запущенный pod по умолчанию резервируют 10 гб места, нет, на не локальном месте вашей VM, а прям отдельный сетевой диск LVM - это штука стреляет, когда ваш под пишет какие то данные (например тот же nginx ingress в старых кластерах что то писал) - что приводит к исчерпанию места на уровне пода, а в стандартном мониторинге мы смотрим место только на уровне ноды, а не пода - случается страдание иногда.

И отдельный момент по балансировщикам - простое требование, получать реальные адреса клиентов через L4 балансировщик вовлекает вас в путешествие установки TOA плагина https://support.huaweicloud.com/intl/en-us/usermanual-elb/en-us_elb_06_0001.html когда в других облаках - это работает "из коробки". Да есть вариант так не делать, переплатив за балансировщик уровня dedicated.

Услуги as service во многих случаях боль и когда случается беда, которую хочется решить, хотя бы в первые 6 часов от начала, то вам дружелюбно сообщат, что в течение 2-3 дней ваш уникальный случай посмотрят коллеги из поднебесной, а у вас лежит прод.

Во всех облаках есть разные проблемы, тот же яндекс с медленными дисками и отвратительной работой хранилища и выгрузка образов виртуалок до сих пор не реализована...

Привет, никто не говорит, что его нет) Хочется лишь сказать, что он не работает. Правила фаервола присутствуют на нодах, но свой функционал не выполняют.

Он ведь там есть из коробки, нужно лишь при создании кластера выбрать режим tunneling, а не то что предлагает по умолчанию - routing. Выходит что вы создали кластер с routing и сделали свои городушки.

Проводились работы, анализ проблемы и решения кроме описанного ранее, найдено не было.

Относительно вопроса с получением реальных ip адресов не совсем согласен. Использовали в ходе своих работ параметр obtain client ip и никаких дополнительных плагинов не требовалось.

И отдельный момент по балансировщикам - простое требование, получать реальные адреса клиентов через L4 балансировщик вовлекает вас в путешествие установки TOA плагина https://support.huaweicloud.com/intl/en-us/usermanual-elb/en-us_elb_06_0001.html когда в других облаках - это работает "из коробки". Да есть вариант так не делать, переплатив за балансировщик уровня dedicated.

Что я делал не так? У меня все работало. Там еще есть возможность с iptables или с ipvs - было порядка 8 кластеров и нигде подобных проблем в режиме tunneling не было.

obtain client ip - это опция L7 балансировщиков. Я описывал про L4 балансировщик. Почитайте внимательнее документацию.

Также дополнительно у sbercloud есть хороший экспортер https://github.com/huaweicloud/cloudeye-exporter - на удивление, экспортирует много метрик касательно облака, что дает больше динамике в возможностях кастомного мониторинга. Проверял, работает норм.

Спасибо, тоже относительно не давно наткнулись на данный эскпортер, тестируем сейчас его работу, но хотелось бы всё же решение из коробки на уровне функционала Cloud Eye.

Здравствуйте! А не подскажите, какую версию вы используете у себя? Я с поддержкой общался они говорят лучше использовать 1 версию и еще вы не настраивали метрики для redis?

Зарегистрируйтесь на Хабре, чтобы оставить комментарий