Как стать автором
Поиск
Написать публикацию
Обновить

Как мы устанавливали community-чарт Sentry в Kubernetes

Уровень сложностиПростой
Время на прочтение6 мин
Количество просмотров3.2K
Всего голосов 19: ↑18 и ↓1+23
Комментарии7

Комментарии 7

Рад что понравилось! На самом деле пока что не планировал, но если есть какие-то предложения или какая-то боль, которая пересекается со статьёй, то напишите, возможно стоит подумать над этим.

Все что написали в статье что пришлось доделать, чтобы улучшить работу чарта. Планируете ли исправить код чарта по этим недоработкам или хотя бы написать комментарии в чарте?

интригующий заголовок, но к сожалению тему деплоя self-hosted sentry по сути не раскрыли. Ни слова про архитектуру, какой воркер чем занимается. И как же настройка SASL/SSL в Clickhouse (буквально недавно разработчики смержили в snuba MR с поддержкой TLS) и Kafka? А оптимальные настройки партиций и реплик для создаваемых топиков? А перенос NodeStore из базы в более подходящий для этого сторадж? Не говоря уже про мониторинг самого Sentry и ковыряние в исходниках в поисках информации что означает та или иная его метрика в statsd

BTW, после долгих приседаний вокруг этого чарта я пришел к мнению, что гораздо проще будет писать чарт с нуля самому используя за основу официальный docker-compose от разработчиков Sentry

Какой ужас. Меня накрыло флешбеками перманентной починки этой красоты
Я сталкивался с описанными проблемами в 2020, в 2022, и вот теперь 2025 и это всё ещё не решено?
Я ещё помню там какой-то один из десятка консюмеров не масштабировался, и в итоге это сильно лимитировало возможности инсталляции до 3к рпм, оказалось проще поднять для нового проекта новый сентри, чем селить всех в один...

Использую этот чарт достаточно давно для, входящий поток 50-100 публикаций / сек.

Что нужно сделать для стабильной работы:

  • Повысить лимиты ресурсов на kafka до 4Gb Ram

  • Настроить Purge interval в ZooKeeper, иначе переполнится persistent volume

  • регулярно мониторить историю с кластером Kafka, почему-то периодически убегаюти оффсеты.

2. Если начали падать консьюмеры, использовать команду для выравнивания оффсетов

kafka-consumer-groups.sh --bootstrap-server localhost:9092 --all-groups --all-topics --reset-offsets --to-latest --execute

если оффсеты убегают, то скорее всего это значит что консьюмеры не справляются. Мониторите лаг по консьюмер группам?

Зарегистрируйтесь на Хабре, чтобы оставить комментарий