Комментарии 7
@YuriyShakhovСпасибо за пост. Планируете ли делать доработки в community чарт sentry ?
Рад что понравилось! На самом деле пока что не планировал, но если есть какие-то предложения или какая-то боль, которая пересекается со статьёй, то напишите, возможно стоит подумать над этим.
интригующий заголовок, но к сожалению тему деплоя self-hosted sentry по сути не раскрыли. Ни слова про архитектуру, какой воркер чем занимается. И как же настройка SASL/SSL в Clickhouse (буквально недавно разработчики смержили в snuba MR с поддержкой TLS) и Kafka? А оптимальные настройки партиций и реплик для создаваемых топиков? А перенос NodeStore из базы в более подходящий для этого сторадж? Не говоря уже про мониторинг самого Sentry и ковыряние в исходниках в поисках информации что означает та или иная его метрика в statsd
BTW, после долгих приседаний вокруг этого чарта я пришел к мнению, что гораздо проще будет писать чарт с нуля самому используя за основу официальный docker-compose от разработчиков Sentry
Какой ужас. Меня накрыло флешбеками перманентной починки этой красоты
Я сталкивался с описанными проблемами в 2020, в 2022, и вот теперь 2025 и это всё ещё не решено?
Я ещё помню там какой-то один из десятка консюмеров не масштабировался, и в итоге это сильно лимитировало возможности инсталляции до 3к рпм, оказалось проще поднять для нового проекта новый сентри, чем селить всех в один...
Использую этот чарт достаточно давно для, входящий поток 50-100 публикаций / сек.
Что нужно сделать для стабильной работы:
Повысить лимиты ресурсов на kafka до 4Gb Ram
Настроить Purge interval в ZooKeeper, иначе переполнится persistent volume
регулярно мониторить историю с кластером Kafka, почему-то периодически убегаюти оффсеты.
2. Если начали падать консьюмеры, использовать команду для выравнивания оффсетовkafka-consumer-groups.sh --bootstrap-server localhost:9092 --all-groups --all-topics --reset-offsets --to-latest --execute
Как мы устанавливали community-чарт Sentry в Kubernetes