Комментарии 12
Идея хорошая.
Каждые 15 секунд (настраивается через опцию --check-period) достаём из очереди порцию наиболее старых образов и проверяем их наличие в registry.
не понял — что значит старых образов? Т.е. у утилиты какой-то внутренний кэш? Или имеется в виду — образы, из которых запущены самые старые подов-деплойментов?
+2
template:
metadata:
annotations:
prometheus.io/port: "8080"
prometheus.io/scrape: "true"
Поправьте deployment, пожалуйста, и примеры. Если прометеус оператор установлен, он подхватит такой деплоймент. Если его нет — хуже не будет.
+1
https://github.com/coreos/kube-prometheus/pull/16#issuecomment-305953469
The annotation is not supported by the operator. ServiceMonitors should be
used instead. The annotation is very limited by its nature and there's no
feasible way to support anything beyond "scrape on" and a single port. A
per-service scrape interval, multi-port pods, authentication, honorLabels,
and more are all not possible. It also provides no meaningful way to assign
services to be scraped by different Prometheus instances.
ServiceMonitors allow all these without exposing any complex relabelling
and there's really no practical reason for sticking with the annotation.
Представляется, что использование этой аннотации избыточно. Используйте соответствующие CRD. Если есть альтернативное мнение — давайте обсудим.
+4
А не проще сразу же манифесты для prometheus-operator положить в deploy/ или даже упаковать всё это в хелм-чарт ?
+1
Я issue создал в GitHub, сделаю. Там чуть подумать нужно будет, что в стандартной поставке будет.
github.com/flant/k8s-image-availability-exporter/issues/6
github.com/flant/k8s-image-availability-exporter/issues/6
+1
git pull
на git checkout поменяйте в статье
на git checkout поменяйте в статье
+2
Спасибо за пост. Сделал вам issue https://github.com/deckhouse/k8s-image-availability-exporter/issues/76
0
Зарегистрируйтесь на Хабре, чтобы оставить комментарий
Представляем k8s-image-availability-exporter для обнаружения пропавших образов в Kubernetes