Comments 7
Жаль что в статье не описана работа по чтению этих логов из S3, например в Kibana, только упомянута что такая возможность имеется.
Минутка ворчания: сначала пишем на любую фигню микросервис (Универсальный убиратель непечатных символов из строки на входе"), а потом страдаем, что логи некуда девать и удобно обрабатывать.
Зачем устанавливать Tiller ?
Также в объектном хранилище можно организовать доступ к логам через
сервис на базе EFK (Elasticsearch, Fluentd, Kibana) для просмотра
информации в виде дашбордов и графиков.
Лучше про это расскажите подробнее.
promtail -> loki - > s3
Из loki логи читаются через grafana
всё ручками... я так понимаю по параллельному импорту тераформ ещё в вк не завезли. aws_key_id, aws_sec_key... ну, в общем да - на 10 лет назад.
Да, действительно жаль, что не описано как дальше с такими логами жить: например искать через aws Athena для авс или как-то ещё построить удобную схему работы и поиска по логам, чтобы прямо удобно было хотя бы дебажить проблему или взаимодействия микросервисов
Как настроить хранение логов кластера Kubernetes в бакете S3 и зачем это нужно