Комментарии 9
На относительно небольших масштабах (примерно 300 записей в секунду) при поверхностном анализе потребления ресурсов заметил, что fluentbit гораздо более скромный в потреблении CPU
+1
НЛО прилетело и опубликовало эту надпись здесь
Журналирование – одна из тех вещей, о которых вспоминают только тогда, когда они ломаются
Про логи вспоминают, когда что-то ломается. Когда сломались логи можно и не заметить.
+1
Если бы мы могли так легко изменить способ сбора логов, то большинство из существующих проблем не были бы проблемами.
Вопрос от неспециалиста: а нельзя ли лог-файлы превратить в fifo, чтобы избежать операций с диском?
0
Можно, в статье один из способов и описан — вывод в сетевой сокет
0
Это не то, в статье описан вариант экспорта логов напрямую из контейнеров, а тут речь про то, чтобы докер/кубер писал логи не в файл, а в pipe и оттуда уже отдавать куда угодно. Причём докер/кубер будут думать, что пишут в файл, а данные будут уходить в pipe.
Из плюсов:
- сохраняется стандартный механизм логирования, можно даже в файл дублировать
- нагрузка при вычитке записей должна уменьшиться (нет операций на файловой системе)
Из минусов:
- сложнее будет с logrotate, как минимум нужно будет отключить стандартный механизм
- при падении демона-сборщика теряются всё данные
0
Зарегистрируйтесь на Хабре, чтобы оставить комментарий
Цена tailing'а логов в Kubernetes