Комментарии 21
Чем представленное решение лучше Zabbix?
Чтобы ответить, нужно хорошо знать Zabbix и работать с ним несколько лет (бекапить его, переносить данные между серверами и т.д.). У меня такого опыт нет, поэтому ответить я не смогу.
Zabbix работает хорошо. В качестве клиентов оптимально использовать либо zabbix-агенты (которые есть для windows и linux) или snmp (который может быть даже в кофеварке). Ну и всякие разные другие навороты.
Ровно тоже самое могу сказать и про Icinga. Агенты, SNMP, сети, свои скрипты, скрипты с Nagios Exchange (там их сотни). Каждому свое, OpenSource дает выбор - выбирайте и пользуйтесь ) логично же.
НО - все это нас ни разу не приближает к ответу - Чем лучше )
Для меня, в основном в том, что конфиги в нормальных текстовых файлах и я могу их нормально редактировать в любимом редакторе и хранить в git. Следующая причина - развитый язык шаблонов, избавляющий меня от написания множества однотипных правил. Следующая причина - наличие зависимостей. Т.е. мне достаточно написать, что сервис А зависит от сервиса Б и все остальное будет автоматически. Т.е. мне не нужно руками описывать для каждого сервиса, что не посылать мне уведомления, если не работает сервис Б, а так же сервис Ц, от которого зависит Б, а так же ещё каких-нибудь 2 других сервиса и т.д. Задолбался я в zabbix возить мышкой, настраивая вот это всё.
Спасибо, любопытная информация! Я то по старинке делаю, руками и мышкой )))
А насчет архитектуры, объема баз данных, скорости работы PostgreSQL есть чем поделиться ?
Zabbix подходит для прода - стабильно работает годами и не падает. А как с этим у Icinga?
А насчет архитектуры, объема баз данных, скорости работы PostgreSQL есть чем поделиться ?
Вопрос не понял. Архитектура чего, объём каких баз и при чём тут скорость работы postgresql?
Сразу предупрежу - у меня сеть не большая. Пяток серверов и железок разных, да сотня сервисов.
Здравствуйте.
На этапе "ansible-playbook 5-director-kickstart.yml" получаю следующую ошибку:
fatal: [debian]: FAILED! => {"changed": true, "cmd": ["icingacli", "director", "kickstart", "run"], "delta": "0:00:00.261169",
"end": "2023-12-03 12:44:44.057956", "msg": "non-zero return code", "rc": 1, "start": "2023-12-03 12:44:43.796787", "stderr":
"ERROR: Icinga\Exception\ConfigurationError in /usr/share/icingaweb2/modules/director/library/Director/KickstartHelper.php:360 with message:
I found no Endpoint object called "srv-monitor" on 127.0.0.1:5665", "stderr_lines":
["ERROR: Icinga\Exception\ConfigurationError in /usr/share/icingaweb2/modules/director/library/Director/KickstartHelper.php:360 with message:
I found no Endpoint object called "srv-monitor" on 127.0.0.1:5665"], "stdout": "", "stdout_lines": []}
С Icinga2 знаком мало, погуглив, не нашел понятного мне решения по этой ошибке. Буду признателен за помощь.
Нужен статический IP адрес, полно доменное FQDN имя через hostnamectl и прописать соответствие имени и IP в файле /etc/hosts.
В Вашем случае что то вида srv-monitor.test.local. И это имя обязательно указываем в самом первом Playbook.
В общем рекомендую заново сделать на чистой виртуалке.
Спасибо за оперативный ответ.
В /etc/hosts указано полное имя, т.е. "srv-monitor.test.local", а вот в /etc/hostname только "srv-monitor".
Внес изменения в указанных местах и после повторной установки все завелось.
Еще раз большое спасибо!!
Пожалуйста - надеюсь Icinga2 понравится и Вам пригодится в работе.
У меня в Playbook-ах есть недоработка, дело в том, что IcingaDB новый модуль и я его с колес изучал перед написанием статьи. Уже после публикации, в процессе внедрения у Заказчика, выяснил, что для IcingaDB нужно было еще одну настройку сделать (сгенерировать файлик /etc/icingaweb2/modules/icingadb/commandtransports.ini), либо настроить через WEB-морду, как на скриншоте:
Пароль от API берется из файла: /etc/icinga2/conf.d/api-users.conf
Без этой настройки в разделе IcingaDB не получится посылать сигналы на хосты и сервисы, например, ReCheck.
Потом как ни будь добавлю в PlayBook )))
Полагаю, что этот момент для IcingaDB достаточно добавить в конце основного поста.
Мне ранее доводилось пользоваться Icinga первой версии, но не приходилось заниматься установкой и настройкой. А вот установка с использованием Ansible - за это отдельный респект и уважуха!!!
Пробовал еще в 2017 поставить icinga/TICK Stack но что-то мне не зашло, в итоге zabbix установил 4.0 LTS и апгрейдил версии только два раза. Для k8s конечно же лучший вариант это софт иного рода вроде VictoriaMetrics + prometheus exporter-ы + grafana. Хотя если не хочется уходить от Telegraf то можно и писать тоже в VictoriaMetrics.
Поднимаем мониторинг на базе Icinga2/Web/Director/Grafana за 5 минут