All streams
Search
Write a publication
Pull to refresh
0
0
Send message

или поднять Kafka

Ну все-таки Kafka в качестве очереди для невысоконагруженного сервиса - выглядит самолетом. Я бы смотрел в сторону более легковесных rabbitMQ или nats.io.
В плюсы реализации интеграции на NiFi записал бы ещё неплохую "передаваемость". Что случается с интеграцией, написанной кодом, в случае увольнения автора? Обычно стараются в неё не лезть. Если вдруг надо что-то поменять, то обычно у нового разработчика это заканчивается фразой "да мне проще саму все с нуля переписать, чем разобраться" и плюс N дней недель месяцев к срокам. А тут документация на все процессоры есть, можно въехать в логику достаточно быстро и точечно поменять. Такое нам нравится)

Кирилл, благодарю за статью - очень интересно! Есть два вопроса:
1. Подскажите как именно обеспечиваете вот этот момент?

в Values.yaml, не указана какая-то зависимость, то в проде этой зависимости у сервиса не будет. И наоборот: если сервис в Values.yaml укажет какую-то зависимость, то в проде он ее получит.

  1. Правильно понимаю, что таким образом собираете информацию только с тех сервисов, которые развернуты с помощью Helm в k8s? Как поступаете с сервисами, развернутыми на ВМ?

Проблему поиска данных решают продукты класса Data Catalog - Datahub, Alation и т.п.

Information

Rating
6,256-th
Registered
Activity