All streams
Search
Write a publication
Pull to refresh

Comments 27

Спасибо за такой развернутый порт про Kafka. За визуальное предоставление - отдельное спасибо. Жду следующих статей.

"Кафка для зумеров")) Хорошая подача материала!

Я возможно упустил в таком объемном тексте, но можно пояснить для новичков, какими средствами происходит "общение" систем с Кафкой, это запросы sql к базе Кафки, api или еще что-то?

Общение происходит с помощью API Кафки, которые реализуют всякие клиентские библиотеки для разных языков. Есть еще CLI - это всякие kafka-topics.sh, kafka-console-producer.sh - и так далее.

Спасибо за пояснение

Скорее всего, автор статьи визуал. С этим текстом нужно работать поэтапно и не спеша, останавливаться на каждом блоке и вдумываться. Не зря приведены разные метафоры в каждом блоке чтобы включалось воображение. Ответ на ваш вопрос я кстати нашел. Перечитайте разделы: Producer/Consumer, Поток обработки (stream processing)

Автор статьи нейросеть.

А что если в будущем мы все будем учиться именно так? Прошел 3 уровня за 2 дня + 5 дней практики и вуаля знаешь технологию на уровне создателя без стресcа. Мне лично такой подход по душе.

Скайнет уже среди нас))

Нет. Определённо - нет. Нейросеть не смогла бы опустить столько запятых.

может ее попросили писать неграмотно, чтобы не так палевно было)

Блин вы сделали мой день🤣

Наконец, actually удобное и понятное объяснение всех ключевых моментов, от А до Я, с подробным объяснением, и с живыми, рабочими аналогиями. Даже код не требуется, чтобы понять. Всё думал, в чём же такая сильная разница с Rabbitmq, и в этой статье как раз описаны (и подчеркнуты несколько раз) главные преимущества. Спасибо автору за статью)

Жаль, что в статье нет недостатков относительно того же кролика. За всё в жизни надо платить ...

Кафка конечно не панацея, было бы круто, если автор написал бы про нюансы, к примеру, даже если вы настроили идемпотентный продюсер и консюмер читает только свежие сообщения, это все равно никогда вам не даст гарантии, что сообщение не будет прочитано повторно. А этот ньюанс очень важен при выборе брокера сообщения для конкретных задач.

Статья норм для начала, будем ждать продолжение)

Раскройте пжл в следующих статья вопрос автоматического масштабирования - там насколько я помню нельзя было просто добавить еще один сервер-consumer и нужна переконфигурация партиций (см https://stackoverflow.com/questions/36203764/how-can-i-scale-kafka-consumers). Отсюда собственно непонятно - каким образом в этом LinkedIn вообще это пытались масштабировать.

Consumer можно добавить в группу без проблем. Проблема в том что из одной партии не может читать больше одного consumer из группы. Поэтому для нормального масштабирования нужно заранее при создании топика закладывать количество партиций. В этом обычно и кроется проблема.

Я тоже самое написал. Но решения я так и не вижу / не знаю.

Когда ожидается вторая часть?

отлично, спасибо!

Спасибо, интересно написано. Давай следующий уровень

Поясните, пожалуйста, а консьюмер чем отличается от джоба?

Насколько я понимаю, консьюмер так же "крутится" в цикле, как и периодические джобы. Отличие только в отсутствии периода?

Консьюмер, он же Сапплаер, это потребитель содержимого кафки. Простыми словами — Чтец.
А как часто оно будет приходить в кафку за новыми данными — это уже другая история.
В зависимости от реализации программистами это может быть как цикл, так и джоба периодически по расписанию или таймеру.

А правильно ли я понимаю, что один топик может находится на нескольких брокерах одновременно, типо разные партиции одного топика на разных брокерах? И в связи с этим другой вопрос: как именно происходит навигация между брокерами для клиентов? Внутри кафки просто хранится мапа по типу: «топик, партиция» : «номер брокера»?

А как почитать вторую и третью часть?

Sign up to leave a comment.

Articles