Мне кажется для тех "Кто хочет стать аналитиком" - становиться уже поздно(( А для того что-бы хоть немного понять Kafka - надо примеры с UI части, например с KafkaConductor или KafDrop. Там наглядно понятно где и какие поля лежат.
Так же не хватает аналитики по тому "А сколько партиций надо заводить?" Надо 1 партицию или 4 например на RPM 7.сек?
Сейчас у нас все уникальные записи имеют _id в формате OID в своих коллекциях. А все остальные вложения данных id, будь-то chat_id или sender_id сервис сообщений дообогащает из других сервисов. Общение между сервисами идет через HTTP, а в JSON формате нет OID или UUID формата. Пришло str - положили str, экономим микрообъемы нагрузки на конвертации в другие форматы.
Мне кажется для тех "Кто хочет стать аналитиком" - становиться уже поздно((
А для того что-бы хоть немного понять Kafka - надо примеры с UI части, например с KafkaConductor или KafDrop. Там наглядно понятно где и какие поля лежат.
Так же не хватает аналитики по тому "А сколько партиций надо заводить?" Надо 1 партицию или 4 например на RPM 7.сек?
Можно перевести что бы выиграть в индексации и размере поля, но пока не запустили ничего - нет требуемого объема данных для перевода на UUID.
Сейчас у нас все уникальные записи имеют _id в формате OID в своих коллекциях. А все остальные вложения данных id, будь-то chat_id или sender_id сервис сообщений дообогащает из других сервисов. Общение между сервисами идет через HTTP, а в JSON формате нет OID или UUID формата. Пришло str - положили str, экономим микрообъемы нагрузки на конвертации в другие форматы.