Как стать автором
Обновить
9
0

Дата инженер

Отправить сообщение

Заметки дата-инженера: интеграция Kafka и PySpark

Время на прочтение52 мин
Количество просмотров9.8K

Данная статья будет полезна тем, чья деятельность связана с Data Engineering, и тем, кто только знакомится с этой славной профессией. Вы узнаете про особенности настройки и интеграции Kafka со Structured Streaming, а также увидите различные способы чтения данных, работы с водяными метками и скользящим окном.

Привет, меня зовут Андрей, я работаю дата-инженером и по совместительству тимлидом разработки на проекте из банковского сектора. За плечами у меня и моих коллег большое количество успешных проектов, касающихся проектирования DWH и разработки ETL-процессов. Нам всем стали уже «родными» такие системы и инструменты как: Oracle, PostgreSQL, GreenPlum, Hive, Impala, YARN, Spark и Airflow (и прочие бигдата-покемоны), которые применялись в режиме пакетной обработки данных. А вот с потоковыми процессами на тот момент плотно работать ещё не приходилось. Нашей команде предстояло разработать «под ключ» систему типа «Real Time Marketing» – в онлайн формате анализировать действия пользователей в мобильном и интернет банке, сверяться и джойниться с множеством различных источников данных, чтобы в итоге эффективно генерировать актуальные и выгодные предложения для каждого из пользователей.

Читать далее
Всего голосов 2: ↑1 и ↓10
Комментарии5

Информация

В рейтинге
Не участвует
Зарегистрирован
Активность

Специализация

Data Engineer
Middle
От 250 000 ₽
Spark
Python
SQL
Apache Hadoop
Apache Airflow
Java
Spring Boot
Docker
Scala
Hibernate