Как на Spark Structured Streaming работать с данными в HDFS и Kafka // Курс Spark Developer

Этапом, следующим за пониманием принципов батч-обработки в Spark, является изучение концепций streaming API, позволяющим в режиме, приближенном к реальному времени, обрабатывать данные из разных источников. В ходе вебинара Вы узнаете: ⁃ Какие источники данных могут быть обработаны стриминговым API Spark (Рассмотрим кокретные примеры с данными на HDFS и Kafka). ⁃ Как осуществить подключение к таким источникам ⁃ Как группировать данные «Spark Developer» - Преподаватель: Андрей Чучалов - с 2021 года активно увлекся большими данными, чем и занят по настоящее время Пройдите опрос по итогам мероприятия - Следите за новостями проекта: - Telegram: - ВКонтакте: - LinkedIn: - Хабр:
Back to Top