Plan du cours

Introduction

Aperçu des fonctionnalités et de l'architecture de Spark Streaming

  • Sources de données prises en charge
  • API de base

Préparation de l'environnement

  • Dépendances
  • Contexte Spark et streaming
  • Connexion à Kafka

Traitement des messages

  • Analyse des messages entrants en JSON
  • Processus ETL
  • Démarrer le contexte de streaming

Exécution d'un Windowed Stream Processing

  • Intervalle entre les diapositives
  • Configuration de la livraison des points de contrôle
  • Lancement de l'environnement

Prototypage du code de traitement

  • Connexion à un sujet Kafka
  • Récupération de JSON à partir d'une source de données à l'aide de Paw
  • Variations et traitements supplémentaires

Streaming du code

  • Variables de contrôle des tâches
  • Définir les valeurs à faire correspondre
  • Fonctions et conditions

Acquisition de la sortie du flux

  • Compteurs
  • Sortie Kafka (avec ou sans correspondance)

Résolution des problèmes

Résumé et conclusion

Pré requis

  • Expérience avec Python et Apache Kafka
  • Familiarité avec les plateformes de traitement de flux

Audience

  • Ingénieurs en données
  • Scientifiques des données
  • Programmeurs
 7 Heures

Nombre de participants


Prix ​​par Participant

Nos clients témoignent (5)

Cours à venir

Catégories Similaires