Formation Stream Processing with Kafka Streams
Kafka Streams est une bibliothèque côté client permettant de créer des applications et des microservices dont les données sont transmises depuis et vers un système de messagerie Kafka. Apache Kafka s’appuyait traditionnellement sur Apache Spark ou Apache Storm pour traiter les données entre les producteurs de messages et les consommateurs. En appelant l'API Kafka Streams depuis une application, les données peuvent être traitées directement dans Kafka, ce qui évite d'avoir à les envoyer à un cluster distinct.
Au cours de cette formation en direct animée par un instructeur, les participants apprendront comment intégrer Kafka Streams à un ensemble d’exemples d’applications Java qui transmettent des données depuis et vers Apache Kafka pour le traitement de flux.
À la fin de cette formation, les participants seront en mesure de:
- Comprendre les fonctionnalités et les avantages de Kafka Streams par rapport aux autres infrastructures de traitement de flux
- Traiter les données de flux directement dans un cluster Kafka
- Écrire une application ou un microservice Java ou Scala intégrant Kafka et Kafka Streams
- Écrivez un code concis qui transforme les sujets d’entrée de Kafka en sujets de sortie de Kafka
- Construire, empaqueter et déployer l'application
Public
- Développeurs
Format du cours
- Partie de conférence, partie de discussion, exercices et exercices intensifs
Remarques
- Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser
Plan du cours
Introduction
- Kafka vs Spark, Flink et Storm
Aperçu des fonctionnalités de Kafka Streams
- Traitement avec et sans état, traitement événementiel, DSL, opérations de fenêtrage basées sur l'événementiel, etc.
Étude de cas : API Kafka Streams pour la budgétisation prédictive
Mise en place de l'environnement de développement
Création d'une application Streams
Démarrage du cluster Kafka
Préparation des sujets et des données d'entrée
Options de traitement des données de flux
- DSL de haut niveau pour les flux Kafka
- Processeur de niveau inférieur
Transformation des données d'entrée
Inspection des données de sortie
Arrêt du cluster Kafka
Options de déploiement de l'application
- Outils d'exploitation classiques (Puppet, Chef et Salt)
- Docker
- Fichier WAR
Résolution des problèmes
Résumé et conclusion
Pré requis
- Une compréhension d'Apache Kafka
- Java expérience en programmation
Les formations ouvertes requièrent plus de 3 participants.
Formation Stream Processing with Kafka Streams - Booking
Formation Stream Processing with Kafka Streams - Enquiry
Stream Processing with Kafka Streams - Demande d'informations consulting
Demande d'informations consulting
Nos clients témoignent (1)
Rappel/revue des points clés des sujets discutés.
Paolo Angelo Gaton - SMS Global Technologies Inc.
Formation - Building Stream Processing Applications with Kafka Streams
Traduction automatique
Cours à venir
Cours Similaires
Apache Kafka Connect
7 HeuresCette formation en direct (en ligne ou sur site) s'adresse aux développeurs qui souhaitent intégrer Apache Kafka aux bases de données et applications existantes à des fins de traitement, d'analyse, etc.
A l'issue de cette formation, les participants seront capables de :
- Utiliser Kafka Connect pour ingérer de grandes quantités de données d'une base de données dans des sujets Kafka.
- Ingérer les données de logs générées par un serveur d'application dans les sujets Kafka.
- Mettre à disposition toutes les données collectées pour le traitement en flux.
- Exporter les données des sujets Kafka vers des systèmes secondaires pour le stockage et l'analyse.
Unified Batch and Stream Processing with Apache Beam
14 HeuresApache Beam est un modèle de programmation unifié et open source permettant de définir et d'exécuter des pipelines de traitement de données parallèles. Sa puissance réside dans sa capacité à exécuter des pipelines en batch et en streaming, l'exécution étant réalisée par l'un des back-ends de traitement distribué pris en charge par Beam : Apache Apex, Apache Flink, Apache Spark et Go ogle Cloud Dataflow. Beam Apache Beam est utile pour les tâches ETL (Extract, Transform, and Load) telles que le déplacement de données entre différents supports de stockage et sources de données, la transformation de données dans un format plus souhaitable, et le chargement de données sur un nouveau système.
Au cours de cette formation en direct (sur site ou à distance), les participants apprendront à mettre en œuvre les SDK Apache Beam dans une application Java ou Python qui définit un pipeline de traitement des données permettant de décomposer un ensemble de données volumineuses en morceaux plus petits pour un traitement indépendant et parallèle.
À la fin de cette formation, les participants seront capables de :
- Installer et configurer Apache Beam.
- Utiliser un modèle de programmation unique pour effectuer des traitements par lots et par flux à partir de leur application Java ou Python.
- Exécuter des pipelines dans plusieurs environnements.
Format du cours
- En partie cours magistral, en partie discussion, exercices et pratique intensive.
Remarque
- Ce cours sera disponible Scala dans le futur. Veuillez nous contacter pour convenir d'un rendez-vous.
Building Kafka Solutions with Confluent
14 HeuresCette formation en direct, animée par un instructeur (sur site ou à distance), est destinée aux ingénieurs souhaitant utiliser Confluent (une distribution de Kafka) pour créer et gérer une plate-forme de traitement de données en temps réel pour leurs applications.
À la fin de cette formation, les participants seront en mesure de:
- Installez et configurez Confluent Platform.
- Utilisez les outils et les services de gestion de Confluent pour exécuter Kafka plus facilement.
- Stocker et traiter les données de flux entrants.
- Optimiser et gérer les clusters Kafka.
- Flux de données sécurisés.
Format du cours
- Conférence interactive et discussion.
- Beaucoup d'exercices et de pratique.
- Mise en œuvre pratique dans un environnement de laboratoire réel.
Options de personnalisation du cours
- Ce cours est basé sur la version open source de Confluent: Confluent Open Source.
- Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser cela.
Building Data Pipelines with Apache Kafka
7 HeuresApache Kafka est une plate-forme de diffusion distribuée. C'est un standard de facto pour la construction de pipelines de données qui résout de nombreux cas d'utilisation liés au traitement de données: il peut être utilisé comme une file d'attente de messages, un journal distribué, un processeur de flux, etc.
Nous commencerons par une théorie sur les pipelines de données en général, puis nous poursuivrons avec les concepts fondamentaux derrière Kafka. Nous découvrirons également des composants importants tels que Kafka Streams et Kafka Connect.
Apache Flink Fundamentals
28 HeuresCette formation en direct à Belgique (en ligne ou sur site) présente les principes et les approches du traitement distribué des données en flux et par lots, et accompagne les participants dans la création d'une application de flux de données en temps réel dans Apache Flink.
A la fin de cette formation, les participants seront capables de :
- Mettre en place un environnement pour développer des applications d'analyse de données.
- Comprendre le fonctionnement de la bibliothèque de traitement de graphes de Apache Flink (Gelly).
- Mettre en place, exécuter et surveiller des applications de streaming de données basées sur Flink et tolérantes aux pannes.
- Gérer diverses charges de travail.
- Effectuer des analyses avancées.
- Mettre en place un cluster Flink à plusieurs nœuds.
- Mesurer et optimiser les performances.
- Intégrer Flink à différents systèmes Big Data.
- Comparer les capacités de Flink avec celles d'autres frameworks de traitement des big data.
A Practical Introduction to Stream Processing
21 HeuresDans cette formation dirigée par un instructeur en <loc> ; (sur site ou à distance), les participants apprendront comment configurer et intégrer différents Stream Processing frameworks avec des systèmes de stockage de big data existants et des applications logicielles et microservices connexes.
A l'issue de cette formation, les participants seront capables de :
- Installer et configurer différents Stream Processing frameworks, tels que Spark Streaming et Kafka Streaming.
- Comprendre et sélectionner le framework le plus approprié pour le travail à effectuer.
- Traiter des données en continu, de manière concurrente et enregistrement par enregistrement.
- Intégrer les solutions Stream Processing aux bases de données existantes, aux entrepôts de données, aux lacs de données, etc.
- Intégrer la bibliothèque de traitement de flux la plus appropriée avec les applications d'entreprise et les microservices.
Distributed Messaging with Apache Kafka
14 HeuresCe cours s'adresse aux architectes d'entreprise, aux développeurs, aux administrateurs système et à tous ceux qui souhaitent comprendre et utiliser un système de messagerie distribuée à haut débit. Si vous avez des exigences plus spécifiques (par exemple, uniquement du côté de l'administration système), ce cours peut être adapté pour mieux répondre à vos besoins.
Kafka for Administrators
21 HeuresCette formation en direct avec instructeur (en ligne ou sur site) s'adresse aux administrateurs système qui souhaitent mettre en place, déployer, gérer et optimiser un cluster Kafka de niveau entreprise.
A l'issue de cette formation, les participants seront capables de :
- Mettre en place et administrer un cluster Kafka.
- Évaluer les avantages et les inconvénients du déploiement de Kafka sur site et dans le cloud.
- Déployer et surveiller Kafka à l'aide de divers outils d'environnement sur site et dans le nuage.
Apache Kafka for Python Programmers
7 HeuresCette formation en direct avec instructeur dans Belgique (en ligne ou sur site) est destinée aux ingénieurs de données, aux scientifiques de données et aux programmeurs qui souhaitent utiliser les fonctionnalités Apache Kafka dans les flux de données avec Python.
À la fin de cette formation, les participants seront en mesure d'utiliser Apache Kafka pour surveiller et gérer les conditions dans les flux de données continus en utilisant la programmation Python.
Confluent KSQL
7 HeuresCette formation en direct dans Belgique (en ligne ou sur site) est destinée aux développeurs qui souhaitent mettre en œuvre le traitement de flux Apache Kafka sans écrire de code.
A l'issue de cette formation, les participants seront capables de :
- Installer et configurer Confluent KSQL.
- Mettre en place un pipeline de traitement de flux en utilisant uniquement des commandes SQL (pas de codage Java ou Python).
- Effectuer le filtrage des données, les transformations, les agrégations, les jointures, le fenêtrage et la sessionnalisation entièrement en SQL.
- Concevoir et déployer des requêtes interactives et continues pour l'ETL en continu et l'analyse en temps réel.
Apache NiFi for Administrators
21 HeuresAu cours de cette formation en direct, dirigée par un instructeur, à Belgique (sur place ou à distance), les participants apprendront à déployer et à gérer Apache NiFi dans un environnement de laboratoire réel.
A la fin de cette formation, les participants seront capables de :
- Installer et configurer Apachi NiFi.
- Rechercher, transformer et gérer des données à partir de sources de données disparates et distribuées, y compris les bases de données et les lacs de données.
- Automatiser les flux de données.
- Permettre l'analyse en continu.
- Appliquer différentes approches pour l'ingestion de données.
- Transformer les données Big Data en informations commerciales.
Apache NiFi for Developers
7 HeuresAu cours de cette formation en direct et dirigée par un instructeur dans Belgique, les participants apprendront les principes fondamentaux de la programmation par flux en développant un certain nombre d'extensions, de composants et de processeurs de démonstration à l'aide de Apache NiFi.
A la fin de cette formation, les participants seront capables de :
- Comprendre l'architecture de NiFi et les concepts de flux de données.
- Développer des extensions en utilisant NiFi et des APIs tierces.
- Développer leur propre processeur Apache Nifi.
- Ingérer et traiter des données en temps réel à partir de formats de fichiers et de sources de données disparates et peu communs.
Spark Streaming with Python and Kafka
7 HeuresCette formation en direct avec instructeur dans Belgique (en ligne ou sur site) est destinée aux ingénieurs de données, aux scientifiques de données et aux programmeurs qui souhaitent utiliser les fonctionnalités de Spark Streaming dans le traitement et l'analyse de données en temps réel.
À la fin de cette formation, les participants seront en mesure d'utiliser Spark Streaming pour traiter des flux de données en temps réel et les utiliser dans des bases de données, des systèmes de fichiers et des tableaux de bord en temps réel.