Formation Spark for Developers
OBJECTIF:
Ce cours présentera Apache Spark . Les étudiants apprendront comment Spark s'intègre dans l'écosystème du Big Data et comment utiliser Spark pour l'analyse de données. Le cours couvre le shell Spark pour l'analyse de données interactive, les composants internes de Spark, les API Spark, Spark SQL , le streaming Spark, ainsi que l'apprentissage automatique et graphX.
PUBLIC :
Développeurs / Analystes de données
Plan du cours
- Introduction à Scala Une introduction rapide à Scala Labs : Connaître les bases de Scala Spark Contexte et historique Concepts et architecture de Spark et Hadoop Spark Eco-système Spark (core, spark sql, mlib, streaming) Labs : Installer et exécuter Spark Premier aperçu de Spark Exécution de Spark dans mode local Spark web UI Spark Shell Analyse de l'ensemble de données - partie 1 Inspection des RDD Labs : Exploration du shell Spark RDD Concepts des RDD Partitions RDD Opérations / transformations Types de RDD Paire clé-valeur RDD MapReduce sur RDD Mise en cache et persistance Labs : création et inspection des RDD ; Mise en cache des RDD Programmation de l'API Spark Introduction à l'API Spark / API RDD Soumission du premier programme à Spark Débogage / journalisation Propriétés de configuration Labs : Programmation dans l'API Spark, Soumission de tâches Prise en charge de Spark SQL SQL dans Spark Dataframes Définition de tables et importation d'ensembles de données Interrogation de données frames utilisant SQL Formats de stockage : JSON / Parquet Labs : Création et interrogation de data frames ; évaluation des formats de données MLlib Introduction à MLlib Algorithmes MLlib Laboratoires : Écriture d'applications MLib GraphX Présentation de la bibliothèque GraphX Laboratoires des API GraphX : Traitement des données graphiques à l'aide de Spark Spark Streaming Présentation du streaming Évaluation des plateformes de streaming Opérations de streaming Opérations par fenêtre coulissante Labs : Écriture d'applications de streaming Spark Spark et Hadoop Hadoop Intro ( HDFS / YARN) Architecture Hadoop + Spark Exécution de Spark sur Hadoop YARN Traitement des fichiers HDFS à l'aide de Spark Spark Performances et réglage des variables de diffusion Accumulateurs Gestion de la mémoire et mise en cache Opérations Spark Déploiement de Spark en production Exemples de modèles de déploiement Configurations Surveillance Dépannage
Pré requis
PRÉ-REQUIS
familiarité avec le langage Java / Scala / Python (nos laboratoires en Scala et Python) connaissance de base de l'environnement de développement Linux (navigation en ligne de commande / édition de fichiers à l'aide de VI ou nano)
Les formations ouvertes requièrent plus de 3 participants.
Formation Spark for Developers - Booking
Formation Spark for Developers - Enquiry
Spark for Developers - Demande d'informations consulting
Demande d'informations consulting
Nos clients témoignent (6)
Faire des exercices similaires de différentes manières aide vraiment à comprendre ce que chaque composant (Hadoop/Spark, standalone/cluster) peut faire individuellement et ensemble. Cela m'a donné des idées sur la façon dont je devrais tester mon application sur ma machine locale lorsque je développe par rapport au moment où elle est déployée sur un cluster.
Thomas Carcaud - IT Frankfurt GmbH
Formation - Spark for Developers
Traduction automatique
Ajay était très amical, serviable et également compétent sur le sujet qu'il discutait.
Biniam Guulay - ICE International Copyright Enterprise Germany GmbH
Formation - Spark for Developers
Traduction automatique
Ernesto did a great job explaining the high level concepts of using Spark and its various modules.
Michael Nemerouf
Formation - Spark for Developers
Traduction automatique
The trainer made the class interesting and entertaining which helps quite a bit with all day training.
Ryan Speelman
Formation - Spark for Developers
Traduction automatique
We know a lot more about the whole environment.
John Kidd
Formation - Spark for Developers
Traduction automatique
Richard is very calm and methodical, with an analytic insight - exactly the qualities needed to present this sort of course.
Kieran Mac Kenna
Formation - Spark for Developers
Traduction automatique
Cours à venir
Cours Similaires
Artificial Intelligence - the most applied stuff - Data Analysis + Distributed AI + NLP
21 HeuresCe cours s'adresse aux développeurs et aux scientifiques des données qui souhaitent comprendre et mettre en œuvre l'IA dans leurs applications. Une attention particulière est accordée à l'analyse des données, à l'IA distribuée et au traitement du langage naturel.
Big Data Analytics with Google Colab and Apache Spark
14 HeuresCette formation en direct avec instructeur en Belgique (en ligne ou sur site) s'adresse aux data scientists et ingénieurs de niveau intermédiaire qui souhaitent utiliser Google Colab et Apache Spark pour le traitement et l'analyse des big data.
A l'issue de cette formation, les participants seront capables de :
- Mettre en place un environnement big data en utilisant Google Colab et Spark.
- Traiter et analyser efficacement de grands ensembles de données avec Apache Spark.
- Visualiser les big data dans un environnement collaboratif.
- Intégrer Apache Spark avec des outils basés sur le cloud.
Big Data Analytics in Health
21 HeuresL'analyse de données volumineuses implique l'examen de grandes quantités d'ensembles de données variés afin de découvrir des corrélations, des modèles cachés et d'autres informations utiles.
L'industrie de la santé dispose de quantités massives de données médicales et cliniques hétérogènes complexes. L'application de l'analyse de données volumineuses sur les données de santé présente un potentiel énorme pour la compréhension de l'amélioration de la prestation des soins de santé. Cependant, l'énormité de ces ensembles de données pose de grands défis pour les analyses et les applications pratiques dans un environnement clinique.
Au cours de cette formation en direct animée par un instructeur (à distance), les participants apprendront à effectuer des analyses de données volumineuses dans le domaine de la santé tout en effectuant une série d'exercices pratiques en laboratoire.
À la fin de cette formation, les participants seront en mesure de:
- Installer et configurer des outils d'analyse de données volumineuses tels que Hadoop MapReduce et Spark
- Comprendre les caractéristiques des données médicales
- Appliquer des techniques Big Data pour traiter des données médicales
- Etudiez les systèmes de données volumineuses et les algorithmes dans le contexte d'applications de santé
Public
- Développeurs
- Data Scientists
Format du cours
- Partie lecture, partie discussion, exercices et exercices intensifs.
Remarque
- Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser cela.
Introduction to Graph Computing
28 HeuresAu cours de cette formation en direct à Belgique, les participants découvriront les offres technologiques et les approches de mise en œuvre pour le traitement des données graphiques. L'objectif est d'identifier les objets du monde réel, leurs caractéristiques et leurs relations, puis de modéliser ces relations et de les traiter en tant que données à l'aide d'une approche Graph Computing (également connue sous le nom de Graph Analytics). Nous commençons par une vue d'ensemble et nous nous concentrons sur des outils spécifiques à travers une série d'études de cas, d'exercices pratiques et de déploiements en direct.
A la fin de cette formation, les participants seront capables de :
- Comprendre comment les données graphiques sont persistées et parcourues.
- Sélectionner le meilleur framework pour une tâche donnée (des bases de données de graphes aux frameworks de traitement par lots).
- Mettre en œuvre Hadoop, Spark, GraphX et Pregel pour effectuer des calculs de graphes sur de nombreuses machines en parallèle.
- Voir les problèmes de big data du monde réel en termes de graphes, de processus et de traversées.
Hadoop and Spark for Administrators
35 HeuresCette formation en direct avec instructeur (en ligne ou sur site) s'adresse aux administrateurs système qui souhaitent apprendre à mettre en place, déployer et gérer des clusters Hadoop au sein de leur organisation.
A l'issue de cette formation, les participants seront capables de :
- Installer et configurer Apache Hadoop.
- Comprendre les quatre composants majeurs de l'écosystème Hadoop : HDFS, MapReduce, YARN et Hadoop Common.
- Utiliser le système de fichiers distribués Hadoop (HDFS) pour faire évoluer un cluster vers des centaines ou des milliers de nœuds.
- Configurer HDFS comme moteur de stockage pour les déploiements Spark sur site.
- Configurer Spark pour accéder à des solutions de stockage alternatives telles qu'Amazon S3 et des systèmes de base de données NoSQL tels que Redis, Elasticsearch, Couchbase, Aerospike, etc.
- Exécuter des tâches administratives telles que le provisionnement, la gestion, la surveillance et la sécurisation d'un cluster Apache Hadoop.
Hortonworks Data Platform (HDP) for Administrators
21 HeuresCette formation en direct à Belgique (en ligne ou sur site) présente Hortonworks Data Platform (HDP) et accompagne les participants dans le déploiement de la solution Spark + Hadoop.
A l'issue de cette formation, les participants seront capables de :
- Utiliser Hortonworks pour exécuter de manière fiable Hadoop à grande échelle.
- Unifier les capacités de sécurité, de gouvernance et d'exploitation de Hadoop avec les flux de travail analytiques agiles de Spark.
- Utiliser Hortonworks pour étudier, valider, certifier et prendre en charge chacun des composants d'un projet Spark.
- Traiter différents types de données, notamment structurées, non structurées, en mouvement et au repos.
A Practical Introduction to Stream Processing
21 HeuresDans cette formation dirigée par un instructeur en <loc> ; (sur site ou à distance), les participants apprendront comment configurer et intégrer différents Stream Processing frameworks avec des systèmes de stockage de big data existants et des applications logicielles et microservices connexes.
A l'issue de cette formation, les participants seront capables de :
- Installer et configurer différents Stream Processing frameworks, tels que Spark Streaming et Kafka Streaming.
- Comprendre et sélectionner le framework le plus approprié pour le travail à effectuer.
- Traiter des données en continu, de manière concurrente et enregistrement par enregistrement.
- Intégrer les solutions Stream Processing aux bases de données existantes, aux entrepôts de données, aux lacs de données, etc.
- Intégrer la bibliothèque de traitement de flux la plus appropriée avec les applications d'entreprise et les microservices.
SMACK Stack for Data Science
14 HeuresCette formation en direct avec instructeur (en ligne ou sur site) s'adresse aux data scientists qui souhaitent utiliser la pile SMACK pour construire des plateformes de traitement de données pour des solutions big data.
A l'issue de cette formation, les participants seront capables de :
- Mettre en place une architecture de pipeline de données pour le traitement des big data.
- Développer une infrastructure de cluster avec Apache Mesos et Docker.
- Analyser les données avec Spark et Scala.
- Gérer les données non structurées avec Apache Cassandra.
Apache Spark Fundamentals
21 HeuresCette formation en direct (en ligne ou sur site) s'adresse aux ingénieurs qui souhaitent mettre en place et déployer un système Apache Spark de traitement de très grandes quantités de données.
A l'issue de cette formation, les participants seront capables de :
- Installer et configurer Apache Spark.
- Traiter et analyser rapidement de très grands ensembles de données.
- Comprendre la différence entre Apache Spark et Hadoop MapReduce et savoir quand utiliser l'un ou l'autre.
- Intégrer Apache Spark avec d'autres outils d'apprentissage automatique.
Administration of Apache Spark
35 HeuresCette formation en direct avec instructeur à Belgique (en ligne ou sur site) s'adresse aux administrateurs système de niveau débutant à intermédiaire qui souhaitent déployer, maintenir et optimiser les clusters Spark.
A l'issue de cette formation, les participants seront capables de :
- Installer et configurer Apache Spark dans différents environnements.
- Gérer les ressources du cluster et surveiller les applications Spark.
- Optimiser les performances des clusters Spark.
- Mettre en place des mesures de sécurité et assurer la haute disponibilité.
- Déboguer et résoudre les problèmes courants liés à Spark.
Apache Spark in the Cloud
21 HeuresLa courbe d'apprentissage d' Apache Spark augmente lentement au début, il faut beaucoup d'efforts pour obtenir le premier retour. Ce cours vise à passer à travers la première partie difficile. Après avoir suivi ce cours, les participants comprendront les bases d’ Apache Spark , ils différencieront clairement RDD de DataFrame, ils apprendront les API Python et Scala , ils comprendront les exécuteurs et les tâches, etc. En suivant également les meilleures pratiques, ce cours est fortement axé sur déploiement en nuage, Databricks et AWS. Les étudiants comprendront également les différences entre AWS EMR et AWS Glue, l'un des derniers services Spark d'AWS.
PUBLIC:
Ingénieur de données, DevOps , Data Scientist
Scaling Data Pipelines with Spark NLP
14 HeuresCette formation en Belgique (en ligne ou sur site) s'adresse aux data scientists et aux développeurs qui souhaitent utiliser Spark NLP, construit sur Apache Spark, pour développer, implémenter et mettre à l'échelle des modèles et des pipelines de traitement de texte en langage naturel.
A la fin de cette formation, les participants seront capables de :
- Mettre en place l'environnement de développement nécessaire pour commencer à construire des pipelines NLP avec Spark NLP.
- Comprendre les caractéristiques, l'architecture et les avantages de l'utilisation de Spark NLP.
- Utiliser les modèles pré-entraînés disponibles dans Spark NLP pour implémenter le traitement de texte.
- Apprendre à construire, entraîner et mettre à l'échelle les modèles Spark NLP pour des projets de production.
- Appliquer la classification, l'inférence et l'analyse des sentiments sur des cas d'utilisation réels (données cliniques, comportement des clients, etc.).
Python and Spark for Big Data (PySpark)
21 HeuresAu cours de cette formation en direct avec instructeur à Belgique, les participants apprendront à utiliser Python et Spark ensemble pour analyser les données volumineuses (big data) en travaillant sur des exercices pratiques.
A la fin de cette formation, les participants seront capables de :
- Apprendre à utiliser Spark avec Python pour analyser Big Data.
- Travailler sur des exercices qui imitent des cas réels.
- Utiliser différents outils et techniques pour l'analyse des big data en utilisant PySpark.
Python, Spark, and Hadoop for Big Data
21 HeuresCette formation en Belgique (en ligne ou sur site) est destinée aux développeurs qui souhaitent utiliser et intégrer Spark, Hadoop et Python pour traiter, analyser et transformer des ensembles de données complexes et volumineux.
A l'issue de cette formation, les participants seront capables de :
- Mettre en place l'environnement nécessaire pour commencer à traiter les big data avec Spark, Hadoop et Python.
- Comprendre les fonctionnalités, les composants de base et l'architecture de Spark et Hadoop.
- Apprendre à intégrer Spark, Hadoop et Python pour le traitement des big data.
- Explorer les outils de l'écosystème Spark (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka et Flume).
- Construire des systèmes de recommandation par filtrage collaboratif similaires à Netflix, YouTube, Amazon, Spotify et Google.
- Utiliser Apache Mahout pour mettre à l'échelle des algorithmes d'apprentissage automatique.
Apache Spark MLlib
35 HeuresMLlib est la bibliothèque d'apprentissage automatique (ML) de Spark. Son objectif est de rendre l'apprentissage pratique pratique évolutif et facile. Il comprend des algorithmes et des utilitaires d'apprentissage courants, notamment la classification, la régression, la mise en cluster, le filtrage collaboratif, la réduction de la dimensionnalité, ainsi que des primitives d'optimisation de niveau inférieur et des API de pipeline de niveau supérieur.
Il se divise en deux paquets:
spark.mllib contient l'API d'origine construite sur les RDD.
spark.ml fournit des API de niveau supérieur construites à partir de DataFrames pour la construction de pipelines ML.
Public
Ce cours s’adresse aux ingénieurs et aux développeurs qui souhaitent utiliser une bibliothèque de machines intégrée à Apache Spark