Formation Administration of Apache Spark
Spark Apache Spark est un moteur d'analyse unifié et open-source pour le traitement de données à grande échelle.
Cette formation en direct (en ligne ou sur site) s'adresse aux administrateurs système de niveau débutant à intermédiaire qui souhaitent déployer, maintenir et optimiser les clusters Spark.
A l'issue de cette formation, les participants seront capables de :
- Installer et configurer Apache Spark dans différents environnements.
- Gérer les ressources du cluster et surveiller les applications Spark.
- Optimiser les performances des clusters Spark.
- Mettre en place des mesures de sécurité et assurer la haute disponibilité.
- Déboguer et résoudre les problèmes courants liés à Spark.
Format du cours
- Exposé et discussion interactifs.
- Beaucoup d'exercices et de pratique.
- Mise en œuvre pratique dans un environnement live-lab.
Options de personnalisation du cours
- Pour demander une formation personnalisée pour ce cours, veuillez nous contacter.
Plan du cours
Introduction à Apache Spark
- Le rôle de Spark dans le traitement des big data
- L'architecture de Spark et ses composants
Mise en place Apache Spark
- Exigences matérielles et logicielles
- Procédures d'installation en mode autonome et en mode cluster
- Meilleures pratiques de configuration pour les administrateurs système
Administration des clusters Spark
- Outils et techniques de gestion des clusters
- Surveillance des applications Spark et des ressources du cluster
- Configurations de sécurité et gestion des utilisateurs
Optimisation des performances
- Allocation des ressources et planification
- Optimisation des performances de Spark
- Identifier et résoudre les goulots d'étranglement courants
Dépannage et résolution de problèmes
- Défis courants de l'administration de Spark
- Outils de diagnostic et techniques de dépannage
- Approche étape par étape pour résoudre les problèmes courants
- Meilleures pratiques pour maintenir un environnement Spark sain
Sujets relatifs à l'administration avancée
- Intégration avec d'autres outils big data
- Assurer la haute disponibilité et la reprise après sinistre
- Mise à jour et mise à l'échelle des clusters Spark
Résumé et prochaines étapes
Pré requis
- Connaissance de base de la configuration et de la gestion des réseaux
- Familiarité avec le système d'exploitation Linux et l'interface de ligne de commande
- Intérêt pour l'apprentissage des systèmes informatiques distribués et de la gestion des données massives (big data)
Public
- Administrateurs système
Les formations ouvertes requièrent plus de 3 participants.
Formation Administration of Apache Spark - Booking
Formation Administration of Apache Spark - Enquiry
Administration of Apache Spark - Demande d'informations consulting
Demande d'informations consulting
Nos clients témoignent (5)
Beaucoup d'exemples pratiques, différentes façons d'aborder le même problème, et parfois des astuces pas si évidentes pour améliorer la solution actuelle.
Rafal - Nordea
Formation - Apache Spark MLlib
Traduction automatique
La bonne humeur, l'accompagnement et les compétences du formateur.
Oumayma - Physiobotic
Formation - Scaling Data Pipelines with Spark NLP
Les exemples en direct
Ahmet Bolat - Accenture Industrial SS
Formation - Python, Spark, and Hadoop for Big Data
Traduction automatique
très interactif...
Richard Langford
Formation - SMACK Stack for Data Science
Traduction automatique
Une pratique suffisante, le formateur est compétent
Chris Tan
Formation - A Practical Introduction to Stream Processing
Traduction automatique
Cours à venir
Cours Similaires
Artificial Intelligence - the most applied stuff - Data Analysis + Distributed AI + NLP
21 HeuresCe cours s'adresse aux développeurs et aux scientifiques des données qui souhaitent comprendre et mettre en œuvre l'IA dans leurs applications. Une attention particulière est accordée à l'analyse des données, à l'IA distribuée et au traitement du langage naturel.
Big Data Analytics with Google Colab and Apache Spark
14 HeuresCette formation en direct avec instructeur en Belgique (en ligne ou sur site) s'adresse aux data scientists et ingénieurs de niveau intermédiaire qui souhaitent utiliser Google Colab et Apache Spark pour le traitement et l'analyse des big data.
A l'issue de cette formation, les participants seront capables de :
- Mettre en place un environnement big data en utilisant Google Colab et Spark.
- Traiter et analyser efficacement de grands ensembles de données avec Apache Spark.
- Visualiser les big data dans un environnement collaboratif.
- Intégrer Apache Spark avec des outils basés sur le cloud.
Big Data Analytics in Health
21 HeuresL'analyse de données volumineuses implique l'examen de grandes quantités d'ensembles de données variés afin de découvrir des corrélations, des modèles cachés et d'autres informations utiles.
L'industrie de la santé dispose de quantités massives de données médicales et cliniques hétérogènes complexes. L'application de l'analyse de données volumineuses sur les données de santé présente un potentiel énorme pour la compréhension de l'amélioration de la prestation des soins de santé. Cependant, l'énormité de ces ensembles de données pose de grands défis pour les analyses et les applications pratiques dans un environnement clinique.
Au cours de cette formation en direct animée par un instructeur (à distance), les participants apprendront à effectuer des analyses de données volumineuses dans le domaine de la santé tout en effectuant une série d'exercices pratiques en laboratoire.
À la fin de cette formation, les participants seront en mesure de:
- Installer et configurer des outils d'analyse de données volumineuses tels que Hadoop MapReduce et Spark
- Comprendre les caractéristiques des données médicales
- Appliquer des techniques Big Data pour traiter des données médicales
- Etudiez les systèmes de données volumineuses et les algorithmes dans le contexte d'applications de santé
Public
- Développeurs
- Data Scientists
Format du cours
- Partie lecture, partie discussion, exercices et exercices intensifs.
Remarque
- Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser cela.
Introduction to Graph Computing
28 HeuresAu cours de cette formation en direct à Belgique, les participants découvriront les offres technologiques et les approches de mise en œuvre pour le traitement des données graphiques. L'objectif est d'identifier les objets du monde réel, leurs caractéristiques et leurs relations, puis de modéliser ces relations et de les traiter en tant que données à l'aide d'une approche Graph Computing (également connue sous le nom de Graph Analytics). Nous commençons par une vue d'ensemble et nous nous concentrons sur des outils spécifiques à travers une série d'études de cas, d'exercices pratiques et de déploiements en direct.
A la fin de cette formation, les participants seront capables de :
- Comprendre comment les données graphiques sont persistées et parcourues.
- Sélectionner le meilleur framework pour une tâche donnée (des bases de données de graphes aux frameworks de traitement par lots).
- Mettre en œuvre Hadoop, Spark, GraphX et Pregel pour effectuer des calculs de graphes sur de nombreuses machines en parallèle.
- Voir les problèmes de big data du monde réel en termes de graphes, de processus et de traversées.
Hadoop and Spark for Administrators
35 HeuresCette formation en direct avec instructeur (en ligne ou sur site) s'adresse aux administrateurs système qui souhaitent apprendre à mettre en place, déployer et gérer des clusters Hadoop au sein de leur organisation.
A l'issue de cette formation, les participants seront capables de :
- Installer et configurer Apache Hadoop.
- Comprendre les quatre composants majeurs de l'écosystème Hadoop : HDFS, MapReduce, YARN et Hadoop Common.
- Utiliser le système de fichiers distribués Hadoop (HDFS) pour faire évoluer un cluster vers des centaines ou des milliers de nœuds.
- Configurer HDFS comme moteur de stockage pour les déploiements Spark sur site.
- Configurer Spark pour accéder à des solutions de stockage alternatives telles qu'Amazon S3 et des systèmes de base de données NoSQL tels que Redis, Elasticsearch, Couchbase, Aerospike, etc.
- Exécuter des tâches administratives telles que le provisionnement, la gestion, la surveillance et la sécurisation d'un cluster Apache Hadoop.
Hortonworks Data Platform (HDP) for Administrators
21 HeuresCette formation en direct à Belgique (en ligne ou sur site) présente Hortonworks Data Platform (HDP) et accompagne les participants dans le déploiement de la solution Spark + Hadoop.
A l'issue de cette formation, les participants seront capables de :
- Utiliser Hortonworks pour exécuter de manière fiable Hadoop à grande échelle.
- Unifier les capacités de sécurité, de gouvernance et d'exploitation de Hadoop avec les flux de travail analytiques agiles de Spark.
- Utiliser Hortonworks pour étudier, valider, certifier et prendre en charge chacun des composants d'un projet Spark.
- Traiter différents types de données, notamment structurées, non structurées, en mouvement et au repos.
A Practical Introduction to Stream Processing
21 HeuresDans cette formation dirigée par un instructeur en <loc> ; (sur site ou à distance), les participants apprendront comment configurer et intégrer différents Stream Processing frameworks avec des systèmes de stockage de big data existants et des applications logicielles et microservices connexes.
A l'issue de cette formation, les participants seront capables de :
- Installer et configurer différents Stream Processing frameworks, tels que Spark Streaming et Kafka Streaming.
- Comprendre et sélectionner le framework le plus approprié pour le travail à effectuer.
- Traiter des données en continu, de manière concurrente et enregistrement par enregistrement.
- Intégrer les solutions Stream Processing aux bases de données existantes, aux entrepôts de données, aux lacs de données, etc.
- Intégrer la bibliothèque de traitement de flux la plus appropriée avec les applications d'entreprise et les microservices.
SMACK Stack for Data Science
14 HeuresCette formation en direct avec instructeur (en ligne ou sur site) s'adresse aux data scientists qui souhaitent utiliser la pile SMACK pour construire des plateformes de traitement de données pour des solutions big data.
A l'issue de cette formation, les participants seront capables de :
- Mettre en place une architecture de pipeline de données pour le traitement des big data.
- Développer une infrastructure de cluster avec Apache Mesos et Docker.
- Analyser les données avec Spark et Scala.
- Gérer les données non structurées avec Apache Cassandra.
Apache Spark Fundamentals
21 HeuresCette formation en direct (en ligne ou sur site) s'adresse aux ingénieurs qui souhaitent mettre en place et déployer un système Apache Spark de traitement de très grandes quantités de données.
A l'issue de cette formation, les participants seront capables de :
- Installer et configurer Apache Spark.
- Traiter et analyser rapidement de très grands ensembles de données.
- Comprendre la différence entre Apache Spark et Hadoop MapReduce et savoir quand utiliser l'un ou l'autre.
- Intégrer Apache Spark avec d'autres outils d'apprentissage automatique.
Apache Spark in the Cloud
21 HeuresLa courbe d'apprentissage d' Apache Spark augmente lentement au début, il faut beaucoup d'efforts pour obtenir le premier retour. Ce cours vise à passer à travers la première partie difficile. Après avoir suivi ce cours, les participants comprendront les bases d’ Apache Spark , ils différencieront clairement RDD de DataFrame, ils apprendront les API Python et Scala , ils comprendront les exécuteurs et les tâches, etc. En suivant également les meilleures pratiques, ce cours est fortement axé sur déploiement en nuage, Databricks et AWS. Les étudiants comprendront également les différences entre AWS EMR et AWS Glue, l'un des derniers services Spark d'AWS.
PUBLIC:
Ingénieur de données, DevOps , Data Scientist
Spark for Developers
21 HeuresOBJECTIF:
Ce cours présentera Apache Spark . Les étudiants apprendront comment Spark s'intègre dans l'écosystème du Big Data et comment utiliser Spark pour l'analyse de données. Le cours couvre le shell Spark pour l'analyse de données interactive, les composants internes de Spark, les API Spark, Spark SQL , le streaming Spark, ainsi que l'apprentissage automatique et graphX.
PUBLIC :
Développeurs / Analystes de données
Scaling Data Pipelines with Spark NLP
14 HeuresCette formation en Belgique (en ligne ou sur site) s'adresse aux data scientists et aux développeurs qui souhaitent utiliser Spark NLP, construit sur Apache Spark, pour développer, implémenter et mettre à l'échelle des modèles et des pipelines de traitement de texte en langage naturel.
A la fin de cette formation, les participants seront capables de :
- Mettre en place l'environnement de développement nécessaire pour commencer à construire des pipelines NLP avec Spark NLP.
- Comprendre les caractéristiques, l'architecture et les avantages de l'utilisation de Spark NLP.
- Utiliser les modèles pré-entraînés disponibles dans Spark NLP pour implémenter le traitement de texte.
- Apprendre à construire, entraîner et mettre à l'échelle les modèles Spark NLP pour des projets de production.
- Appliquer la classification, l'inférence et l'analyse des sentiments sur des cas d'utilisation réels (données cliniques, comportement des clients, etc.).
Python and Spark for Big Data (PySpark)
21 HeuresAu cours de cette formation en direct avec instructeur à Belgique, les participants apprendront à utiliser Python et Spark ensemble pour analyser les données volumineuses (big data) en travaillant sur des exercices pratiques.
A la fin de cette formation, les participants seront capables de :
- Apprendre à utiliser Spark avec Python pour analyser Big Data.
- Travailler sur des exercices qui imitent des cas réels.
- Utiliser différents outils et techniques pour l'analyse des big data en utilisant PySpark.
Python, Spark, and Hadoop for Big Data
21 HeuresCette formation en Belgique (en ligne ou sur site) est destinée aux développeurs qui souhaitent utiliser et intégrer Spark, Hadoop et Python pour traiter, analyser et transformer des ensembles de données complexes et volumineux.
A l'issue de cette formation, les participants seront capables de :
- Mettre en place l'environnement nécessaire pour commencer à traiter les big data avec Spark, Hadoop et Python.
- Comprendre les fonctionnalités, les composants de base et l'architecture de Spark et Hadoop.
- Apprendre à intégrer Spark, Hadoop et Python pour le traitement des big data.
- Explorer les outils de l'écosystème Spark (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka et Flume).
- Construire des systèmes de recommandation par filtrage collaboratif similaires à Netflix, YouTube, Amazon, Spotify et Google.
- Utiliser Apache Mahout pour mettre à l'échelle des algorithmes d'apprentissage automatique.
Apache Spark MLlib
35 HeuresMLlib est la bibliothèque d'apprentissage automatique (ML) de Spark. Son objectif est de rendre l'apprentissage pratique pratique évolutif et facile. Il comprend des algorithmes et des utilitaires d'apprentissage courants, notamment la classification, la régression, la mise en cluster, le filtrage collaboratif, la réduction de la dimensionnalité, ainsi que des primitives d'optimisation de niveau inférieur et des API de pipeline de niveau supérieur.
Il se divise en deux paquets:
spark.mllib contient l'API d'origine construite sur les RDD.
spark.ml fournit des API de niveau supérieur construites à partir de DataFrames pour la construction de pipelines ML.
Public
Ce cours s’adresse aux ingénieurs et aux développeurs qui souhaitent utiliser une bibliothèque de machines intégrée à Apache Spark