Plan du cours
Introduction
Cette section fournit une introduction générale sur l'utilisation de l'apprentissage automatique, sur ce qu'il faut prendre en compte et sur ce que cela signifie, y compris les avantages et les inconvénients. Types de données (structurées/non structurées/statiques/en continu), validité/volume des données, analyse axée sur les données ou sur l'utilisateur, modèles statistiques ou modèles d'apprentissage automatique, défis de l'apprentissage non supervisé, compromis biais-variance, itération/évaluation, approches de validation croisée, supervisé/non supervisé/renforcement.
THÈMES PRINCIPAUX.
1. Comprendre les Bayes naïfs
- Concepts de base des méthodes bayésiennes
- Probabilité
- Probabilité conjointe
- Probabilité conditionnelle avec le théorème de Bayes
- L'algorithme naïf de Bayes
- La classification naïve de Bayes
- L'estimateur de Laplace
- Utilisation de caractéristiques numériques avec Bayes naïf
2. Comprendre les arbres de décision
- Diviser pour mieux régner
- L'algorithme de l'arbre de décision C5.0
- Choisir la meilleure division
- Élaguer l'arbre de décision
3. Comprendre les réseaux neuronaux
- Des neurones biologiques aux neurones artificiels
- Fonctions d'activation
- Topologie du réseau
- Le nombre de couches
- Le sens de circulation de l'information
- Le nombre de nœuds dans chaque couche
- Formation de réseaux neuronaux avec la rétropropagation
- Deep Learning
4. Comprendre les machines à vecteurs de support
- Classification à l'aide d'hyperplans
- Recherche de la marge maximale
- Le cas des données linéairement séparables
- Le cas des données séparables non linéaires
- Utilisation de noyaux pour les espaces non linéaires
5. Comprendre le regroupement
- Le regroupement en tant que tâche d'apprentissage automatique
- L'algorithme des k-moyennes pour le regroupement
- Utilisation de la distance pour affecter et mettre à jour les grappes
- Choix du nombre approprié de grappes
6. Mesurer les performances de la classification
- Travailler avec des données de prédiction de classification
- Regarder de plus près les matrices de confusion
- Utiliser les matrices de confusion pour mesurer les performances
- Au-delà de la précision &ndash ; d'autres mesures de performance
- La statistique kappa
- Sensibilité et spécificité
- Précision et rappel
- La mesure F
- Visualisation des compromis de performance
- Courbes ROC
- Estimation des performances futures
- La méthode d'attente
- Validation croisée
- Échantillonnage Bootstrap
7. Mise au point des modèles de stock pour une meilleure performance
- Utilisation de Caret pour l'ajustement automatisé des paramètres
- Création d'un modèle simple
- Personnaliser le processus de réglage
- Améliorer les performances du modèle avec le méta-apprentissage
- Comprendre les ensembles
- Mise en sac
- Boosting
- Forêts aléatoires
- Entraînement des forêts aléatoires
- Évaluer les performances des forêts aléatoires
THÈMES MINEURS
8. Comprendre la classification à l'aide des voisins les plus proches
- L'algorithme kNN
- Calcul de la distance
- Choix d'un k approprié
- Préparer les données pour l'utilisation de l'algorithme kNN
- Pourquoi l'algorithme kNN est-il paresseux ?
9. Comprendre les règles de classification
- Séparer pour mieux régner
- L'algorithme de la règle unique
- L'algorithme RIPPER
- Règles issues d'arbres de décision
10. Comprendre la régression
- Régression linéaire simple
- Estimation par les moindres carrés ordinaires
- Corrélations
- Régression linéaire multiple
11. Comprendre les arbres de régression et les arbres de modèle
- Ajouter la régression aux arbres
12. Comprendre les règles d'association
- L'algorithme Apriori pour l'apprentissage des règles d'association
- Mesurer l'intérêt &ndash ; le soutien et la confiance des règles
- Construire un ensemble de règles avec le principe d'Apriori
Extras
- Spark/PySpark/MLlib et les bandits à plusieurs bras
Nos clients témoignent (5)
Faire court et simple. Créer une intuition et des modèles visuels autour des concepts (arbre de décision, équations linéaires, calcul manuel de y_pred pour prouver le fonctionnement du modèle).
Nicolae - DB Global Technology
Formation - Machine Learning
Traduction automatique
Il m'a aidé à atteindre mon objectif de comprendre ML. J'ai beaucoup de respect pour Pablo pour avoir donné une introduction appropriée à ce sujet, car il devient évident après 3 jours de formation à quel point ce sujet est vaste. J'ai également beaucoup apprécié l'idée des machines virtuelles que vous avez fournies, qui avaient une très bonne latence ! Cela a permis à chaque participant de faire des expériences à son propre rythme.
Silviu - DB Global Technology
Formation - Machine Learning
Traduction automatique
La partie pratique, voir la théorie se matérialiser en quelque chose de concret, est géniale.
Lisa Fekade - Vodacom
Formation - Machine Learning
Traduction automatique
C'est vraiment génial que tout le matériel, y compris les exercices, soit sur la même page et qu'il soit mis à jour en temps réel. La solution est révélée à la fin. Cool ! De plus, je suis reconnaissant que Krzysztof ait fait un effort supplémentaire pour comprendre nos problèmes et nous avoir suggéré des techniques possibles.
Attila Nagy - L M ERICSSON LIMITED
Formation - Machine Learning
Traduction automatique
J'ai aimé les exercices pratiques.
Marcell Lorant - L M ERICSSON LIMITED
Formation - Machine Learning
Traduction automatique