Merci d'avoir envoyé votre demande ! Un membre de notre équipe vous contactera sous peu.
Merci d'avoir envoyé votre réservation ! Un membre de notre équipe vous contactera sous peu.
Plan du cours
1. Comprendre la classification à l'aide des voisins les plus proches
- L'algorithme kNN
- Calculer la distance
- Choisir un k approprié
- Préparer les données pour l'utilisation de l'algorithme kNN
- Pourquoi l'algorithme kNN est-il paresseux ?
2. Comprendre Bayes naïf
- Concepts de base des méthodes bayésiennes
- Probabilité
- Probabilité conjointe
- Probabilité conditionnelle avec le théorème de Bayes
- L'algorithme de Bayes naïf
- La classification naïve de Bayes
- L'estimateur de Laplace
- Utilisation de caractéristiques numériques avec Bayes naïf
3. Comprendre les arbres de décision
- Diviser pour régner
- L'algorithme d'arbre de décision C5.0
- Choisir la meilleure division
- Élaguer l'arbre de décision
4. Comprendre les règles de classification
- Séparer et conquérir
- L'algorithme de la règle unique
- L'algorithme RIPPER
- Règles des arbres de décision
5. Comprendre la régression
- Régression linéaire simple
- Estimation par les moindres carrés ordinaires
- Corrélations
- Régression linéaire multiple
6. Comprendre les arbres de régression et les arbres de modèle
- Ajouter la régression aux arbres
7. Comprendre les réseaux neuronaux
- Des neurones biologiques aux neurones artificiels
- Fonctions d'activation
- Topologie du réseau
- Le nombre de couches
- Le sens de circulation de l'information
- Le nombre de nœuds dans chaque couche
- Formation de réseaux neuronaux avec la rétropropagation
8. Comprendre les machines à vecteurs de support
- Classification avec des hyperplans
- Recherche de la marge maximale
- Le cas des données linéairement séparables
- Le cas des données séparables non linéaires
- Utilisation de noyaux pour les espaces non linéaires
9. Comprendre les règles d'association
- L'algorithme Apriori pour l'apprentissage des règles d'association
- Mesurer l'intérêt des règles - soutien et confiance
- Construire un ensemble de règles avec le principe d'Apriori
10. Comprendre le regroupement
- Le regroupement en tant que tâche d'apprentissage automatique
- L'algorithme des k-moyennes pour le regroupement
- Utiliser la distance pour affecter et mettre à jour les grappes
- Choisir le nombre approprié de grappes
11. Mesurer les performances de la classification
- Travailler avec des données de prédiction de classification
- Regarder de plus près les matrices de confusion
- Utiliser les matrices de confusion pour mesurer les performances
- Au-delà de la précision - d'autres mesures de performance
- La statistique kappa
- Sensibilité et spécificité
- Précision et rappel
- La mesure F
- Visualisation des compromis de performance
- Courbes ROC
- Estimation des performances futures
- La méthode d'attente
- Validation croisée
- Échantillonnage Bootstrap.
12. Ajuster les modèles de stocks pour une meilleure performance
- Utilisation de Caret pour l'ajustement automatisé des paramètres
- Création d'un modèle simple
- Personnaliser le processus de réglage
- Améliorer la performance des modèles avec le méta-apprentissage
- Comprendre les ensembles
- Mise en sac
- Boosting
- Forêts aléatoires
- Entraînement des forêts aléatoires
- Évaluer les performances des forêts aléatoires
13. Deep Learning
- Trois classes de Deep Learning
- Autoencodeurs profonds
- Réseaux profonds Neural Networks pré-entraînés
- Réseaux d'empilage profonds
14. Discussion sur les domaines d'application spécifiques
21 Heures
Nos clients témoignent (1)
Very flexible.