Merci d'avoir envoyé votre demande ! Un membre de notre équipe vous contactera sous peu.
Merci d'avoir envoyé votre réservation ! Un membre de notre équipe vous contactera sous peu.
Plan du cours
JOUR 1 - RÉSEAUX NEURONAUX ARTIFICIELS
Introduction et structure des réseaux neuronaux artificiels.
- [Neurones logiques et neurones artificiels.
- Modèle d'un RNA.
- Fonctions d'activation utilisées dans les RNA.
- Classes typiques d'architectures de réseaux.
Mathematica Fondements et mécanismes d'apprentissage.
- Révision de l'algèbre vectorielle et matricielle.
- Concepts d'espace-état.
- Concepts d'optimisation.
- Apprentissage par correction d'erreur.
- Apprentissage basé sur la mémoire.
- Apprentissage hébraïque.
- Apprentissage compétitif.
Perceptrons à couche unique.
- Structure et apprentissage des perceptrons.
- Classificateur de formes - introduction et classificateurs de Bayes.
- Le perceptron en tant que classificateur de motifs.
- Convergence du perceptron.
- Limites d'un perceptron.
ANN feedforward.
- Structures des réseaux feedforward multicouches.
- Algorithme de rétropropagation.
- Rétropropagation - formation et convergence.
- Approximation fonctionnelle avec la rétropropagation.
- Questions pratiques et de conception de l'apprentissage par rétropropagation.
Réseaux à fonction de base radiale.
- Séparabilité des formes et interpolation.
- Théorie de la régularisation.
- Régularisation et réseaux RBF.
- Conception et formation des réseaux RBF.
- Propriétés d'approximation des RBF.
Apprentissage compétitif et ANN auto-organisé.
- Procédures générales de regroupement.
- Quantification du vecteur d'apprentissage (LVQ).
- Algorithmes et architectures d'apprentissage compétitif.
- Cartes de caractéristiques auto-organisées.
- Propriétés des cartes de caractéristiques.
Systèmes flous Neural Networks.
- Systèmes neuro-flous.
- Historique des ensembles et de la logique flous.
- Conception de tiges floues.
- Conception d'ANNs floues.
Applications
- Quelques exemples d'applications des réseaux neuronaux, leurs avantages et leurs problèmes seront discutés.
JOUR -2 APPRENTISSAGE AUTOMATIQUE
- Le cadre d'apprentissage PAC
- Garanties pour un ensemble d'hypothèses fini - cas cohérent
- Garanties pour un ensemble d'hypothèses fini - cas incohérent
- Généralités
- Scénarios déterministes Scénarios stochastiques
- Bruit de l'erreur de Bayes
- Erreurs d'estimation et d'approximation
- Sélection du modèle
- Complexité de Radmeacher et VC - Dimension
- Compromis biais - variance
- Régularisation
- Surajustement
- Validation
- Machines à vecteurs de support
- Krigeage (régression par processus gaussien)
- ACP et ACP à noyau
- Cartes d'auto-organisation (SOM)
- Espace vectoriel induit par le noyau
- Noyaux de Mercer et métriques de similarité induites par les noyaux
- Reinforcement Learning
JOUR 3 - APPRENTISSAGE PROFOND
Ce cours sera enseigné en relation avec les sujets couverts le jour 1 et le jour 2.
- Régression logistique et Softmax
- Autoencodeurs épars
- Vectorisation, ACP et blanchiment
- Apprentissage autodidacte
- Réseaux profonds
- Décodeurs linéaires
- Convolution et mise en commun
- Codage clairsemé
- Analyse en composantes indépendantes
- Analyse de corrélation canonique
- Démonstrations et applications
Pré requis
Goo compréhension des mathématiques.
[Compréhension des statistiques de base.
Des compétences de base en programmation ne sont pas requises mais recommandées.
21 Heures