Plan du cours

JOUR 1 - RÉSEAUX NEURONAUX ARTIFICIELS

Introduction et structure des réseaux neuronaux artificiels.

  • [Neurones logiques et neurones artificiels.
  • Modèle d'un RNA.
  • Fonctions d'activation utilisées dans les RNA.
  • Classes typiques d'architectures de réseaux.

Mathematica Fondements et mécanismes d'apprentissage.

  • Révision de l'algèbre vectorielle et matricielle.
  • Concepts d'espace-état.
  • Concepts d'optimisation.
  • Apprentissage par correction d'erreur.
  • Apprentissage basé sur la mémoire.
  • Apprentissage hébraïque.
  • Apprentissage compétitif.

Perceptrons à couche unique.

  • Structure et apprentissage des perceptrons.
  • Classificateur de formes - introduction et classificateurs de Bayes.
  • Le perceptron en tant que classificateur de motifs.
  • Convergence du perceptron.
  • Limites d'un perceptron.

ANN feedforward.

  • Structures des réseaux feedforward multicouches.
  • Algorithme de rétropropagation.
  • Rétropropagation - formation et convergence.
  • Approximation fonctionnelle avec la rétropropagation.
  • Questions pratiques et de conception de l'apprentissage par rétropropagation.

Réseaux à fonction de base radiale.

  • Séparabilité des formes et interpolation.
  • Théorie de la régularisation.
  • Régularisation et réseaux RBF.
  • Conception et formation des réseaux RBF.
  • Propriétés d'approximation des RBF.

Apprentissage compétitif et ANN auto-organisé.

  • Procédures générales de regroupement.
  • Quantification du vecteur d'apprentissage (LVQ).
  • Algorithmes et architectures d'apprentissage compétitif.
  • Cartes de caractéristiques auto-organisées.
  • Propriétés des cartes de caractéristiques.

Systèmes flous Neural Networks.

  • Systèmes neuro-flous.
  • Historique des ensembles et de la logique flous.
  • Conception de tiges floues.
  • Conception d'ANNs floues.

Applications

  • Quelques exemples d'applications des réseaux neuronaux, leurs avantages et leurs problèmes seront discutés.

JOUR -2 APPRENTISSAGE AUTOMATIQUE

  • Le cadre d'apprentissage PAC
    • Garanties pour un ensemble d'hypothèses fini - cas cohérent
    • Garanties pour un ensemble d'hypothèses fini - cas incohérent
    • Généralités
      • Scénarios déterministes Scénarios stochastiques
      • Bruit de l'erreur de Bayes
      • Erreurs d'estimation et d'approximation
      • Sélection du modèle
  • Complexité de Radmeacher et VC - Dimension
  • Compromis biais - variance
  • Régularisation
  • Surajustement
  • Validation
  • Machines à vecteurs de support
  • Krigeage (régression par processus gaussien)
  • ACP et ACP à noyau
  • Cartes d'auto-organisation (SOM)
  • Espace vectoriel induit par le noyau
    • Noyaux de Mercer et métriques de similarité induites par les noyaux
  • Reinforcement Learning

JOUR 3 - APPRENTISSAGE PROFOND

Ce cours sera enseigné en relation avec les sujets couverts le jour 1 et le jour 2.

  • Régression logistique et Softmax
  • Autoencodeurs épars
  • Vectorisation, ACP et blanchiment
  • Apprentissage autodidacte
  • Réseaux profonds
  • Décodeurs linéaires
  • Convolution et mise en commun
  • Codage clairsemé
  • Analyse en composantes indépendantes
  • Analyse de corrélation canonique
  • Démonstrations et applications

Pré requis

Goo compréhension des mathématiques.

[Compréhension des statistiques de base.

Des compétences de base en programmation ne sont pas requises mais recommandées.

 21 Heures

Nombre de participants


Prix ​​par Participant

Nos clients témoignent (2)

Cours à venir

Catégories Similaires