Deep Learning | les fondamentaux Mixte : présentiel / à distance

Dernière mise à jour : 09/10/2024

Bannière visuelle de présentation de la formation

Pré-inscription

Valider la pré-inscription

Présentation

Dans cette formation au deep learning, vous allez découvrir les réseaux de neurones, les outils essentiels, ainsi que des architectures avancées comme les CNN et RNN. Apprenez à utiliser des modèles générationnels tels que GAN et VAE, et explorez le deep reinforcement learning pour optimiser le contrôle d'agents. Des démonstrations pratiques accompagnent chaque section pour une compréhension claire des applications et des limites de ces technologies.

Eligible au financement OPCO

 

En savoir plus sur les dispositifs de financement

Objectifs

  • Comprendre les concepts de Machine Learning et l'évolution vers le Deep Learning (réseaux de neurones profonds)
  • Connaitre les briques de base du Deep Learning : réseaux de neurones simples, convolutifs et récursifs
  • Appréhender les modèles plus avancés : auto-encodeurs, gans, apprentissage par renforcement
  • Appréhender les bases théoriques et pratiques d'architecture et de convergence de réseaux de neurones
  • Comprendre les méthodologies de mise en place de réseaux de neurones, les points forts et les limites de ces outils

Programme

Introduction IA, Machine Learning et Deep Learning

  • L'histoire, les concepts de base et les applications de l'intelligence artificielle sont loin des fantasmes du domaine.
  • Intelligence collective:
  • Connaissances agrégées partagées par de nombreux agents virtuels.
  • Algorithme génétique:
  • Développer une population d'agents virtuels par sélection.
  • Apprentissage automatique normal :
  • sens.
  • Type de tâche : Apprentissage supervisé, apprentissage non supervisé, apprentissage par renforcement.
  • Type d'action: Classification, régression, clustering, estimation de densité, réduction de dimensionnalité.
  • Exemples d'algorithmes d'apprentissage automatique :
  • Régression linéaire, Bayes naïf, Arbres aléatoires.
  • Apprentissage automatique et apprentissage profond :
  • Pourquoi le ML est-il toujours à la pointe (forêts aléatoires et XGBoost) ?

 

Concepts fondamentaux d'un réseau de neurones

  • Rappel de base en mathématiques.
  • réseau neuronal:
  • Architectures, fonctions d'activation et poids d'activation précédents...
  • Formation d'un réseau de neurones :
  • Fonctions de coût, rétropropagation, descente de gradient stochastique...
  • Modélisation d'un réseau de neurones :
  • Modélisation des données d'entrée et de sortie selon le type de problème. Comprendre les fonctions avec les réseaux de neurones. Comprendre les distributions avec les réseaux de neurones. Croissance des données :
  • Comment équilibrer le jeu de données ?
  • Généralisation des résultats des réseaux de neurones. Initialisation et régularisation du réseau de neurones :
  • Régularisation L1/L2, normalisation batch.
  • Algorithmes d'optimisation et de convergence.

Démonstration : Fonctions d'ajustement et distributions à l'aide de réseaux de neurones.

 

Outils usuels Machine Learning et Deep Learning

  • Outils de gestion de donnée : Apache Spark, Apache Hadoop.
  • Outils Machine Learning usuel : Numpy, Scipy, Sci-kit.
  • Frameworks DL haut niveau : PyTorch, Keras, Lasagne.
  • Frameworks DL bas niveau : Theano, Torch, Caffe, Tensorflow. Démonstration
  • Applications et limites des outils présentés.

 

Convolutional Neural Networks (CNN)

  • Principes fondamentaux et applications.
  • Fonctionnement fondamental d'un CNN : couche convolutionnelle, utilisation d'un kernel, padding et stride...
  • Architectures CNN ayant porté l'état de l'art en classification d'images : LeNet, VGG Networks, Network in Network...
  • Utilisation d'un modèle d'attention.
  • Application à un cas de figure de classification usuel (texte ou image).
  • CNNs pour la génération : super-résolution, segmentation pixel à pixel.
  • Principales stratégies d'augmentation des Feature Maps pour la génération d'une image.

Etude de cas : Innovations apportées par chaque architecture CNN et leurs applications plus globales (convolution 1x1 ou connexions résiduelles).

 

Recurrent Neural Networks (RNN)

  • Présentation des RNNs : principes fondamentaux et applications.
  • Caractéristiques de base des RNN : activations cachées, rétropropagation dans le temps, versions dépliées.
  • Développement pour GRU (Gated Recurrent Units) et LSTM (Long Short Term Memory).
  • Problèmes de convergence et gradients de fuite.
  • Types d'architecture classique : prévision de séries temporelles, classification... Architecture codeur-décodeur RNN. Utilisation de modèles en vedette.
  • Applications NLP : encodage de mots/caractères, traduction.
  • Application NLP : prédiction de la prochaine image générée d'une séquence vidéo.

Démonstration : Différents états et évolutions apportées par les architectures Gated Recurrent Units et Long Short Term Memory.

 

 

Modèles générationnels : VAE et GAN

  • Présentation des modèles générationnels Variational AutoEncoder (VAE) et Generative Adversarial Networks (GAN).
  • Auto-encoder : réduction de dimensionnalité et génération limitée.
  • Variational AutoEncoder : modèle générationnel et approximation de la distribution d'une donnée.
  • Définition et utilisation de l'espace latent. Reparameterization trick.
  • Fondamentaux du Generative Adversarial Networks. Convergence d'un GAN et difficultés rencontrées.
  • Convergence améliorée : Wasserstein GAN, BeGAN. Earth Moving Distance.
  • Applications de génération d'images ou de photographies, génération de texte, super résolution.

Démonstration : Applications des modèles générationnels et utilisation de l'espace latent.

Deep Reinforcement Learning

  • Reinforcement Learning.
  • Utilisation d'un réseau de neurones pour appréhender la fonction d'état.
  • Deep Q Learning : experience replay et application au contrôle d'un jeu vidéo.
  • Optimisations de la politique d'apprentissage. On-policy et off- policy. Actor critic architecture. A3C.
  • Applications : contrôle d'un jeu vidéo simple ou d'un système numérique.

Démonstration : Contrôle d'un agent dans un environnement défini par un état et des actions possibles.

Prérequis

  • Avoir des bases en programmation et une bonne maîtrise des outils informatiques et statistiques,
  • Connaitre les bases du Machine Learning est recommandé.

Modalités pédagogiques

Docaposte Institute propose plusieurs dispositifs pédagogiques adaptés aux apprenants :

  • Formation en présentiel
    • En groupe (inter-entreprises ou intra-entreprise)
    • En individuel (monitorat)
    • En journée ou en cours du soir (sur demande spécifique)
  • Formation en distanciel
    • Distanciel synchrone
    • Distanciel asynchrone

Moyens et supports pédagogiques

  • Apports des connaissances communes.
  • Mises en situation sur le thème de la formation et des cas concrets.
  • Méthodologie d'apprentissage attractive, interactive et participative.
  • Equilibre théorie / pratique : 60 % / 40 %.
  • Supports de cours fournis au format papier et/ou numérique.
  • Ressources documentaires en ligne et références mises à disposition par le formateur.
  • Pour les formations en présentiel dans les locaux mis à disposition, les apprenants sont accueillis dans une salle de cours équipée d'un réseau Wi-Fi, d'un tableau blanc ou paperboard. Un ordinateur avec les logiciels appropriés est mis à disposition (le cas échéant).

Modalités d'évaluation et de suivi

En amont de la formation

  • Recueil des besoins des apprenants afin de disposer des informations essentielles au bon déroulé de la formation (profil, niveau, attentes particulières...).
  • Auto-positionnement des apprenants afin de mesurer le niveau de départ.

 

Tout au long de la formation

  • Évaluation continue des acquis avec des questions orales, des exercices, des QCM, des cas pratiques ou mises en situation...

 

A la fin de la formation

  • Auto-positionnement des apprenants afin de mesurer l'acquisition des compétences.
  • Evaluation par le formateur des compétences acquises par les apprenants.
  • Questionnaire de satisfaction à chaud afin de recueillir la satisfaction des apprenants à l'issue de la formation.
  • Questionnaire de satisfaction à froid afin d'évaluer les apports ancrés de la formation et leurs mises en application au quotidien.

Accessibilité

Nos formations peuvent être adaptées à certaines conditions de handicap. Nous contacter pour toute information et demande spécifique.
  • Catégorie : Technologies
    Sous-Catégorie : IA Data
  • Durée : 14h
  • Prix : 2 650 € HT
    Prix INTRA : Nous consulter
  • Référence : MOD_2023584
  • Satisfaction :
    ★★★★★
    ★★★★★
  • Télécharger le programme

Accessibilité à nos formations

Si vous êtes en situation de handicap, contactez-nous avant le début de votre formation pour que nous puissions vous orienter efficacement et vous accueillir dans les meilleures conditions.

Inscription possible jusqu'à 10 jours avant le démarrage de la formation

Prochaines Sessions

  • 25/11/24 → 26/11/24 Nouveauté À distance
    Classe virtuelle 8 places restantes

Dans la même catégorie