> Formations > Technologies numériques > Big Data, Intelligence Artificielle > IA, Machine Learning, analyse de données > Formation Deep Learning et réseaux de neurones : les fondamentaux > Formations > Technologies numériques > Formation Deep Learning et réseaux de neurones : les fondamentaux
Formation incontournable

Deep Learning et réseaux de neurones : les fondamentaux

Deep Learning et réseaux de neurones : les fondamentaux

Télécharger au format pdf Partager cette formation par e-mail 2


La présentation de l'Intelligence Artificielle dans les grands médias relève souvent du fantasme. Ce séminaire vous permettra de clarifier les concepts clés des réseaux de neurones profonds (Deep Learning) ainsi que leurs différents domaines d'utilisation. Des démonstrations présenteront des cas d'utilisations variés.


Inter
Intra
Sur mesure

Séminaire en présentiel ou en classe à distance

Réf. DRN
Prix : 2750 € H.T.
  3j - 21h
Pauses-café et
déjeuners offerts




La présentation de l'Intelligence Artificielle dans les grands médias relève souvent du fantasme. Ce séminaire vous permettra de clarifier les concepts clés des réseaux de neurones profonds (Deep Learning) ainsi que leurs différents domaines d'utilisation. Des démonstrations présenteront des cas d'utilisations variés.

Objectifs pédagogiques
À l’issue de la formation, le participant sera en mesure de :
  • Comprendre les clés fondamentales d'une approche Machine ou Deep Learning
  • Maîtriser les bases théoriques et pratiques d'architecture et de convergence de réseaux de neurones
  • Connaître les différentes architectures fondamentales existantes et maîtriser leurs implémentations fondamentales
  • Maîtriser les méthodologies de mise en place de réseaux de neurones, les points forts et les limites de ces outils

Public concerné
Ingénieurs, Data Scientists désirant s'initier aux réseaux de neurones et au Deep Learning.

Prérequis
Avoir des bases en programmation. Avoir une bonne maîtrise des outils informatiques et des statistiques.

Programme de la formation

Introduction IA, Machine Learning et Deep Learning

  • Historique, concepts de base et applications de l'Intelligence Artificielle loin des fantasmes portés par ce domaine.
  • Intelligence collective : agréger une connaissance partagée par de nombreux agents virtuels.
  • Algorithmes génétiques : faire évoluer une population d'agents virtuels par sélection.
  • Machine Learning usuel : définition.
  • Types de tâches : Supervised Learning, Unsupervised Learning, Reinforcement Learning.
  • Types d'actions : classification, régression, clustering, estimation de densité, réduction de dimensionalité.
  • Exemples d'algorithmes Machine Learning : régression linéaire, Naive Bayes, Random Tree.
  • Machine Learning versus Deep Learning : pourquoi le ML reste aujourd'hui l'état de l'art (Random Forests & XGBoosts) ?

Concepts fondamentaux d'un réseau de neurones

  • Rappel de bases mathématiques.
  • Le réseau de neurones : architecture, fonctions d'activation et de pondération des activations précédentes...
  • L'apprentissage d'un réseau de neurones : fonctions de coût, back-propagation, stochastic gradient descent...
  • Modélisation d'un réseau de neurones : modélisation des données d'entrée et de sortie selon le type de problème.
  • Appréhender une fonction par un réseau de neurones. Appréhender une distribution par un réseau de neurones.
  • Data Augmentation : comment équilibrer un dataset ?
  • Généralisation des résultats d'un réseau de neurones.
  • Initialisations et régularisations d'un réseau de neurones : L1/L2 Regularization, Batch Normalization.
  • Optimisations et algorithmes de convergence.
Démonstration
Approximation d'une fonction et d'une distribution par un réseau de neurones.

Outils usuels Machine Learning et Deep Learning

  • Outils de gestion de donnée : Apache Spark, Apache Hadoop.
  • Outils Machine Learning usuel : Numpy, Scipy, Sci-kit.
  • Frameworks DL haut niveau : PyTorch, Keras, Lasagne.
  • Frameworks DL bas niveau : Theano, Torch, Caffe, Tensorflow.
Démonstration
Applications et limites des outils présentés.

Convolutional Neural Networks (CNN)

  • Présentation des CNNs : principes fondamentaux et applications.
  • Fonctionnement fondamental d'un CNN : couche convolutionnelle, utilisation d'un kernel, padding et stride...
  • Architectures CNN ayant porté l'état de l'art en classification d'images : LeNet, VGG Networks, Network in Network...
  • Utilisation d'un modèle d'attention.
  • Application à un cas de figure de classification usuel (texte ou image).
  • CNNs pour la génération : super-résolution, segmentation pixel à pixel.
  • Principales stratégies d'augmentation des Feature Maps pour la génération d'une image.
Etude de cas
Innovations apportées par chaque architecture CNN et leurs applications plus globales (convolution 1x1 ou connexions résiduelles).

Recurrent Neural Networks (RNN)

  • Présentation des RNNs : principes fondamentaux et applications.
  • Fonctionnement fondamental du RNN : hidden activation, back propagation through time, unfolded version.
  • Évolutions vers les GRU (Gated Recurrent Units) et LSTM (Long Short Term Memory).
  • Problèmes de convergence et vanising gradient.
  • Types d'architectures classiques : prédiction d'une série temporelle, classification...
  • Architecture de type RNN Encoder Decoder. Utilisation d'un modèle d'attention.
  • Applications NLP : word/character encoding, traduction.
  • Applications vidéo : prédiction de la prochaine image générée d'une séquence vidéo.
Démonstration
Différents états et évolutions apportées par les architectures Gated Recurrent Units et Long Short Term Memory.

Modèles générationnels : VAE et GAN

  • Présentation des modèles générationnels Variational AutoEncoder (VAE) et Generative Adversarial Networks (GAN).
  • Auto-encoder : réduction de dimensionnalité et génération limitée.
  • Variational AutoEncoder : modèle générationnel et approximation de la distribution d'une donnée.
  • Définition et utilisation de l'espace latent. Reparameterization trick.
  • Fondamentaux du Generative Adversarial Networks.
  • Convergence d'un GAN et difficultés rencontrées.
  • Convergence améliorée : Wasserstein GAN, BeGAN. Earth Moving Distance.
  • Applications de génération d'images ou de photographies, génération de texte, super résolution.
Démonstration
Applications des modèles générationnels et utilisation de l'espace latent.

Deep Reinforcement Learning

  • Reinforcement Learning.
  • Utilisation d'un réseau de neurones pour appréhender la fonction d'état.
  • Deep Q Learning : experience replay et application au contrôle d'un jeu vidéo.
  • Optimisations de la politique d'apprentissage. On-policy et off-policy. Actor critic architecture. A3C.
  • Applications : contrôle d'un jeu vidéo simple ou d'un système numérique.
Démonstration
Contrôle d'un agent dans un environnement défini par un état et des actions possibles.


Modalités pratiques
Méthodes pédagogiques;
Ce séminaire se base sur des présentations, des échanges et des études de cas. Des outils comme Lasagne ou Keras seront présentés.

Modalités d'évaluation
Le formateur évalue la progression pédagogique du participant tout au long de la formation au moyen de QCM, mises en situation, travaux pratiques…
Le participant complète également un test de positionnement en amont et en aval pour valider les compétences acquises.

Solutions de financement
Pour trouver la meilleure solution de financement adaptée à votre situation : contactez votre conseiller formation.
Il vous aidera à choisir parmi les solutions suivantes :
  • Le plan de développement des compétences de votre entreprise : rapprochez-vous de votre service RH.
  • Le dispositif FNE-Formation.
  • L’OPCO (opérateurs de compétences) de votre entreprise.
  • Pôle Emploi sous réserve de l’acceptation de votre dossier par votre conseiller Pôle Emploi.
  • Le plan de développement des compétences de votre entreprise : rapprochez-vous de votre service RH.
  • Le dispositif FNE-Formation.
  • L’OPCO (opérateurs de compétences) de votre entreprise.
  • Pôle Emploi sous réserve de l’acceptation de votre dossier par votre conseiller Pôle Emploi.

Avis clients
4,7 / 5
Les avis clients sont issus des évaluations de fin de formation. La note est calculée à partir de l’ensemble des évaluations datant de moins de 12 mois. Seules celles avec un commentaire textuel sont affichées.
GRÉGOIRE S.
15/03/22
5 / 5

Très bonne pédagogie. Très bonne écoute. Une constante envie d’approcher la théorie des besoins des participants. Un vrai plus.
VINCENT B.
15/03/22
5 / 5

Un survol intéressant de l’état de l’art, de l historique, des techniques avec en préambule une partie importante sur les fondamentaux. Un cours très bien construit selon moi qui permet de démystifier les réseaux de neurones. On ne devient pas expert en 3 jours, mais ça offre en tout cas une porte d’entrée intéressante sur le domaine.
STEPHANE F.
15/03/22
5 / 5

Un excellent tour d’horizon sur le deep learning. Les indications sur la mise en oeuvre, les travaux preparatoires sont la aussi extremement utiles. Ceci fait une liaison entre le monde "theroique" et l’utilisation industrielle future. L’animateur, qui manifestement domine le sujet sait aussi rendre les choses abordables pour un néophyte.




Horaires
En présentiel, les cours ont lieu de 9h à 12h30 et de 14h à 17h30.
Les participants sont accueillis à partir de 8h45. Les pauses et déjeuners sont offerts.
En classe à distance, la formation démarre à partir de 9h.
Pour les stages pratiques de 4 ou 5 jours, quelle que soit la modalité, les sessions se terminent à 15h30 le dernier jour.

Dates et lieux
Pour vous inscrire, sélectionnez la ville et la date de votre choix.
Du 23 au 25 août 2022 *
FR
Classe à distance
Session garantie
S’inscrire
Du 23 au 25 août 2022 *
FR
Paris La Défense
Session garantie
S’inscrire
Du 23 au 25 août 2022
FR
Genève
S’inscrire
Du 23 au 25 août 2022
FR
Lausanne
S’inscrire
Du 23 au 25 août 2022
FR
Luxembourg
S’inscrire
Du 23 au 25 août 2022
FR
Bruxelles
S’inscrire
Du 23 au 25 août 2022
FR
Bruxelles
S’inscrire
Du 11 au 13 octobre 2022
FR
Bruxelles
S’inscrire
Du 11 au 13 octobre 2022
FR
Bruxelles
S’inscrire
Du 11 au 13 octobre 2022
FR
Luxembourg
S’inscrire
Du 11 au 13 octobre 2022
FR
Lausanne
S’inscrire
Du 11 au 13 octobre 2022
FR
Genève
S’inscrire
Du 11 au 13 octobre 2022
FR
Paris La Défense
S’inscrire
Du 11 au 13 octobre 2022
FR
Classe à distance
S’inscrire
Du 20 au 22 décembre 2022
FR
Classe à distance
S’inscrire
Du 20 au 22 décembre 2022
FR
Paris La Défense
S’inscrire