Public visé
Ingénieurs, analystes, Data Scientists, Data Analysts, Data Steward, développeurs intéressés par le Deep Learning et les réseaux de neurones.
Prérequis
- Culture informatique générale
- Notions recommandées en probabilités et statistiques
Objectifs pédagogiques
À l’issue de cette formation, vous serez capable de :
- Distinguer les apports du Deep Learning et de l’IA
- Décrire les concepts du Machine Learning et l’évolution vers le Deep Learning
- Reconnaître les briques fondamentales (réseaux simples, convolutifs, récursifs)
- Identifier les modèles avancés (auto-encodeurs, GANs, apprentissage par renforcement)
- Mettre en oeuvre les bases théoriques et pratiques d’architecture neuronale
- Expliquer les méthodologies et limites des réseaux de neurones
Programme
Concepts fondamentaux
- Définitions IA, DL, ML et état de l’art
- Outils : Keras/TensorFlow, Caffe/PyTorch, Lasagne
- DeepMind
Bases théoriques et pratiques
- Fonctionnement des réseaux de neurones et rétro-propagation
- Descente de gradient et fonctions d’erreur (MSE, Binary Cross Entropy)
- Optimiseurs : SGD, RMSprop, Adam
- Hyperparamètres
Briques de base
- MLP, CNN, RNN
- Couches de convolution et pooling
- Modèles pré-entraînés : Xception, Inception, ResNet, VGG, LeNet
Modèles avancés
- Encodage (entier, one-hot, embedding)
- Auto-encodeurs et GAN
- Apprentissage par transfert et par renforcement
- GRU, LSTM, NLP
Méthodologies de mise en place
- Préparation et normalisation des données
- Régularisation et mise en production
- TensorFlow Hub et TensorFlow Serving
Points forts et limites
- Vanishing Gradient et erreurs d’architecture
- Distribution des réseaux
- Introduction aux machines quantiques
Modalités d’évaluation des acquis
- En cours de formation, par des études de cas ou des travaux pratiques
- Et, en fin de formation, par un questionnaire d’auto-évaluation