Apprentissage Profond
Description
Dans cette demi-UE, un bref rappel des notions de base de l'apprentissage supervisé sera tout d'abord effectué. Puis nous introduirons les réseaux de neurones et les fonctions d'activation. Nous expliquerons comment entraîner les réseaux de neurones par descente de gradient, en introduisant les fonctions de coût et l'algorithme de rétro-propagation du gradient.
Dans un second temps, nous introduirons les réseaux de neurones convolutifs, ainsi que leurs applications en traitement d'image. Enfin nous détaillerons des architectures convolutives avancées de l'état de l'art.
Le cours s'accompagne de TPs (7 au total) d'illustration et de mise en pratique des notions de cours. Après un TP sur la classification binaire et un second TP sur la régression, les 5 TP restants détaillent des problèmes de traitement d'image (classification d'image, estimation de posture, détection d'objet) et différentes méthodes de résolution de ces problèmes.
Enfin, les étudiants doivent mettre à profit les notions vues en cours dans un projet de classification d'image qu'ils auront eux-mêmes choisi, et pour lequel ils doivent constituer leur base de données d'apprentissage.
Bibliographie
Goodfellow, I., Bengio, Y., Courville, A., & Bengio, Y. (2016). Deep learning (Vol. 1). Cambridge: MIT press.
Session 1 ou session unique - Contrôle des connaissances
Modalité | Nature | Coefficient | Remarques |
---|---|---|---|
CT (contrôle terminal) | Oral/Ecrit | 100% | Apprentissage Profond |
Session 2 - Contrôle des connaissances
Modalité | Nature | Coefficient | Remarques |
---|---|---|---|
CT (contrôle terminal) | Oral/Ecrit | 100% | Apprentissage Profond |
Contact(s)
CARLIER AXELLieu(x)
- Toulouse