Composante
École Nationale Supérieure d'Électrotechnique d'Électronique d'Informatique d'Hydraulique et des Télécommunications
Description
Il s’agira de présenter les différents développements de Taylor pour les applications entre deux espaces vectoriels de dimension finie. Seront notamment introduites les notions de matrice Hessienne, Jacobienne, de vecteur gradient.
Une taxonomie de problèmes d’optimisation sera présentée, permettant notamment aux étudiants de pouvoir situer leur problème par rapport aux outils théoriques et numériques permettant de résoudre les problèmes. Puis seront présentées les différentes relations que vérifient les extrema d’une fonction dérivable (gradient nul, inertie de la matrice Hessienne dans le cas sans contrainte), en insistant sur l ‘application rigoureuse des conditions nécessaires et suffisantes disponibles. L’accent est donc mis sur la compréhension de la structure du problème et l’utilisation précise des conditions mathématiques. Le découpage suivant a été proposé :
- Introduction classification des problèmes, convexité
- Existence unicité, minimum local/global, conditions nécessaires suffisantes d’ordre 1 et 2.
- Algorithmes d’optimisation basés sur Newton/Gauss-Newton/Gradient conjugué