Optimisation

Description

Programme (contenu détaillé) :

– Eléments d’analyse convexe: convexité, semi-continuité inférieure, notion de sous-différentiel, éléments d’analyse pour l’algorithmie (fonctions à gradient Lipschitz, forte convexité, conditionnement) 
– Conditions d’optimalité (conditions de Karush Kuhn Tucker, conditions suffisantes de second ordre) 
– Dualité Lagrangienne 
– Algorithmes pour l’optimisation différentiable sans contrainte et lien avec les EDO : généralités sur les méthodes de descente, algorithmes du gradient,  algorithmes de Newton et quasi-Newton. Etude de convergence et vitesse de convergence en fonction de la géométrie des fonctions à minimiser. 
– Algorithmes pour l’optimisation différentiable avec contrainte : SQP, méthodes de pénalisation, Lagrangien augmenté. 
– Optimisation convexe : comment la convexité permet d’améliorer les vitesses de convergence des algorithmes.  
– Algorithmes inertiels, accélération de Nesterov. Algorithmes de sous-gradient. Notion d’opérateur proximal, régularisation de Moreau, algorithmes proximaux. Méthodes de splitting: algorithme Forward Backward et accélération à la Nesterov (FISTA). Etude de convergence et vitesse de convergence sur la classe des fonctions convexes. 

Objectifs

A la fin de ce module, l'étudiant.e devra avoir compris et pourra expliquer (principaux concepts) :
- Les conditions d'existence et d'unicité des solutions d'un problème d'optimisation (optimisation différentiable sous contrainte, optimisation convexe non différentiable).
- Les conditions d'optimalité: points de Karush Kuhn Tucker dans le cas différentiable avec contraintes, CNS d'optimalité en optimisation convexe sans contrainte.
- Le principe de la dualité: dualité Lagrangienne, dualité de Fenchel-Rockafellar
- Les algorithmes de type gradient et Newton, et leurs résultats de convergence, les algorithmes classiques de l'optimisation sous contrainte: 
- Le principe général des algorithmes inertiels: accélération des algorithmes de gradient, généralisation au cas composite.

L'étudiant.e devra être capable de :
- Interpréter le comportement d'un algorithme comme discrétisation d'un système dynamique.
- Identifier des classes de problèmes d'optimisation et proposer des algorithmes adaptés en fonction de la géométrie des fonctions  à minimiser.
- Mettre en œuvre et calibrer numériquement ces algorithmes.

Pré-requis

Bases du calcul différentiel et de l’algèbre linéaire.  

Cours d’optimisation de 3ème année MIC 

Évaluation

L’évaluation des acquis d’apprentissage est réalisée en continu tout le long du semestre. En fonction des enseignements, elle peut prendre différentes formes : examen écrit, oral, compte-rendu, rapport écrit, évaluation par les pairs…

En bref

Crédits ECTS :

Nombre d’heures :

EN 1 Clic

Annuaire

ENT

Rejoindre
les équipes

Marchés publics

Soutenir l'excellence

Fondation
INSA
Taxe
apprentissage

INSA Toulouse
135 avenue de Rangueil
31077 Toulouse cedex 4
Tél : 05 61 55 95 13
Fax : 05 61 55 95 00

Logo Communauté d'universités et établissements de Toulouse
Logo Bienvenue En France

Dans un souci d'alléger le texte et sans aucune discrimination de genre, l'emploi du genre masculin est utilisé à titre épicène.

INSA Toulouse
Résumé de la politique de confidentialité

Ce site utilise des cookies afin que nous puissions vous fournir la meilleure expérience utilisateur possible. Les informations sur les cookies sont stockées dans votre navigateur et remplissent des fonctions telles que vous reconnaître lorsque vous revenez sur notre site Web et aider notre équipe à comprendre les sections du site que vous trouvez les plus intéressantes et utiles.
En cliquant sur "Accepter", vous acceptez l'utilisation de cookies en provenance de ce site ainsi que notre politique de protection des données personnelles.