Optimisation

Description

Program (detailed contents):

– Elements of convex analysis: convexity, lower semi-continuity, notion of subdifferential, elements of analysis for algorithmic purposes (Lipschitz gradient functions, strong convexity, conditioning)  

– Optimality conditions (Karush Kuhn Tucker conditions, second order sufficient conditions)  

– Lagrangian duality  

– Algorithms for unconstrained differentiable optimization and link with ODEs: generalities on descent methods, gradient algorithms, Newton and quasi-Newton algorithms. Convergence study and convergence speed depending on the geometry of the functions to be minimized.  

– Algorithms for constrained differentiable optimization: SQP, penalization methods, augmented Lagrangian.  

– Convex optimization: how convexity can improve the convergence speed of algorithms.   

– Inertial algorithms, Nesterov acceleration. Subgradient algorithms. Notion of proximal operator, Moreau regularization, proximal algorithms. Splitting methods: Forward Backward algorithm and Nesterov acceleration (FISTA). Study of convergence and convergence rate on the class of convex functions. 

Objectifs

At the end of this module, the student will have understood and be able to explain (main concepts): 

* Existence and uniqueness conditions for solutions of an optimization problem (constrained differentiable optimization, non-differentiable convex optimization)  

* Optimality conditions: Karush Kuhn Tucker points in the constrained differentiable case, optimality NHA in unconstrained convex optimization.  

* The duality principle: Lagrangian duality, Fenchel-Rockafellar duality  

* Gradient and Newton type algorithms, and their convergence results, classical algorithms of constrained optimization:   

* The general principle of inertial algorithms: acceleration of gradient algorithms, generalization to the composite case. 

  

The student will be able to:  

- Interpret the behavior of an algorithm as a discretization of a dynamic system  
- Identify classes of optimization problems and propose algorithms adapted to the geometry of the functions to be minimized.  
- Implement and numerically calibrate these algorithms.

Pré-requis

Basics of differential calculus and linear algebra.  
3rd year MIC optimization course

Évaluation

L’évaluation des acquis d’apprentissage est réalisée en continu tout le long du semestre. En fonction des enseignements, elle peut prendre différentes formes : examen écrit, oral, compte-rendu, rapport écrit, évaluation par les pairs…

En bref

Crédits ECTS :

Nombre d’heures :

EN 1 Clic

Annuaire

ENT

Rejoindre
les équipes

Marchés publics

Soutenir l'excellence

Fondation
INSA
Taxe
apprentissage

INSA Toulouse
135 avenue de Rangueil
31077 Toulouse cedex 4
Tél : 05 61 55 95 13
Fax : 05 61 55 95 00

Logo Communauté d'universités et établissements de Toulouse
Logo Bienvenue En France

Dans un souci d'alléger le texte et sans aucune discrimination de genre, l'emploi du genre masculin est utilisé à titre épicène.

INSA Toulouse
Résumé de la politique de confidentialité

Ce site utilise des cookies afin que nous puissions vous fournir la meilleure expérience utilisateur possible. Les informations sur les cookies sont stockées dans votre navigateur et remplissent des fonctions telles que vous reconnaître lorsque vous revenez sur notre site Web et aider notre équipe à comprendre les sections du site que vous trouvez les plus intéressantes et utiles.
En cliquant sur "Accepter", vous acceptez l'utilisation de cookies en provenance de ce site ainsi que notre politique de protection des données personnelles.