- Français
- English
GDT "EDP et Calcul Scientifique" du mardi 18 mai 2021
Equations HJB pour des problèmes de contrôle optimal avec contraintes sur l'état
(LMI, INSA Rouen)
Résumé: En contrôle optimal, le principe de Bellman permet de caractériser la fonction valeur comme l'unique solution de viscosité d'une EDP nonlinéaire de type Hamilton-Jacobi-Bellman. tte approche a le grand avantage de fournir le contrôle optimal (global) sous une forme de "boucle fermée", et la notion de solution de viscosité offre un cadre adéquat pour analyser les propriétés de la fonction valeur et les schémas numériques permettant de la calculer. Lorsque le problème de commande optimal est en présence de contraintes, la caractérisation de la fonction valeur devient plus délicate. Dans cet exposé, La caractérisation de la fonction valeur sera discutée dans le cas déterministe et ensuite dans le cas de contrôle stochastique.