Estimation non paramétrique pour des problèmes mal spécifiés non i.i.d.

Jeudi 21 mars 2019, 10:15 à 11:15

Salle de séminaires M.0.1

Luc Lehéricy

Laboratoire de Mathématiques d'Orsay, Université Paris Sud

Les modèles de Markov cachés (HMM pour hidden Markov models en anglais) ont été introduits pour étudier des séries temporelles présentant des dépendances complexes entre observations. L'idée centrale est que les observations sont une version bruitée d'un processus markovien non observé. Toute la richesse et la complexité des modèles de Markov cachés vient du fait que ce processus observé n'est plus markovien.

Dans cet exposé, je présenterai une méthode pour contrôler les propriétés de l'estimateur du maximum de vraisemblance (EMV) non paramétrique pour les modèles de Markov cachés. Outre l'EMV, cette méthode permet de traiter d'autres estimateurs fondés sur un critère pénalisé et peut se transposer à des modèles présentant des dépendances complexes autres que les HMMs. Elle exploite des propriétés génériques (mélange fort et oubli des condition initiales) des modèles et de la vraie loi des observations, ce qui permet de traiter le cadre mal spécifié, où la vraie loi n'est pas forcément décrite par un modèle de Markov caché. J'illustrerai l'intérêt de ce résultat pour l'estimation d'un processus à variable latente continue : les modèles de Markov cachés de translation.

 

L'exposé rentre dans le cadre de l'ANR SMILES (ANR-18-CE40-0014).