Lissage en ligne dans les modèles de Markov caché généraux

Jeudi 19 janvier 2023, 11:00 à 12:00

Salle des séminaires M.0.1

Pierre Gloaguen

AgroParisTech

On s’intéresse au cadre général des modèles de Markov caché, c’est-à-dire un modèle où les données observées sont supposées être une variable aléatoire dont la distribution dépend d’un processus stochastique non observé, qui est supposée être markovien. On considère le cas générique où le processus caché est à valeurs réelles (en dimension quelconque), et sa densité de transition est potentiellement inconnue. Dans ce contexte, nous cherchons à obtenire des estimateurs à faible variance d’espérances sous la loi conditionnelle des états cachés sachant les observations. Je présenterai une approche par méthode de Monte Carlo séquentiel qui permet de faire de l’estimation en ligne dans de tels modèles. Ensuite, je parlerai de travaux récents pour étudier les propriétés d’un estimateur alternatif obtenu par une approche variationnelle mieux adapté aux dimensions élevées. Cet exposé repose sur ces différents articles:
A pseudo-marginal sequential Monte Carlo online smoothing algorithm
Backward importance sampling for online estimation of state space models
Amortized backward variational inference in nonlinear state-space models