Exposé

Modèles de Markov cachés dérivants: théorie, inférence et évaluation basée sur la simulation

Mardi, 9 décembre 2025 - 14:00

Cette présentation se concentre sur la modélisation et l'analyse de séries temporelles des données à structures latentes à l'aide de modèles de Markov cachés dérivants (Hidden Drifting Markov Models (HDMMs)). Nous commençons par un aperçu théorique des HDMMs, en soulignant leurs composants clés et leurs hypothèses probabilistes. Nous détaillons ensuite deux méthodes d'inférence de base : l'algorithme EM (Expectation-Maximization) pour l'estimation des paramètres et l'algorithme de Viterbi pour le décodage de la séquence la plus probable d'états cachés.

Flots de gradient dans l'espace euclidien, les espaces métriques ou les espaces de Wasserstein

Flots de gradient dans l'espace euclidien, les espaces métriques ou les espaces de Wasserstein

Jeudi, 4 décembre 2025 - 11:30 - 12:30

Cet exposé de colloquium sera une introduction au sujet des flots de gradient, une classe d'équations d'évolution d'origine variationnelle (c'est-à-dire, liées à des problèmes d'optimisation). Je présenterai d'abord le cas le plus simple, celui des courbes dans l'espace euclidien R^n, pour montrer ensuite comment créer une théorie dans le cadre des espaces métriques, où la difficulté réside surtout dans la notion de solution, puisque ni la dérivée d'une courbe, ni le gradient d'une fonction ont un sens dans un cadre si général.

Réduction de dimension pour l'estimation de l'indice des valeurs extrêmes conditionel

Jeudi, 15 janvier 2026 - 10:15 - 11:15

Dans ce travail, nous étudions un modèle de régression visant à décrire le comportement des valeurs extrêmes d’une variable Y à partir de covariables X. Nous proposons une méthode de réduction de dimension spécialement conçue pour les queues de distribution, permettant de surmonter le fléau de la grande dimension et d’améliorer l’estimation de l’indice des valeurs extrêmes conditionnel.

 

Le schéma JKO entropique

Mardi, 4 novembre 2025 - 11:30 - 12:30

Le schéma JKO (pour Jordan, Kinderlehrer, Otto, 1996) est un schéma de 
type Euler implicite permettant de construire de façon variationnelle 
des solutions faibles d'équations de diffusion non-linéaire en 
s'appuyant sur leur structure de flot de gradient dans l'espace de 
Wasserstein. En 2015, Peyré en a proposé une version nommée entropique 
qui, bien que ne fournissant que des solutions approchées du problème 
originel, donne lieu à des calculs numériques redoutablement efficaces, 

Asymptotically Efficient Stochastic Newton Method with First Order Cost for Online Convex Optimization

Mardi, 14 octobre 2025 - 14:00

Stochastic Newton methods capable of achieving asymptotic efficiency have historically required a per-iteration cost of O(d3) for problems of dimension d. This presentation will first review the concept of asymptotic efficiency, the statistical benchmark for an optimal estimator. We then introduce an online algorithm that achieves this same statistical optimality with a reduced per-iteration cost of O(ℓd2), where the mask size ℓ can be chosen

Limites d'arbres aléatoires à catastrophes locales

Lundi, 15 décembre 2025 - 11:00 - 12:00

Résumé : Dans cet exposé, je présenterai un nouveau modèle d'arbres aléatoires qui généralise les arbres de Bienaymé-Galton-Watson (BGW), en autorisant des corrélations spatiales entre les morts des individus, à travers des "catastrophes locales". En particulier, contrairement aux arbres de BGW, ce modèle ne satisfait plus la propriété de branchement.

Pages