Français
English
Mesures d'information extensives pour des suites de variables aléatoires
Salle de séminaires M.0.1
LMR, Université de Reims
Dans cet exposé, on s'intéresse à un critère de pertinence pour qu'une fonctionnelle d'entropie soit une mesure d'information adaptée à une suite de variables : l'extensivité, selon laquelle la suite des entropies marginales de la suite de variables croit (asymptotiquement) linéairement avec le nombre de coordonnées.
Dans un premier temps, on présente une classification des fonctionnelles d'entropies dites « quasi-power-log » selon leur régime de croissance asymptotique pour une famille de suites dites « quasi-puissantes », englobant, notamment, une large famille de chaînes de Markov ergodiques. On déduit de cette classification qu'il existe trois familles de fonctionnelles extensives pour les suites quasi-puissantes: l'entropie de Shannon, les entropies de Rényi et les entropies « log-Taneja ».
Dans un second temps, on propose une méthode de construction de suites aléatoires tels qu'une fonctionnelle d'entropie donnée soit extensive pour ces suites, en modifiant la dynamique de marches aléatoires usuelles.