Laboratoire de Mathématiques Raphaël Salem
SÉMINAIRE 

Un séminaire ouvert à tous est organisé chaque jeudi à 10H45. La salle du séminaire est située au troisième étage de l'ancien bâtiment EDF, place Colbert à Mont-Saint-Aignan. (Voir le plan d'accès)

 Chaque exposé dure environ 50 minutes, les dix dernières minutes étant réservées à la discussion.

Elise JANVRESSE et Ellen SAADA sont chargées de l'organisation du séminaire.

Voir le programme de

Programmes des saisons antérieures :


Octobre 2002


Jeudi 03 octobre 2002

Rym WORMS (LMRS, Rouen)
Méthode des excès pour l'estimation des queues de distributions.

La méethode des excès, en anglais P.O.T. (Peaks Over Threshold) consiste à utiliser la loi de Pareto généralisée G{\gamma,\sigma(u)} pour approximer la loi Fu des excès au-delà d'un seuil élevé. Elle est basée sur le résultat asymptotique suivant établi par Pickands en 1975 :
lorsque u ---> s+(F),   Sup{x \in [0, s+(F)-u [}   | Fu(x) - G{\gamma,\sigma(u)}(x) |   ---> 0, où s+(F) est le point terminal de la loi inconnue F.

Nous utilisons les estimateurs des moments pondérés de Hosking et Wallis pour estimer les deux paramètres de la loi de Pareto généralisée. Nous nous intéressons au comportement asymptotique de ces estimateurs.


Jeudi 24 octobre 2002

Marie-Paule LECOUTRE et Katia ROVIRA (Psy.Co, Rouen)
Qu'entend-on par "hasard" ?
Interprétations intuitives et degré d'expertise en probabilités.

Référence :
Qu'entend-on par "hasard" ? Interprétations intuitives et degré d'expertise en probabilités.
Marie-Paule Lecoutre (1), Katia Rovira (2), Bruno Lecoutre (3) et Jacques Poitevineau (4)
(1) ERIS, Laboratoire Psy.Co, EA 1780, Université de Rouen
(2) Laboratoire Psy.Co, EA 1780, Université de Rouen
(3) ERIS, Laboratoire de Mathématiques R. Salem, UMR 6085 CNRS et Université de Rouen
(4) ERIS, LCPE, FRE2173 CNRS, Paris

Le hasard est une notion particulièrement complexe et ambigüe qui a donné et continue de donner lieu à de nombreuses interprétations. Au dix-neuvième siècle, en accord avec la conception Laplacienne déterministe du monde, le hasard est le nom donné à l'ignorance d'une personne dans un univers entièrement déterminé : il s'agit en quelque sorte d'un hasard ``par ignorance''. Au contraire, quelques théories plus contemporaines, et en particulier celles issues de la physique quantique, reposent sur l'idée selon laquelle le comportement des particules est fondamentalement probabiliste : le hasard est ici dans l'essence même des choses. Dès le dix-septième siècle les mathématiciens ont utilisé le concept de probabilité pour formaliser le concept de hasard. De nos jours dans la communauté le concept de probabilité a au moins deux principales interprétations : (1)~une interprétation dite ``fréquentiste'' ou ``objectiviste'', selon laquelle la probabilité renvoie à des fréquences objectives de réalisations d'événements; (2)~une interprétation plus large dite ``subjectiviste'', selon laquelle la probabilité traduit un degré de confiance dans la vérité d'une proposition.

L'objectif principal ici est d'apporter des éléments de réponses aux questions suivantes. Que mettent spontanément les gens derrière le mot ``hasard''? Existe-t-il des interprétations dominantes? Dans l'affirmative, dans quelle mesure sont-elles liées à un degré d'expertise (ou de connaissance) en probabilités? Enfin, sont-elles plus ou moins proches de certaines conceptualisations probabilistes ?

Partant du principe que la façon dont un sujet classe un matériel permet d'avoir accès à ses représentations, nous avons construit une situation de catégorisation de situations d'incertitude. 16 situations ont été considérées; 8 d'entre elles sont des situations dites ``réelles'' inspirées d'expériences de la vie quotidienne (par exemple le fait d'attraper un rhume dans le courant du mois prochain), et les 8 autres sont des situations dites ``stochastiques'' qui impliquent soit des processus répétables (par exemple le lancer d'un dé), soit des tirages au sort. L'expérience se déroule en deux phases successives. Dans la phase 1, le sujet doit classer les 16 situations sans aucune contrainte, la notion de hasard n'est pas explicite (``catégorisation libre''). Dans la phase 2, le sujet doit dire pour chacune des 16 situations si selon lui le hasard intervient ou non, la notion de hasard est alors explicite (``catégorisation contrainte''). Trois groupes de 20 sujets chacun se différenciant notamment selon leur degré d'expertise en probabilités ont participé à l'expérience : (1)~20 collégiens en classe de troisième; (2)~20 enseignants-chercheurs en psychologie; (3)~20 enseignants-chercheurs en mathématiques.

Un résultat essentiel est qu'il existe une grande variabilité inter individuelle, aussi bien entre les groupes qu'à l'intérieur de chacun des trois groupes: sur l'ensemble des deux phases tous les patrons de réponses sont différents. Cependant, on peut dégager trois résultats généraux. (1)~Dans chacune des deux phases, tous les sujets classent séparément les items stochastiques et les items réels. (2)~On observe un changement des classifications entre les deux phases. Ainsi, le fait de rendre explicite la notion de hasard conduit le sujet à activer des connaissances différentes, ce qui entraîne un changement de point de vue sur les situations considérées. (3)~Il existe quelques interprétations du hasard dominantes, mais d'autres apparaissent spécifiquement liées au degré d'expertise en probabilité des sujets.


Novembre 2002


Jeudi 07 novembre 2002

Dominique CELLIER (LMRS, Rouen)
Alignements de séquences: pour une réconciliation des méthodes probabilistes et combinatoires.

L'alignement de séquences biologiques (ADN, ARN, EST, protéines) constitue en général une première étape fondamentale dans l'analyse des ces dernières: recherche de séquences homologues dans les banques de données, détection de structures, de domaines ou de fonctions par génomique comparative, reconstruction phylogénétique.
L'approche classique de l'alignement de deux séquences est de type combinatoire: à partir d'un système de score nucléique ou de matrices de similarité protéique (PAM, BLOSUM) déterminer l'alignement (global ou local) de score maximum. Deux algorithmes de programmation dynamique (Needleman & Wunsch et Smith & Waterman) permettent de construire de manière exacte cet alignement optimal et des résultats sur les valeurs extrèmes permettent d'en déterminer la signification statistique (formule de Karlin, Z-score) base des programmes d'interrogation des banques de données (BLAST, FASTA).
Une alternative à cette approche est le développement de méthodes probabilistes dont les plus fréquentes actuellement sont celles d'alignement par chaînes de Markov cachées. Dans ce cas, pour un modèle ajusté au cours d'une phase d'apprentissage, l'alignement local ou global s'obtient par l'algorithme de Viterbi.

Après une présentation comparative de ces deux approches, nous verrons comment elles peuvent être reconciliées, tant au niveau algorithmique qu'au niveau statistique, grace aux modèles markoviens d'évolution sous-jacents aux matrices de score et à une certaine condition de conservation pour l'automate fini associé à l'alignement combinatoire.

Références bibliographiques :

- Durbin, R., Eddy, S., Krogh, A. and Mitchinson, G. (1998). Biological Sequence Analysis: Probabilistic Models of Proteins and Nucleic Acids. Cambridge University Press.
- Ewens, W.J. and Grant, G.R. (2001). Statistical Methods in Bioinformatics: an introduction. Springer.
- Yu, Y.K. and Hwa, T. (2001). Statistical Significance of Probabilistic Sequence Alignment and Related Local Hidden Markov Models. Journal of Computational Biology, vol. 8, nŽ3, pp 249-282


Jeudi 14 novembre 2002

Alexei TSYGVINTSEV (Loughborough University)
Fixed points of renormalization operators.

We study functional equations of the Feigenbaum type which occur in the theory of period-doubling cascades for families of unimodal maps of an interval with a single critical point. Our principal tool is the Herglotz function technique developed by H.Epstein and the analytic theory of continued fractions. The talk will also cover some related open and solved problems in this theory.


Jeudi 21 novembre 2002

Marzio CASSANDRO (Univ. La Sapienza, Roma)
Condensation de Bose dans la théorie du champ moyen.


Décembre 2002


Jeudi 05 décembre 2002

Jean-Michel ROQUEJOFFRE (Univ. Paul Sabatier, Toulouse)
Modèles asymptotiques de flammes en boule : propriétés qualitatives et dérivation rigoureuse.


Jeudi 12 décembre 2002

KABANOV, Yu. M. (Univ. Franche-Comte, Besancon)
Sur la solution de viscosité de l'équation de HJB d'un modèle d'un marché financier avec des coûts de transactions.

Nous considérons une équation de HJB qui provient d'un problème de gestion de portefeuilles avec coûts de transactions. Nous démontrons un théorème d'unicité de solution de viscosité qui repose sur l'existence d'une fonction de Liapounov.


Janvier 2003


Jeudi 9 janvier 2003

Paul DOUKHAN (ENSAE)
Dépendance faible: modélisation et utilisations.

Les méthodes d'analyse des séries chronologiques, fondées sur les propriétés de mélange ou sur les techniques de martingales ont des défauts variés, manque de souplesse d'utilisation ou insuffisance des modèles sous-jacents.
L'objectif de l'article de Doukhan & Louhichi (Stochastic Processes, 1999) était de proposer une solution intermédiaire évitant ces deux types d'écueils. Pour le démontrer nous proposons des classes d'exemples de telles séries chronologiques et l'utilisation de ces techniques dans différents types de problèmes asymptotiques.


Jeudi 16 janvier 2003

Eric OLIVIER
Sur les propriétés de Gibbs de la mesure d'Erdos.

La mesure d'Erdos est une distribution qui peut se définir comme la convolution d'une infinité de mesures de Bernoulli; elle est aussi liée à la numération dans la base du nombre d'or et possède une propriété d'auto-similarité. Nous verrons d'où viennent les propriétés de Gibbs de cette mesure et comment elles permettent l'analyse fine de sa structure multifractale.


Jeudi 23 janvier 2003

Vincent VIGON (Rouen)
Processus de Lévy sous les feux de la rampe.

Nous parlerons des trajectoires des processus de Lévy, en s'attardant sur les processus rampants.

1/ Définition de la reptation.
Un processus de Lévy rampe vers le haut s'il peut traverser continûment une altitude positive fixée. La reptation vers le haut résulte d'une forte domination des sauts positifs sur les sauts négatifs. Nous donnerons trois caractérisations de la reptation et définirons deux concepts de "super-reptation".

2/ Points faîtières.
Appelons "point faîtière" tout point de la trajectoire vérifiant : la dérivée de Dini inférieure à gauche de ce point est plus grande que la dérivée de Dini supérieure à droite de ce point. Nous définirons la "mesure symphonique" qui décrit tous les points faîtières d'un processus de Lévy. Les processus de Lévy rampant ont des point faîtières très abrupts.

3/ Extrema.
Pour décrire le comportement d'un processus de Lévy en ses extrema locaux, il est pratique de construire un processus "X-flèche" qui a même loi que le processus de Lévy démarré à partir de son minimum global. Nous donnerons deux méthodes pour construire X-flèche et nous utiliserons ce processus pour décrire le taux de croissance d'un processus de Lévy en ses extrema locaux. Nous nous pencherons en particulier sur les processus stables et rampants.


Jeudi 30 janvier 2003

Samuel BITON (Univ. Tours)
Résultats d'unicité pour l'évolution des graphes par courbure moyenne.

En 1991, les géomètres K. Ecker et G. Huisken ont obtenu le résultat d'existence pour tout temps de l'évolution par courbure moyenne d'un graphe, sans condition sur la croissance à l'infini de celui-ci. Il s'en suit un problème d'unicité de cette évolution dans ce même cadre - tout à fait inhabituel du point de vue des équations aux dérivées partielles. Nous donnons quelques résultats concernant ce problème encore ouvert dans sa généralité.


Février 2003


Jeudi 06 février 2003

Raouf CHOUIKHA (Paris 13)
Une généralisation de l'inégalité de Bonnesen dans le plan.


Jeudi 13 février 2003

Sylvain POIRIER
La Relativité restreinte rendue intuitive.

Présentation des principales idées d'un cours novateur d'initiation à la relativité restreinte (disponible à l'adresse http://spoirier.lautre.net/). Le plus gros du travail y consiste à expliquer sous ses aspects tant philosophiques que mathématiques comment baser la compréhension de cette théorie sur l'intuition et les outils de la géométrie. Ceci en remplacement de l'intuition et du langage inadaptés de l'espace-temps classique auxquelles les présentations traditionnelles sont encore liées, et qui ont souvent valu à tort à cette théorie la réputation d'être calculatoire et contre-intuitive.


Jeudi 20 février 2003

Livio TRIOLO (Rome II)
Modèles mathématiques pour la croissance tumorale.


Mars 2003


Jeudi 6 mars 2003

Jean-Pierre RAOULT (Univ. Marne la Vallée, Paris 12)
Un algorithme de calcul de probabilités conditionnelles dans les réseaux bayésiens.

Les réseaux bayésiens sont d'un usage de plus en plus fréquent dans les domaines qui font intervenir des schémas d'indépendance conditionnelle sur de grosses familles de variables aléatoires, en particulier quand il s'agit de formaliser des hypothèses émises en termes de causalité : fiabilité, modèles de diagnostics, gestion ...

Après une définition formelle générale, on présentera deux types d'algorithmes de calcul sur les réseaux bayésiens : les algorithmes d'inférence locale (Jensen, Spigelhalter) et les algorithmes d'inférence globale, par réseaux bayésiens de niveau 2 (Smail, Raoult);

On présentera la problématique de l'estimation d'un réseau bayésien à partir de données expérimentales et les principes de ces techniques d'ajustement.


Jeudi 13 mars 2003

Anne PHILIPPE (Univ. Lille)
Estimating the distribution of coefficients in a disaggregation scheme.

Granger (1981) a montré que l'agrégation de processus autorégressifs d'ordre 1 à coefficient aléatoire peut produire des processus gaussiens à longue mémoire. Nous étudions le problème d'estimation de la loi de mélange pour des processus obtenus par agrégation. La méthode d'estimation repose sur le développement de la densité sur la base des polynômes orthogonaux de Gegenbauer. Sous certaines conditions, nous prouvons la convergence de l'erreur quadratique intégrée et la convergence uniforme.


Jeudi 20 mars 2003

Patrick DEHORNOY (Univ. Caen)
L'hypothèse du continu.


Jeudi 27 mars 2003

Nadine GUILLOTIN-PLANTARD (Lyon 1)
Statistique des systèmes dynamiques échantillonnés par une marche aléatoire.

Soit (E, A, m, T) un système dynamique où (E, A, m) est un espace de probabilité et T une transformation inversible préservant la mesure m.
Soit (Sk)k une marche aléatoire à valeurs dans Z. Soit f dans L2(m) et H dans ]0,1[.
Nous étudierons la convergence en loi de la suite N -H Ž k=0N-1 f o TSk, pour N > 0.
Plusieurs méthodes et exemples seront donnés.


Avril 2003


Jeudi 03 avril 2003

Serge PERGAMENCHTCHIKOV (Univ. Rouen)
Un théorème de renouvellement et son appliquation au problème extrêmal pour le processus autorégressif de type GARCH.

Dans cet exposé il s'agit d'un probleme extrêmal pour le modèle autorégressif de type GARCH. On utilise ce modèle en finance pour décrire le comportement du prix d'un actif risqué. Pour obtenir un théorème limite pour la valeur maximale de ce processus il faut étudier le comportement asymptotique de la queue de la distribution stationnaire. À l'aide d'un théorème de renouvellement, on montre que la queue de cette distribution est de type Pareto.


Jeudi 10 avril 2003

Henri HEINICH (INSA Rouen)
Problème de Monge.

Il s'agit de trouver une fonction f optimisant le transport d'une probabilité P vers une autre probabilité Q.
Après avoir vu quelques résultats classiques, on aborde le problème de Monge pour des espaces de Köthe, c'est-à-dire l'existence de f telle que
I (P,Q) : = inf
[ ||c(X,Y)||, L(X) = P, L(Y) = Q ] = ||c(X,f(X))||.
${\cal I}(P,Q) := \inf[ \|c(X,Y)\|, {\cal L}(X) = P, {\cal L}(Y) = Q ] = \|c(X,\phi(X))\|.$


Mai 2003


Jeudi 15 mai 2003

Jean-Bernard KOVARIK (Port Autonome de Rouen)
La sécurité des constructions : quelques outils mathématiques.


Jeudi 22 mai 2003

Nicolas LANCHIER (Université de Rouen)
Mesures stationnaires pour un modèle de succession écologique.

Nous introduirons, lors de cet exposé, un nouveau système de particules destiné à modéliser un exemple de succession écologique impliquant deux espèces : Fagus sylvatica L. ou hêtre européen et Pteridium aquilinum L. communément appelée fougère aigle. Les deux espèces se disputent les sites vacants, assimilables à des clairières, selon des stratégies évolutives fondamentalement différentes. En particulier, le passage direct de la fougère à la clairière est interdit, la transition de la fougère au hêtre étant, quant à elle, autorisée. Notre principal objectif sera d'exhiber les transitions de phases de ce processus en prouvant qu'il existe trois évolutions possibles du système vers des équilibres écologiques distincts. Plus précisément, la population peut disparaitre, le hêtre peut vaincre la fougère, et les deux espèces peuvent coexister.


Juin 2003


Jeudi 5 juin 2003

François COQUET (Le Havre)
Martingales non linéaires et équations stochastiques rétrogrades.

Ce que je vais exposer est une introduction rétroactive à la conférence donnée ici-même par Shige Peng en mars. Plus précisément, je me propose de parler d'espérances et de martingales non-linéaires dans le cadre relativement rassurant où on se place sur un espace muni d'une filtration brownienne. On peut alors construire naturellement des espérances non linéaires à partir d'équations différentielles stochastiques rétrogrades. Plus surprenant, et plus remarquable, il se trouve que le chemin inverse, qui permet de représenter des espérances non-linéaires définies abstraitement par équations stochastiques rétrogrades, est possible dans le cas où on a "quasi-linéarité", via une décomposition de type Doob-Meyer adéquate.


Ce séminaire est répertorié dans  

Retour au début du programme ou à la page d'accueil du Laboratoire de Mathématiques Raphaël Salem



Cette page est maintenue par Elise JANVRESSE. Merci de rapporter tout problème survenu lors de sa lecture.