Méthode des moments (probabilité)

En mathématiques et plus particulièrement en théorie des probabilités, la méthode des moments consiste à prouver une convergence en loi en démontrant la convergence de tous les moments[1].

Pour les articles homonymes, voir Méthode des moments.

Soit X une variable aléatoire réelle dont tous les moments existent, c'est-à-dire

.

Supposons que la loi de X soit complètement déterminée par ses moments, c'est-à-dire que si Y est une autre variable aléatoire telle que

alors X et Y ont la même loi.

Sous ces conditions, si (Xn) est une suite de variables aléatoires telle que

pour toutes les valeurs de k, alors la suite (Xn) converge en loi vers X.

La méthode des moments a été introduite par Pafnuty Chebyshev pour prouver le théorème central limite ; Chebyshev a cité des contributions antérieures d'Irénée-Jules Bienaymé[2]. Plus récemment, elle a été appliquée par Eugene Wigner pour prouver la loi du demi-cercle et a depuis trouvé de nombreuses applications dans la théorie des matrices aléatoires[3].

Références

  1. (en) A V Prokhorov, Encyclopaedia of Mathematics (online) (ISBN 1-4020-0609-8, Math Reviews 1375697, lire en ligne), « Moments, method of (in probability theory) »
  2. (en) H Fischer, A history of the central limit theorem. From classical to modern probability theory., New York, Springer, coll. « Sources and Studies in the History of Mathematics and Physical Sciences », (ISBN 978-0-387-87856-0, Math Reviews 2743162), « 4. Chebyshev's and Markov's Contributions. »
  3. (en) G W Anderson, A Guionnet et O Zeitouni, An introduction to random matrices., Cambridge, Cambridge University Press, (ISBN 978-0-521-19452-5), « 2.1 »

Voir aussi

Problème des moments

  • Portail des mathématiques
Cet article est issu de Wikipedia. Le texte est sous licence Creative Commons - Attribution - Partage dans les Mêmes. Des conditions supplémentaires peuvent s'appliquer aux fichiers multimédias.