Méthode des moments (probabilité)
En mathématiques et plus particulièrement en théorie des probabilités, la méthode des moments consiste à prouver une convergence en loi en démontrant la convergence de tous les moments[1].
Pour les articles homonymes, voir Méthode des moments.
Soit X une variable aléatoire réelle dont tous les moments existent, c'est-à-dire
- .
Supposons que la loi de X soit complètement déterminée par ses moments, c'est-à-dire que si Y est une autre variable aléatoire telle que
alors X et Y ont la même loi.
Sous ces conditions, si (Xn) est une suite de variables aléatoires telle que
pour toutes les valeurs de k, alors la suite (Xn) converge en loi vers X.
La méthode des moments a été introduite par Pafnuty Chebyshev pour prouver le théorème central limite ; Chebyshev a cité des contributions antérieures d'Irénée-Jules Bienaymé[2]. Plus récemment, elle a été appliquée par Eugene Wigner pour prouver la loi du demi-cercle et a depuis trouvé de nombreuses applications dans la théorie des matrices aléatoires[3].
Références
- (en) A V Prokhorov, Encyclopaedia of Mathematics (online) (ISBN 1-4020-0609-8, Math Reviews 1375697, lire en ligne), « Moments, method of (in probability theory) »
- (en) H Fischer, A history of the central limit theorem. From classical to modern probability theory., New York, Springer, coll. « Sources and Studies in the History of Mathematics and Physical Sciences », (ISBN 978-0-387-87856-0, Math Reviews 2743162), « 4. Chebyshev's and Markov's Contributions. »
- (en) G W Anderson, A Guionnet et O Zeitouni, An introduction to random matrices., Cambridge, Cambridge University Press, (ISBN 978-0-521-19452-5), « 2.1 »