Méthode des moments (statistiques)
La méthode des moments est un outil d'estimation intuitif qui date du début des statistiques.
Pour les articles homonymes, voir Méthode des moments.
Nature |
Analyse statistique (d) |
---|---|
Sigle |
(en) MM |
Elle consiste à estimer les paramètres recherchés en égalisant certains moments théoriques (qui dépendent de ces paramètres) avec leurs contreparties empiriques. L'égalisation se justifie par la loi des grands nombres qui implique que l'on peut "approcher" une espérance mathématique par une moyenne empirique. On est donc amené à résoudre un système d'équations.
Formalisation mathématique
On suppose que l'échantillon X1,…, Xn est un échantillon iid (identiquement et indépendamment distribué) selon une famille de lois paramétriques, paramétrée par θ. Toute fonction des données de l'échantillon est donc une fonction F(θ). C'est particulièrement le cas des moments de la famille, si ceux-ci existent.
On sélectionne alors s moments , qui définissent un vecteur s×1. Il existe donc une fonction G telle que . L'équivalent empirique du vecteur est le vecteur composé des s moments d'échantillon, noté . Cela signifie que l'on remplace le i-ème moment théorique, à savoir , par la quantité :
L'estimateur de θ par la méthode des moments, noté , consiste à résoudre l'équation vectorielle :
Exemple
Supposons que sont des variables aléatoires indépendantes et identiquement distribuées selon la loi Gamma avec pour densité
- , avec la fonction indicatrice de l'ensemble .
On cherche à estimer le vecteur des paramètres .
On détermine d'abord les moments théoriques.
- Le premier moment, l'espérance, est donné par
- et le second moment, l'espérance du carré de la variable, est
On exprime ensuite la relation entre les paramètres et les moments théoriques :
la résolution donne :
Une fois cette relation établie, la méthode des moments consiste à utiliser les moments empiriques, en l'occurrence pour notre exemple les deux premiers, et :
que l'on pose égaux aux moments théoriques :
La résolution en et fournit alors :
Avantages et désavantages de cette méthode
Dans certains cas, la méthode des moments n'est pas capable d'atteindre la borne de Cramér-Rao : l'estimation est donc dépassée par l'estimation par maximum de vraisemblance qui atteint cette borne asymptotiquement[1].
Toutefois, dans certains cas comme celui de la loi Gamma, le calcul de la fonction de vraisemblance peut poser des problèmes (l'utilisation de l'ordinateur et d'algorithmes numériques est indispensable) tandis que l'estimation des moments est très facilement accessible[réf. nécessaire].
La méthode des moments peut s'utiliser comme point de départ pour maximiser la (log-)vraisemblance : en effet, on doit utiliser dans ce cas des algorithmes numériques, comme la Méthode de Newton, qui nécessitent des points de départ[réf. nécessaire].
Par contre, lorsque la taille de l'échantillon n'est pas suffisamment grande, la loi des grands nombres ne s'applique pas et par conséquent, les moments empiriques n'approchent pas suffisamment bien les moments théoriques. Ainsi, la méthode des moments n'est pas une méthode de confiance dans ce cas: les estimateurs ainsi obtenus peuvent avoir tendance à sortir du support des paramètres. Par exemple, pour la loi gamma, un faible échantillon peut conduire à α < 0.
Enfin, nous avons vu que la méthode des moments consiste à résoudre :
ce qui n'est pas toujours possible. On peut alors chercher à minimiser sur θ la forme quadratique suivante
où
et où W est une matrice (s × s) de pondération. Résoudre ce système revient à résoudre approximativement . Cette idée est le point de départ de la méthode des moments généralisée.
Notes et références
- Wasserman 2004, p. 126
Voir aussi
- Portail des probabilités et de la statistique