Méthode des moments généralisée

En statistique et en économétrie, la méthode des moments généralisée (en anglais generalized method of moments ou GMM) est une méthode générique pour estimer les paramètres d'un modèle statistique qui s'appuie sur un certain nombre de conditions sur les moments d'un modèle. Habituellement, cette méthode est utilisée dans un contexte de modèle semi-paramétrique, où le paramètre étudié est de dimension finie, alors que la forme complète de la fonction de distribution des données peut ne pas être connue (de ce fait, l'estimation par maximum de vraisemblance n'est pas applicable).

Pour les articles homonymes, voir GMM.

Méthode des moments généralisée
Nature
Analyse statistique (d)
Inventeur
Date d'invention
Décrit par
Large Sample Properties of Generalized Method of Moments Estimators (d)

Cette méthode requiert la spécification d'un certain nombre de conditions de moments sur le modèle. Ces conditions sont exprimées en fonction des paramètres du modèle et des données, de façon que leur espérance soit nulle lorsque les paramètres sont à leur vraie valeur. Appliquer la méthode des moments généralisée revient à minimiser une certaine norme sur les moyennes de ces fonctions calculées sur les données disponibles.

Les estimateurs MGM sont convergents, asymptotiquement normaux et efficaces dans la classe de tous les estimateurs qui n'utilisent pas d'information supplémentaire en dehors de celle contenue dans les conditions de moment.

La méthode est une extension de la méthode des moments. Elle a été développée par Lars Peter Hansen en 1982 dans un article intitulé « Large sample properties of generalized method of moments estimators », ce qui lui a valu en partie le Prix Nobel d’économie en 2013.

Description

Soit une base de données contenant N observations {Yi} i=1..N, dans laquelle chaque observation Yi est un vecteur aléatoire de dimension n. On suppose que les données obéissent à un modèle statistique défini par un paramètre inconnu θ ∈ Θ. On cherche à estimer la vraie valeur du paramètre, notée θ0, à partir des observations disponibles.

La méthode des moments généralisée fait l’hypothèse que les données {Yi} sont générées selon un processus stochastique ergodique (faiblement) stationnaire. Le cas où les données sont des variables indépendantes et identiquement distribuées est un cas particulier de cette hypothèse plus générale.

Pour utiliser la méthode des moments généralisée, on se donne des conditions de moments, c'est-à-dire une fonction à valeur vectorielle g(Y,θ) telle que

est l'espérance et Yi est une observation quelconque du processus. On suppose de plus que m(θ) est nul si et seulement si θ = θ0, afin que le paramètre optimal soit correctement identifié.

L'idée principale de la méthode des moments généralisée est de remplacer la valeur théorique de l'espérance par son analogue empirique : la moyenne calculée sur la base de données :

puis de chercher la valeur de θ minimisant la norme de cette expression, qui sera donc l'estimateur de la vraie valeur du paramètre. La loi des grands nombres garantit que pour une base de données suffisamment grande, et donc que . La méthode des moments généralisée considère donc la recherche d'un estimateur comme un problème de minimisation pour une certaine famille de normes de m :

La famille de normes considérée dans la méthode, ||.||W, est définie par

W est une matrice définie positive. En pratique on calcule un estimateur de , noté , à partir des données disponibles. L'estimateur MGM peut donc être écrit sous la forme suivante :

Si ses conditions de validité sont remplies, cet estimateur est convergent, asymptotiquement normal. Il est également asymptotiquement efficient, pourvu que soit judicieusement choisie.

Propriétés

Convergence

L'estimateur est convergent si et seulement si l'estimateur converge en probabilité vers la vraie valeur du paramètre quand le nombre d'observations augmente :

Les conditions suffisantes pour la convergence sont les suivantes :

  1. , où est une matrice semi-définie positive
  2. L'espace Θ des paramètres admissibles est compact
  3. g(Y,θ) est continue avec une probabilité de 1 pour toute valeur de θ
  4. est bornée

La condition (2), appelée condition d'identification globale est souvent difficile à vérifier. Il existe cependant des conditions nécessaires (mais non suffisantes) qui sont plus facile à vérifier et permettent de détecter des problèmes de non-identification :

  • Condition d'ordre : La dimension de la fonction des moments m(θ) est supérieure ou égale a la dimension de θ
  • Condition d'identification locale : Si g(Y,θ) est continûment dérivable dans un voisinage de θ0, alors la matrice doit être de rang n

Dans les cas d'applications pratique, on fait souvent le postulat que la condition d'identification globale est vérifiée.

Normalité asymptotique

La normalité asymptotique est une propriété très utile en pratique car elle permet de définir un intervalle de confiance pour l'estimateur et d'effectuer des tests statistiques.

On définit les deux matrices auxiliaires suivantes :

Sous les conditions définies ci-dessous, l'estimateur converge en loi vers une loi normale :

Les conditions de normalité asymptotique sont les suivantes :

  1. L'estimateur est convergent (tel que défini au paragraphe précédent)
  2. L'espace Θ des paramètres admissibles est compact
  3. g(Y,θ) est continûment différentiable dans un voisinage de θ0 avec une probabilité de 1
  4. est bornée
  5. est bornée
  6. La matrice GTWG est inversible

Efficience

Jusqu'ici on n'a posé comme seule condition sur W d'être semi-définie positive. Toute matrice ainsi choisie produira un estimateur convergent et asymptotiquement normal ; le choix de la matrice W influant uniquement sur la variance asymptotique de l'estimateur. On peut toutefois vérifier qu'en choisissant

l'estimateur correspondant sera le plus efficient parmi tous les estimateurs asymptotiquement normaux, c'est-à-dire l'estimateur de variance minimale. Dans ce cas, la formule de la distribution normale de l'estimateur se simplifie en

Démonstration : considérons la différence entre la matrice de variance-covariance de la distribution avec un W quelconque et avec W = Ω-1. Par définition, la variance de l'estimateur basé sur Ω-1 est minimale si cette différence est semi-définie positive.

Avec I la matrice identité, et en introduisant les matrices A et B pour simplifier les notations. On remarque que B est une matrice symétrique et idempotente, c'est-à-dire que B2 = B, ce qui implique que (I - B) est également symétrique et idempotente. On peut donc écrire (I - B) = (I - B) (I - B)T afin de factoriser l'expression :

La différence des matrices est bien une matrice semi-définie positive, ce qui conclut la démonstration.

Utilisation pratique

La principale difficulté dans la mise en œuvre de l'estimateur optimal décrit ci-dessus est l'impossibilité de calculer directement Ω-1. En effet la matrice Ω est définie par la valeur de g en θ0. Or c'est justement θ0 que l'on cherche à estimer. Dans le cas particulier ou les valeurs Yi sont indépendantes et identiquement distribuées, on peut estimer la matrice W optimale en utilisant l'estimateur de θ0 et en calculant la moyenne :

Méthode des moments en deux étapes

Cette méthode (two-step GMM) est la plus couramment utilisée :

  1. On prend W = I (la matrice identité), ou une autre matrice semi-définie positive, et on calcule une première valeur estimée de θ notée
  2. On calcule alors , qui est un estimateur convergeant en probabilité vers Ω-1. On recalcule alors une nouvelle valeur estimée de θ avec cette matrice.

Méthode des moments itérative

Il s'agit du prolongement de la méthode précédente a un nombre arbitraire d'étapes : à chaque itération on recalcule une nouvelle estimation de puis un nouvel estimateur avec cette nouvelle matrice W, jusqu'à convergence.

Méthode des moments continues

Dans cette variante (continuously updating GMM - CUGMM) on estime simultanément θ et W.


Dans tous les cas, on se heurte également a la difficulté du problème de minimisation lors de l'estimation de θ, l'espace des paramètres étant potentiellement de dimension élevée.

Cas particuliers

De nombreux estimateurs statistiques utilisés couramment peuvent être vus comme des cas particuliers de la méthode des moments généralisés :

  • la méthode des moindres carrés ordinaire (ordinary least squares) revient à utiliser la condition de moments
  • la méthode des moindres carrés pondérés (weighted least squares) revient à utiliser la condition de moments
  • la méthode des variables instrumentales (instrumental variables) revient à utiliser la condition de moments
  • la méthode des moindres carrés non linéaires (non-linear least squares) revient a utiliser la condition de moments
  • la méthode du maximum de vraisemblance revient à utiliser la condition de moments

Bibliographie

Voir aussi

  • Portail de l’économie
  • Portail des probabilités et de la statistique
Cet article est issu de Wikipedia. Le texte est sous licence Creative Commons - Attribution - Partage dans les Mêmes. Des conditions supplémentaires peuvent s'appliquer aux fichiers multimédias.