Efficacité (statistiques)
En statistique, l'efficacité est une mesure de la qualité d'un estimateur, d'une expérimentation[1] ou d'un test statistique[2]. Elle permet d'évaluer le nombre d'observations nécessaires pour atteindre un seuil : plus un estimateur est efficace, plus l'échantillon d'observations nécessaire pour atteindre un objectif de précision sera petit.
L'efficacité relative de deux procédures est le rapport de leurs efficacités, bien que le concept soit plus utilisé pour le rapport de l'efficacité d'une procédure donnée et d'une procédure théorique optimale. Leurs efficacités et l'efficacité relative dépendent de la taille de l'échantillon, mais on peut en tirer l'efficacité relative asymptotique (comme la limite de l'efficacité relative quand la taille de l'échantillon grandit) comme principale mesure de comparaison.
Un estimateur efficace est caractérisé par une variance ou une erreur quadratique moyenne petite, indiquant une faible déviance entre la valeur estimée et la valeur "réelle"[1].
Estimateurs
L'efficacité d'un estimateur sans biais T d'un paramètre θ est définie par[3]:
où est l'information de Fisher d'un échantillon. Ainsi e(T) est la variance minimale possible pour un estimateur non biaisé divisé par sa variance effective. La borne de Cramér-Rao permet de voir que e(T) ≤ 1.
Estimateurs efficaces
En général, l'aplatissement d'un estimateur autour du paramètre θ est une mesure de l'efficacité et de la performance de l'estimateur. Cette performance peut être évaluée par l'erreur quadratique moyenne :
- Soit T un estimateur du paramètre θ. L'erreur quadratique moyenne de T est .
On a :
Ainsi, un estimateur T1 est meilleur qu'un estimateur T2 si [4].
Dans le cas où T1 et T2 sont sans biais pour le même paramètre θ, alors il suffit de comparer les variances pour évaluer la performances : T1 est meilleur que T2 si Var(T1) < Var(T2) pour toutes les valeurs de θ. En effet, pour un estimateur sans biais, le calcul précédent montre que l'erreur quadratique moyenne se réduit alors à la variance[4].
Si un estimateur T sans biais d'un paramètre θ satisfait e(T) = 1 pour toutes les valeurs du paramètre, alors l'estimateur est dit efficace[3].
De façon équivalente, l'estimateur atteint l'égalité dans l'inégalité de Cramér-Rao pour tout θ. La borne inférieure de Cramér-Rao est un minimum pour la variance d'un estimateur non biaisé, représentant le "mieux" qu'un estimateur sans biais peut atteindre.
Un estimateur efficace est aussi l'estimateur sans biais de variance minimale. Celui-ci permet d'avoir l'égalité dans l'inégalité de Cramér-Rao pour toutes les valeurs de paramètres, soit la variance minimale pour tous les paramètres (soit la définition d'un tel estimateur). L'estimateur sans biais de variance minimale, même s'il existe, n'est pas nécessairement efficace, car le minimum de variance ne permet pas forcément d'atteindre le cas d'égalité dans l'inégalité de Cramér-Rao.
Aussi, un estimateur efficace n'existe pas toujours, mais s'il existe, c'est l'estimateur sans biais de variance minimale.
Efficacité asymptotique
Certains estimateurs peuvent atteindre une efficacité asymptotique, ce qu'on appelle estimateurs asymptotiquement efficaces. Ce peut être le cas de certains estimateurs de maximum de vraisemblance ou d'autres qui tendent vers la borne de Cramér–Rao.
Exemple de la médiane
On considère un échantillon de taille N tirée d'une distribution normale de moyenne μ et de variance réduite, i.e.,
La moyenne du tirage vérifie
La variance de la moyenne, qui vaut donc 1/N (le carré de l'erreur standard), est égale à la réciproque de l'information de Fisher de l'échantillon et donc, par l'inégalité de Cramér-Rao, la moyenne est efficace dans le sens où son efficacité est unitaire (100%).
En considérant maintenant la médiane de l'échantillon, , on a un estimateur sans biais et consistent pour μ. Pour de grandes valeurs de N, la médiane est proche d'une loi normale d'espérance μ et de variance π/2N[5].
L'efficacité de la médiane pour de grandes valeurs de N approche donc
En d'autres termes, la variance relative de la médiane vaudra π/2N ≈ 1,57, soit donc 57% plus grande que la variance de la moyenne – l'erreur standard de la médiane sera 25% plus importante que celle de la moyenne[6].
Il s'agit ici de l'efficacité asymptotique — l'efficacité limite quand la taille de l'échantillon tend vers l'infiniment grand. Pour des valeurs finies de N, l'efficacité est plus grande (par exemple, un échantillon de 3 tirages donne une efficacité de 74%)[réf. nécessaire].
La moyenne est donc plus efficace que la médiane dans ce cas — ce qui est le plus souvent le cas, la moyenne empirique étant l'estimateur linéaire non biaisé le plus efficace, par le théorème de Gauss-Markov. Cependant, il y aura peut-être des mesures où la médiane a de meilleurs résultats : la médiane est plus résistante aux données aberrantes donc si le modèle gaussien est discutable ou approché, il vaudra mieux utiliser la médiane (voir Statistiques robustes).
Exemple de la variance
On considère un échantillon de taille N d'une distribution pour laquelle on ne connait pas la moyenne.
La variance du tirage est usuellement estimée par l'un des deux estimateurs :
Le deuxième est souvent privilégié car convergent, sans biais et, sous conditions, asymptotiquement normal, cependant, il est moins efficace :
Estimateurs dominants
Si T1 et T2 sont des estimateurs d'un paramètre θ, on dit que T1 domine T2 si
avec l'inégalité stricte vérifiée pour au moins une valeur de θ.
Efficacité relative
L'efficacité relative de deux estimateurs est définie par[7]
Bien que e est en général une fonction de θ, dans la plupart des cas, la dépendance disparait ; dès lors, de grandes valeurs de e indiquent que T1 est préférable, peu importe la véritable valeur de θ.
Une alternative à l'efficacité relative pour comparer des estimateurs est le critère de fermeture de Pitman, qui remplace la comparaison des erreurs quadratiques moyennes par la comparaison du nombre d'occurrences où un estimateur produit des estimations plus proches de la valeur véritable par rapport à un autre.
Estimateurs de la moyenne de variables iid
En estimant la moyenne de variables indépendantes identiquement distribuées, on peut tirer avantage de la propriété sur les variances (la variance de la somme est égale à la somme des variances). Dans ce cas, l'efficacité peut être définie comme le carré du coefficient de variation, i.e[8].
L'efficacité relative de deux tels estimateurs peut alors être interprété comme la taille relative de l'échantillon d'un estimateur pour atteindre l'exactitude pour l'autre. En effet :
Ainsi, si , on a , donc l'efficacité relative exprime la taille relative de l'échantillon du premier estimateur requis pour atteindre la variance du second.
Robustesse
L'efficacité d'un estimateur peut changer significativement selon la distribution, avec souvent une perte de qualité. C'est une des motivations des statistiques robustes – un estimateur tel que la moyenne de l'échantillon est un estimateur efficace de la moyenne de la population d'une distribution normale, for exemple, mais inefficace pour une loi mixte de deux distributions normales de même moyenne et de variances égales.
Par exemple, si une distribution est une combinaison de 98% de N(μ, σ) et 2% de N(μ, 10σ), la présence de valeurs extrêmes pour la deuxième (appelés "données contaminantes") réduit significativement l'efefficacité ficience de la moyenne de l'échantillon comme estimateur de μ. Par contraste, la moyenne tronquée est moins efficace pour une distribution normale, mais plus robuste sur les changements dans la distribution, et donc possiblement plus efficace pour une distribution mixte. De façon similaire, la forme de la distribution, comme l'asymétrie ou les queues lourdes, peuvent significativement réduire l'efficacité d'estimateurs qui suppose une distribution symétrique ou des queues fines.
Utilisations d'estimateurs inefficaces
Si l'efficacité est une qualité souhaitable d'un estimateur, elle doit être remise en perspective avec d'autres considérations, et un estimateur efficace pour certaines distributions peuvent être inefficaces pour d'autres. Par exemple, des estimateurs efficaces pour des tirages propres (sans données aberrantes) d'une distribution simple, comme une loi normale (symétrique, unimodale, et à queue fine) peuvent se montrer sensibles à la contamination aux données aberrantes, voire inefficaces pour des distributions plus compliquées. Dans les statistiques robustes, on préfère la robustesse et l'applicabilité à une plus grande variété de distributions, plutôt que l'efficacité sur un type de distribution. Les M-estimateurs sont un exemple de tels estimateurs, avec la robustesse et une haute efficacité relative, mais une efficacité éventuellement plus faible que d'autres estimateurs plus répandus. Ils peuvent toutefois s'avérer complexes à calculer.
Une alternative plus connue est donnée par les L-estimateurs, qui sont des statistiques très simples, faciles à calculer et interpréter, souvent robustes et assez efficaces pour des échantillons de départ.
Efficacité en statistiques
L'efficacité en statistiques est importante car elles permettent de comparer les performances de plusieurs estimateurs. Bien qu'un estimateur sans biais est usuellement préféré à un biaisé, un estimateur biaisé mais plus efficace peut être préférable à un estimateur sans biais mais moins efficace. Par exemple, cela peut arriver quand les valeurs de l'estimateur biaisé s'accumule autour d'une valeur proche de la valeur exacte. C'est pourquoi on évalue également la performance par le calcul des variances ou des erreurs quadratiques moyennes.
Tests d'hypothèse
Pour comparer des tests de confiance, une mesure sensée de l'efficacité peut être définie en se basant sur la taille de l'échantillon requise pour le test afin d'attente une puissance donnée[9].
L'efficacité de Pitman[10] et l'efficacité de Bahadur[11] (ou l'efficacité de Hodges–Lehmann)[12],[13] s'appuient sur la comparaison de la performance de tests d'hypothèse statistiques. L'Encyclopedia of Mathematics décrit ces trois critères ici.
Plan d'expériences
Pour des expériences, l'efficacité s'appuie sur la capacité d'une expérimentation à atteindre l'objectif de l'étude avec le minimum de ressources à allouer, comme le temps ou le financement. Dans les cas simples, l'efficacité relative des protocoles peut être exprimée comme le rapport des tailles d'échantillons nécessaires pour atteindre un objectif[14].
Notes
- Everitt 2002, p. 128.
- (en) « Efficiency of a statistical procedure », dans Michiel Hazewinkel, Encyclopædia of Mathematics, Springer, (ISBN 978-1556080104, lire en ligne)
- R Fisher, « On the Mathematical Foundations of Theoretical Statistics », Philosophical Transactions of the Royal Society of London A, vol. 222, , p. 309–368 (JSTOR 91208)
- F.M. Dekking, A Modern Introduction to Probability and Statistics: Understanding Why and How, Springer, , 303-305 p. (ISBN 978-1852338961)
- D. Williams, Weighing the Odds, Cambridge University Press, (ISBN 052100618X), p. 165
- (en) John Maindonald et W. John Braun, Data Analysis and Graphics Using R: An Example-Based Approach, Cambridge University Press, , 104 p. (ISBN 978-1-139-48667-5, lire en ligne)
- Dennis D. Wackerly, William Mendenhall et Richard L. Scheaffer, Mathematical statistics with applications, Belmont, CA, Thomson Brooks/Cole, (ISBN 9780495110811, OCLC 183886598), p. 445
- Frank Grubbs, Statistical Measures of Accuracy for Riflemen and Missile Engineers, , 26–27 p.
- Everitt 2002, p. 321.
- (en) « Efficiency, asymptotic », dans Michiel Hazewinkel, Encyclopædia of Mathematics, Springer, (ISBN 978-1556080104, lire en ligne)
- Bahadur efficiency
- Arcones M. A. "Bahadur efficiency of the likelihood ratio test" preprint
- Canay I. A. & Otsu, T. "Hodges–Lehmann Optimality for Testing Moment Condition Models"
- Y. Dodge, The Oxford Dictionary of Statistical Terms, Oxford University Press, (ISBN 0-19-920613-9, lire en ligne )
Références
- (en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé « Efficiency (statistics) » (voir la liste des auteurs).
- Brian S. Everitt, The Cambridge Dictionary of Statistics, Cambridge University Press, (ISBN 0-521-81099-X)
- Erich L. Lehmann, Elements of Large-Sample Theory, New York, Springer Verlag, (ISBN 978-0-387-98595-4)
- Portail des probabilités et de la statistique