Kappa de Cohen
En statistique, la méthode du κ (kappa) mesure l’accord entre observateurs lors d'un codage qualitatif en catégories. L'article introduisant le κ a pour auteur Jacob Cohen – d'où sa désignation de κ de Cohen – et est paru dans le journal Educational and Psychological Measurement en 1960. Le κ est une mesure d'accord entre deux codeurs seulement. Pour une mesure de l'accord entre plus de deux codeurs, on utilise le κ de Fleiss (1981).
Pour les articles homonymes, voir Kappa (homonymie).
Nature | |
---|---|
Nommé en référence à |
Définition
Le calcul du κ se fait de la manière suivante :
où Pr(a) est la proportion de l'accord entre codeurs et Pr(e) la probabilité d'un accord aléatoire. Si les codeurs sont totalement en accord, κ = 1. S'ils sont totalement en désaccord (ou en accord dû uniquement au hasard), κ ≤ 0.
Exemple
La méthode de Kappa mesure le degré de concordance entre deux évaluateurs, par rapport au hasard.
Premier cas
Supposons que deux évaluateurs (Marc et Mathieu) soient chargés de définir dans un groupe de 50 étudiants ceux qui seront reçus ou non à l'examen final. Chacun d'eux contrôle la copie de chaque étudiant et la note comme reçu ou non reçu (OUI ou NON). Le tableau ci-dessous donne les résultats :
Marc | |||
---|---|---|---|
OUI | NON | ||
Mathieu | OUI | a | b |
NON | c | d |
Marc | |||
---|---|---|---|
OUI | NON | ||
Mathieu | OUI | 20 | 5 |
NON | 10 | 15 |
L'observation des accords entre évaluateurs est :
Pour calculer la probabilité d'accord « au hasard », on note que :
- Mathieu a noté « OUI » à 25 étudiants, soit 50 % des cas.
- Marc a noté « OUI » dans 60 %, soit 30 étudiants sur 50.
Ainsi la probabilité attendue que les deux correcteurs notent « OUI » est :
De même la probabilité que les deux correcteurs notent « NON » est :
La probabilité globale que les correcteurs soient en accord est donc :
La formule de Kappa donnera alors :
Second cas
Dans une autre proportion nous aurions obtenu :
Marc | |||
---|---|---|---|
OUI | NON | ||
Mathieu | OUI | 25 | 2 |
NON | 3 | 20 |
L'observation des accords entre évaluateurs est :
Pour calculer la probabilité d'accord « au hasard », on note que :
- Mathieu a noté « OUI » à 27 étudiants, soit 54 % des cas,
- et que Marc a noté « OUI » dans 56 %.
Ainsi la probabilité attendue que les deux correcteurs notent « OUI » est :
De même la probabilité que les deux correcteurs notent « NON » est :
La probabilité globale que les correcteurs soient en accord est donc :
La formule de Kappa donnera alors :
Ordres de grandeur
Landis et Koch[1] ont proposé le tableau suivant pour interpréter le κ de Cohen. Il s'agit d'ordres de grandeurs qui ne font pas consensus dans la communauté scientifique[2], notamment parce que le nombre de catégories influe sur l'estimation obtenue : moins il y a de catégories, plus κ est élevé[3].
Interprétation | |
---|---|
< 0 | Désaccord |
0,00 — 0,20 | Accord très faible |
0,21 — 0,40 | Accord faible |
0,41 — 0,60 | Accord modéré |
0,61 — 0,80 | Accord fort |
0,81 — 1,00 | Accord presque parfait |
Notes et références
- J. Richard Landis et Gary G. Koch, « The Measurement of Observer Agreement for Categorical Data », Biometrics, vol. 33, no 1, , p. 159–174 (ISSN 0006-341X, DOI 10.2307/2529310, lire en ligne, consulté le )
- Gwet, K. (2001)
- Sim, J. and Wright, C. C. (2005) pp. 257--268