Si vous connaissez déjà la signification du kappa de Cohen et comment l’interpréter, passez directement à la calculatrice.
Qu’est-ce que le kappa de Cohen?
Le kappa de Cohen est un coefficient statistique qui représente le degré de précision et de fiabilité d’une classification statistique. Il mesure l’accord entre deux évaluateurs (juges) qui classent chacun des éléments dans des catégories mutuellement exclusives.
Cette statistique a été introduite par Jacob Cohen dans la revue Educational and Psychological Measurement en 1960.
où po est l’accord relatif observé entre les évaluateurs, et pe est la probabilité hypothétique d’un accord fortuit.
Le calcul du kappa est également utile en méta-analyse lors de la sélection des études primaires. Il peut être mesuré de deux manières :
- fiabilité inter-évaluateurs : il s’agit d’évaluer le degré d’accord entre les choix effectués par
deux ( ou plus) juges indépendants - fiabilité intra-évaluateurs : Il s’agit d’évaluer le degré d’accord manifesté par la même
personne à distance de temps
Interpréter le kappa de Cohen
Pour interpréter vos résultats du kappa de Cohen, vous pouvez vous référer aux directives suivantes (voir Landis, JR & Koch, GG (1977). La mesure de l’accord des observateurs pour les données catégorielles. Biometrics, 33, 159-174):
- 0,01 – 0,20 slight agreement
- 0,21 – 0,40 fair agreement
- 0,41 – 0,60 moderate agreement
- 0.61 – 0,80 accord substantiel
- 0,81 – 1,00 accord presque parfait ou parfait
kappa est toujours inférieur ou égal à 1. Une valeur de 1 implique un accord parfait et des valeurs inférieures à 1 impliquent un accord moins que parfait.
Il est possible que kappa soit négatif. Cela signifie que les deux observateurs étaient d’accord moins que ce à quoi on pourrait s’attendre juste par hasard.
Utilisez la calculatrice gratuite du kappa de Cohen
Avec cet outil, vous pouvez facilement calculer le degré d’accord entre deux juges lors de la sélection des études à inclure dans une méta-analyse.
Complétez les champs pour obtenir le pourcentage brut d’accord et la valeur du kappa de Cohen.
Résultats
% d’accord : NaN%
Cohen’s k : NaN