Se conosci già il significato del kappa di Cohen e come interpretarlo, vai direttamente alla calcolatrice.
Cos’è il kappa di Cohen?
Il kappa di Cohen è un coefficiente statistico che rappresenta il grado di precisione e affidabilità in una classificazione statistica. Misura l’accordo tra due classificatori (giudici) che classificano ciascuno gli articoli in categorie mutualmente esclusive.
Questa statistica è stata introdotta da Jacob Cohen nella rivista Educational and Psychological Measurement nel 1960.
dove po è l’accordo relativo osservato tra i classificatori, e pe è la probabilità ipotetica di accordo casuale.
Il calcolo del kappa è utile anche nella meta-analisi durante la selezione degli studi primari. Può essere misurato in due modi:
- inter-rater reliability: serve a valutare il grado di accordo tra le scelte fatte da
due (o più) giudici indipendenti - intra-rater reliability: Si tratta di valutare il grado di accordo mostrato dalla stessa
persona a distanza di tempo
Interpretare il kappa di Cohen
Per interpretare i risultati del kappa di Cohen puoi fare riferimento alle seguenti linee guida (vedi Landis, JR & Koch, GG (1977). La misura dell’accordo dell’osservatore per dati categorici. Biometrics, 33, 159-174):
- 0.01 – 0.20 accordo leggero
- 0.21 – 0.40 accordo giusto
- 0.41 – 0.60 accordo moderato
- 0.61 – 0,80 accordo sostanziale
- 0,81 – 1,00 accordo quasi perfetto o perfetto
kappa è sempre inferiore o uguale a 1. Un valore di 1 implica un accordo perfetto e valori inferiori a 1 implicano un accordo meno che perfetto.
È possibile che kappa sia negativo. Questo significa che i due osservatori erano d’accordo meno di quanto ci si aspetterebbe solo per caso.
Utilizza il calcolatore gratuito del kappa di Cohen
Con questo strumento puoi facilmente calcolare il grado di accordo tra due giudici durante la selezione degli studi da includere in una meta-analisi.
Compilare i campi per ottenere la percentuale grezza di accordo e il valore del kappa di Cohen.
Risultati
% di accordo: NaN%
Cohen’s k: NaN