Si ya conoce el significado de la kappa de Cohen y cómo interpretarla, vaya directamente a la calculadora.
¿Qué es la kappa de Cohen?
La kappa de Cohen es un coeficiente estadístico que representa el grado de precisión y fiabilidad en una clasificación estadística. Mide el acuerdo entre dos calificadores (jueces) que clasifican cada uno de los ítems en categorías mutuamente excluyentes.
Esta estadística fue introducida por Jacob Cohen en la revista Educational and Psychological Measurement en 1960.
Donde po es el acuerdo relativo observado entre calificadores, y pe es la probabilidad hipotética de acuerdo por azar.
El cálculo de la kappa es útil también en el meta-análisis durante la selección de estudios primarios. Puede medirse de dos maneras:
- Fiabilidad inter-observador: consiste en evaluar el grado de acuerdo entre las elecciones realizadas por
dos ( o más ) jueces independientes - Fiabilidad intra-observador: Es evaluar el grado de acuerdo mostrado por la misma
persona a distancia de tiempo
Interpretar la kappa de Cohen
Para interpretar sus resultados de kappa de Cohen puede consultar las siguientes directrices (véase Landis, JR & Koch, GG (1977). The measurement of observer agreement for categorical data. Biometrics, 33, 159-174):
- 0,01 – 0,20 acuerdo ligero
- 0,21 – 0,40 acuerdo justo
- 0,41 – 0,60 acuerdo moderado
- 0.61 – 0,80 acuerdo sustancial
- 0,81 – 1,00 acuerdo casi perfecto o perfecto
kappa es siempre menor o igual a 1. Un valor de 1 implica un acuerdo perfecto y valores inferiores a 1 implican un acuerdo menos que perfecto.
Es posible que kappa sea negativo. Esto significa que los dos observadores coincidieron menos de lo que cabría esperar sólo por azar.
Utilice la calculadora gratuita de kappa de Cohen
Con esta herramienta puede calcular fácilmente el grado de acuerdo entre dos jueces durante la selección de los estudios que se incluirán en un metaanálisis.
Complete los campos para obtener el porcentaje bruto de acuerdo y el valor de kappa de Cohen.
% de acuerdo: NaN%
K de Cohen: NaN