Los expertos del CVI están de acuerdo y algunos académicos han propuesto el valor Kappa. ¿Cómo utilizan SPSS 10 personas para implementar Kappa? La calificación del experto es de nivel 4.
I-CVI debe ser mayor que 0,78 y S-CVI/Ave debe ser mayor que 0,9.
Escuché que el valor Kappa se puede usar para evaluar la confiabilidad de prueba y repetición. Kappa se puede calcular seleccionando Análisis → Estadísticas descriptivas → Tabla cruzada → Estadísticas.
La segunda pregunta es, por supuesto, si la utilizas para evaluar la confiabilidad entre las personas.
Concepto: Diferentes evaluadores utilizan la misma herramienta para evaluar un mismo objeto y calcular el coeficiente de correlación de los resultados.
Características: La herramienta de investigación incluye dos partes: escala y evaluador; el coeficiente de correlación está entre 0 y 1. Cuanto más cerca de 1, mayor es la confiabilidad. El requisito general es al menos superior a 0,6.
Método de cálculo (consulte "Análisis de confiabilidad entre evaluadores: de la teoría a la práctica" para más detalles)
Dos evaluadores; datos de relación/distancia fija
Coeficiente de correlación de Pearson (valor r)
Dos evaluadores; datos de relación/distancia fija; distribución anormal
Coeficiente de correlación de Spearman
Dos evaluadores ordenaron los datos; p>
Coeficiente de correlación de Spearman
Más de tres evaluadores; datos de relación/distancia fija
Pruebas paramétricas: ICC
Más de tres personas; ; otros tipos de datos
Análisis de varianza de rango bidireccional de Friedman
Coeficiente de concordia de Kendall
Literatura y materiales didácticos recomendados para pruebas de confiabilidad y validez;
p>
Wu·. Práctica de aplicación estadística de SPSS [M]. Beijing Science Press, 2003:63-109.
Guibao. Análisis de confiabilidad entre evaluadores: de la teoría a la práctica [J]. Enseñanza Audiovisual de Lenguas Extranjeras, 2010, (132): 21-25.
Cohen RJ, Swedik M, Smith DK. Pruebas y evaluaciones psicológicas: una introducción a las pruebas y la medición [M]. California: Taberna Mayfield, 1992:161-168.
Xu Zhijing, Xia Haiou. Aplicación del método Delphi en la investigación en enfermería[J]. Journal of Nursing Science, 2008, 23(6):78-80.
Liu Ke. Cómo comprobar la validez del contenido[J]. Revista de formación de enfermeras, 2010, 25(1):37-39.
Shi Jing, Mo Xiankun, Sun Zhenqiu. Aplicación del índice de validez de contenido en el desarrollo de escalas [J]. Journal of Central South University, 2012, 37 (2): 152-155.
, Fu. Aprendiendo de las trampas culturales de las escalas de autoinforme extranjeras [J]. Psychological Science, 2000, 23(6): 729-731.
Jiang Yan, Shen Ning, Zou Shufang. Métodos de evaluación y desarrollo de escalas para las características de medición en la investigación de enfermería [J]. Educación en enfermería china, 2005, 2(4):174-175.
Zhang Minqiang. Medición Educativa[M]. Beijing: Editorial Médica del Pueblo, 1998:104-110.
Sun Zhenqiu. Estadísticas médicas[M]. Segunda edición. Beijing: Editorial Médica del Pueblo, 2007: 532-536.
Rod M, Norvik R. Teoría estadística de las puntuaciones de las pruebas psicológicas [M] Fuzhou: Fujian Education Press, 1992:225.
Zhao. Investigación en enfermería. Beijing: Editorial Médica del Pueblo, 2003:71-84.
Fang Jiqian. Estadística médica y experimentos informáticos [M]. Segunda edición. Llevar a la fuerza: Editorial de Shanghai, 2001, 239-250.
Dai Haiqi, Zhang Feng, Chen Xuefeng. Medición psicoeducativa[M]. Guangzhou: Jinan University Press, 2003: 56-68.