Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
UNA INTRODUCCIÓN
PRÁCTICA. CAP. 4
Validez: si mide lo que pretende medir.
Métodos para determinar la confiabilidad: estimar cuánta diferencia hay entre puntuaciones
derivadas y verdaderas:
Test re Test: se obtiene aplicando la misma prueba a los mismos individuos en dos
ocasiones diferentes. Si la correlación entre los resultados de las diferentes aplicaciones es
altamente positiva, el instrumento se considera confiable. Se trata de una especie de
diseño panel. Evalúa los cambios en las condiciones personales, condiciones en las
aplicaciones y condiciones en los calificadores dependiendo si la prueba califica la misma
persona o proceso. Desventajas: No evalúa los cambios en el contenido de la prueba,
porque es siempre la misma la que se aplica. No considera los cambios que se pueden
sufrir a lo largo del tiempo que se deja entre las pruebas o si el período es corto las
personas pueden recordar cómo contestaron en la primera aplicación (EFECTO DE
APRENDIZAJE). Hay que tener en cuenta el constructo que se mida y lo que se espera
evaluar de él.
Formas Alterna o “confiabilidad de forma paralela o equivalente”: exige que haya dos
formas de la prueba que deben ser iguales o muy similares en la cantidad de reactivos,
límites de tiempo, contenido, etc. PROCEDIMIENTO: aplicar ambos formas de la prueba a
los mismos examinados y sacar un coeficiente de correlación entre las puntuaciones
obtenidas de las dos formas. Se puede dejas un tiempo estipulado entre cada aplicación
de las formas. Si se deja este tiempo no sólo va a medir las variaciones en el contenido,
sino también en las condiciones personales y de la aplicación DESVENTAJAS: Reduce
pero no elimina el efecto de la práctica y es costoso, lleva tiempo.
Consistencia interna: se utiliza cuando el interés del constructor del cuestionario no se
dirige a determinar cuánto han cambiado los sujetos en el tiempo, sino en saber si los
ítems o todas las partes del cuestionario responden a las mismas especificaciones y si los
ítems son representativos del constructo a estudiar. Cuando los sujetos ejecutan
consistentemente todos los ítems de un cuestionario se dice que el cuestionario es
homogéneo con respecto a los ítems. Para que esto sea así es imprescindible que todas
las partes del cuestionario representen el mismo dominio de contenido (si los ítems se
seleccionan de diversas áreas la homogeneidad de la prueba disminuye y también su
consistencia) y que los ítems estén bien construidos (Si unos ítems están mejor redactados
que otros, es posible que algunos no entiendan bien lo que se les pide y no respondan
correctamente). Los métodos para medir la confiabilidad de la consistencia interna son:
A. División por mitades: se realiza la aplicación de una sola prueba pero se
califica por dos mitades de la misma, como si cada mitad fuera una forma alterna de
la prueba. Luego se saca la correlación entre ambas partes. Si el instrumento es
confiable, las puntuaciones de ambas mitades deben estar fuertemente
correlacionadas. Un individuo con baja puntuación en una mitad, tenderá a tener
también una baja puntuación en la otra mitad. TOMAR EN CUENTA QUE: la prueba
normalmente no se divide exactamente en una primera y en una segunda mitad. La
segunda mitad generalmente incluye reactivos más difíciles o los examinados
estarán más cansados al llegar a ella y puede que el tiempo (si es que hay) ejerza
un cambio en el rendimiento. Además la mera correlación entre las dos partes no da
la confiabilidad de la prueba entera. CONFIABILIDAD NON-PAR: es una forma de
medir el instrumento en dos partes, tomando los reactivos pares por un lado y
aquellos que no lo son por el otro.
B. Coeficiente de alfa de Cronbach y fórmulas de Kuder-Richardson: Son
procedimientos estadísticos que evalúan cuan homogénea es la prueba. Cuanta más
correlación más estable es. Se utiliza el alfa de Cronbach cuando los ítems son
politomicos y Kuder-Richardson cuando los ítems son dicotómicos
Error estándar de la medición: El error estándar de medición tiene una relación inversa
con la confiabilidad. Un instrumento altamente confiable tiene un nivel
de error muy pequeño. Un instrumento con una confiabilidad baja mide su objeto con un
alto índice de error. Por lo tanto, a mayor índice de error de
medición, menor confiabilidad y viceversa. Es la diferencia de las puntuaciones observadas
con respecto a las puntuaciones verdaderas de las personas que se obtienen por error o
desvío en la medición.
LA TCP Y LA TRI DICEN: NO EXISTE LA CONFIABILIDAD DE UNA PRUEBA. Hay muchas fuentes de
inestabilidad o falta de confiabilidad y pueden ser estudiadas por separado.