Sei sulla pagina 1di 3

Formas de validez usadas en los instrumentos de evaluacin

Escrito por Ashley Seehorn | Traducido por Mara Marcela Mennucci

Comstock/Comstock/Getty Images

En los instrumentos de evaluacin, el concepto de validez se relaciona con qu tan bien una prueba mide lo que se pretende medir. La validez podra referir a estos elementos de prueba, interpretaciones de las puntuaciones derivadas de las pruebas o la aplicacin de los resultados de las mismas para las decisiones educativas. La medicin de la validez de un instrumento suele ser subjetiva, basada en la experiencia y en la observacin.

Validez aparente
Si una prueba tiene validez aparente, significa que el instrumento parece medir lo que se supone que mide. La validez aparente es estrictamente una indicacin de la apariencia de validez de una prueba. Un instrumento sera rechazado por los usuarios potenciales si no tuviera al menos validez aparente. Ningn instrumento de evaluacin profesional pasara la etapa de investigacin y diseo sin tener validez aparente. Sin embargo, las herramientas de evaluacin informal podran carecer de la misma. Por ejemplo, las encuestas en lnea que buscan obviamente vender algo en lugar de obtener informacin sobre los consumidores no tienen validez aparente. Es obvio al mirar la encuesta que su intencin no es la misma que dice ser. Adems, esta falta de validez aparente probablemente reducira la cantidad de sujetos dispuestos a participar de la encuesta.

Validez de contenido
La validez de contenido se refiere a si el contenido evaluado por un instrumento es representativo del contenido del rea en s mismo. Por ejemplo, una prueba de matemticas diseada para evaluar las capacidades en lgebra contendra elementos de prueba relevantes para el lgebra y no para la trigonometra. La validez de contenido suele ser determinada por expertos en el contenido del rea a ser evaluada.

Validez del armado


La validez del armado se refiere a si el mtodo de evaluacin obtendr realmente la respuesta deseada de un sujeto. Los dos tipos de validez de armado son convergentes y discriminantes. Si una evaluacin muestra resultados similares a otra prueba que busca medir la misma capacidad, la evaluacin tiene validez convergente. Si una evaluacin muestra resultados

diferentes comparados con una evaluacin que debera ser diferente, se dice que tiene validez discriminante. sta se refiere a hasta dnde una prueba no mide lo que no debe.

Validez de criterio
La validez de criterio de una prueba significa que el sujeto ha rendido exitosamente en relacin a los criterios. Hay dos tipos de validez de criterio: predictiva y concurrente. La predictiva se refiere a qu tan bien el rendimiento de un individuo en una prueba mide qu tan exitoso ser en alguna medida futura. El SAT es una prueba que predice qu tan bien le ir a un estudiante en la universidad. La concurrente se refiere a qu tan bien la prueba se compara con instrumentos similares que miden el mismo criterio.

Validez de resultados
Hay tres tipos de validez principalmente relacionadas a los resultados de una evaluacin: interna, de conclusin y externa. Si una evaluacin tiene validez interna, las variables muestran una relacin causal. La de conclusin significa que hay algn tipo de relacin entre las variables implicadas, ya sea positiva o negativa. La validez externa implica relaciones causales extradas del estudio que pueden ser generalizadas a otras situaciones.

Confiabilidad
Para resguardar que las evaluaciones sean confiables se debe tener en cuenta que el fin ltimo de este criterio es que las conclusiones y posteriores decisiones respecto de la forma que se aborda el proceso de enseanza-aprendizaje con los alumnos debe estar basado en la evidencia suficiente para no cometer errores (o al menos minimizarlos). En este sentido las acciones sugeridas a continuacin proporcionan una gua para lograr evaluaciones confiables: 1) Aplicar al mismo estudiante variadas situaciones evaluativas que midan el mismo Aprendizaje. Dar la posibilidad al estudiante de demostrar su desempeo frente a un mismo aprendizaje, a travs de reiteradas oportunidades, permite tener la Certeza de que el aprendizaje fue o no logrado. Esto se puede realizar en distintas Actividades evaluativas o poniendo en un mismo instrumento distintas situaciones de Evaluacin que evalen lo mismo (por ejemplo, distintos tems en una prueba). 2) Velar por la claridad de los tems e instrucciones. Hay ocasiones en que un tem Puede estar correctamente construido, pero ser comprendido por los estudiantes en dos sentidos diferentes, si no est esto considerado, al momento de revisar la Informacin se puede generar un sesgo que altere las puntuaciones de los estudiantes y, por tanto, la confiabilidad de la evaluacin. 3) Velar porque el ambiente de aplicacin sea similar en cuanto a recursos, espacios y tiempo. Es particularmente importante tener en cuenta esta sugerencia cuando se Realizan evaluaciones en ambientes que no son los ptimos, por ejemplo: hay msica en el patio, hace mucho calor en la sala, hay una actividad recreativa programada a Continuacin, etc., pues los resultados de la evaluacin estarn influidos por estos Aspectos y puede que no representen los aprendizajes reales de los estudiantes. 4) Velar por la precisin de la correccin. Esta sugerencia se refiere a la objetividad De la revisin de la informacin recogida en la evaluacin y ser tratada con detalle a continuacin.

Objetividad La objetividad o precisin de la correccin en un proceso evaluativo es un elemento clave asociado a la confiabilidad de una evaluacin; sin embargo, se decidi tratarlo en forma separada dada la relevancia e impacto que tiene al interior de la sala de clases. Esto no supone que sea independiente de la confiabilidad. Por lo general, la objetividad se entiende como la calidad de un objeto en s, independiente de las consideraciones o juicios personales. Si llevamos la objetividad

Potrebbero piacerti anche