Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
A) PRESENTACION
B) ASPECTOS ESPECIFICOS
1. Debe exhibir el examen una buena calidad de impresión con espacio suficiente para la
respuesta.
3. Cada tipo de ítem debe contener instrucciones muy precisas para responder, indicando
las prohibiciones o limitaciones que se estimen convenientes (ej. Prohibido usar corrector,
calculadora, cambiar alternativas, etc.).
II- ASPECTOS TECNICO-PEDAGÓGICOS
2. Las preguntas del examen no sólo deben medir la categoría conocimiento, ya que es
deseable comprobar la capacidad de comprensión, aplicación, análisis, síntesis y
evaluación. Se puede considerar diferentes taxonomías para evaluar aprendizajes, no
exclusivamente la de Benjamím Bloom, porque lo realmente significativo es verificar la
correspondencia entre las situaciones e ítemes de evaluación y los objetivos de los
programas de asignatura y las metodologías de aprendizajes utilizadas.
3. Tener preparada una pauta de corrección con las respuestas mínimas esperadas que se
consideran correctas para la pregunta.
ANEXO
Validez: Grado en que el instrumento mide lo que pretende medir (coherencia con aprendizajes
esperados, contenidos tratados, metodologías y actividades de enseñanza-aprendizaje empleadas en el
desarrollo de la unidad).
Tipos de validez:
- Validez de contenido: Un instrumento es válido cuando los ítems son una muestra
suficientemente representativa respecto del aprendizaje objeto de medición. Para ello se
construye una tabla de especificaciones. (Núñez, 2002)
- Validez instruccional: Se entiende como el grado en que el instrumento mide aquello que
realmente se ha enseñado y con el nivel de complejidad, profundidad y énfasis con que se ha
trabajado durante el proceso de enseñanza. Cautelando esta validez, se evitan expresiones de los
estudiantes tales como: “La prueba que me hicieron no tenía nada que ver con lo que nos
enseñó el profesor” o “En la prueba me pusieron problemas que no habíamos trabajado
en clases”.
- Validez consecuencial: Se refiere a las consecuencias o efectos que un procedimiento
evaluativo tiene sobre los aprendizajes de los estudiantes. Dichas consecuencias deben ser
coherentes con la intencionalidad del procedimiento.
Confiabilidad: Capacidad de la prueba para medir algo con precisión o en forma consistente,
(Hernández Uralde, 2005). Cautelando la confiabilidad de un instrumento podemos evitar expresiones de
los estudiantes tales como: “La prueba no midió lo que verdaderamente sé” o “La nota no
evidencia lo que aprendí”. Una prueba es confiable cuando:
Objetividad: Corresponde a que el diseño del instrumento o tipo de preguntas o tipo de reactivos, estén
redactados en términos precisos, exactos sin ambigüedad para la interpretación de la respuesta
esperada. Es conveniente hacer una revisión del instrumento con expertos o jueces antes de su
aplicación definitiva. También significa asignar puntajes a los ítemes en forma proporcional a la exigencia
de éstos. (Contreras, 2007).
Practicabilidad
Corresponde a cautelar posibles problemas o dificultades al aplicar el instrumento de evaluación, tal
como problemas de tipeo o copia incorrecta, errores ortográficos, instrucciones poco precisas, falta de
limpieza y de legibilidad del test. Significa también asignar tiempo suficiente para contestar el
instrumento, disponer de los materiales adicionales oportunamente si corresponde, disponer de un
instrumento completamente preparado y revisado. El procedimiento a utilizar debe ser manejable para
todos los actores del proceso evaluativo (Contreras, 2007).