Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Tecnicatura
Evaluación Educativa
Módulo
Investigación Evaluativa y Estadística
Aplicada
MÓDULO: INVESTIGACIÓN EVALUATIVA Y ESTADÍSTICA APLICADA
Utiliza los resultados obtenidos en la investigación para la elaboración de planes de mejora con base a
las limitaciones y dificultades observadas.
- Un primer nivel lo constituye la organización total; por ejemplo, la justicia paraguaya, la salud,
la educación, etc. Al evaluar éstas, se estarían evaluando todas las organizaciones en que se
cristalizan cada una de las anteriores. Esta evaluación podría hacerse, pero sería de una gran
magnitud y requeriría un equipo de expertos multidisciplinarios muy numeroso. Otro ejemplo
sería el matrimonio como institución, aunque esta investigación sería más antropológica y social
que institucional.
- Un segundo nivel es el de las organizaciones concretas dentro de todo el sector institucional,
por ejemplo una universidad o una facultad, un hospital o una unidad intermedia de salud, etc. A
este nivel, la evaluación es más factible, pues se facilitan tanto el diseño de la investigación, como
la ejecución y el análisis. En este segundo nivel, la evaluación es total y deben considerarse
aspectos del contexto, insumos, procesos, productos y su impacto social.
En el lenguaje corriente, se entiende por programa una intención o un designio planificado, para cuya
ejecución se requiere la aplicación de medios determinados con miras a la obtención de unos resultados
o efectos predefinidos. La aplicación de recursos financieros, humanos, la estructura y procesos
organizacionales tiene como finalidad obtener unos resultados más o menos concretamente definidos.
Evaluación: El término evaluación es una palabra elástica que se emplea para abarcar muchas clases de
juicios. Se habla de evaluación de la ejecución de la tarea, de evaluación de la calidad de la educación,
de evaluación del clima organizacional, de evaluación del material didáctico, de evaluación del mercado
potencial de un producto, de evaluación de sentido de pertenencia, de evaluación de un determinado
programa, proyecto o institución, etc.
MÓDULO: INVESTIGACIÓN EVALUATIVA Y ESTADÍSTICA APLICADA
Otros autores, en cambio, no ven en la evaluación ningún fin científico en sí, sino solamente una ayuda
para tomar decisiones administrativas racionales. Así, la evaluación es un proceso que capacita al
administrador para describir los efectos del programa y a partir de ello hacer los ajustes progresivos en
orden a alcanzar las metas más efectivamente.
Muchas otras definiciones coinciden en el concepto de finalidad como criterio de exploración de los
resultados del proyecto Restrepo (1974) plantea que la evaluación consiste en la apreciación de un objeto,
persona, atributo, programa, institución o sistema, a partir de ciertos criterios y destaca el aspecto
valorativo como elemento que objetiviza la escogencia de factores o indicadores relacionados con el
propósito de lo que se evalúa. Ahora bien, como toda actividad humana, es social y la mayoría
institucional, y cualquier sistema social está influenciado y determinado por variables circundantes, es en
consideración de todas estas circunstancias como aparecen las conceptualizaciones teóricas y los
modelos de evaluación.
Por diferentes que sean las maneras de concebir el fin y los métodos de la evaluación que estas
definiciones implican, todas ellas podemos reducirlas a un común denominador: el de que todas se
refieren a la investigación y la apreciación de la eficiencia, eficacia, efectividad y relevancia social de una
institución, programa o proyecto, para lo cual se requiere disponer de información sobre los insumos, los
procesos y los productos o resultados. Cuanto más válidas, confiables y representativas sean estas
informaciones, mayor será la posibilidad de reorganizar los fines y los medios de un programa o proyecto,
de tal manera que éste arroje resultados óptimos. Obtener y valorar estas informaciones es lo que
denominamos evaluación.
Investigación y evaluación
“La investigación evaluativa es un tipo especial de investigación aplicada cuya meta, a diferencia de la
investigación básica, no es el descubrimiento del conocimiento. Poniendo principalmente el énfasis en la
utilidad, la investigación evaluativa debe proporcionar información para la planificación del programa, su
realización y su desarrollo. La investigación evaluativa asume también las particulares características de
la investigación aplicada, que permite que las predicciones se conviertan en un resultado de la
investigación.
Las recomendaciones que se hacen en los informes evaluativos son, por otra parte, ejemplos de
predicción”. (Suchman, 1967: 119)
Briones (1991) define como propósito principal de la evaluación: “proporcionar criterios para la toma de
decisiones en relación con la estructura, el funcionamiento y el desarrollo del programa”, p. 17. Y a manera
de ilustración presenta una lista de propósitos que pueden perseguirse en una investigación evaluativa:
5. Someter a verificación la teoría o hipótesis que relaciona los componentes del programa con los
resultados buscados.
6. Redefinir la población objeto: reducirla, homogenizarla, etc.
7. Modificar la estructura, el funcionamiento y la metodología del programa.
8. Tratar de cumplir, si es pertinente, las expectativas de la población objeto del programa (sobre su
funcionamiento, recursos, objetivos, etc.).
9. Controlar la aparición de posibles prácticas o resultados no deseados.
10.Tratar de homogenizar los efectos, consecuencias y repercusiones del programa en diversos subgrupos
de la población de referencia del programa.
Este enfoque paradigmático, orientado hacia la resolución práctica de problemas, tiene al igual que el
hermenéutico su apoyo en el construccionismo social, pero usa también métodos cuantitativos como el
experimental así como indicadores de funcionamiento, que apoyen el diseño de intervenciones eficaces.
Siguiendo los principios del pragmatismo y el contextualismo, se buscan programas y proyectos que
«funcionen bien» dentro de un contexto real particular, no siendo el propósito fundamental la descripción
y construcción teóricas, sino la toma de decisiones para la gestión y la planificación, la solución de
problemas y la construcción práctica de programas, dentro de la tradición investigadora aplicada
(Escudero, 2011).
Esta realidad hace que en la investigación evaluativa, la indagación completa de procesos y resultados y
de sus significados, obliga a la utilización de planteamientos diversos y mixtos (Sondergeld & Koskey,
2011). Vemos que la investigación evaluativa se plantea siempre en un contexto real, al servicio de las
políticas sociales, en definitiva, al servicio del cambio y del desarrollo social y que, por lo tanto, es un
instrumento intermedio, de ayuda a otras disciplinas y ámbitos como la educación, la sanidad, la cultura,
el bienestar social, etc., pues busca directamente el objetivo de ofrecer las mejores opciones de acción
entre todas las alternativas posibles. Se trata de ayudar a resolver problemas que aparecen en estos
ámbitos.
Otro elemento identificativo importante de la investigación evaluativa es que aborda el análisis de todo
tipo de información, tanto cualitativa como cuantitativa, en muchos casos con grandes volúmenes de
datos, desde perspectivas diversas, apoyándose en metodologías de investigación múltiples y flexibles
MÓDULO: INVESTIGACIÓN EVALUATIVA Y ESTADÍSTICA APLICADA
(Escudero, 2009; Maxcy, 2003). En este contexto también hay que destacar, por lo que significa de
expansión de la evaluación a una nueva perspectiva, la evaluación para el desarrollo o evaluación
capacitadora, impulsada por Fetterman como un enfoque, de base democrática, de participación de los
implicados en el programa evaluado, para promover la autonomía de los mismos en la resolución de sus
propios problemas (Fetterman, 2001b; Fetterman, Kaftarian & Wandersman, 2015).
Urban, Hargraves y Trochim (2014) defienden la investigación evaluativa como un proceso evolutivo en
distintas fases, en correspondencia con el propio proceso evolutivo de los programas evaluados, de
manera que en cada fase se plantean objetivos y metodologías diversas.
En concreto, nos hablan de cuatro fases: una primera de inicio del programa, donde se evalúa la respuesta
al proceso por parte de los participantes; una segunda de desarrollo del programa, donde se evalúan los
cambios que produce en los individuos, contexto, etc.; una tercera donde se analiza la estabilidad del
programa, controlando y evaluando su eficacia en comparación entre grupos; y finalmente una cuarta
fase de diseminación del programa, en la que se evalúa la capacidad de generalización del mismo.
Una valoración comprensiva de los planteamientos analizados, nos conduce a una posible definición de
la actual investigación evaluativa, como “un tipo de investigación aplicada, que incide sobre objetos
sociales, sistemas, planes, programas, participantes, instituciones, agentes, recursos, etc, que analiza y
juzga su calidad estática y dinámica según criterios y estándares científicos rigurosos múltiples, externos
e internos, con la obligación de sugerir acciones alternativas sobre los mismos para diferentes propósitos
como planificación, mejora, certificación, acreditación, fiscalización, diagnóstico, reforma, penalización,
incentivación, etc.” (Escudero, 2006, p. 271).
El análisis de la literatura científica nos confirma que, en el momento presente, en pocas cosas están tan
de acuerdo los expertos en investigación evaluativa como en el hecho de que esta se lleva a cabo con la
MÓDULO: INVESTIGACIÓN EVALUATIVA Y ESTADÍSTICA APLICADA
intención de ser útil e influir en la toma de decisiones posterior. De hecho, los propios evaluadores
dedican grandes esfuerzos a conseguir que sus sugerencias sean tenidas en cuenta y aplicadas
convenientemente (Christie, 2007). Sin embargo, la utilización de los resultados de las evaluaciones, por
múltiples razones, siempre es un asunto sometido a controversias (Escudero, 2013). Para fortalecer una
adecuada utilización de las evaluaciones, es importante analizar bien los contextos de decisión de los
usuarios potenciales y centrar el estudio en aspectos relevantes para dicha tarea (Ledermann, 2012;
Leviton, 2003; Neuman et al., 2013).
En concreto, una evaluación es más útil y más utilizable, si el evaluador se ha respondido previamente a
las tres preguntas siguientes:
Existen distintos planteamientos sobre cómo se debe informar de las evaluaciones con vistas a optimizar
su visibilidad y, consecuentemente, favorecer su utilización. A partir de un informe común del proceso de
evaluación y sus resultados, se pueden introducir sub-apartados, apéndices, sugerencias específicas, etc.,
dirigidos a las distintas audiencias implicadas. Otra opción es la de elaborar informes separados según
las audiencias, aunque esta es una fórmula menos habitual.
Lo que sí resulta crítico en todo caso, es la adecuación del lenguaje técnico a la hora de presentar los
resultados que, en la investigación evaluativa, las más de las veces son producto de algún tipo de
tratamiento estadístico, que no es familiar para muchos de los potenciales receptores de tales resultados.
El evaluador debe ser capaz de presentar sus resultados apoyándose en la jerga estadística convencional
y, además, de hacerlo de forma que tenga significado (May, 2004) para las distintas audiencias.
Este autor nos dice que un resultado estadístico tiene significado para una audiencia determinada,
cuando es:
• Comprensible, esto es, que se entienda de manera fácil por la mayoría de la gente, con el mínimo de
supuestos posibles sobre la preparación estadística de la audiencia y evitando la jerga estadística.
• Comparable, esto es, que permita observar las diferencias con otras situaciones, a lo largo del tiempo,
otros programas, otros centros, etc.
MÓDULO: INVESTIGACIÓN EVALUATIVA Y ESTADÍSTICA APLICADA
El tercer criterio, el de la comparabilidad, nos dice May que es menos crítico que los dos primeros, pues
no siempre se dan las condiciones de necesidad o propicias para la comparación.
Cuadro. 5.1 Adaptado de la ejemplificación de posibles fases de la investigación evaluativa tomado en Arnal, De la Orden, Rincón (1992:
215)
Evaluación Educativa
Apunta pensar la evaluación como proceso integral que tiene como finalidad la “toma de
decisiones” siempre con la firme finalidad de mejorar lo evaluado. Cabe señalar que aquí se piensa
la evaluación educativa como un proceso cíclico que debe formar parte de las tareas sustantivas
de todo Sistema Educativo que busque la calidad en su oferta.
Estrategias evaluativas
Momento de evaluación de inicio.
Técnicas de la evaluación de inicio:
- Debate- análisis de producción- diálogo- textos escritos- investigaciones - encuesta - análisis de
resúmenes - Observación sistemática. Escala de observación, diario de clases, lista de control.
Instrumentos:
Cuestionario. Controles con pruebas. Escalas de actitudes. Lista de cotejo. Test sociométrico.
Se pueden realizar varios cortes y varias lecturas de las entrevistas. Una vertical, es decir, desde
el principio al final, de manera corrida, y otra horizontal, temática y comparativa. Para esto, hay que
realizar cortes, por ejemplo por temas o ítems, donde se lee de cada entrevista ese ítem. De esta
manera se puede observar la importancia que cada entrevistado le dio al tema y la importancia
global del tema en la entrevista.
Luego se puede empezar a comparar para ver si los temas son recurrentes o si algún tema
sobresale mas que los otros. En la lectura es importante tener en cuenta los pronombres para ver
si el entrevistado se considera individualmente o como parte de un proceso colectivo.
Mientras que las técnicas de análisis de la información cualitativa, pueden ser varias.
Destacamos las más comunes:
— Entrevistas de respuesta abiertas.
— Técnicas grupales. En ella destacan los grupos de discusión. La información con diferentes
puntos de vista será la más valorada. Pero también se dan técnicas para fomentar la creatividad,
como la tormenta de ideas o el Brainstorming.
— Técnica del Grupo Nominal. De las más democráticas. Hace posible alcanzar un consenso rápido
con relación a cuestiones, problemas, soluciones o proyectos, evitando los términos de ‘perdedores’
y ‘ganadores’ entre los miembros del grupo.
— Técnica del Grupo de Enfoque. Forma de entrevista grupal que utiliza la comunicación entre
investigador y participante.
— Técnica Delphi. Se extrae información sobre predicciones y se basa en un panel de expertos.
— Análisis de contenido: es observar y reconocer el significado de los elementos que conforman
un documento (palabras, frases) y clasificarlas para el análisis
Metodologías Evaluativas
MODELO DE EVALUACIÓN RESPONDENTE DE ROBERT STAKE (evaluación sensitiva o
evaluación respondente)
a. Enfoque: global-naturalista
b. Concepto de evaluación
Evaluación sensitiva o concertada, según la cual ésta debe responder a lo que el cliente realmente
necesita. Evaluación orientada a la naturaleza compleja y dinámica de los programas educativos,
atendiendo sus diversos aspectos y componentes.
c. Propósitos
Proporcionar al cliente o a los que adoptan decisiones la información que necesitan, en términos de
descripciones y juicios sobre diversos aspectos y componentes del programa.
d. Características
El modelo parte de la distinción entre antecedentes, transacciones y logros, tanto propuestos como
observados, y utiliza los conceptos relacionales claves de contingencia y congruencia. Debe existir
contingencia lógica y empírica entre los antecedentes, las transacciones y los logros propuestos y
observados, respectivamente, y debe existir congruencia entre lo propuesto y observado.
Los aspectos principales atribuidos a la concepción de Stake son los siguientes (Stufflebeam y
Shinkfield, 1995:238).
• Las evaluaciones deben ayudar a las audiencias a observar y mejorar lo que están haciendo (de
allí la denominación de evaluación centrada en el cliente).
Paradigmas - enfoques - orientaciones y modelos evaluativos
MÓDULO: INVESTIGACIÓN EVALUATIVA Y ESTADÍSTICA APLICADA
• Los evaluadores deben describir programas con relación tanto a los antecedentes y las
operaciones como a los resultados.
• Los efectos secundarios y los logros accidentales deben ser tan estudiados como los resultados
buscados.
• Los evaluadores deben evitar la presentación de conclusiones finales resumidas, pero en su lugar
deben recopilar, analizar y reflejar los juicios de una amplia gama de gente interesada en el objeto
de la evaluación.
• Los experimentos y los test regularizados son a menudo inadecuados o insuficientes para
satisfacer los propósitos de una evaluación y frecuentemente hay que sustituirlos o
complementarlos con una variedad de métodos incluyendo los subjetivos.
e. Metodología
Se prepara un plan de observaciones y transacciones que se ejecutan llevando un diario de campo,
a partir de lo cual se elaboran narraciones, descripciones, gráficos, etc. Se averigua qué es valioso
para los usuarios y se reúnen juicios de diversas personas cuyos puntos de vista difieren. Se
presenta la información obtenida a las personas encargadas del programa y a los mismos usuarios
para que se pronuncien sobre la precisión e importancia de los hallazgos.
1 Contactar con
personas y audiencias
11 Escoger audiencias 2 Establecer alcances
12 Informe final del programa
1 – 2 – 3- 4 -5= Teoría
8 = Recolección
8 Observar
5 Conceptualizar
antecedentes, 9 = Organización
objetivos y problemas
transacciones, logros
10 = Análisis
7 Seleccionar
observadores, 6 Identificar datos 11-12 = Informes
instrumentos
En el método respondente el evaluador ha de entrevistar a los implicados para conocer sus puntos
de vista y buscar la confluencia de las diversas perspectivas. El evaluador deberá interpretar las
opiniones y diferencias de puntos de vista (Stecher y Davis, 1990) y presentar una amplia gama de
opiniones o juicios, en lugar de presentar sus conclusiones personales.
En este método respondente una de sus características es que parte de la distinción entre los
antecedentes y logros, tanto propuestos como observados, utilizando conceptos claves y de
congruencia.
MÓDULO: INVESTIGACIÓN EVALUATIVA Y ESTADÍSTICA APLICADA
Debe existir coherencia lógica y empírica entre los antecedentes, las transacciones y los logros
propuestos y observados, respectivamente, y debe existir congruencia entre lo propuesto y
observado. Los antecedentes son las condiciones existentes antes de que se inicie el proceso
educativo o programa y que pueden influir en los resultados, como las características de las
situaciones que han de afrontar los sujetos que participarán en el programa; también el contexto y
las actividades que se han planificado, las cuales deben ser coherentes, específicas y adaptadas a
dichas situaciones. También puede ser necesario incluir características descriptivas de los sujetos
de estudio. Las actividades o procesos didácticos constituyen el conjunto de interacciones,
transacciones y actividades, que tienen lugar en el escenario educativo; son las actividades
planificadas que constituyen el programa educativo. Los efectos-logros incluyen todo lo que se
puede conseguir a través de un programa. Los resultados son los efectos del proceso educativo y
se refiere a la consecución de objetivos en relación a conductas terminales de los sujetos.
Evaluación de insumos: busca identificar y valorar la capacidad del sistema, las estrategias del
programa y sus alternativas, la planificación de procedimientos para llevar a cabo las estrategias,
los presupuestos y los programas.
Evaluación de procesos: busca identificar o pronosticar, durante el proceso, los defectos de la
planificación del procedimiento o de su realización, proporcionar información para las definiciones
pre-programadas y descubrir y juzgar las actividades y aspectos del procedimiento.
Evaluación del producto: busca recopilar descripciones y juicios acerca de los resultados y
relacionarlos con los objetivos y la información proporcionada por el contexto, los insumos y por los
procesos e interpretar su valor y su mérito. Propone y utiliza la evaluación formativa y sumativa para
cada uno de estos tipos de evaluación, así como el empleo de una amplia gama de métodos y
técnicas de recolección de información como el análisis de sistemas, la inspección (observación
directa), la revisión de documentos, las audiciones, las entrevistas, los test diagnósticos y la técnica
Delphi entre otras.
e. Metodología
Plantea cuatro niveles o etapas:
1) Delineación: en la que se definen los objetivos de la evaluación, se formulan preguntas, se
delimitan las decisiones por tomar se identifican impedimentos.
2) Obtención de información: se diseñan o adaptan instrumentos, se determinan las muestras, se
aplican los instrumentos y se realiza el procesamiento estadístico de los resultados.
3) Análisis de la información: se elabora un diseño de análisis que garantice la mayor efectividad
en la interpretación de los datos obtenidos y se procede al análisis de la información.
4) Aplicación de la información: en la que se comunica la información a la audiencia y se le asesora
para la utilización y aplicación de dicha información.
A continuación se presenta el modelo globalizador simplificado (C.I.P.P) de Stufflebeam,
gráfica 1
MÓDULO: INVESTIGACIÓN EVALUATIVA Y ESTADÍSTICA APLICADA