Sei sulla pagina 1di 19

MÓDULO: INVESTIGACIÓN EVALUATIVA Y ESTADÍSTICA APLICADA

Tecnicatura
Evaluación Educativa

Módulo
Investigación Evaluativa y Estadística
Aplicada
MÓDULO: INVESTIGACIÓN EVALUATIVA Y ESTADÍSTICA APLICADA

UNIDAD: INVESTIGACIÓN EVALUATIVA


Competencias
Interpreta críticamente informes técnicos relativos a insumos, procesos y resultados educativos y de
aprendizaje, basado en razonamientos lógicos válidos y procedimientos estadísticos pertinentes.

Utiliza los resultados obtenidos en la investigación para la elaboración de planes de mejora con base a
las limitaciones y dificultades observadas.

Capacidades y Ejes temáticos


1. Identifica los fundamentos teóricos y las funciones de la investigación evaluativa.

• Conceptos de: institución, evaluación e investigación evaluativa.


• Fundamentos teóricos de la investigación evaluativa.
• Procesos y elementos de una evaluación educativa. Estrategias evaluativas más empleadas en el
ámbito educativo.

2. Comprende la utilidad y las implicancias de la investigación evaluativa en la toma de decisiones


oportunas en el contexto educativo.
3. Diseña proyectos de investigación cualitativa/cuantitativa en el contexto específico de
instituciones educativas.

• Indicadores para la investigación evaluativa.


• Instrumentos de recolección de datos basados en la observación y la intuición del evaluador y de
otros agentes evaluadores y evaluados.
• Recolección y procesamiento de datos desde la lógica cuantitativa y cualitativa.
• Comunicación de los resultados de la investigación evaluativa.

4. Ejecuta los procesos de investigación cualitativa, enmarcados en proyectos institucionales.


MÓDULO: INVESTIGACIÓN EVALUATIVA Y ESTADÍSTICA APLICADA

Institución. Evaluación. Investigación evaluativa

Institución: concepto de la ciencia social, introducido por la sociología positivista y la antropología


funcionalista que designa cualquier dispositivo (material, de organización, de intercambio) que, con
carácter permanente, regula las relaciones de una sociedad en orden a atender las necesidades humanas
( Diccionario enciclopédico Grijalbo, 1995).

Existen varios niveles de institución, a saber:

- Un primer nivel lo constituye la organización total; por ejemplo, la justicia paraguaya, la salud,
la educación, etc. Al evaluar éstas, se estarían evaluando todas las organizaciones en que se
cristalizan cada una de las anteriores. Esta evaluación podría hacerse, pero sería de una gran
magnitud y requeriría un equipo de expertos multidisciplinarios muy numeroso. Otro ejemplo
sería el matrimonio como institución, aunque esta investigación sería más antropológica y social
que institucional.
- Un segundo nivel es el de las organizaciones concretas dentro de todo el sector institucional,
por ejemplo una universidad o una facultad, un hospital o una unidad intermedia de salud, etc. A
este nivel, la evaluación es más factible, pues se facilitan tanto el diseño de la investigación, como
la ejecución y el análisis. En este segundo nivel, la evaluación es total y deben considerarse
aspectos del contexto, insumos, procesos, productos y su impacto social.

En la organización hay que destacar:

– Visión, misión y valores corporativos.


– Propósitos, metas y objetivos.
– Estructura organizacional.
Funciones planeadas para cumplir los objetivos.
– Recursos: físicos, económicos, humanos, financieros.
– Funcionamiento de la entidad.
– Integración cargos funciones.
– Como se superan los conflictos y desviaciones.
– Resultado de ella en el medio (aceptabilidad e impacto social de sus realizaciones).
- El tercer nivel hace referencia a los programas y proyectos. La evaluación de programas y
proyectos trabaja con sectores más restringidos y en niveles mucho más concretos. El punto de
referencia fundamental en esta modalidad de la evaluación son los objetivos de los programas y
los proyectos.

En el lenguaje corriente, se entiende por programa una intención o un designio planificado, para cuya
ejecución se requiere la aplicación de medios determinados con miras a la obtención de unos resultados
o efectos predefinidos. La aplicación de recursos financieros, humanos, la estructura y procesos
organizacionales tiene como finalidad obtener unos resultados más o menos concretamente definidos.

Evaluación: El término evaluación es una palabra elástica que se emplea para abarcar muchas clases de
juicios. Se habla de evaluación de la ejecución de la tarea, de evaluación de la calidad de la educación,
de evaluación del clima organizacional, de evaluación del material didáctico, de evaluación del mercado
potencial de un producto, de evaluación de sentido de pertenencia, de evaluación de un determinado
programa, proyecto o institución, etc.
MÓDULO: INVESTIGACIÓN EVALUATIVA Y ESTADÍSTICA APLICADA

Sin embargo, el término evaluación, a pesar de su creciente popularidad y empleo permanente, es


pobremente definido y a menudo impropiamente utilizado Por evaluación entienden algunos autores el
control del éxito o fracaso de programas, proyectos o instituciones, en el sentido de identificar y medir
resultados. Así, la evaluación es un esfuerzo por reconocer qué cambios se presentan durante y después
de un programa de acción y qué parte de dichos cambios pueden atribuirse al programa.

Otros autores, en cambio, no ven en la evaluación ningún fin científico en sí, sino solamente una ayuda
para tomar decisiones administrativas racionales. Así, la evaluación es un proceso que capacita al
administrador para describir los efectos del programa y a partir de ello hacer los ajustes progresivos en
orden a alcanzar las metas más efectivamente.

Muchas otras definiciones coinciden en el concepto de finalidad como criterio de exploración de los
resultados del proyecto Restrepo (1974) plantea que la evaluación consiste en la apreciación de un objeto,
persona, atributo, programa, institución o sistema, a partir de ciertos criterios y destaca el aspecto
valorativo como elemento que objetiviza la escogencia de factores o indicadores relacionados con el
propósito de lo que se evalúa. Ahora bien, como toda actividad humana, es social y la mayoría
institucional, y cualquier sistema social está influenciado y determinado por variables circundantes, es en
consideración de todas estas circunstancias como aparecen las conceptualizaciones teóricas y los
modelos de evaluación.

Por diferentes que sean las maneras de concebir el fin y los métodos de la evaluación que estas
definiciones implican, todas ellas podemos reducirlas a un común denominador: el de que todas se
refieren a la investigación y la apreciación de la eficiencia, eficacia, efectividad y relevancia social de una
institución, programa o proyecto, para lo cual se requiere disponer de información sobre los insumos, los
procesos y los productos o resultados. Cuanto más válidas, confiables y representativas sean estas
informaciones, mayor será la posibilidad de reorganizar los fines y los medios de un programa o proyecto,
de tal manera que éste arroje resultados óptimos. Obtener y valorar estas informaciones es lo que
denominamos evaluación.

Investigación y evaluación

“La investigación evaluativa es un tipo especial de investigación aplicada cuya meta, a diferencia de la
investigación básica, no es el descubrimiento del conocimiento. Poniendo principalmente el énfasis en la
utilidad, la investigación evaluativa debe proporcionar información para la planificación del programa, su
realización y su desarrollo. La investigación evaluativa asume también las particulares características de
la investigación aplicada, que permite que las predicciones se conviertan en un resultado de la
investigación.

Las recomendaciones que se hacen en los informes evaluativos son, por otra parte, ejemplos de
predicción”. (Suchman, 1967: 119)

Briones (1991) define como propósito principal de la evaluación: “proporcionar criterios para la toma de
decisiones en relación con la estructura, el funcionamiento y el desarrollo del programa”, p. 17. Y a manera
de ilustración presenta una lista de propósitos que pueden perseguirse en una investigación evaluativa:

1. Mejorar la efectividad cuantitativa del programa, es decir, el logro de sus objetivos.


2. Mejorar la calidad de los resultados, o sea, la efectividad cualitativa del programa.
3. Aumentar la eficiencia interna del programa, vale decir, la relación entre insumos y resultados.
4. Mejorar la eficiencia externa del programa o adecuación de resultados con objetivos externos.
MÓDULO: INVESTIGACIÓN EVALUATIVA Y ESTADÍSTICA APLICADA

5. Someter a verificación la teoría o hipótesis que relaciona los componentes del programa con los
resultados buscados.
6. Redefinir la población objeto: reducirla, homogenizarla, etc.
7. Modificar la estructura, el funcionamiento y la metodología del programa.
8. Tratar de cumplir, si es pertinente, las expectativas de la población objeto del programa (sobre su
funcionamiento, recursos, objetivos, etc.).
9. Controlar la aparición de posibles prácticas o resultados no deseados.
10.Tratar de homogenizar los efectos, consecuencias y repercusiones del programa en diversos subgrupos
de la población de referencia del programa.

Fundamentos teóricos de la Investigación Evaluativa

La investigación evaluativa constituye un tipo de investigación científica que corresponde al paradigma


cualitativo. Lo primero que se debe resaltar, pues es un elemento definitorio primordial, es que la
investigación evaluativa se encuadra en un contexto de cambio y más concretamente, en un contexto de
cambio social. Se trata, de un enfoque reactivo de la investigación, dentro de la corriente de pensamiento
paradigmático de base crítica, que busca ofrecer soluciones a problemas concretos, desde una posición
pragmática y contextualista, desde la que se defiende una noción situacional del desarrollo social, en vez
de unos métodos estándar fijos como base y apoyo al desarrollo social emancipatorio (Bredo, 2006;
Escudero, 2009).

Este enfoque paradigmático, orientado hacia la resolución práctica de problemas, tiene al igual que el
hermenéutico su apoyo en el construccionismo social, pero usa también métodos cuantitativos como el
experimental así como indicadores de funcionamiento, que apoyen el diseño de intervenciones eficaces.
Siguiendo los principios del pragmatismo y el contextualismo, se buscan programas y proyectos que
«funcionen bien» dentro de un contexto real particular, no siendo el propósito fundamental la descripción
y construcción teóricas, sino la toma de decisiones para la gestión y la planificación, la solución de
problemas y la construcción práctica de programas, dentro de la tradición investigadora aplicada
(Escudero, 2011).

Esta realidad hace que en la investigación evaluativa, la indagación completa de procesos y resultados y
de sus significados, obliga a la utilización de planteamientos diversos y mixtos (Sondergeld & Koskey,
2011). Vemos que la investigación evaluativa se plantea siempre en un contexto real, al servicio de las
políticas sociales, en definitiva, al servicio del cambio y del desarrollo social y que, por lo tanto, es un
instrumento intermedio, de ayuda a otras disciplinas y ámbitos como la educación, la sanidad, la cultura,
el bienestar social, etc., pues busca directamente el objetivo de ofrecer las mejores opciones de acción
entre todas las alternativas posibles. Se trata de ayudar a resolver problemas que aparecen en estos
ámbitos.

La investigación evaluativa, en suma, se mueve en un contexto de resolución de problemas. Y en este


sentido, el evaluador se ve obligado a utilizar el conocimiento teórico en la resolución de problemas
prácticos, jugando el importantísimo papel de facilitador de la integración de la investigación básica y la
práctica (Urban & Trochim, 2009).

Otro elemento identificativo importante de la investigación evaluativa es que aborda el análisis de todo
tipo de información, tanto cualitativa como cuantitativa, en muchos casos con grandes volúmenes de
datos, desde perspectivas diversas, apoyándose en metodologías de investigación múltiples y flexibles
MÓDULO: INVESTIGACIÓN EVALUATIVA Y ESTADÍSTICA APLICADA

(Escudero, 2009; Maxcy, 2003). En este contexto también hay que destacar, por lo que significa de
expansión de la evaluación a una nueva perspectiva, la evaluación para el desarrollo o evaluación
capacitadora, impulsada por Fetterman como un enfoque, de base democrática, de participación de los
implicados en el programa evaluado, para promover la autonomía de los mismos en la resolución de sus
propios problemas (Fetterman, 2001b; Fetterman, Kaftarian & Wandersman, 2015).

Urban, Hargraves y Trochim (2014) defienden la investigación evaluativa como un proceso evolutivo en
distintas fases, en correspondencia con el propio proceso evolutivo de los programas evaluados, de
manera que en cada fase se plantean objetivos y metodologías diversas.

La investigación evaluativa debe entenderse como un proceso riguroso, controlado y sistemático de


recogida y análisis de información valida y fiable para tomar decisiones acerca del programa educativo;
y así aumentar la racionalidad de las decisiones acerca de la puesta en marcha, sobre su desarrollo y
evaluación evitando la excesiva dependencia de las decisiones políticas (Tejedor, García Varcárcel y
Rodríguez, 1994)

En concreto, nos hablan de cuatro fases: una primera de inicio del programa, donde se evalúa la respuesta
al proceso por parte de los participantes; una segunda de desarrollo del programa, donde se evalúan los
cambios que produce en los individuos, contexto, etc.; una tercera donde se analiza la estabilidad del
programa, controlando y evaluando su eficacia en comparación entre grupos; y finalmente una cuarta
fase de diseminación del programa, en la que se evalúa la capacidad de generalización del mismo.

Una valoración comprensiva de los planteamientos analizados, nos conduce a una posible definición de
la actual investigación evaluativa, como “un tipo de investigación aplicada, que incide sobre objetos
sociales, sistemas, planes, programas, participantes, instituciones, agentes, recursos, etc, que analiza y
juzga su calidad estática y dinámica según criterios y estándares científicos rigurosos múltiples, externos
e internos, con la obligación de sugerir acciones alternativas sobre los mismos para diferentes propósitos
como planificación, mejora, certificación, acreditación, fiscalización, diagnóstico, reforma, penalización,
incentivación, etc.” (Escudero, 2006, p. 271).

Sus principales características.


- Investigador como instrumento de medida: Datos filtrados por propio criterio.
- No pueden generalizarse. Se representan a sí mismos.
- No suelen probar teorías o hipótesis, sino que las genera. Finaliza con una Hipótesis que intenta
relacionar los procesos alterados con la dificultad inicial.
- Es holístico. Abarca todo el fenómeno estudiado en su conjunto. Nada del sujeto se descarta a
priori. Sujeto como un sistema abierto; en relación con otros sistemas.
- Serendipity. Se pueden incorporar datos.
- Técnica de recogida de datos como reconstrucción de la realidad.
- Técnica de análisis de datos “Triangulación”. Recoger y analizar la información obtenida desde
diferentes ángulos para comparar.
- Orientada a la toma de decisiones. Solución de problemas concretos.
- Uso de Metodología Cualitativa, pero no exclusivamente

Utilidad y uso de la evaluación

El análisis de la literatura científica nos confirma que, en el momento presente, en pocas cosas están tan
de acuerdo los expertos en investigación evaluativa como en el hecho de que esta se lleva a cabo con la
MÓDULO: INVESTIGACIÓN EVALUATIVA Y ESTADÍSTICA APLICADA

intención de ser útil e influir en la toma de decisiones posterior. De hecho, los propios evaluadores
dedican grandes esfuerzos a conseguir que sus sugerencias sean tenidas en cuenta y aplicadas
convenientemente (Christie, 2007). Sin embargo, la utilización de los resultados de las evaluaciones, por
múltiples razones, siempre es un asunto sometido a controversias (Escudero, 2013). Para fortalecer una
adecuada utilización de las evaluaciones, es importante analizar bien los contextos de decisión de los
usuarios potenciales y centrar el estudio en aspectos relevantes para dicha tarea (Ledermann, 2012;
Leviton, 2003; Neuman et al., 2013).

El desarrollo de la cultura evaluativa en las organizaciones es otro elemento facilitador de la utilización


adecuada de los procesos evaluativos (Cousins et al. 2014). Reflexionando desde la práctica, Grasso (2003)
nos dice que, de antemano, nunca vamos a tener completa seguridad de que una evaluación se utilizará,
pero que esta posibilidad se acrecienta si se optimizan las condiciones para ello.

En concreto, una evaluación es más útil y más utilizable, si el evaluador se ha respondido previamente a
las tres preguntas siguientes:

· ¿Quiénes utilizarán la evaluación?


· ¿Qué necesitarán de la evaluación?
· ¿Cuándo necesitarán la información?
En definitiva, parece necesario determinar cuáles son las audiencias, cómo se les puede hacer llegar la
información, cuáles son las prioridades de cada una de ellas y con qué celeridad se les debe atender. Por
todo ello, es fundamental el contacto y las consultas con las diversas audiencias antes de diseñar y llevar
a cabo la evaluación, para favorecer una comunicación comprensible y en el momento apropiado de los
resultados de la evaluación y de las sugerencias de acción.

Existen distintos planteamientos sobre cómo se debe informar de las evaluaciones con vistas a optimizar
su visibilidad y, consecuentemente, favorecer su utilización. A partir de un informe común del proceso de
evaluación y sus resultados, se pueden introducir sub-apartados, apéndices, sugerencias específicas, etc.,
dirigidos a las distintas audiencias implicadas. Otra opción es la de elaborar informes separados según
las audiencias, aunque esta es una fórmula menos habitual.

Lo que sí resulta crítico en todo caso, es la adecuación del lenguaje técnico a la hora de presentar los
resultados que, en la investigación evaluativa, las más de las veces son producto de algún tipo de
tratamiento estadístico, que no es familiar para muchos de los potenciales receptores de tales resultados.
El evaluador debe ser capaz de presentar sus resultados apoyándose en la jerga estadística convencional
y, además, de hacerlo de forma que tenga significado (May, 2004) para las distintas audiencias.

Este autor nos dice que un resultado estadístico tiene significado para una audiencia determinada,
cuando es:

• Comprensible, esto es, que se entienda de manera fácil por la mayoría de la gente, con el mínimo de
supuestos posibles sobre la preparación estadística de la audiencia y evitando la jerga estadística.

• Interpretable, esto es, utilizando unidades de medida familiares o fácilmente explicables.

• Comparable, esto es, que permita observar las diferencias con otras situaciones, a lo largo del tiempo,
otros programas, otros centros, etc.
MÓDULO: INVESTIGACIÓN EVALUATIVA Y ESTADÍSTICA APLICADA

El tercer criterio, el de la comparabilidad, nos dice May que es menos crítico que los dos primeros, pues
no siempre se dan las condiciones de necesidad o propicias para la comparación.

Fases de la investigación evaluativa


Las fases que se pueden seguir en un proceso de investigación evaluativa según de la Orden
(1985), son las siguientes:

Cuadro. 5.1 Adaptado de la ejemplificación de posibles fases de la investigación evaluativa tomado en Arnal, De la Orden, Rincón (1992:
215)

Tipos de investigación evaluativa – criterios


- Evaluación de etapas o ciclos de un programa o proyecto: diseño, implementación, resultados
- Evaluación de componentes:
a. insumos
b. procesos y productos
c. estructura, procesos y resultados
d. procesos e impactos
- Evaluación de atributos: pertinencia, idoneidad, suficiencia, eficacia, efectividad, rendimiento, etc

Evaluación Educativa

La formulación conceptual sobre el término “evaluación educativa” ha sido muy polisémica, ya


que los diversos autores que han intentado conceptualizarla parten de perspectivas muy diversas.
Aquí, únicamente se evidenciarán dos posturas, por un lado, se encuentran los que la entienden
como “mera medición”, y, por el otro, los que la consideran como “un proceso integral” que
debe derivar en propuestas de mejora.
En 1930, Tyler, padre de la Evaluación Educativa, la concibió como la “determinación de la medida
en que se han alcanzado los objetivos [de la educación] y para ello, sugería realizar comparaciones
entre los resultados y los objetivos propuestos en un programa de estudios (Tyler en Mora, 2004:7),
es decir, su formulación únicamente se centraba en la medición de los resultados
Elola y Toranzos argumentan que “en el proceso de construcción de una definición sobre
evaluación [educativa] que resulte más comprensiva es [necesario] enumerar una serie de
características que [deben estar] siempre presentes en un proceso de evaluación y que sin duda
ampliarán el horizonte de su aplicación. En primer lugar se puede afirmar que toda evaluación es
un proceso que genera información y en este sentido siempre implica un esfuerzo sistemático de
aproximación sucesiva al objeto de evaluación. Pero esta información no es casual o accesoria sino
que la información que se produce a través de la evaluación genera conocimiento de carácter
retroalimentador, es decir, significa o representa un incremente progresivo de conocimiento sobre
el objeto evaluado” (Elola y Toranzos, 2000: 4).
MÓDULO: INVESTIGACIÓN EVALUATIVA Y ESTADÍSTICA APLICADA

Apunta pensar la evaluación como proceso integral que tiene como finalidad la “toma de
decisiones” siempre con la firme finalidad de mejorar lo evaluado. Cabe señalar que aquí se piensa
la evaluación educativa como un proceso cíclico que debe formar parte de las tareas sustantivas
de todo Sistema Educativo que busque la calidad en su oferta.

Elementos de la evaluación educativa


MÓDULO: INVESTIGACIÓN EVALUATIVA Y ESTADÍSTICA APLICADA
MÓDULO: INVESTIGACIÓN EVALUATIVA Y ESTADÍSTICA APLICADA

Fases características de un proceso de evaluación (Mateo, 2000ª, p. 37)


Planificación Establecer propósitos, finalidad, función, juicios a emitir, decisiones
potenciales, audiencias, objeto de evaluación, fuentes de
información, procedimientos, agentes y temporalización
Desarrollo Recogida, codificación, registro, análisis, es decir tratamiento de la
información
Contrastación Análisis de resultados, formulación de juicios (interpretación,
clasificación y comparación), toma de decisiones, divulgación de
resultados, negociación con las audiencias y seguimiento
Metaevaluación Evaluación de los resultados
Análisis de la utilidad de los hallazgos. Apreciación sobre la
viabilidad del proceso evaluativo del uso de sus resultados. Juicio
acerca de la pertinencia metodológica y ética. Análisis de la
confiabilidad de los procesos y hallazgos

Estrategias evaluativas
Momento de evaluación de inicio.
Técnicas de la evaluación de inicio:
- Debate- análisis de producción- diálogo- textos escritos- investigaciones - encuesta - análisis de
resúmenes - Observación sistemática. Escala de observación, diario de clases, lista de control.

Instrumentos de la evaluación de inicio:


Ficha de matrícula - Ficha personal - Registro de saberes previos - Pruebas objetivas- Pruebas de
desarrollo- Exposición temática – Cuestionarios- Pruebas escritas cortas- Intervenciones orales
por muestreo- Una actividad- Técnicas socioeconómicas

Momentos de la evaluación de proceso


Se le denomina también, evaluación de seguimiento o evaluación formativa. Esta evaluación se
aplica para: - Revelar los avances y dificultades del proceso de aprendizaje. - Detectar el avance,
estancamiento o retraso del aprendizaje. - Verificar los distintos ritmos de avance de los alumnos.
- Hacer reajustes necesarios a la programación y a las estrategias empleadas.

Técnicas de la evaluación de proceso


Observación Sistemática - Observación y revisión de los trabajos escolares en tres criterios:
1. Dimensión personal: originalidad, actuación, higiene, orden.
2. Dimensión colectiva: organización, integración, colaboración, funcionamiento.
3. Resultados conseguidos. Mapas. Conceptuales, Semánticos. Debates. Pruebas de actuación,
juego de roles teatrales.

Instrumentos de la evaluación de procesos


Escalas: numérica de estimación, descriptiva, valorativa, gráfica, de Likert, diferencial semántico.
Registro anecdótico o anecdotario. Lista de cotejo o de control. Diario de clases. Ficha de
observación. Exposición temática. Pruebas de desarrollo. Mapas conceptuales. Análisis de
contenido. Técnicas sociométrica.

La evaluación final o de confirmación


Técnicas de la evaluación final:
MÓDULO: INVESTIGACIÓN EVALUATIVA Y ESTADÍSTICA APLICADA

Observación sistemática. Análisis de resumen. Encuesta. Investigaciones. Diálogo. Controles con


prueba. Texto escrito. Entrevistas.

Instrumentos:
Cuestionario. Controles con pruebas. Escalas de actitudes. Lista de cotejo. Test sociométrico.

¿Cómo leer las entrevistas?

Se pueden realizar varios cortes y varias lecturas de las entrevistas. Una vertical, es decir, desde
el principio al final, de manera corrida, y otra horizontal, temática y comparativa. Para esto, hay que
realizar cortes, por ejemplo por temas o ítems, donde se lee de cada entrevista ese ítem. De esta
manera se puede observar la importancia que cada entrevistado le dio al tema y la importancia
global del tema en la entrevista.

Luego se puede empezar a comparar para ver si los temas son recurrentes o si algún tema
sobresale mas que los otros. En la lectura es importante tener en cuenta los pronombres para ver
si el entrevistado se considera individualmente o como parte de un proceso colectivo.

Por otra parte, es importante destacar, la existencia de software o programas de computación


especializados para el análisis de datos cualitativos, específicamente entrevistas. Por ejemplo, el
ATLAS.ti es un programa muy completo para realizar el análisis exhaustivo de este tipo de material,
especialmente cuando contamos con gran cantidad de entrevistas para procesar. No obstante,
existen muchos otros disponibles de forma gratuita en Internet.

La investigación cualitativa y cuantitativa


La investigación cualitativa es un método exploratorio de investigación. Esta sirve para investigar
causas subyacentes, emociones y valores antes de que se desarrolle una hipótesis. La meta de los
estudios cualitativos es descubrir y explicar porque ocurre un fenómeno o comportamiento. Los
métodos de este tipo de investigación se enfocan en mejorar el conocimiento sobre un tema
utilizando preguntas semi-estructuradas y no estructuradas que permiten que la persona que
responda tenga libertad al momento de contestar.
Los tipos de metodología de investigación cualitativa son, principalmente tres:
- Observación participativa: el investigador participa del problema o situación a analizar. Vive
en primera persona las experiencias y eso es una ventaja a la hora de entender a los sujetos
de la investigación.
- Observación no participativa: el investigador no participa del problema o situación. Dos
ejemplos de este tipo de observación son: simulaciones y estudios de caso. En los primeros
se crea una situación y los participantes actúan. Se les observa. Y la segunda práctica, lleva
a cabo un estudio exhaustivo de una persona o empresa, institución, etc.
- Investigación etnográfica: combina los dos tipos de observación anteriores. Se utiliza para
extraer el máximo de datos, al aplicarse tanto técnicas participativas como tipos de
observación en los que el investigador no se involucra.
- Estudio de casos: estudio exclusivo de uno o muy pocos objetos, fenómeno específico, un
programa, un evento, una persona, un proceso, una institución o un grupo social, lo cual
permite conocer en forma amplia y detallada los mismos. Ej: estudio a profundidad del
comportamiento social y psicológico de un adolescente adicto a los videojuegos
MÓDULO: INVESTIGACIÓN EVALUATIVA Y ESTADÍSTICA APLICADA

Mientras que las técnicas de análisis de la información cualitativa, pueden ser varias.
Destacamos las más comunes:
— Entrevistas de respuesta abiertas.
— Técnicas grupales. En ella destacan los grupos de discusión. La información con diferentes
puntos de vista será la más valorada. Pero también se dan técnicas para fomentar la creatividad,
como la tormenta de ideas o el Brainstorming.
— Técnica del Grupo Nominal. De las más democráticas. Hace posible alcanzar un consenso rápido
con relación a cuestiones, problemas, soluciones o proyectos, evitando los términos de ‘perdedores’
y ‘ganadores’ entre los miembros del grupo.
— Técnica del Grupo de Enfoque. Forma de entrevista grupal que utiliza la comunicación entre
investigador y participante.
— Técnica Delphi. Se extrae información sobre predicciones y se basa en un panel de expertos.
— Análisis de contenido: es observar y reconocer el significado de los elementos que conforman
un documento (palabras, frases) y clasificarlas para el análisis

Por su parte la investigación cuantitativa es un método de investigación sistemático. Se trata de


datos conducidos en el enfoque, diseñado para responder a una pregunta de investigación
específica. Los estudios cuantitativos recopilan datos numéricos y estadísticos para apoyar o refutar
hipótesis previamente sostenidas. Ambos métodos de investigación están estructurados para sacar
conclusiones descriptivas que sean capaces de recomendar acciones adecuadas.

Las técnicas del método cuantitativo más usadas tenemos:

 Entrevistas: pueden ser personales o telefónicas


 Encuestas: auto-administradas por correo, por internet

Metodologías Evaluativas
MODELO DE EVALUACIÓN RESPONDENTE DE ROBERT STAKE (evaluación sensitiva o
evaluación respondente)
a. Enfoque: global-naturalista
b. Concepto de evaluación
Evaluación sensitiva o concertada, según la cual ésta debe responder a lo que el cliente realmente
necesita. Evaluación orientada a la naturaleza compleja y dinámica de los programas educativos,
atendiendo sus diversos aspectos y componentes.
c. Propósitos
Proporcionar al cliente o a los que adoptan decisiones la información que necesitan, en términos de
descripciones y juicios sobre diversos aspectos y componentes del programa.
d. Características
El modelo parte de la distinción entre antecedentes, transacciones y logros, tanto propuestos como
observados, y utiliza los conceptos relacionales claves de contingencia y congruencia. Debe existir
contingencia lógica y empírica entre los antecedentes, las transacciones y los logros propuestos y
observados, respectivamente, y debe existir congruencia entre lo propuesto y observado.
Los aspectos principales atribuidos a la concepción de Stake son los siguientes (Stufflebeam y
Shinkfield, 1995:238).
• Las evaluaciones deben ayudar a las audiencias a observar y mejorar lo que están haciendo (de
allí la denominación de evaluación centrada en el cliente).
Paradigmas - enfoques - orientaciones y modelos evaluativos
MÓDULO: INVESTIGACIÓN EVALUATIVA Y ESTADÍSTICA APLICADA

• Los evaluadores deben describir programas con relación tanto a los antecedentes y las
operaciones como a los resultados.
• Los efectos secundarios y los logros accidentales deben ser tan estudiados como los resultados
buscados.
• Los evaluadores deben evitar la presentación de conclusiones finales resumidas, pero en su lugar
deben recopilar, analizar y reflejar los juicios de una amplia gama de gente interesada en el objeto
de la evaluación.
• Los experimentos y los test regularizados son a menudo inadecuados o insuficientes para
satisfacer los propósitos de una evaluación y frecuentemente hay que sustituirlos o
complementarlos con una variedad de métodos incluyendo los subjetivos.
e. Metodología
Se prepara un plan de observaciones y transacciones que se ejecutan llevando un diario de campo,
a partir de lo cual se elaboran narraciones, descripciones, gráficos, etc. Se averigua qué es valioso
para los usuarios y se reúnen juicios de diversas personas cuyos puntos de vista difieren. Se
presenta la información obtenida a las personas encargadas del programa y a los mismos usuarios
para que se pronuncien sobre la precisión e importancia de los hallazgos.

A continuación se presenta la estructura operativa del modelo de R. Stake.


MÓDULO: INVESTIGACIÓN EVALUATIVA Y ESTADÍSTICA APLICADA

1 Contactar con
personas y audiencias
11 Escoger audiencias 2 Establecer alcances
12 Informe final del programa

10 Validar, invalidar: 3 Repasar actividades


análisis y valoración del programa

9 Tematizar, preparar 4 Descubrir propósitos


semblanzas, casos y preocupaciones

1 – 2 – 3- 4 -5= Teoría

8 = Recolección
8 Observar
5 Conceptualizar
antecedentes, 9 = Organización
objetivos y problemas
transacciones, logros

10 = Análisis
7 Seleccionar
observadores, 6 Identificar datos 11-12 = Informes
instrumentos

En el método respondente el evaluador ha de entrevistar a los implicados para conocer sus puntos
de vista y buscar la confluencia de las diversas perspectivas. El evaluador deberá interpretar las
opiniones y diferencias de puntos de vista (Stecher y Davis, 1990) y presentar una amplia gama de
opiniones o juicios, en lugar de presentar sus conclusiones personales.
En este método respondente una de sus características es que parte de la distinción entre los
antecedentes y logros, tanto propuestos como observados, utilizando conceptos claves y de
congruencia.
MÓDULO: INVESTIGACIÓN EVALUATIVA Y ESTADÍSTICA APLICADA

Debe existir coherencia lógica y empírica entre los antecedentes, las transacciones y los logros
propuestos y observados, respectivamente, y debe existir congruencia entre lo propuesto y
observado. Los antecedentes son las condiciones existentes antes de que se inicie el proceso
educativo o programa y que pueden influir en los resultados, como las características de las
situaciones que han de afrontar los sujetos que participarán en el programa; también el contexto y
las actividades que se han planificado, las cuales deben ser coherentes, específicas y adaptadas a
dichas situaciones. También puede ser necesario incluir características descriptivas de los sujetos
de estudio. Las actividades o procesos didácticos constituyen el conjunto de interacciones,
transacciones y actividades, que tienen lugar en el escenario educativo; son las actividades
planificadas que constituyen el programa educativo. Los efectos-logros incluyen todo lo que se
puede conseguir a través de un programa. Los resultados son los efectos del proceso educativo y
se refiere a la consecución de objetivos en relación a conductas terminales de los sujetos.

MODELO C.I.P.P. DE STUFFLEBEAM (CONTEXTO-INSUMOS-PROCESOS-


PRODUCTOS)
a. Enfoque: analítico-racionalista
b. Concepto de evaluación
La evaluación es el proceso de identificar, obtener y proporcionar información útil y descriptiva
acerca del valor y el mérito de las metas, la planificación, la realización y el impacto de un objeto
determinado, con el fin de servir de guía para la toma de decisiones, solucionar problemas de
responsabilidad y promover la comprensión de los fenómenos implicados.
c. Propósito
Proporcionar información útil para tomar decisiones con respecto a un programa, ya sean estas de
planeación como resultado de la evaluación de contexto; de estructuración como resultado de la
evaluación de insumos; de implementación como resultado de la evaluación de proceso o de
reciclaje como resultado de la evaluación de producto.
d. Características
Establecer cuatro tipos de evaluación:
Evaluación de contexto: busca definir el contexto institucional, identificar la población objeto del
estudio y valorar sus necesidades, identificar las oportunidades de satisfacer las necesidades,
diagnosticar los problemas que subyacen en las necesidades y juzgar si los objetivos propuestos
son lo suficientemente coherentes con las necesidades valoradas.
MÓDULO: INVESTIGACIÓN EVALUATIVA Y ESTADÍSTICA APLICADA

Evaluación de insumos: busca identificar y valorar la capacidad del sistema, las estrategias del
programa y sus alternativas, la planificación de procedimientos para llevar a cabo las estrategias,
los presupuestos y los programas.
Evaluación de procesos: busca identificar o pronosticar, durante el proceso, los defectos de la
planificación del procedimiento o de su realización, proporcionar información para las definiciones
pre-programadas y descubrir y juzgar las actividades y aspectos del procedimiento.
Evaluación del producto: busca recopilar descripciones y juicios acerca de los resultados y
relacionarlos con los objetivos y la información proporcionada por el contexto, los insumos y por los
procesos e interpretar su valor y su mérito. Propone y utiliza la evaluación formativa y sumativa para
cada uno de estos tipos de evaluación, así como el empleo de una amplia gama de métodos y
técnicas de recolección de información como el análisis de sistemas, la inspección (observación
directa), la revisión de documentos, las audiciones, las entrevistas, los test diagnósticos y la técnica
Delphi entre otras.
e. Metodología
Plantea cuatro niveles o etapas:
1) Delineación: en la que se definen los objetivos de la evaluación, se formulan preguntas, se
delimitan las decisiones por tomar se identifican impedimentos.
2) Obtención de información: se diseñan o adaptan instrumentos, se determinan las muestras, se
aplican los instrumentos y se realiza el procesamiento estadístico de los resultados.
3) Análisis de la información: se elabora un diseño de análisis que garantice la mayor efectividad
en la interpretación de los datos obtenidos y se procede al análisis de la información.
4) Aplicación de la información: en la que se comunica la información a la audiencia y se le asesora
para la utilización y aplicación de dicha información.
A continuación se presenta el modelo globalizador simplificado (C.I.P.P) de Stufflebeam,
gráfica 1
MÓDULO: INVESTIGACIÓN EVALUATIVA Y ESTADÍSTICA APLICADA

MODELO DE EVALUACIÓN FOCALIZADA DE PATTON


a. Enfoque: GLOBAL NATURALISTA
b. Concepto de evaluación
Evaluación focalizada, según la cual se seleccionan o focalizan los problemas y aspectos más
relevantes del programa, para luego tomar decisiones con respecto al contenido general de la
evaluación, sin establecer por anticipado especificaciones de ese contenido ni de los
procedimientos por seguir.
c. Propósitos
Comprender la dinámica interna del programa tratando de responder preguntas tales como:
¿qué factores son los que caracterizan este programa? ¿Cómo se selecciona a los usuarios y qué
hacen una vez están en el programa? ¿Cómo perciben los usuarios el programa?
d. Características
Se focaliza la evaluación en los procesos, dando más importancia a cómo se logra un cierto
resultado que al producto mismo. Se consideran los resultados, pero desde el supuesto de que
estos serán diferentes para los distintos tipos de participantes, es decir, se aboga por la
identificación de resultados individualizados.
e. Metodología
Se comienza por identificar las personas que por su posición serán las que tomarán decisiones con
respecto al programa y se contacta a los usuarios activos. Con ellos se focalizan los problemas y
temas relevantes y luego se seleccionan las técnicas de recolección de información, especialmente
de tipo cualitativo (observación, entrevistas, etc.), así como los procedimientos de análisis que se
van a seguir. Se caracteriza a los diferentes participantes para el estudio individualizado de los
resultados a través de estudios de caso
MÓDULO: INVESTIGACIÓN EVALUATIVA Y ESTADÍSTICA APLICADA

Potrebbero piacerti anche