Sei sulla pagina 1di 4

LA EVALUACIÓN DE PROGRAMAS SOCIALES: FUNDAMENTOS Y ENFOQUES TEÓRICOS

1. DEFINICIÓN Y DIFERENCIACIÓN DE CONCEPTOS.


Investigación evaluativa: aplicación de los principios y procedimientos de la investigación social para comprobar
sistemáticamente la eficacia de un programa.
Evaluación de programas: principios, estrategias y procesos que fundamentan la evaluación de toda acción o
conjunto de acciones desarrolladas de forma sistemática en un determinado contexto con el fin de tomar decisiones
pertinentes que contribuyan a la mejora. Se complementa en tres pilares: evidencias, valores y decisiones.
Conceptos que aluden a dominios diferentes y que en ocasiones se confunden.

2. DELIMITACIÓN DEL CONTEXTO DE TRABAJO.


Escasa consolidación epistemológica que presenta actualmente el campo de la investigación. La escasa atención
que se presta a la teoría además de la multitud y heterogeneidad de conceptos asociados a la evaluación, impide,
como bien dice Bickman (1990) su consolidación como disciplina científica.
Necesidad de una teoría que justifique y explique los procedimientos y técnicas que se llevan a cabo.
No se matizan las diferencias entre fundamentos científicos (bases que fundamentan la evaluación) y enfoques
teóricos (metodologías).
Necesario que el evaluador especifique el marco conceptual que asume a la hora de justificar y planificar su
trabajo, pues las decisiones metodológicas están supeditadas a los planteamientos teóricos.
Necesidad de más y mejor teoría.

3. CONCEPTO DE INTERVENCIÓN SOCIAL.


Se debe saber cómo deben ser las estrategias de intervención para que se produzcan cambios sociales efectivos.
Por lo que se necesita teoría que fundamente la elaboración y aplicación de estas estrategias, y que a la vez
sirva de marco de referencia para tomar decisiones a la hora de planificar los procesos evaluativos.
3.1. Programa como verificación de teorías.
A mi parecer, esta perspectiva no es la más adecuada si hablamos de intervención social. Las características de la
intervención social impiden la aplicación de diseños metodológicos rigurosos que nos permitan obtener indicios
razonables de validez interna y externa de forma satisfactoria (Cronbach, 1982).
3.2. Programa como tecnologías sistemática.
Los objetivos de evaluación no se focalizan sobre la verificación de la inferencia causal de las teorías, si no sobre las
distintas hipótesis prácticas que se pueden formular en cada fase que implica la conceptualización, el diseño, la
aplicación y la utilidad de una estrategia de intervención social.
3.3. Programa como compromiso con el cambio social.
Personalmente, en intervención social, considero que este enfoque sería el más apropiado, ya que menciona que la
justificación teórica del programa es promover un cambio social, por lo que este debe ser también el objetivo de la
evaluación. La finalidad, por tanto, sería promover la transformación social, el cambio, la mejora.

4. CONSTRUCCIÓN DEL CONOCIMIENTO.


Búsqueda de información pertinente, válida, fiable y valiosa.
4.1. Bases teóricas del conocimiento.
Justificar la predilección de metodologías a partir de las bases ontológicas, epistemológicas y metodológicas.
Rara vez se justifican las bases ontológicas y las bases epistemológicas. Considero que es importante justificarlas,
al igual que se hace con las bases metodológicas, pues nos permitirán entender los planteamientos que hace el
evaluador.
Ningún paradigma es intachable ni ofrece bases epistemológicas plenamente satisfactorias. Aquí, mi posición es la
de complementariedad y compatibilidad, más que de incompatibilidad, permitiendo así abordar las cosas de manera
más completa y rica.
4.2. Naturaleza de las evidencias: datos y opiniones.
Objetivo evaluación: obtención de evidencias sobre las que apoyar los juicios.
Objetividad frente a subjetividad. Aquí surge una cuestión: ¿a qué tipo de información le atribuimos la categoría de
conocimiento cierto, válido y fiable? A mi parece, subjetividad y objetividad son compatibles, pues ambas cosas nos
pueden aportar información válida, creíble, fiable y valiosa, no siendo ésta excluyente, si no complementaria,
enriqueciéndose así mutuamente y logrando, por tanto, un mayor entendimiento y comprensión, a la vez que
supondrá una más acertada toma de decisiones que den lugar a mejoras.
4.3. Controversia entre deducción e inducción.
Deducción frente inducción. Aquí decir que no existe primacía de unos métodos frente a otros, si no que éstos irán
en función de los propósitos. Además, vuelvo a mencionar la complementariedad, pues no es necesario contraponer
o enfrentar metodologías y/o métodos, ya que todas son necesarias y se enriquecen en muchas ocasiones.
5. EL PROBLEMA DE LOS CRITERIOS DE VALOR.
La evaluación supone valoración. La cuestión reside en qué tipo de valoración hacer, si descriptiva o
prescriptiva. Para mí la unión de ambas sería lo ideal, de tal manera que con la descriptiva asumiríamos valores de
otros como criterio de referencia para emitir juicios; y a la vez, con la prescriptiva el evaluador también aportaría su
granito de arena, pues también aportaría criterios propios que considerase adecuados y correctos para emitir juicios.
Lo que planteo con esto es un consenso, una negociación por parte del evaluador y las audiencias.
¿Qué criterios seguir?
5.1. Criterios políticos.
En este apartado quiero hacer un apunte: que el evaluador acepte los valores del patrocinador como punto de
referencia para emitir juicios, ¿implicaría que el evaluador perdiera su objetividad convirtiendo su trabajo en una tarea
burocrática al servicio de un estamento político?, es decir, ¿el evaluador pasaría a estar a "disposición" de los
patrocinadores, aceptando unos valores y criterios que no son propios por miedo a "perder su puesto"?
5.2. Criterios técnicos.
Procedimientos e instrumentos científicos apropiados, reglas, principios, estándares, indicadores, etc. para justificar
ante las audiencias los juicios emitidos.
5.3. Criterios democráticos.
En intervención social, considero estos criterios los más acertados. Da voz a los implicados, siendo estos los que
constituyen un marco de referencia para formular los juicios de valor. De esta forma son los actores implicados los
protagonistas de su evaluación, y ellos, por ser los que conocen más y mejor la realidad en la que se insertan,
pueden facilitar información más valiosa e interesante. Además, difícilmente se pondrán en marcha mejoras si los
protagonistas no participan activamente en su valoración y elaboración.

6. UTILIDAD Y CREDIBILIDAD DE LOS INFORMES.


Informes: análisis y explicación de los resultados y recomendaciones para que la evaluación tenga consecuencias.
6.1. Posibles usos del informe.
a) Observaciones y explicaciones generalizables: mediante la explicación de procedimientos científicos y
rigurosos.
b) Facilitar a la implicada información para tomar decisiones.
 Identificar problemas.
 Inducir acciones.
 Justificar decisiones.

6.2. Identificar los usuarios de la información.


Facilitar a las audiencias la información que necesitan. Para ello hay que identificar quiénes son, ya que de ello
dependerán los tipos de usos del informe. Los informes tienen que ser adecuados a todas las partes implicadas.

6.3. Clarificar el nivel de operatividad del informe.


¿Qué papel va a jugar el informe en el proceso de toma de decisiones?:
a) Instrumental: los resultados obtenidos se utilizan de forma directa para tomar decisiones sobre el programa
b) Conceptual: las valoraciones no suelen ser utilizadas para decidir cambios pero, indirectamente, influyen
sobre cómo perciben y valoran las personas las intervenciones sociales.
c) Persuasiva: cuando las evaluaciones son utilizadas para convencer a las audiencias sobre la estrategia de
intervención.

6.4. Elaboración y difusión adecuada de los informes.


 La información tiene que ser precisa y clara, contando con un lenguaje adecuado.
 Difusión: depende de factores de orden político, el problema deriva cuando estos poderes se adueñas de los
informes y los difunden cuando les beneficia.
 Utilidad de la evaluación mayor en la medida en que mayor sea su posibilidad de acceso a todos los
sectores implicados.
 Credibilidad del evaluador: comprometida por la utilidad y usos que se haga de sus informes.
7. DELIMITACIÓN DEL ENFOQUE METODOLÓGICO.
La delimitación de un enfoque metodológico se conoce como la elección del modelo y el diseño de una evaluación.
 Modelo: hace referencia a la forma o modo de abordar para conseguir sus objetivos: naturaleza del programa, la
finalidad propuesta, audiencias implicadas, información necesaria, metodología, criterios evaluativos, etc.
 Diseño: alude al proceso que deberemos seguir para obtener las informaciones que reúnan la categoría de
certezas.
7.1. Elección del modelo evaluativo.
Las preguntas que se debe hacerse un evaluador antes de decidir el marco teórico en el que va a situar su trabajo
son las siguientes: ¿Qué quiero saber o qué quiere saber el cliente que me encarga la evaluación en relación con el
programa? ¿De qué tipo de programa estamos hablando?, ¿Qué pretende hacer y/o decidir el cliente respecto al
programa objeto de estudio? ¿Qué tipo de información necesito? ¿Cuáles son los procedimientos idóneos para su
obtención? ¿Cuál es el papel que voy a desempeñar?, etc… Las respuestas son las que realmente determinan el
enfoque o metodológica y las tácticas y estrategias que justifican un proceso evaluativo que debemos adoptar.
7.1.1. Finalidad del estudio evaluativo.
El primer paso es identificar los fines que se pretenden alcanzar, para así elegir el modelo.
 Comprobar si los objetivos de los programas han sido alcanzados.
 Recabar opiniones fundamentadas sobre la valoración que hacen del programa las audiencias implicadas.
 Obtener informaciones cualificadas a partir de las cuales se puedan tomar decisiones.
 Estimar la relación entre los recursos empleados y los resultados obtenidos (coste-efectividad, coste-beneficio).
7.1.2. Concreción de los parámetros del modelo.
Especificar operacionalmente las variables con el fin de probar la validez empírica del modelo y la posibilidad de
generalizar considerando las dimensiones, factores y variables que intervienen en la determinación y
representación de un modelo: conceptualización, bases epistemológicas, criterios, utilidad/usos de informes, papel
del evaluador.
7.1.3. Utilización de las taxonomías. Ciencia que trata de los principios, métodos y fines de la clasificación
Generalmente los evaluadores no construye un modelo específico para cada evaluación sino que utilizan como
referencia alguno de los que ya estan formalizados. La elección del modelo debe hacerse de forma razonada, no
puede generar incoherencias.
Eleccecion de unos Arquetipos (prototipo ideal que sirve como ejemplo de perfección) de las diversas opciones o
aproximaciones metodológicas: experimental, dirigido a metas, orientado a las decisiones, centrado sobre los
clientes, respondente.
7.2. Elección del diseño y métodos.
Una vez decidido el enfoque o modelo que vamos a asumir para llevar a cabo la evaluación procede establecer el
diseño, es decir, la estrategia o plan que vamos a seguir donde se especifica la secuencia de decisiones acerca de
cómo recoger, ordenar y analizar los datos en función de los fines del programa.
Al igual que sucede con los modelos, también podemos utilizar diversos criterios a la hora de clasificar los diseños
evaluativos. Entre los criterios evaluativos destacaremos tres:
7.2.1. En función del enfoque teórico adoptado.
 Preordenado: parten de un modelo teórico formalizado que detalla todos los elementos del proceso: objetivos,
información necesaria, instrumentos, fuentes, etc.
 Respondente: parte de un marco teórico flexible que busca las valoraciones de las personas implicadas en el
programa, para lo cual es necesario realizar una planificación emergente que se pueda reconducir en cada etapa
del proceso en función de las observaciones que se deduzcan de etapas anteriores.
7.2.2. El sistema de control que permitan las variables del programa.
Clasificación en función de las metodologías utilizada:
 Observacionales.
 Selectivos.
 Cuasiexperimentales.
 Experimentales.
7.2.3. El sistema de control que se utiliza sobre la información recabada.
 Diseños comparativos: mediante controles aleatorios, construidos y estadísticos.
 Diseños no comparativos: utilizan controles genéricos, reflexivos y en la sombra.
7.3. Correspondencia entre modelos y diseños.
Entre modelo y diseño debe existir coherencia.
Enfoque comprensivo de la evaluación: integrar aproximaciones teóricas diversas y estrategias metodológicas
complementarias.
8. CONSIDERACIONES FINALES.

Evaluación= tarea práctica. Pero esto no significa que esté alejada de la teoría.
Contribuciones para consolidar la identidad científica de la evaluación:
a) Profundizar sobre teorías relacionadas con el cambio social.
b) Establecer una teoría evaluativa explícita además de implícita.
c) Clarificar los fundamentos epistemológicos (a los que añado los ontológicos) de toda evaluación.
d) Abordar la evaluación como una tarea ecléctica y menos radical.
e) Elegir los métodos en función de la finalidad, de tal manera que estos sean coherentes con lo que se quiere
conseguir.
f) Fomentar la diversidad metodológica, pues las evaluaciones se enriquecen con la complementariedad.
g) Promover trabajos de síntesis antes que individuales para aumentar la validez y fiabilidad.
h) Velar por la credibilidad de los informes (útiles, claros, precisos y comprensibles).
i) Analizar los factores contextuales y políticos que condicionan el uso de la información.
j) Realizar estudios de metaevaluación sobre los trabajos efectuados, para así mejorar el trabajo, las bases
teóricas de la disciplina y ganar credibilidad.

Yo, añadiría una más, y es la formación de profesionales de la evaluación, siendo esta adecuada, valiosa y
profesionalizadora.

Potrebbero piacerti anche