Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Se pueden usar varios enfoques para evaluar los programas. El seguimiento rastrea
indicadores clave de progreso en el transcurso de un programa como base para evaluar
los resultados de la intervención. La evaluación operativa examina cuán efectivamente
fueron los programas implementado y si hay brechas entre los resultados planificados y
los realizados. La evaluación de impacto estudia si los cambios en el bienestar se deben
realmente a la intervención del programa y no a otros factores.
Aprendiendo objetivos
Identificar las metas que el programa o la estrategia es diseñada para lograr, como
reducir pobreza o mejorar instruir enrolamiento de chicas. Por ejemplo, los sets
iniciativos Goals Development Milenarios ocho metas amplias a través de los
temas como el hambre, las desigualdades de género, la educación, y la pobreza
para monitorear la función de países y los donantes adentro lograr resultados en
esas areas.
Identificar señalizadores cruciales que pueden usarse para monitorear progreso en
contra de estas metas. En el contexto de pobreza, por ejemplo, un señalizador
podría ser la proporción de individuos consumiendo menos que 2,100 calorías por
el día o la proporción de grupos familiares viviendo de menos de un dólar un día.
Colocar blancos, cuál cuantifica el nivel de los señalizadores que deben ser
logrados por una fecha dada. Por ejemplo, un blanco podría dividir en dos el
número de grupos familiares viviendo de menos de un dólar el día en 2015.
Establecer un sistema monitor para rastrear progreso hacia lograr blancos
específicos y para informarle fabricantes de política. Tal sistema alentará a la
mejor gerencia de y responsabilidad para los proyectos y los programas.
Los señalizadores están típicamente clasificados en dos grupos principales. Los primeros,
señalizadores finales miden los resultados de programas de reducción de pobreza (como
el consumo superior per cápita) y el impacto en dimensiones de bienestar (como la
reducción de pobreza de consumo). Los segundos, señalizadores intermedios miden
aportes en un programa (como un reembarque efectivo condicional o subsidio del salario
elabora planes secretos) y las salidas del programa (como las carreteras construidas, los
hombres desempleados, y las mujeres contratadas). Los señalizadores del blanco pueden
ser representados en cuatro grupos, tan presentados en figura 2.1. Este llamado marco
lógico explica las entradas, salidas, resultados e impactos en el sistema de M&E.
Evaluación de impacto, que este es el enfoque de este manual, abarca las últimas etapas
del marco de M&E.
Los enfoques utilizados para abordar estos problemas incluyeron instrumentos de encuesta
detallados para monitorear resultados, en asociación con las autoridades del gobierno local y
central. Estos instrumentos ayudaron evaluar el impacto del programa en los hogares y dar a
los funcionarios del programa una idea de cómo efectivamente el programa se estaba
implementando. Las encuestas incluyeron, por ejemplo, un estudio piloto para comprender
mejor las necesidades de los hogares en comunidades específicas y para ayudar a guiar el
programa diseño. También se realizaron encuestas formales de participantes y no participantes
en el transcurso del programa, así como también de líderes locales y miembros del personal
de escuelas y centros de salud en todas las localidades. También se recopilaron datos
administrativos sobre pagos a hogares.
Su objetivo era apuntarle a un número de salud y los resultados educativos incluyendo
desnutrición, mortalidad infantil alta, fertilidad alta, y asistencia de la escuela. El
programa, que le apuntó a los cascos urbanos rurales y marginales, comenzó en mid-1997
siguiendo la crisis macroeconómica de 1994 y 1995. A las 2004, alrededor de 5 millones
de familias estaba cubierto, con un presupuesto de acerca del billón del US$2.5, o 0.3 por
ciento del producto doméstico bruto de México. El empuje principal de Oportunidades
fue proveerles los reembarques efectivos condicionales a los grupos familiares (las
madres especificar las calles), dependiente de sus niños asiste a los centros médicos de
salud de escuela y de visiteo regularmente. El soporte financiero estaba también previsto
directamente para estas instituciones. El beneficio común recibió por grupos familiares
participantes fueron aproximadamente 20 por ciento del valor de su gasto de consumo
antes del programa, con pesos apenas iguales en la salud y los requisitos de educación.
Parcial
La quinta parte, los blancos la necesidad a ser establecidos; Estos blancos también pueden
usarse para monitorear resultados. Este esfuerzo incluye a colocar blancos periódicos con
el paso del tiempo (por ejemplo, anualmente o cada dos años). Visto que la duración de
los efectos probables del programa, así como también otros factores que pudiese hacer
mella programa implementación (como también consideraciones políticas), es
importante. Monitoreando estos blancos, en particular, encarna el sexto paso en este
armazón basado en resultados y requiere la colección de datos de buena calidad.
Las debilidades en estas áreas tienen que ser ocupado de acercamientos diferentes
directos. Los señalizadores de función, por ejemplo, pueden estar definidos que más
precisamente por ahí (uno) mejoran comprender los aportes y las salidas en la etapa de
proyecto, (b) especificando el nivel y la unidad de medida para señalizadores, (c) la
comunidad frecuentemente colectora y los datos del nivel del beneficiario para proveer
actualizaciones periódicas en qué tan intermedio los resultados evolucionan y si los
señalizadores necesitan estar revisados, y (d) claramente identificando a las personas y
entidades responsables para monitorear. Para colección de datos en particular, la
oportunidad del momento de encuesta (de una línea de fondo de preproyecto, por
ejemplo, hasta el período actual); La frecuencia (mensualmente o semestralmente, por
ejemplo); Los instrumentos (como las entrevistas o cuentas); y otras como la necesidad
de la colección (el grupo familiar individual, la comunidad, o una unidad administrativa
y más ancha como distrito) para set definido y arriba de explícitamente dentro del
armazón M&E. Con tal que el personal con entrenamiento y las herramientas para
colección de datos y análisis, así como también Para la verificación de datos en niveles
diferentes de la estructura monitora (vea 2.A de la figura de la caja 2.2 para un ejemplo),
es también crucial.
Recuadro 2.2 Estudio de caso: evaluación del impacto social de los servicios de energía
rural en Nepal
Los proyectos de microhidroeléctricas de REDP incluyen seis principios de desarrollo
comunitario: organizacional desarrollo, mejora de habilidades, formación de capital,
promoción de tecnología, empoderamiento de comunidades vulnerables y gestión ambiental.
Implementación de la microhidroeléctrica REDP Los proyectos en Nepal comienzan con la
movilización comunitaria. Las organizaciones comunitarias (CO) son las primeras formado
por beneficiarios individuales a nivel local. Dos o más CO forman entidades legales llamadas
grupos funcionales. Un comité de gestión, representado por todos los CO, toma decisiones
sobre la electricidad. distribución, tarifas, operación, gestión y mantenimiento de proyectos de
microhidroeléctrica.
Recientemente, un estudio sobre el impacto social de los servicios de energía rural en Nepal
ha sido financiado por Programa de Asistencia para la Gestión del Sector Energético y es
administrado por el Departamento de Energía del Sur de Asia del Banco Mundial. Al
implementar el marco de M&E para los proyectos de microhidroeléctrica, Este estudio busca
(a) mejorar la gestión del programa (mejor planificación y presentación de informes); (si)
rastrear el progreso o la medición sistemática de los beneficios; (c) garantizar la rendición de
cuentas y los resultados sobre inversiones de partes interesadas como el gobierno de Nepal,
así como de donantes; y (d) brinde oportunidades para actualizar la forma en que se
implementa el programa de manera continua retroalimentación sobre cómo los resultados se
superponen con los indicadores clave de rendimiento.
El recuadro figura 2.A describe el marco de monitoreo inicial establecido para difundir
información sobre cómo se midieron y asignaron los insumos, productos y resultados. La
información se recopila en cada uno de los niveles de la comunidad, el distrito y la oficina
central (AEPC). Los movilizadores comunitarios transmiten información a nivel de campo a
los coordinadores a nivel de distrito, donde también se recopila información adicional. En el
distrito nivel, la información se verifica y se envía a AEPC, donde se preparan los informes y
luego se envían a varias partes interesadas. Las partes interesadas, en particular, pueden incluir
al gobierno de Nepal, así como a los donantes.
Recuadro 2.2 Estudio de caso: evaluación del impacto social de los servicios de energía
rural en Nepal (continuación)
El recuadro figura 2.B describe cómo se han establecido los indicadores clave de rendimiento
para los proyectos. Comenzando con insumos como capital humano y físico, productos como
programas de capacitación. y se generan implementaciones de sistemas. Los resultados a corto
plazo e intermedios son esbozado, incluida la mejora de la productividad y la eficiencia del
trabajo doméstico derivado de mayor acceso a la electricidad, lo que lleva a impactos
potenciales más amplios en salud, educación, el bienestar de las mujeres y el medio ambiente.
Los fabricantes de política también podrían necesitar establecer cómo los impactos de
programa del microlevel (en el nivel comunal o regional) serían afectados por tendencias
niveladas en país como el comercio aumentado, inflación, y otras políticas
macroeconómicas. Un asunto relacionado es heterogeneidad en el programa impacta a
través de un grupo dirigido a sectores específicos. Los efectos de un programa, por
ejemplo, pueden diferir sobre su duración de una vida esperada. Los aportes pertinentes
afectando resultados también pueden cambiar sobre este horizonte; Así, los monitores
resultados de largo plazo, así como también de corto plazo pueden ser de interés para
fabricantes de política. También, aunque los resultados de programa son a menudo
distinguidos simplemente a través de áreas dirigidas a sectores específicos y poco
dirigidas a sectores específicos, la variación monitora en la implementación del programa
(las medidas sumamente de calidad, por ejemplo) puede ser útil comprendiendo los
efectos del programa. Con todas estas preocupaciones, el monitoreo cuidadoso de áreas
dirigidas a sectores específicos y poco dirigidas a sectores específicos (grandemente si
en el nivel regional, de toda la casa, o individual) coadyuvará en medir efectos de
programa. Presentando un ejemplo de Indonesia, caja 2.3 describe algunas técnicas
usadas para poner la dirección en retos de la M&E.
Recuadro 2.3 Estudio de caso: el proyecto de desarrollo de Kecamatan en Indonesia
El Programa de Desarrollo de Kecamatan (KDP) en Indonesia, un programa de US $ 1.3 mil
millones dirigido por La Oficina de Desarrollo Comunitario del Ministerio del Interior, tiene
como objetivo aliviar la pobreza mediante fortaleciendo el gobierno local y las instituciones
comunitarias, así como mejorando la gobernanza local. El programa comenzó en 1998 después
de la crisis financiera que plagó la región, y funciona con pueblos para definir sus necesidades
de desarrollo local. Los proyectos se centraron en el crédito y la expansión de la
infraestructura. Este programa no se asignó finalmente al azar.
Una parte de los fondos del PDK se destinó a actividades de monitoreo. Tales actividades
incluyen, por ejemplo, capacitación y desarrollo de capacidades propuestos por las
comunidades y el proyecto local grupos de monitoreo. El soporte técnico también fue
proporcionado por consultores, quienes fueron asignados a conjuntos de aldeas. Desde
consultores técnicos con experiencia en ingeniería hasta consultores de capacitación para
apoyar la comunicación dentro de las aldeas.
Los gobiernos y las organizaciones no gubernamentales también ayudaron en el monitoreo, y
se alentó a las aldeas a participar en el autocontrol a través del parlamento piloto del pueblo-
distrito consejos y visitas entre pueblos. Contratos con bancos privados para proporcionar
servicios bancarios a nivel de aldea. También se consideraron los servicios. Como parte de
este esfuerzo, la supervisión y capacitación financiera fueron proporcionado a las
comunidades, y se desarrolló un manual financiero simple y una lista de verificación para
utilizar en el campo como parte de la iniciativa de monitoreo. Las reformas de adquisiciones
a nivel de distrito también fueron introducidas para ayudar a las aldeas y áreas locales a
comprar servicios técnicos para proyectos demasiado grandes para ser manejado por la
gerencia del pueblo.
El seguimiento del proyecto combina enfoques cuantitativos y cualitativos. En lo cuantitativo
Además, las encuestas de muestra representativas ayudaron a evaluar el impacto de la pobreza
del proyecto en diferentes áreas. En el aspecto cualitativo, los consultores prepararon estudios
de casos para resaltar las lecciones aprendidas del programa, así como para evaluar
continuamente el progreso del KDP. Algunos problemas de este caso los estudios incluyen la
participación relativa de las mujeres y los pobres extremos, la resolución de conflictos y el
papel de los facilitadores de las aldeas en la difusión de información y conocimiento.
Dado el amplio alcance del programa, se han sugerido algunas áreas de mejora para monitoreo
de KDP. Las discusiones o sesiones realizadas con todos los consultores al final de cada ciclo
de evaluación pueden fomentar la retroalimentación y el diálogo a lo largo del programa, por
ejemplo. Los grupos focales de consultores de diferentes orígenes (mujeres, por ejemplo)
también podrían generar diferentes perspectivas valiosas para dirigirse a una población
diversa. Las sugerencias también han sido hechas para desarrollar temas en torno a estas
reuniones, como cuestiones técnicas, transparencia y gobernanza e infraestructura. También
se encontró a menudo que los consultores no informaban problemas regularmente encontraron
en el campo, a menudo temiendo que su propia actuación fuera criticada. Incentivos a alentar
a los consultores a informar con precisión los desarrollos en sus áreas también se han discutido
como parte de las mejoras necesarias en el monitoreo.
La Evaluación Operacional
Porque la evaluación operacional tiene relación para cómo son los programas finalmente
implementado, las medidas apropiadas de diseño de calidad de implementación tienen
mucha importancia. Este esfuerzo incluye a monitorear cómo fue gastado el dinero de
proyecto finalmente o ubicó a través de sectores (como comparado para lo que fue
dirigido a sectores específicos), así como también los spillovers potenciales del programa
en áreas poco dirigidas a sectores específicos. Coleccionar datos precisos en estos
factores puede ser difícil, pero como descrito en subsiguientes capítulos, es esencial
determinando prejuicios potenciales en los impactos medidores de programa. Caja 2.4,
que examina FONCODES (Fondo de Cooperación para el Desarrollo Social, o
Cooperación Financia para la Tertulia El desarrollo), un programa de alivio de pobreza
en Perú, sale a la vista qué tan operacional la evaluación también a menudo implica
supervisión directa de etapas diferentes de implementación de programa. FONCODES
tiene ambos objetivos educativos y nutritivos. El componente nutritivo implica distribuir
comida precocinada de nutrición, alta, lo cual es actualmente consumido por ahí acerca
de 50,000 niños en el país. Dado la escala de la iniciativa de distribución de comida, un
número de pasos fuera tomado para asegurar eso aportes intermedios y los resultados
podrían ser monitoreados eficazmente.
Recuadro 2.4 Estudio de caso: Monitoreo de los objetivos nutricionales de la Proyecto
FONCODES en Perú
Dentro de la iniciativa de nutrición FONCODES en Perú, se tomaron una serie de enfoques
para garantizar la calidad del suplemento nutricional y la implementación eficiente del
programa. En el nivel del programa, la calidad de los alimentos se evaluó periódicamente a
través de auditorías independientes de muestras de comunidades. Este trabajo incluyó la
obtención y análisis de muestras aleatorias de alimentos. preparado por hogares seleccionados.
Cada dos meses, los funcionarios del proyecto visitarían puntos de distribución al azar para
monitorear la calidad de la distribución, incluido el almacenamiento. Estas visitas también
proporcionaron una oportunidad de verificar el número de beneficiarios y subrayar la
importancia del programa a las comunidades locales.
Las visitas domiciliarias también se utilizaron para evaluar el conocimiento del proyecto por
parte de los beneficiarios y sus preparaciones de comida. Por ejemplo, las madres (que eran
las principales responsables de cocinar) eran pidió mostrar el producto en su bolsa, describir
cómo se almacenó y detallar cuánto había consumido desde la última distribución. También
fueron invitados a preparar una ración para que él se pudo observar el proceso o se tomaron
muestras de las sobras para su posterior análisis.
Los resultados de estas visitas se documentaron regularmente. Encuestas regulares también
documentadas los resultados. Estos datos permitieron a los funcionarios del programa
comprender cómo se desarrollaba el proyecto y si alguna estrategia necesitaba ser ajustada o
reforzada para asegurar la calidad del programa. En el A nivel económico, se hicieron intentos
para crear incentivos dentro de la industria agroalimentaria para asegurar un posicionamiento
sostenible del suplemento en el mercado; las empresas fueron seleccionadas de un proceso de
licitación pública para distribuir el producto.
Sin embargo, los esfuerzos operativos destinados a reducir la pobreza en estas áreas finalmente
lo hicieron. variar de las estimaciones de impacto resultantes. FONCODES no se asignó al
azar, por ejemplo, y Schady (1999) descubrió que la flexibilidad de la asignación de fondos
dentro de FONCODES, así como en el el momento y la constitución de los gastos hicieron
que el programa fuera muy vulnerable a la interferencia política. Paxson y Schady (2002)
también utilizaron datos a nivel de distrito sobre los gastos de la educación. componente del
programa para encontrar que, aunque el programa llegó a los distritos más pobres, lo hizo no
necesariamente llega a los hogares más pobres de esos distritos. Sin embargo, sí encontraron
que el programa aumentó la asistencia a la escuela, particularmente la de los niños más
pequeños. Programa exitoso, Por lo tanto, la implementación requiere aprovechar todos los
objetivos del programa, incluida la aplicación efectiva de la focalización del programa.
La Evaluación Operacional Versus la Evaluación de Impacto
Los agentes económicos principales en el desarrollo del programa (los individuos, las
comunidades, local o los gobiernos de concentración), así como también los enlaces entre
los agentes y los mercados diferentes en determinar resultados del programa. Estos
modelos predicen impactos de programa.
Las evaluaciones ex post, en el contraste, miden impactos reales acopiados por los
beneficiarios que son atribuibles para programar intervención. Una forma de este tipo de
evaluación es el tratamiento que los efectos modelan (Heckman y Vytlacil, 2005). Las
evaluaciones ex del poste tienen beneficios inmediatos y reflejan realidad. Estas
evaluaciones, sin embargo, algunas veces mecanismos del missthe estando bajo del
impacto del programa en lo demográfico, que la meta estructural de modelos a capturar
y que puede tener mucha importancia en la efectividad comprensiva (en particular en
trasfondos futuros) de programa. Las evaluaciones ex del poste también pueden ser
bastante más costoso que evaluaciones ex de apuesta inicial porque requieren datos
colectores en los resultados reales para participante y los grupos no participantes, así
como también en otros acompañantes factores sociales y económicos que pudieron haber
determinado el curso de la intervención. Un costo añadido en el poste ex sedimentándose
es el fracaso de la intervención, cuál podría haber sido predicho análisis ex directo de
apuesta inicial.
Todd y Wolpin (2006) aplicaron un enfoque ex ante a la evaluación, utilizando datos del
PROGRESA (ahora Oportunidades) experimento de subsidio escolar en México. Utilizando
un modelo económico de comportamiento del hogar, predijeron los impactos del programa de
subsidios en la proporción de niños que asisten a la escuela. Las predicciones se basaron solo
en los niños del grupo de control y calcularon el efecto del tratamiento de los niños del grupo
de control correspondiente de hogares con un salario dado e ingresos con hijos de hogares
donde los salarios e ingresos se verían afectados por el subsidio. Vea el capítulo 4 para una
discusión detallada sobre los métodos de correspondencia; el capítulo 9 también trata sobre
Todd y El modelo de Wolpin con mayor detalle.
Las predicciones de este modelo se compararon con los impactos experimentales ex post
(sobre el período 1997–98) medido bajo el programa. Todd y Wolpin (2006) encontraron que
las estimaciones pronosticadas para niños de 12 a 15 años eran similares a las estimaciones
experimentales en el mismo grupo de edad. Para las niñas entre 12 y 15 años, encontraron que
el aumento previsto en la escolaridad era del 8,9 por ciento. puntos, en comparación con el
aumento real de 11,3 puntos porcentuales; para los niños, el predicho y las estimaciones
experimentales fueron 2.8 y 2.1 puntos porcentuales, respectivamente.
La evaluación ex ante que realizaron también les permitió evaluar cómo los resultados podrían
cambiar si se modificaron ciertos parámetros. Una evaluación ex ante también podría describir
el rango potencial de impactos del programa, lo que podría ayudar en la focalización final ex
post.
El reto principal de una evaluación de impacto es determinar qué habría ocurrido para los
beneficiarios si el programa no hubiese existido. Es decir, uno tiene que determinar lo
por el ingreso del grupo familiar del capita de beneficiarios a falta de la intervención. El
resultado de un beneficiario a falta de la intervención sería su contraobjetivo.
¿Cómo negoció acerca de una de comparación en medio y poco trató grupos cuando
ambos son elegibles ser tratado? ¿Cómo acerca de una comparación de resultados de
grupos tratados antes y después son tratados? Estos grupos potenciales de comparación
pueden ser counterfactuals “falsificados”, como será discutido en los ejemplos que
entienden.
Considere el caso del benefi ciaries de Grameen Bank en Bangladesh. Las ofertas
Grameen Bank le acreditan a las mujeres pobres para mejorar su consumo de comida.
Los datos, sin embargo, salen a la vista que lo por el consumo del capita entre
participantes de programa está más abajo de eso de poco participantes antes de programar
intervención. ¿Es esto un caso de fracaso de Grameen Bank? No necesariamente.
Grameen Bank le apuntó a las familias pobres porque tuvieron más bajo por el consumo
de comida del capita con el que comenzar, así también juzgando el impacto del programa
comparando el consumo de comida de participantes de programa con que de poco
participantes es incorrecto. Lo que es necesario debe comparar lo que le habría ocurrido
el consumo de comida de las mujeres participantes no tuvo el programa existido. Un
grupo correcto de comparación que es un final contraobjetivo de programa los
beneficiarios son necesarios.
Figura 2.2 Evaluación utilizando una comparación con y sin comparación
Figura 2.2 provee una ilustración. Considere el ingreso de participantes Grameen Bank
después de la intervención de programa como 𝑌4 y el ingreso de poco participantes o los
grupos familiares de control como 𝑌3 . Esto con y sin comparación en coro mide el efecto
del programa como 𝑌4 − 𝑌3 ¿Esta medida uno estimación correcta son de efecto de
programa? Sin saber por qué algunos grupos familiares participaron mientras los otros no
hicieron cuando un programa como Grameen Bank hizo disponible su programa de
crédito en un pueblo, tal comparación podría ser engañosa. Sin tal información, uno no
sabe si 𝑌3 es el resultado directamente contraobjetivo para evaluar el efecto del programa.
Por ejemplo, los ingresos son diferentes a través del participante y los grupos testigos
antes del programa; este diferencial podría estar supuesto a estar bajo de diferencias que
pueden influenciar la comparación a través de los dos grupos. Si uno supiese los
resultados contraobjetivos (𝑌0 , 𝑌2 ), la estimación verdadera de efecto de programa es 𝑌4 −
𝑌2 , como figura 2.2 indica, y no 𝑌4 − 𝑌3 . En este ejemplo, los rendimientos
contraobjetivos falsificados una infravaloración de efecto del programa. Nota, sin
embargo, que a merced de las situaciones de preintervención de grupos testigos tratados
y, la comparación falsificada podría producir uno sobre-o subestimación de efecto del
programa.
Otro falseamiento contraobjetivo podría ser una comparación entre los pre los𝑌2 − 𝑌0
resultados de postprograma de participantes. Uno podría comparar resultados ex del poste
para beneficiarios con datos en sus resultados antes de la intervención, ya sea con datos
comparables de encuesta antes de que el programa fuese introducido o, a falta de un
diseño correcto de evaluación, con información retrospectiva. Como se muestra en figura
2.3, uno luego tiene dos puntos de observaciones para los beneficiarios de una
intervención: El ingreso de preintervención (𝑌2 ) de ingreso (𝑌0 ) y de postintervención.
Consecuentemente, el efecto del programa podría ser estimado como (𝑌2 − 𝑌0 ) la
literatura. Se refiere a este acercamiento como el método reflexivo de impacto, donde los
resultados de los participantes resultantes antes de la intervención funcionan como la
comparación o controlan resultados. ¿Ofrece este método una estimación realista de
efecto del programa? Probablemente no. La serie de tiempo hace alcanzar mejores
conclusiones más fácil, pero es de ningún modo conclusiva acerca del impacto de un
programa. Mirando a figura 2.3, uno ve, por ejemplo, que el impacto podría ser (𝑌2 − 𝑌1 ).
Ciertamente, un método de diferencia tan simple lo haría
No sea una valoración precisa porque muchos otros factores (fuera del programa)
pudieron haber cambiado sobre el período. No controlando para esos otros factores quiere
decir que uno falsamente atribuiría el resultado del participante en la ausencia del
programa como 𝑌0 , cuándo podría haber sido 𝑌2 .
La ecuación 2.1 presenta el problema de evaluación básica que compara los resultados Y
a través de individuos tratados y no tratados 𝑖:
Aquí, T es un igual falso para 1 para esas que participan y que 0 pues esos que hacen no
participa. La x es determinada de otras características obedecidas del individuo y quizá
de su ambiente de toda la casa y local. Finalmente, e es un término de error reflejándose
Las características desapercibidas que también afectan Y. La ecuación 2.1 refleja un
acercamiento comúnmente usado en evaluaciones de impacto, lo cual debe medir el
efecto directo del programa la T en Y de resultados. Los efectos indirectos del programa
(es decir, esos no directamente con los que se guardó relación la participación) también
puede ser de interés, como los cambios en los precios dentro de áreas de programa. Los
efectos indirectos de programa son discutidos que más extensamente adentro dividen en
capítulos 9.
Este problema también se puede representar en un marco más conceptual. Suponer uno
está evaluando un programa contra la pobreza, como una intervención crediticia,
destinado a aumentar los ingresos del hogar. Deja 𝑌𝑖 representar el ingreso per cápita para
el hogar 𝑖. por participantes, 𝑇𝑖 = 1, y el valor de 𝑌𝑖 bajo tratamiento se representa como
𝑌𝑖 (1) por no participantes, 𝑇𝑖 = 0, y 𝑌𝑖 puede ser representado como 𝑌𝑖 (0) Si 𝑌𝑖 (0) se
utiliza en hogares no participantes como resultado de comparación para los resultados de
los participantes 𝑌𝑖 (1), el efecto promedio del programa podría representarse de la
siguiente manera:
El problema es que los grupos tratados y no tratados pueden no ser los mismos antes de
la intervención, por lo que la diferencia esperada entre esos grupos puede no ser debida
por completo para programar la intervención. Si, en la ecuación 2.2, uno suma y resta el
esperado resultado para los no participantes si hubieran participado en el programa: (𝑌𝑖
(0) / 𝑇𝑖 = 1), Otra forma de especificar el contrafactual: se obtiene
𝐷 = 𝐸(𝑌𝑖 (1)|𝑇𝑖 = 1) − 𝐸(𝑌𝑖 (0)|𝑇𝑖 = 0) + [𝐸(𝑌𝑖 (0)|𝑇𝑖 = 1) − 𝐸(𝑌𝑖 (0)|𝑇𝑖 = 1)] (2.3)
𝐷 = 𝐴𝑇𝐸 + 𝐵 (2.5)
En estas ecuaciones, ATE es el efecto promedio del tratamiento [E (𝑌𝑖 (1) | 𝑇𝑖 = 1) - E (𝑌𝑖
(0) | 𝑇𝑖 = 1)], a saber, la ganancia promedio en los resultados de los participantes en
relación con los no participantes, como si los hogares no participantes también fueran
tratados. El ATE corresponde a una situación en la que se asigna un hogar elegido al azar
de la población a participar en el programa, por lo que los hogares participantes y no
participantes tienen una igual probabilidad de recibir el tratamiento T.
Como se discute en los siguientes capítulos, se pueden usar varios métodos diferentes en
teoría de la evaluación de impacto para abordar la cuestión fundamental del contrafactual
faltante. Cada uno de estos métodos conlleva sus propios supuestos sobre la naturaleza
del potencial. sesgo de selección en la focalización y participación del programa, y los
supuestos son cruciales para desarrollar el modelo apropiado para determinar los
impactos del programa. Estos métodos, cada uno de los cuales se discutirá en detalle en
los siguientes capítulos, incluye
1. Evaluaciones aleatorias
2. Métodos de emparejamiento, emparejamiento de puntaje de propensión
específico (PSM)
3. Métodos de doble diferencia (DD)
4. Métodos de variables instrumentales (IV)
5. Diseño de regresión discontinua (RD) y métodos de tubería
6. Impactos distributivos
7. Enfoques estructurales y otros modelos.
Estos métodos varían según sus supuestos subyacentes con respecto a cómo resolver el
sesgo de selección mediante la estimación del efecto del tratamiento del programa. Las
evaluaciones aleatorias implican una iniciativa aleatorizada en una muestra de sujetos
(comunidades o individuos, por ejemplo); El progreso de los sujetos de tratamiento y
control que exhiben características similares de preprograma se realiza un seguimiento a
lo largo del tiempo. Los experimentos aleatorizados tienen la ventaja de evitar el sesgo
de selección a nivel de aleatorización. En ausencia de un experimento, los métodos de
PSM comparan los efectos del tratamiento entre los participantes y las emparejadas
unidades no participantes, con el emparejamiento realizado en un rango de características
observadas. Por lo tanto, los métodos PSM suponen que el sesgo de selección se basa
solo en la observación las características no pueden explicar los factores no observados
que afectan la participación.
Los métodos DD suponen que la selección no observada está presente y que es hora
invariante: el efecto del tratamiento se determina tomando la diferencia en los resultados
a través de las unidades de tratamiento y control antes y después de la intervención del
programa. DD Los métodos se pueden utilizar tanto en entornos experimentales como no
experimentales. Modelos IV se puede usar con datos de sección transversal o panel y, en
este último caso, permitir la selección sesga en las características no observadas para
variar con el tiempo. En el enfoque IV, selección el sesgo en las características no
observadas se corrige encontrando una variable (o instrumento) eso se correlaciona con
la participación, pero no con las características no observadas que afectan el resultado;
Este instrumento se utiliza para predecir la participación. RD y los métodos de tubería
son extensiones de métodos IV y experimentales; explotan las reglas exógenas del
programa (como los requisitos de elegibilidad) para comparar participantes y No
participantes en un vecindario cercano alrededor del límite de elegibilidad. Los métodos
de canalización, en particular, construyen un grupo de comparación a partir de sujetos
que son elegibles para el programa, pero aún no lo he recibido.
Finalmente, el manual cubre métodos para examinar los impactos distributivos de los
programas, así como enfoques de modelado que pueden resaltar mecanismos (como las
fuerzas intermedias del mercado) por los cuales los programas tienen un impacto. Estos
enfoques cubren una mezcla de diferentes métodos cuantitativos discutidos en los
capítulos 3 a 7, así como ex ante y métodos ex post.
En resumen, se deben tomar varios pasos para garantizar que las evaluaciones de impacto
sean efectivas y generen comentarios útiles. Durante la identificación y preparación del
proyecto, para, Por ejemplo, la importancia y los objetivos de la evaluación necesitan ser
delineados claramente. Las preocupaciones adicionales incluyen la naturaleza y el
momento de las evaluaciones. Para aislar el efecto del programa sobre los resultados,
independientemente de otros factores, uno debe medir el tiempo y estructurar
evaluaciones de impacto de antemano para ayudar a los funcionarios del programa a
evaluar y actualizar la orientación, así como otras pautas para la implementación, durante
el curso de la intervención.
La disponibilidad y la calidad de los datos también son esenciales para evaluar los efectos
del programa; datos los requisitos dependerán de si los evaluadores están aplicando un
enfoque cuantitativo o cualitativo, o ambos, y de si el marco es ex ante, ex post o ambos.
Si se recopilan nuevos datos, es necesario abordar una serie de preocupaciones
adicionales, incluyendo tiempos, diseño y selección de muestras, y selección de encuesta
apropiada instrumentos, Además, se deberán realizar encuestas piloto en el campo para
que las preguntas de la entrevista puedan revisarse y refinarse. Recopilación de datos
sobre aspectos socioeconómicos relevantes las características tanto a nivel beneficiario
como a nivel comunitario también pueden ayudar a comprender mejor el comportamiento
de los encuestados dentro de su contexto económico y social ambientes. Ravallion (2003)
también sugiere una serie de pautas para mejorar recopilación de datos en encuestas.
Estas pautas incluyen la comprensión de diferentes facetas y hechos estilizados del
programa y del entorno económico de los participantes. y no participantes para mejorar
el diseño de muestreo y completar los módulos de encuesta para obtener información
adicional (sobre la naturaleza de la participación o la focalización del programa, para
ejemplo) para comprender y abordar el sesgo de selección más adelante.
Preguntas
1. El propósito de la evaluación de impacto (IE) es
A. determinar si un proyecto beneficia a los beneficiarios previstos y, en caso
afirmativo, cuánto.
B. ayudar a los responsables políticos a decidir si vale la pena apoyar un proyecto.
C. determinar la asignación de recursos en diferentes etapas del proyecto.
a) Todo lo anterior
b) A y B
c) A y C
d) A solamente
2. En el ciclo de proyecto de M&E, ¿qué etapa (s) está (n) cubierta por IE?
A. Entradas
B. Salidas
C. Resultados
D. Impactos.
a) Todo lo anterior
b) A y B
c) A, B y C
d) C y D
3. ¿Cuál de las siguientes afirmaciones es verdadera para IE ex post?
A. Ex post IE se realiza unos meses antes de que un proyecto comience a
funcionar.
B. El IE ex post no se puede hacer con los datos del panel.
C. Ex post IE es más común que la evaluación ex ante.
a) Todo lo anterior
b) A y B
c) B y C
d) C solamente
4. ¿Cuál de las siguientes afirmaciones es verdadera sobre contrafactual?
A. Contrafactual es una situación hipotética que dice lo que le habría pasado a
B. los participantes no habían participado en un programa.
C. Cuidar contrafactual es clave para IE.
D. Las diferentes metodologías de IE manejan los hechos contrafactuales de
manera diferente.
a) Todo lo anterior
b) A y B
c) B y C
d) C solamente
5. ¿Qué afirmación es verdadera sobre el diseño de una evaluación ex post?
A. Los evaluadores son parte de la gestión del programa.
B. Los evaluadores participan en la etapa inicial.
C. Un diseño ex ante es mejor que un diseño ex post de evaluación del programa.
a) Todo lo anterior
b) A y B solamente
c) B y C solamente
d) C solamente
6. ¿Qué metodología de IE generalmente supone que las diferencias en los resultados
entre participantes y no participantes provienen de diferencias en la decisión de
participación?
a) Doble diferencia (DD)
b) Coincidencia de puntaje de propensión (PSM)
c) Aleatorización
d) Variable instrumental (IV)
Referencias
Banerjee, Sudeshna, Avjeet Singh, and Hussain Samad. 2009. “Developing Monitoring
and Evaluation Frameworks for Rural Electrifi cation Projects: A Case Study from
Nepal.” Draft, World Bank, Washington, DC.
Bourguignon, François, and Francisco H. G. Ferreira. 2003. “Ex Ante Evaluation of
Policy Reforms Using Behavioral Models.” In The Impact of Economic Policies on
Poverty and Income Distribution: Evaluation Techniques and Tools, ed. François
Bourguignon and Luiz A. Pereira da Silva, 123–41. Washington, DC: World Bank
and Oxford University Press.
Heckman, James J., and Edward Vytlacil. 2005. “Structural Equations, Treatment
Effects, and Econometric Policy Evaluation.” Econometrica 73 (3): 669–738.
Kusek, Jody Zall, and Ray C. Rist. 2004. A Handbook for Development Practitioners:
Ten Steps to a Results-Based Monitoring and Evaluation System. Washington, DC:
World Bank.
Lechner, Michael. 1999. “Earnings and Employment Effects of Continuous Off-the-Job
Training in East Germany after Unifi cation.” Journal of Business Economic
Statistics 17 (1): 74–90.
Paxson, Christina, and Norbert Schady. 2002. “The Allocation and Impact of Social
Funds: Spending on School Infrastructure in Peru.” World Bank Economic Review
16 (2): 297–319.
Rao, Vjayendra, and Ana María Ibáñez. 2005. “The Social Impact of Social Funds in
Jamaica: A ‘Participatory Econometric’ Analysis of Targeting, Collective Action,
and Participation in Community-Driven Development.” Journal of Development
Studies 41 (5): 788–838.
Ravallion, Martin. 2003. “Assessing the Poverty Impact of an Assigned Program.” In The
Impact of Economic Policies on Poverty and Income Distribution: Evaluation
Techniques and Tools, ed. François Bourguignon and Luiz A. Pereira da Silva, 103–
22. Washington, DC: World Bank and Oxford University Press.
———. 2008. “Evaluating Anti-Poverty Programs.” In Handbook of Development
Economics, vol. 4, ed. T. Paul Schultz and John Strauss, 3787–846. Amsterdam:
North-Holland.
Rosenbaum, Paul R., and Donald B. Rubin. 1983. “The Central Role of the Propensity
Score in Observational Studies for Causal Effects.” Biometrika 70 (1): 41–55.
Schady, Norbert. 1999. “Seeking Votes: The Political Economy of Expenditures by the
Peruvian Social Fund (FONCODES), 1991–95.” Policy Research Working Paper
2166, World Bank, Washington, DC.
Todd, Petra, and Kenneth Wolpin. 2006. “Ex Ante Evaluation of Social Programs.” PIER
Working Paper 06-122, Penn Institute for Economic Research, University of
Pennsylvania, Philadelphia.
3. Aleatorización
Resumen
Objetivos de aprendizaje
El enigma principal, por lo tanto, es cómo los investigadores formulan estados contra
factuales del mundo en la práctica. En algunas disciplinas, como la ciencia médica, la
evidencia sobre los contra factuales se genera a través de ensayos aleatorios, que aseguran
que los resultados en el grupo de control realmente captura el contra factual para un grupo
de tratamiento.
En la práctica, sin embargo, puede ser muy difícil garantizar que un grupo de control
sea muy similar a las áreas del proyecto, que los efectos del tratamiento observados en
la muestra sean generalizables, y que los efectos en sí mismos son función del programa
en sí.
Los estadísticos han propuesto un enfoque de aleatorización en dos etapas que describe
estas prioridades en la primera etapa, se selecciona aleatoriamente una muestra de
posibles participantes.
Es una práctica común estimar lo anterior como una regresión única al agrupar eldatos
para los grupos de control y tratamiento. Uno puede multiplicar la ecuación 3.7 por T i
y multiplique la ecuación 3.8 por (1 - T i ), y use la identidad en la ecuación 3.6 para
obtener
𝑌 𝑖 = 𝛼 𝐶 + (𝛼 𝑇 − 𝛼 𝐶 ) 𝑥 𝑖 + 𝑋 𝑖 𝛽 𝐶 + 𝑥 𝑖 (𝛽 𝑇 − 𝛽 𝐶 ) 𝑇 𝑖 + 𝜀 (3.9)
Donde 𝜀 𝑖 = 𝑇 𝑦𝑜 + (𝜇 𝑐 𝑦𝑜 + 𝜇 𝑡 𝑦𝑜 ) + 𝜇 𝑐 𝑦𝑜
Para la ecuación 3.9, se puede obtener una estimación consistente del efecto del programa
con OLS si uno puede asumir EXT t EXT (𝜇 𝑡 𝑦𝑜 𝐸𝑋𝑇 𝐸 =) (𝜇 𝑐 𝑦𝑜 𝐸𝑋𝑇 𝐸 =) (0.1)Es
Sobre suscripción. Si los recursos limitados son una carga para el programa, la
implementación puede ser asignados aleatoriamente a un subconjunto de participantes
elegibles, y el resto los sujetos elegibles que no reciben el programa pueden considerarse
controles .Se debe hacer un examen del presupuesto, evaluando cuántas materias podría
ser encuestado versus aquellos realmente dirigidos, para obtener un control lo
suficientemente grande grupo para la muestra de beneficiarios potenciales
El acceso a otro grupo aleatorio de personas puede ser simplemente poco ético. Llevar a
cabo-el diseño dominado a menudo es políticamente inviable porque justifica dicho
diseño para las personas quién podría beneficiarse es difícil. En consecuencia, convencer
a posibles socios para llevar diseños aleatorizados es difícil .La validez externa es otra
preocupación. Un proyecto de capacitación laboral a pequeña escala puede no afectar las
tasas salariales generales, mientras que un proyecto a gran escala podría. Es decir,
impacto medido por el proyecto piloto puede no ser una guía precisa del impacto del
proyecto en unos países dada. El problema es cómo generalizar y replicar los resultados
obtenidos a través devaluaciones dominadas El cumplimiento también puede ser un
problema con la aleatorización, que surge cuando un fraccionamiento no se toma el
tratamiento de las personas a las que se les ofrece el tratamiento. Por el contrario, algunos
los miembros del grupo de comparación pueden recibir el tratamiento. Esta situación es
referida como cumplimiento parcial (o imperfecto). Para ser válido y evitar el sesgo de
selección, un el análisis debe centrarse en los grupos creados por la aleatorización inicial.
El análisis no puede excluir sujetos o cortar la muestra de acuerdo con el comportamiento
que pudo haber sido afectado por la asignación aleatoria. En términos más generales, el
interés a menudo radica en el efecto de un tratamiento dado, pero la aleatorización afecta
solo la probabilidad de que el individuo está expuesto al tratamiento, en lugar del
tratamiento en sí. Además, los posibles efectos indirectos surgen cuando el tratamiento
también ayuda al grupo de control como participantes de la muestra, confundiendo así
las estimaciones del impacto del programa. Por ejemplo, las personas fuera de la muestra
pueden mudarse a una aldea donde las clínicas de salud tienen establecido al azar,
contaminando así los efectos del programa. El capítulo ahora examen-De qué manera se
ha abordado en la práctica tales preocupaciones sobre la aleatorización. Evaluación
aleatoria de impacto en la práctica la aleatorización ha ido creciendo en popularidad en
algunas partes del mundo, en parte porque si se puede implementar correctamente, la
aleatorización puede dar una indicación solidad el impacto del programa. Además, una
vez que la encuesta ha sido diseñada y los datos recopilados, los ejercicios empíricos para
inferir los impactos de los experimentos aleatorios son bastante directos .adelante. Por lo
general, justificar o iniciar un experimento aleatorio es más fácil en el inicio de un
programa, durante la fase piloto. Esta fase ofrece una oportunidad natural para introducir
la aleatorización antes de que el programa se amplíe. Presenta una ocasión para que el
socio de implementación evalúe rigurosamente la efectividad del programa. Eso también
puede brindar la oportunidad de mejorar el diseño del programa. También se puede
introducir un elemento de aleatorización en programas existentes de muchas maneras
diferentes con un mínimo ruptura. Mientras que las secciones anteriores de este capítulo
han discutido en teoría las preocupaciones con la aleatorización, las siguientes secciones
discuten varios temas prácticos y estudios de caso en la implementación de estudios
aleatorizados
Cuestiones éticas
.
Validez interna versus externa
Estimaciones por intención de tratar y derrames de medición asegurar que las áreas de
control y las áreas de tratamiento no se mezclen es crucial para medir un impacto
imparcial del programa. En el diseño experimental, varios enfoques pueden ayudar a
reducir la probabilidad de contaminación de las áreas del proyecto. Áreas de proyecto y
control que se encuentran lo suficientemente separados, por ejemplo, se pueden
seleccionar para que la migración a través de las dos áreas es poco probable. Como
resultado, la contaminación de las áreas de tratamiento es más probablemente con
proyectos realizados a mayor escala. Sin embargo, a pesar de los esfuerzos por aleatorizar
la intervención del programa ex ante, la participación en el programa puede no ser
completamente al azar. Individuos u hogares en con-las áreas de control pueden moverse
a las áreas del proyecto, afectando en última instancia sus resultados de la exposición
seguro para el programa. Del mismo modo, las personas seleccionadas en las áreas del
proyecto pueden no serlo participar pero también puede verse afectado indirectamente
por el programa. Si un programa para apuntar al tratado también ayuda al grupo de
control, confundiría las estimaciones de impacto del programa En algunos casos, los
proyectos no se pueden ampliar sin crear gen-efectos de equilibrio eral. Por ejemplo, un
proyecto de capacitación laboral a pequeña escala puede no afectar las tasas salariales
generales, mientras que un proyecto a gran escala podría. En este último caso, impacto
medido por el proyecto piloto sería una guía inexacta del impacto del proyecto a escala
nacional. A menudo, el efecto Hawthorne podría afectar los resultados de un azar
experimento izado, donde el simple hecho de ser incluido en un experimento puede
alterar comportamiento no aleatorio.
Estos efectos parciales del tratamiento pueden ser de interés separado para el
investigador, en parte especialmente porque es probable que sean importantes si la
política se implementará en un gran escala. Se pueden abordar midiendo los impactos de
intención de tratar (ITT)(recuadro 3.2) o al instrumentar la participación real en el
programa mediante la asignación aleatoria estrategia mental (recuadro
3.3).Específicamente, en casos donde el tratamiento real es distinto de la variable que se
manipula aleatoriamente, llame a Z la variable que se asigna aleatoriamente (por ejemplo
,la carta invitando a los empleados universitarios a una feria y ofreciéndoles US $ 20 para
asistir),mientras T sigue siendo el tratamiento de interés (por ejemplo, asistir a la feria).
Utilizando la misma notación que antes, uno sabe por asignación aleatoria que
𝐸 [ 𝑆 𝑖 (0) | 𝑍 𝑖 = 1] − 𝐸 [ 𝑌 𝑖 (0) | 𝑍 𝑖 =
0] 𝑒𝑠 𝑖𝑔𝑢𝑎𝑙 𝑎 𝑐𝑒𝑟𝑜 𝑦 𝑞𝑢𝑒 𝑙𝑎 𝑑𝑖𝑓𝑒𝑟𝑒𝑛𝑐𝑖𝑎 𝐸 [ 𝑌 𝑖 (1) | 𝑍 𝑖 = 1] − 𝐸 [ 𝑆 𝑖 (0) | 𝑍 𝑖 =
0] es igual al efecto causal de Z. Sin embargo, no es igual al efecto del tratamiento ,
porque Z no es igual a T . Porque Z ha sido elegido para al menos influir en el tratamiento,
esta diferencia es el impacto de ITT .Debido a que el ITT es en principio aleatorio,
también puede actuar como una variedad instrumental válida capaz de identificar el
impacto del tratamiento, dado que las personas que fueron asignadas inicialmente para
en general, es más probable que el tratamiento haya participado en el programa. De
estimación de ITT sería el coeficiente estimado en la variable que describe la inicia
El impacto en aquellos cuyo estado de tratamiento es cambiado por el instrumento
también se conoce como el efecto de tratamiento promedio local (Abadie, Angrist e
Imbens 2002).El desgaste selectivo también es un problema potencial: las personas
abandonan un programa. Recuadro 3.4describe un ejemplo de un programa de
escolarización en India, donde el desgaste potencial delos estudiantes más débiles podrían
sesgar el efecto del programa hacia arriba. Si la medición de la extensión de los efectos
indirectos es de interés para los responsables políticos, la aleatorización puede permitir
que este fenómeno se mida con mayor precisión.
Recuadro 3. 2Estudio de caso: uso de loterías para medir el impacto del intento de
tratamiento
Los PACES (Plan de Ampliación de Cobertura de la Educación Secundaria, o Plan para
Incrementos) Ing. Cobertura de Educación Secundaria) programa de vales escolares,
establecido por el gobierno colombiano El gobierno a fines de 1991, otorgó vales de
escuela secundaria privada a 125,000 niños de escasos recursos barrios que se
matricularon en escuelas primarias públicas. Estos cupones cubrieron aproximadamente
la mitad de ingresando a los gastos de escolarización de los estudiantes y eran renovables
dependiendo del desempeño del estudiante. Sin embargo, el programa se enfrentó a una
suscripción excesiva debido a la cantidad de hogares elegibles (que viven en barrios que
caen en los dos estratos socioeconómicos más bajos que abarcan la población) excedió el
número de cupones disponibles.
Por lo tanto, muchos cupones se asignaron a través de una lotería al azar. Para medir el
impacto de este programa de cupones escolares, Angrist y otros (2002) encuestaron
ganadores y perdedores de la lotería de tres grupos de solicitantes. Administraron una
prueba académica para ambos grupos, inicialmente encontrando diferencias limitadas en
el rendimiento de los destinatarios del cupón. Una razón para este resultado, sugieren, es
que alrededor del 10 por ciento de los ganadores de lotería no terminaron usan cupón u
otra beca, mientras que alrededor del 25 por ciento de los no receptores obtuvieron otros
estudios naves o financiación. Angrist y otros (2002) utilizaron el recibo de la lotería
como instrumento. Para la participación, calcular una estimación por intención de tratar
que reveló mucho más grande (50 por ciento mayor) efectos del programa en la
finalización de la calificación y repeticiones reducidas para los ganadores de lotería que
en una simple comparación de ganadores y perdedores.
.
Recuadro 3.4 Estudio de caso: minimizar el sesgo estadístico resultante de
Desgaste selectivo
Banerjee y otros (2007) examinaron el impacto de dos programas educativos
aleatorizados (un programa de educación correctiva y aprendizaje asistido por
computadora) en una muestra de escuelas urbanas en India. Estos programas estaban
dirigidos a estudiantes que, en relación con estudiantes de otras escuelas, no estaban
funcionando bien en alfabetización básica y otras habilidades. Escuelas primarias del
gobierno fueron atacados en dos áreas urbanas, con 98 escuelas en la primera área
(Vadodara) y 77 escuelas en La segunda área (Mumbai).Con respecto al programa de
recuperación en particular, la mitad de las escuelas en cada área de muestra fueron
seleccionado al azar para que se introduzca el programa de recuperación en el tercer
grado, y la otra mitad recibió el programa en el grado 4. Por lo tanto, cada grupo de
estudiantes tratados se comparó con los no tratados estudiantes del mismo grado dentro
de la misma muestra de área urbana. Las pruebas fueron administradas a estudiantes
tratados y no tratados para evaluar su desempeño. Sin embargo, en el proceso de
administración del programa, los funcionarios del programa descubrieron que los
estudiantes estaban abandonando la escuela. Si la deserción fue sistemáticamente
mayor entre los estudiantes con debilidad rendimiento, el impacto del programa sufriría
un sesgo al alza. Como resultado, la prueba
El equipo se esforzó por visitar a los estudiantes en todas las escuelas de la muestra
varias veces, rastreando niños que abandonaron la escuela para hacer que tomen el
examen. Aunque la tasa de deserción entre los estudiantes se mantuvo relativamente
altos, en última instancia fue similar en todos los tratados y no tratados muestras, lo
que reduce la posibilidad de sesgo en las comparaciones directas de los puntajes de las
pruebas en dos grupos. Finalmente, Banerjee y otros (2007) encontraron que el
programa de educación correctiva planteó puntajes promedio de las pruebas de todos
los niños en las escuelas de tratamiento en 0.14 desviaciones estándar en el primer año
y 0.28 desviaciones estándar en el segundo año, principalmente debido a mejoras en la
parte inferior final de la distribución de puntajes de las pruebas (cuyas ganancias fueron
aproximadamente 0.40 desviaciones estándar relativas.
.
Recuadro 3.5 Estudio de caso: selección del nivel de aleatorización para cuenta
para efectos indirectos
Miguel y Kremer (2004) proporcionaron una evaluación de un programa de
desparasitación en una muestra de75 escuelas en el oeste de Kenia, que representan las
externalidades de tratamiento que de otro modo habrían enmascarado el impacto del
programa. El programa, llamado Proyecto de desparasitación de la escuela primaria,
involucró introducción gradual aleatorizada de la intervención de salud a nivel escolar
durante los años 1998 a 2000.Examinar el impacto a nivel individual (niño) podría ser
de interés, porque los niños eran destinatarios finales de la intervención. Sin embargo,
Miguel y Kremer (2004) encontraron que des delas infecciones se propagaron
fácilmente entre los niños, existieron fuertes externalidades del tratamiento entre los
niños tratado al azar como parte del programa y niños en el grupo de comparación. No
contabilizan dotales externalidades por lo tanto sesgarían el impacto del programa y
aleatorizarían el programa dentro de por lo tanto, las escuelas no eran posibles.
Por lo tanto, Miguel y Kremer (2004) examinaron los impactos a nivel escolar, porque
el programa de desparasitación se asignó al azar en todas las escuelas, y las escuelas
de tratamiento y comparación fueron ubicado lo suficientemente lejos como para que
la probabilidad de contagio entre las escuelas fuera mucho menor. Ellos midió el
tamaño de la externalidad comparando estudiantes no tratados en escuelas tratadas con
grupo de comparación Su estudio encontró que las escuelas tratadas exhibieron
significativamente (alrededor del 25 por ciento)tasas de absentismo más bajas, aunque
los puntajes de las pruebas académicas no mejoraron en comparación con la
comparación escuelas. Su análisis también encontró externalidades sustanciales del
tratamiento, en que los niños no tratados en las escuelas de tratamiento exhibieron tasas
de salud y participación escolar significativamente mejoradas en comparación con
niños en escuelas no tratadas. Incluyendo los beneficios de externalidad, Miguel y
Kremer encontraron el costo por año adicional de participación escolar fue de solo US
$ 3.50, lo que hace que la desparasitación sea más rentable que los subsidios para
reducir el absentismo
.
Heterogeneidad en los impactos: estimación de los impactos del tratamiento en la
muestra tratada
Los efectos del tratamiento cuantil también se pueden estimar para medir los impactos
distributivos de programas aleatorizados sobre resultados como el consumo y gasto per
capital (Abadie, Angrist e Imbens 2002). El Capítulo 8 discute este enfoque con más
detalle. Dammert (2007), por ejemplo, estima los impactos distributivos en los gastos de
un programa de transferencias monetarias condicionadas en zonas rurales de Nicaragua.
Este programa, Red de protección Social (o Red de Protección Social), fue un programa
de transferencia de efectivo condicional gramo creado en 2000. Fue similar a
PROGRESA en que los hogares elegibles recibieron transferencias de efectivo
supeditadas a algunas condiciones, incluidos los miembros adultos del hogar(a menudo
madres) asistieron a talleres educativos y enviaron a sus hijos menores de 5 años de edad
para vacunas y otras citas de salud y envió a sus hijos entre las edades de 7 y 13
regularmente a la escuela. Algunos aspectos de la evaluación se discuten en recuadro 3.6.
Djebbari y Smith (2008) también proporcionan una discusión similar utilizando datos de
PROGRESA (Oportunidades).
Recuadro3.6 Estudio de caso: medición de la heterogeneidad del impacto de un
programa aleatorizado
Dammert (2007) examinó los impactos distributivos del programa de red de seguridad
social nicaragüense red de protección social, donde el 50 por ciento de 42 localidades
identificadas como suficientemente pobres para el programa (de acuerdo con un índice
de marginalidad) fueron seleccionados al azar para la focalización. La evaluación de
encuesta abarcó 1.359 hogares de proyectos y control a través de una línea de base, así
como dos seguimientos encuestas realizadas un año y dos años después de la
intervención del programa. Debido a que las transferencias de efectivo dependían de la
asistencia regular a la escuela y las visitas de salud, cómo: nunca, si un hogar en una
localidad seleccionada ya cumplía con estos requisitos antes la intervención (que se
correlacionó fuertemente con los ingresos y la educación preexistentes del hogar
niveles) podrían resultar en diferentes impactos del programa entre los hogares con
diferentes niveles socioeconómicos antecedentes. Para hogares cuyos hijos ya estaban
matriculados en la escuela y enviados regularmente para los chequeos de salud, la
transferencia de efectivo proporcionaría un efecto de ingreso puro, mientras que para
los hogares no cumpliendo con los criterios, la transferencia de efectivo induciría tanto
un efecto de ingreso como de sustitución .Como un enfoque, Dammert (2007), por lo
tanto, interactuó la variable del programa con la casa. Mantener características en las
que se basó la focalización, como la educación del jefe del hogar, gastos de los hogares
y el índice de marginalidad utilizado para la focalización. Niños en localidades más
pobres.se encontró que tenían mayores mejoras en la escolaridad, por ejemplo.
Además, para examinar la variación en los impactos del programa no impulsados por
características observables, Dammert calculó el tratamiento cuantil efectos por
separado para 2001 y 2002. Los resultados muestran que el crecimiento en el total per
capital gastos, así como los gastos de comida per cápita fueron menores para los
hogares en la parte inferior de
La distribución del gasto. Específicamente, en 2001, el impacto del programa en el
aumento total por los gastos por habitante oscilaron entre US $ 54 y US $ 237; en 2002,
este rango fue de US $ 20 a US $ 99, con hogares en la parte superior de la distribución
que reciben más de cinco veces el impacto que los hogares se mantiene con gastos más
bajos. Por lo tanto, simplemente confiar en los impactos promedio del tratamiento
puede no revelar áreas importantes de preocupación, tal como, tal vez, que los hogares
en el extremo inferior de la experiencia de distribución del gasto mayores costos (y,
por lo tanto, menores beneficios) de participa.
Una desviación relacionada de la aleatorización perfecta es cuando la aleatorización es
una función de algún conjunto de observables (clima, densidad de población y
similares) que afectan la probabilidades de que ciertas áreas sean seleccionadas. Por lo
tanto, el estado del tratamiento es aleatorio. Condicionado a un conjunto de
características observadas. Dentro de cada área tratada, sin embargo, el tratamiento es
aleatorio entre individuos o comunidades. Tratamiento y comparado Por lo tanto, se
pueden hacer observaciones hijo dentro de cada área, y se puede hacer un promedio
ponderado tomado en todas las áreas para dar el efecto promedio del programa en las
muestras tratadas.
Valor de un estudio de referencia
Debido a que minimizan el sesgo de selección en los impactos del programa, las
evaluaciones aleatorias puede ser muy atractivo en los países en desarrollo.
Desafortunadamente, los factores contextuales en tales configuraciones están plagadas
de situaciones que pueden confundir la implementación aleatoria y de ahí la calidad de
los efectos del programa. Recopilación de datos detallada sobre estos factores de
confusión factores y el uso de una combinación de métodos, además de examinar los
ATE, por lo tanto, puede ayudar a explicar la heterogeneidad individual resultante en el
tratamiento impactos (recuadro 3.8).
𝑌 = 𝛼 + 𝛽𝑇 + 𝜀
(𝑎) 𝛼 + 𝛽
(𝑏) 𝛽
(𝑐) 𝛼 + 𝛽 − 𝜀
(𝑑) 𝛼 – 𝜀
𝑌 𝑇 = 𝛼 𝑇 + 𝛽 𝑇 𝑋 + 𝜀 𝑇 (1)
𝑌𝐶 = 𝛼𝐶 + 𝛽𝐶𝑋 + 𝜀𝐶 (2)
(𝑎) 𝛼 𝑇 + 𝛼 𝐶
(𝑏) 𝛽 𝑇 + 𝛽 𝐶
(𝑐) 𝛼 𝑇 − 𝛼 𝐶
(𝑑) 𝛽 𝑇 – 𝛽𝐶
(a) A y B
(b) B y C
(c) C solamente
(b) A y B
(c) B y C
(d) C solamente5.
5. ¿Cuáles son las principales preocupaciones de la aleatorización?
A. Cuestiones éticas
B. validez externa
C. Cumplimiento y derrame
(b) A y B
(c) B y C
(d) C solamente
A. La realización de una encuesta de línea de base es muy útil para entornos aleatorios.
(b) A y B
(c) B y C
(d) C solamente
Notas1.
Referencias
Angrist, Joshua, Eric Bettinger, Erik Bloom, Elizabeth King y Michael Kremer. 2002.
"Vales para la escolarización privada en Colombia: Evidencia de un experimento
natural aleatorio “. América
Economic Review 92 (5): 1535–58.Banerjee, Abhijit, Shawn Cole, Esther Duflo y Leigh
Linden. 2007. "Remediar la educación: Evi-dence de dos experimentos aleatorizados
en India”. Quarterly Journal of Economics 122 (3):1235–64.
Behrman, Jere y John Hoddinott. 2005. "Evaluación del programa con heterogeneidad no
observada e implementación selectiva: el impacto mexicano 'PROGRESA' en la
nutrición infantil”. OxfordBoletín de Economía y Estadística 67 (4): 547–69.
Behrman, Jere, Susan Parker y Petra Todd. 2009. “Impactos a largo plazo de
la Oportunidades Con-Programa adicional de transferencia de efectivo para jóvenes
rurales en México”. En Pobreza, Desigualdad y Política en América Latina,
ed. Stephan Klasen y Felicitas Nowak-Lehmann, 219–70. Cambridge, MA: MIT
Press.
Los programas de transferencia sirven como redes de seguridad para mantener a los niños
en la escuela y para trabajar cuando¿Expuesto a los choques? ” Journal of
Development Economics 79 (2): 349–73.
Giné, Xavier, Dean Karlan y Jonathan Zinman. 2008. “El riesgo de preguntar: efectos de
mediciónde una encuesta de referencia en un experimento de adquisición de seguros
". Documento de trabajo, Universidad de Yale,New Haven, CT.Heckman, James J.
y Edward J. Vytlacil. 2000. "Variables instrumentales locales". NBER Technical