Sei sulla pagina 1di 4

Tema:

Supuestos del diseño experimental

Objetivos
 Conocer la importancia de los supuestos del DE
 Comprender las gráficas de cada uno de ellos

Marco teórico
1. Suposición de Independencia

Para verificar este supuesto graficar los residuos contra el orden del tiempo en el que se
recopilaron los datos es útil para detectar alguna correlación entre ellos. Una tendencia a tener
secuencias con residuos positivos y negativos indica la falta de independencia. (Ver gráfico 1)

Dentro de los test que pueden usarse para determinar si una secuencia ordenada de
observaciones es aleatoria (independiente) se dispone de los contrastes de rachas y
autocorrelación. La asignación de los tratamientos al azar a las parcelas experimentales
aseguraría la independencia de los errores, como la aleatorización en la toma de los datos. No
hay ninguna adaptación ni transformación para superar la falta de independencia de los errores.
Por lo tanto debe cambiarse el diseño del experimento o la forma en que se ha realizado. La
validez de la prueba de F puede resultar gravemente perjudicada por el no cumplimiento de este
supuesto.

2. Suposición de Homogeneidad de varianzas (Homocedasticidad)

En este caso graficar los residuos contra el orden del tiempo en el que se recopilaron los datos
es también útil para detectar falta de homogeneidad de varianzas (Heteroscedasticidad). Una
gráfica que presente una mayor dispersión en un extremo que el otro es un indicio de falta de
homogeneidad de varianzas. (Ver gráfico 1)

Otra gráfica que permite analizar este supuesto consiste en graficar los residuos contra los
valores estimados (𝑦𝑖𝑗 ). En este caso está gráfica no debe revelar ningún patrón obvio. Si la
gráfica muestra una forma de embudo que se ensancha indica la falta de homogeneidad de las
varianzas. (Ver gráfico 2)
Como las varianzas varían como funciones de las medias, una gráfica de las medias con las
varianzas o con los desvíos estándar pueden ser útiles como un examen rápido para comprobar
la homoscedasticidad. Estás gráficas no deben indicar ninguna correlación entre los estadísticos
(media – varianza o desvió estándar) caso contrario es probable que se esté violando el supuesto
de homogeneidad de varianzas. (Ver gráfico 3)

También graficar los residuos contra los niveles de los factores nos pueden ayudar a detectar
heteroscedasticidad. En estás gráficas si los niveles de un factor presentan una dispersión que
no es constante es un indicio de falta de homoscedasticidad. (Ver gráfico 4)

Dentro de las pruebas empleadas para contrastar la Homogeneidad de Varianzas se encuentran


el test de Bartlett, el test de Cochran, el test de Hartley, el test de Levene, entre otras, etc. La
mayoría de estas pruebas son muy sensibles a la falta de normalidad salvo la prueba de Levene,
que consiste en realizar un análisis de varianza usando como variable dependiente el valor
absoluto de los residuos.
La falta de homogeneidad se puede deber a una respuesta muy variable en una de las muestras,
o que se haya obtenido bajo condiciones menos estandarizadas que las otras, o bien que la
escala de medida de los datos no es la correcta.

Si la suposición de homogeneidad no se cumple, la prueba de F es afectada solo ligeramente en


los modelos balanceados (igual número de observaciones por tratamiento) de efectos fijos. Sin
embargo, el problema es más serio si el diseño está desbalanceado o si una varianza es mucho
mayor que las otras. En un modelo de efectos aleatorios, la desigualdad en las varianzas del
error puede perturbar significativamente las inferencias sobre los componentes de varianza,
aunque se use un diseño balanceado.

La adaptación usual para tratar con varianzas heterogéneas consiste en aplicar una
transformación a los datos para igualar varianzas y volver a aplicar el análisis de la varianza a los
datos transformados. En este caso las conclusiones obtenidas se aplican a los datos
transformados y no a los datos originales. Sin embargo, las medias, deben presentarse en los
informes y publicaciones en las unidades originales.

Las transformaciones aplicadas para igualar varianzas en la mayoría de los casos también
acercan los datos a una distribución normal.

3. Suposición de Normalidad

Una forma para comprobar la suposición de normalidad consiste en hacer un histograma de los
residuos. Si los errores son N ~ (0, σ2 ), está gráfica debe ser semejante a la de una muestra
extraída de una distribución normal centrada en cero (ver gráfico 5). Cuando trabajamos con
muestras pequeñas suelen aparecer fluctuaciones considerables, por lo que una desviación
moderada aparente de la normalidad no necesariamente implica una violación del supuesto de
normalidad.

Otro procedimiento útil consiste en construir una gráfica de probabilidad normal acumulada de
los residuos. Si los errores tienen distribución normal está gráfica parecerá una línea recta (ver
gráfico 6), desviaciones hacia abajo o hacia arriba de la recta tanto del lado izquierdo como del
derecho del cero indicará desviaciones de la normal.

Por Ej: una tendencia hacia abajo del lado izquierdo implicará que el extremo izquierdo de la
distribución del error es más reducido que lo esperado en una distribución normal; en otras
palabras, que los residuos negativos no son tan grandes (en valor absoluto) como se esperaba.
Gráfico de similar interpretación a este último es el Quantile – Quantile Plot Normal (Q-Q plot
normal), que gráfica los cuantiles muestrales versus los cuantiles teóricos tomando los
residuales como datos. Si la distribución de los residuos son normales y no hay otros violaciones
a los supuestos, estos se alinean sobre una recta a 45º. (Ver gráfico 7)

También existen una serie de pruebas para contrastar la Normalidad de los datos. El Test de Chi-
Cuadrado, test W de Shapiro-Wilks, Kolmogorov-Smirnov, son algunas de las pruebas de las que
se dispone para verificar el cumplimiento de este supuesto.

Las consecuencias de la no normalidad de los errores no son demasiado graves. Solamente una
distribución muy sesgada tendría un marcado efecto sobre las pruebas de significancia.

Las pruebas de significancia aplicadas (t o F) no experimentan cambios significativos en su


validez si el supuesto de normalidad se verifica parcialmente para el caso de efectos fijos, no así,
si estamos trabajando con efectos aleatorios los que si se ven más afectados por la falta de
normalidad.

Cuando la distribución de los errores se aparta de la Normalidad, podemos superar este


inconveniente realizando una transformación de la variable. Si las transformaciones no pueden
hacer frente a la no Normalidad de los datos, puede ser necesario recurrir a los métodos no
paramétricos. (Moodle)

Referencias:
Moodle. TP Experimentos simples. Analisis de supuestos. Facultad de ciencias agrarias y
forestales. [En línea] [Citado el: 14 de Mayo de 2017.]
http://aulavirtual.agro.unlp.edu.ar/mod/resource/view.php?id=2645.

Potrebbero piacerti anche