Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Los supuestos del ANOVA son exactamente los mismos que los de la prueba t para
comparar dos grupos1.
1
En el libro de Hopkins & Hopkins & Glass aparece una discusión
detallada sobre la verificación de supuestos página 202-207.
Normalidad de los residuos
La hipótesis será:
Gráfico Q-Q normal de Altura en cms. Gráfico Q-Q normal de Altura en cms.
Para FERTIL= A Para FERTIL= B
1.0
1.0
.5 .5
0.0 0.0
Normal esperado
Normal esperado
-.5 -.5
-1.0 -1.0
30 32 34 36 38 40 40 41 42 43 44 45 46 47
.5
0.0
Normal esperado
-.5
-1.0
34.5 35.0 35.5 36.0 36.5 37.0 37.5 38.0 38.5
Valor observado
FERTILIZA Kolmogorov-Smirnov(a) Shapiro-Wilk
Estadístico gl Sig. Estadístico gl Sig.
A .215 5 .200(*) .901 5 .415
B .141 5 .200(*) .979 5 .928
C .237 5 .200(*) .961 5 .814
* Este es un límite inferior de la significación verdadera.
a Corrección de la significación de Lilliefors
Test
Hipótesis Estad Distribución bajo
ístico Ho
Existe otro test de comparación de medias que toma en cuenta este problema
y se llama el test de Welch, pero es aconsejable intentar otras medidas para
corregir este problema.
Hipótesis ANOVA:
H 0 : 1 2 ... k
H 1 : al menos dos medias no son iguales.
Si acepto H 0 , las medias son iguales, no hay más comparaciones que hacer.
1. Las muestras son aleatorias e independientes. Las muestras seleccionadas para el estudio son elegidas
al azar, es decir, todos los sujetos tienen las mismas probabilidades de ser escogido para formar parte de
la muestra. Además, las muestras son independientes, o lo que es igual, el hecho de que un sujeto sea
escogido no determina la inclusión de otro sujeto en alguna de las muestras.
2. Normalidad de las puntuaciones. La variable estudiada se distribuye normalmente en todos los grupos
considerados. En el caso del ejemplo anterior, en las subpoblaciones de alumnos que siguieron el método
de lectura A, el método B y el método C, las puntuaciones de la variable rendimiento habrían de
distribuirse siguiendo el modelo de la curva normal.
Para comprobar si efectivamente se cumple este supuesto, bastaría realizar la prueba F de contraste de
varianzas comparando las varianzas de aquellos dos grupos en los que éstas alcanzan valores más
distanciados. Es decir, utilizaríamos como estadístico de contraste el cociente entre las varianzas
insesgadas mayor y menor
[D]
El análisis de la varianza permite contrastar la hipótesis nula de que las medias de K poblaciones (K >2) son iguales, frente a la
hipótesis alternativa de que por lo menos una de las poblaciones difiere de las demás en cuanto a su valor esperado. Este contraste
es fundamental en el análisis de resultados experimentales, en los que interesa comparar los resultados de K 'tratamientos' o
Las poblaciones (distribuciones de probabilidad de la variable dependiente correspondiente a cada factor) son normales.
Las K muestras sobre las que se aplican los tratamientos son independientes.
El ANOVA se basa en la descomposición de la variación total de los datos con respecto a la media global (SCT), que bajo el supuesto
de que H0 es cierta es una estimación de obtenida a partir de toda la información muestral, en dos partes:
Variación dentro de las muestras (SCD) o Intra-grupos, cuantifica la dispersión de los valores de cada muestra con
Variación entre muestras (SCE) o Inter-grupos, cuantifica la dispersión de las medias de las muestras con respecto a la
media global.
Las expresiones para el cálculo de los elementos que intervienen en el Anova son las siguientes:
Media Global:
Variación Total:
Variación Intra-grupos:
Variación Inter-grupos:
Siendo xij el i-ésimo valor de la muestra j-ésima; nj el tamaño de dicha muestra y su media.
Cuando la hipótesis nula es cierta SCE/K-1 y SCD/n-K son dos estimadores insesgados de la varianza poblacional y el cociente entre
ambos se distribuye según una F de Snedecor con K-1 grados de libertad en el numerador y N-K grados de libertad en el
denominador. Por lo tanto, si H0 es cierta es de esperar que el cociente entre ambas estimaciones será aproximadamente igual a 1,
yi y j
q ~ q(k , n k )
MCDq
1. Verificar los supuestos:
2. Tabla de ANOVA
3b) Si valor-p > 0,05 quiere decir que no hay diferencias estadísticamente
significativas entre los promedios y por lo tanto no hay más preguntas.
LINEALIDAD:
2
Gráfica Sesgo vs. valor de referencia
Utilice la gráfica Sesgo vs. valor de referencia para ver cómo varían los valores de sesgo para cada
parte. Los puntos azules representan los valores de sesgo para cada valor de referencia. Los
cuadrados rojos representan el valor promedio de sesgo para cada valor de referencia. La línea es
el ajuste de la línea de regresión de mínimos cuadrados al promedio de las desviaciones.
Interpretación
La situación ideal es que las desviaciones de cada parte estén cerca de 0 y que la línea ajustada
sea horizontal.
Coef
Los coeficientes son números de la línea de regresión de la gráfica Sesgo vs. valor de referencia.
Interpretación
Cuando el coeficiente de la pendiente, a, es muy pequeño, la pendiente está cerca de la
horizontal. Por lo tanto, el sesgo es relativamente constante para todos los valores de referencia y
la linealidad no es un problema significativo. Valores absolutos más altos del coeficiente de la
pendiente, |a|, indican una pendiente más pronunciada de la línea. Si el valor p de la pendiente es
menor que alfa, entonces la linealidad es significativa.
En ausencia de linealidad significativa, valores absolutos más altos del coeficiente de la constante,
|b|, indican un sesgo más grande. Cuando existe linealidad significativa, debe examinar los valores
individuales de sesgo.
EE Coef
Interpretación
Utilice el error estándar del coeficiente para medir la precisión de la estimación del coeficiente.
Cuanto menor sea el error estándar, más precisa será la estimación. Al dividir el coeficiente entre
su error estándar se calcula un valor t. Si el valor p asociado con el valor t es menor que el nivel de
significancia (α), usted concluye que el coeficiente es significativamente diferente de 0.
Valor p para la linealidad del sistema de medición
P para la pendiente: Utilice este valor para probar si la pendiente de la línea de linealidad
es igual a 0.
Interpretación
Si el valor p es mayor que el valor de α, usted no puede rechazar la hipótesis nula, como se indica
a continuación:
Para la constante, si el valor p es mayor que el valor de α, usted no puede rechazar la
hipótesis nula y concluye que el sesgo para todos los valores de referencia es igual a 0.
Para la pendiente, si el valor p es menor que el valor de α, usted rechaza la hipótesis nula y
concluye que el sistema de medición no tiene el mismo sesgo para todos los valores de referencia
(hay linealidad).
S y R-cuad.
S y R-cuad. (R2) son mediciones de qué tan bien el modelo se ajusta a los datos.
R-cuad. (R2) representa la proporción de variación en el sesgo que es explicada por la relación
lineal entre los sesgos y los valores de referencia.
Interpretación
Los valores más bajos de S indican menos variabilidad en las estimaciones del sesgo. R2 varía de 0
a 100%. Por lo general, mientas mayor sea el valor de R 2, mejor se ajustará el modelo a los datos.
Linealidad, %Linealidad
Interpretación
Para interpretar la linealidad de los datos, determine si el sesgo cambia para los diferentes valores
de referencia. Si los datos no forman una línea horizontal en una gráfica de dispersión, existe
linealidad. Lo ideal es que la línea ajustada sea horizontal y esté cerca de 0.
Sesgo, %Sesgo
El sesgo se calcula como la diferencia entre el valor estándar conocido de una parte de referencia
y la medición promedio observada.El sesgo es una medida de la exactitud del sistema de
medición.
Interpretación
Lo ideal es que el valor de sesgo esté cerca de 0. Los valores distintos de 0 indican lo siguiente:
Un sesgo positivo indica que el sistema de medición mide por encima del valor real.
Un sesgo negativo indica que el sistema de medición mide por debajo del valor real.
Para un sistema de medición que mida con exactitud, el %Sesgo será bajo.
Los siguientes valores p se utilizan para probar si el sesgo es igual a 0 en cada valor de referencia
y para el sesgo promedio.
P para el sesgo promedio: Utilice este valor para probar si el sesgo promedio es igual a 0.
P para cada valor de referencia: Utilice este valor para probar si el sesgo es igual a 0 en
cada valor de referencia.
Interpretación
Si el valor p es mayor que el valor de α, usted no puede rechazar la hipótesis nula, como se indica
a continuación:
Para cada valor de referencia, si el valor p es mayor que el valor de α, usted no puede
rechazar la hipótesis nula y concluye que el sesgo es igual a 0.
Para el sesgo promedio, si el valor p es mayor que el valor de α, usted rechaza la hipótesis
nula y concluye que el sesgo promedio es igual a 0.
Si el valor p es menor que el valor de α, usted rechaza la hipótesis nula, como se indica a
continuación:
Para cada valor de referencia, si el valor p es menor que el valor de α, usted rechaza la
hipótesis nula y concluye que el sesgo no es igual a 0.
Para el sesgo promedio, si el valor p es menor que el valor de α, usted rechaza la hipótesis
nula y concluye que el sesgo promedio no es igual a 0.