Sei sulla pagina 1di 9

Escuela de Posgrado

Maestría en Estadística Aplicada

Métodos Estadísticos

Mg Sc Jaime Carlos Porras Cerrón

George Box
(1919-2013)

1
Capítulo III: Inferencia Estadística
Prueba de Hipótesis (Parte 3)
1. Introducción
2. Prueba de hipótesis para comparar las
varianzas de k muestras.
 Cuando las observaciones provienen de una
distribución normal.
3. Prueba de hipótesis para comparar la media de
k muestras.
4. Acerca del pvalor.
5. Aplicación.
6. Anexos.

Cuando se desean comparar las medias o las


varianzas de dos grupos de datos, por ejemplo, las
notas promedios finales obtenidas en dos escuelas
se puede hacer uso de las pruebas estadísticas Z o
t (dependiendo si se conoce o no las varianzas
poblacionales). Si se quiere comparar las varianzas
de las notas se puede hacer uso de la prueba F.
Sin embargo, si se tienen más de dos grupos
independientes (k grupos) se debe realizar la
descomposición de la variabilidad total cuando se
desea comparar k medias . Para la comparación de
las varianzas de k grupos se discutirán diferentes
pruebas estadísticas.

2
La notación que se utilizará es la siguiente:
k : Número de muestras independientes.
Yij : Es el valor observado j en la muestra i.
ni : Tamaño de la muestra i.
n : Tamaño total de la muestra n=n1+n2+…+nk.
S2i : Varianza muestral correspondiente a la
muestra independiente i.
S2p: Varianza total estimada (o varianza ponderada).

 Hipótesis:
H0: s 21 = s 22 =. . . .= s2 k
H1: Al menos un s2i es diferente a los demás i=1,2,…,k

 Pruebas Estadísticas: Las pruebas que se discutirán


requieren que los datos de las k muestras independientes
provengan de distribuciones normales.
Entre algunas que se discutirán tenemos:
 Bartlett
 Fmax de Hartley
 Basada en la Teoría de la Información
 Layard

3
 Supuestos: muestras normales, muestras elegidas
al azar e independientes.
 No requiere que los ni sean del mismo tamaño, sin
embargo los ni no deben ser menores a 3 y es
preferible que sean mayores a 5.
 Estadístico de prueba:  k 
   ni  1  LnS p     ni  1 LnSi 
2
k
2

Q=  i =1  i =1
~  21 ,k 1
 
1  k 1  1 
1    k 
3  k  1  i =1 ni  1 
  ni  1 
 
 Pvalor=P(2(k-1)>2cal) i =1

 En R la función es bartlett.test(datos, grupos)

 Supuestos: muestras normales, muestras elegidas al


azar, independientes y del mismo tamaño.
(m=n1=n2=…=nk). 2
max Si 
Fmax = ~ F1 ,k ,m1
 Estadístico de prueba: min Si2 
Cuando el número de observaciones en cada muestra no
son iguales pero relativamente cercanos se puede tomar
el mayor ni.
 En R con la ayuda del paquete SuppDists se puede obtener
el pvalor y el valor crítico para la prueba.
pmaxFratio(q, ni-1, k)
qmaxFratio(p, ni-1, k)

4
 Supuestos: muestras normales, muestras al azar e
independientes.
 Estadístico de prueba: T 2
S= ~  1 ,k 1
 k
2  1   
Donde  n
2
 
T =   ni  1 ln  Si2    ni  1 ln  Si2 
k k
1

 n  k  i =1
i =1  
 
k n
n  Yij  Y i
i

 Y 
4 n i 4
 Y i
= i =1 j =1
3 o 1 k ij
k =  ni2 j=1 3
  n  1 S
i =1
i i
2 n i =1  n  1 S 2  2
 i i 

 Pvalor=P(2(k-1)>2cal)

 Supuestos: muestras normales, muestras elegidas al


azar e independientes.
 Estadístico de prueba:
2
 k

k 1  ni Si 
T3 = 2 ni Si2   ik=1  ~  21 ,k 1
 i ni Si 

i =1 S 2

 i =1 

 Pvalor=P(2(k-1)>2cal)

5
 Supuestos: muestras normales, muestras elegidas al
azar, independientes y varianzas homogéneas.
 Hipótesis:

H0: m1 = m2 = … = mk
H1: Al menos un mi es diferente a los demás.

 Estadístico de prueba:
k

 ni X i  X   k  1
2

F= i =1
k ni
~ F1 ,k 1,n k 
 X ij  X i  n  k 
i =1 j =1

La variabilidad se descomponen en dos fuentes de variación,


la explicada entre las muestras y la explicada dentro de las
muestras.
Fuentes Grados de Suma de Cuadrado
F calculado
de variación libertad cuadrados medio
Entre k–1 SCGrup CMEM (1) F0 = (1)/(2)
muestras
Dentro de n–k SCError CMDM (2)
las muestras
Total n–1 SCTotal

F0 se compara con F[(k-1,n-k);1-α] criterio unilateral derecho

6
pvalor = P(F(k-1,n-k) > F cal)
1 – pf(Fcal, k-1, n-k)

En R se puede hacer el siguiente comando:


summary(aov(lm(datos[,y]~as.factor(datos[,x]))))

El rechazo de la H0 de igualdad de medias (o varianzas) , no


implica que las medias (o varianzas) son todas diferentes entre
ellas.
Para determinar cual es el grupo diferente se puede realizar por
separado las hipótesis por pares de medias (o varianzas).

Regla de Fisher: Si pvalor <  se rechaza H0.


Los métodos estadísticos deben tener validez desde el
punto de vista del usuario es decir cuando sirvan para
apoyar la teoría desarrollada en estas áreas de
conocimiento.
La ciencia de la estadística debe ser vista como una
herramienta indispensable en manos del experto y no
una mas de las herramientas de las cuales se pueda
acceder.
Ziliak y Mc Closkey indican que la significación
estadística no es lo mismo que la significación
científica. La cuestión más importante para la ciencia es
el tamaño de un efecto y no si existe o no tal efecto.
John Ioannidis, señala que los pvalores pequeños no
implican una probabilidad pequeña de que la hipótesis
nula sea incorrecta. En una revisión de estudios médicos
se encontró que el 74% de los estudios con pvalores
menores que 0.05 llegaban a conclusiones erróneas.

7
Es la probabilidad calculada al asumir que H0 es
cierta, de que la estadística de prueba tome valores
tan o más extremos que los calculados con la muestra
actual.
Dado que las pruebas estadísticas se construyen para
cuantificar las desviaciones de la hipótesis nula con
los datos actuales, entonces rechazamos H0 cuando el
pvalor es pequeño porque si este es pequeño
entonces con los datos actuales proveen una fuerte
evidencia en contra de H0. En otras palabras, el hecho
de que el pvalor sea grande hace que H0 sea difícil de
rechazar. Es casi intuitivo, pero no valido, tomar al
pvalor como una medida de soporte en contra (o a
favor) del rechazo de H0.
El pvalor es una estadística, por lo tanto es aleatorio y
no puede ser interpretado como una medida de
soporte.

Estadístico Richard Royall, de la Johns Hopkins


Bloomberg School of Public Health en Baltimore,
Maryland, dijo que hay tres preguntas que un
científico podría querer hacer después de un estudio:
¿Cuál es la evidencia?
¿Qué debo creer? y
¿Qué debo hacer?

Un método no puede responder a todas estas


preguntas.

"Los números son donde la discusión científica debe


comenzar, no el fin.“
Steven Goodman (Stanford University)

8
6. Anexo
Tabla Fmax (Prueba de Hurtley) v=n-1

Potrebbero piacerti anche