Sei sulla pagina 1di 7

4.

1 Introducción
Esta investigación se concentra en la prueba de hipótesis, otro aspecto de la
estadística inferencial que al igual que la estimación del intervalo de confianza, se
basa en la información de la muestra. Se desarrolla una metodología paso a paso
que le permita hacer inferencias sobre un parámetro poblacional mediante el
análisis diferencial entre los resultados observados (estadístico de la muestra) y los
resultados de la muestra esperados si la hipótesis subyacente es realmente cierta.
En el problema de estimación se trata de elegir el valor de un parámetro de la
población, mientras que en las pruebas de hipótesis se trata de decidir entre aceptar
o rechazar un valor especificado (por ejemplo, si el nivel de centra miento de un
proceso es o no lo es). Prueba de hipótesis: Estadísticamente una prueba de
hipótesis es cualquier afirmación acerca de una población y/o sus parámetros.

Una prueba de hipótesis consiste en contrastar dos hipótesis estadísticas. Tal


contraste involucra la toma de decisión acerca de las hipótesis. La decisión consiste
en rechazar o no una hipótesis en favor de la otra.
Por cada tipo de prueba de hipótesis se puede calcular una prueba estadística
apropiada. Esta prueba estadística mide el acercamiento del calor de la muestra
(como un promedio) a la hipótesis nula. La prueba estadística, sigue una distribución
estadística bien conocida (normal, etc.) o se puede desarrollar una distribución para
la prueba estadística particular.

La distribución apropiada de la prueba estadística se divide en dos regiones: una


región de rechazo y una de no rechazo. Si la prueba estadística cae en esta última
región no se puede rechazar la hipótesis nula y se llega a la conclusión de que el
proceso funciona correctamente. Al tomar la decisión con respecto a la hipótesis
nula, se debe determinar el valor crítico en la distribución estadística que divide la
región del rechazo (en la cual la hipótesis nula no se puede rechazar) de la región
de rechazo. A hora bien el valor crítico depende del tamaño de la región de rechazo.
4.2 Distribuciones normal y t student

En estadística y probabilidad se llama distribución normal, distribución de Gauss o


distribución gaussiana, a una de las distribuciones de probabilidad de variable
continua que con más frecuencia aparece en fenómenos reales.
La gráfica de su función de densidad tiene una forma acampanada y es simétrica
respecto de un determinado parámetro. Esta curva se conoce como campana de
Gauss.
La importancia de esta distribución radica en que permite modelar numerosos
fenómenos naturales, sociales y psicológicos. Mientras que los mecanismos que
subyacen a gran parte de este tipo de fenómenos son desconocidos, por la enorme
cantidad de variables incontrolables que en ellos intervienen, el uso del modelo
normal puede justificarse asumiendo que cada observación se obtiene como la
suma de unas pocas causas independientes.
De hecho, la estadística es un modelo matemático que sólo permite describir un
fenómeno, sin explicación alguna. Para la explicación causal es preciso el diseño
experimental, de ahí que al uso de la estadística en psicología y sociología sea
conocido como método correlacional. La distribución normal también es importante
por su relación con la estimación por mínimos cuadrados, uno de los métodos de
estimación más simples y antiguos.
La distribución normal también aparece en muchas áreas de la propia estadística.
Por ejemplo, la distribución muestral de las medias muéstrales es aproximadamente
normal, cuando la distribución de la población de la cual se extrae la muestra no es
normal. Además, la distribución normal maximiza la entropía entre todas las
distribuciones con media y varianza conocidas, lo cual la convierte en la elección
natural de la distribución subyacente a una lista de datos resumidos en términos de
media muestral y varianza. La distribución normal es la más extendida en estadística
y muchos tests estadísticos están basados en una supuesta "normalidad".
En probabilidad y estadística, la distribución t (de Student) es una distribución de
probabilidad que surge del problema de estimar la media de una población
normalmente distribuida cuando el tamaño de la muestra es pequeño. Aparece de
manera natural al realizar la prueba t de Student para la determinación de las
diferencias entre dos medias muestrales y para la construcción del intervalo de
confianza para la diferencia entre las medias de dos poblaciones cuando se
desconoce la desviación típica de una población y ésta debe ser estimada a partir
de los datos de una muestra.
La distribución t de Student es la distribución de probabilidad del cociente
Dónde:
 Z tiene una distribución normal de media nula y varianza
1
 V tiene una distribución chicuadrado con V grados de
libertad
o Z y V son independientes

Si μ es una constante no nula, el cociente es una variable aleatoria


que sigue la distribución t student no central con parámetro de no-
centralidad μ.

4.3 Pruebas de significancia


Las pruebas de significancia estadística son un procedimiento que brinda un criterio
objetivo para calificar las diferencias que presentan al comprar los resultados de dos
muestras, con el objetivo de explicar si dichas diferencias se mantienen dentro de
los limites previstos por el diseño estadístico (un error y una confianza esperados)
o si, por el contrario, la diferencia entre ellas resulta lo suficiente grande como para
inferir que ha ocurrido un cambio real en el indicador.

4.4 Comparación de dos muestras independientes para las


diferencias entre dos medias

Cuando se conocen las varianzas de 2 poblaciones


Si se trata de muestras grandes e independientes y si se conocen las verdaderas
varianzas de las poblaciones correspondientes, el estadístico de prueba es la ya
conocida z estandarizada de la distribución normal que para 2 poblaciones se
calcula como:

̅𝟏 − 𝑿
(𝑿 ̅ 𝟐 ) − (𝝁𝟏 − 𝝁𝟐 )
𝒛=
𝝈𝑿𝟏 −𝑿𝟐

Pero como la hipótesis nula plantea que:

𝑯𝒐 : 𝝁 𝟏 − 𝝁 𝟐 = 𝟎
La expresión anterior se convierte en:

𝝈 𝟐 𝟏 𝝈𝟐 𝟐
𝝈𝑿𝟏 −𝑿𝟐 =√ +
𝒏𝟏 𝒏𝟐
Sin embargo, el caso más común es que no se conozcan las varianzas, entonces
se utilizan la de las muestras para estimarlas, y el procedimiento es exactamente
igual.

4.5 Prueba de Fisher para varianzas y de igualdad de las


varianzas de dos poblaciones normales

Para probar si existe o no la diferencia entre las varianzas de dos poblaciones puede
utilizarse como estadístico de prueba de F de la distribución de F de Fisher, llamada
así en honor del destacado estadístico Ronald Aylmer Fisher, que se calcula como
el cociente de las varianzas de dos poblaciones:

𝝈𝟐 𝟏
𝑭= 𝟐
𝝈 𝟐
Que sería la expresión teoría de F. Y el valor calculado de F a partir de las
varianzas muestrales:

𝑭 𝑺 𝟐
𝒄𝒂𝒍= 𝟏 𝟐
𝑺𝟐
La prueba se lleva a cabo sobre la diferencia hipotética entre dos varianzas
poblacionales: 𝑯𝒐 = 𝝈𝟏 𝟐 − 𝝈𝟐 𝟐 = 𝟎; para realizarla se obtienen las varianzas de dos
muestras tomadas de dos poblaciones diferentes. En otras palabras, esta prueba
se realiza para las poblaciones independientes, las que suele identificarse como 1
y 2.
Las dos varianzas muestrales son las que se utilizan como base para hacer
inferencias sobre sus correspondientes parámetros.
Si puede asumirse que las dos varianzas poblacionales son iguales, 𝝈𝟐 𝟏 = 𝝈𝟐 𝟐 ,
entonces se utiliza como estadístico de prueba, la distribución F con 𝒏𝟏−𝟏 grados
de libertad para el numerador y 𝒏𝟏 − 𝟏 grados de libertad para el denominador; ya que
el estadístico de prueba se calcula con los datos muestrales se construye un cociente.
4.6 Comparaciones de dos muestras pareadas

Pruebas para muestras pareadas cuando no se conocen las varianzas pero no se


necesita asumir que sean iguales
Se analizó el caso de una prueba para la diferencia entre 2 medias provenientes de
poblaciones independientes. Aquí se analizará el caso de la diferencia entre 2
medias provenientes de poblaciones pareadas o relacionadas. Es importante tener
presentes las circunstancias de estos casos:
• Se trata de muestras pareadas.
• Los tamaños de muestras son pequeños.
• La variable se distribuye de forma normal en la población.
En este caso, la prueba se convierte en una prueba sobre la diferencia entre las
observaciones, ya que se calculan las diferencias entre:
1. Dos individuos de la misma especie sometidos a tratamientos diferentes
(apareamiento de individuos según una característica de interés).
2. Dos mediciones hechas a los mismos individuos.

La media de la diferencia es:


𝜮 𝑫𝒊
̅=
𝑫
𝒏
Con el teorema del límite central, el promedio de las diferencias sigue una
distribución normal cuando se conoce la varianza de las diferencias y n es grande.
Pero generalmente no se conoce la varianza de las diferencias, entonces se estima:

̅ )𝟐
∑𝒏𝒊=𝟏(𝑫𝒊 − 𝑫
𝑺=√
𝒏−𝟏
El error estándar de las diferencias pareadas es:
̅
𝑫
𝑺𝑫 =
√𝒏

Con muestras pequeñas, el estadístico de prueba es:

̅
𝑫
𝒕𝒏−𝟏 =
𝑺𝑫
Con n-1 grados de libertad. Nótese que aquí cambian los grados de libertad, al
tratarse de muestras pareadas.
4.7 Modelo totalmente aleatorio: análisis de varianza de un factor

Se extraen dos muestras aleatorias independientes de tamaño n_1 y n_2 ,


respectivamente, de dos poblaciones con medias μ_1 y μ_2, y varianzas 〖σ_1〗
^2y 〖σ_2〗^2. Sabemos que la variable aleatoria tiene una distribución normal
estándar.

̅𝟏 − 𝑿
(𝑿 ̅ 𝟐 ) − (𝝁𝟏 − 𝝁𝟐 )
𝒛=
𝝈𝟏 𝟐 𝝈𝟐 𝟐
√ +
𝒏𝟏 𝒏𝟐
Suponemos que n_1 y n_2 son suficientemente grandes, por lo que se aplica el
teorema del limite central. Por supuesto, si las dos poblaciones son normales, el
estadístico anterior tiene una distribución normal estándar aun para n_1 y n_2
pequeñas. Evidentemente, si podemos suponer que σ_1=σ_2=σ, el estadístico
anterior se reduce a:
̅𝟏 − 𝑿
(𝑿 ̅ 𝟐 ) − (𝝁𝟏 − 𝝁𝟐 )
𝒛=
𝟏 𝟏
𝝈√𝒏 + 𝒏
𝟏 𝟐
os dos estadísticos anteriores sirven como base para el desarrollo de los
procedimientos de prueba que incluyen dos medias. La equivalencia con el intervalo
de confianza y facilidad de la transcicion del caso de pruebas sobre una sola media
hacen que esto sea sencillo.

La hipótesis bilateral sobre dos medias se escribe con bastante generalidad como
𝑯𝒐 = 𝝁𝟏 − 𝝁𝟐 = 𝒅𝒐

En efecto, la alternativa puede ser bilateral o unilateral. De nuevo, la distribución


que se utiliza es la distribución del estadístico de prueba bajo H_o. Se calculan los
valores X ̅_1 y( X) ̅_2 y para 〖σ_1〗^2y 〖σ_2〗^2 conocidas, el estadístico de
prueba dado por una región critica de dos colas en el caso de la alternativa
bilateral.
̅𝟏 − 𝑿
(𝑿 ̅ 𝟐 ) − 𝒅𝒐
𝒛=
𝝈𝟏 𝟐 𝝈𝟐 𝟐
√ +
𝒏𝟏 𝒏𝟐
Conclusión

En esta investigación se estudió la metodología básica necesaria al realizar pruebas


de hipótesis para las medias correspondientes a 2 poblaciones y se revisaron las
pruebas para la diferencia entre 2 medias en diversas circunstancias:
Con muestras grandes e independientes, cuando se conocen y cuando no se
conocen las varianzas correspondientes a las 2 poblaciones. Además, se explican
2 casos para esta última circunstancia, cuando no se conocen las varianzas;
podemos asumir que son iguales, y no puede asumirse que lo sean.
Las pruebas para 2 poblaciones con muestras pequeñas e independientes,
variables distribuidas normalmente, cuando no se conocen las varianzas de las
correspondientes poblaciones pueden asumirse que sean iguales, y no puede
asegurarse que lo sean.

Potrebbero piacerti anche