Sei sulla pagina 1di 12

Prueba de hipótesis

Una prueba de hipótesis es una regla que especifica si se puede aceptar o rechazar una
afirmación acerca de una población dependiendo de la evidencia proporcionada por una
muestra de datos.

Una prueba de hipótesis examina dos hipótesis opuestas sobre una población: la hipótesis
nula y la hipótesis alternativa. La hipótesis nula es el enunciado que se probará. Por lo
general, la hipótesis nula es un enunciado de que "no hay efecto" o "no hay diferencia". La
hipótesis alternativa es el enunciado que se desea poder concluir que es verdadero de
acuerdo con la evidencia proporcionada por los datos de la muestra.[CITATION Zar \l 12298 ]

Con base en los datos de muestra, la prueba determina si se puede rechazar la hipótesis
nula. Usted utiliza el valor p para tomar esa decisión. Si el valor p es menor que el nivel de
significancia (denotado como α o alfa), entonces puede rechazar la hipótesis nula.

Un error común de percepción es que las pruebas estadísticas de hipótesis están diseñadas
para seleccionar la más probable de dos hipótesis. Sin embargo, al diseñar una prueba de
hipótesis, establecemos la hipótesis nula como lo que queremos desaprobar. Puesto que
establecemos el nivel de significancia para que sea pequeño antes del análisis (por lo
general, un valor de 0.05 funciona adecuadamente), cuando rechazamos la hipótesis nula,
tenemos prueba estadística de que la alternativa es verdadera. En cambio, si no podemos
rechazar la hipótesis nula, no tenemos prueba estadística de que la hipótesis nula sea
verdadera. Esto se debe a que no establecimos la probabilidad de aceptar equivocadamente
la hipótesis nula para que fuera pequeña.

Tipos y clases de hipótesis

En esencia, existen dos tipos diferentes de hipótesis:

Las hipótesis nula y alternativa


Las hipótesis nula y alternativa son dos enunciados mutuamente excluyentes acerca de una
población. Una prueba de hipótesis utiliza los datos de la muestra para determinar si se
puede rechazar la hipótesis nula.

Hipótesis nula (H0)

La hipótesis nula indica que un parámetro de población (tal como la media, la desviación
estándar, etc.) es igual a un valor hipotético. La hipótesis nula suele ser una afirmación
inicial que se basa en análisis previos o en conocimiento especializado.

Hipótesis alternativa (H1)


La hipótesis alternativa indica que un parámetro de población es más pequeño, más grande
o diferente del valor hipotético de la hipótesis nula. La hipótesis alternativa es lo que usted
podría pensar que es cierto o espera probar que es cierto.

Hipótesis unilaterales y bilaterales

La hipótesis alternativa puede ser unilateral o bilateral.

Bilateral

Utilice una hipótesis alternativa bilateral (también conocida como hipótesis no direccional)
para determinar si el parámetro de población es mayor que o menor que el valor hipotético.
Una prueba bilateral puede detectar cuándo el parámetro de población difiere en cualquier
dirección, pero tiene menos potencia que una prueba unilateral.[CITATION Hin05 \l 12298 ]

Unilateral
Utilice una hipótesis alternativa unilateral (también conocida como hipótesis direccional)
para determinar si el parámetro de población difiere del valor hipotético en una dirección
específica. Usted puede especificar la dirección para que sea mayor que o menor que el
valor hipotético. Una prueba unilateral tiene mayor potencia que una prueba bilateral, pero
no puede detectar si el parámetro de población difiere en la dirección opuesta.

Etapas Básicas en Pruebas de Hipótesis.


Al realizar pruebas de hipótesis, se parte de un valor supuesto (hipotético) en parámetro
poblacional. Después de recolectar una muestra aleatoria, se compara
la estadística muestral, así como la media (x), con el parámetro hipotético, se compara con
una supuesta media poblacional (). Después se acepta o se rechaza el valor hipotético,
según proceda. Se rechaza el valor hipotético sólo si el resultado muestral resulta muy poco
probable cuando la hipótesis es cierta.

Etapa 1.- Planear la hipótesis nula y la hipótesis alternativa. La hipótesis nula (H0) es el
valor hipotético del parámetro que se compra con el resultado muestral resulta muy poco
probable cuando la hipótesis es cierta.

Etapa 2.- Especificar el nivel de significancia que se va a utilizar. El nivel de significancia


del 5%, entonces se rechaza la hipótesis nula solamente si el resultado muestral es tan
diferente del valor hipotético que una diferencia de esa magnitud o mayor, pudiera ocurrir
aleatoria mente con una probabilidad de 1.05 o menos.

Etapa 3.- Elegir la estadística de prueba. La estadística de prueba puede ser la estadística


muestral (el estimador no segado del parámetro que se prueba) o una versión transformada
de esa estadística muestral. Por ejemplo, para probar el valor hipotético de una media
poblacional, se toma la media de una muestra aleatoria de esa distribución normal, entonces
es común que se transforme la media en un valor z el cual, a su vez, sirve como estadística
de prueba.[ CITATION Ali05 \l 12298 ]

Consecuencias de las Decisiones en Pruebas de Hipótesis.

Decisiones Posibles Situaciones Posibles

  La hipótesis nula es La
verdadera hipótesis
nula es
falsa

Aceptar la Hipótesis Nula Se acepta correctamente Error tipo II  

Rechazar la Hipótesis Nula Error tipo I Se rechaza  


correctamente

Etapa 4.- Establecer el valor o valores críticos de la estadística de prueba. Habiendo


especificado la hipótesis nula, el nivel de significancia y la estadística de prueba que se van
a utilizar, se produce a establecer el o los valores críticos de estadística de prueba. Puede
haber uno o más de esos valores, dependiendo de si se va a realizar una prueba de uno o dos
extremos.

Etapa 5.- Determinar el valor real de la estadística de prueba. Por ejemplo, al probar un


valor hipotético de la media poblacional, se toma una muestra aleatoria y se determina el
valor de la media muestral. Si el valor crítico que se establece es un valor de z, entonces se
transforma la media muestral en un valor de z.

Etapa 6.- Tomar la decisión. Se compara el valor observado de la estadística muestral con


el valor (o valores) críticos de la estadística de prueba. Después se acepta o se rechaza la
hipótesis nula. Si se rechaza ésta, se acepta la alternativa; a su vez, esta decisión tendrá
efecto sobre otras decisiones de los administradores operativos, como por ejemplo,
mantener o no un estándar de desempeño o cuál de
dos estrategias de mercadotecnia utilizar.

La distribución apropiada de la prueba estadística se divide en dos regiones: una región


de rechazo y una de no rechazo. Si la prueba estadística cae en esta última región no se
puede rechazar la hipótesis nula y se llega a la conclusión de que el proceso funciona
correctamente.

Al tomar la decisión con respecto a la hipótesis nula, se debe determinar el valor crítico en
la distribución estadística que divide la región del rechazo (en la cual la hipótesis nula no se
puede rechazar) de la región de rechazo. A hora bien el valor crítico depende del tamaño de
la región de rechazo.

Pasos en una Prueba de hipótesis:

Planteo de las hipótesis.


Establecer la hipótesis nula en términos de igualdad

Establecer la hipótesis alternativa, que puede hacerse de tres maneras, dependiendo del
interés del investigador

Prueba bilateral unilateral izquierda unilateral derecha

Ejemplo de puebla de hipótesis estadísticas aplicadas

Aplicación del Chi cuadrado

 Fo  Fe 
2

 2
  Fe

X2 = Chi-cuadrado.

= Sumatoria.

Fo = Frecuencia observada.

Fe = Frecuencia esperada.

Fo – Fe = Frecuencias observadas – Frecuencias esperadas.

(Fo - Fe)2 = Resultado de las frecuencias observadas y esperadas al cuadrado.

(Fo - Fe)2/Fe = Resultado de las frecuencias observadas y esperadas al cuadrado dividido


para las frecuencias esperadas.
TABLA 1 Comprobación de Hipótesis

FRECUENCIAS OBSERVADAS
TOTAL
CATEGORIA PREGUNTA 2 PREGUNTA 4
Si 17 10 27
No 1 10 11
No se 2 8 10
TOTAL 20 28 48
0.42 0.58 1.00
20
FRECUENCIA ESPERADAS
TOTAL
CATEGORIA PREGUNTA PREGUNTA
Si 11.3 15.75 27
No 4.6 6.42 11
No se 4.2 5.83 10
TOTAL 15.83 22.17 38

FRECUENCIAS OBSERVADAS
TOTAL
CATEGORIA PREGUNTA PREGUNTA
Si 2.94 2.10
No 2.80 2.00
No se 1.13 0.80 Chi

Fuente: [CITATION LAM19 \l 12298 ]


Nivel de significación y regla de decisión
Grado de libertad.- Para aplicar el grado de libertad, utilizamos la siguiente fórmula.

GL = (3 – 1) (2 – 1)

GL = (2) (1)

GL = 2
Grado de significación
α = 0,05 que corresponde al 95% de confiabilidad, valor de chi cuadrada teórica encontrado
es de 5,9915

La chi cuadrada calculada es 9,84 valor significativamente mayor que el de la chi cuadrada
teórica, por lo que la hipótesis de trabajo es aceptada.

Se concluye entonces en base a la hipótesis nula (Ho) es rechazada y que la hipótesis


alternativa (H1) es aceptada.

Regresión lineal simple: la regresión está dirigida a describir como es la relación entre dos
variables X e Y, de tal manera que incluso se pueden hacer predicción es sobre los valores
de la variable Y, a partir de los de X. Cuando la asociación entre ambas variables es fuerte,
la regresión nos ofrece un modelo estadístico que puede alcanzar finalidades predictivas.
La regresión supone que hay una variable fija, controlada por el investigador (es la variable
independiente o predictora), y otra que no está controlada (variable respuesta o
dependiente). La correlación supone que ninguna es fija: las dos variables están fuera del
control de investigador.
La regresión es su forma más sencilla se llama regresión lineal simple. Se trata de una
técnica estadística que analiza la relación entre dos variables cuantitativas, tratando de
verificar si dicha relación es lineal.
Si tenemos dos variables hablamos de regresión simple, si hay más de dos variables
regresión múltiple.
Su objetivo es explicar el comportamiento de una variable Y, que denominaremos variable
explicada (o dependiente o endógena), a partir de otra variable X, que llamaremos variable
explicativa (o independiente o exógena).
Una vez que hemos hecho el diagrama de dispersión y después de observar una posible
relación lineal entre las dos variables, nos proponemos encontrar la ecuación de la recta que
mejor se ajuste a la nube de puntos. Esta recta se denomina recta de regresión.
Si sobre un grupo de personas observamos los valores que toman las variables X = altura
medida en centímetros, Y=altura medida en metros, sabemos que la relación que hay entre
ambas es: Y = X/100.
Obtener esta relación es menos evidente cuando lo que medimos sobre el mismo grupo de
personas es X = altura medida en centímetros e Y= peso en kilogramos. La razón es que no
es cierto que conocida la altura xi de un individuo, podamos determinar de modo exacto su
peso yi(dos personas que miden 1, 70m pueden tener pesos de 60 y 65 kilos). Sin embargo,
alguna relación entre ellas debe existir, ya que parece más probable pensar que un
individuo de 2m pese más que otro que mida 1,20m.
A la deducción, a partir de una serie de datos, de este tipo de relaciones entre variables, es
lo que denominamos regresión.
Mediante las técnicas de regresión inventamos una variable Ŷ como función de otra
variable X (o viceversa).El criterio para construir esta función es que la diferencia entre Y e
Ŷ, denominada error o residuo, sea pequeña.
Ŷ = f(X), Y – Ŷ = error
Los residuos o errores ei son la diferencia entre los valores observados (verdadero valor de
Y) y los valores pronosticados por el modelo: ei=Y-Ŷ. Recogen la parte de la variable Y
que no es explicada por el modelo de regresión.
A partir de la definición de residuo, podemos escribir Y = f(X) + error.
El término que hemos denominado error debe ser tan pequeño como sea posible. El
objetivo será buscar la función (modelo de regresión) Ŷ= f(X) que lo minimice.[ CITATION
LAG12 \l 12298 ]

Regresión lineal. Permite determinar el grado de dependencia de las series de valores X e


Y, prediciendo el valor y estimado que se obtendría para un valor x que no esté en la
distribución.

Regresión lineal
Concepto:
Método matemático que modeliza la relación entre una variable dependiente Y, las
variables independientes Xi y un término aleatorio ε.

Vamos a determinar la ecuación de la recta que mejor ajusta a los datos representados en la
figura. Se denomina error ei a la diferencia yi-y, entre el valor observado yi, y el valor
ajustado y= axi+b, tal como se ve en la figura inferior. El criterio de ajuste se toma como
aquél en el que la desviación cuadrática media sea mínima, es decir, debe de ser mínima la
suma
El extremos de una función: máximo o mínimo se obtiene cuando las derivadas de s
respecto de a y de b sean nulas. Lo que da lugar a un sistema de dos ecuaciones con dos
incógnitas del que se despeja a y b.

El coeficiente de correlación es otra técnica de estudiar la distribución bidimensional, que


nos indica la intensidad o grado de dependencia entre las variables X e Y. El coeficiente de
correlación r es un número que se obtiene mediante la fórmula.[ CITATION Bau03 \l
12298 ]

El numerador es el producto de las desviaciones de los valores X e Y respecto de sus


valores medios. En el denominador tenemos las desviaciones cuadráticas medias de X y de
Y.

El coeficiente de correlación puede valer cualquier número comprendido entre -1 y +1.

· Cuando r=1, la correlación lineal es perfecta, directa.

· Cuando r=-1, la correlación lineal es perfecta, inversa

· Cuando r=0, no existe correlación alguna, independencia total de los valores X e Y


Tipos de modelos de regresión lineal

Existen diferentes tipos de regresión lineal que se clasifican de acuerdo a sus parámetros:

Regresión lineal simple

La regresión lineal simple se basa en estudiar los cambios en una variable, no aleatoria,
afectan a una variable aleatoria, en el caso de existir una relación funcional entre ambas
variables que puede ser establecida por una expresión lineal, es decir, su representación
gráfica es una línea recta. Es decir, se esta en presencia de una regresión lineal simple
cuando una variable independiente ejerce influencia sobre otra variable dependiente.
[ CITATION Bec95 \l 12298 ]

Ejemplo: Y = f(x)

Regresión lineal múltiple

La regresión lineal permite trabajar con una variable a nivel de intervalo o razón, así
también se puede comprender la relación de dos o más variables y permitirá relacionar
mediante ecuaciones, una variable en relación a otras variables llamándose Regresión
múltiple. O sea, la regresión lineal múltiple es cuando dos o más variables independientes
influyen sobre una variable dependiente.

Ejemplo: Y = f(x, w, z).

Aplicaciones de la regresión lineal

Líneas de tendencia

Una línea de tendencia representa una tendencia en una serie de datos obtenidos a través de
un largo período. Este tipo de líneas puede decir si un conjunto de datos en particular
(como por ejemplo, el PBI, el precio del petróleo o el valor de las acciones) han aumentado
o decrementado en un determinado período. Las líneas de tendencia son generalmente
líneas rectas, aunque algunas variaciones utilizan polinomios de mayor grado dependiendo
de la curvatura deseada en la línea.

Medicina

En Medicina, las primeras evidencias relacionando la mortalidad con el fumar tabaco


vinieron de estudios que utilizaban la regresión lineal. Los investigadores incluyen una gran
cantidad de variables en su análisis de regresión en un esfuerzo por eliminar factores que
pudieran producir correlaciones espurias.[ CITATION Bel80 \l 12298 ]

En el caso del Tabaquismo, los investigadores incluyeron el estado socio-económico para


asegurarse que los efectos de mortalidad por tabaquismo no sean un efecto de su educación
o posición económica. No obstante, es imposible incluir todas las variables posibles en un
estudio de regresión.

En el ejemplo del tabaquismo, un hipotético gen podría aumentar la Mortalidad y aumentar


la propensión a adquirir enfermedades relacionadas con el consumo de tabaco.

Industria

En la industria tiene aplicación para investigar la relación entre el rendimiento de la


producción y uno o más factores del (o de los) que depende, como la Temperatura, la
humedad ambiental, la presión, la cantidad de insumos, etc; con base en este análisis se
puede pronosticar el comportamiento de una variable que se desea estimar.

Potrebbero piacerti anche