Sei sulla pagina 1di 65

Escuela de posgrado

Pruebas de Hipótesis paramétricas y DIRECCIÓN DE


no paramétricas INVESTIGACIÓ
N

Mg. Roberto Fiestas Flores

ORCID: 0000-0002-5582-0124
André Chocco, 2015
André Chocco, 2015
André Chocco, 2015
André Chocco, 2015
En estadística una relación se refiere a una correlación.

Correlación
Existe entre dos o más variables cuando los valores de
una de ellas se relaciona de alguna manera con los
valores de las otras.

Triola, M. (2013). Estadística 11ª ed. México: Pearson Educación.


Coeficientes de correlación
No paramétricos
Paramétricos
• Rho de Spearman
• r de Pearson (cuantitativas
(cuantitativas sin
con distribución normal)
distribución normal,
cualitativas)
• Tau-b de Kendall Estadística
(cualitativas ordinales) descriptiva
• Coeficiente de contingencia
o eta (al menos una
variable es cualitativa
nominal)
Pruebas de correlación
Paramétricos No paramétricos

• Prueba t para el • Prueba Rho de Estadística


coeficiente r de Pearson Spearman inferencial
• Prueba Tau-b de Kendall
• Prueba Chi cuadrado (al
menos una variable es
cualitativa nominal)
ón
Correlación
s i (variables cuantitativas)
e r
i s p
e d
a d
am
gr
a
Di

Triola, M. (2013). Estadística 11ª ed. México: Pearson Educación.


ón
Correlación
s i (variables cuantitativas)
e r
i s p
e d
a d
am
gr
a
Di

Triola, M. (2013). Estadística 11ª ed. México: Pearson Educación.


Ejemplo:
A continuación se listan los pulsos (en latidos por minuto) y las estaturas (en
pulgadas) de una muestra aleatoria de mujeres adultas. Analizar la relación entre
ambas variables.

Estatura Pulso Estatura Pulso


64.3 76 59.8 80
66.4 72 63.3 64
62.3 88 67.9 68
62.3 60 61.4 68
59.6 72 66.7 80
63.6 68 64.8 76
Correlación usando SPSS
Diagrama de dispersión
Correlación usando SPSS
Diagrama de dispersión
Correlación usando
SPSS
Diagrama de dispersión 1

2
Correlación usando
SPSS
Diagrama de dispersión
Prueba de normalidad usando SPSS

2
Prueba de normalidad usando SPSS

2
H0: Los datos tienden a una distribución normal
Ha: Los datos no tienden a una distribución normal

1. Si p-valor ≤ 0.05, se rechaza la hipótesis nula y se acepta la hipótesis alternativa.


2. Si p-valor > 0.05, no se rechaza la hipótesis nula y no se acepta la hipótesis alternativa.

p-valor

Ambas variables, pulso y


estatura tiende a una
distribución normal
Correlación usando
SPSS
1

2
Correlación usando
SPSS

No existe correlación
lineal entre estatura y
pulso.
Ejemplo:
En un estudio para determinar la relación entre la concentración de nicotina en sangre de un
individuo y el contenido en nicotina de un cigarrillo, se obtuvo los datos del archivo:
concentracion_contenido.sav

Analizar la correlación entre las variables.


V-Cramer
Calcula la relación entre dos variables nominales.

  2
𝜒
𝑉=

𝑛 ( 𝑘 − 1)

𝑛  : 𝑡𝑎𝑚𝑎 ñ 𝑜 𝑑𝑒 𝑚𝑢𝑒𝑠𝑡𝑟𝑎 .
𝑘  : 𝑣𝑎𝑙𝑜𝑟 𝑖𝑛𝑓𝑒𝑟𝑖𝑜𝑟 𝑑𝑒 𝑓𝑖𝑙𝑎𝑠 𝑜 𝑐𝑜𝑙𝑢𝑚𝑛𝑎𝑠 .
2
 𝜒 : 𝑣𝑎𝑙𝑜𝑟 𝑐h𝑖 𝑐𝑢𝑎𝑑𝑟𝑎𝑑𝑜 .
V-Cramer en SPSS
Encontrar el coeficiente V de Cramer en el archivo v_cramer.sav

1
2
1

2
Si V es menor que
0.2 la relación es
débil, de 0.2 a 0.6
la relación es
moderada, mayor
que 0.6 la relación
es fuerte
Tau b de Kendall
Asociación para variables ordinales o de rangos que tiene en
consideración los empates.
Prueba chi cuadrado
Prueba de independencia de variables nominales.

H0: Las variables son independientes.


Ha: Las variables son dependientes.

Realizar la prueba Chi cuadrado en el archivo v_cramer,chi


Prueba chi cuadrado en el SPSS

2
1
Prueba chi cuadrado en el SPSS

2
Prueba chi cuadrado en el SPSS

2
Prueba chi cuadrado en el SPSS
Análisis de regresión

El concepto de análisis de regresión tiene que ver con encontrar la mejor


relación entre Y (variable dependiente ) y x (variable independiente), al
cuantificar la intensidad de dicha relación y emplear métodos que permitan
predecir los valores de la respuesta ante valores dados de la variable x.

En muchas aplicaciones, habrá más de una variable


independiente que ayude a explicar la variable
dependiente.

Relación lineal Y 
Regresión lineal simple Regresión lineal múltiple

Walpole, R., Myers, R., Myers, S. y Ye, K. (2007). Estadística y probabilidad para ingeniería y ciencias. (8ª. ed.) México: Pearson educación
Modelo de regresión lineal simple

La recta de regresión ajustada, o estimada, está dada por:

  𝑦 = 𝑎+bx
^
Mínimos cuadrados
n XY  ( X )( Y )
Coeficientes de regresión b
n  X 2  ( X ) 2

a
 Y
b
 X
n n

Walpole, R., Myers, R., Myers, S. y Ye, K. (2007). Estadística y probabilidad para ingeniería y ciencias. (8ª. ed.) México: Pearson educación
Modelo de regresión lineal simple

Prueba de hipótesis sobre la pendiente

  El coeficiente de determinación:
𝐻
  0 : 𝛽=𝛽 0

Es una medida de la proporción de la variabilidad


𝑏 − 𝛽0
𝑡  = 𝑡 𝑛− 2 explicada por el modelo ajustado.
𝑠
√ 𝑆 𝑥𝑥
Análisis de varianza

Prueba de hipótesis sobre la intersección

𝐻
  0 : 𝛼 =𝛼 0

𝑎 −𝛼0
  =
𝑡
𝑛
𝑡 𝑛− 2


2
∑ 𝑥 𝑖
𝑖=1
𝑠
𝑛 𝑆 𝑥𝑥

Walpole, R., Myers, R., Myers, S. y Ye, K. (2007). Estadística y probabilidad para ingeniería y ciencias. (8ª. ed.) México: Pearson educación
Ejemplo

Se piensa que el número de libras de vapor consumidas mensualmente por una


planta química se relaciona con la temperatura ambiente promedio (en °F) de ese
mes. En la tabla siguiente se muestran la temperatura y el consumo:

Mes Temperatura Consumo


a. Ajuste los datos a un modelo de regresión
Ene. 21 185.79 lineal simple.
Feb. 24 214.47
Mar. 32 288.03 b. ¿Cuál es la estimación del consumo
Abr. 47 424.84 esperado de vapor cuando la temperatura
May. 50 454.58 promedio es 55°F?
Jun. 59 539.03
Jul. 68 621.55 c. ¿Qué cambio se espera en el consumo de
Ago. 74 675.06 valor promedio cuando la temperatura
Set. 62 562.03 mensual promedio cambia 1°F?
Oct. 50 452.93
Nov. 41 369.95 d. Suponga que la temperatura mensual
Dic. 30 273.98 promedio es 47°F. Calcule el valor ajustado
de “y” y el residual correspondiente.
Regresión lineal simple en SPSS

Diagrama de
dispersión

Clic en Gráficos/Cuadros de diálogos antiguos/Dispersión de puntos


Regresión lineal simple en SPSS
1

Clic en Gráficos/Cuadros de
diálogos antiguos/Dispersión de
puntos

2
Diagrama de
dispersión
Regresión lineal simple en SPSS

Diagrama de
dispersión
Regresión lineal simple en SPSS

Clic en Analizar/Regresión/Lineales
Comparación de medias
Muestras independientes
• Dos muestras son independientes si los valores
muestrales seleccionados a partir de una población no
están relacionados, pareados o asociados de alguna
manera con los valores muestrales seleccionados de la
otra población.
Muestras relacionadas
• Cuando cada par de valores muestrales consiste en dos
medidas del mismo sujeto, o si cada par de valores
muestrales consiste en datos asociados.

Triola, M. (2013). Estadística 11ª ed. México: Pearson Educación.


Estadística paramétrica
 
Dos grupos: diferencia de medias

Estadístico de prueba
  ( ´𝑥1 − ´𝑥 2 ) − ( 𝜇 1 − 𝜇 2)
𝑡=
 
( ´𝑥1 − ´𝑥 2 ) − ( 𝜇 1 − 𝜇 2) 2
𝑠 𝑝 𝑠𝑝
2
𝑡=
2
𝑠1 𝑠2
2
√ +
𝑛1 𝑛2

√ +
𝑛1 𝑛2
Donde:

 
𝑠 =
( 𝑛 1 − 1 ) 𝑠21 + ( 𝑛2 − 1 ) 𝑠 22
2
𝑝
( 𝑛1 − 1 ) + ( 𝑛2 − 1 )
Muestras independientes y Varianzas diferentes

Muestras independientes y Varianzas iguales

Triola, M. (2013). Estadística 11ª ed. México: Pearson Educación.


Ejemplo:

Se ha recolectado las notas en dos instituciones educativas. ¿Existe diferencia entre las notas promedio de ambas
instituciones educativas?
Prueba para dos muestras independientes: SPSS
Estadística paramétrica
 
Dos grupos: diferencia de medias
Estadístico de prueba

  ´−𝜇
𝑑 𝑑
𝑡=
𝑠𝑑
√𝑛
Donde:

Muestras relacionadas

Triola, M. (2013). Estadística 11ª ed. México: Pearson Educación.


Ejemplo:

Pesos antes y después de un programa de reducción de peso. ¿Verificar si el


programa fue efectivo?
Prueba para dos muestras relacionadas: SPSS
Estadística paramétrica

Dos grupos: diferencia de proporciones


Estadístico de prueba
 

  ( 𝑝 1 − 𝑝2 ) − ( 𝑃 1 − 𝑃 2 )
𝑧=
´𝑞
𝑝 ´ ´𝑝 𝑞
´

Donde:
√ 𝑛1
+
𝑛2

  𝑥1   𝑥 1+ 𝑥 2
𝑝1 = ´𝑝 =
𝑛1 𝑛1+ 𝑛2
𝑥2
 
𝑝2= 𝑞 ´ =1 − ´𝑝
𝑛2

Triola, M. (2013). Estadística 11ª ed. México: Pearson Educación.


Estadística paramétrica

Tres o más grupos: ANOVA de un factor


 

Estadístico de prueba

  𝑉𝑎𝑟𝑖𝑎𝑛𝑧𝑎 𝑒𝑛𝑡𝑟𝑒 𝑙𝑎𝑠 𝑚𝑢𝑒𝑠𝑡𝑟𝑎𝑠


𝐹=
𝑉𝑎𝑟𝑖𝑎𝑛𝑧𝑎 𝑑𝑒𝑛𝑡𝑟𝑜 𝑑𝑒 𝑙𝑎𝑠 𝑚𝑢𝑒𝑠𝑡𝑟𝑎𝑠

• Si el valor p-valor (sig.) ≤ α , rechace la hipótesis nula de medias iguales y concluya que al menos una de las medias
poblacionales es diferente de las otras.
• Si el valor p-valor(sig.) > α, no rechace la hipótesis nula de medias iguales.

Triola, M. (2013). Estadística 11ª ed. México: Pearson Educación.


Ejemplo:

Un estudio compara los efectos sobre las ventas de 4 promociones de un mes en el punto
de venta. Presentamos las ventas unitarias de 5 tiendas que utilizaron las 4 promociones
en meses distintos:

¿Las promociones producen diferentes efectos sobre las ventas?


Prueba ANOVA de un factor: SPSS
Prueba ANOVA de un factor: SPSS
Prueba ANOVA de un factor: SPSS
Estadística No paramétrica

Dos grupos: prueba U de Mann-Whitney


Estadístico de prueba
H0: Las dos muestras provienen de   𝑅 − 𝜇𝑅
poblaciones con la misma distribución 𝑧=
(esto es, las dos poblaciones son
𝜎𝑅
idénticas). Donde:

  𝑛 1 ( 𝑛1 +𝑛2 +1 )
H1: Las dos muestras provienen de 𝑢 𝑅=
2
poblaciones con distribuciones
diferentes (esto es, las dos  
𝑛1 𝑛 2 ( 𝑛1 +𝑛2 +1 )
poblaciones son diferentes en alguna
forma).

Muestras independientes
𝜎 𝑅=
√ 12  

Triola, M. (2013). Estadística 11ª ed. México: Pearson Educación.


Ejemplo:

Los datos presentados son el contenido medio de


alquitrán de cigarrillos mentolados y no mentolados.
¿Existirá diferencias en los contenidos medios de
alquitrán en cigarrillos mentolados y no mentolados?
Prueba U de Mann-Whitney: SPSS
Prueba U de Mann-Whitney: SPSS
Estadística No paramétrica

Dos grupos: prueba de Rangos con signo de Wilcoxon


Estadístico de prueba
Si n ≤ 30, el estadístico de prueba es T.
H0: Las dos muestras provienen de Si n > 30, el estadístico de prueba es:
poblaciones con la misma distribución.   𝑛 ( 𝑛+1 )
H1: Las dos muestras provienen de 𝑇−
4
𝑧=
poblaciones con distribuciones 𝑛 ( 𝑛+1 ) ( 2 𝑛+1 )
diferentes.
Donde:
√ 24

T = la más pequeña de las siguientes dos sumas:


1. La suma de los valores absolutos de los rangos negativos de las
Muestras Relacionadas diferencias d que no sean cero.
2. La suma de los rangos positivos de las diferencias d que no sean
cero.

Triola, M. (2013). Estadística 11ª ed. México: Pearson Educación.


Ejemplo:
Los datos muestran el numero de hogares con violencia familiar en 11
distritos un año antes y este año después de aplicar un conjunto de
normas que endurecen las sanciones en este delito. ¿Existirá diferencias
antes y después de la aplicación de estas normas?
Prueba de Rangos con signo de Wilcoxon: SPSS
Estadística NO paramétrica

Tres o más grupos: prueba de Kruskal-Wallis


Estadístico de prueba
  2 2 2
12 𝑅1 𝑅 2 𝑅
H0: Las muestras provienen de
poblaciones con la misma
𝐻= +
(
𝑁 ( 𝑁 +1 ) 𝑛1 𝑛2
+… 𝑘 − 3 ( 𝑁 +1 )
𝑛𝑘 )
distribución.
Donde:

H1: Las muestras provienen de N = número total de observaciones en todas las muestras que se
poblaciones con distribuciones combinaron
k = número de muestras
diferentes. R1 = suma de los rangos de la muestra 1
n1 = número de observaciones de la muestra 1
Muestras independientes Para la muestra 2, la suma de los rangos es R 2 y el número de
observaciones es n2; se utiliza una notación similar para las otras
muestras.

Triola, M. (2013). Estadística 11ª ed. México: Pearson Educación.


Estadística NO paramétrica

Tres o más grupos: prueba de Friedman


Estadístico de prueba
  𝑘
H0: Las muestras provienen de
poblaciones con la misma distribución.
𝐹 𝑟=
[ 12

𝑁𝑘 ( 𝑘 +1 ) 𝑗=1
𝑅 2
]
𝑗 −3 𝑁 ( 𝑘 +1 )

H1: Las muestras provienen de Donde:

poblaciones con distribuciones   Número de sujetos.


N:
K: Número de variables
diferentes. RJ: Suma de los rangos de la variable j-ésima.
: Sumatoria de los cuadrados de los rangos de todas las variables

Muestras Relacionadas

Siegel, S. y Castellan, N.(1995). Estadística Aplicada a las ciencias de la conducta. México: Trillas
Tamaño de efecto
Esta fórmula es la llamada d de cohen, porque Jacob Cohen fue
el primero que la propuso para poder calcular cuán diferentes
eran dos grupos.

https://www.uccs.edu/lbecker/

Cohen propuso algunas reglas para determinar si una diferencia


es pequeña, moderada o grande. El autor planteaba que .20
hacia abajo, es una diferencia pequeña, .50 hacia arriba es una
diferencia moderada y .80 hacia arriba es una diferencia grande
(Cohen, 1988).

Potrebbero piacerti anche