Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
ORCID: 0000-0002-5582-0124
André Chocco, 2015
André Chocco, 2015
André Chocco, 2015
André Chocco, 2015
En estadística una relación se refiere a una correlación.
Correlación
Existe entre dos o más variables cuando los valores de
una de ellas se relaciona de alguna manera con los
valores de las otras.
2
Correlación usando
SPSS
Diagrama de dispersión
Prueba de normalidad usando SPSS
2
Prueba de normalidad usando SPSS
2
H0: Los datos tienden a una distribución normal
Ha: Los datos no tienden a una distribución normal
p-valor
2
Correlación usando
SPSS
No existe correlación
lineal entre estatura y
pulso.
Ejemplo:
En un estudio para determinar la relación entre la concentración de nicotina en sangre de un
individuo y el contenido en nicotina de un cigarrillo, se obtuvo los datos del archivo:
concentracion_contenido.sav
2
𝜒
𝑉=
√
𝑛 ( 𝑘 − 1)
𝑛 : 𝑡𝑎𝑚𝑎 ñ 𝑜 𝑑𝑒 𝑚𝑢𝑒𝑠𝑡𝑟𝑎 .
𝑘 : 𝑣𝑎𝑙𝑜𝑟 𝑖𝑛𝑓𝑒𝑟𝑖𝑜𝑟 𝑑𝑒 𝑓𝑖𝑙𝑎𝑠 𝑜 𝑐𝑜𝑙𝑢𝑚𝑛𝑎𝑠 .
2
𝜒 : 𝑣𝑎𝑙𝑜𝑟 𝑐h𝑖 𝑐𝑢𝑎𝑑𝑟𝑎𝑑𝑜 .
V-Cramer en SPSS
Encontrar el coeficiente V de Cramer en el archivo v_cramer.sav
1
2
1
2
Si V es menor que
0.2 la relación es
débil, de 0.2 a 0.6
la relación es
moderada, mayor
que 0.6 la relación
es fuerte
Tau b de Kendall
Asociación para variables ordinales o de rangos que tiene en
consideración los empates.
Prueba chi cuadrado
Prueba de independencia de variables nominales.
2
1
Prueba chi cuadrado en el SPSS
2
Prueba chi cuadrado en el SPSS
2
Prueba chi cuadrado en el SPSS
Análisis de regresión
Relación lineal Y
Regresión lineal simple Regresión lineal múltiple
Walpole, R., Myers, R., Myers, S. y Ye, K. (2007). Estadística y probabilidad para ingeniería y ciencias. (8ª. ed.) México: Pearson educación
Modelo de regresión lineal simple
Y
𝑦 = 𝑎+bx
^
Mínimos cuadrados
n XY ( X )( Y )
Coeficientes de regresión b
n X 2 ( X ) 2
a
Y
b
X
n n
Walpole, R., Myers, R., Myers, S. y Ye, K. (2007). Estadística y probabilidad para ingeniería y ciencias. (8ª. ed.) México: Pearson educación
Modelo de regresión lineal simple
El coeficiente de determinación:
𝐻
0 : 𝛽=𝛽 0
𝐻
0 : 𝛼 =𝛼 0
𝑎 −𝛼0
=
𝑡
𝑛
𝑡 𝑛− 2
√
2
∑ 𝑥 𝑖
𝑖=1
𝑠
𝑛 𝑆 𝑥𝑥
Walpole, R., Myers, R., Myers, S. y Ye, K. (2007). Estadística y probabilidad para ingeniería y ciencias. (8ª. ed.) México: Pearson educación
Ejemplo
Diagrama de
dispersión
Clic en Gráficos/Cuadros de
diálogos antiguos/Dispersión de
puntos
2
Diagrama de
dispersión
Regresión lineal simple en SPSS
Diagrama de
dispersión
Regresión lineal simple en SPSS
Clic en Analizar/Regresión/Lineales
Comparación de medias
Muestras independientes
• Dos muestras son independientes si los valores
muestrales seleccionados a partir de una población no
están relacionados, pareados o asociados de alguna
manera con los valores muestrales seleccionados de la
otra población.
Muestras relacionadas
• Cuando cada par de valores muestrales consiste en dos
medidas del mismo sujeto, o si cada par de valores
muestrales consiste en datos asociados.
Estadístico de prueba
( ´𝑥1 − ´𝑥 2 ) − ( 𝜇 1 − 𝜇 2)
𝑡=
( ´𝑥1 − ´𝑥 2 ) − ( 𝜇 1 − 𝜇 2) 2
𝑠 𝑝 𝑠𝑝
2
𝑡=
2
𝑠1 𝑠2
2
√ +
𝑛1 𝑛2
√ +
𝑛1 𝑛2
Donde:
𝑠 =
( 𝑛 1 − 1 ) 𝑠21 + ( 𝑛2 − 1 ) 𝑠 22
2
𝑝
( 𝑛1 − 1 ) + ( 𝑛2 − 1 )
Muestras independientes y Varianzas diferentes
Se ha recolectado las notas en dos instituciones educativas. ¿Existe diferencia entre las notas promedio de ambas
instituciones educativas?
Prueba para dos muestras independientes: SPSS
Estadística paramétrica
Dos grupos: diferencia de medias
Estadístico de prueba
´−𝜇
𝑑 𝑑
𝑡=
𝑠𝑑
√𝑛
Donde:
Muestras relacionadas
( 𝑝 1 − 𝑝2 ) − ( 𝑃 1 − 𝑃 2 )
𝑧=
´𝑞
𝑝 ´ ´𝑝 𝑞
´
Donde:
√ 𝑛1
+
𝑛2
𝑥1 𝑥 1+ 𝑥 2
𝑝1 = ´𝑝 =
𝑛1 𝑛1+ 𝑛2
𝑥2
𝑝2= 𝑞 ´ =1 − ´𝑝
𝑛2
Estadístico de prueba
• Si el valor p-valor (sig.) ≤ α , rechace la hipótesis nula de medias iguales y concluya que al menos una de las medias
poblacionales es diferente de las otras.
• Si el valor p-valor(sig.) > α, no rechace la hipótesis nula de medias iguales.
Un estudio compara los efectos sobre las ventas de 4 promociones de un mes en el punto
de venta. Presentamos las ventas unitarias de 5 tiendas que utilizaron las 4 promociones
en meses distintos:
𝑛 1 ( 𝑛1 +𝑛2 +1 )
H1: Las dos muestras provienen de 𝑢 𝑅=
2
poblaciones con distribuciones
diferentes (esto es, las dos
𝑛1 𝑛 2 ( 𝑛1 +𝑛2 +1 )
poblaciones son diferentes en alguna
forma).
Muestras independientes
𝜎 𝑅=
√ 12
H1: Las muestras provienen de N = número total de observaciones en todas las muestras que se
poblaciones con distribuciones combinaron
k = número de muestras
diferentes. R1 = suma de los rangos de la muestra 1
n1 = número de observaciones de la muestra 1
Muestras independientes Para la muestra 2, la suma de los rangos es R 2 y el número de
observaciones es n2; se utiliza una notación similar para las otras
muestras.
Muestras Relacionadas
Siegel, S. y Castellan, N.(1995). Estadística Aplicada a las ciencias de la conducta. México: Trillas
Tamaño de efecto
Esta fórmula es la llamada d de cohen, porque Jacob Cohen fue
el primero que la propuso para poder calcular cuán diferentes
eran dos grupos.
https://www.uccs.edu/lbecker/