Sei sulla pagina 1di 9

Apuntes de Estadstica II

PROPIEDADES DE LAS VARIABLES CUANTITATIVAS


1. Simetra: Una distribucin es simtrica si esta es uniforme al promedio. Se refiere a la forma en que se
distribuyen los datos por encima y debajo del promedio. Se rompe cuando existen casos que se alejan del
centro, ms por uno de los extremos que por el otro. El coeficiente de Fisher (gl) mide la asimetra.
a) Asimetra a la izquierda
b) Simtrica
c) Asimetra a la derecha

2. Curtosis: Da cuenta del grado en que la curva se concentra en variables centrales. Se refiere al grado de
apuntamiento.
a) Leptocrtica
b) Mesocrtica
c) Platicrtica

DISTRIBUIN DE VARIABLES
a) Concepto de variable aleatoria: variable que toma distintos valores.
b) Concepto de distribucin y densidad: distribucin, cantidad de casos; densidad, concentracin de
datos en un valor.
c) Distribuciones continuas y discretas: continuas, toma muchos valores; discreta, toma pocos valores.
d) Distribuciones empricas y tericas: empricas, construidas a partir de datos observados; tericas,
definidas y construidas matemticamente. Ayuda a interpretar mejor los casos.
*Distribuciones tericas corresponden a una familia de distribuciones. Ejemplo: chi cuadrado y T de
student.

PROPIEDADES DE UN BUEN ESTIMADOR


1. Insesgado: Se dice que un estimador es insesgado si la media de la distribucin del estimador es igual al
parmetro poblacional. Se entiende como la diferencia entre el valor esperado del estimador y el verdadero
valor del parmetro a estimar. Cuando un estimador es considerado sesgado, implica que est sobre
estimando el valor del parmetro poblacional.
2. Eficiente: Bajo error estndar, es decir, poca desviacin estndar del estimador. Muy poca variacin del
resultado. Diremos que un estimador o ms preciso que otro estimador, si la varianza del primero es menor
que la del segundo. Un estimador es ms eficiente, por lo tanto, cuanto menor es su varianza.
3. Consistente: El valor muestral se acerca al valor poblacional a medida que aumenta la muestra.

PARTES DE LA ESTADSTICA INFERENCIAL


1. Estimacin de punto e intervalo: Se dispone de una muestra que da informacin sobre una variable y se
quiere hacer una prediccin del valor de esa variable en el universo.
2. Pruebas de hiptesis y fuerza de la relacin: Se dispone de informacin de dos o ms variables y se
desea saber si la informacin muestral sobre su relacin permite inferir que esa relacin existe en el
universo y la fuerza de esa relacin.
*Para poder determinar si una propiedad de la muestra est presente en el universo, se debe
buscar si existe grado de asociacin entre dos variables.
3. Pruebas de ajuste de modelos: Generalizacin y complejizacin de las pruebas de hiptesis.

*Medias y proporciones: El promedio como indicador del valor colectivo de una variable cuantitativa (de
intervalo o razn). La proporcin como indicador del valor colectivo de una variable cualitativa (ordinal o
nominal).

a) Estimacin puntual: Estimar un parmetro poblacional mediante un estadstico que predice el valor de
dicho parmetro. Cuando la nica informacin que se dispone respecto del parmetro del universo es el
promedio de la muestra, se puede usar ese promedio de la muestra como estimacin puntual del valor del
universo. Valor puntual de la muestra extrapolado al universo. Problema: no se sabe cuan precisa es la
prediccin dada la variacin de la muestra.
b) Estimacin de intervalo: Estimacin de un parmetro poblacional mediante un rango de valores que
contiene el parmetro poblacional con una probabilidad conocida (nivel de confianza). P = [a b]
*La amplitud del intervalo de confianza depende de:
- Variabilidad del universo (): dado que ello influir en el s que encontremos en la muestra.
- Tamao de la muestra (n): a mayor muestra menor amplitud del intervalo.
- Nivel de confianza deseada (Z): A mayor nivel de confianza mayor amplitud del intervalo.

*Uso de los intervalos de confianza como pruebas de hiptesis: Si se tienen dos grupos con distinto promedio
en una variable medida en forma de intervalo y se construye un IC para cada grupo, se puede determinar la
existencia de diferencias significativas entre los grupos si los IC e ambos no se traslapan.

*Formula de estimacin de intervalo para el promedio (n>120 casos)

*Frmula de estimacin de intervalo de confianza para promedio (n<120 casos)

*Frmula de estimacin de intervalo para proporciones

c) Error tpico o Error estndar (SE): Estima la desviacin estndar de la distribucin de medias
muestrales basado en una sola muestra. Dado que no se conoce , se estimar con s. Por lo que el error
tpico de las muestras ser s/(n-1), el cual indica cuan separados podemos esperar que estn los valores
de las medias de las muestras.
*Clculo error tpico:

d) Nivel de confianza: Probabilidad con la cual un intervalo de confianza contiene a un parmetro


poblacional. Siendo [a, b] un intervalo para estimar el parmetro , el nivel de confianza es P = [a b]
e) Probabilidad de error (): Es la probabilidad de que el intervalo de confianza NO contenga al parmetro
poblacional. Con un nivel de confianza del 95%, la probabilidad de error es de 5%. Con un nivel de
confianza del 99%, la probabilidad de error es de 1%.
f) Error de estimacin (e): Corresponde a la mitad de la amplitud del intervalo de confianza. Ejemplo: Entre
el intervalo de confianza de 20% y 28%, el error de estimacin es de 4%, ya que la amplitud del intervalo es
de 8%, adems de que se le sume y reste el error de estimacin al estimador puntual, es decir, 24%. a = -
eyb=+e

DISTRIBUCIN MUESTRAL DE MEDIAS, TCL Y LGN


La distribucin muestral de medias es la distribucin de la probabilidad de un estimador que resulta de
considerar todas las muestras posibles que pueden ser tomadas de una poblacin. Con el estudio de una
distribucin muestral, se puede calcular la probabilidad que se tiene dada una sola muestra de acercarse al
parmetro poblacional. Si se extraen infinitas muestras de tamao n de una poblacin con media y desviacin
estndar , la distribucin de los promedios de la variable medida tendr una distribucin N (, /n). Lo anterior
implica que la desviacin estndar esperada de la muestra ser /n, ms conocido como error tpico o error
estndar.
El intervalo X% de confianza corresponde al rango de valores que contiene al parmetro poblacional con un X%
de probabilidad. Hay 3 formas de medir este intervalo:
- Teniendo intervalos de confianza exactos
- A travs de aproximaciones asntotas (por TCL Y LGN)
- A travs de Boostraping (mtodo)
a) Teorema Central del Lmite: Sabemos que, si el tamao muestral es grande, la distribucin es normal. El
problema es Cundo es suficientemente grande? Podramos entender que lo es desde los 500 casos. Si
obtenemos un promedio similar en las distintas muestras, la distribucin va a ser normal. La distribucin
muestral de medias extrada de forma aleatoria se aproxima a una distribucin normal para n suficientemente
grandes. Mientras ms grande la muestra, se puede hacer una estimacin correcta.
b) Ley de los Grandes Nmeros: Mientras ms grande es la muestra, es ms probable que haga una estimacin
correcta. Los promedios de muestra aleatoria convergen en probabilidad al parmetro poblacional.

PRUEBAS DE HIPTESIS Y FUERZA DE LA RELACIN ENTRE VARIABLES


Hiptesis: Afirmacin sobre alguna/s caracterstica/s de una o ms variables que se busca comparar.
- Tipos de hiptesis:
a) Hiptesis sustantivas o tericas: Suposicin terica respecto de la naturaleza o relaciones entre los
sujetos o constructos cientficos que se quiere poner a prueba.
b) Hiptesis estadsticas: Traduccin estadstica de la hiptesis sustantiva, posible de poner a prueba
con estadsticos de hiptesis.
- Pruebas de hiptesis: Forma de evaluar estadsticamente una hiptesis comparando los datos de los
valores predichos por cierta hiptesis. Son estadsticamente significativas, las diferencias lo
suficientemente grandes como para no ser atribuidos al azar. Las pruebas de hiptesis slo responden a la
pregunta de que si es posible suponer la existencia de relacin entre variables en el universo dada la
muestra, no obstante, no seala la fuerza de la relacin, por lo que es necesario (si la relacin es
significativa) calcular la fuerza de la relacin.
a) Supuestos: Hiptesis que se considerar verdadera sin ponerla a prueba. Ejemplo: muestreo
representativo es necesario para construir intervalos de confianza, pero quizs no lo sean, por lo que
debemos confiar que se hizo como tal.
b) Requisitos: Es lo que podemos chequear. Ejemplo: nivel de medicin de las variables.
- Tipos de hiptesis estadsticas:
a) Hiptesis nula: Hiptesis que es directamente evaluada en el test de hiptesis. Seala la no existencia
de relacin entre las variables. Es la que se pone a prueba. Cundo se estudia asociacin entre variables
usualmente el investigador quiere refutarla. Generalmente establece una igualdad, que dos variables no
se relacionan: 1=2.
b) Hiptesis alternativa: Hiptesis que contradice la hiptesis nula, suele ser su negacin. Incluye todo lo
que no incluye la hiptesis nula, por tanto, seala la existencia de relacin entre variables: 12.
El sentido de las pruebas de hiptesis es determinar la probabilidad de que la hiptesis nula sea verdadera,
dado un conjunto de supuestos y los resultados de la muestra, Si la probabilidad es muy baja. Se rechaza la
hiptesis nula con lo cual se acepta la hiptesis alternativa, o ms bien no se acepta la hiptesis nula. Se rechaza Ho
porque tenemos evidencia en contra de ella. No aceptamos la Ho cuando la probabilidad no es tan baja, ya que no
tenemos evidencia a favor de ella. Probablemente se debe a la falta de potencia dado el tamao de la muestra.
- Estadsticos de pruebas de hiptesis:
Estadsticos que, de acuerdo al tipo de variable disponible, es necesario calcular para poner a prueba la Ho. Se
calcula a partir de los datos de las muestras y usualmente indica cuan relaciones estn dos variables. Se compara
con los valores esperados para el mismo estadstico si la hiptesis nula fuera correcta.
- Tipos de pruebas:
a) Paramtricas: Muestreo probabilstico; variables cuantitativas (dependiente) y dicotmicas
(independiente); Distribucin normal (o T); muestras grandes (prueba Z) y muestras pequeas (prueba T).
b) No paramtricas: Distribuciones no normales; variables categricas y cuantitativas; muestreo
probabilstico.

CONCEPTOS BSICOS DE UN TEST DE HIPTESIS


- Estadsticos del Test: Estadstico utilizado para testear la hiptesis nula. Suele involucrar a un estimador
puntual del parmetro respecto al cual se refiere la hiptesis. Se calcula a partir de los datos de la muestra y
usualmente indica cuan relacionadas estn dos variables. Se compara con los valores esperados para el
mismo estadstico su la hiptesis nula fuera correcta. Ello implica obtener la distribucin de ese estadstico
en muestras obtenidas de un universo en que no exista relacin entre variables. Para lo anterior se emplea
la distribucin de muestreo de estadstico.
- Zona o regin de rechazo: Valores del estadstico del test que nos hacen rechazar la hiptesis nula. Todo
resultado con p menor que cierto valor implica el rechazo de la hiptesis nula. Al p que se usa como lmite
de rechazo, se le llama alfa: .
Podemos equivocarnos? Si, pues indica la probabilidad que los resultados obtenidos se deban al azar. Si
rechazamos la hiptesis nula, tenemos de probabilidades de estar tomando una decisin equivocada. A esta
posibilidad de error se conoce como error tipo I o error . Si no rechazamos la hiptesis nula tambin tenemos
posibilidad de error, el cual se conoce como error tipo II o error . Ambos errores estn inversamente
relacionados. Si se disminuye uno, aumenta el otro. Para evitar ambos errores, es necesario mejorar la precisin
de las medidas y aumentando los tamaos de las muestras.
- Valor P: Es la probabilidad de que siendo Ho cierta, ocurra la hiptesis alternativa. Grandes valores P
apoyan la Ho, mientras que valores P pequeos son evidencia contra Ho.
- Valor : Es la probabilidad de que se rechace la hiptesis nula cuando es cierta. Bsicamente, es la
probabilidad de equivocacin. Cuando el valor P es mayor que , no rechazo la hiptesis nula. Se trabaja con
un alto para evitar errores de tipo II muy grande.
- Poder o potencia: Probabilidad de rechazo de la hiptesis nula cuando es falsa, Cuando menor es la
significancia, menor es el poder.

ESTADSTICO CHI CUADRADO


a) Supuestos de chi cuadrado:
- Muestra representativa en cada grupo
- Seleccin independiente de los casos
b) Requisitos de chi cuadrado:
- Las dos variables deben tener el nivel de medicin nominal u ordinal con pocas categoras.
- No hay requisitos respecto a la distribucin de las variables, pero la frecuencia esperada de ningn casillero
debe ser menor que 1 y no ms del 20% de las casillas deben tener frecuencias esperadas menores a 5.

FUERZA DE LA RELACIN
Slo se calcula si la relacin entre variables es significativa.
- Para tablas de 2 filas y 2 columnas: Phi
- Para tablas de ms de 2 filas y 2 columnas: V de Cramer
*k es el valor mnimo entre las filas y las columnas

*Interpretacin: El valor obtenido corresponde a la varianza de una variable explicada por


la otra.
- Explicar menos del 10% = Relacin dbil.
- Explicar entre 10% y 25% = Relacin moderada o media.
- Explicar entre 25% y 40% = Relacin relativamente fuerte.
- Explicar ms del 40% = Relacin fuerte.

PRUEBA DE COMPARACIN DE PROMEDIOS EN DOS MUESTRAS INDEPENDIENTES


Se dispone de una variable independiente dicotmica y una variable dependiente de intervalo. Cmo se puede
determinar si hay diferencias significativas entre los promedios que cada grupo obtiene en la variable dependiente?
La primera opcin es recodificar la variable dependiente en una variable nominal u ordinal y aplicar un chi
cuadrado, Sin embargo, se pierde calidad en la medicin. Dado que existen variables con mucha granulosidad, por
lo que se pierde la capacidad de diferenciar los valores polares dentro de una misma categora.
La segunda opcin es construir dos intervalos de confianza y determinar si se interceptan. Pero la mejor
opcin es realizar una prueba de diferencia de promedios.
PRUEBAS DE UNA COLA Y DOS COLAS
Algunos estadsticos concentran toda su zona de rechazo en una de las colas de la distribucin. En otros casos,
se puede rechazar la hiptesis nula por obtener un valor muy alto o muy bajo. En esos casos, usar una prueba
de una cola o dos colas depende de cmo se defina la hiptesis nula y la alternativa. En caso de las pruebas de
dos colas, se debe dividir en dos para encontrar los valores crticos.
*Prueba de T de Student es de dos colas, y se transforma en una prueba de una cola dependiendo de la
fundamentacin terica.
DISTRIBUCIN DE MUESTREO DE LA DIFERENCIA DE PROMEDIOS
Lo que se debe hacer es comparar la significacin de la diferencia de dos promedios, de Xg1- Xg2. Si se extraen
infinitos pares de muestras de tamao mayor a 30 casos de un universo, y se calcula la diferencia de promedios
entre esos pares de muestras, la distribucin de muestreo de la diferencia de promedios ser normal.

PRUEBA T DE DIFERENCIA DE MEDIAS:


a) Condiciones de aplicacin:
- 1 variable dicotmica y 1 variable intervalar.
- Si la muestra de cada grupo es mayor a 30 casos, no se requiere suponer que la distribucin poblacional de
cada grupo es normal.
- Si la muestra de al menos un grupo es menor a 30 casos, se requiere suponer que la distribucin
poblacional de los grupos es normal.
*Para confirmar que la distribucin es normal en cada grupo, conviene realizar pruebas de normalidad si se
dispone de muestras pequeas, tales como: 1) Prueba de Kolmogorov-Smirnov (K-S); 2) Prueba de Shapiro-Wilks
(S-W); Grfico P-P o Q-Q o estudiar la asimetra o curtosis de ambas distribuciones.
- Hiptesis (dos colas)
o H 0: g1 = g2
o H 1: g1 g2
- Hiptesis (una cola)
o H 0: g1 g2
o H 1: g1 < g2
- Estadstico de diferencia de medias
g.l. n + n k (nmero de grupos)
g1 g2

- Estadstico de diferencia de medias para proporciones

FUERZA DE LA RELACIN PARA DIFERENCIA DE MEDIAS O PROPORCIONES


- D de Cohen: Indica el grado de diferencia entre dos grupos en unidades de desviacin estndar de ambas
variables.
Interpretacin:
0,2 = Efecto pequeo
0,5 = Efecto moderado
0,8 = Efecto fuerte
ALTERNATIVA A T = PRUEBA U
Cuando se dispone de una muestra menor a 30 casos que no tienen distribucin normal: no hay condiciones
para aplicar T. Por lo que las alternativas son: a) No usar pruebas de significacin estadstica; b) Usar pruebas
que no exigen una distribucin determinadas (llamadas pruebas no paramtricas). Usualmente tampoco exigen
nivel de medicin de intervalo, slo ordinal. O, como tercera opcin, ocupar la Prueba U de Mann-Whitney.

QU SUCEDE CUANDO SE QUIERE SABER SI EXISTE DIFERENCIA DE PROMEDIOS ENTRE MS DE


DOS GRUPOS?
Soluciones: 1) Construir intervalos de confianza para cada promedio y ver cuales se interceptan; 2) Hacer
pruebas de diferencia de medias entre todas las combinaciones de grupos.
Problema: Aumenta error de tipo I
Alternativa: Prueba ANOVA

PRUEBA ANOVA (Prueba de Anlisis de Varianza)


Familia de pruebas que permite comparar los promedios de dos o ms grupos. Si se tienen dos grupos, da
exactamente el mismo valor que la prueba T dado que ANOVA es la generalizacin de la prueba T. Opera a
travs de un estadstico llamado Prueba F de Snedecor. Se llama F en honor a Fischer. Trabaja a travs de
descomponer la varianza de los valores de cada grupo.
Cuando disponemos del conjunto de puntuaciones de un determinado grupo de personas, esas
puntuaciones pueden ser:
a) Constantes: Si todos tienen el mismo valor.
b) Variables: Si cada persona tiene un valor distinto.
Se denomina varianza a las fluctuaciones que pueden tener esos valores. Puede haber distintas
magnitudes de varianza en distintas puntuaciones dependiendo de cuan separados o juntos estn los valores. Si
decimos que el conjunto de variaciones de las puntuaciones de una variable es el 100%, se estudia el porcentaje de
esa varianza explica cada una de las variables independientes.
- Descomposicin de la varianza:

- Explicacin de la varianza:
1. La parte de la varianza que ocurre entre los grupos es explicada por la pertenencia a cada grupo.
2. La parte de la varianza que ocurre intra grupo no es explicada por la pertenencia a cada grupo.
3. La varianza entre los grupos es la diferencia de promedios por grupo. Es la varianza explicada.
4. La prueba ANOVA trata de determinar qu proporcin es la varianza explicada respecto de la varianza
total.
- Situaciones polares: explicacin casi total de la varianza

- Situaciones polares: explicacin casi nula de la varianza

- Operatoria de la descomposicin de la varianza

Varianza Total (SC


totales)
Varianza entre grupos (SC Varianza intra grupos (SC
entre) intra)
Gl (n-1)
GL explicados (k-1) GL no explicados (n-k)
- Hiptesis en ANOVA
a) Hiptesis nula: Todos los grupos tienen igual media.
b) Hiptesis alternativa: Al menos un grupo tiene una media diferente a los otros.

- TABLA DE ANOVA
Suma de Grados Medias F
Cuadrad de de observa
os Libert Cuadrad do
ad os
Explica SC. Entre GL MC
da Entre Entre
(SCe /
GLe)
No SC Intra GL MC intra
explica intra (SCi /
da GLi)
Total SC. Total n1

- Condiciones de aplicacin de ANOVA


a) Supuestos
1) Muestreo representativo de la poblacin de todos los grupos.
2) Variable independiente: ms de dos grupos independientes. Si los grupos son dependientes se
emplea ANOVA para mediciones repetidas.
3) Variable dependiente: puntuacin (variable de intervencin).
4) Varianzas dentro de cada grupo: homogneas (supuesto de homocedasticidad de varianzas)
5) Grupos grandes (ms de 30 casos en cada grupo)
6) Grupos pequeos: se requiere distribucin normal en cada grupo.
- ALTERNATIVA A ANOVA
Cuando se dispone de muestras pequeas que no tienen distribucin normal: no hay condiciones para aplicar
ANOVA.
Alternativa:
1) Prueba no paramtrica, no exige distribucin normal
2) Prueba Kruskal-Wallis (K-S) = Hay dudas de su utilidad, igual que con U de Mann-Whitney.
3) Test de Welch: cuando no hay homogeneidad de varianzas

- QU PASA SI HAY SIGNIFICACIN?


Realizar comparaciones Post Hoc: 1) Bonferroni; 2) Tukey HSD Y 3) Games-Howell (cuando no hay
homogeneidad de varianza). En las pruebas de Bonferroni y Tkey HSD se utiliza ANOVA, no Welch.
La no igualdad de varianza implica que un grupo es ms disperso en comparacin con la dispersin de la
varianza de los dems grupos.

ANOVA DE UNA VA
Necesita homogeneidad de varianza, para poder estandarizar el promedio. Estadstico de Levene: observa la
desviacin tpica, observa que tan heterognea es la desviacin tpica para determinar si hay significativa. Debe
haber igualdad de varianza. Cuando no hay igualdad de varianza, debe usarse el test de Welch en vez de ANOVA.
Welch es un buen test.

TPICOS AVANZADOS DE ANOVA


a) ANOVA de una va: variable X influye en variable Y. Problema: Modelo muy simple para una realidad muy
compleja. ste es el mismo modelo empleado en Chi cuadrado, Prueba T y ANOVA, slo cambia el nivel de
medicin entre variables. Lo que se busca es la asociacin, si interactuar implica que son independientes
una de la otra.
b) ANOVA de dos vas: variable X1 y variable X2 influyen en Y. Ventaja: Se explica ms variable dependiente.
Mientras ms variables se utilizan, ms probabilidad hay de explicar la variable dependiente. Cuando dos
variables se juntan, es mucho mayor el efecto de ambas que por separado. Es posible que entre X1 y X2
surja un tercer efecto, que resulta de la interaccin entre ambas.
El primer efecto corresponde a la interaccin entre X1 o X2 sobre la variable dependiente Y, mientras que el
efecto de segundo orden corresponde al efecto resultante de la interaccin entre X1 y X2, dado que para
que aparezca este efecto es necesario meter al modelo dos variables independientes.
- Descomposicin de la varianza:
Varianza X1
Varianza entre grupos (explicada) Varianza X2
Varianza total
(SCT) Varianza X1 x X2
Varianza intra grupo (no
explicada)

GL X1 (kv1-1)
Gl explicados (gl explicados) GL X2 (kv2-1)
Grados de Libertad Totales (n- GL X1 x X2 ([Kv1-1] x
1) [kv2-1])
Gl no explicados (n-gl
explicados)

ANOVA de dos vas en SPSS: Analizar Modelo lineal general univariante. En primer lugar, colocar
variable dependiente, luego las variables independientes Plots (grficos); aparecern las dos variables
independientes y pedir grfico para cada variable y luego ambas juntas (lneas separadas y eje horizontal).
Dar 3 grfiicos. Options: aceptar que las 3 variables entren al modelo. Seleccionar a las opciones compare
efectos del modelo, estimates of effects size y a homogenety test; continuar y ok. GRAND MEAN es
irrelevante.
PROBLEMAS Y LIMITACIONES DEL CONTRASTE DE HIPTESIS
1) Pruebas de hiptesis son dicotmicas, slo dicen si hay evidencia en la muestra para rechazar hiptesis
nula en el universo (si y no). No es suficiente informacin
2) No tienen sentido si uno tiene uno tiene un CENSO, ya que se tienen todos los datos del universo y l que se
busca es extrapolar los resultados.
3) No sealan grado de fuerza de la relacin
4) Son dependientes del punto de rechazo arbitrario (valor p), es una decisin unilateral.
5) Son dependientes del tamao de la muestra. Es decir, si la muestra es grande aumentar la posibilidad de
que la relacin sea significativa, perdiendo valor de importancia). Si la muestra es pequea, habr poca
potencia, por lo que costar rechazar Ho, aumentando el error tipo II (pierde sentido).
*Importante: lo significativo no es lo mismo que relevante.
*Solucin: Estadstico de fura de la relacin.
- Para chi cuadrado: Phi y V de Cramer
- Para t de Student: D de Cohen
- Para ANOVA: eta (toma valores de o a 1). Similar a la correlacin de Pearson.

*Eta cuadrado (2): Es la varianza explicada, es decir, porcentaje de varianza que una variable explica sobre la otra.

Potrebbero piacerti anche