Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Las variables que consideraremos en este tema son sólo cuantitativas, pues las cualitativas
no nos permiten establecer relaciones entre las variables.
Cuando estudiamos la relación entre las variables X e Y pueden ocurrir tres cosas:
- Variables independientes: no se puede establecer relación afín entre las dos variables,
por lo que se pueden considerar independientes. Por ejemplo si estudiamos la altura
de la población y el número de horas de sueño.
- Variables dependientes: cuando al hacer el estudio de las dos variables, X e Y, existe
una cierta relación entre ambos. Un ejemplo puede ser el estudio de la altura y el peso
de las personas de una población (generalmente más altura implica más peso)
- Variables con dependencia funcional: existe una relación funcional entre las dos
variables, y=f(x). Ejemplos son la relación entre variables físicas. De esta forma
mediante un experimento podemos determinar distintas parejas (X,Y) y a partir de las
mismas obtenemos una función aproximada (debido error de las medidas) entre x e y.
En este tema trabajaremos con los siguientes datos estadísticos, de notas de matemáticas
(variable X) y física (variable Y), de los 20 alumnos de una clase. Las calificaciones de cada
alumnos vendrán definidas como las parejas (xi,yi): (3,4), (4,5), (2,2), (4,5), (9,6), (6,7), (2,2),
(2,3), (3,4), (3,3), (4,5), (3,4), (4,6), (4,3), (1,1), (3,4), (3,3), (1,1), (5,6), (1,2).
Notación:
- Frecuencia relativa, frij, se calcula como el cociente entre la frecuencia absoluta entre
f ij
el número de datos: frij = . Es el tanto por uno de los valores de la pareja (xi,yj ).
n
p k
Lógicamente se cumple ∑∑ f
j =1 i =1
ij =1
f i− f− j
- Frecuencias relativas marginales de X e Y: fri − = (relativa de X); fr− j =
n n
(relativa de Y).
Ejemplo: notas de matemáticas y física donde agruparemos los datos en marcas de clase:
Para trabajar con esta distribución vamos a poner un ejemplo de estadística bidimensional,
donde X=resultado de una valoración de la encuesta A={1,2,3} e Y= resultado de una
valoración de la encuesta B={1,2,3}. La tabla de doble entrada es:
X/Y 1 2 3 Total
1 10 15 5 30
2 12 20 10 42
3 30 10 0 40
Total 52 45 15 112
Una distribución marginal puede ser el estudio de la variable Y cuando x=1 (por ejemplo).
f ij
La frecuencia relativa condicionada vendrá definida como h j|i = h( y j | x = x j ) =
f i−
p
(siempre que f i − = ∑f
j =1
ij ≠ 0 ).
X/Y 1 2 3 Total
f-j 10 15 5 30
h j|1 0.33 0.5 0.17 1
Para x=2
X/Y 1 2 3 Total
f-j 12 20 10 42
h j |2 0.29 0.48 0.24 1
Para x=3
X/Y 1 2 3 Total
f-j 30 10 0 40
h j|3 0.75 0.25 0 1
La frecuencia relativa nos permite relacionar una variable con respecto a los valores de la
otra, esto nos permite eliminar interpretaciones falsas. Por ejemplo, el porcentaje de personas
que tienen cáncer de pulmón es mayor en personas que no trabajan en la mina que los que
trabajan en la mina (pues la mayoría de personas no son mineros). Pero en cuanto estudiamos
el porcentaje condicionado veremos que el porcentaje de mineros con cáncer de pulmón
relativo al número de mineros es bastante mayor que el porcentaje de personas no mineros
que tienen este cáncer.
En el ejemplo anterior vemos que claramente son dependientes pues las frecuencias
para x=3 son muy distintas para x=1 o x=2.
f ij f− j
Demostración: por ser independientes se cumple h j|i = = → f i − · f − j = n· f ij
f i− n
f i− f − j f i− · f − j n· f ij f ij
fri − · fr− j = · = = = = frij
n n n2 independientes n 2
n
3. Parámetros estadísticos.
3.1. Distribución condicionada
n
1
a r ,s = ∑ (xi )r ·( y j ) s · f ij = ∑ (xa )r ·( y a ) s siendo ( x a , y a ) = característica individuo a
n i, j a =1
Casos particulares:
1
ar ,0 = ∑ (xi )r · f ij = 1 ∑ (xi )r ∑ f ij = 1 ∑ (xi )r · f i − = momento orden r de X = a r ( xi , f i )
n i, j n i j n i
a 0,r =
1
∑ ( y i )r · f ij = 1 ∑∑ (y j )r f ij = 1 ∑ (y j )r · f − j = momento orden r de Y = a r ( y j , f j )
n i, j n i j n j
En los casos anteriores si r=1 tendremos las medias de las dos variables: a10= x , a01= y
( ) ( )
n
1
∑ ∑
r r
mr ,s = x i − x ·( y j − y ) s
· f ij = x a − x ·( y a − y ) s ( x a , y a ) = característica individuo a
n i, j a =1
Casos particulares:
m2,0 =
1
∑
n i, j
( 2
)
xi − x · f ij = (σ x ) (dispersión de x)
2
m0, 2 =
1
∑
n i, j
( 2
)
y i − y · f ij = (σ y ) (dispersión de y)
2
m1,1 =
1
( )( )
∑ xi − x yi − y · f ij = cov( x, y) = σ xy (covarianza)
n i, j
Ejemplo:
1 1
m1,1 = σ xy = ∑
n i, j
( xi − x)( y j − y ) f ij = ∑ f ij xi ·y j + ∑ f ij x·y − ∑ f ij xi ·y − ∑ f ij y i ·x =
n i, j i, j i, j i, j
= a11 + x·y − x·y − x·y = a11 − x·y = a11 − a10 ·a 01
3.2. Covarianza
Uno de los parámetros con más importancia y significado es el momento central de orden
1,1, conocido como covarianza, definido de la siguiente forma:
1
m1,1 = σ xy = ∑ ( xi − x)( y j − y) f ij = a11 − a10 ·a 01 = a11 − x·y
n i, j
Notar que cuando los valores de xi y de yi se separan de los valores de x e y , los dos
siendo mayores o los dos menores (producto positivo) entonces la contribución al parámetros
es positiva; si xi es mayor que x e yi es menor que y o al revés la contribución es negativa. Es
por esto que la covarianza nos informa de la relación entre las dos variables, X e Y:
a. Si las variables no tienen relación entre sí habrá tantas contribuciones negativas como
positivas en σ xy y por tanto se cumple σ xy ≈ 0 . Por ejemplo si relacionamos la
variable X=”altura de la persona”, Y=”horas de sueño”
b. Si los datos situados la mayoría gráficamente en la nube de puntos en la diagonal de
pendiente positiva (los dos positivos o negativos) entonces σ xy >>0. Las magnitudes se
relacionan “de forma directamente proporcional”. Ejemplo: en las notas de
matemáticas y física se cumple σ xy =2.6 pues como suele ocurrir el que saca buena
nota en Matemáticas lo suele hacer en física o al revés.
Propiedades covarianza:
- P1: La covarianza es invariante con el cambio de localización perno no con el cambio
de escala. La relación es la siguiente: cov(ax+b,cy+d)=a·c·cov(x,y)
- P2: cov(x,y)=a11- x·y
- P3: si las variables son independientes se cumple cov(x,y)=0
Demostraciones:
- P1:
1
cov(ax + b, cy + d ) = ∑ f ij (ax + b − m(ax + b))·(cy + d − m(cy + d )) =
n i, j
1 1
= ∑
n i, j
f ij (ax + b − a x − b)·(cy + d − c y − d ) = a·c ∑ f ij ( x − x)( y − y ) = a·c·cov( x. y )
n i, j
1 1
= ∑
n i
f i − ( x − x )· ∑ f − j ( y − y ) = 0·0 = 0
n i
3.3. Coeficiente de correlación.
σ xy σ xy
rxy = =
σ x ·σ y var(x)·var( y )
1 rxy
R =
rxy 1
Propiedades:
Demostración:
σ xy (ax + b, cy + d ) a·c·σ xy σ xy
- P1: corr(ax + b, cy + d ) = = = = rxy
var(ax + n)·var(cy + d ) a 2 ·var(x)·c 2 ·var(y) σ x ·σ y
1 1 1 1
- P2: var( x) = ∑
n i
f i − ( xi − x ) 2 = ∑ f i − xi2 + ∑ f i − x 2 − 2 x ∑ f i − xi =
n i n i n i
= a2, 0 + x 2 − 2 x··x = a2,0 − (a1, 0 )
2
-Relación funcional perfecta: los ejemplos más importantes son las que relacionan dos
magnitudes físicas, como por ejemplo la posición y el tiempo en un movimiento uniforme:
s=v·t+s0. Aunque las variables tienen que cumplir la expresión de forma exacta, debido al error
experimentar a la hora de realizar la medición.
- Dependencia estadística: hay una relación entre ambas variables pero no se pude definir
una relación funcional exacta pues los resultados sometidos a las leyes del azar. Ejemplo típico
puede ser la relación entre el peso y la altura de las personas.
Tendencia lineal
Para calcular la regresión es necesario fijar el tipo de expresión a la que vamos a ajustar la
nube de puntos. Las más importantes son la regresión lineal, polinómica, exponencial y
logarítmica. En todas ellas la regresión busca los parámetros de la expresión y=f(x) que
minimiza el error de la variable respuesta (generalmente identificada por y) respecto a la
variable de control (generalmente identificada por x).
n
Mínimos cuadrado : min ∑ ( y i − g ( xi )) 2 solución es g(x), función regresión.
g
i =1
5. Regresión lineal.
Es la regresión más sencilla y fundamental, ya que existen multitud de relaciones entre dos
variables que se comportan de esta forma. Buscamos por tanto una expresión y=g(x)=a+b·x
(dos parámetros a calcular). Para su cálculo utilizaremos el método de mínimos cuadrados.
σ xy
y=a+b·x con b= a= y − b·x
σ x2
n 2 n 2 n
= ∑ ( y − a − b·x )
i =1
+ ∑ ( yi − y − b·( xi − x ) ) + 2∑ ( y − a − b·x )(
i =1 i =1
· y i − y − b·( xi − x ) ) =
n 2
=n· ( y − a − b·x ) 2
+ ∑ (y
i =1
i − y − b·( xi − x ) ) +0 (pues el tercer miembro se anula
n n
∑ (y
i =1
i − y ) = ∑ ( xi − x ) = 0 al ser la media el centro de gravedad de los datos)
i =1
n 2
sumandos independientes, para minimizar el primero basta con hacer a= y − b·x para sea 0.
n 2
n n n
f(b)= ∑ ( yi − y ) 2 − 2b·∑ ( xi − x )( yi − y ) + b 2 ∑ ( xi − x ) 2 . Es una parábola en b cóncava
i =1 i =1 i =1
n n
luego el mínimo está en el vértice: f’(b)= 2 ∑ ( xi − x )( yi − y ) + 2b∑ ( xi − x ) 2 = 0 .
i =1 i =1
n
∑ (x
i =1
i − x )( y i − y )
σ xy
Despejando b = = .
n
σ x2
∑ (x
i =1
i − x)2
Observaciones:
σ xy y−y r
- Observación 1: la recta se puede poner y − y = (x − x) o = (x − x)
σx 2
σy σx
- Observación 2: cuando queremos poner la expresión de x en función de y,
σ xy
minimizando por tanto las distancias en el eje horizontal es x − x = ( y − y)
σ y2
- Observación 3: Las 2 rectas y vs x, x vs y, se cortan en el “centro de gravedad”: ( x , y ) .
- Observación 4: El valor de r marca el crecimiento y el decrecimiento de ambas rectas,
si r>0 las rectas crecerán y si r<0 las rectas decrecerán.
La recta de regresión, como hemos visto, hace mínimos la suma de los residuos al
cuadrado. Esta suma de residuos al cuadrado se llama varianza residual, Se2.Su valor es:
2
1 n 2 1 n σ xy 1 n 1 σ xy n 2
2
σ xy 1 n σ xy σ xy σ xy 2 σ xy 2
− 2 2 ∑(yi − y)(xi − x ) = σ y + 2 ·σ x − 2 2 ·σ xy = σ y − 2 = σ y (1 − 2 2 ) = σ y (1 − r 2 )
2 2 2 2 2
σ x i=1
n σ x σx σx σx σy
Como |r|≤1, se cumple que la varianza residual oscila entre su valor máximo Se2= σ y si
2
∂G n
- = 0 → 2·∑ ( a 0 + a 1 x i + ... + a k x i − y i )· x i = 0
k
∂a1 i =1
∂G n
= 0 → 2·∑ ( a 0 + a1 x i + ... + a k x i − y i )·x i = 0
k 2
-
∂a 2 i =1
- (…)
∂G n
- = 0 → 2·∑ ( a 0 + a 1 x i + ... + a k x i − y i )· x i = 0
k k
∂a k i =1
Que es un sistema de k+1 ecuaciones lineales e igual número de incógnitas, que se pude
resolver fácilmente por Cramer o por Gauss.
8. Aplicaciones.
8.1. Usos y abusos de la regresión.
La aplicación de los métodos expuestos de regresión y correlación exige un análisis teórico
previo de las posibles relaciones entre las variables. Puede ocurrir que se seleccionen dos
variables cualesquiera al azar y que dé la casualidad de que, estadísticamente, la correlación
sea perfecta cuando no existe relación posible entre ellas.
Se deben seleccionar variables entre las que la fundamentación teórica avale algún tipo de
relación, evitando, en lo posible, relaciones a través de otra variable principal..
8.2. Predicción.
El objetivo último de la regresión es la predicción o pronóstico sobre el comportamiento
de una variable para un valor determinado de la otra. Así, dada la recta de regresión de y sobre
x, para un valor x=x0 de la variable, obtenemos y0
Es claro que la fiabilidad de esta predicción será tanto mayor, en principio, cuanto mejor
sea la correlación entre las variables. Por tanto, una medida aproximada de la bondad de la
predicción podría venir dada por r.
9. Conclusiones.
Las series estadísticas bidimensionales y la correlación lineal es una unidad didáctica que
se imparte en la asignatura de Matemáticas I de 1º de Bachillerato de Ciencias, y en
Matemáticas para las CCSS también de 1º de Bachillerato.