Sei sulla pagina 1di 12

Tema 62. Series estadísticas bidimensionales.

TEMA 62. Series estadísticas bidimensionales. Regresión


y correlación lineal. Coeficiente correlación. Significado y
Aplicaciones
1. Introducción
Generalmente cuando se hacen estudios estadísticos de una población estos no se limitan
al estudio de una única variable, sino que se estudian más variables. En este tema nos
centraremos en el estudio estadístico conjunto de dos variables de una misma población que
denotaremos con las letras X e Y. No sólo nos centraremos en las estadísticas individuales de
ambas, sino que también la relación entre ellas.

Las variables que consideraremos en este tema son sólo cuantitativas, pues las cualitativas
no nos permiten establecer relaciones entre las variables.

Cuando estudiamos la relación entre las variables X e Y pueden ocurrir tres cosas:

- Variables independientes: no se puede establecer relación afín entre las dos variables,
por lo que se pueden considerar independientes. Por ejemplo si estudiamos la altura
de la población y el número de horas de sueño.
- Variables dependientes: cuando al hacer el estudio de las dos variables, X e Y, existe
una cierta relación entre ambos. Un ejemplo puede ser el estudio de la altura y el peso
de las personas de una población (generalmente más altura implica más peso)
- Variables con dependencia funcional: existe una relación funcional entre las dos
variables, y=f(x). Ejemplos son la relación entre variables físicas. De esta forma
mediante un experimento podemos determinar distintas parejas (X,Y) y a partir de las
mismas obtenemos una función aproximada (debido error de las medidas) entre x e y.
En este tema trabajaremos con los siguientes datos estadísticos, de notas de matemáticas
(variable X) y física (variable Y), de los 20 alumnos de una clase. Las calificaciones de cada
alumnos vendrán definidas como las parejas (xi,yi): (3,4), (4,5), (2,2), (4,5), (9,6), (6,7), (2,2),
(2,3), (3,4), (3,3), (4,5), (3,4), (4,6), (4,3), (1,1), (3,4), (3,3), (1,1), (5,6), (1,2).

2. Distribución de frecuencias bidimensional.


2.1 Distribución conjunta. Tablas de doble entrada. Distribución marginal.
Los datos estadísticos bidimensionales se escriben mediante expresiones de la forma (xi,yi )
donde xi es valor de X e yi es el valor de Y del individuo i-ésimo de la población (supondremos
con n individuos). Para organizar los valores los expresamos en una tabla de doble entrada,
donde en cada celda podremos el número de individuos con estos valores de X e Y, lo que se
denomina frecuencia de dicha pareja, fij. En la tabla ponemos X en las columnas e Y en las filas:

X/Y y1 y2 (…) yp Total


x1 f11 f12 f1p f1-
x2 f21 f22 f2p f2-
(…)
xk fk1 fk2 fkp fk-
Total f-1 f-2 f-p n

Jose Luis Lorente (preparador oposiciones secundaria www.joseluislorente.es) 1


Tema 62. Series estadísticas bidimensionales.

Notación:

- Frecuencia absoluta, fij , es el valor correspondiente al número de veces que aparece


p k
la pareja de (xi,yj) en la estadística. Se cumple lógicamente ∑∑ f
j =1 i =1
ij =n

- Frecuencia relativa, frij, se calcula como el cociente entre la frecuencia absoluta entre
f ij
el número de datos: frij = . Es el tanto por uno de los valores de la pareja (xi,yj ).
n
p k
Lógicamente se cumple ∑∑ f
j =1 i =1
ij =1

- Frecuencia de la distribución marginal de X, fi-, que presenta el número de individuos


con valor de X igual a xi , independientemente del valor de Y. Este valor nos permite
calcular el estudio de la estadística de la variable X de forma independiente. Se cumple
p
lógicamente que f i − = ∑f
j =1
ij

- Frecuencia de la distribución marginal de Y, f-j, que presenta el número de individuos


con valor de Y igual a yj , independientemente del valor de X. Este valor nos permite
calcular el estudio de la estadística de la variable Y de forma independiente. Se cumple
k
lógicamente que f − j = ∑f
i =1
ij

f i− f− j
- Frecuencias relativas marginales de X e Y: fri − = (relativa de X); fr− j =
n n
(relativa de Y).

Ejemplo: notas de matemáticas y física donde agruparemos los datos en marcas de clase:

X/Y 1-3 4-5 6-10 Total


1-3 8 4 0 12
4-5 1 3 2 6
6-10 0 0 2 2
Total 9 7 4 20

Estudio marginal de X o de Y: se hace a partir de tablas marginales donde tomamos los


valores de X y la última fila (marginal de X) o los de Y y la última columna (marginal de Y). En el
ejemplo anterior:

X fi- Y 1-3 4-5 6-10 Total


1-3 12 f-J 8 4 0 12
4-5 6 Total 9 7 4 20
6-10 2
Total 20

Jose Luis Lorente (preparador oposiciones secundaria www.joseluislorente.es) 2


Tema 62. Series estadísticas bidimensionales.

2.2 Distribución condicionada. Dependencia e independencia de variables.


Definición: llamamos distribución de frecuencias condicionada de la estadística (X,Y, fij)
por xi a la estadística definida como (yj,fij ). Es decir los valores de Y que toma la población con
valor de xi fijado.

Para trabajar con esta distribución vamos a poner un ejemplo de estadística bidimensional,
donde X=resultado de una valoración de la encuesta A={1,2,3} e Y= resultado de una
valoración de la encuesta B={1,2,3}. La tabla de doble entrada es:

X/Y 1 2 3 Total
1 10 15 5 30
2 12 20 10 42
3 30 10 0 40
Total 52 45 15 112

Una distribución marginal puede ser el estudio de la variable Y cuando x=1 (por ejemplo).
f ij
La frecuencia relativa condicionada vendrá definida como h j|i = h( y j | x = x j ) =
f i−
p
(siempre que f i − = ∑f
j =1
ij ≠ 0 ).

La tabla condicionada para x=1 será

X/Y 1 2 3 Total
f-j 10 15 5 30
h j|1 0.33 0.5 0.17 1
Para x=2

X/Y 1 2 3 Total
f-j 12 20 10 42
h j |2 0.29 0.48 0.24 1
Para x=3

X/Y 1 2 3 Total
f-j 30 10 0 40
h j|3 0.75 0.25 0 1

La frecuencia relativa nos permite relacionar una variable con respecto a los valores de la
otra, esto nos permite eliminar interpretaciones falsas. Por ejemplo, el porcentaje de personas
que tienen cáncer de pulmón es mayor en personas que no trabajan en la mina que los que
trabajan en la mina (pues la mayoría de personas no son mineros). Pero en cuanto estudiamos
el porcentaje condicionado veremos que el porcentaje de mineros con cáncer de pulmón
relativo al número de mineros es bastante mayor que el porcentaje de personas no mineros
que tienen este cáncer.

Jose Luis Lorente (preparador oposiciones secundaria www.joseluislorente.es) 3


Tema 62. Series estadísticas bidimensionales.

Podemos ver la dependencia e independencia de las dos variables, X e Y, a partir de las


distribuciones condicionales. Veamos cómo se hace esto:

a. Dos variables (X,Y) son independientes si las distribuciones condicionales coinciden (o


f ij f− j
son próximas) las frecuencias relativas marginales: Es decir: h j|i = = iguales∀i
f i− n
Esto implica que la distribución de las frecuencias relativas es independiente de la otra
variable muestral.

b. Dos variables (X,Y) son dependientes si no son independientes.

En el ejemplo anterior vemos que claramente son dependientes pues las frecuencias
para x=3 son muy distintas para x=1 o x=2.

Proposición: si dos variables X e Y son independientes se cumple la siguiente igualdad:


f ij f i− f − j
frij = = fri − · fr− j = ·
n n n

f ij f− j
Demostración: por ser independientes se cumple h j|i = = → f i − · f − j = n· f ij
f i− n
f i− f − j f i− · f − j n· f ij f ij
fri − · fr− j = · = = = = frij
n n n2 independientes n 2
n

3. Parámetros estadísticos.
3.1. Distribución condicionada

Definición: se llama momento de orden r, s respecto al origen a la expresión

n
1
a r ,s = ∑ (xi )r ·( y j ) s · f ij = ∑ (xa )r ·( y a ) s siendo ( x a , y a ) = característica individuo a
n i, j a =1

Casos particulares:

1
ar ,0 = ∑ (xi )r · f ij = 1 ∑ (xi )r ∑ f ij = 1 ∑ (xi )r · f i − = momento orden r de X = a r ( xi , f i )
n i, j n i j n i

a 0,r =
1
∑ ( y i )r · f ij = 1 ∑∑ (y j )r f ij = 1 ∑ (y j )r · f − j = momento orden r de Y = a r ( y j , f j )
n i, j n i j n j

En los casos anteriores si r=1 tendremos las medias de las dos variables: a10= x , a01= y

Definición: se llama momento de orden r, s respecto a la media o central a la expresión

( ) ( )
n
1
∑ ∑
r r
mr ,s = x i − x ·( y j − y ) s
· f ij = x a − x ·( y a − y ) s ( x a , y a ) = característica individuo a
n i, j a =1

Jose Luis Lorente (preparador oposiciones secundaria www.joseluislorente.es) 4


Tema 62. Series estadísticas bidimensionales.

Casos particulares:

m00=1; m01 =m10=0

m2,0 =
1

n i, j
( 2
)
xi − x · f ij = (σ x ) (dispersión de x)
2

m0, 2 =
1

n i, j
( 2
)
y i − y · f ij = (σ y ) (dispersión de y)
2

m1,1 =
1
( )( )
∑ xi − x yi − y · f ij = cov( x, y) = σ xy (covarianza)
n i, j

Proposición: los momentos centrales de una distribución bidimensional pueden expresarse


en función de los momentos respecto el origen.

Demostración: sólo hay que ver como las potencias ( xi − x) r y ( y i − y ) s se pueden


desarrollar y por tanto poner en función de momentos respecto el origen.

Ejemplo:
1 1 
m1,1 = σ xy = ∑
n i, j
( xi − x)( y j − y ) f ij =  ∑ f ij xi ·y j + ∑ f ij x·y − ∑ f ij xi ·y − ∑ f ij y i ·x  =
n  i, j i, j i, j i, j 
= a11 + x·y − x·y − x·y = a11 − x·y = a11 − a10 ·a 01

3.2. Covarianza

Uno de los parámetros con más importancia y significado es el momento central de orden
1,1, conocido como covarianza, definido de la siguiente forma:

1
m1,1 = σ xy = ∑ ( xi − x)( y j − y) f ij = a11 − a10 ·a 01 = a11 − x·y
n i, j

Notar que cuando los valores de xi y de yi se separan de los valores de x e y , los dos
siendo mayores o los dos menores (producto positivo) entonces la contribución al parámetros
es positiva; si xi es mayor que x e yi es menor que y o al revés la contribución es negativa. Es
por esto que la covarianza nos informa de la relación entre las dos variables, X e Y:
a. Si las variables no tienen relación entre sí habrá tantas contribuciones negativas como
positivas en σ xy y por tanto se cumple σ xy ≈ 0 . Por ejemplo si relacionamos la
variable X=”altura de la persona”, Y=”horas de sueño”
b. Si los datos situados la mayoría gráficamente en la nube de puntos en la diagonal de
pendiente positiva (los dos positivos o negativos) entonces σ xy >>0. Las magnitudes se
relacionan “de forma directamente proporcional”. Ejemplo: en las notas de
matemáticas y física se cumple σ xy =2.6 pues como suele ocurrir el que saca buena
nota en Matemáticas lo suele hacer en física o al revés.

Jose Luis Lorente (preparador oposiciones secundaria www.joseluislorente.es) 5


Tema 62. Series estadísticas bidimensionales.

c. Si por lo contrario los datos situados mayormente en la diagonal de pendiente


negativa (contribuciones negativas a la covarianza) entonces σ xy <<0. En este caso las
magnitudes se relacionan “de forma inversamente proporcional”. Un ejemplo puede
ser X=”la nota en un examen”, Y=”tiempo que el alumno ha estudiado el examen”.

Definición: la matriz covarianza nos informa de la dispersión o varianza de las dos


magnitudes independientes así como de la covarianza entre ambas:
σ x 2 σ xy 
S =
σ σ y 2 
 xy
Son importantes las siguientes magnitudes relativas a la matriz covarianza:
Varianza generalizada: |S|= σ x ·σ y + σ xy
2 2 2
-

Varianza total: traza(S)= σ x + σ y


2 2
-

Propiedades covarianza:
- P1: La covarianza es invariante con el cambio de localización perno no con el cambio
de escala. La relación es la siguiente: cov(ax+b,cy+d)=a·c·cov(x,y)
- P2: cov(x,y)=a11- x·y
- P3: si las variables son independientes se cumple cov(x,y)=0
Demostraciones:
- P1:
1
cov(ax + b, cy + d ) = ∑ f ij (ax + b − m(ax + b))·(cy + d − m(cy + d )) =
n i, j
1 1
= ∑
n i, j
f ij (ax + b − a x − b)·(cy + d − c y − d ) = a·c ∑ f ij ( x − x)( y − y ) = a·c·cov( x. y )
n i, j

- P2: demostrado apartado anterior


1 1
- P3: cov( x, y ) = ∑
n i, j
f ij ·( xi − x )( y − y ) =
f ij = f i − · f − j ·n n 2
∑f
i, j
i− ·( xi − x )· f − j ( y − y ) =

1 1
= ∑
n i
f i − ( x − x )· ∑ f − j ( y − y ) = 0·0 = 0
n i
3.3. Coeficiente de correlación.

La covarianza como hemos visto en el apartado anterior no es invariante al cambio de


escala, por lo que no podemos comparar la covarianza de dos estadísticas diferentes. Para
solucionar este problema se utiliza en coeficiente de correlación, rxy, definido como:

σ xy σ xy
rxy = =
σ x ·σ y var(x)·var( y )

Jose Luis Lorente (preparador oposiciones secundaria www.joseluislorente.es) 6


Tema 62. Series estadísticas bidimensionales.

Al igual que en la covarianza se define también la matriz de correlación definida como:

1 rxy 
R =  
 rxy 1 

Propiedades:

- P1: Invariantes al cambio de localización y escala: corr(ax+bmcy+d)=corr(x,y)


a11 − x·y
- P2: A partir de momentos en el origen: rxy =
(a 2, 0 )(
− x 2 a 0, 2 − y 2 )
- P3: La correlación es siempre en valor absoluto menor que la unidad: -1≤rxy≤1
- P4: Si las variables independientes se cumple rxy=0

Demostración:

σ xy (ax + b, cy + d ) a·c·σ xy σ xy
- P1: corr(ax + b, cy + d ) = = = = rxy
var(ax + n)·var(cy + d ) a 2 ·var(x)·c 2 ·var(y) σ x ·σ y
1 1 1 1
- P2: var( x) = ∑
n i
f i − ( xi − x ) 2 = ∑ f i − xi2 + ∑ f i − x 2 − 2 x ∑ f i − xi =
n i n i n i
= a2, 0 + x 2 − 2 x··x = a2,0 − (a1, 0 )
2

- P3: Si llamamos E al valor esperado se cumple, E((λy+x)2)≥0. Operando queda la


expresión λ2 ·E ( x 2 ) + 2λE ( x·y ) + E (Y 2 ) ≥ 0 . Para que esta ecuación de segundo
grado siempre positiva se cumple que su discrimínate será negativo:
4·E2(x·y)-4·E(x2)·E(y2)≤0  E2(x·y)≤E(x2)·E(y2) |E(x,y)|≤E(x)·E(y) | σ xy |≤ σ x ·σ y
- P4: es lógico pues si son independientes σ xy = 0 como vimos en anterior apartado.

4. Análisis gráfico. Regresión.


Muchas veces en el análisis estadístico, y por tanto fenómenos caracterizados por el azar,
intervienen dos variables cuya influencia mutua es deseable conocerse. Vamos a ver en este
punto como obtener la relación entre una variable “respuesta” y otra variable “control”
cuando se conocen algunas parejas de valores de ambos, estas sometidos a posibles errores de
medición. Esta dependencia funcional entre las dos variables se calcula a partir de la regresión.

A la hora de calcular la regresión podemos distinguir entre dos tipos de dependencias:

-Relación funcional perfecta: los ejemplos más importantes son las que relacionan dos
magnitudes físicas, como por ejemplo la posición y el tiempo en un movimiento uniforme:
s=v·t+s0. Aunque las variables tienen que cumplir la expresión de forma exacta, debido al error
experimentar a la hora de realizar la medición.

- Dependencia estadística: hay una relación entre ambas variables pero no se pude definir
una relación funcional exacta pues los resultados sometidos a las leyes del azar. Ejemplo típico
puede ser la relación entre el peso y la altura de las personas.

Jose Luis Lorente (preparador oposiciones secundaria www.joseluislorente.es) 7


Tema 62. Series estadísticas bidimensionales.

Gráfica de dispersión bidimensional (nube de puntos): representamos las parejas de


puntos de las dos variables, (xi,yi) en los ejes coordenadas. A partir de esta representación
veremos fácilmente la dependencia, o no de las dos variables. Veamos tres ejemplos:

Tendencia lineal

Tendencia aleatoria (variables independientes)

Jose Luis Lorente (preparador oposiciones secundaria www.joseluislorente.es) 8


Tema 62. Series estadísticas bidimensionales.

Es importante remarcar la diferencia entre la interpolación, donde la expresión algebraica


que relaciona las dos variables pasa por todos los puntos de la nube, y por tanto tiene tantos
parámetros (igual a uno más que el grado si es interpolación polinómica) y la regresión, donde
los puntos no tienen porque pertenecer a la expresión algebraica calculada, sino que
aproximarse lo máximo a ella (es por esto que la regresión tiene menos parámetros libres que
el número de puntos).

Para calcular la regresión es necesario fijar el tipo de expresión a la que vamos a ajustar la
nube de puntos. Las más importantes son la regresión lineal, polinómica, exponencial y
logarítmica. En todas ellas la regresión busca los parámetros de la expresión y=f(x) que
minimiza el error de la variable respuesta (generalmente identificada por y) respecto a la
variable de control (generalmente identificada por x).

El método más importante es el denominado mínimo cuadrado: este método basado en


minimizar las distancias al cuadrado de los puntos a la función obtenida por regresión:

 n 
Mínimos cuadrado : min  ∑ ( y i − g ( xi )) 2   solución es g(x), función regresión.
g
 i =1 

5. Regresión lineal.
Es la regresión más sencilla y fundamental, ya que existen multitud de relaciones entre dos
variables que se comportan de esta forma. Buscamos por tanto una expresión y=g(x)=a+b·x
(dos parámetros a calcular). Para su cálculo utilizaremos el método de mínimos cuadrados.

Proposición: Dada una distribución estadística bidimensional (xi,yi ) la recta de regresión


que se obtiene por mínimos cuadrados es

σ xy
y=a+b·x con b= a= y − b·x
σ x2

Demostración: Veamos que la expresión anterior es la que minimiza las distancias al


n 2 n 2

cuadrado. Tenemos que minimizar ∑ ( yi − a − b·xi )


i =1
= ∑ ( yi − y + y − b·( xi − x ) − a − b·x )
i =1

n 2 n 2 n
= ∑ ( y − a − b·x )
i =1
+ ∑ ( yi − y − b·( xi − x ) ) + 2∑ ( y − a − b·x )(
i =1 i =1
· y i − y − b·( xi − x ) ) =

Jose Luis Lorente (preparador oposiciones secundaria www.joseluislorente.es) 9


Tema 62. Series estadísticas bidimensionales.

n 2

=n· ( y − a − b·x ) 2
+ ∑ (y
i =1
i − y − b·( xi − x ) ) +0 (pues el tercer miembro se anula

n n

∑ (y
i =1
i − y ) = ∑ ( xi − x ) = 0 al ser la media el centro de gravedad de los datos)
i =1

n 2

Luego tenemos que minimizar: n· ( y − a − b·x )2 + ∑ ( yi − y − b·( xi − x ) ) . Como son dos


i =1

sumandos independientes, para minimizar el primero basta con hacer a= y − b·x para sea 0.

n 2

Tendremos que minimizar el 2º miembro en función de b: f (b) = ∑(y


i =1
i − y − b·( xi − x ))

n n n
f(b)= ∑ ( yi − y ) 2 − 2b·∑ ( xi − x )( yi − y ) + b 2 ∑ ( xi − x ) 2 . Es una parábola en b cóncava
i =1 i =1 i =1
n n
luego el mínimo está en el vértice: f’(b)= 2 ∑ ( xi − x )( yi − y ) + 2b∑ ( xi − x ) 2 = 0 .
i =1 i =1
n

∑ (x
i =1
i − x )( y i − y )
σ xy
Despejando b = = .
n
σ x2
∑ (x
i =1
i − x)2

Observaciones:

σ xy y−y r
- Observación 1: la recta se puede poner y − y = (x − x) o = (x − x)
σx 2
σy σx
- Observación 2: cuando queremos poner la expresión de x en función de y,
σ xy
minimizando por tanto las distancias en el eje horizontal es x − x = ( y − y)
σ y2
- Observación 3: Las 2 rectas y vs x, x vs y, se cortan en el “centro de gravedad”: ( x , y ) .
- Observación 4: El valor de r marca el crecimiento y el decrecimiento de ambas rectas,
si r>0 las rectas crecerán y si r<0 las rectas decrecerán.

6. Significado del coeficiente de correlación en la recta de regresión.


Como veremos la información del coeficiente de correlación es muy importante en la
relación lineal entre las dos variables de estudio.

Dada la distribución estadística (xi,yi ) y su recta de regresión y=a+b·x, llamamos residuos a


las diferencias entre los valores de yi y sus correspondientes valores de la recta conocido el
( ( σ xy
valor de x: y i = a + b·xi , es decir Ri = y i − y i = y i − y − ( xi − x )
σ x2

La recta de regresión, como hemos visto, hace mínimos la suma de los residuos al
cuadrado. Esta suma de residuos al cuadrado se llama varianza residual, Se2.Su valor es:

Jose Luis Lorente (preparador oposiciones secundaria www.joseluislorente.es) 10


Tema 62. Series estadísticas bidimensionales.

2
1 n 2 1 n σ xy 1 n 1  σ xy  n 2

Se = ∑ Ri = ∑ (yi − y − 2 ( xi − x))2 = ∑ (yi − y) 2 +  2 


2
∑(xi − x) −
n i=1 n i=1 σx n i=1 n σ x  i =1

2
σ xy 1 n  σ xy  σ xy σ xy 2 σ xy 2
− 2 2 ∑(yi − y)(xi − x ) = σ y +  2  ·σ x − 2 2 ·σ xy = σ y − 2 = σ y (1 − 2 2 ) = σ y (1 − r 2 )
2 2 2 2 2

σ x i=1
n σ x  σx σx σx σy
Como |r|≤1, se cumple que la varianza residual oscila entre su valor máximo Se2= σ y si
2

r=0 (sucesos independientes) y Se2=0 si r={-1,1} (sucesos funcionales)

7. Otros tipos de regresiones.


No siempre la recta de regresión reproduce los mejores resultados para relacionar las dos
variables, x e y. La forma más fácil de ver si la regresión lineal puede ser o no buena expresión
para relacionar las dos variables es a partir de observar la nube de puntos.

7.1. regresiones linealizables.


En este apartado veremos relaciones no lineales (con dos parámetros libres), pero que a
partir de un cambio de variable podemos transformarlas en funciones lineales. De esta forma
podemos calcular los parámetros de las expresiones de igual forma que la regresión lineal
haciendo previamente un cambio de variable. Veamos alguna de estas expresiones:
- Potencial: y=a·xb con u=log(y) y v=log(x) se transforma en u=a+b·v
- Cuadrática: y=a+b·x2 con u=x2 y v=y se transforma en u=a+b·v
- Inversa: y=a+b/x, con el cambio de variable, v=y u=1/x se transforma en u=a+b·v.
- …

7.2. Regresión polinómica.


Una generalización sencilla e importante de la regresión lineal es la regresión polinómica
de grado k: y=f(x)=a0+a1·x+…+an·xk. En esta regresión tendremos que determinar los k+a1
coeficientes del polinomio. Para su cálculo hacemos el método del mínimo cuadrado:
 n 2
k  


min  ∑ y i − ( a 0 + a1 x + ... + a k x 
  i =1  

2
 n k 
Para determinar los k+1 parámetros definimos G(a0,a1,…,ak )=  ∑ yi − (a0 + a1 xi + ... + ak xi  ,
 i =1 
que tenemos que minimizar en función de elegir correctamente los k+1 parámetros. Para
calcular esta expresión tenemos que derivar respecto los parámetros ai e igualando a cero:
∂G n
= 0 → 2·∑ (a0 + a1 xi + ... + a k xi − y i ) = 0
k
-
∂a 0 i =1

∂G n
- = 0 → 2·∑ ( a 0 + a 1 x i + ... + a k x i − y i )· x i = 0
k

∂a1 i =1

∂G n
= 0 → 2·∑ ( a 0 + a1 x i + ... + a k x i − y i )·x i = 0
k 2
-
∂a 2 i =1

- (…)

Jose Luis Lorente (preparador oposiciones secundaria www.joseluislorente.es) 11


Tema 62. Series estadísticas bidimensionales.

∂G n
- = 0 → 2·∑ ( a 0 + a 1 x i + ... + a k x i − y i )· x i = 0
k k

∂a k i =1

Que es un sistema de k+1 ecuaciones lineales e igual número de incógnitas, que se pude
resolver fácilmente por Cramer o por Gauss.

8. Aplicaciones.
8.1. Usos y abusos de la regresión.
La aplicación de los métodos expuestos de regresión y correlación exige un análisis teórico
previo de las posibles relaciones entre las variables. Puede ocurrir que se seleccionen dos
variables cualesquiera al azar y que dé la casualidad de que, estadísticamente, la correlación
sea perfecta cuando no existe relación posible entre ellas.

Se deben seleccionar variables entre las que la fundamentación teórica avale algún tipo de
relación, evitando, en lo posible, relaciones a través de otra variable principal..

8.2. Predicción.
El objetivo último de la regresión es la predicción o pronóstico sobre el comportamiento
de una variable para un valor determinado de la otra. Así, dada la recta de regresión de y sobre
x, para un valor x=x0 de la variable, obtenemos y0

Es claro que la fiabilidad de esta predicción será tanto mayor, en principio, cuanto mejor
sea la correlación entre las variables. Por tanto, una medida aproximada de la bondad de la
predicción podría venir dada por r.

9. Conclusiones.
Las series estadísticas bidimensionales y la correlación lineal es una unidad didáctica que
se imparte en la asignatura de Matemáticas I de 1º de Bachillerato de Ciencias, y en
Matemáticas para las CCSS también de 1º de Bachillerato.

Es interesante es esta unidad enseñar la potencia de las herramientas informáticas para el


cálculo de los parámetros estadísticos y de la correlación lineal como las hojas de cálculo (Excel
de Microsoft, o Calc de OpenOficce).

Jose Luis Lorente (preparador oposiciones secundaria www.joseluislorente.es) 12

Potrebbero piacerti anche