Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Tema 5
1/28
Tema 5
2/28
Tema 5
3/28
1. Multicolinealidad
El primer problema que surge es la dependencia de las variables explicativas (o
regresores) entre s, es decir, la existencia de una o ms combinaciones lineales
entre las columnas de la matriz X
1 x11
1 x12
X=
1 x
1n
... xk 1
... xk 2
, rang (X) = k + 1
...
... xkn
Tema 5
4/28
r
a
l
u
c
l
a
c
e
d
e
u
p
e
s
o
n
(X' X)-1
Tema 5
5/28
Tema 5
6/28
Identificacin de la multicolinealidad
La identificacin de variables correlacionadas se realiza examinando
-1
1) La matriz de correlaciones entre las variables explicativas, R, y su inversa, R ,
2) Los autovalores de XX o de R.
r13
r23
r3k
... r1k
... r2 k
,
...
... 1
e
d
n
o
d
r
R = 12
r
1k
rij =
s xi , x j
s xi s x j
, -1 rij 1,
22
R 1 = 12
...
1k 2 k
Tema 5
7/28
13 ... 1k
23 ... 2 k
...
3k ... kk
tiene en cuenta la dependencia conjunta. Los elementos de su diagonal se
denominan factores de incremento o de inflacin de la varianza y verifican:
1
ii = FIV (i ) =
, i = 1,..., k ,
1 Ri2.resto
2
Tema 5
8/28
k
1
1
Es ms conveniente calcular este ndice para R que para XX, con el fin de evitar la
influencia de las escalas de medida de los regresores.
Para saber si existe o no multicolinealidad, calcularemos cond(R) y si
cond(R)> 30 alta multicolinealidad
10<cond(R)<30 multicolinealidad moderada
cond(R)<10 ausencia de multicolinealidad ( la matriz R est bien definida).
Tema 5
9/28
Tema 5
10/28
j
s R q jj
< 1.
Tema 5
11/28
X
constante
= U HU = (I H)U
Tema 5
12/28
Proposicin: Puesto que U tiene ley normal multivariante NMn(0,2 I), el vector e de
residuos tambin tiene ley normal multivariante con vector de esperanzas y matriz de
covarianzas:
E(e) = 0, var(e ) = 2 (I H) .
Demostracin:
I H
puesto que I-H es una matriz idempotente, al serlo tambin el proyector ortogonal H:
Tema 5
13/28
ri =
sR
ei
1 vii
sR2 ( i )
(n k 1) sR2 ei2
=
nk 2
1 vii
2
Lo que significa que para obtener los s R (i ) para i=1,2,, n no es necesario re-estimar
2
2
el modelo n veces, sino que se obtienen a partir de los valores de s R , ei y vii del
modelo completo.
Tema 5
14/28
2
Puesto que la observacin i-sima no interviene en el clculo de s R (i ) , el residuo
2
i-simo ei es independiente de s R (i ) . Se define el residuo estudentizado como:
ti =
sR (i )
ei
~ t nk 2
1 vii
Estos tres tipos de residuos: ei , ri , ti aportan informacin valiosa sobre los datos.
Si n es grande y los datos no contienen valores extremos, los tres tipos de residuos se
comportan por igual. Pero en caso contrario, ri y ti suelen ser ms informativos para
detectar deficiencias en el modelo.
Tema 5
15/28
Tema 5
16/28
Tema 5
17/28
Tema 5
18/28
3. Errores de especificacin
Cometemos un error de especificacin cuando establecemos mal la dependencia
entre la variable respuesta y las variables explicativas. Esto ocurre si:
Omitimos variables importantes,
Introducimos variables innecesarias,
Suponemos una relacin lineal cuando la dependencia no es lineal.
Especificar incorrectamente las variables (omitir o aadir de innecesarias) produce
residuos con esperanza no nula.
Especificar una relacin lineal cuando la existente es no lineal es especialmente
grave si se hacen predicciones fuera del rango de datos.
Tema 5
19/28
Tema 5
20/28
Tema 5
21/28
Tema 5
22/28
Tema 5
23/28
1 ~
~
vii = x i ' (X' X) x i = 1 + (x i x)' S XX (xi x)
n 144424443
dist .Mahalanobis
donde
~
xi = ( x1i , x2i ,..., xki ) es la observacin i-sima sin el trmino correspondiente a 0,
x es el vector de medias de las k variables explicativas (centro de gravedad o
centroide),
Tema 5
24/28
Se consideran puntos palanca (leverage points) aquellos puntos cuyo vii sea elevado.
Si llamamos
1 n
tr(H) k + 1
v = vii =
=
n i =1
n
n
y consideramos el caso en que el nmero de regresores es 3 k 6, con distribucin
normal conjunta, entonces diremos que la observacin i-sima es extrema o
potencialmente influyente si
vii > 2 v =
2 (k + 1)
n
Tema 5
25/28
Tema 5
26/28
Tema 5
27/28
ri 2 vii
D(i ) =
k + 1 1 vii
ri =
sR
ei
1 vii
D(i ) Fk+1,nk 1 ,
donde Fk +1,nk 1 es el percentil (1-)100% de la ley F de Fisher con k+1 y n-k-1 grados
de libertad.
Tema 5
28/28
1 / 2