Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
y =
Y1
Y2
.
.
Yn
X =
1 X21
1 X22
...
...
Xk1
Xk2
.
.
1 X2n
...
.
Xkn
...
1
2
.
.
k
y u=
u1
u2 .
.
.
un
Ecuaciones normales
2.1.1. Forma escalar. Si en la forma escalar del modelo lineal general reemplazamos los parametros desconocidos 1 , . . . , k por las estimaciones 1 , . . . , k , obtenemos el modelo estimado
1 +
2 X2i + +
k Xki + u
Yi =
i , i = 1, . . . , n
en donde u
i es una estimacion del error ui. Surgen aqu dos conceptos fundamentales.
i es la combinacio
n 2. El valor ajustado Y
Definicio
n lineal
i =
1 +
2 X2i + +
k Xki , i = 1, . . . , n
Y
n 3. El residuo u
Definicio
i es la diferencia entre el valor observado Yi y el valor
ajustado Yi ,
i = Yi
1
2 X2i
k Xki ,
u
i = Yi Y
11
i = 1, . . . , n
12
Vemos que al estimar los parametros del modelo lineal general descomponemos cada
observacion Yi en la suma de dos componentes
i + u
Yi = Y
i ,
i = 1, . . . , n
i=1
ui
1 i=1
ui
ui /1
Q n
2 = 2(Yi 1 2 X2i k Xki )( X2i ) = 0
i=1
(2.1)
ui /2
ui
.
Q
k
ui
n
n
k Xki = Yi
X2i + +
n
i=1
i=1
n
i=1
i=1
i=1
1
(2.2)
X2i + 2
i=1
X2
n
2i
k
++
i=1
2
Xki +
i=1
k
Xki X2i + +
i=1
n
2
i=1
ki
n
= Xki Yi
i=1
13
j (j = 1, . . . , k).
cuya solucion permite encontrar las estimaciones de mnimos cuadrados
Cuando k es mayor que dos, es conveniente escribir (2.2) en forma matricial:
n
n
ni=1
i=1
n
i=1
X2i
X2i
X2i2
...
...
n
i=1 Xki
n
i=1 X2i Xki
1
2
..
(2.3)
.
i=1 Xki
i=1
Xki X2i
...
n
i=1 Yi
n
i=1 X2i Yi
n 2
ki
i=1 X
n
i=1 Xki Yi
X X
X y
2
.
.
k
n
i=1
n
X2i
.
n X
i=1 ki
X2i
i=1
n
2
X
i=1 2i
n
i=1
...
...
..
.
Xki X2i
...
n
Xki
i=1
n
X
i=1 2i Xki
n
i=1
1
n
n
i=1 Yi
i=1
X2i Yi
i=1
.
Xki Yi
X2
ki
(X X )1
X y
en donde u
= (u1 . . . un) es una estimacion del vector de errores u. Vemos que el
modelo estimado descompone el vector de observaciones y en la suma del vector de
y el vector de residuos u
valores ajustados y
= X
.
14
) (y X
) = (y
X )(y X
)
Q=u
u
=(y X
X y y X +
X X
=y y
X y +
X X
=y y 2
en donde hemos usado la propiedad de la transposicion de matrices, (A + BC) =
=
2X
y
+
2X
X
= 0k
2 (u
u
)
= 2X X
i j
a X Xa = z z =
z 2i 0
i=1
2.2.
u
i Xji = 0,
j = 1, . . . , k
i=1
15
X y = 0k
X X
pueden escribirse como
= X u = 0
X y X
k
n
i=1
i=1
i son ortogonales
Corolario 2. Los residuos u
i y los valores ajustados Y
n
i u
Y
i = 0
i=1
n
i u
1 +
2 X2i + +
k Xki )u
Y
i = (
i
i=1
i=1
1
=
n
n
u
i + 2 u
i X2i + + k u
i Xki = 0
i=1
i=1
i=1
= 0k
y u
= X u
1
1
n
n Y
Y
=
i
i=1
i=1 i
i + u
n. De la descomposicio
Demostracio
n Yi = Y
i, se cumple que
n
n
n
n
n
1
1
1
1
1
(Yi + u
i ) =
Yi +
u
i =
n Yi = n
n
n
n Y
i=1
i=1
i=1
i=1
i=1 i
i =
Observacion 3. El corolario anterior indica que el hiperplano de regresion Y
, X 2 , . . . , X k ).
1 + 2 X2i + + k Xki pasa por el punto (Y
Prof. Dr. Jose Luis Gallego Go
mez
Departamento de Econom a. Universidad de Cantabria
16
Observacion 4. La propiedad numerica fundamental del metodo de mnimos cuadrados (los residuos y las variables explicativas son ortogonales) nos sugiere una regla practica para especicar las ecuaciones normales. El punto de partida es el modelo estimado
1 +
2 X2i + +
k Xki + u
Yi =
i , i = 1, . . . , n
La j-esima ecuacio
n normal puede obtenerse multiplicando el modelo estimado por la
variable j-esima Xji
1 Xji +
2 Xji X2i + +
k Xji Xki + Xji u
Xji Yi =
i , i = 1, . . . , n
Sumando todas las observaciones, tenemos
n
n
n
n
porque
i=1
i=1
j = 1, . . . , k
i=1
n
i . Ana
logamente, premultiplicando el modelo estimado
i=1 Xji u
+u
y = X
X y = X X
Ahora podemos encontrar fa
cilmente la expresion del estimador de mnimos cuadrados
para la forma escalar compacta del modelo. Premultiplicando el modelo estimado
yi = xi
+ ui ,
i = 1, . . . , n
por el vector columna xi, y sumando para todas las observaciones, obtenemos
n
n
n
+ xi ui ,
xi yi = xi xi
i=1
i=1
i = 1, . . . , n
i=1
xi xi
i=1
2.3.
\
1
n
i=1
xi yi
i=1
Cuando
el desviaciones
modelo a estimar
incluye
termino
constante
conveniente
usar
centrados
o en
respecto
a la un
media.
De esta
forma, es
podemos
estimar
las datos
k1
pendientes 2 , . . . , k resolviendo un sistema de k 1 ecuaciones normales, estimaciones
que
usamosdedespu
la menos
ordenada
1 . Hay
que ladeinversio
una matriz
ordenesk para
1 esestimar
siempre
costosa
que que
la devalorar
una matriz
ordennk.de
Partiendo del modelo estimado por mnimos cuadrados
1 + 2 X2i + +
k Xki + u
Yi =
i , i = 1, . . . , n
(2.5)
X
+
ki
n X2i + + k n
n
n Yi = n
i=1
i=1
i=1
i=1
i=1
17
(2.6)
i = 1, . . . , n
(2.7)
n
i=1
2
. =
.k
x22i
.
.
n
i=1 xki x2i
n
i=1
x2i xki
.
.
2
n
i=1 x k i
...
..
.
...
n
i=1
x2i yi
.
.
n
x y
i=1 ki i
cuyo calculo requiere invertir una matriz de menor orden (k 1) (k 1). El termino
constante se obtiene de la ecuacion (2.6) que relaciona las medias
2 X 2 k X k
1 = Y
2.4.
Las pendientes estimadas del modelo lineal general miden la respuesta de la variable
dependiente a cambios unitarios en las variables explicativas. El taman o de estas estimaciones depende de las unidades en que se midan las variables. De aqu, para apreciar
la importancia relativa de cada variable explicativa es conveniente usar datos tipicados.
n 7. Una variable tipicada, normalizada o estandarizada es una transDefinicio
formacion lineal de una variable observada que se obtiene restando de cada observacion
la media y diviendo la desviacion resultante por la desviacion tpica. Para las variables
del modelo lineal general, las variables tipicadas son
(Xji X )
y xji =
y = (Yi Y )
SX j
i
SY
n
en donde
n
2
2
2
i=1 (Yi Y )
2
i=1 (Xji X j )
S
y S Xj =
n
Y =
n
son las varianzas muestrales de Y y Xj , respectivamente.
Observacion 5. Las variables tipicadas tienen media cero y varianza unitaria. Por
ejemplo, la variable dependiente tipicada tiene media
n
i=1 yi =
n
= Y Y = 0
SY
i=1 Yi nY
SY n
18
y varianza
i=1 (yi 0)
=
n
i=1 [(Yi
S
= Y2 = 1
SY
Y )/SY ]
n
x2i + +
+u
yi =
, i = 1, . . . , n
x
2
k ki
j
(j
=
1,
.
.
.
,
k)
y
u
i /SY (i = 1, . . . , n)
=
i = u
j
SY
n. Dividiendo el modelo estimado con datos centrados
Demostracio
2 x2i + +
k xki + u
yi =
i , i = 1, . . . , n
por Sy y multiplicando y diviendo cada variable explicativa por SXj , obtenemos
yi
SX2 x2i +
i
k SXk xki + u
+
, i = 1, . . . , n
= 2
Sy S X2
S y SX k
Sy
Sy
i
x2j
xki
ui
Xj i Xj,i 1
Xj i
xji = xji xj,i1 =
=
=
SX j
SX j
SX j
SX j
en donde xji sera igual a uno cuando Xji = SXj . A su vez, un cambio de una
Yi
SXj =
=
j
j
Sy
SY
n 5. El coeciente de determinacio
Proposicio
n es invariante a transformaciones
lineales de las variables del modelo y, en particular, a la tipicacio
n de datos.
n. El coeciente de determinacion en el modelo con datos tipicados
Demostracio
es
R = 1
2
n 2
i=1 u
i
n
2
i=1 yi
=1
n
i2/S y2
i=1 u
=1
n
i2
i=1 u
n
2
i=1 yi
=R
19
2.5.
Las matrices P y M
P = X(X X)
y M = I X(X X)
= y X(X X 1
u
= y X
) X y
y sacando y como factor comu
n por la derecha
r
l
u
= I X(X X 1
) X y = My
Definicio
La transformacio
n lineal
de un
vector
a un cuadrada
vector z, ambos
orden
n 1, nse8.dene
como z = Ay,
en donde
A es
una ymatriz
n n dede
coecientes.
n 9. Una transformacio
Definicio
n lineal z = Ay es una proyeccio
n, si la matriz
X ] = X(X X)
(A(BC)
D) = D (C B )
X X(X X)
M = (I P) = I P
X =P
=IP= M
20
n 8. El rango de P es k y el de M n k.
Proposicio
n. El rango de una matriz idempotente es igual a su traza. De aqu,
Demostracio
tr(P) =tr[X(X X)
X ] = tr[(X X)
X X] = tr(Ik ) = k
Regresion particionada
+ Xs
+u
y = Xr
r
s
Ms = In Xs (Xs Xs )
Xs
21
r
s
o bien
+u
Ms y = Ms Xr
r
Aplicando la formula del estimador de mnimos cuadrados a este modelo de regresion,
tenemos
= (X MM X ) 1
X M M y = (X M X ) X M y
r
1
X My
) r
s
1
=(X M X ) X M y
y = i
1
i tenemos
+u
Mi y = Mi Xs
s
en donde
Y1 Y
Mi y =
Y2 Y
.
Yn Y
y Mi Xs =
X21 X 2
X22 X 2
...
...
Xk1 Xk
Xk2 Xk
...
X2n X 2
...
Xkn X k
i
s
s i s)
s
que es la forma simplicada de la ecuacion (2.8).
n 9. La matriz Mi transforma un vector de observaciones z = [Zi] de
Proposicio
orden
n 1 en un
vector que contiene las observaciones en desviaciones con respecto a
la media Mi z = [Zi Z ]
n. El producto Miz se interpeta como los residuos en la regresion de
Demostracio
z sobre el vector i
1 i + u
z=
22
Z1
Z2
Z
Z
..
Z
.
Zn
2.7.
SCT = (Yi Y )2
i=1
)2 = (Y
i Y
)2 + u
2
(Yi Y
i=1
i=1
n
i
i=1
el primer componente, que se denomina suma de cuadrados explicada SCE, mide la porcion de la variacion total de la variable dependiente explicada por la regresion, mientras
que el segundo, la suma de cuadrados de los residuos SCR, mide la variacion residual o
no explicada. Se tiene que
SCT = SC E + SCR
= Yi Y
+Y
i Y
i, tenemos
n. Observando que Yi Y
Demostracio
n
n
)2 = (Y
i Y
) + (Yi Y
i )
(Yi Y
i=1
n
i=1
i u
Y
i = 0 e Y
i Y )2 + u
i Y )u
(Y
2 +i2(Y
i
i=1
n
n
2
= (Yi Y ) + u
2
porque
i=1
i=1
i=1
n
i
i=1 u
= 0.
23
y3 My
y
Mi y
2
R =
= 1 y M y
y Mi y
i
n 12. Los grados de libertad de un estadstico se denen como el rango de
Definicio
una forma cuadratica o como el numero de valores que varan libremente en el calculo
de un estadstico.
n 12. Los grados de libertad de la suma de cuadrados total son iguales
a n Proposicio
1.
n. El rango de la forma cuadratica y Mi y es el rango de la matriz
Demostracio
Mi que es igual a n 1. En otras palabras, para calcular la SCT tenemos n valores, pero
antes hemos estimado la media, lo que nos deja n 1 valores variando libremente.
sonProposicio
iguales a nn13.
k. Los grados de libertad de la suma de cuadrados de los residuos
n. El rango de la forma cuadra
Demostracio
tica y My es el rango de la matriz
M que es igual a n k. Dicho de otro modo, para calcular la SCR tenemos n residuos
obtenidos despues de estimar k coecientes de regresio
n, luego tenemos n k residuos
que varan libremente.
Proposicio
iguales
a k 1.n 14. Los grados de libertad de la suma de cuadrados explicada son
n. Como la SCE = SC T SCR, tenemos que
Demostracio
y M y
= y M y y My = y [M M] y
i
24
2 , es el coeciente de
n 13. El coeciente de determinacio
Definicio
n ajustado, R
determinacio
n corregido por los grados de libertad
n 1
y My/(n k)
n
k (1 R2 )
2
R =1
= 1
y Mi y/(n 1)
Esta medida de bondad de ajuste penaliza la inclusion de variables independientes
que no tengan capacidad explicativa. As, si las variables an adidas dejan inalterado el
R2 , entonces el R 2 disminuira porque el factor de penalizacion (n 1)/(n k) aumenta
con k.
2.8.
Dentro de la clase general de modelos de regresion lineal, hay cuatro miembros que
merecen especial atencion:
1.
2.
3.
4.
2.8.1.
i = 1, . . . , n
1 = Y
n. Partiendo del modelo estimado Yi = 1 +ui (i = 1, . . . , n) y sumanDemostracio
do todas las observaciones obtenemos la ecuacion normal
n
Yi = n1
i=1
que podemos tambien obtener particularizando el sistema (2.2) para k = 2. Alternativamente, podemos usar la expresion general del estimador
= (X X)
X y = (n)
Yi
i=1
es el escalar 1 .
en donde X es ahora una vector columna de unos y
Yi = 1 + u
i = u
i = Yi Y
Por tanto, la suma de cuadrados de los residuos es igual a la suma de cuadrados total,
siendo la suma de cuadrados explicada igual a cero. Logicamente, un modelo que no
incluye variables explicativas no tiene capacidad explicativa.
2.8.2.
25
Regresion simple.
i = 1, . . . , n
XiYi nX Y
SX Y = i=1
n
Observacion 8. La covarianza muestral de una variable consigo misma es la varianza
muestral. As,
n
n
(X X )2
X 2 nX 2
i=1 i
= S 2X
SXX = i=1 i
=
n
n
n 17. En el modelo de regresio
Proposicio
n simple, los estimadores de mnimos
cuadrados de 1 y 2 son
2 X
1 = Y
2 =
de Y y X.
en donde Y y X son las medias muestrales de las observaciones
Xi =
i=1
n
Yi
i=1
n
n
2
1 Xi + 2 X = i Xi Yi
i=1
i=1
i=1
2 X
=Y
2
n
n
Multiplicando la primera ecuacion normal por ni=1 Xi y la segunda por n se obtiene
( n
\2 (
\( n
\
n
n1 Xi + 2
=
Yi
i=1 Xi
i=1
i=1Xi
i=1
n1
n
n
2 X 2 =n
Xi + n
Xi Yi
i
i=1
i=1
i=1
1
=
n2
X 2i
Xi Yi
n
X
Yi
n
i=1
i=1 i
i=1
i=1Xi
n
i=1
Prof. Dr. Jose Luis Gallego Go
mez
Departamento de Econom a. Universidad de Cantabria
26
Xi Yi nX Y
i=1
de donde
2 =
i=1
n
i=1 XiY2i
i=1 X
n
nX Y
2 =
n
i=1 (Xi X )(Yi Y )
n
2
=1
(Xi X)
xi yi = 2
i=1
obtenemos
n
x2
i=1
n
i=1 xi yi
n
2
i=1 x i
2 =
= SX Y
SX X
rY X
SY X
= Y Y XX = 1 n
S
S
)
X )(Y Y
i=1 (X 1
2 n
i=1 (Yi Y )
i=1 (Xi X)
SC E
R =
=
SCT
2
i=1 (Yi Y )
n
2
i=1 (Yi Y )
22
i=1 (Xi X )
n
2
i=1 (Yi Y )
22
=
SX X
SY Y
2
SX2 Y SXX
S XY
2
= rXY
=
2
SY Y SXX
S XX SY Y
27
0
-0.5
-1
-1.5
-2
-2
-1.5
-1
-0.5
0.5
1.5
2.8.3.
i = 1, . . . , n
n
2
i=1 X i
n. El modelo estimado es
Demostracio
Xi + u
Yi =
i
i = 1, . . . , n
n
n
X 2 + Xi u
Xi Yi =
i
i
i=1
Como
n
i=1
i=1
i = 1, . . . , n
i=1
Xi u
i = 0, obtenemos que
2 =
n
i=1 Xi Yi
n
2
i=1 X i
Apuntes de Econometra. LADE y LE. Curso 2008-2009.
Material publicado bajo licencia Creative Commons
28
= (X X)
2
X y = ( Xi )
Xi Yi
i=1
i=1
en donde X = (X1 , . . . , Xn )
).
= (
y
2.8.4.
i = 1, . . . , n
n
i=1
n2
x2iyi x2
x23i xi=1
i=1
i=1
n
3 =
n
i=1
n
i=1
2i
n
3i (
i=1
n
2 x3iyi
2 n
i=1
i=1 x
i=1 x
x2i x3i
n
i=1
3i (
x3i yi
x 22i
2i
n
i=1
x2i x3i
n
i=1
n
i=1
x2i x3i )2
i=1
2i
i=1
2i
i
i=1
=
n
3
n
n
2
i=1 x 3i
i=1 x2i x3i
i=1 x3i yi
\
(
2
(
n x2i
\
ni=1 x2i
x3i 1
i=1 x
1
2
2
n
3i
i=1
i=1 x
i=1 x
y
i=1 x y
=
i
n
n
n
n
n x2
i=1
i=1
i=1
3i i
x2i x3i
x2i x3i )2
2i
2i
3i (
n
y
1 23 32
1 23 32
en donde 12 es la pendiente estimada en la regresion de Y sobre X2 , 13 es la pendiente
estimada en la regresion de Y sobre X2 , 23 es la pendiente estimada en la regresion de
X2 sobre X3 , y 32 es la pendiente estimada en la regresion de X3 sobre X2 .
Observacio
n 12. En general, las pendientes estimadas en la regresio
n sobre dos variables 2 y 3 son distintas de las pendientes estimadas en la regresion simple 12 y 13 .
Se cumplira
que 2 = 12 y 3 = 13 cuando 23 = 32 , es decir, cuando las variables
explicativas son ortogonales.
La gura 2 representa el diagrama de dispersion tridimensional. Ahora, ajustamos
un plano a la nube de puntos de manera que el cuadrado de la distancia vertical de
Prof. Dr. Jose Luis Gallego Go
mez
Departamento de Econom a. Universidad de Cantabria
cada punto al plano sea mninima. En el caso kdimensional se dice que ajustamos
un hiperplano de regresion a la nube de puntos de manera que el cuadrado de la
distancia vertical de cada punto (Yi, X2i, . . . , Xki) al hiperplano sea mnima.
10
9
8
7
6
5
4
3
2
-2
-1
X2
29
-1
2
-3
0 1
El plano de
regresion minimocuadratico se ajusta a la nube
de observaciones (Yi , X2i, X3i )
minimizando los cuadrados de las
distancias verticales entre cada
punto y el plano. Para cada par
(X2i, X3i), el plano proporciona
i . El plano
el valor ajustado Y
de regresion pasa por el punto
(Y , X 2 , X 3 ).
X3
-2
2.9.
n
n
u
2
= (1 r2 ) y2
1,2i
12
i=1
i=1
n
i=1
u
21,2i,
Apuntes de Econometra. LADE y LE. Curso 2008-2009.
Material publicado bajo licencia Creative Commons
30
2.10. Ejemplo
n 2
n 2
= (1 r 2
= (1 r 2 )(1 r2 ) y2
u
) u
1,23i
13,2
i=1
1,2i
13,2
12
i=1
i=1
n
n
= (1 r 2
= (1 r 2
)(1 r2
)(1 r2 ) y2
) u
2
u
2
1,234i
14,23
i=1
1,23i
14,23
13,2
12
i=1
i=1
u
2
1,2...ki
= (1r
i=1
1k,2...(k1)
2
2
)(1r
)
y2
u
21,2...(k1)i = (1r2 1k,2...(k1) ) . . . (1r2 12, 23 )(1r 13
,2
12
i=1
i=1
u
2 2...ki
1,
2
i=1 y i
2
)(1 r 2
= 1 R2 1,2...k = (1 r 12
13,2
)(1 r2 14,23 ) . . . (1 r2
2.10.
1k,2...(k1)
Ejemplo
i = 1, . . . , 10
Alumno
1
2
3
4
5
6
7
8
9
10
Nota
5
9
7.5
4.5
4
8
0
4
8.5
10
Horas
1
5
3
1
1
4
0
2
5
5
31
Clase
1
1
1
1
1
0
0
1
0
1
Academia
0
0
0
0
1
1
1
0
1
0
Nota
5
9
7.5
4.5
4
8
0
4
8.5
10
Horas
1
5
3
1
1
4
0
2
5
5
Clase
1
1
1
1
1
0
0
1
0
1
Academia
0
0
0
0
1
1
1
0
1
0
ui
1.10811
-0.945946
0.581081
0.608108
-2.4869e-014
0.986486
-0.959459
-1.40541
-0.027027
0.0540541
(c) Residuos
en donde denotamos por sus iniciales las variables del cuadro 1.a. Siguiendo la regla
practica para especicar las ecuaciones normales obtenemos
10
10
10
10
10
1
i=1 Hi
i=1 Ci
i=1 Ai
i=1 Ni
10
10
10
10
10
2
H
H
H
C
H
A
i
i
i
i
i
i=1
i
i=1
i=1
i=1
i=1 Hi Ni
2
10
10
10
10
2
=
10
3
C
i Ai
i=1 Ci i=110Ci Hi
i=1
i=1 C
i=1 Ci Ni
10
10 i
10
10
4
2
A
A
H
A
C
A
i=1 i i=1 i i
i=1 i i
i=1
i=1 Ai Ni
i
y calculando todos estos momentos muestrales con los datos del cuadro 1.1, podemos
encontrar las estimaciones minimocuadraticas de los parametros
10
27
7
4
27 7
4
107 18 10
18 7
1
10 1 4
3
4
1
2
60,5
=
213,5
44
20,5
0,851351
=
3
4
1,51351
1,52703
0,108108
ai hi
10 h c
i=1 i i
10
2
i=1 ci
10
10 h a
i=1 i i
10
i=1 ci ai
ai ci
10 2
i
i=1 a
i=1
10
i=1
10
i=1
hi ni
ci ni
10
i=1 ai ni
32
2.10. Ejemplo
en donde las letras minusculas son las iniciales de las variables en desviaciones. Calculando estos momentos centrados obtenemos
50,15
1,51351
34,1 0,9 0,8
0,9
2,1 1,8 2 = 1,65 3 =
1,52703
2
3
4
0,8 1,8
2,4
3,7
0,108108
4
La estimacion del termino constante se obtiene de la ecuacion que relaciona las medias
muestrales
2 C
2 A
1 = N 2 H
que conduce a
1 = 6,05 1,51351 2,7 1,52703 0,7 0,108108 0,4 = 0,851359
Vemos que usando los datos centrados obtenemos los mismos resultados, pero invertimos
una matriz de menor orden. A partir de estas estimaciones podemos calcular los residuos
que se presentan en el cuadro 1.c
u
i = Ni 0,851351 1,51351Hi 1,52703Ci 0,108108Ai
La bondad del ajuste medida por el coeciente de determinacion
R2 = 1
10
2i
i=1 u
10
2
i=1 n i
= 1 6,7027
84,725 = 0,920889
50,15
i=1 x2i2yi =
i=1 x
34,1 = 1,47067 y
n
r212 =
2
1,2i
i=1u
2i
n
i=1 y 2
i
= 1
10,97067
84,725 = 0,87051
v
0,9 = 0,026393
=
34,1
mostrados en el cuadro 2. Ahora, podemos estimar la regresion simple
u
1,2i =
u
3,2i + u
1,23i
obteniendo
n
1,2i
3,2i u
= i=1 u
n
i=1
2
u
3,2i
2,97361
2,07625
= 1,4322 y
n
1,23i2
i=1 u
r13,2 = 1
n
i=1
u
21,2i
6,71186
= 1
10,970674
= 0,388199
33
u
1,2
u
3,2
u
1,23
u
4,23
u
1,234
Alumno
1
1.45015 0.255132
1.08475 -0.216102
1.10811
2
-0.432551 0.360704 -0.949153 -0.029661
-0.945946
3
1.0088 0.307918
0.567797 -0.122881
0.581081
4
0.950147 0.255132
0.584746 -0.216102
0.608108
5
0.450147 0.255132 0.0847458 0.783898 8.88178e-016
6
0.0381232 -0.665689
0.991525 0.0466102
0.986486
7
-2.07918 -0.771261
-0.974576 -0.139831
-0.959459
8
-1.02053 0.281525
-1.42373 -0.169492
-1.40541
9
-0.932551 -0.639296 -0.0169492 0.0932203
-0.027027
10
0.567449 0.360704 0.0508475 -0.029661
0.0540541
Cuadro 2: Residuos de diferentes regresiones
2 =
0,0466102
0,8
=
= 70,8
0,9 34,1
3
0,9
2,1
1,8
1,8
0,877119
y los residuos u4,23i mostrados en el cuadro 2. Ahora, podemos estimar la regresion
simple
u
1,23i =
u
4,23i + u
1,234i
obteniendo que
n
1,2i
3,2i u
= i=1 u
n
i=1
2
u
3,2i
0,0847458
0,783898
n
2
1,234i
i=1 u
= 0,108108 y
r14,23 = 1
n
21,23i
i=1 u
6,7027
= 1
6,71186
12
13,2
14,23
= 0,001365
34
2.10. Ejercicios
Observaciones
Valores ajustados
Residuos
Ecuaciones normales
Estimaciones minimocuadraticas
Ejercicios
t = 3, . . . , 10
CN
349.268
368.474
388.373
414.158
444.982
484.359
518.484
550.49
586.594
635.993
686.699
RD
388.029
408.24
433.777
465.222
498.647
538.594
574.786
614.7
656.77
699.271
748.357
35
5. Sea u
el vector de residuos en la regresion de y sobre X. Demuestre que el
estimador de mnimos cuadrados en la regresion de u
sobre X es un vector
nulo.
6. Sea M la matriz de proyeccion generadora de residuos de orden n n y sea
Y = (y1 , y2 , . . . , ym ) una matriz n m. Co
mo se intepreta el producto MY?
7. Considere los modelos de regresion
y =Xr r + e
y =Xr r + Xs + u
Escriba la expresion del estimador de mnimos cuadrados de r en cada modelo.
En que caso especial ambos estimadores seran iguales?
8. Demuestre que, para los modelos del ejercicio anterior, u u
e
e
.
9. Utilizando los datos del cuadro 3 estime por mnimos cuadrados las ecuaciones
de regresion
Ct =1 + 1 Yt + u1t
Ct =2 + 2 Ct1 + u2t
Ct1 =3 + 3 Yt + u3t
Yt =4 + 4 Ct1 + u4t
Use estas estimaciones para calcular las estimaciones de 2 y 3 en
Ct = 1 + 2 Yt + 3 Ct1 + ut
10. Dos investigadores han utilizado muestras diferentes sobre las mismas variables
para estimar por mnimos cuadrados la ecuacion de regresion simple
yi = 1 + 2 Xi + ui
Deciden unir esfuerzos y se plantean dos estrategias:
a) calcular la media aritmetica de sus estimaciones,
b) reestimar los parametros utilizando todos los datos.
Que procedimiento producira una menor suma de cuadrados de los residuos?
11. Demuestre que el coeciente de determinacion es invariante a transformaciones
lineales de las variables.