Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Econometra
Tema 3.Modelo de regresin mltiple: estimacin
3.1 Motivacin y definicin del modelo de regresin mltiple
3.2 Estimador MCO: funcionamiento e interpretacin. Propiedades
estadsticas
3.3 Eficiencia del estimador MCO: el teorema de Gauss-Markov.
3.4 Bondad de ajuste y seleccin de los regresores
3.5 Forma funcional: funciones cuadrticas y modelos con
interacciones
3.6 Prediccin y anlisis de residuales
3.7 Propiedades asintticas del estimador MCO
A partir de una muestra con los datos de las ventas y el precio en los
ltimos 10 aos se obtiene la siguiente estimacin:
\ i = 4.2 1.5pventai
ventas
3
modelo.
Interpretacin de los coeficientes del modelo de regresin mltiple:
I
(k = 2).
educacin de la madre tiene en los aos de educacin del hijo, sin que
cambie los aos de educacin del padre.
I
y1
y2
Y= .
.
.
yN
X= .
.
.
.
..
.
..
..
..
.
.
Vector de coeficientes :
Vector de errores u:
= 2
.
.
.
k
u=
u1
u2
..
.
uN
edmadrei
1
2
3
edpadrei
edhijoi
10
10
8
1
Y=
X
=
8
1
7
1
10
10
=
1
2
yi = 0 + x1i1 + 2 x2i + ui
10
11
12
b0 ,b1 ,...,bk
I
N
X
i=1
edmadrei
edpadrei
edhijoi
10
10
3
8
Expresin matricial de los datos
8
1
X= 1
Y=
8
7
1
10
10
=
1
2
14
En el ejemplo:
10
23
26
X0X =
10
8
8
1
1
8
10
= 23
26
8
189
194
228
341
(X 0 X)1 =
12.5
28.25
10
12.5
28.25
0.5
2.375
194
X0Y =
1
10
8 = 176
8
7
200
23
10
341
12.5 28.25
23
7
176 = 0.5
b = (X 0 X)1 X 0 Y =
0.5
1
12.5
28.25
1
2.375
200
1.25
15
Hay que matizar que este resultado est basado en la muestra tomada,
por eso, cuanto mayor sea la muestra y de manera ms aleatoria
posible sea tomada ms generalizable sern los resultados obtenidos.
16
Valores ajustados yi :
yi = 0 + 1 x1i + 2 x2i + + k xki , para i = 1, . . . , N
Residuos
ui :
(yi y)2 =
PN
i=1
(yi y)2 +
PN
i=1
u2i
i=1
SCT =
SCE + SCR
17
1
X 0 Y = CY donde C = X 0 X
1
X0.
E |X
=
= 2 (X 0 X)1 (utilizando los supuestos 1,2,3,4 y 5):
3. Var()
18
2
para j = 1, . . . , k
(n 1)Sx2j (1 R2j )
donde
I
19
20
estimacin de la varianza de .
2 =
N
X
1
u2i
N k 1 i=1
21
1
\
=
)
2 X0X
=
Var(
1
Nk1
N
X
u2i
X0X
1
i=1
\
Var(bj ) =
b2
para j = 1, . . . , k
(n 1)Sx2j (1 R2j )
22
q
q
\
j ) =
2 (X 0 X)1
Var(
jj para j = 0, 1, . . . , k
Donde (X 0 X)1
jj es el elemento jsimo de la diagonal principal de la matriz
(X 0 X)1
O tambin
SE(j ) =
s
q
\
Var(j ) =
2
para j = 1, . . . , k
(n 1)Sx2j (1 R2j )
23
Bajo los 5 supuestos bsicos del modelo de regresin lineal, el estimador MCO de es el estimador ms eficiente (de menor varianza) de
entre todos los estimadores lineales e insesgados de .
24
25
R =1
(N 1)SCR
(N k 1)SCT
Observa que el coeficiente R puede ser negativo (no toma valores entre
0 y 1 como R2 ).
27
Modelo 1:
log(rd) = 0 + 1 log(sales) + ui
Modelo 2:
log(rd) = 0 + 1 log(sales) + 2 profits + vi
28
SS
df
MS
Model
Residual
84.8395785
8.40768588
1
30
84.8395785
.280256196
Total
93.2472644
31
3.00797627
lrd
Coef.
lsales
_cons
1.075731
-4.104722
Std. Err.
.0618275
.4527678
t
17.40
-9.07
Number of obs
F( 1,
30)
Prob > F
R-squared
Adj R-squared
Root MSE
P>|t|
0.000
0.000
=
=
=
=
=
=
32
302.72
0.0000
0.9098
0.9068
.52939
1.201999
-3.180047
SS
df
MS
Model
Residual
85.0658823
8.18138207
2
29
42.5329412
.282116623
Total
93.2472644
31
3.00797627
lrd
Coef.
lsales
profits
_cons
1.029089
.0001343
-3.820281
Std. Err.
.0809936
.0001499
.5542746
t
12.71
0.90
-6.89
Number of obs
F( 2,
29)
Prob > F
R-squared
Adj R-squared
Root MSE
P>|t|
0.000
0.378
0.000
=
=
=
=
=
=
32
150.76
0.0000
0.9123
0.9062
.53115
1.19474
.0004408
-2.686662
29
N = 526,
(0.008)
R2 = 0.1858
(0.002)
N = 526,
I
(0.008)
R2 = 0.2493
Por tanto
c1 = 0.083 b1 = 0.098,
b2 = 0.010
30
Cov(educ, exper)
Var(educ)
32
Cov(x1 , x2 ) < 0
2 > 0
Sesgo positivo
Sesgo negativo
2 < 0
Sesgo negativo
Sesgo positivo
33
(1)
34
935
(0.003)
(0.003)
(0.007)
R = 0.155
935
(0.003)
(0.006)
R = 0.136
35
(2)
37
(3)
38
39
2
(n 1)Sx2j (1 R2j )
(4)
donde
I
Var b1 =
(n 1)Sx21 (1 R22 )
(n 1)Sx21 (1 R223 )
donde R22 es el R-cuadrado de la regresin de x1 sobre x2 y R223 es el
R-cuadrado de la regresin de x1 sobre x2 y x3 .
Por tanto, puesto que R22 R223 (este ltimo contiene ms variables
regresoras) tenemos que
Var b1 Var e1 .
(5)
(6)
41
Observa que
ventasi
= 1
precioi
Esto quiere decir que si el precio aumenta en una unidad entonces las
ventas cambian en 1 unidades. Independientemente de cul es el
precio. Si el precio era 1 dlar y aumenta a 2 dlares el efecto en las
ventas es 1 . Si el precio era 100 dlares y aumenta a 101 dlares el
efecto en las ventas es 1 .
42
Modelo 1:
rd = 0 + 1 sales + ui
Modelo 2:
rd = 0 + 1 sales + 2 sales2 + vi
44
SS
df
MS
Model
Residual
2945977.47
321063.086
1
30
2945977.47
10702.1029
Total
3267040.55
31
105388.405
rd
Coef.
sales
_cons
.0406263
-.5772167
Std. Err.
.0024487
20.51549
t
16.59
-0.03
Number of obs
F( 1,
30)
Prob > F
R-squared
Adj R-squared
Root MSE
P>|t|
0.000
0.978
=
=
=
=
=
=
32
275.27
0.0000
0.9017
0.8985
103.45
.0456271
41.321
SS
df
MS
Model
Residual
3044362.18
222678.376
2
29
1522181.09
7678.5647
Total
3267040.55
31
105388.405
rd
Coef.
sales
salessq
_cons
.0639116
-6.54e-07
-43.09968
Std. Err.
.0068278
1.83e-07
21.04989
t
9.36
-3.58
-2.05
Number of obs
F( 2,
29)
Prob > F
R-squared
Adj R-squared
Root MSE
P>|t|
0.000
0.001
0.050
=
=
=
=
=
=
32
198.24
0.0000
0.9318
0.9271
87.627
.077876
-2.80e-07
-.0478219
45
46
En este caso incluimos una variable que sea la interaccin entre precio y
publicidad
47
(7)
(8)
(9)
49
[
Y por tanto E(y
s ) es un estimador insesgado de E(ys ).
50
(0.0111)
51
En nuestro ejemplo:
\ s )) = Var(b0 +b1 10) = Var(b0 )+102 Var(b1 )+210Cov(b0 , b1 )
Var(E(salario
\
\ s ) es
Si Cov(b0 , b1 ) = 0.0004 entonces la varianza estimada de E(salario
\
\ s )) =
Var(E(salario
=
\
\
\
Var(b0 ) + 100 Var(b1 ) + 20 Cov(b0 , b1 ) =
0.30852 + 100 0.01112 20 0.0004 = 0.0995
SE(b
ys ) = 0.0995 = 0.3154
52
ybs tNk1,/2 SE(b
ys ), ybs + tNk1,/2 SE(b
ys )
53
54
(10)
(11)
55
Como E(b
ys ) = E(ys ):
E(ubs ) = E(ys ybs ) = E(ys ) E(b
ys ) = 0
(12)
(13)
(14)
(15)
56
57
\
SE(ubs ) =
b2 + Var(b
ys ) = 16.85 + 0.0995 = 4.1170 > 0.3154 = SE(b
ys )
59
Del mismo modo, el hecho de que bajo todos los supuestos del teorema
de Gauss-Markov, el estimador MCO sea el estimador lineal e
insesgado ptimo es tambin una propiedad de muestra finita.
60
61
y
lim Var(bn ) = 0
o bien
bn p
62
2. Var(bj ) =
2
2 (1R2 )
(n1)SX
j
b = lim
lim Var()
2
=0
(n 1)SX2 j (1 R2j )
63
64