MULTIPLA
1
1. IL PROBLEMA
y = f ( x1... xk )
Nel caso del modello di regr.lineare multipla
f ( x1...xk ) = β0 + β1x1 + β2 x2...βk xk
abbiamo che:
Componente componente
sistematica casuale 2
2. IL MODELLO
In forma matriciale
y = X β +ε
dove
y : vettore (n x 1) di osservazioni sulla
variabile dipendente
3
Le matrici e i vettori sono così definiti
β0
ε1
β1
β2 ε2
.
β = . ε =
( ( k +1)×1) ( ×1)
.
n
.
.
.
β εn
k
OSSERVAZIONE
La matrice X ha la prima colonna unitaria: per
il caso in cui si consideri un modello con
intercetta β0 si introduce una variabile di
4
comodo X0 =1 per ogni i=1,2,…n.
3. LE ASSUNZIONI DEL MODELLO
1) Esiste legame lineare tra variabile
dipendente e regressori
2) Le variabili sono tutte osservabili
3) I coefficienti βi non sono v.c.
4) I regressori X sono non stocastici
5) Il termine ε non è osservabile
6) E (ε i ) = 0
0 per i ≠ j
( )
7) Cov ε i , ε j = 2
σ per i = j
⇒ le εi sono omoschedastiche ed incorrelate
σ 2 0 0 . . 0
0 σ 2
0 . . 0
E [εε ′] =
. . . . . .
2
0 0 . . . σ
6
4. STIMATORE MINIMI QUADRATI (OLS)
y = Xβ +ε
Si cercherà quel vettore β̂ che minimizza
gli scarti al quadrato:
n 2
min ∑ ( yi − X iβ )
i:1
βˆ = ( X ′X ) X ′y stimatore OLS di β
−1
8
CARATTERISTICHE STIMATORE OLS
Teorema di Gauss-Markov
β̂ è uno stimatore di tipo BLUE
Best Linear Unbiased Estimator
ovvero ha varianza minima nella classe degli
stimatori Lineari e Corretti
βˆ = ( X ′X ) X ′y
−1
1.
La matrice ( X ′X ) X ′ è formata da elementi
−1
= ( X ′X ) X ′X β + ( X ′X )
−1 −1
X′ ε
( X ′X )
−1
= β + X′ ε
E(β ) = β + ( X X ) X ′ E(ε ) = β
−1
ˆ ′
È uno stimatore corretto
Inoltre: ( )
βˆ − β = ( X ′X ) X ′ε
−1
9
′
( )
ˆ
(
3. Var β = E β − β β − β
ˆ
ˆ
)( )
= E (X X ) X ε ε X (X X )
−1 −1
′ ′ ′ ′
= ( X ′X ) X ′ E [ε ε ′] X ( X ′X )
−1 −1
= ( X ′X ) X ′ σ 2 I X ( X ′X )
−1 −1
( X ′X ) X ′X ( X ′X ) = σ ( X ′X )
−1 −1 −1
= σ 2 2
(
E βˆ −β 2
1 1 ) E β1 1 2 ( 2 )(
ˆ −β βˆ −β . . E βˆ −β βˆ −β
1 1 k ) k ( )( )
ˆ
( )(
E β1 −β1 β2 −β2
ˆ )
E β2 −β2
ˆ 2
(
. . ) .
. . . . .
ˆ
E( β −
k k 1 1β )(
βˆ −β ) . . . E β
ˆ
k − βk
2
( )
2
(
Pertanto la varianza E β j − β j di ogni parametro
ˆ )
β̂ j si desume prendendo il corrispondente valore
sulla diagonale principale della ( X ′X )−1
, moltiplicato
per σ :
2
( ) [
Var βˆ j = ( X ′X ) jj σ2
−1
10 ]
Definiamo uno stimatore alternativo lineare e
corretto
β ∗ = βˆ + C′ y
dove C è una matrice (n x k)
β = ( X ′X ) X ′ y +C ′ y
∗ −1
= ( X ′X ) X ′ ( X β +ε ) + C ′X β +C ′ ε
−1
( )
E β ∗ = β +C ′X β ⇒ C ′X = 0
∗ ′
∗
(
V β = E β − β β − β = )(
∗
)
′
{ } {
= E ( X ′X ) X ′ + C ′ εε ′ ( X ′X ) X ′ + C ′
−1 −1
}
( X ′X )−1 X ′X ( X ′X )−1 + C ′X ( X ′X )−1
=σ2
+ ( X ′X ) X ′C + C ′C
−1
ma C ′X = 0 = X ′C
= σ2 ( X ′X ) + σ2 (C ′C )
−1
()
= Var βˆ + σ2 (C ′C ) ≥ Var βˆ ()
()
Pertanto la Var β̂ è la minima nella classe degli
stimatori lineari e corretti, e risulta provato il 11
teorema di Gauss-Markov
.
Geometricamente l’equazione (stimata
con gli OLS)
12
13
Stima del parametro σ2
Consideriamo innanzitutto l’identità
n n n
∑ i
( y
i=1
− y )2
=∑ i i ∑ i
( y
i=1
− ˆ
y )2
+ ( ˆ
y
i=1
− y )2
eˆ′eˆ ∑( yi − yi )
ˆ 2
s =
2
= i=1
n − p −1 n − p −1
Che è uno stimatore corretto
14
ESEMPIO
Gi = β0 + β1Pgi + β2 yi + β3Pqi + εi
i : 1960 … 1986 , n = 27
Gi = consumo di benzina in $
Pgi = indice dei prezzi benzina
Yi = reddito pro-capite in $
Pqi = indice dei prezzi auto nuove
15
Vettore y x0 x2 x3 x4
121.01034 1 0.9250000 6036.0000 1.0450000
130.20306 1 0.9140000 6113.0000 1.0450000
136.62968 1 0.9190000 6271.0000 1.0410000
134.39852 1 0.9180000 6378.0000 1.0350000
150.34150 1 0.9140000 6727.0000 1.0320000
171.88391 1 0.9490000 7027.0000 1.0090000
175.44395 1 0.9700000 7280.0000 0.9910000
172.03874 1 1.0000000 7513.0000 1.0000000
198.65222 1 1.0470000 7891.0000 1.0440000
208.37573 1 1.0560000 8134.0000 1.0760000
214.38531 1 1.0630000 8322.0000 1.1200000
228.52113 1 1.0760000 8562.0000 1.1100000
237.37202 1 1.1810000 9042.0000 1.1110000
234.34193 1 1.5990000 8867.0000 1.1750000
222.32567 1 1.7080000 8944.0000 1.2760000
228.16247 1 1.7790000 9175.0000 1.3570000
242.33362 1 1.8820000 9381.0000 1.4290000
248.32557 1 1.9630000 9735.0000 1.5380000
240.93266 1 2.6560000 9829.0000 1.6600000
229.58893 1 3.6910000 9722.0000 1.7930000
227.13648 1 4.1090000 9769.0000 1.9020000
210.44373 1 3.8940000 9725.0000 1.9760000
236.85998 1 3.7640000 9930.0000 2.0260000
255.36365 1 3.7070000 10421.000 2.0850000
243.75057 1 3.7380000 10563.000 2.1520000
277.31965 1 2.9210000 10780.000 2.2400000
Matrice X’X;
27.000000 51.357000 229865.00 37.296000
51.357000 133.15081 473127.10 83.319118
229865.00 473127.10 2.0120502e+09 331319.22
37.296000 83.319118 331319.22 56.280428
Matrice inv (X’X);
2.6605735 0.51586178 -0.00029970528 -0.76246362
0.51586178 0.30384762 -6.4047001e-07 -0.78790617
-0.00029970528 -6.4047001e-07 6.6199636e-08 -0.00019015563
-0.76246362 -0.78790617 -0.00019015563 2.8089108
Stime β=inv(X’X) * X’y;
-89.761482
-12.588147 16
0.039938109
-14.443884
RICAPITOLANDO
βˆ = ( X ′X ) X ′ y
−1
E βˆ = β
′
(
V βˆ = E βˆ − β
)( ˆ )
β − β = ( X ′X ) σ 2
−1
s 2 = σˆ 2 =
∑ ei
2
n − k −1
E σˆ 2 = σ 2
Aggiungiamo :
εi ≈ N (0 , σ 2
)
ε ≈ N (0 , σ 2 I )
17
TEST PER LA VERIFICA DI IPOTESI SU
SINGOLI PARAMETRI
βˆ (
≈ N β ,σ (X′X ) 2 −1
)
Vogliamo
. testare
H 0 : β i = 0, H1 : β i ≠ 0
Ovvero vogliamo verificare se il regressore
Xi è effettivamente sulla variabile dipendente
Y.
Nel caso (improbabile) che sia nota σ2 la
statistica test è:
βˆ i − β i
σ 2
[(X ′X ) ]
−1
ii
18
Se il valore cade all’esterno dell’intervallo di
confidenza, per esempio al 95%, della N(0,1)
rifiutiamo H0 ed il parametro βi sarà
“significativamente” diverso da zero;
altrimenti non rifiutiamo H0 e concludiamo che
il parametro βi non sarà “significativo”
[
aii = ( X ′X )
−1
] σˆ =
2 e′e
ii
( n − k − 1)
• In questo caso la statistica test è
βˆi − βi
≈ tn−k −1
σˆ aii
dove [
aii = ( X ′X )
−1
]
ii
H0 : βi =0 contro H1 : βi ≠0
Statistica test:
βˆ i − β i βˆ i − β i
=
σˆ a ii s .e .( βˆ i )
βˆ i − t α s .e .(βˆ i ), βˆ i + t α s .e .(βˆ i )
2 2
∑ (Ŷ )
2
− Y
R 2
= i
∑ (Y − Y )
2
i
22
0 ≤ R2 ≤ 1
Il coefficiente di determinazione è un
indicatore del legame lineare tra Y e i
regressori.
• Ha però un difetto:
può aumentare anche se viene aggiunto un
regressore anche se non “spiega” y.
R2 = 1 −
SQE
= 1−
∑i e 2
SQT ∑ i
(Y − Y ) 2
∑i
e 2
( n − k − 1)
Rˆ 2 = 1 −
∑ (Y i − Y ) 2 ( n − 1)
SQE
( n − 1) ( n − k − 1)
Rˆ 2 = 1 −
( n − k − 1)
(1− R ) 2
= 1−
SQT
( n − 1) 23
Possiamo anche nel caso multiplo costruire la
TABELLA ANOVA
SQR
Regressione k SQR ( k )
SQE ( n − k − 1)
Residuo SQE n-k-1
SQT ( n − 1)
Totale SQT n-1
H0 : β1 = β2 = ... = βk = 0
H1 : almeno uno dei βi ≠0
Si costruisce la statistica test F
SQR (k )
F=
SQE ( n − k − 1)
Che sotto l’ipotesi nulla ha distribuzione F(k,,n-k-1)
Fissato il livello di significatività α si individua il
valore critico della distribuzione
25
Esempio
Y = Xβ + u
β1
n = 12
β = β2
k= 2 β
3
yi = β1 + β 2 x2i + β3 x3i + ε i
Y =9 X2 = 2 X3 = 1
∑ 2 = 10
x 2
∑ 3 = 15
x 2
∑ = 200
y 2
∑ x y = 12 ∑ x y = 9 ∑ x x
2 3 2 3 = −11
26
Determinare il vettore di stime OLS
Se consideriamo il modello in forma di scarti
dalle medie
βˆ 2
= ( X ′X )−1 X ′ y
βˆ
3
Dove x21 x31
x x2 i = X 2 i − X 2
x32
22 x3i = X 3i − X 3
X = . .
. .
x2 n x3n
βˆ 1 = Y − βˆ 2 X 2 − βˆ 3 X 3
∑ X 22i ∑X X
( X ′X ) = 2i 3i
∑ X 2i X 3i ∑X 2
3i
(− 1)2 ∑ X 32i (− 1)3 ∑ X 2i X 3i
(X X ) =
′ −1 1
(− 1)3 ∑ X X
X ′X 2 i 3i (− 1)4 ∑ X 22i
1 ∑ X 32i − ∑ X 2i X 3i
=
∑ X 2i ∑ X 3i − (∑ X 2i X 3i ) − ∑ X 2i X 3i
2
2 2
∑ X 2i
2
27
∑ X 2iYi
X ′ y =
∑ X 3iYi
da cui
βˆ 2 1
= ×
βˆ
∑ X ∑ X − (∑ X X )
2 2 2
3 2 3 2 3
∑ X ∑ X Y − ∑ X
2
X 3 ∑ X 3Y
× 3 2 2
∑ X ∑ X Y − ∑ X 2 X 3 ∑ X 2Y
2
2 3
15 × 12 − (− 11) × 9 180 + 99
βˆ 2 = = ≅ 9.62
10 × 15 − 121 29
10 × 9 − (− 11) × 12 90 + 132
βˆ 3 = = ≅ 7.65
10 × 15 − 121 29
βˆ 1 = Y − βˆ 2 X 2 − βˆ 3 X 3 = 9 − 2 × 9.62 − 7.65 = −17.89
βˆ 1 − 17.89
ˆβ = βˆ = 9.62
2
ˆ
β
3 7 .65
28
Continua ESERCIZIO
H 0 : β 2 = β3 = 0 ( F0.01 , 2 , 9 = 8.02)
R2 ( k) SQR ( k)
Ricordiamo:
è anche F = =
( )
1− R2 ( n−k −1) SQE ( n−k −1) n = 12
k = 2 con
βˆ ′ X ′ y intercetta ⇒
inoltre poichè risulta R =
2
2 var. esplicative
′ yy
in forma di scarti y1
( 2 3 x)
ˆβ βˆ × x21 . . x2 n .
. . x3n
× =
.
31
yn
ˆβ βˆ × ∑ X 2 y = βˆ
( )
2 3 ∑ X y 2 ∑ X 2 y + β
ˆ
3∑ X3 y
3
βˆ 2 − β2
t= tn − k (o F (1, n − k ))
σˆ a22
2
(t99.9 = 2.82)
a22 =
∑X 2
3
=
15
=
15
≅ 0.51
∑ 2 ∑ 3 − (∑ X 2 X 3 ) 150 − 121 29
2 2 2
X X
e′ e TSS − ESS 200 − 184.29
σˆ =
2
= = ≅ 1.74
n−k 9 9
βˆ 2 9.62 9.62
t= = = ≅ 6.4
σˆ a22
2
1.74 × 0.51 1.50 valore
empirico
di t
Anche adesso rifiutiamo H0 ⇒ il regressore X2
è significativo
30
Il test F per selezionare il modello di
regressione: Confronto tra modelli annidati
Il test F viene anche impiegato per verificare
l’ipotesi che due o più parametri siano
congiuntamente pari a zero.
In particolare si utilizza un test di tipo ANOVA
per confrontare un modello vincolato (ridotto) ed
annidato con in modello non vincolato (saturo):
Si supponga in generale di voler verificare
l’ipotesi:
H0 : βh+1 = βh+2 = ... = βk = 0
per qualche h ≤ k contro l'alternativa
H1 : almeno una eguaglianza in H0 non è vera.
32
SQE0 − SQE (k − h)
F= ≈ F(k −h,n−k −1) sotto H0
SQE ( n − k −1)
33
PROBLEMI DI PREVISIONE
Si vuole prevedere il valore di Yn+1 per un
insieme di valori X non osservati come:
C = {1 X 2,n +1 X 3,n +1 ... X k ,n +1}
Yn +1 = β1 + β 2 X 2,n +1 + ... + β k X k ,n +1 + ε n +1
= C ′ β + ε n +1
1×k k ×1 1×1
E [Yn +1 ] = C ′β
(
C ′βˆ ≈ N C ′β , σ 2 C ′(X ′X ) C
−1
)
C ′βˆ − C ′β
C ′(X ′X ) C
−1
σ
≈ t n−k
e′ e
(n − k )
σ 2
C ′βˆ ± tα 2σ C ′ ( X ′X ) C
−1
Y = β1 + β 2 X + ε
C = {1 X 0}
∑ 0∑
2
X − 2 X X + u X 2
C ′( X ′X ) C =
−1 0
u ∑ X − (∑ X )
2 2
Infatti .
∑ X 2 − ∑ X 1
{1 X 0} 1
2 =
n∑ X − (∑ X ) − ∑ X
2 n X 0
=
1
[ ]
1
∑ X − X 0 ∑ X , X 0n − ∑ X X =
2
n∑ X − (∑ X )
2 2
0
=
(∑ X 2
− X 0 ∑ X ) + (X 02n − X 0 ∑ X )
=
n∑ X − (∑ X )
2 2 36
∑ − 0∑ + 1 (X 0 − X )
2 2 2
X 2 X X nX
= 0
= +
n ∑ X − (∑ X ) ∑
2 2 2
n X
C ′β ± tε 2σ2 C ′( X ′X ) C ⇒
−1
1 (X 0 − X )
( )
2
⇒ βˆ 1 − βˆ 2 X 0 ± tε 2σ2 +
n ∑X2
37
CENNI SULLE VARIABILI DUMMY
(Variabili di comodo)
Fino ad ora abbiamo assunto che nella equazione
generale Y = Xβ + ε le variabili X siano variabili
quantitative. E’ possibile introdurre variabili
cosiddette “di comodo” che riescano a rappresentare
diversi fattori :
– EFFETTI TEMPORALI
– EFFETTI SPAZIALI
– VARIABILI QUALITATIVE
E’ il caso in cui un modello economico possa subire
mutamenti strutturali .
ESEMPIO
FUNZIONE DI CONSUMO
C = α1 + β Y + ε Tempo di guerra
C = α2 + βY + ε Tempo di pace
∂C
Ipotizzando che la propensione marginale al consumo =β
∂Y
rimanga invariata in entrambi i periodi
38
invece di considerare i due modelli separatamente
(stime meno precise) questi possono essere uniti in
una sola relazione
C = α1 X 1 + α 2 X 2 + β Y + ε
Dove X1 e X2 sono variabili dummy :
1 anni di guerra
X1 =
0 anni di pace
0 anni di guerra
X2 =
1 anni di pace
α1
β = α
La matrice β dei coefficienti sarà 2
β
e la matrice dei dati
0 1 Y1
0 1 Y2
. . Y
3
0 1 .
1 0 .
X = ( X 1 X 2 Y ) = 1 0 .
. . .
1 0 .
0 1 .
. . . 39
0 1 Yn
ATTENZIONE
Quando si utilizzano le variabili dummy è
necessario fare attenzione a come viene costruito
il modello, per non rendere la matrice (X’X)
singolare .
Infatti se nel modello precedente lasciavamo una
intercetta : C = α + α X + α X + β Y + ε
0 1 1 2 2
1 0 1 Y1
1 0 1 Y
2
. . . .
1 0 1 .
1 1 0 .
X = 1 1 0 .
. . . .
1 1 0 .
1 0 1 .
. . . .
1 0 1 Y n
1× X 0 − 1× X 1 − 1× X 2 + 0×Y = 0
Abbiamo che le 4 colonne di X sono linearmente
dipendenti rank ( X ) = rank ( X ′X ) = 3 ≠ k
40
(X’X) non è invertibile
Volendo utilizzare una regressione con intercetta si
utilizzerà così solo una dummy :
C = γ1 + γ 2 X 2 + βY + ε
0 anni di guerra
X2 =
1 anni di pace
C = α + β1Y + ( β 2 − β1 ) X 2Y + ε
0 anni di guerra C = α + β1Y + ε
X2 =
1 anni di pace C = α + β 2Y + ε
42
a. La scelta della forma funzionale
43
Esistono forme di modelli che risultano
lineari nei parametri, ma sui quali fare
attenzione soprattutto in fase di
interpretazione.
Modelli polinomiali: consideriamo un
esempio. In microeconomia si studiano
funzioni di produzione, se consideriamo la
relazione tra prodotto medio ottenuto da
aziende produttrici di materiale elettrico
(AP: average product) e l’input (I) necessario
alla produzione
AP
44
È evidente che la relazione non è costante e
quindi non può essere rappresentata da un
modello “lineare nelle variabili”. La
relazione può essere espressa da un
polinomio:
AP = α + β I + γ I + ε
2
46
In realtà sembrerebbe più ragionevole pensare
che da una certa età in poi, con il crescere
dell’età, la propensione marginale a spendere in
pizza diminuisca. Siamo cioè nel caso in cui
l’effetto di una variabile è modificato da
un’altra. Per tenere conto di ciò il modello che
dobbiamo specificare è il seguente:
48
Per realizzare che alcune variabili rilevanti
del modello sono state omesse si deve
proprio fare attenzione a segni o valori dei
coefficienti inaspettati. Si potrebbe pensare
che per ovviare a questo problema il
ricercatore dovrebbe inserire nel modello
tutte le variabili che ha a disposizione; in
questo modo tuttavia si potrebbe complicare
il modello eccessivamente ed inoltre
introdurre variabili irrilevanti.
Variabili irrilevanti inserite: gli stimatori
OLS che si ottengono sono corretti, tuttavia
la varianza degli stimatori dei parametri
relativi alle variabili “buone” risulta
maggiore di quella che avremmo ottenuto
specificando il modello correttamente. Il
motivo di questa sovrastima è legato al fatto
che il Teorema di Gauss Markov dice che lo
stimatore b.l.u.e. è lo stimatore OLS relativo
ad un modello correttamente specificato.
49
LE VIOLAZIONI DELLE IPOTESI
DEL MODELLO
a) Multicollinearità
b) Etroschedasticità
c) Autocorrelazione dei residui
50
a. MULTICOLLINEARITA’
Y = α + β1 X1 + β2 X 2 + ε
X 2 = γ X1 + θ
Y = α + β1 X1 + β2θ + β2γ X1 + ε
= λ1 + λ2 X1 + ε
λ1 = α + β2θ
λ2 = β1 + γ β2
52
Nel caso in cui due o più regressori siano quasi-
collineari, si incontrano i problemi maggiori:
Varianze campionarie molto alte
Covarianze sovrastimate
Forte instabilità dei coefficienti stimati per piccole
variazioni dei dati.
Per comprendere il perché di questi effetti si
consideri il modello di regressione a tre variabili:
Y = β1 X 1 + β 2 X 2 + ε
βˆ1
β = = (X X ) X′ y
−1
ˆ ′
βˆ
2
( )
V βˆ = σ 2 ( X ′X )
−1
σ2 ∑ X 22 −∑ X 1 X 2
= 2
−∑ X X
∑ 1 ∑ 2 (∑ 1 2 ) ∑ X1
2
X 2
X 2
− X X 1 2
53
σ 2 ∑ X 22
( )
V βˆ1 = =
∑ 1 ∑ 2 − ( ∑ X1 X 2 )
2 2 2
X X
σ 2 ∑ X 22
=
∑X ∑X 2 2
(∑ X ∑ X 1
2 2
2 − ( ∑ X1 X 2 )
2
)
1 2
∑ 1∑ 2
X 2
X 2
σ2
=
∑ 1 12
X 2
1 − r (
2
)
σ2
( )
V βˆ2 =
( )
∑ 2 12
X 2
1 − r 2
Y = β1 X 1 + β 2 X 2 + ε
∑ 2i = 113
X 2
∑X 1i i Y = 350
∑X 2i i Y = 263
βˆ1 = ∑ 2 ∑ X1Y − ∑ X 1 X 2 ∑ X 2Y
X 2
=
∑ X ∑ X − (∑ X X )
2 2 2
1 2 1 2
r2
=
(∑ X X ) 2 3
2
=
1502
= 0.995
∑X ∑X 200 × 113
X2X3 2 2
2 3
55
Se togliamo solo una osservazione cosicchè:
∑ 1 = 199
X 2
∑ X X = 149
2 1
∑ 2 = 112
X 2
∑ X Y = 327.5
1
∑ X Y = 261.5
2
56
Come identificare un problema di
multicollinearità?
57
LA MULTICOLLINEARITA’
58
ETEROSCHEDASTICITA’
Avevamo ipotizzato che:
E [ε ′ε ] = σ 2 I
tale assunzione è in molte situazioni non valida.
In effetti, se noi consideriamo come variabile
dipendente di un modello la spesa per alimenti Y e
come variabile indipendente il reddito X, è poco
plausibile assumere omoschedasticità perché al
crescere del reddito ci sono molti più fattori di
soggettività nella scelta degli alimenti e quindi nella
relativa spesa. Il modo più semplice per valutare la
validità dell’ipotesi di omoschedasticità è
considerare i residui OLS del modello stimato e
tracciare un diagramma cartesiano in cui in
corrispondenza di ogni valore di X si riporta il
corrispondente residuo stimato. Se i residui risultano
casualmente dispersi attorno allo zero, si può
supporre che l’ipotesi di omoschedasticità sia
plausibile, se essi hanno un andamento sistematico a
ventaglio o quadratico o sinusoidale la nostra ipotesi
risulta presumibilmente non vera. Nell’esempio i
residui saranno disposti a ventaglio, dato che al
crescere del reddito essi cresceranno.
59
Ma quali sono le conseguenze
dell’eteroschedasticità negli stimatori OLS dei
parametri?
Innanzi tutto è opportuno comprende quale
diventa la nuova formulazione dell’ipotesi sul
termine stocastico:
E [ε ] = 0
E [ε ′ε ] = σ 2Ω, con E εi2 = σ i 2
β = ( XX
′ ) X′ y
−1
ˆ
y = X β +ε
E β = β + ( XX
′ ) X′ E(ε ) = β
−1
ˆ
60
Quindi STIMATORI OLS ancora lineri e corretti,
tuttavia si perde l’efficienza, infatti
( )
V βˆ = ( X ′X ) X ′ E ( ε ′ε ) X ( X ′X )
−1 −1
= ( X ′X ) X ′ Ω ( X ′X ) σ 2
−1 −1
61
Esempio: GOLDFELD – QUANDT TEST
62
I RIMEDI
1. σi i=1,…,n siano valori noti.
si applicano i MINIMI QUADRATI PESATI (WLS)
ovvero si applica OLS al modello trasformato
yi xij εi
y =*
; x =
*
; ε =
*
σi σi σi
i ij i
εi 1 σi2
Dove Var (ε ) = Var = 2 Var (εi ) = 2 = 1
*
σi σ i σi
i
63
2. In caso di relazione tra la componente stocastica
e uno dei regressori, ad esempio
yi = β1 + β 2 xi 2 + ... + βk xik + εi
Var εi = C xi22
Trasformiamo il modello
yi xij εi
yi =
*
; xij =
*
; ε =
*
i
xi 2 xi 2 xi 2
yi 1 xik εi
⇒ = β1 + β2 + ... + βk +
xi 2 xi 2 xi 2 xi 2
ε 1
Var (ε*i ) = Var i = 2 Var (εi ) = C
xi 2 xi 2
applico OLS e ottengo stimatori B.L.U.E. per i
parametri di interesse.
3. Si stima il modello originale ottenendo stimatori
lineari e corretti, per il calcolo degli s.e. dei
parametri si ricorre allo stimatore di White che
tutti i software prevedono. 64
ESERCIZIO
La stima di un modello lineare sulla base dei
valori del Reddito e del Consumo di 30 famiglie
americane fornisce i seguenti valori :
Cˆ = 1480 + 0.788 y R 2 = 0.97
(3.29 ) (29.37 )
La stima dello stesso modello sulle prime 12 e
sulle ultime 12 osservazioni fornisce i seguenti
valori:
Cˆ = 846.7 + 0.837 y R 2 = 0.91
(0.74 ) (9.91)
SEQ = 1069000
65
c. AUTOCORRELAZIONE DEI RESIDUI
yt = α + β X t + ε t
ε t = ρ ε t −1 + ut
66
Le ipotesi aggiuntive su tale modello,
detto modello autoregressivo del primo
ordine AR(1) sono:
ρ <1
E [ut ] = 0
σ u2 s=0
E [ut ut − s ] =
0 s≠0
Quindi:
ε t = ρ ε t −1 + ut
= ρ ( ρ ε t − 2 + ut −1 ) + ut
= ut + ρ ut −1 + ρ 2ut − 2 + ... =
∞
= ∑ ρ r ut − r
r :0
67
∞
E ( ε t ) = ∑ ρ E ( ut − r ) = 0
r
r :0
( ) ( ) ( ) ( )
E εt2 = E ut2 + ρ2E ut2−1 + ρ4E ut2−2 + ...
+2ρ E[utut −1 ] + 2ρ2 E[utut −2 ] + ...
+2ρ E[ut −1ut −2 ] + ...
2
u (
= σ 1+ ρ + ρ + ...
2 4
)
σ 2
= u
= σu2
1− ρ 2
68
( )
E[εt εt−1] = E ut + ρ ut −1 + ρ2 ut−2 + ... ×( ut−1 + ρ ut−2 + ...) =
= ρ σu2 + ρ3 σu2 + ρ5 σu2 + ... =
(
= ρ σu2 1+ ρ 2 +ρ4 + ... = )
σu2
=ρ = ρ σε
2
1− ρ2
( )
ut + ρ ut −1 + ρ 2ut − 2 + ρ 3ut −3 ×
E [ε t ε t −2 ] = E =
(
× ut − 2 + ρ ut −3 + ρ 2ut − 4 + ...
)
= ρ 2σ u2 + ρ 4σ u2 + ρ 6σ u2 + ... =
σ u2
=ρ 2
= ρ 2σ ε2
1− ρ 2
E [ε t ε t − s ] = ρ sσ ε2
1 ρ ρ2 . ρ n −1
n−2
ρ 1 ρ . ρ
E [ε ε ′] = V = σ u2 ρ 2 ρ . . .
. . . . ρ 69
ρ n −1 ρ n−2 ρ 1
.
CONSEGUENZE per OLS
1. Stime OLS di β lineari e corrette
2. Varianze di β̂ molto grandi stimatori
inefficienti
3. Sottostima delle varianze dell’errore
4. Conseguente non validità dei test t ed F
Solo se ρ2 = 0
e′ e
E = E σˆ
2
= σ 2
ε
n −1
d= t =2
n
eˆ = y − Xβˆ
∑e 2
t
residui nella
t =1
stima OLS
n 2 n 2 n
∑ et + ∑ et −1 − 2∑ et et −1
d = t =2 t =2
n
t =2
per n grande
∑ et2
t =1
d ≅ 2−2 ∑ ee t t −1
∑ et et −1
= 2 1 − = 2(1 − r )
2
∑e 2
t ∑ et
0≤d ≤4
0 dL dH 2 4-dH 4-dL 4
autocorr.(+) ? No autocorr. ? Autocorr.(-)
72
Per verificare la presenza di autocorrelazione
positiva al livello di significatività α, la statistica test d
viene confrontata con dei valori critici inferiori e
superiori (dL,α and dU,α):
•Se d < dL,α si ha una prova statistica di
autocorrelazione positiva degli errori.
•Se d > dU,α, si ha una prova statistica di non
autocorrelazione positiva degli errori.
•Se dL,α < d < dU,α il test non è conclusivo.
Se ho una stima di ρ
1 ρˆ . ρˆ n −1
ρˆ =
∑ ee
t t −1
ρˆ
⇒Ω=
1 . .
∑e 2
t . . . .
. . . 1
74