Sei sulla pagina 1di 10

Appunti di Econometria

ARGOMENTO

[1]: IL MODELLO DI REGRESSIONE LINEARE


Tommaso Nannicini Universit` a Bocconi Settembre 2010

Antipasto: propriet` a algebriche del metodo dei minimi quadrati

In questa parte del corso, introdurremo il nostro primo modello statistico-econometricoil modello di regressione lineareper stimare le relazioni tra determinate variabili nella popolazione di riferimento e per testare ipotesi su tali relazioni. Prima di addentrarci in questo campo, per` o, presentiamo alcune semplici propriet` a di una tecnica che useremo ripetutamente: quella dei minimi quadrati. Si tratta di propriet` a algebriche, piuttosto che statistiche, visto che per il momento non introdurremo nessuna ipotesi sulla natura dei nostri dati e sulla popolazione da cui sono stati estratti. Assumiamo semplicemente di avere un insieme di dati sulla variabile y (per esempio, il salario) e sulle variabili x2 , . . . , xk (per esempio, quelle elencate nellintroduzione), osservati sulle unit` a di osservazione i = 1, . . . , N (i lavoratori nel nostro campione). Senza preoccuparci dellorigine dei dati o della relazione generale tra queste variabili, ci proponiamo di approssimare y con una combinazione lineare delle variabili xj (1 + 2 x2 + + k xk ). Giusto per descrivere i nostri dati e come la y varia insieme alle xj nel campione. Per scegliere la migliore approssimazione lineare della y , ci rifacciamo appunto al metodo dei minimi quadrati, che minimizza la somma dei quadrati degli scarti tra la y osservata e quella approssimata. Caso bivariato (k = 2). Risolvendo
1 ,2 N

min S (1 , 2) =
i=1

(yi 1 2 xi )2 ,

(1)

si ottengono le condizioni di primo ordine (dette anche equazioni normali del metodo dei minimi quadrati):
N

2
i=1 N

(yi 1 2 xi ) = 0, (yi 1 2 xi )xi = 0.

(2)

2
i=1

(3)

Dalla (2): yi N 1 2 xi = 0

1 = Dalla (3):

yi 2 xi = y 2 x . N N 2 xi x2 i = 0.

(4)

1 xi yi Introducendo la (4) e usando xi = N x :

2 N x 2 xi yi N x y + 2 2 ( Da cui, ricordando che V ar (x) = ( x2 2 ) = i Nx

x2 i

xi yi N x y . xi yi /N ) x y , otteniamo: (5)

x2 2 e Cov (x, y ) = ( i /N ) x

2 = Cov (x, y ) = V ar (x) Caso multivariato (k > 2).

( xi x )(yi y ) . 2 ( xi x )

Per risolvere i minimi quadrati nel caso multivariato, introduciamo un po di notazione matriciale. Deniamo X come la matrice [n k] con per riga le osservazioni di ogni unit` a i e per colonna linsieme di osservazioni su ogni variabile j : 1 x12 . . . x1k 1 x22 . . . x2k X = . , . . .. . . . . . . . 1 xn2 . . . xnk y come il vettore [n 1] con le osservazioni sulla variabile y , e come il vettore [k 1] contenente i k parametri da individuare1. Il problema dei minimi quadrati diventa quindi: min S ( ) = (y X ) (y X ) .

(6)

Visto che: S ( ) = y y + X X X y y X = y y + X X 2 X y , le condizioni di primo ordine danno: 2X y + 2X X = 0, che rappresentano un sistema di k equazioni (le equazioni normali dei minimi quadrati). Risolvendo: = (X X )1 X y (7)

dove stiamo assumendo che la matrice (X X ) sia invertibile (questa e ` lunica assunzione di cui abbiamo bisogno per il momento). Vediamo di seguito alcune propriet` a algebriche importanti dei minimi quadrati.
Di seguito, cercher` o di attenermi a questa convenzione: lettere maiuscole per matrici, lettere minuscole in grassetto per vettori, lettere minuscole per scalari.
1

come la y approssimata (o ttata) ed e = y y Deniamo y = X come il vettore [n 1] dei residui dellapprossimazione. Si deniscano altres` :
N

SQT =
i=1 N

(yi y )2 , ( yi y )2 ,
i=1 N

(8)

SQS = SQR =

(9)

(ei e )2 ,
i=1

(10)

rispettivamente come la somma dei quadrati totale, la somma dei quadrati spiegata (dallapprossimazione lineare) e la somma dei quadrati residua. Condizioni di ortogonalit` a. = 0 X (y X ) = 0 X e = 0. 1. X e = 0. Infatti, dalle equazioni normali: X y X X ) e = X e = 0. 2. y e = 0. Infatti: (X Implicazioni delle condizioni di ortogonalit` a. a. Poich e abbiamo incluso una costante nella matrice X : e = 0. Questo deriva direttamente dallortogonalit` a tra la prima colonna di X e il vettore dei residui, per cui ei = 0. =y b. Poich e abbiamo incluso una costante nella matrice X : y . Questo deriva dallimplicazione (a) e dal fatto che yi = y i + ei , per cui yi = y i + ei = y i .
2 = 2+ c. In generale (costante o non costante): yi y i e2 i . Infatti: ma y i ei = 0 per la seconda condizione di ortogonalit` a. 2 = yi 2+ y i

e2 i +2

y i ei ,

d. Poich e abbiamo incluso una costante nella matrice X : SQT = SQS + SQR. Infatti, sfruttando i risultati precedenti: yi = y i + ei yi y =y i y + ei (yi y )2 = ( yi y )2 + e2 i + 2 2 2 2 ei ( yi y ) (yi y ) = ( yi y ) + ei . Sulla base di questi risultati (eteniamolo presentegrazie al fatto che abbiamo incluso una costante tra le xj ), e ` utile denire il coefciente di determinazione R2 come: R2 = SQS SQR =1 . SQT SQT (11)

R2 e ` compreso tra zero e uno, e fornisce una misura della qualit` a dellapprossimazione lineare rispetto ai dati del nostro campione. Il suo valore, infatti, cattura la frazione della variazione campionaria di y spiegata dalla variazione delle xj . Si pu` o dimostrare facilmente che (i) basta introdurre una x aggiuntiva per incrementare 2 2 R , e (ii) R non e ` altro che il coefciente di correlazione tra y e y al quadrato (si veda il problem set 1).

Il modello statistico: ipotesi, stima, inferenza

Adesso, acquisita una certa familiarit` a con il metodo dei minimi quadrati per ottenere la migliore approssimazione lineare nel campione, facciamo un primo salto di qualit` a e introduciamo un modello statistico con lo scopo di stimare e fare inferenza sui veri parametri che legano la y alle xj nella popolazione di riferimento. Di nuovo, non osserviamo lintera popolazione, ma solo un campione i = 1, . . ., N . Questa volta, per` o, assumeremo lesistenza di un modello valido per la popolazione, e su questa base useremo i j calcolati con il metodo dei minimi quadrati come stimatori. Uno stimatore e ` una regola che prende i dati del campione e restituisce una stima dei veri parametri che si ipotizza leghino la y alle xj nella popolazione. Sotto alcune assunzioni, ovviamente, riguardanti il modello statistico di riferimento: senza assunzioni, in econometria, non si va da nessuna parte. Di seguito, quindi, specicheremo, stimeremo e faremo inferenza con il cosiddetto modello di regressione lineare sia nel caso bivariato, sia nel caso multivariato.

2.1

Il modello di regressione lineare nel caso bivariato

Si ipotizzi lesistenza di questo legame (lineare) tra la variabile y e la variabile x nella popolazione: y = 1 + 2 x + , (12)

dove 1 e 2 sono due parametri (sconosciuti), e rappresenta una variabile aleatoria denita termine di errore, che comprende sia elementi puramente casuali sia tutti i fattori esplicativi della y diversi da x. Per il momento, siamo pronti a fare le seguenti assunzioni sul nostro modello2 . A1. La relazione tra y e x e ` lineare, come espresso nellequazione (12). A2. C` e un po di variazione campionaria nella x, per cui xi = xj per qualche i, j (1, . . ., N ). A3. Le osservazioni i = 1, . . ., N sono un campione casuale della popolazione. Questo implica che le sono identicamente e indipendentemente distribuite, per cui Cov ( i , j ) = 0 per i = j . A4. La media condizionata di e ` nulla: E ( |x) = 0 (esogeneit` a della x). A5. La varianza condizionata di e ` costante: V ar ( |x) = 2 (omoschedasticit` a). A6. La distribuzione di e ` data da: N (0, 2) (normalit` a). 1 Adesso, siamo pronti per derivare alcune importanti propriet` a degli stimatori dei minimi quadrati 2 (derivati nella sezione precedente), come stimatori dei veri parametri 1 e 2 nel modello (12). Gli e stimatori dei minimi quadrati ordinari sono detti anche OLS (Ordinary Least Squares)3 . 1 e 2 sono stimatori corretti: E ( i) = i , i = 1, 2. Teorema 1. Se valgono le assunzioni da A1 ad A4,
2 Come discusso in classe, queste assunzioni sono molto forti e anche abbastanza implausibili in molte applicazioni empiriche, ma sono un buon punto di partenza per derivare le propriet` a degli stimatori dei minimi quadrati. Inoltre, abbandonando alcune di queste assunzioni, potremo ancora usare questi stimatori con alcuni accorgimenti; abbandonandone altre, invece, avremo bisogno di introdurre stimatori diversi. Il nostro corso di introduzione alleconometria si muove grosso modo lungo queste coordinate. 3 1 e 2 come stimatori pu` Tra parentesi, si noti che la scelta di o essere motivata sia dalla loro propriet` a di minimizzare la somma dei residui al quadrato, sia dal fatto che le loro condizioni di ortogonalit` a sui residui ei assomigliano da vicino alle condizioni che stiamo imponendo sugli errori i nella popolazione (metodo dei momenti). Chiusa parentesi.

Dimostrazione: Diamo la dimostrazione per il coefciente di interesse 2 . Possiamo riscrivere il numeratore 2 come segue (si noti che (xi x ) = 0): di ( xi x )(yi y ) = +2 dove abbiamo usato i fatti che: ( xi x )(yi y ) = ( xi x )2 = ( xi x )yi y ( xi x ) xi x ( xi x ) i ( xi x )2 ( xi x ) = ( xi x ) = ( xi x )yi , ( xi x ) xi . ( xi x )E ( i|x) = 2 , ( xi x )2 ( xi x )yi = ( xi x ) xi + ( xi x )(1 + 2 xi + i ) = 1 ( xi x ) i = 2 ( xi x )2 + ( xi x ) + ( xi x ) i ,

Di conseguenza, riscritto il numeratore come sopra, abbiamo che: 2 ) = E 2 E ( ( xi x )2 + ( xi x )2 = 2 +

dove il penultimo passaggio segue dalla legge delle aspettative iterate e lultimo dallassunzione A4. La propriet` a di correttezza (o non distorsione) ci dice che, in media, il nostro stimatore centra il bersaglio: cio` e, e ` uguale al vero parametro nella popolazione. Ma, in generale, non ci interessa soltanto centrare il ` quindi utile guardare alla bersaglio, vogliamo anche evitare di andarci troppo lontano quando sbagliamo. E varianza dello stimatore 2 : ( xi x )2 2 ) i ) 2 ) = V ar ( (xi x = = V ar ( ( ( xi x )2 )2 ( ( xi x )2 )2 dove il penultimo passaggio usa lassunzione che le (stiamo quindi usando lipotesi di omoschedasticit` a). 2 ( xi x )2 (13)

siano indipendenti tra loro e con varianza costante

2 e Teorema 2. Se valgono le assunzioni da A1 ad A5, ` lo stimatore con varianza minima nella classe degli stimatori lineari e corretti di 2 (teorema di Gauss-Markov). Dimostrazione: In via preliminare, si noti che lo stimatore OLS e ` una funzione lineare delle yi con i seguenti pesi: 2 = wi yi , dove wi = (xi x ) / ( xi x )2 . Si denisca quindi un generico stimatore lineare per 2 : b 2 = ciyi . Abbiamo: b 2 = 1 ci + 2 ci xi + ci i . Di conseguenza, E (b2) = 2 solo se ci = 0 e ci xi = c i ( xi x ) = 1. Imponiamo queste condizioni afnch e b2 sia non solo lineare ma anche corretto. Ne segue che: V ar (b2) = V ar 2 + per via della condizione di omoschedasticit` a. Si noti che: c2 i = dato che (w i + ci w i )2 = w i ci = 1/ ( xi x )2 e
2 c2 i = = 2 wi +

ci

= 2

c2 i,

(ci w i )2 + 2

w i (ci w i ) =

2 wi +

(ci w i )2 ,

2 = 1/ wi 2 wi + 2

( xi x )2 . Ne segue che: 2 ) + 2 (ci wi)2 = V ar ( (ci w i )2 .

V ar (b2) = 2

2 ) a meno che ci = wi (come volevasi dimostrare). Quindi abbiamo che V ar (b2) > V ar ( 5

2 e Questo risultato e ` spesso sintetizzato dicendo che ` BLUE (Best Linear Unbiased Estimator). Non e ` 4 solo quello che in media centra il bersaglio, ma anche quello che se ne allontana di meno quando sbaglia. Per fare inferenza e testare ipotesi sui veri coefcienti i nella popolazione dobbiamo introdurre assunzioni sulla distribuzione degli errori (a meno che non si voglia ricorrere a propriet` a asintotiche, si veda il paragrafo 3). Quindi, possiamo usare lassunzione A6 sulla normalit` a degli errori, per mostrare che: 2 2 N (0, 1). ( xi x )2 / (14)

Visto che non conosciamo , dobbiamo stimarla. E si pu` o dimostrare (lo faremo nel caso multivariato) che 2 2 5 uno stimatore corretto e ` dato da: s2 = e2 / ( N 2) . Per via del fatto che e2 i i / N 2 , abbiamo : 2 2 tN 2 . ( xi x )2 s/ (15)

Quindi, possiamo testate lipotesi nulla H0 : 2 = q (per esempio, lipotesi nulla di signicativit` a statistica del coefciente con q = 0), sfruttando il fatto che la toss = 2 q 2) SE (

e ` distribuita come una t con (N 2) gradi di libert` a se lipotesi nulla e ` vera. Sulla base di questo risultato, possiamo costruire tutte le procedure inferenziali che abbiamo visto e analizzato in classe: test a due code o a una coda con il confronto tra la toss e il valore critico della t (scelto a seconda della signicativit` a del test)6 ; intervalli di condenza (di nuovo, a seconda del livello di signicativit` a prescelto); p-value.

2.2

Il modello di regressione lineare nel caso multivariato

Adesso, estendiamo i risultati appena visti al caso multivariato con pi` u di un regressore, facendo riferimento alla notazione matriciale gi` a introdotta. Si ipotizza lesistenza di questo modello statistico per la popolazione: y = X + , (16) dove e ` un vettore [N 1] di termini di errore. Vogliamo stimare il vettore di parametri nella popolazione = (X X )1 X y . Per derivare le propriet` con lo stimatore dei minimi quadrati a di questi stimatori, al momento, siamo disposti a fare le seguenti assunzioni sul modello. A1. La relazione tra la y e le X e ` lineare, come espresso nellequazione (16). A2. Possiamo escludere lesistenza di multicollinearit` a perfetta, cio` e: rango(X ) = K < N . A3. Le osservazioni i = 1, . . ., N sono un campione casuale della popolazione. A4. La media condizionata di e ` nulla: E ( |x1, ..., xK ) = 0 (esogeneit` a delle X ).
Se siamo disposti ad aggiungere lassunzione di normalit` a (A6), e ` possibile dimostrare che gli stimatori OLS sono il Best Unbiased Estimator: cio` e, hanno varianza minima nella classe di tutti gli stimatori, non solo di quelli lineari. 5 Si ripassino velocemente le denizioni di distribuzione normale, t, 2 ed F (per esempio, nel formulario di statistica). 6 Si ripassi anche il trade-off tra errore del tipo I ed errore del tipo II nella scelta della signicativit` a del test.
4

A5. La varianza condizionata di e ` costante: V ar ( |x1 , ..., xK ) = 2 (omoschedasticit` a). A6. La distribuzione di e ` una normale. Per via di A3 e A4, abbiamo che: E ( |X ) = 0 (esogeneit` a forte, cio` e lerrore i e ` incorrelato non solo con le variabili esplicative dellosservazione i, ma anche con quelle delle osservazioni j = i). Per via di A3 e A5, la matrice di varianza e covarianza degli errori e ` : V ar ( ) = E ( ) = 2 I (sfericit` a degli errori). 2 Per via di A6, inne, abbiamo che: N (0, I ). e ) = . Teorema 3. Se valgono le assunzioni da A1 ad A4, ` uno stimatore corretto di , cio` e: E ( Dimostrazione: ] = E [(X X )1 X y ] = E [(X X )1 X X + (X X )1 X ] = E [ + (X X )1 X E ( |X )] = E [ X, X dove il penultimo passaggio segue dalla legge delle aspettative iterate e lultimo da E ( |X ) = 0. . Tenendo presente che (vedi Di nuovo, oltre alla correttezza, ci interessa analizzare la varianza di 1 = (X X ) X , abbiamo che: sopra) ] = E [( )( ) ] = E [(X X )1 X V ar [ = 2 (X X )1 dove stiamo usando lassunzione di omoschedasticit` a e assenza di autocorrelazione negli errori: V ar ( ) = E ( ) = 2 I . Si noti che la matrice di varianza e covarianza degli stimatori ha questa struttura: 1) 1 , 2 ) . . . V ar ( Cov ( Cov ( 2 , 1 ) V ar (2) ... ] = V ar [ . . .. . . . . . k , 1 ) Cov ( k , 2 ) . . . Cov ( 1 , k ) Cov ( 2 , k ) Cov ( = 2 (X X )1 . . . . k ) V ar ( X (X X )1 ] = (X X )1 X ( 2 I )X (X X )1 ] =

e Teorema 4. Se valgono le assunzioni da A1 ad A5, la varianza 2 (X X )1 dello stimatore ` minima nella classe degli stimatori lineari e corretti di (teorema di Gauss-Markov). Dimostrazione: Si denisca il generico stimatore lineare: b = Ly . Si noti che: E [LX + L ] = LX . Afnch e b sia corretto, dobbiamo quindi imporre: LX = Ik . Inoltre, dato che a questo punto b = LX + L = L , abbiamo: V ar (b) = E [(b )(b ) ] = E [L L ] = 2 LL .

` facile dimostrare che DX = 0. Si pu` Si denisca la matrice: D = L (X X )1 X . E o anche dimostrare 7 che DD e ` una matrice semidenita positiva . Si noti che: LL = [(X X )1 X + D][(X X )1 X + D] = [(X X )1 X + D][X (X X )1 + D ] = = (X X )1 + DX (X X )1 + (X X )1 X D + DD = (X X )1 + DD . ) + 2 DD V ar (bj ) V ar ( j ). Quindi: V ar (b) = 2 (X X )1 + 2 DD = V ar (
7

Se x Ax 0, x = 0, la matrice A e ` denita come semidenita positiva.

Di nuovo, adesso che conosciamo le propriet` a degli stimatori dei minimi quadrati in termini di correttezza ed efcienza, vogliamo fare inferenza sui veri parametri del modello ipotizzato per la popolazione. Per farlo, dobbiamo rendere operativa la varianza degli stimatori ottenendo una stima non distorta di 2 . A tal ne, si noti che: = [I X (X X )1 X ]y = M y e= yy = y X dove M e ` una matrice produttrice di residui, nel senso che prende la variabile y e ci rende un vettore di ` facile dimostrate (provate!) che: residui dalla regressione di y sulle variabili contenute nelle colonne di X . E Me ` simmetrica (M = M ); M e ` idempotente (M M = M ); M M = M (grazie ai risultati precedenti); M X = 0 (ortogonalit` a); ed e = M . Questi risultati ci sono utili per dimostrare il seguente teorema. Teorema 5. Se valgono le assunzioni da A1 ad A5, la quantit` a s2 = e e/(N K ) e ` uno stimatore corretto 2 della varianza dellerrore . Dimostrazione: Grazie al fatto che (i) M M = M e che (ii) il valore atteso di uno scalare e ` pari al valore atteso della traccia, possiamo riscrivere: E [e e] = E [ M ] = E [tr ( M )] = E [tr (M Ma la traccia di M e ` data da: tr (M ) = tr (I ) tr (X (X X )1 X ) = N tr ((X X )1 X X ) = N K. Da cui otteniamo che E [e e] = 2 (N K ). N (, 2(X X )1 ), Se valgono le assunzioni da A1 ad A6 (inclusa la normalit` a degli errori, quindi), 1 j N (j , 2(X X ) ), e e/ 2 N K . Questi elementi ci servono come base delle seguenti procedure jj inferenziali di test delle ipotesi. (a) Test t su un singolo coefciente. Per testare una singola ipotesi sul coefciente di una generica variabile xj , H0 : j = q , possiamo usare tutte le procedure analizzate nel caso bivariato, dato chese lipotesi nulla e ` verala quantit` a osservata toss = (j q )/SE (j ) e ` distribuita come una variabile tN K . (b) Test t su una singola restrizione lineare. Per testare una singola ipotesi su una generica restrizione lineare, H0 : r = q , dove r e ` un vettore q )/SE (r ) t [K 1] opportunamente denito, possiamo usare il fatto che: toss = (r . Su N K questa base, possiamo usare le procedure gi` a viste per un test t. Lunico problema e ` il calcolo dello SE al denominatore della toss . Si tenga presente che spesso, per aggirare questo problema, si pu` o riscrivere il modello in una forma che contiene direttamente H0 come ipotesi sulla signicativit` a statistica di un singolo coefciente (si vedano gli esempi fatti in classe o quelli sul corrispondente capitolo del Wooldridge). (c) Test F sulla signicativit` a congiunta di alcuni coefcienti. Adesso, si assuma di volere sottoporre a test delle ipotesi: H0 : K J +1 = = K = 0, cio` e che tutti i coefcienti di J variabili esplicative sono congiuntamente uguali a zero nella popolazione. Deniamo come modello completo (Mc ) quello che include tutti i K regressori e come modello ristretto (Mr ) quello 8 )] = 2 tr (M ).

che include soltanto K J regressori (escludendo le J variabili oggetto di ipotesi, quindi). Si pu` o dimostrare che, se vale lipotesi nulla: (SQRr SQRc)/J F = FJ,N K . SQRc /(N K ) Questo ci permette di applicare le normali procedure di test usando i valori critici della distribuzione F (che e ` sempre maggiore di zero). Quindi, se Foss > Fcrit , possiamo riutare lipotesi nulla. 2 Sfruttando il fatto che SQRc = (1 R2 c )SQT e SQRr = (1 Rr )SQT , possiamo riscrivere la statistica per il test F come: 2 (R 2 c Rr )/J FJ,N K . F = (1 R2 c )/(N K ) Questa statistica, nel caso classico in cui si vuole testare la signicativit` a congiunta delle (K 1) variabili esplicative, diventa semplicemente: F = R2 c /(K 1) FK 1,N K (1 R2 c )/(N K )

visto che in questo caso il modello ristretto contiene soltanto una costante e quindi R2 r = 0. Si noti che il test F sulla signicativit` a congiunta di un insieme di variabili esplicative ci dice una cosa del tutto diversa dal quanto indicato dallR2 . E che lR2 non ci dice niente sulla bont` a del modello o sulleffetto delle variabili esplicative sulla variabile spiegata. LR2 e ` una misura della bont` a dellapprossimazione lineare: se il nostro modello e ` giusto, lR2 quantica la capacit` a del modello di predire nel campione. Si ricordi, inne, che un valore elevato della statistica F (che ci porta a riutare lipotesi nulla che i coefcienti non sono congiuntamente signicativi) e valori bassi delle statistiche t sui singoli coefcienti (che non ci permettono di riutare lipotesi nulla di non signicativit` a di ogni coefciente) potrebbero essere spiegati da un problema di multicollinearit` a imperfetta nei nostri dati. A riguardo, si vedano gli esempi fatti in classe o quelli sul corrispondente capitolo del Wooldridge. (d) Test F su restrizioni lineari multiple. Vediamo adesso la formulazione generale che ci permette di testare J restrizioni lineari allo stesso tempo. Lipotesi nulla sar` a: H0 : R = q, dove R e q sono una matrice [J K ] e un vettore [J 1] opportunamente deniti. Sotto H0 : q N (0, 2R(X X )1 R ). R Ne segue che: q) [ 2 R(X X )1 R ]1 (R q) 2 . (R J Sfruttando il fatto che e e/ 2 N K , possiamo calcolare8 : q) [R(X X )1 R ]1 (R q) N K (R FJ,N K . ee J E applicare le normali procedure di test delle ipotesi.
8

In generale, si noti che, se x N (0, ), allora: x x 2 n.

Cenni sulle propriet` a asintotiche degli stimatori OLS

Finora, abbiamo fatto vedere che gli stimatori OLS sono corretti (sotto le assunzioni da A1 ad A4), efcienti (cio` e, con varianza minima, sotto le assunzioni da A1 ad A5), e possono essere usati per una serie di test delle ipotesi sui veri parametri della popolazione (sotto le assunzioni da A1 ad A6). Nel resto del corso, vedremo che cosa succede a questi stimatori se abbandoniamo alcune di queste ipotesi. In alcuni casi, potremo ancora utilizzarli, a patto di tenere presente lopportunit` a di alcuni accorgimenti. In altri casi, invece, le loro propriet` a deterioreranno a tal punto che dovremo rimpiazzarli con nuovi stimatori. Cominciamo col chiederci che cosa avviene se rimuoviamo lipotesi di normalit` a degli errori (A6). Unanalisi approfondita di questo tema richiederebbe un livello di trattazione che va al di l` a degli obiettivi di questo corso. Abbandonare A6 richiede infatti di guardare a nuove propriet` a degli stimatori, dette propriet` a asintotiche, perch e valide per N che tende allinnito. Certo, anche se pare che Chuck Norris abbia contato no allinnito per ben due volte, il concetto di innito non e ` immediatamente operativo per noi comuni mortali. A tal ne, basti dire che interpreteremo queste propriet` a come valide soltanto in grandi campioni. Consistenza. Se P r (|Wn | > ) 0 con n , allora diciamo che Wn e ` uno stimatore consistente di , ovvero: plim(Wn) = . Ci` o signica che la distribuzione dello stimatore si concentra via via sul vero e parametro al crescere del campione. Si pu` o dimostrare che lo stimatore ` consistente (per ) sotto le richiede condizioni meno stringenti di quelle che assunzioni da A1 ad A4. In verit` a, la consistenza di abbiamo imposto nora. Infatti, ricordando una delle formulazioni dello stimatore OLS nel caso bivariato, grazie alla legge dei grandi numeri, si pu` o vedere che: 2) = plim 2 + plim( ( xi x ) i ( xi x )2 = 2 + Cov (x, ) , V ar (x)

` quindi sufciente assumere che x ed siano dove Cov (x, ) e V ar (x) si riferiscono alla popolazione. E incorrelate (cio` e, Cov (x, ) = 0 o E (x ) = 0) per dimostrare la consistenza dello stimatore dei minimi ` facile vedere come lo stesso valga nel caso multivariato.9 quadrati. E per N che tende allinnito, si pu` Normalit` a asintotica. In aggiunta, guardando alle propriet` a di o anche dimostrare che j j a N (0, 1), j ) SE ( che implica la normalit` a asintotica di questa statistica (si noti che e ` equivalente parlare di una t di Student, dato che N tende allinnito). Di conseguenza, possiamo di nuovo usare tutte le procedure inferenziali presentate nel paragrafo precedente, anche se lassunzione A6 non vale. Lunico accorgimento richiesto e ` di sapere che queste procedure (senza A6) sono valide solo su basi asintotiche, cio` e solo in grandi campioni.

Si noti che la precedente assunzione A4 di media condizionata nulla era pi` u forte dellipotesi di assenza di correlazione, visto che la prima implica la seconda ma non viceversa. Infatti, E [ |x] = 0 implica E [ g(x)] = 0 per ogni funzione g(.).

10

Potrebbero piacerti anche