Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
yt = f (xt1; xt2)
Esempio 2: studiare la relazione fra salari e caratterisc-
tiche individuali in un campione di N individui. Esempio
2: Equazione del salario per un campione di 3294 indi-
vidui nel 1987 (cross-sectio), k = 2
w1 = f (genere1; istruzione1) , i = 1
w2 = f (genere2; istruzione2) , i = 2
...
wN = f (genereN ; istruzioneN ) ; i = N
yi = f (xi1; xi2)
yi x0i ~
(1 1)!! (1 k)(k 1)
y^i = x0ib
che costituisce la migliore approssimazione lineare di y
ottenibile da xi1; xi2; :::xik
Modello statistico
y = X + "
(N 1) (N K)(K 1) (N 1)
Ipotizziamo tuttavia che le variabili xi sono considerate
…sse e non stocastiche =) un nuovo campione presen-
tera’ la stessa X e nuovi valori per "i. Dati non speri-
mentali.
Ipotesi fondamentale
Esempio di eteroschedasticita’
Omoschedastico o Eteroschedastico?
2. Varianza
= + ( X 0 X ) 1 X0 "
b = ( X0 X) 1 X0 "
allora
h i
1
= E (b )(b )0 = E ( X X) 0
X0""0X(X0X) 1
Se
E ["i] = 0; 8i
E ""0 = 2I;
X sono deterministiche
abbiamo
h i
1
V (b) = 0
(X X) X0 2IN X(X0X) 1
2 (X0 X) 1
=
3 Teorema di Gauss-Markov: Si puo’ dimostrare che
lo stimatore OLS e’il migliore (piu’e¢ ciente) nella
classe degli stimatori lineari corretti (Best Unbiased
Linear Estimator, BLUE)
1. Consistenza
p lim b =
al crescere di N la probabilita’che lo stimatore si dis-
costi dal valore vero diventa sempre piu’piccola.
Condizione minima a¢ nche’lo stimatore possa es-
sere utile al nostro scopo. Si veri…ca sotto ipotesi
piu’deboli di quelle considerate …n’ora.
2. Normalita’asintotica
p
N (b ) = N 0; 2(X0X) 1
p
N misura la velocita’ di convergenza. Per N !
1, (b ) ha una distribuzione che con tutta la
massa di probabilita’si concentra sullo zero
a
b N ; s2(X0X) 1
la qualita’ dell’approssimazione migliora al crescere
di N:
Risultati ottenuti sfruttando le ipotesi di Gauss-Markov
combinate con l’ipotesi di errori normali ) tutti i
risultati ottenuti con le statistiche t e F sono validi an-
che se i termini di errore non hanno una distribuzione
normale.
yi = y^i + ei
yi = x0ib + ei
8 9
< NX =
T SS = (yi y )2 =
: ;
i=1
8 9 8 9
< N
X = < N
X =
ESS = (^
yi 2
y^) + RSS = (yi y^i)2
: ; : ;
i=1 i=1
V (yi) = V (^
yi) + V (ei)
0 R2 1
ossia la proporzione della varianza di y dovuta alla vari-
azione dei regressori x: