Sei sulla pagina 1di 5

ECONOMETRIA APPLICATA

Capitolo 1: Introduzione

L’econometria si basa sull’utilizzo di dati per stimare gli effetti causali di alcune variabili su altre.
Utilizza i dati statistici per misurare nell’ambito economico e politico, la magnitudine quantitativa
degli effetti causali. Se riduco la dimensione di una classe, quali saranno gli effetti sul testscr?
I dati utilizzati sono prettamente non sperimentali (osservazionali), raccolti tramite indagini
campionarie. I dati sperimentali e non si dividono in: sezionali, temporali e data panel.
L’econometria si occupa in particolare di studiare:
1. effetto delle variabili omesse
2. causalità simultanea
3. “correlation does not imply causation”
I dati sezionali osservano diverse entità per un solo periodo di tempo, i dati temporali invece
osservano una sola entità in momenti diversi, i data panel osservano entità diverse in più momenti.

Capitolo 2: Richiami di statistica e probabilità

 Popolazione (N): collettivo di interesse, generalmente preso molto grande e che tende a
infinito
 Y: variabile dipendente che assume certi valori con una data probabilità
 Distribuzione di probabilità: probabilità di verificarsi di certi valori di Y nella
popolazione. La distribuzione di probabilità cumulata è indicata come c.d.f o funzione di
ripartizione (si usa con le variabili casuali discrete). La p.d.f o funzione di densità è lo stesso
concetto ma applicato alle variabili casuali continue.
 media µy = E(y) è il valore medio che assume Y o che ci si aspetta
 varianza (sigma 2): fornisce una misura di quanto le tutte le unità osservate differiscano
dalla media E(Y-µy)2
 deviazione standard (radice della varianza)
E(Y −µ y )3
 skewness misura l’asimmetria di una distribuzione. Se è pari a 0 allora la
σy 3
distribuzione risulta simmetrica, se > 0 ha una lunga coda a dx, se < 0 a sx. Quando è 0
risulta simmetrica perché per valori di Y sopra la media ce ne sono altrettanti al di sotto, che
rendono tale la distribuzione. Il numeratore sarà quindi zero e annulla tutto.
E(Y −µ y )4
 curtosi misura quanto sono spesse le code della distribuzione. Misura quanto la
σy 4
varianza di Y derivi dai suoi valori estremi (outliers). Maggiore è la curtosi, più probabili
sono gli outliers. La curtosi non può essere negativa. Inoltre, una distribuzione normale ha
curtosi pari a 3. Con curtosi > 3, la distribuzione si dice leptocurtica.
 covarianza: E[(X-µx)(Y-µy)] = σ xy è una misura del grado di concordanza tra due caratteri
quantitativi nel caso questi siano distribuiti congiuntamente, indica quanto due variabili si
muovono assieme. Quando sia X e Y tendono ad essere maggiori (minori) della propria
media, la correlazione sarà positiva. Se invece si muovono in direzioni opposte la cov sarà
negativa. Nel caso di caratteri indipendenti, cov = 0.
 correlazione rXY: è rapporto tra la cov(X,Y) e il prodotto tra le singole deviazioni standard.
Risolve il problema dell’unità di misura della covarianza. Se 0 allora sono incorrelate, se 1
perfettamente correlate positivamente, se -1 perfettamente correlate negativamente. Se E(Y|
X) = µy allora cov(Y,X) = 0 e corr(Y,X) = 0.

Distribuzioni di probabilità
1. Distribuzione normale
La variabile casuale continua ha una funzione di densità a forma campanulare, simmetrica attorno
alla sua media µ (skewness pari a 0) e varianza σ 2, concentra il 95% della sua probabilità tra µ-1,96
e µ+1,96. La distribuzione normale standard ha in particolare media 0 e varianza 1: N(0,1). Una
variabile casuale normale viene indicata con Z e la sua funzione di ripartizione con simbolo greco
per una costante.
es. se Y si distribuisce N(1,4) e voglio verificare la probabilità che Y≤2, devo standardizzarla e
lavorare con Z. La standardizzazione si fa sottraendo a Y la sua media e dividendo per la sua
deviazione standard. Ottengo ½(Y-1) con N(0,1). Voglio verificare che ½(Y-1) ≤ ½(2-1) ovvero
minore di ½. Qual è la probabilità che Z sia inferiore a 0,5? Verifico sulle tavole e trovo 0,691 (area
ombreggiata sotto la normale e prima del valore 0,5).

2. Distribuzione normale bivariata/multivariata

Nel caso di due caratteri casuali congiuntamente distribuiti si parla di distribuzione normale
bivariata, o multivariata nel caso di più caratteri. Ha tre importanti proprietà:
- se X e Y hanno una normale bivariata con covarianza sigma xy e se a e b sono due costanti,
allora aX+bY si distribuisce come una normale.
- se un gruppo di variabili hanno dis. normale multivariata, allora la distribuzione marginale
di ciascuna delle variabili è normale
- se le variabili hanno covarianza nulla, sono indipendenti

3. Distribuzione chi-quadro

È la somma dei quadrati di m variabili casuali indipendenti, ognuna con distribuzione normale
standard. m è anche il numero di gradi di libertà della distribuzione.

4. Distribuzione t di Student

È il rapporto di due variabili casuali indipendenti la prima delle quali una N(0,1) mentre l’altra è la
radice quadrata di una variabile casuale chi-quadrato con m gradi di libertà divisa per m. Questa
distribuzione si indica con tm . La t di Student è a forma campanulare ma quando m è piccolo (20 o
meno) ha code più pesanti rispetto alla normale.

Distribuzioni di media campionaria

Campionando casualmente, otteniamo una media cosiddetta campionaria, indicata con Y , anch’essa
con una distribuzione di probabilità. La media campionaria è la media del campione ossia la
sommatoria di tutte le osservazioni campionarie Yi divise per il numero di osservazioni. La
distribuzione di media campionaria misura la probabilità associata ai valori di Y che possono essere
calcolati per diversi campioni possibili.

PROPRIETÁ DELLA MEDIA CAMPIONARIA


I. La media campionaria coincide con la media µ delle osservazioni: E(Y) = µy. Questa
proprietà prende il nome di correttezza o di non distorsione.
II. La variabilità della media campionaria aumenta all’aumentare della varianza, mentre
diminuisce all’aumentare della dimensione del campione. Per migliorare la precisione della
µ campionaria basta far tendere n a +∞. Questa proprietà prende il nome di consistenza o
convergenza in probabilità.
III. Lo stimatore media campionaria è efficiente in quanto confrontandolo con altri stimatori
(ottenuti da medie ponderate) la sua varianza è minore: usa meglio l’informazione contenuta
nei dati. Y è BLUE (best linear unbiased estimator).

DISTRIBUZIONE MEDIA CAMPIONARIA


L’approccio esatto o in campioni finiti descrive la distribuzione campionaria per ogni n e dice che
se Y si distribuisce normalmente e se le osservazioni sono i.i.d allora la media campionaria è
distribuita come una normale N(µy, σ 2/n). L’approccio distribuzione approssimata, ci dice che per
grandi campioni la distribuzione della media campionaria è asintotica. L’approssimazione della
distribuzione campionaria quando n è grande (>30) viene svolta tramite due teoremi:
1. Legge dei grandi numeri e consistenza: Y campionaria è prossima a µy con probabilità
molto alta quando n è grande (consistenza). Affinché ciò sia vero le Yi devono essere i.i.d e
la varianza finita.
2. Teorema del limite centrale (TCL): la distribuzione campionaria è ben approssimata ad una
normale quando n è grande. Se le osservazioni già si comportano come normali, allora la
distribuzione campionaria sarà una normale anche per valori di n < 30. Possiamo
standardizzare la media campionaria e diventa: Y-E(Y)/ √ var (Y )

N.B: la media campionaria viene usata per stimare µy, in quanto minimizza la somma degli scarti al
quadrato tra Yi e lo stimatore m (stimatore dei minimi quadrati), ossia minimizza la distanza tra
media campionaria e osservazioni campionarie. È lo stimatore con minor varianza tra tutti gli
stimatori non distorti della media µ e fornisce il miglior adattamento ai dati.

Verifica d’ipotesi, p-value e intervalli di confidenza

Questo capitolo descrive la verifica d’ipotesi riguardo la media di popolazione.


Ipotesi nulla H0: E(Y) = µy
Ipotesi alternativa bilaterale H1: E(Y) ≠ µy
p-value: probabilità di ottenere un valore di Y campionario che si discosta da µy almeno quanto il
valore Yact calcolato con i dati campionari, assumendo che la nulla sia vera.
livello di significatività: probabilità di commettere errore di tipo 1, rifiutando la nulla quando questa
è vera.

Supponiamo che H0= µy = 20. Dal calcolo dei dati ottengo una media Yact di 22.64. Il p-value mi
indica la probabilità di ottenere un valore di media campionaria che si discosta da H0 almeno
quanto Yact. Se il p-value è pari a 0.5, questa sarà la probabilità di aver estratto un campione che si
discosta da H0 tanto quanto l’altro. Come vediamo è un valore molto basso, il che mi permette di
rifiutare l’ipotesi nulla con significatività del 5%. Per calcolare il p-value è necessario conoscere la
distribuzione della Y campionaria e la varianza sotto l’ipotesi nulla.

Capitolo 4: Regressione lineare con un singolo regressore


Prendendo il caso delle classi in California, voglio stimare quale sia l’effetto che una variazione di
STR ha su il TestScr.
Test Score = β0 + β1STR --> retta di regressione
Il primo parametro è l’intercetta e anche il valore di Testscr quando STR è zero. Il secondo
parametro indica come varia Y al variare di X ed è infatti il rapporto: ∆Test score/∆STR. Da questo
possiamo scrivere il modello di regressione lineare: Yi =β0 +β1Xi +ui. L’ultimo termine è l’errore
che indica le variabili omesse dal modello e che incorpora tutti i fattori responsabili della differenza
tra punteggio medio nei test e valori predetti. Come possiamo stimare i parametri? Utilizzando lo
stimatore dei minimi quadrati ordinari OLS, che minimizza la somma al quadrato dei residui tra
retta di regressione lineare e le singole osservazioni di Y ottenute con il campionamento. Lo
stimatore OLS, così come la media Y lo era per la media di popolazione, è BLUE, ossia è lo
stimatore che meglio si adatta ai dati.
N.B: i valori sulla retta di regressione sono valori stimati o meglio, predetti tramite gli OLS tramite
campionamento. Sono i valori che più si avvicinano a quelli reali ossia osservati.

La retta di regressione costruita con il metodo dei minimi quadrati ordinari prende il nome di retta
di regressione campionaria, i valori di Y trovati basandosi su questa retta prendono il nome di valori
predetti, l’errore predetto (residuo).
Perché usare lo stimatore OLS? Perché è corretto, consistente ed efficiente.

MISURE DI BONTÀ DEL MODELLO


R2 : è la frazione della varianza campionaria di Y predetta da X. Possiamo dire che Yi sia la somma
tra il valore predetto e il suo termine d’errore. In questi termini, r quadro è il rapporto tra la varianza
campionaria di Y predetto e Yi osservato. Varia tra 0 (no fit) e 1 (perfect fit). Può anche essere
scritta come rapporto tra la somma dei quadrati predetta (ESS) e la somma dei quadrati totale
(TSS). Ulteriormente, può essere scritta come frazione della varianza non spiegata da X con la
somma dei quadrati dei residui (SSR). TSS= SSR+ESS quindi r2 è 1-RSS/TSS.

SER: errore standard della regressione, stima la deviazione standard dell’errore di regressione u.

ASSUNZIONI DEI MINIMI QUADRATI


1. La distribuzione di u condizionata a X ha media nulla E(u|X)=0. Questo sta ad indicare che non
vi è correlazione tra l’errore e la variabile X. La distribuzione dell’errore non varia al variare di X.
2. Le osservazioni sono i.i.d
3. Gli outlier sono improbabili. X e Y hanno momenti quarti finiti e non nulli.

DISTRIBUZIONE CAMPIONARIA DEGLI STIMATORI OLS


Così come per lo stimatore media campionaria, anche gli stimatori OLS si distribuiscono
normalmente in grandi campioni, grazie al teorema limite centrale. Si può inoltre affermare che il
valore atteso degli stimatori per n grande, è pari ai parametri stessi (correttezza). La distribuzione è
quindi una normale con media beta 1 e varianza (vedi dimostrazione pag.109)

N.B: maggiore è la varianza della X, minore è quella dello stimatore beta1 (vedi grafico).

Appendice: derivazione stimatori, distribuzione campionaria, modello in scarti dalla media, media e
varianza stimatore beta1.

Capitolo 5: Regressione con un singolo regressore: verifica d’ipotesi e intervalli di confidenza

Voglio verificare l’ipotesi H0 che lo stimatore beta1 sia nullo. Devo calcolare SE di beta1
campionario, calcolare la statistica test utilizzando SE e calcolare il p-value. Se il valore della
statistica t è maggiore del valore critico bilaterale allora rifiuto l’ipotesi nulla.

omoschedasticità: se oltre alla media, anche la varianza di un errore di regressione u risulta


indipendente da X, allora l’errore si dice omoschedastico.
eteroschedasticità: un errore di regressione si dice eteroschedastico quando la misura della sua
variabilità aumenta con il variare di X. La sua varianza è condizionata a X.

Nel caso di omoschedasticità la varianza di beta1 stimato risulta semplificata e diminuisce


all’aumentare della varianza di X (vale però solo per questo tipo di errori). Inoltre, gli stimatori
OLS hanno un SE minimizzato quando gli errori risultano omoschedastici.

Potrebbero piacerti anche