Capitolo 1: Introduzione
L’econometria si basa sull’utilizzo di dati per stimare gli effetti causali di alcune variabili su altre.
Utilizza i dati statistici per misurare nell’ambito economico e politico, la magnitudine quantitativa
degli effetti causali. Se riduco la dimensione di una classe, quali saranno gli effetti sul testscr?
I dati utilizzati sono prettamente non sperimentali (osservazionali), raccolti tramite indagini
campionarie. I dati sperimentali e non si dividono in: sezionali, temporali e data panel.
L’econometria si occupa in particolare di studiare:
1. effetto delle variabili omesse
2. causalità simultanea
3. “correlation does not imply causation”
I dati sezionali osservano diverse entità per un solo periodo di tempo, i dati temporali invece
osservano una sola entità in momenti diversi, i data panel osservano entità diverse in più momenti.
Popolazione (N): collettivo di interesse, generalmente preso molto grande e che tende a
infinito
Y: variabile dipendente che assume certi valori con una data probabilità
Distribuzione di probabilità: probabilità di verificarsi di certi valori di Y nella
popolazione. La distribuzione di probabilità cumulata è indicata come c.d.f o funzione di
ripartizione (si usa con le variabili casuali discrete). La p.d.f o funzione di densità è lo stesso
concetto ma applicato alle variabili casuali continue.
media µy = E(y) è il valore medio che assume Y o che ci si aspetta
varianza (sigma 2): fornisce una misura di quanto le tutte le unità osservate differiscano
dalla media E(Y-µy)2
deviazione standard (radice della varianza)
E(Y −µ y )3
skewness misura l’asimmetria di una distribuzione. Se è pari a 0 allora la
σy 3
distribuzione risulta simmetrica, se > 0 ha una lunga coda a dx, se < 0 a sx. Quando è 0
risulta simmetrica perché per valori di Y sopra la media ce ne sono altrettanti al di sotto, che
rendono tale la distribuzione. Il numeratore sarà quindi zero e annulla tutto.
E(Y −µ y )4
curtosi misura quanto sono spesse le code della distribuzione. Misura quanto la
σy 4
varianza di Y derivi dai suoi valori estremi (outliers). Maggiore è la curtosi, più probabili
sono gli outliers. La curtosi non può essere negativa. Inoltre, una distribuzione normale ha
curtosi pari a 3. Con curtosi > 3, la distribuzione si dice leptocurtica.
covarianza: E[(X-µx)(Y-µy)] = σ xy è una misura del grado di concordanza tra due caratteri
quantitativi nel caso questi siano distribuiti congiuntamente, indica quanto due variabili si
muovono assieme. Quando sia X e Y tendono ad essere maggiori (minori) della propria
media, la correlazione sarà positiva. Se invece si muovono in direzioni opposte la cov sarà
negativa. Nel caso di caratteri indipendenti, cov = 0.
correlazione rXY: è rapporto tra la cov(X,Y) e il prodotto tra le singole deviazioni standard.
Risolve il problema dell’unità di misura della covarianza. Se 0 allora sono incorrelate, se 1
perfettamente correlate positivamente, se -1 perfettamente correlate negativamente. Se E(Y|
X) = µy allora cov(Y,X) = 0 e corr(Y,X) = 0.
Distribuzioni di probabilità
1. Distribuzione normale
La variabile casuale continua ha una funzione di densità a forma campanulare, simmetrica attorno
alla sua media µ (skewness pari a 0) e varianza σ 2, concentra il 95% della sua probabilità tra µ-1,96
e µ+1,96. La distribuzione normale standard ha in particolare media 0 e varianza 1: N(0,1). Una
variabile casuale normale viene indicata con Z e la sua funzione di ripartizione con simbolo greco
per una costante.
es. se Y si distribuisce N(1,4) e voglio verificare la probabilità che Y≤2, devo standardizzarla e
lavorare con Z. La standardizzazione si fa sottraendo a Y la sua media e dividendo per la sua
deviazione standard. Ottengo ½(Y-1) con N(0,1). Voglio verificare che ½(Y-1) ≤ ½(2-1) ovvero
minore di ½. Qual è la probabilità che Z sia inferiore a 0,5? Verifico sulle tavole e trovo 0,691 (area
ombreggiata sotto la normale e prima del valore 0,5).
Nel caso di due caratteri casuali congiuntamente distribuiti si parla di distribuzione normale
bivariata, o multivariata nel caso di più caratteri. Ha tre importanti proprietà:
- se X e Y hanno una normale bivariata con covarianza sigma xy e se a e b sono due costanti,
allora aX+bY si distribuisce come una normale.
- se un gruppo di variabili hanno dis. normale multivariata, allora la distribuzione marginale
di ciascuna delle variabili è normale
- se le variabili hanno covarianza nulla, sono indipendenti
3. Distribuzione chi-quadro
È la somma dei quadrati di m variabili casuali indipendenti, ognuna con distribuzione normale
standard. m è anche il numero di gradi di libertà della distribuzione.
4. Distribuzione t di Student
È il rapporto di due variabili casuali indipendenti la prima delle quali una N(0,1) mentre l’altra è la
radice quadrata di una variabile casuale chi-quadrato con m gradi di libertà divisa per m. Questa
distribuzione si indica con tm . La t di Student è a forma campanulare ma quando m è piccolo (20 o
meno) ha code più pesanti rispetto alla normale.
Campionando casualmente, otteniamo una media cosiddetta campionaria, indicata con Y , anch’essa
con una distribuzione di probabilità. La media campionaria è la media del campione ossia la
sommatoria di tutte le osservazioni campionarie Yi divise per il numero di osservazioni. La
distribuzione di media campionaria misura la probabilità associata ai valori di Y che possono essere
calcolati per diversi campioni possibili.
N.B: la media campionaria viene usata per stimare µy, in quanto minimizza la somma degli scarti al
quadrato tra Yi e lo stimatore m (stimatore dei minimi quadrati), ossia minimizza la distanza tra
media campionaria e osservazioni campionarie. È lo stimatore con minor varianza tra tutti gli
stimatori non distorti della media µ e fornisce il miglior adattamento ai dati.
Supponiamo che H0= µy = 20. Dal calcolo dei dati ottengo una media Yact di 22.64. Il p-value mi
indica la probabilità di ottenere un valore di media campionaria che si discosta da H0 almeno
quanto Yact. Se il p-value è pari a 0.5, questa sarà la probabilità di aver estratto un campione che si
discosta da H0 tanto quanto l’altro. Come vediamo è un valore molto basso, il che mi permette di
rifiutare l’ipotesi nulla con significatività del 5%. Per calcolare il p-value è necessario conoscere la
distribuzione della Y campionaria e la varianza sotto l’ipotesi nulla.
La retta di regressione costruita con il metodo dei minimi quadrati ordinari prende il nome di retta
di regressione campionaria, i valori di Y trovati basandosi su questa retta prendono il nome di valori
predetti, l’errore predetto (residuo).
Perché usare lo stimatore OLS? Perché è corretto, consistente ed efficiente.
SER: errore standard della regressione, stima la deviazione standard dell’errore di regressione u.
N.B: maggiore è la varianza della X, minore è quella dello stimatore beta1 (vedi grafico).
Appendice: derivazione stimatori, distribuzione campionaria, modello in scarti dalla media, media e
varianza stimatore beta1.
Voglio verificare l’ipotesi H0 che lo stimatore beta1 sia nullo. Devo calcolare SE di beta1
campionario, calcolare la statistica test utilizzando SE e calcolare il p-value. Se il valore della
statistica t è maggiore del valore critico bilaterale allora rifiuto l’ipotesi nulla.