Sei sulla pagina 1di 19

Regressione con un singolo regressore:

intervalli di confidenza
e verifica di ipotesi
Capitolo 5
Introduzione all’econometria
J.H. Stock, M.W. Watson
Esempio di output di stima OLS con Gretl

Model 1: OLS, using observations 1-420


Dependent variable: testscr
Heteroskedasticity-robust standard errors, variant HC1

Coefficient Std. Error t-ratio p-value


const 698.933 10.3644 67.44 <0.0001 ***
str - 2.27981 0.519489 - 4.389 <0.0001 ***

Mean dependent var 654.1565 S.D. dependent var 19.05335


Sum squared resid 144315.5 S.E. of regression 18.58097
R-squared 0.051240 Adjusted R-squared 0.048970
F(1, 418) 19.25943 P-value(F) 0.000014
Log-likelihood - 1822.250 Akaike criterion 3648.499
Schwarz criterion 3656.580 Hannan-Quinn 3651.693

2
෡𝟏
Lo standard error di 𝜷
• A posteriori (dopo aver rilevato il campione) 𝛽መ1 è solo una stima del
valore effettivo di 𝛽1 NON il suo valore effettivo

• A priori (prima aver rilevato il campione) è una variabile casuale,


perchè assume valori variabili al variare del campione.

• Lo standard error di 𝛽መ1 , 𝑺𝑬(𝜷


෡ 𝟏 ), è una stima di quanto variano
mediamente da 𝛽1 i valori di 𝛽መ1

• 𝑆𝐸(𝛽መ1 ) è fondamentale per calcolare intervalli di confidenza e fare


test su 𝛽መ1

3
Nozioni generali sugli intervalli di confidenza

• La stima è un valore plausibile per il parametro ignoto

• L’intervallo di confidenza è un intervallo di valori plausibili per


il parametro ignoto

• L’intervallo viene definito con un livello di fiducia (1 − 𝛼)


detto confidenza

• La confidenza corrisponde alla percentuale di volte che


l’intervallo include il valore effettivo del parametro al variare
del campione

4
Premessa!

Quanto segue, assume che sia applicabile il Teorema Centrale del


limite, ovvero:
• Valgono le Assunzioni 2, 3
• La numerosità del campione è abbastanza elevata (𝑛 > 100)

Se questo avviene allora le stime 𝛽መ1 hanno approssimativamente


Distribuzione Normale

5
Intervalli di confidenza del parametro 𝜷𝟏
Procedura:

1. Si fissa un livello di confidenza 1 − 𝛼

2. Si determina il corrispondente percentile 𝑧𝛼/2 della normale std.

3. Si calcolano gli estremi dell’intervallo utilizzando 𝛽መ1 e 𝑆𝐸 𝛽መ1 :


𝐶𝐼 𝛽1 1−𝛼
෡ 𝟏 − 𝒛𝜶/𝟐 𝑺𝑬 𝜷
= 𝜷 ෡𝟏 ෡ 𝟏 + 𝒛𝜶/𝟐 𝑺𝑬 𝜷
; 𝜷 ෡𝟏

Nota: Non sono sicuro che l’intervallo contenga 𝛽1 , ho solo un grado


di fiducia detto confidenza!

6
Esempio dal testo
• 𝛽መ1 = −2,28 𝑆𝐸(𝛽መ1 ) = 0,52

• 1 − 𝛼 = 90% ⇒ 𝑧𝛼/2 = 1,64 ⇒ 𝐶𝐼 𝛽1 0,90 = −3,14 ; −1,42

• 1 − 𝛼 = 95% ⇒ 𝑧𝛼/2 = 1,96 ⇒ 𝐶𝐼 𝛽1 0,95 = −3,3 ; −1,26


• 1 − 𝛼 = 99% ⇒ 𝑧𝛼/2 = 2,56 ⇒ 𝐶𝐼 𝛽1 0,99 = −3,62 ; −0,94

N.B. Al crescere della confidenza si allarga l’intervallo

7
Intervallo di confidenza per l’effetto
• Δ𝑌෠ = 𝛽෠1 ∙ Δ𝑋 è la stima puntuale dell’effetto su 𝑌 di Δ𝑋

• La stima intervallare dell’effetto è per analogia:

𝐶𝐼 Δ𝑌 1−𝛼 = Δ𝑋 𝛽෠1 ± 𝑧𝛼 𝑆𝐸 𝛽෠1

Esempio per Δ𝑋 = −2 e confidenza al 95% sui dati precedenti:

−2 −3,3 − 1,26 ⇒ 2,52 6,6


Quindi:
• l’effetto di una riduzione di 2 studenti per insegnante produce un effetto positivo su Y che
dovrebbe andare da 2,52 a 6,6 punti in più nella media di fine anno
• Lo dico con fiducia al 95% !!!

8
Test di significatività

• Consiste nel verificare un’ipotesi, detta ipotesi nulla 𝐻0 ,


contro un’ipotesi alternativa 𝐻1 .

Esempio: 𝐻0 : 𝛽1 = 𝛽1,0 𝐻1 : 𝛽1 ≠ 𝛽1,0


dove 𝛽1,0 è un valore ipotizzato (di solito 𝛽1,0 = 0)

• L’ipotesi nulla viene rifiutata se non è abbastanza significativa

• Esistono diversi approcci per fare ciò, noi considereremo:


‘‘Test con p-value’’

9
Test basati sul p-value:
• Il 𝑝-𝑣𝑎𝑙𝑢𝑒 è una misura che varia tra 0 e 1:

o 𝑝-𝑣𝑎𝑙𝑢𝑒 = 1 𝑠𝑒 |𝛽መ1𝑎𝑐𝑡 − 𝛽1,0 | = 0

o 𝑝-𝑣𝑎𝑙𝑢𝑒 → 0 𝑠𝑒 𝛽መ1𝑎𝑐𝑡 − 𝛽1,0 → ∞

• 𝛽መ1𝑎𝑐𝑡 è il valore osservato ‘‘a posteriori’’ di 𝛽መ1

• Il 𝑝-𝑣𝑎𝑙𝑢𝑒 indica quanto, dopo osservato 𝛽መ1𝑎𝑐𝑡 , è significativa l’ipotesi nulla


• Si rifiuta 𝐻0 : 𝛽1 = 𝛽1,0 se: 𝑝-𝑣𝑎𝑙𝑢𝑒 < 𝛼
• 𝛼 è detta soglia di significatività del test

10
p-value e tipi di test
Il calcolo del p-value dipende dall’ipotesi alternativa, ovvero dal tipo di test.

Le tipologie di test sono:

• Bilaterale (a due code) se: 𝐻0 : 𝛽1 = 𝛽1,0 𝐻1 : 𝛽1 ≠ 𝛽1,0

• Unilaterale a coda destra se: 𝐻0 : 𝛽1 = 𝛽1,0 𝐻1 : 𝛽1 > 𝛽1,0

• Unilaterale a coda sinistra se: 𝐻0 : 𝛽1 = 𝛽1,0 𝐻1 : 𝛽1 < 𝛽1,0

11
Calcolo del p-value
Il calcolo del p-value presuppone il calcolo del rapporto:
𝛽መ1𝑎𝑐𝑡 − 𝛽1,0
𝑡 𝑎𝑐𝑡 =
𝑆𝐸(𝛽መ1 )
f(z)

Nel test bilaterale a due code:


𝑝 − 𝑣𝑎𝑙𝑢𝑒 = 𝑃 𝑡 > 𝑡 𝑎𝑐𝑡

+𝑃 𝑡 < − 𝑡 𝑎𝑐𝑡

-6 -4 −|𝑡 𝑎𝑐𝑡
-2 | 0 |𝑡2𝑎𝑐𝑡 | 4 6

N.B. 𝑡 è la variabile di tutti i possibili valori che può assumere 𝑡 𝑎𝑐𝑡 se 𝐻0 è vera.
Se 𝑛 > 100 allora 𝑡 ≈ 𝑍~𝑁 0,1
12
Calcolo del p-value con test unilaterale coda destra
Il test unilaterale a coda destra: 𝐻0 : 𝛽1 = 𝛽1,0 𝐻1 : 𝛽1 > 𝛽1,0

comporta il calcolo del 𝑝 − 𝑣𝑎𝑙𝑢𝑒 = 𝑃 𝑡 > 𝑡 𝑎𝑐𝑡


f(z)

N.B. Se 𝑛 > 100 allora 𝑡 ≈ 𝑍~𝑁 0,1 ⟶

-6 -4 -2 0 2 4 6

13
Calcolo del p-value con test unilaterale coda sinistra
Il test unilaterale a coda destra: 𝐻0 : 𝛽1 = 𝛽1,0 𝐻1 : 𝛽1 < 𝛽1,0

comporta il calcolo del 𝑝 − 𝑣𝑎𝑙𝑢𝑒 = 𝑃 𝑡 < 𝑡 𝑎𝑐𝑡


f(z)

N.B. Se 𝑛 > 100 allora 𝑡 ≈ 𝑍~𝑁 0,1 ⟶

-6 -4 -2 0 2 4 6

14
Output di Gretl (o altro software)
Model 1: OLS, using observations 1-420
Dependent variable: testscr
Heteroskedasticity-robust standard errors, variant HC1

Coefficient Std. Error t-ratio p-value


const 698.933 10.3644 67.44 <0.0001 ***
str - 2.27981 0.519489 - 4.389 <0.0001 ***

Mean dependent var 654.1565 S.D. dependent var 19.05335


Sum squared resid 144315.5 S.E. of regression 18.58097
R-squared 0.051240 Adjusted R-squared 0.048970
F(1, 418) 19.25943 P-value(F) 0.000014
Log-likelihood - 1822.250 Akaike criterion 3648.499
Schwarz criterion 3656.580 Hannan-Quinn 3651.693

• Di default i software statistici riportano il test per 𝐻0 : 𝛽𝑗 = 0 𝐻1 : 𝛽𝑗 ≠ 0


• ∗∗∗ ⇔ 𝑝 − 𝑣𝑎𝑙𝑢𝑒 < 1%
• ∗∗ ⇔ 1% < 𝑝 − 𝑣𝑎𝑙𝑢𝑒 < 5%
• ∗ ⇔ 5% < 𝑝 − 𝑣𝑎𝑙𝑢𝑒 < 10%
• 𝑛𝑒𝑠𝑠𝑢𝑛 ∗ ⇔ 𝑝 − 𝑣𝑎𝑙𝑢𝑒 > 10%
15
Riassumendo:

• Con il p-value posso decidere se accettare o rifiutare l’ipotesi 𝐻0


• Tendenzialmente:
a) ∗∗∗ 𝑜 ∗∗ ⇒ 𝑅𝑖𝑓𝑖𝑢𝑡𝑜 𝐻0 ⇒ 𝑐𝑜𝑛𝑠𝑖𝑑𝑒𝑟𝑜 𝑎𝑡𝑡𝑒𝑛𝑑𝑖𝑏𝑖𝑙𝑒 𝛽መ1𝑎𝑐𝑡
b) ∗ ⇒ 𝑅𝑖𝑓𝑖𝑢𝑡𝑜 𝑐𝑜𝑛 𝑟𝑖𝑠𝑒𝑟𝑣𝑎 𝑞𝑢𝑎𝑙𝑐ℎ𝑒 𝑑𝑢𝑏𝑏𝑖𝑜 𝐻0 ⇒
𝑐𝑜𝑛𝑠𝑖𝑑𝑒𝑟𝑜 𝑎𝑡𝑡𝑒𝑛𝑑𝑖𝑏𝑖𝑙𝑒 𝑐𝑜𝑛 𝑟𝑖𝑠𝑒𝑟𝑣𝑎 𝛽መ1𝑎𝑐𝑡
c) 𝑛𝑒𝑠𝑠𝑢𝑛 ∗ ⇒ 𝐴𝑐𝑐𝑒𝑡𝑡𝑜 𝐻0 ⇒ 𝑐𝑜𝑛𝑠𝑖𝑑𝑒𝑟𝑜 𝛽1 = 𝛽1,0
𝑎𝑛𝑐ℎ𝑒 𝑠𝑒 𝛽መ1𝑎𝑐𝑡 ≠ 𝛽1,0

16
Regressione quando X è binaria

Esempio: 𝑌𝑖 = 𝛽0 + 𝛽1 𝐷𝑖 + 𝑢𝑖

1 𝑠𝑒 𝑆𝑇𝑅𝑖 < 20 𝑐𝑙𝑎𝑠𝑠𝑖 𝑝𝑖𝑐𝑐𝑜𝑙𝑒


𝐷𝑖 = ቊ
0 𝑠𝑒 𝑆𝑇𝑅𝑖 ≥ 20 (𝑐𝑙𝑎𝑠𝑠𝑖 𝑚𝑒𝑑𝑖𝑜 − 𝑔𝑟𝑎𝑛𝑑𝑖)

Cosa indicano 𝛽0 𝑒 𝛽1 in questo caso?

• Quando 𝐷𝑖 = 0 ⇒ 𝑌𝑖 = 𝛽0 + 𝑢𝑖 ⇒ 𝐸 𝑌𝑖 𝐷𝑖 = 0 = 𝛽0

• Quando 𝐷𝑖 = 1 ⇒ 𝑌𝑖 = 𝛽0 + 𝛽1 + 𝑢𝑖 ⇒ 𝐸 𝑌𝑖 𝐷𝑖 = 1 = 𝛽0 + 𝛽1

• Quindi: 𝛽1 = 𝐸 𝑌𝑖 𝐷𝑖 = 1 − 𝐸 𝑌𝑖 𝐷𝑖 = 0

• 𝛽1 viene in questo caso detto effetto del trattamento ‘‘classi piccole’’

17
Eteroschedasticità e omoschedasticità

• l’errore 𝑢𝑖 è omoschedastico se 𝑉𝑎𝑟 𝑢𝑖 𝑋𝑖 = 𝜎 2


• l’errore 𝑢𝑖 è eteroschedastico se 𝑉𝑎𝑟 𝑢𝑖 𝑋𝑖 = 𝜎𝑋2𝑖

Esempio di eteroschedasticità

18
Cosa comporta l’omoschedasticità
• Le formule degli stimatori OLS di 𝛽0 𝑒 𝛽1 non cambiano
• Cambiano le formule per 𝑆𝐸(𝛽መ0 ) e 𝑆𝐸(𝛽መ1 )
• Le statistiche 𝑡 𝑎𝑐𝑡 cambiano (cambiano i denominatori).
• Assumere l’omoschedasticità può portare a decisioni differenti nei test
• L’omoschedasticità implica una situazione più particolare, che andrebbe
ragionata e non data per scontata!!!
• Gli 𝑆𝐸( ) utilizzati assumendo l’eteroschedasticità sono detti robusti perché
devono valere in una situazione più generale.
• Di default noi assumiamo l’eteroschedasticità, però la maggiorparte dei software
(Gretl compreso) fa il contrario. Pertanto se si vogliono stime ‘‘robuste’’ bisogna
impostarle!

19

Potrebbero piacerti anche