Sei sulla pagina 1di 150

MANUALE E-VIEWS

(Cinque esercitazioni commentate)

Alessia Paccagnini 1

Maggio 2008

1) Introduzione a Eviews: creare workfiles, statistiche descrittive e


regressione lineare
2) Test d’ipotesi sui parametri
3) Eteroschedasticità: GLS e test
4) Test di Ramsey, variabili dummy (test di Chow) e previsioni
5) Modelli dinamici, radice unitaria e cointegrazione

1
Ringrazio innanzitutto la Professoressa Barbara Chizzolini per i sui preziosi suggerimenti, nella redazione di queste
note. Ringrazio inoltre per la collaborazione nella preparazione di questi appunti, Paolo Bianchi, Claudia Foroni e
Mario Porqueddu, che sono stati con me esercitatori per il corso di Economia Applicata all’Università Bocconi di
Milano.
PRIMA ESERCITAZIONE

Introduzione
Nella prima parte dell’esercitazione, genereremo ed analizzeremo dei dati simulati, ovvero dei dati
estratti da una variabile aleatoria.

PARTE PRIMA: ESERCIZIO CON DATI SIMULATI

1.1 Creare un workfile


Il primo passo è la creazione del workfile, ovvero del foglio di lavoro che contiene tutte le variabili
che sono oggetto dell’analisi e le regressioni stimate.
Cliccando su NEW/WORKFILE, otteniamo la seguente schermata e nel nostro caso, creiamo un
workfile UNDATED, ovvero senza precisare se i dati sono annuali, mensili, trimestrali.

2
Ecco il nostro workfile. Contiene solamente 2 elementi vuoti: c (che sarà destinata a raccogliere i
coefficienti stimati nell’ultima regressione) e resid (che sarà destinata a raccogliere i residui
dell’ultima regressione). Notate che i 2 oggetti sono contraddistinti da simboli diversi: beta per c,
dato che conterrà dei coefficienti, una linea spezzata per resid, dato che conterrà una serie.

Se volessimo salvare il WORFILE, clicchiamo sul tasto SAVE e salviamo nella nostra cartella di
lavoro dandone un nome. Ricordate: quando lavorate con EViews non dimenticatevi di salvare i
workfile e gli oggetti creati!
Notate l’indicazione di RANGE e di SAMPLE. Il RANGE è l’ampiezza del vostro workfile, è la
capacità massima di lunghezza delle serie che potete creare od importare; invece, SAMPLE, è il
campione selezionato per le vostre analisi. Cliccando sopra queste righe possiamo modificare sia
RANGE che SAMPLE. Provate.

3
N.B: Se volete creare un workfile undated, senza seguire la procedura presentata precedentemente,
potete scrivere nella banda bianca di EViews (cioè dalla Command Window) e poi lanciare invio:

4
ed otterrete lo stesso risultato!

1.2 Generare dei dati simulati

Ora siamo pronti a creare le nostre variabili digitando i comandi direttamente dalla Command
Window.

genr x1=rnd/10 Î creiamo una variabile estraendola da una distribuzione uniforme (rnd)
dividendo il numero ottenuto per 10. Siamo cioè generando 200 numeri nell’intervallo [0, 0.1] da
una distribuzione per cui tutti i numeri nell’intervallo hanno la stessa probabilità di essere estratti.

genr x2=nrnd Î creiamo una variabile estraendola da una distribuzione normale (nrnd): la
nostra serie X2 sarà distribuita come una N(0,1).

genr x3=10*nrnd+2 Î creiamo una variabile estraendola da una distribuzione N(0,1) (nrnd)
moltiplicata per 10 ed aggiungendo 2, ovvero da una N(2,100).

N.B. Il programma utilizza degli algoritmi che creano delle serie pseudo-aleatorie, quindi ogni volta
otterrete delle serie diverse. Ma dato che si tratta di algoritmi se si fissa un punto di partenza, si
possono ottenere sempre gli stessi risultati digitando prima dell’estrazione (per esempio):
rndseed 123456

Ora analizziamo le 3 serie assieme:

5
Proviamo a fare il grafico delle serie:

6
Possiamo copiare il grafico ed incollarlo sul nostro foglio word:

30

20

10

-10

-20

-30
25 50 75 100 125 150 175 200

X1 X2 X3

Possiamo salvare il grafico come oggetto all’interno del nostro workfile usando il tasto FREEZE

e possiamo dare un nome al grafico creato salvandolo nel workfile.

7
Possiamo anche visualizzare le serie in tre grafici separati:

X1
.12

.10

.08

.06

.04

.02

.00
25 50 75 100 125 150 175 200

X2
3

-1

-2

-3
25 50 75 100 125 150 175 200

X3
30

20

10

-10

-20

-30
25 50 75 100 125 150 175 200

8
1.3 Statistiche descrittive
Ora proviamo a svolgere delle statistiche descrittive:

Possiamo salvare l’output delle statistiche con FREEZE e poi copiarle in word.

X1 X2 X3
Mean 0.051261 0.045885 2.715546
Median 0.046849 0.045040 3.959681
Maximum 0.099526 3.394216 23.38242
Minimum 0.000978 -2.972108 -22.50636
Std. Dev. 0.028879 1.045447 9.871434
Skewness 0.034070 0.062960 -0.340268
Kurtosis 1.793384 3.418079 2.662926

Jarque-Bera 12.17138 1.588713 4.806246


Probability 0.002275 0.451872 0.090435

Sum 10.25224 9.176958 543.1092


Sum Sq. Dev. 0.165965 217.4990 19391.60

Observations 200 200 200

Osserviamo media, mediana, massimo e minimo delle serie (per esempio x1 compreso tra 0 e 0.1
con media vicina a 0.05) e la standard deviation (in futuro analizzeremo anche le altre statistiche).

9
Se vogliamo controllare le correlazioni tra le 3 serie:

Copiando la matrice:

1 -0.0829256 0.037741
-0.0829256 1 -0.07571
0.037741 -0.07571 1

Notiamo che la correlazione tra le serie è prossima a 0, dato che si tratta di serie estratte
indipendentemente una dall’altra.

Se vogliamo analizzare SOLO una serie, basta cliccare sopra di essa:

10
Ecco il grafico

.12

.10

.08

.06

.04

.02

.00
25 50 75 100 125 150 175 200

X1

Ecco le statistiche descrittive:

12
Series: X1
Sample 1 200
10
Observations 200

8 Mean 0.051261
Median 0.046849
6 Maximum 0.099526
Minimum 0.000978
Std. Dev. 0.028879
4 Skewness 0.034070
Kurtosis 1.793384
2
Jarque-Bera 12.17138
Probability 0.002275
0
0.000 0.025 0.050 0.075 0.100

Notiamo in questo caso che ci troviamo davanti ad una distribuzione uniforme, mentre se andate e
vedere x2 e x3 avreste la tipica forma “a campana” di una distribuzione gaussiana.

11
1.4 La regressione
Ora creiamo la variabile dipendente per le prime 4 osservazioni (senza errore) e per le altre 196
osservazioni (con errore):

smpl 1 4
genr y=5+6*x1+7*x2+8*x3
smpl 5 200
genr y=5+6*x1+7*x2+8*x3+nrnd

Ora siamo pronti ad eseguire la prima regressione (per le prime quattro osservazioni), scrivendo ls
(least square) variabile dipendente costante e variabili esplicative.

ls y c x1 x2 x3

Dependent Variable: Y
Method: Least Squares
Sample: 1 4
Included observations: 4

Variable Coefficient Std. Error t-Statistic Prob.

C 5.000000 NA NA NA
X1 6.000000 NA NA NA
X2 7.000000 NA NA NA
X3 8.000000 NA NA NA

R-squared 1.000000 Mean dependent var -31.35245


S.D. dependent var 116.9031 Sum squared resid 1.41E-27
Durbin-Watson stat 1.857143

Questa regressione è anomala: non otteniamo le stime per gli standard errors e quindi per la t-
statistic. Inoltre R-squared è pari ad 1. Questo accade perché il numero delle osservazioni è uguale
al numero dei regressori: abbiamo un problema di gradi di libertà. In questo caso i parametri stimati
sono identici a quelli del modello, perché non avevamo errori.
Se effettuiamo la stessa regressione sulle ultime 4 osservazioni otteniamo:

Date: 02/27/07 Time: 16:53


Sample: 197 200
Included observations: 4

Variable Coefficient Std. Error t-Statistic Prob.

C 2.969870 NA NA NA
X1 8.217347 NA NA NA
X2 7.017458 NA NA NA
X3 7.994076 NA NA NA

R-squared 1.000000 Mean dependent var 31.66771


S.D. dependent var 97.48937 Sum squared resid 8.53E-27

12
In questo caso otteniamo dei valori diversi da quelli del modello originale.
Se noi aggiungessimo altri 196 regressori nella regressione riguardante tutto il campione,
otterremmo lo stesso risultato, ma sicuramente delle stime molto diverse rispetto all’originale.
Quindi dobbiamo stare attenti ai gradi di libertà: se abbiamo poche osservazioni non possiamo avere
molti regressori, perché otterremmo dei risultati sbagliati.

Ora proviamo ad ampliare il campione:


smpl 1 200
Eseguiamo la seguente regressione:

ls y c

Dependent Variable: Y
Method: Least Squares
Sample: 1 200
Included observations: 200

Variable Coefficient Std. Error t-Statistic Prob.

C 21.20868 5.338218 3.972989 0.0001

R-squared 0.000000 Mean dependent var 21.20868


Adjusted R-squared -0.000000 S.D. dependent var 75.49381
S.E. of regression 75.49381 Akaike info criterion 11.49097
Sum squared resid 1134164. Schwarz criterion 11.50746
Log likelihood -1148.097 Durbin-Watson stat 2.136914

In questo caso notiamo che Rsquared è pari a zero, dato che stiamo regredendo la variabile
dipendente solamente sulla costante. Ciò succede perché In questo caso C è pari alla media della
variabile dipendente, quindi la somma dei quadrati spiegati (Explained Sum of Squares) è pari a 0

Ora svolgiamo la regressione su tutto il campione e notiamo come le stime siano molto simili a
quelle del modello originale:

ls y c x1 x2 x3

Dependent Variable: Y
Method: Least Squares
Sample: 1 200
Included observations: 200

Variable Coefficient Std. Error t-Statistic Prob.

C 4.965727 0.128479 38.65019 0.0000


X1 5.546253 2.305093 2.406086 0.0171
X2 6.965102 0.065361 106.5642 0.0000
X3 7.998569 0.007041 1136.079 0.0000

13
Se vogliamo rifare la regressione senza x1 ed x2 possiamo semplicemente digitare:

ls y c x3

O per cambiare regressori, possiamo cliccare su EQUATION e poi nella finestra modificare la
nostra scelta :

Dependent Variable: Y
Method: Least Squares
Sample: 1 200
Included observations: 200

Variable Coefficient Std. Error t-Statistic Prob.

C 5.718997 0.520056 10.99688 0.0000


X3 7.965104 0.054115 147.1891 0.0000

R-squared 0.990943 Mean dependent var 21.20868


Adjusted R-squared 0.990898 S.D. dependent var 75.49381
S.E. of regression 7.202554 Akaike info criterion 6.796698
Sum squared resid 10271.60 Schwarz criterion 6.829681
Log likelihood -677.6698 F-statistic 21664.64
Durbin-Watson stat 1.937962 Prob(F-statistic) 0.000000

Il coefficiente stimato per x3 è pari 7.965, ciò significa che all’aumentare di x3 di un’unità, y
aumenterà di 7.965; esso rappresenta l’impatto, la variazione marginale di x3 su y, possiamo
∂E ( y | X )
vederlo come una derivata . Il parametro è simile a quello ottenuto nella regressione
∂x3
precedente, perché i regressori sono quasi ortogonali (basti pensare alla loro correlazione).

14
Il coefficiente stimato per la costante è pari a 5.718, ciò rappresenta come varia y quando x3=0.
Possiamo rappresentate il modello sopra stimato come una retta nel piano, dove la stima della
costante è l’intercetta e la stima di x3 è la pendenza della retta.
Tornando alla regressione precedente:
Dependent Variable: Y
Method: Least Squares
Sample: 1 200
Included observations: 200

Variable Coefficient Std. Error t-Statistic Prob.

C 4.965727 0.128479 38.65019 0.0000


X1 5.546253 2.305093 2.406086 0.0171
X2 6.965102 0.065361 106.5642 0.0000
X3 7.998569 0.007041 1136.079 0.0000

R-squared 0.999849 Mean dependent var 21.20868


Adjusted R-squared 0.999846 S.D. dependent var 75.49381
S.E. of regression 0.935601 Akaike info criterion 2.724542
Sum squared resid 171.5684 Schwarz criterion 2.790508
Log likelihood -268.4542 F-statistic 431824.6
Durbin-Watson stat 2.058369 Prob(F-statistic) 0.000000

Ora i coefficienti possono essere visti come una variazione marginale della variabile indipendente
in questione, mantenendo fisse le altre variabili esplicative.
Ad esempio, il coefficiente di x3 pari a 7.998, può essere inteso come varia y ad una variazione
unitaria di x3, mentendo x1, x2 fisse. Quindi, possono essere considerati come derivate parziali:
∂E ( y | X )
.
∂x3
Fino ad ora siamo interessati al segno del coefficiente ed alla sua grandezza.
Considerando la bontà del modello, prendiamo in considerazione il coefficiente di determinazione,
esso può essere compreso tra 0 ed 1 (vedi esempi precedenti):

ESS RSS
R2 = = 1−
TSS TSS

Attenzione, il coefficiente di determinazione aumenta all’aumentare delle variabili esplicative


introdotte nella stima del modello, quindi dobbiamo pesare questa stima considerano le osservazioni
ed i regressori usati nella stima, ottenendo un coefficiente aggiustato:

− 2 RSS / T − k T −1
R = 1− = 1− (1 − R 2 )
TSS / T − 1 T −k
Ricordate che R Squared non deve essere usato come misura di confronto di diversi modelli con
diverse variabili indipendenti!
Ora proviamo a costruire i valori che vediamo nell’output a mano.

Ricordate che in EViews potete svolgere le stesse operazioni di una calcolatrice:

T
scalar ssr= @inner(resid,resid) Î S = ∑ eˆt2
t =1

15
Usando il comando scalar possiamo creare uno scalare, ovvero un oggetto che racchiude un valore
che possiamo controllare ogni volta cliccando sopra l’icona, il valore comparirà in basso nella
banda marrone. In questo caso calcoliamo il quadrato dei residui, usando @inner, calcoliamo il
prodotto tra i 2 vettori di residui In questo caso il risultato è pari a
Sum squared resid 171.5684

Notate che ora avete creato uno scalare all’interno del workfile, contraddistinto dal simbolo di
cancelletto. Cliccate sopra l’oggetto e vedrete comparire il suo valore nella barra in basso:

Ora calcoliamo la stima dello standard error della regressione, pari alla radice quadrata corretta per
i gradi di libertà T-k =200-4=196 .

eˆ' eˆ
scalar ser = @sqrt(ssr/196) Î σ̂ =
T −k

Pari a
S.E. of regression 0.935601

Ora calcoliamo la media della variabile dipendente:


T

∑y t
scalar mdv=@mean(y) Îy= t =1

Pari a
Mean dependent var 21.20868

Ora calcoliamo i Total Sum Squared:

T
scalar tss=@inner((y-mdv),(y-mdv)) Î TSS = ∑ ( y t − y ) 2
t =1

per ottenere R squared

scalar r2=1-ssr/tss
R-squared 0.999849

16
Per ottenere la standard deviation della variabile dipendente:
T

∑(y t − y) 2
scalar sddv=@sqrt(tss/199) Î s.d = t =1

T −1

la radice quadrata di TSS corretto per T-1


S.D. dependent var 75.49381

E per ottenere R squared aggiustato

scalar adjR2=1-(ser/sddv)^2
Adjusted R-squared 0.999846

Attenzione: ogni volta che rifate l’esercizio, creando di nuovo le variabili ottenute dei valori diversi,
questo dipende dal fatto che stiamo simulando le variabili estraendole da distribuzione uniforme e
normale.

Se vogliamo analizzare i residui creati dalla regressione:

Clicchiamo su RESIDS ed otteniamo il seguente grafico:

300
200

100
0
-100
2
-200
1

0
-1
-2
-3
25 50 75 100 125 150 175 200

Residual Actual Fitted

17
Sempre parlando di R quadro, ricordate che il coefficiente di determinazione è compreso tra 0 e 1
solo se nel modello stimato è compresa una costante. Provate infatti a regredire y su x2, senza
inserire la costante e vedete ciò che ottenete:

18
1.5 Regressioni parziali
Tornando alla regressione svolta, possiamo interpretare i nostri coefficienti della regressione
multipla come coefficienti di una regressione parziale.

Dependent Variable: Y
Method: Least Squares
Sample: 1 200
Included observations: 200

Variable Coefficient Std. Error t-Statistic Prob.

C 4.965727 0.128479 38.65019 0.0000


X1 5.546253 2.305093 2.406086 0.0171
X2 6.965102 0.065361 106.5642 0.0000
X3 7.998569 0.007041 1136.079 0.0000

R-squared 0.999849 Mean dependent var 21.20868


Adjusted R-squared 0.999846 S.D. dependent var 75.49381
S.E. of regression 0.935601 Akaike info criterion 2.724542
Sum squared resid 171.5684 Schwarz criterion 2.790508
Log likelihood -268.4542 F-statistic 431824.6
Durbin-Watson stat 2.058369 Prob(F-statistic) 0.000000

Cerchiamo di dimostrare che svolgendo delle regressioni parziali otteniamo il coefficiente di x1


5.546.
Regrediamo y su x2 x3 e sulla costante

ls y c x2 x3

Salviamo i residui.

19
Ora regrediamo la x1 sulla costante e su x2 x3

ls x1 c x2 x3

Salviamo i residui

Ora regrediamo i residui della prima regressione parziale sui residui della seconda regressione
parziale:

ls resy resx1

Dependent Variable: RESY


Method: Least Squares
Sample: 1 200
Included observations: 200

Variable Coefficient Std. Error t-Statistic Prob.

RESX1 5.546253 2.406409 3.030875 0.0028

R-squared 0.044125 Mean dependent var -1.19E-15


Adjusted R-squared 0.044125 S.D. dependent var 0.978445
S.E. of regression 0.956614 Akaike info criterion 2.754154
Sum squared resid 182.1070 Schwarz criterion 2.770646
Log likelihood -274.4154 Durbin-Watson stat 2.063414

Abbiamo ottenuto lo stesso coefficiente della regressione multipla!!!!

20
1.6 Regressioni con variabili trasformate
Ora proviamo a svolgere alcune trasformazioni alle variabili:

Trasformiamo prima tutte le variabili esplicative e la costante:

genr x1d=x1/10
genr x2d=x2/10
genr x3d=x3/10
genr c10=1/10

Dependent Variable: Y
Method: Least Squares
Sample: 1 200
Included observations: 200

Variable Coefficient Std. Error t-Statistic Prob.

C10 49.65727 1.28479 38.65019 0.0000


X1D 55.46253 23.05093 2.406086 0.0171
X2D 69.65102 0.65361 106.5642 0.0000
X3D 79.98569 0.07041 1136.079 0.0000

R-squared 0.999849 Mean dependent var 21.20868


Adjusted R-squared 0.999846 S.D. dependent var 75.49381
S.E. of regression 0.935601 Akaike info criterion 2.724542
Sum squared resid 171.5684 Schwarz criterion 2.790508
Log likelihood -268.4542 F-statistic 431824.6
Durbin-Watson stat 2.058369 Prob(F-statistic) 0.000000

Notiamo che sia i coefficienti stimati che gli standard error stimati sono ora 10 volte più grandi
rispetto a quelli stimati nel caso precedente. La loro interpretazione non cambia, trasformare le
variabili è un modo per riscalarle.

Ora dividiamo per 10 anche la variabile dipendente:

genr y10=y/10

Dependent Variable: Y10


Method: Least Squares
Sample: 1 200
Included observations: 200

Variable Coefficient Std. Error t-Statistic Prob.

C 0.4965727 0.0128479 38.65019 0.0000


X1 0.5546253 0.2305093 2.406086 0.0171
X2 0.6965102 0.0065361 106.5642 0.0000
X3 0.7998569 0.0007041 1136.079 0.0000

R-squared 0.999849 Mean dependent var 21.20868

21
Adjusted R-squared 0.999846 S.D. dependent var 75.49381
S.E. of regression 0.935601 Akaike info criterion 2.724542
Sum squared resid 171.5684 Schwarz criterion 2.790508
Log likelihood -268.4542 F-statistic 431824.6
Durbin-Watson stat 2.058369 Prob(F-statistic) 0.000000

In questo caso sia i coefficienti stimati che gli standard error sono divisi per 10.

22
1.7 Multicollinearità
Consideriamo ora un modello con due variabili esplicative x1 e x2 perfettamente correlate.

Generiamo quindi ad esempio una serie x4 esattamente identica alla serie x2.

genr x4=x2

poi generiamo una nuova serie per la variabile dipendente, z, nel modo seguente:

genr z=0.3*x4+0.5*x2+nrnd

Se proviamo ora ad eseguire una regressione otteniamo:

Sorprendente? No! Se le variabili esplicative sono multicollineari, la matrice X’X non ha rango
pieno e quindi non è invertibile.

In pratica, troveremo casi di elevata ma non perfetta collinearità.


Generiamo quindi una serie x5 nel seguente modo:

genr x5=x2+0.01*nrnd

genr z2=0.3*x5+0.5*x2+nrnd

Regrediamo poi z2 su x2 e x5 e otteniamo:


ls z2 c x2 x5

23
Da cosa possiamo notare che vi sono problemi di collinearità?
I test t accettano l’ipotesi nulla, mentre il test F la rifiuta.
Inoltre gli standard errors sono molto elevati (ciò è dovuto al fatto che se X ' X ≈ 0 , allora ( X ' X )
−1

avrà elementi molto elevati, così come σ 2 ( X ' X ) .


−1

Ora potete rifare tutte queste operazioni usando il programma che trovate sul learning space.

24
SECONDA PARTE: ANALISI EMPIRICA DI UNA COBB-
DOUGLAS
Ipotizziamo di dover stimare il seguente modello:

y = AK α H 1−α
y = è l’output di un certo paese
A= è un indice della produttività di quel paese
K = è il capitale fisico
H = è il capitale umano

Questa è un’espressione non lineare e può essere approssimata dal seguente modello in versione
logaritmica (con l’aggiunta di un termine d’errore):

log( y ) = log A + α log( K ) + (1 − α ) log( H ) + ε = β 0 + β1 log( K ) + β 2 log( H ) + ε

Per svolger tale stima, carichiamo dei dati dalle Penn World Tables 6.2, usando delle variabili proxy
per output, capitale fisico, per quanto riguarda il capitale umano consideriamo un altro dataset.

Ora ci concentriamo su come caricare un dataset da EXCEL ad EViews:


ci sono 2 metodi alternativi.

1)
Creiamo un workfile undated di 763 osservazioni.

create u 1 763

Poi clicchiamo su FILE - IMPORT

25
Selezioniamo il dataset in EXCEL (accertatevi che non sia aperto il dataset in EXCEL)

Ora comparirà la seguente schermata in cui dobbiamo digitare i nomi delle variabili (o il loro
numero) e da che punto partiamo dal nostro foglio EXCEL:

ecco il nostro workfile

26
Una via alternativa ed a volte più pratica (ma solo quando abbiamo poche variabili da caricare) è
quella di creare prima il workfile undated, poi con il seguente comando creiamo le variabili:

data pop k y h

Poi copiamo da EXCEL le variabili di nostro interesse.

Ora creiamo le nostre variabili in logaritmi nel seguente modo:

genr ly=log(y)
genr lk=log(k)
genr lh=log(h)

Ecco la nostra regressione :

Dependent Variable: LY
Method: Least Squares
Date: 02/28/08 Time: 23:00
Sample: 1 763
Included observations: 712

Variable Coefficient Std. Error t-Statistic Prob.

C -0.725235 0.206450 -3.512889 0.0005


LH 0.319259 0.032952 9.688649 0.0000
LK 0.118780 0.036996 3.210627 0.0014

R-squared 0.419733 Mean dependent var 2.613853


Adjusted R-squared 0.418096 S.D. dependent var 0.704060
S.E. of regression 0.537075 Akaike info criterion 1.598847

27
Sum squared resid 204.5108 Schwarz criterion 1.618095
Log likelihood -566.1895 F-statistic 256.4256
Durbin-Watson stat 1.774355 Prob(F-statistic) 0.000000

Possiamo effettuare i commenti svolti precedentemente, ma ciò che cambia ora è l’interpretazione
dei coefficienti.

Nell’esercizio precedente interpretavamo i coefficienti come effetti marginali, invece ora ci


troviamo di fronte all’elasticità.

Ovvero i coefficienti spiegano l’elasticità della variabile dipendente rispetto ad una variabile
indipendente. Per esempio se il capitale fisico aumenta dell’1%, l’output varierà dello 0.366%.
Quando si analizzano i coefficienti è importante verificare la grandezza del coefficiente stimato, il
suo segno ( positivo o negativo) che indica l’impatto positivo o negativo di una variabile esplicativa
sulla variabile dipendente e poi la sua significatività (nelle prossime lezioni!!!!).

Un’altra considerazione, se volessimo derivare l’impatto marginale la formula da usare è


coefficiente stimato * (media di y/ media di x ).

Invece nell’esercizio con dati simulati, nell’output leggevamo l’effetto marginale, se avessimo
voluto l’elasticità, avremmo dovuto calcolarlo come
Coefficiente stimato * (media di x/media di y).

Ora calcoliamo la matrice varianza e covarianza dei coefficienti stimati:

28
0.042621 -0.006341 0.004467
-0.006341 0.001086 -0.001017
0.004467 -0.001017 0.001369

Notate che sulla diagonale principale della matrice appena calcolata da EViews trovate le varianze
dei coefficienti stimati. Provate ad elevare al quadrato gli standard error dell’output della
regressione. Invece le covarianze sono calcolate considerando gli standard error ed il coefficiente di
correlazione.

29
SECONDA ESERCITAZIONE

Introduzione
In questa esercitazione, effettueremo tests t e tests F, utilizzando i dati del workfile
cobbdouglas.wf1.

Ipotizziamo di dover stimare il seguente modello:

y = AK α H β POP γ
y = è l’output di un certo paese
A = è un indice della produttività di quel paese
K = è il capitale fisico
H = è il capitale umano
POP = è la popolazione
Questa è un’espressione non lineare e può essere approssimata dal seguente modello in versione
logaritmica (con l’aggiunta di un termine d’errore):

log( y ) = log A + α log( K ) + β log( H ) + γ log( POP) + ε = β 0 + β 1 log( K ) + β 2 log( H ) + β 3 log( POP) + ε

1.3 La regressione

Dopo aver aperto il workfile cobbdouglas.wf1, dove abbiamo importato le serie da excel,
regrediamo il logaritmo del gdp reale procapite su una costante, il logaritmo del capitale umano, il
logaritmo del capitale fisico, e il logaritmo della popolazione e chiamiamo la regressione eqCB:

30
smpl @all
equation eqCB.ls ly c lh lk lpop

Dependent Variable: LY
Method: Least Squares
Sample: 1 763
Included observations: 712

Variable Coefficient Std. Error t-Statistic Prob.

C 5.823753 0.147194 39.56526 0.0000


LH 0.794021 0.026934 29.48023 0.0000
LK 0.365342 0.037512 9.739449 0.0000
LPOP -0.048208 0.013961 -3.453117 0.0006

R-squared 0.735715 Mean dependent var 9.145403


Adjusted R-squared 0.734595 S.D. dependent var 1.108048
S.E. of regression 0.570838 Akaike info criterion 1.722180
Sum squared resid 230.7061 Schwarz criterion 1.747843
Log likelihood -609.0960 F-statistic 656.9763
Durbin-Watson stat 1.781500 Prob(F-statistic) 0.000000

Vediamo la stima dei coefficienti, lo standard error e la t-statistic.

31
1.4 Il Test-t

Nella colonna t-statistic, è calcolato il test per l’ipotesi nulla che il parametro sia non significativo,
cioè uguale a 0.
Ricordiamo la formula del test-t per l’ipotesi nulla che β0=0 è la seguente:

βˆ o 5.823753
test t = = = 39.56526
σˆ βˆ
0
0.147194
Per poter calcolare tale statistica per ognuno dei parametri (per esempio la costante) dobbiamo
salvare:
1)la stima dei coefficienti,
2)la matrice di varianza-covarianza,
3)lo standard error della costante,
4)i gradi di libertà nella regressione.

Salviamo i coefficienti della regressione in un vettore:

vector CB = eqCB. @coefs


Creiamo la matrice varianza covarianza
matrix CBcov = eqCB. @cov
Potete calcolare questa matrice anche dall’equazione:

0.0216659 -0.00063579 -0.001632165 -0.001623200


-0.0006357 0.00072544 -0.000588565 -4.272641760
-0.0016321 -0.00058856 0.001407117 3.538460164
-0.0016232 -4.27264176 3.538460164 0.000194905

32
Calcoliamo lo standard error per la costante (esso si trova nella posizione 1, 1 nella matrice varianza
covarianza):
scalar stdB0 = @sqrt(CBcov(1,1))
Generiamo i gradi di libertà (con eqCB. @regobs consideriamo le osservazioni del modello di
regressione (T), invece con eqCB. @ncoef consideriamo il numero dei regressori usati nella
regressione stimata):
scalar df = eqCB. @regobs-eqCB. @ncoef
Calcoliamo il valore della t-statistic sotto ipotesi nulla, ovvero è il rapporto tra il coefficiente ed il
suo standard error (provate ad osservare l’output: prendete la stima del coefficiente della costante =
5.823753, dividete questo per lo standard error =0.147194, ottenete il valore della statistica t
=39.56526):
scalar tB0 = CB(1)/stdB0
Tale statistica è distribuita come una t di student con (T-k) gradi di libertà.
La t di student ha una funzione di densità con “code” più spesse rispetto alla normale standard, ed
ha varianza pari a df/ (df-2) dove sono i gradi di libertà (T-k).
Per un numero relativamente alto di gradi di libertà (quindi in pratica sempre per il nostro dataset),
la distribuzione tende ad una N(0,1) come si può vedere nel grafico GRAPHDISTRIBUTIONS

.45

.40

.35
DENSNORM
.30 TDENS1
TDENS5
.25 TDENS10
TDENS20
.20 TDENS50
TDENS100
.15

.10

.05
-2.5 -2.0 -1.5 -1.0 -0.5 0.0 0.5 1.0 1.5 2.0 2.5
X

GRAPHDISTRIBUTIONS

33
Il numero dopo tdens indica i gradi di libertà, densnorm è la densità della distribuzione normale. Si
nota che già con 50 gradi di libertà la t di student è molto simile alla distribuzione normale.
Tali serie sono state create con i seguenti comandi:
create u 1 1000

genr x = -2+@trend*4/1000 Î generiamo una serie da un intervallo [-2; +2]


genr cumnorm = @cnorm(x)
genr densnorm = @dnorm(x)
genr tdens1 = @dtdist(x,1)
genr tdens5 = @dtdist(x,5)
genr tdens10 = @dtdist(x,10)
genr tdens20 = @dtdist(x,20)
genr tdens50 = @dtdist(x,50)
genr tdens100 = @dtdist(x,100)
group g1 x densnorm tdens1 tdens5 tdens10 tdens20 tdens50 tdens100
g1.xyline
freeze(graph1) g1.xyline

In Eviews, per costruire le funzioni di densità, di densità cumulata, dobbiamo considerare i seguenti
comandi:
• @d per la funzione di densità
• @c per la funzione di densità cumulata
• @q è la funzione inversa di c: dato il quantile (0.9, 0.95 etc) ci dice il valore di x
E per generare i dati:
• @r genera dati casuali dalla distribuzione

Ai comandi sopra menzionati,dobbiamo aggiungere il nome della distribuzione: norm per la


distribuzione normale e tdist per la t di student.

Per ottenere il grafico sopra mostrato, seguite le istruzioni creandovi nel programma, oppure
potete considerare i seguenti passi:

1)selezionate le serie: X, densnorm, tdens1, tdens5, tdens10, tdens20, tdens50, tdens1000 ed


apritele come gruppo

34
Ora selezionate un nuovo tipo di grafico: XY line/ One X against all Y’s

35
L’Ipotesi Nulla e la regione di rifiuto
Per testare l’ipotesi nulla, Eviews riporta il p-value, cioè:
βˆ0
pvalue = Pr ob( x >| |)
s.e.( βˆ0 )
Il pvalue è la probabilità sotto l'ipotesi nulla che si ottengano statistiche t in valore assoluto
maggiori della statistica t calcolata dai dati campionari.

La figura del pvalue, in funzione di x è riportata qua sotto.


Nella tabella di Eviews “Prob” è tale funzione dove x è la t-statistic calcolata e c=0.
La figura mostra anche le serie A1=0.05 ed A2=0.025.

1.0

0.8

0.6
A1
A2
PVALUE
0.4
PVALUE2

0.2

0.0
-2.5 -2.0 -1.5 -1.0 -0.5 0.0 0.5 1.0 1.5 2.0 2.5
X

Quando queste due serie incrociano la serie pvalue (che è stata creata usando la funzione @tdist)
otteniamo i valori critici ai livelli di significatività α=0.1 ed α=0.05.
La funzione @tdist calcola il pvalue automaticamente per questo test a due code: materialmente
dovremmo moltiplicare per due la differenza tra 1 è la funzione di densità cumulata.

RICORDATE: se il pvalue calcolato da Eviews è minore del livello di significatività da voi scelto
(ad esempio, alpha=0.05), rifiutate l’ipotesi nulla; se il pvalue calcolato da Eviews è maggiore del
livello di significatività scelto, non potete rifiutare l’ipotesi nulla.

Nel nostro output, tutti i coefficienti stimati sono significativamente diversi da zero, dato che
rifiutiamo l’ipotesi nulla in tutti i casi.
scalar pvalue=@tdist(tb0,df)Î otteniamo il pvalue considerando questo comando
@tdist

Calcoliamo il pvalue con la funzione cumulata:


scalar pvalue2=2-2*@ctdist(abs(tb0),df)
36
Calcoliamo il pvalue per il quarto coefficiente (usiamo lo stesso metodo ma sostituiamo i valori
della t-statistic)
scalar pvalue4=@tdist(cb(4)/ @sqrt(CBcov(4,4)),df)

Stessa formula di pvalue2, ma con i valori sostituiti


scalar pvalue4c=2-2*@ctdist(abs(cb(4)/@sqrt(CBcov(4,4))),df)

Calcoliamo ora il test t sempre per il quarto parametro:


scalar test4b=(cb(4)+0.04)/@sqrt(CBcov(4,4))
scalar pvalue4b=@tdist(test4b,df)

1.5 Intervallo di confidenza


L’intervallo di confidenza ci da rispetto alla stima puntuale un intervallo nel quale il parametro si
dovrebbe trovare con livello di confidenza (1-α).
Se con tα / 2 e t1−α / 2 indichiamo i quantili α/2 ed (1-α/2 ) della t student, avremmo che:
βˆ − β 0
Pr ob(tα / 2 < 0 < t (1−α / 2 ) ) = (1 − α )
σˆ βˆ 0

e l’intervallo di confidenza sarà:


[βˆ0 + σˆ βˆ tα / 2 , βˆ0 + σˆ βˆ t (1−α / 2)
0 0
]
In Eviews, non troviamo indicazione sull’intervallo di confidenza nell’output, quindi dobbiamo
costruirlo a mano.

scalar cle=0.05 Î scegliamo alpha=0.05


scalar lb=cb(1)-stdb0*@qtdist(1-cle/2,df) Îlimite inferiore
scalar hb=cb(1)+stdb0*@qtdist((1-cle/2),df) Îlimite superiore

37
1.6 Il Test F:
Consideriamo un modello ristretto, facendo riferimento alla seguente ipotesi nulla:

H0 : R β = r vs H 1 : R β ≠ r
j ×k k ×1 j ×1

Il test F sarà dato dalla seguente formula:

TestF =
( ′
)[ ](
Rβˆ − r R( X ′X ) R ′ Rβˆ − r
−1 −1
)
~ F ( j, T − k )
jσˆ 2
Che può essere scritta nel seguente modo:
(RSS R − RSSU ) / j
TestF =
RSSU /(T − k )
Possiamo usare il test t per ricavare la statistica F nel caso in cui abbiamo una sola restrizione:
2
⎛ βˆ − c ⎞
TestF = t = ⎜⎜
2
⎟ .
s.eˆ.( βˆ) ⎟
⎝ ⎠
Un'altra formulazione per ricavare la statistica F è:
R 2 /( k − 1)
F=
(1 − R 2 ) /( N − k )
Ora stimiamo il seguente modello:
LY = β 0 + β 1 LH + ε t

Consideriamo la seguente regressione:

Dependent Variable: LY
Method: Least Squares
Sample: 1 763 IF YEAR=1980
Included observations: 105

Variable Coefficient Std. Error t-Statistic Prob.

C 5.854578 0.221353 26.44908 0.0000


LH 0.939357 0.061443 15.28829 0.0000

R-squared 0.694119 Mean dependent var 9.119908


Adjusted R-squared 0.691149 S.D. dependent var 1.071813
S.E. of regression 0.595653 Akaike info criterion 1.820548
Sum squared resid 36.54470 Schwarz criterion 1.871100
Log likelihood -93.57878 F-statistic 233.7319
Durbin-Watson stat 1.984009 Prob(F-statistic) 0.000000

Notate che la F-statistic è pari al quadrato della t-statistic, qui abbiamo una sola restrizione nel test
F che è la stessa del test t (15.28829^2=233.7319).

Possiamo scrivere il test F riportato nell’output di EViews con ipotesi nulla che tutti i coefficienti
stimati (oltre alla costante) siano uguali a zero, usando R^2:

In questo caso

38
0.69 /( 2 − 1)
F= ≈ 233.7319
(1 − 0.69) /(105 − 2)
Ora consideriamo il seguente modello

LY = β 0 + β 1 LH + β 2 LK + β 3 LPOP + ε t = c(1) + c(2) LH + c(3) LK + c(4) LPOP + ε t


e come ipotesi nulla:
H0:c(2)+c(3)=1

Da questo momento consideriamo solo il campione con anno 1980 e testiamo la nostra restrizione
solo su questo sottocampione:
smpl @all if year=1980
equation eqCB1980.ls ly c lh lk lpop

Dependent Variable: LY
Method: Least Squares
Sample: 1 763 IF YEAR=1980
Included observations: 105

Variable Coefficient Std. Error t-Statistic Prob.

C 5.739258 0.395949 14.49495 0.0000


LH 0.804408 0.077404 10.39231 0.0000
LK 0.301347 0.107694 2.798174 0.0062
LPOP -0.026810 0.036522 -0.734071 0.4646

R-squared 0.717227 Mean dependent var 9.119908


Adjusted R-squared 0.708828 S.D. dependent var 1.071813
S.E. of regression 0.578354 Akaike info criterion 1.780090
Sum squared resid 33.78386 Schwarz criterion 1.881193
Log likelihood -89.45474 F-statistic 85.39236
Durbin-Watson stat 1.869575 Prob(F-statistic) 0.000000

Salviamo il vettore dei coefficienti stimati della regressione e la matrice varianza e covarianza.

vector CB2=eqCB1980. @coefs


matrix CBcov2=eqCB1980. @cov

39
Ora calcoliamo il test F usando tre diversi metodi,considerando come ipotesi nulla H0:c(2)+c(3)=1:

(questa ipotesi deriva dalla teoria economica: ricordate la Cobb-Douglas Y = AK α H 1−α ( pop ) γ )

1) consideriamo il test t
Scalar ttest2=(cb2(2)+cb2(3)-
1)/@sqrt((CBcov2(2,2)+CBcov2(3,3)+2*CBcov2(2,3)))
Calcoliamo il test F
scalar ftest2=ttest2^2
Calcoliamo il pvalue (ricorda che in questo caso i gradi di libertà sono 101, 105 osservazioni meno
4 che è il numero dei regressori:
scalar pvaluew=@fdist(ftest2,1,101)
Calcoliamolo in un altro modo:
scalar pvaluew2=1-@cfdist(ftest2,1,101)
2) Calcoliamo il test F usando il modello non ristretto (stimato prima) ed il modello ristretto che
andiamo a stimare in seguito, salviamo i residual sum squared e lo standard error della regressione
del modello non ristretto:

scalar rssur=eqCB1980.@ssr
scalar seur=eqCB1980. @se
Ora stimiamo il modello ristretto sotto l’ipotesi nulla che c(2)+c(3)=1 (notate: abbiamo rinominato
la vecchia c(4) come c(3)!!!!)

equation eqCB1980r.ls ly=c(1)+c(2)*lh+(1-c(2))*lk+c(3)*lpop


scalar rssr=eqCB1980r.@ssr

40
Dependent Variable: LY
Method: Least Squares
Date: 03/14/07 Time: 01:53
Sample: 1 763 IF YEAR=1980
Included observations: 105
LY=C(1)+C(2)*LH+(1-C(2))*LK+C(3)*LPOP

Coefficient Std. Error t-Statistic Prob.

C(1) 6.008015 0.334977 17.93561 0.0000


C(2) 0.793872 0.077179 10.28613 0.0000
C(3) -0.023649 0.036543 -0.647165 0.5190

R-squared 0.712755 Mean dependent var 9.119908


Adjusted R-squared 0.707123 S.D. dependent var 1.071813
S.E. of regression 0.580045 Akaike info criterion 1.776734
Sum squared resid 34.31815 Schwarz criterion 1.852562
Log likelihood -90.27854 Durbin-Watson stat 1.918124

Calcoliamo il test F:
scalar ftest3=((rssr-rssur)/1)/(rssur/101)
Possiamo calcolare la statistica F usando anche la seguente formula con lo standard error della
regressione al quadrato (RSS del modello non ristretto già corretti per i gradi di libertà).
scalar ftest33=(rssr-rssur)/(1*(seur^2))
3) Il terzo metodo consiste nell’usare il test di Wald e nel paragrafo successivo trovate i dettagli.

1.7 I coefficient tests:


Partiamo dalla nostra regressione e scegliamo nel tasto VIEW/ COEFFICIENT TESTS/WALD:

41
Scriviamo l’ipotesi che andiamo a testare:

eqCB1980.wald c(2)+c(3)=1
Ed ecco l’output, l’ipotesi nulla è H0:c(2)+c(3)=1, quindi se osserviamo le statistiche calcolate ed i
rispettivi pvalue, non possiamo rifiutare l’ipotesi nulla

Wald Test:
Equation: EQCB1980

Test Statistic Value df Probability

42
F-statistic 1.597337 (1, 101) 0.2092
Chi-square 1.597337 1 0.2063

Null Hypothesis Summary:

Normalized Restriction (= 0) Value Std. Err.

-1 + C(2) + C(3) 0.105755 0.083676

Restrictions are linear in coefficients.

Notate che se abbiamo una sola restrizione F=Chi-square (Chi-square=n.restrizioni*F). F statistic è


utile per i piccoli campioni, invece la Chi-square per la teoria asintotica sui grandi campioni.
Ora possiamo testare altre restrizioni, infatti con il test di Wald abbiamo la possibilità di testare tutte
le ipotesi nulle che vogliamo:
per esempio testiamo oltre all’ipotesi nulla precedente che c(4)=0, ovvero che la population non è
significativa nella regressione.

eqCB1980.wald c(2)+c(3)=1, c(4)=0


Wald Test:
Equation: EQCB1980

Test Statistic Value df Probability

F-statistic 1.009306 (2, 101) 0.3681


Chi-square 2.018612 2 0.3645

Null Hypothesis Summary:

Normalized Restriction (= 0) Value Std. Err.

-1 + C(2) + C(3) 0.105755 0.083676


C(4) -0.026810 0.036522

Restrictions are linear in coefficients.

Anche questa ipotesi non può essere rifiutata.


Ora proviamo a testare la seguente ipotesi:

43
Stiamo testando una restrizione non lineare che è rifiutata:

Wald Test:
Equation: EQCB1980

Test Statistic Value df Probability

F-statistic 54.79126 (1, 101) 0.0000


Chi-square 54.79126 1 0.0000

Null Hypothesis Summary:

Normalized Restriction (= 0) Value Std. Err.

C(1)*C(2) - C(3) 4.315359 0.582990

Delta method computed using analytic derivatives.

44
1.8 Confidence ellipse:
Sempre scegliendo i test sui coefficienti possiamo trovare un’altra tipologia di analisi: il confidence
elipse, questo test riporta una serie di grafici a due dimensioni con delle ellissi di confidenza al
livello di significatività scelta da noi (per esempio 95%).

45
Ecco l’output:

1.0

0.9
C(2)

0.8

0.7

0.6

.6

.5

.4
C(3)

.3

.2

.1

.0

.08

.04

.00
C(4)

-.04

-.08

-.12
4.4 4.8 5.2 5.6 6.0 6.4 6.8 0.6 0.7 0.8 0.9 1.0 .0 .1 .2 .3 .4 .5 .6
C(1) C(2) C(3)

Questi grafici ci mostrano gli intervalli di confidenza considerando come ipotesi che c(1), c(2), c(3),
c(4) siano uguali a zero.
Notate che in questi grafici potete vedere combinati gli intervalli di confidenza per i vari
coefficienti. Per esempio, nel grafico in basso a sinistra potete vedere gli intervalli per c(1) e c(4), il
puntino rosso al centro dell’ellisse indica il coefficiente stimato per c(1) e c(4) (c(4)=-0.02 e
c(4)=5.7). Possiamo considerare gli intervalli di confidenza di c(4): la banda verticale va da poco
più di 0.04 a -0.10 (circa). Invece per quanto riguarda l’intervallo di confidenza per lo stimatore di
c(1), la banda orizzontale va da circa 5.1 a circa 6.4.
Per conoscere il valore preciso del limite inferiore e del limite superiore, possiamo cliccare sopra le
bande.
Per esempio, per c(1)
Limite inferiore

46
Limite superiore:

47
Possiamo vedere che c(4) può assumere valore zero, invece c(1) non potrà mai assumere valore pari
a zero, perché esso non cade nell’ellisse.
Infatti, questo è un modo di rappresentare gli intervalli di confidenza usando la formula matematica
dell’ellisse (vedi Wikipedia, http://it.wikipedia.org/wiki/Ellisse). In Eviews non abbiamo menzione
dell’output in merito agli intervalli di confidenza, che abbiamo calcolato precedentemente a mano.
Per vedere come sono state create queste ellissi pag 584 della UserGuide di Eviews, oppure cercate
nell’Help di Eviews .

Ecco la formula:

In effetti, la relazione è:
( )[ ′
](−1
)
b − f ( βˆ ) Var ( f ( βˆ )) b − f ( βˆ ) / 2 = cα
Dove
βˆ − β1
f ( βˆ1 ) = 1
σˆ βˆ
1

Ora consideriamo la seguente opzione che ci permette di avere 3 intervalli di confidenza


concentrici:

48
49
1.1

1.0

0.9
C(2)

0.8

0.7

0.6

0.5

.7

.6

.5

.4
C(3)

.3

.2

.1

.0

-.1

.10

.05

.00
C(4)

-.05

-.10

-.15
4.0 4.5 5.0 5.5 6.0 6.5 7.0 0.5 0.6 0.7 0.8 0.9 1.0 1.1 -.1 .0 .1 .2 .3 .4 .5 .6 .7
C(1) C(2) C(3)

Ora proviamo a generare una variabile lhm che sia paria alla deviazione di lh dalla sua media.

genr lhm=lh-@mean(lh)
equation eqm.ls ly c lhm

Dependent Variable: LY
Method: Least Squares
Date: 03/14/07 Time: 18:59
Sample: 1 763
Included observations: 712

Variable Coefficient Std. Error t-Statistic Prob.

C 9.148773 0.022924 399.0924 0.0000

50
LHM 0.936438 0.023244 40.28775 0.0000

R-squared 0.695684 Mean dependent var 9.145403


Adjusted R-squared 0.695256 S.D. dependent var 1.108048
S.E. of regression 0.611683 Akaike info criterion 1.857601
Sum squared resid 265.6510 Schwarz criterion 1.870432
Log likelihood -659.3058 F-statistic 1623.103
Durbin-Watson stat 1.796765 Prob(F-statistic) 0.000000

1.00

0.98

0.96

0.94
C(2)

0.92

0.90

0.88

0.86
9.08 9.10 9.12 9.14 9.16 9.18 9.20 9.22
C(1)

In questo caso, con regressori ortogonali, l’ellisse è diventato un cerchio perfetto: Possiamo fare
ulteriori considerazioni su questo grafico.
Sempre facendo riferimento alla formula precedentemente mezionata, l’ellisse di confidenza è
l’insieme dei valori dei parametri β1 (cioè c(1))e β2 (cioè c(2))tali per cui (in questo caso di
regressori ortogonali):

⎛⎛ ˆ 2 2

⎜ ⎜ β1 − β 1 ⎞⎟ ⎛⎜ βˆ 2 − β 2 ⎞
⎟ ⎟
⎜ ⎜ σˆ +
⎟ ⎜ σˆ ˆ ⎟ ⎟ / 2 = cα = 3
⎜⎝ ˆ
β1 ⎠ ⎝ β2 ⎠ ⎟
⎝ ⎠

La stessa ellisse di confidenza può essere ottenuta per funzioni dei parametri che indicano
restrizioni. .
Per esempio se applichiamo ai parametri stimati la funzione:
βˆ − βˆ1
f ( βˆ1 ) = 1
σˆ βˆ
1

Che corrisponde alla normalizzazione dei parametri C(1) e C(2) sottraendone le stime e dividendo
per gli standard error avremo che se uno dei parametri è 0, l’altro è pari alla radice di 6, cioè circa
2.45.
β 1 2 + β 2 2 = 2cα = 6

51
43.021855102392012 * (-0.936438 + C(2))
3

-1

-2

-3
-3 -2 -1 0 1 2 3
43.622404466934222 * (-9.148773 + C(1))

52
TERZA ESERCITAZIONE

PARTE PRIMA:GLS
In questa parte dell’esercitazione, mostreremo alcuni esempi di stime in presenza di errori
autocorrelati ed eteroschedastici, l’influenza di tali problemi rispetto all’inferenza, e come possiamo
stimare particolari modelli GLS con Eviews.

3.1 Errori autocorrelati e/o eteroschedastici


Per valutare la presenza di autocorrelazione e/o eteroschedasticità è bene per cominciare guardare i
residui. Cominciamo con un esempio simulato per vedere come possono apparire i diversi residui.
Il programma prog3 genere quattro serie di residui:

1) “E” è il classico errore “white noise”, indipendentemente identicamente distribuito e di


conseguenza non correlato, estratto in questo caso da una N(0,1).

2) “Y” è autocorrelato del primo ordine ed è stato generato come segue, considerando come
condizione iniziale y=e (infatti, i processi autoregressivi come quello considerato in questo
esercizio, necessitano di una condizione iniziale):

smpl 1 1
genr y=e
smpl 2 2000
y=0.8*y(-1)+e
Mentre nel grafico di E la serie si muove senza nessun vincolo nel caso di Y notate come il
valore di Y al tempo (t+1) sia fortemente influenzato dalla posizione al tempo (t): se il valore è
positivo al tempo (t), probabilmente lo sarà anche al tempo (t+1).

3) La serie X è stata generata in modo diverso nei due sottocampioni, sempre come una
combinazione del white noise precedentemente generato, ma con standard deviation diversa:
smpl 1 1000
genr x=2*e
smpl 1001 2000
genr x=4*e
Cioè nella prima parte del campione la standard deviation è pari a 2, mentre nella seconda parte
è pari a 4. Si può notare ad occhio nudo questo salto nella varianza.
E’ ciò che spesso si nota in serie finanziarie, quando in periodo di crisi la varianza aumenta.
Notate che non c’è autocorrelazione: non c’è relazione evidente tra X(t) ed X(t+1).

53
4) La serie W è una composizione tra un processo autocorrelato ed un processo
eteroschedastico x:
smpl 1 1
genr w=x
smpl 2 2000
w=0.9*w(-1)+x

Notate che in questo caso il grafico di w mostra sia autocorrelazione che eteroschedasticità.
E Y
4 8

3 6
2
4
1
2
0
0
-1
-2
-2

-3 -4

-4 -6
250 500 750 1000 1250 1500 1750 2000 250 500 750 1000 1250 1500 1750 2000

X W
20 30

15 20

10 10

5 0

0 -10

-5 -20

-10 -30

-15 -40
250 500 750 1000 1250 1500 1750 2000 250 500 750 1000 1250 1500 1750 2000

54
Generalized Least Squares
Nel caso di presenza di autocorrelazione ed eteroschedasticità gli stimatori OLS sono non distorti e
consistenti, ma esiste uno stimatore più efficiente, cioè il GLS.
Per esempio se i residui del nostro modello fossero come X, dove a metà campione la varianza
cambia, ci possiamo aspettare che la varianza degli errori delle prime osservazioni sia più bassa
rispetto a quella delle successive 1000 osservazioni.
L’equazione (1) mostra un esempio con due sole osservazioni, mentre le equazioni (2), (3) e (4)
mostrano come lo stimatore GLS per questo semplice caso si possa ottenere con l’aiuto della
matrice H, essa serve per operare una trasformazione lineare delle variabili al fine di applicare il
metodo OLS.
La matrice H contiene i pesi, con cui sono modificate le serie (vedi equazione (5)).

Consideriamo il caso della serie y1 generata come combinazione tra 2 serie estratte da una
distribuzione uniforme [0, 10] ed ad esse viene sommata la serie x creata precedentemente con
problemi di eteroschedasticità (la serie x rappresenta l’errore):

smpl 1 2000
genr z1=10*rnd
genr z2=10*rnd
genr y1=2+z1+3*z2+x
Se regrediamo y1 su costante, z1 e z2 otteniamo delle stime molto vicine ai parametri del modello
originale:

55
Dependent Variable: Y1
Method: Least Squares
Sample: 1 2000
Included observations: 2000

Variable Coefficient Std. Error t-Statistic Prob.

C 1.824909 0.189881 9.610802 0.0000


Z1 1.018442 0.024991 40.75205 0.0000
Z2 3.004315 0.025209 119.1742 0.0000

R-squared 0.889176 Mean dependent var 21.77273


Adjusted R-squared 0.889065 S.D. dependent var 9.723293
S.E. of regression 3.238532 Akaike info criterion 5.189616
Sum squared resid 20944.72 Schwarz criterion 5.198018
Log likelihood -5186.616 F-statistic 8011.258
Durbin-Watson stat 1.926549 Prob(F-statistic) 0.000000

Se guardiamo i residui stimati, notiamo la presenza di eteroschedasticità:


20

15

10

-5

-10

-15
250 500 750 1000 1250 1500 1750 2000

Y1 Residuals

Quindi non possiamo considerare efficienti le stime ottenute precedentemente tramite il metodo
OLS, dato che è violata l’ipotesi di omoschedasticità.

56
Eviews permette (cliccando su procs, specify/estimate, options) di stimare gli standard errors dei
parametri con metodi che correggono il problema dell’eteroschedasticità: metodo di White e
metodo Newey-West.

57
In alternativa si possono digitare i seguenti comandi:

equation eqregw.ls(h) y1 c z1 z2 Îper il metodo di White

equation eqregn.ls(n) y1 c z1 z2 Îper il metodo di Newey-West


Ottenendo le seguenti due tabelle:

Dependent Variable: Y1
Method: Least Squares
Sample: 1 2000
Included observations: 2000
White Heteroskedasticity-Consistent Standard Errors & Covariance

Variable Coefficient Std. Error t-Statistic Prob.

C 1.824909 0.190210 9.594185 0.0000


Z1 1.018442 0.025166 40.46823 0.0000
Z2 3.004315 0.024944 120.4414 0.0000

R-squared 0.889176 Mean dependent var 21.77273


Adjusted R-squared 0.889065 S.D. dependent var 9.723293
S.E. of regression 3.238532 Akaike info criterion 5.189616
Sum squared resid 20944.72 Schwarz criterion 5.198018
Log likelihood -5186.616 F-statistic 8011.258
Durbin-Watson stat 1.926549 Prob(F-statistic) 0.000000

58
Dependent Variable: Y1
Method: Least Squares
Sample: 1 2000
Included observations: 2000
Newey-West HAC Standard Errors & Covariance (lag truncation=7)

Variable Coefficient Std. Error t-Statistic Prob.

C 1.824909 0.190545 9.577326 0.0000


Z1 1.018442 0.025261 40.31699 0.0000
Z2 3.004315 0.024278 123.7488 0.0000

R-squared 0.889176 Mean dependent var 21.77273


Adjusted R-squared 0.889065 S.D. dependent var 9.723293
S.E. of regression 3.238532 Akaike info criterion 5.189616
Sum squared resid 20944.72 Schwarz criterion 5.198018
Log likelihood -5186.616 F-statistic 8011.258
Durbin-Watson stat 1.926549 Prob(F-statistic) 0.000000

Notate che le stime dei coefficienti sono le stesse a quelle ottenuto prima, ciò che è stato corretto
con questi due metodi è la stima della standard deviation.

Ora proviamo a stimare questa regressione usando il metodo dei Generalized Least Square.
In questo caso il metodo GLS equivale al metodo WLS ed Eviews mette a disposizione questa
procedura.

PRIMO METODO: USARE LE STANDARD DEVIATION EFFETTIVE


Tutte le osservazioni sono moltiplicate per i pesi che abbiamo scelto: nel nostro caso i reciproci
delle standard deviation.
Nel programma, trovate i comandi per la correzione manuale usando le standard deviation effettivi
che abbiamo fissato quando abbiamo creato la serie dei residui.Nelle prime 1000 osservazioni la
standard deviation è pari a 2, invece da 1001 a 2000, la standard deviation è pari a 4. Creiamo una
variabile wei che raccoglie questi valori e rappresenterà il peso usato per correggere le variabili
nelle future regressioni

'ora creiamo la serie con le standard deviation effettive


smpl 1 1000
genr wei=2
smpl 1001 2000
wei=4

'primo modo per stimare con gls: dividiamo tutte le serie per wei
smpl 1 2000
equation eqred.ls y1/wei 1/wei z1/wei z2/wei
eqred.makeresid resred

59
Dependent Variable: Y1/WEI
Method: Least Squares
Sample: 1 2000
Included observations: 2000

Variable Coefficient Std. Error t-Statistic Prob.

1/WEI 1.980883 0.147771 13.40507 0.0000


Z1/WEI 1.002712 0.019723 50.83853 0.0000
Z2/WEI 2.990741 0.019774 151.2471 0.0000

R-squared 0.949883 Mean dependent var 8.089479


Adjusted R-squared 0.949833 S.D. dependent var 4.508554
S.E. of regression 1.009825 Akaike info criterion 2.858930
Sum squared resid 2036.433 Schwarz criterion 2.867331
Log likelihood -2855.930 Durbin-Watson stat 1.973766

I residui sono già corretti per il problema di eteroschedasticità.


4

-1

-2

-3

-4
250 500 750 1000 1250 1500 1750 2000

RESRED

'secondo: inseriamo tra le opzioni che il peso (w per weight) è 1/wei


smpl 1 2000

60
equation eqwls.ls(w=1/wei) y1 c z1 z2 Î notate l’opzione del comando w=weight
=1/weihat=ovvero gli standard error stimati)

eqwls.makeresid reswls

Dependent Variable: Y1
Method: Least Squares
Sample: 1 2000
Included observations: 2000
Weighting series: 1/WEI

Variable Coefficient Std. Error t-Statistic Prob.

C 1.980883 0.147771 13.40507 0.0000


Z1 1.002712 0.019723 50.83853 0.0000
Z2 2.990741 0.019774 151.2471 0.0000

Weighted Statistics

R-squared 0.949883 Mean dependent var 21.57194


Adjusted R-squared 0.949833 S.D. dependent var 12.02281
S.E. of regression 2.692866 Akaike info criterion 4.820588
Sum squared resid 14481.30 Schwarz criterion 4.828990
Log likelihood -4817.588 F-statistic 12852.63
Durbin-Watson stat 1.973766 Prob(F-statistic) 0.000000

Unweighted Statistics

R-squared 0.889136 Mean dependent var 21.77273


Adjusted R-squared 0.889025 S.D. dependent var 9.723293
S.E. of regression 3.239112 Sum squared resid 20952.22
Durbin-Watson stat 1.927113

In questo i residui non sono corretti per il problema di eteroschedasticità, come si vede dal grafico
sotto.

61
20

15

10

-5

-10

-15
250 500 750 1000 1250 1500 1750 2000

RESWLS

Per ottenere i residui corretti

62
4

-1

-2

-3

-4
250 500 750 1000 1250 1500 1750 2000

Standardized Residuals

Il metodo appena utilizzato viene chiamato “unfeasible”, dato che noi non sempre conosciamo le
varianze dei nostri errori, quindi dovremo considerare un metodo che ci permetta di stimare i pesi
dalla regressione.

SECONDO METODO: STIMARE GLI STANDARD ERROR

Ora creiamo i pesi stimando gli standard errors della regressione nei 2 ipotetici (supponiamo così se
non li consociamo come nel nostro caso) sottocampioni 1-1000 e 1001-2000

'ora stimiamo i pesi con due regressioni


smpl 1 1000
equation eq1.ls y1 c z1 z2
scalar se1=eq1.@se
genr weihat=se1

smpl 1001 2000


equation eq2.ls y1 c z1 z2
scalar se2=eq2.@se
weihat=se2

Possiamo stimare il modello con FGLS in due modi:

1) Dividendo tutte le serie per la serie “WEIHAT” che contiene gli standard error stimati:
equation eqwlshat2.ls y1/weihat 1/weihat z1/weihat z2/weihat

63
Dependent Variable: Y1/WEIHAT
Method: Least Squares
Sample: 1 2000
Included observations: 2000

Variable Coefficient Std. Error t-Statistic Prob.

1/WEIHAT 1.988404 0.145449 13.67084 0.0000


Z1/WEIHAT 1.001936 0.019426 51.57613 0.0000
Z2/WEIHAT 2.990086 0.019471 153.5664 0.0000

R-squared 0.953142 Mean dependent var 8.074515


Adjusted R-squared 0.953095 S.D. dependent var 4.616190
S.E. of regression 0.999755 Akaike info criterion 2.838885
Sum squared resid 1996.020 Schwarz criterion 2.847287
Log likelihood -2835.885 Durbin-Watson stat 1.977644

2) Indicando direttamente i pesi nella regressione:

equation eqwlshat.ls(w=1/weihat) y1 c z1 z2 Î notate l’opzione del comando w=weight


=1/weihat=ovvero gli standard error stimati)

Dependent Variable: Y1
Method: Least Squares
Sample: 1 2000
Included observations: 2000
Weighting series: 1/WEIHAT

Variable Coefficient Std. Error t-Statistic Prob.

C 1.988404 0.145449 13.67084 0.0000


Z1 1.001936 0.019426 51.57613 0.0000
Z2 2.990086 0.019471 153.5664 0.0000

Weighted Statistics

R-squared 0.929909 Mean dependent var 21.55931


Adjusted R-squared 0.929839 S.D. dependent var 12.32543
S.E. of regression 2.669389 Akaike info criterion 4.803075
Sum squared resid 14229.90 Schwarz criterion 4.811477
Log likelihood -4800.075 F-statistic 13247.28
Durbin-Watson stat 1.977644 Prob(F-statistic) 0.000000

Unweighted Statistics

R-squared 0.889132 Mean dependent var 21.77273


Adjusted R-squared 0.889021 S.D. dependent var 9.723293
S.E. of regression 3.239170 Sum squared resid 20952.97
Durbin-Watson stat 1.927140

64
Notate che sia le stime dei coefficienti che le stime degli standard error sono identiche per entrambe
le procedure.
Inoltre nell’equazione eqwlshat cliccando su “view”, “actual, fitted, residuals”, “standardized
residuals graph” possiamo ottenere il grafico dei residui corretti per il problema di
eteroschedasticità. Notate che questi residui sono molto simili a quelli ottenuti precedentemente con
i pesi effettivi e non stimati. Infatti i pesi stimati sono pari a 1.97 (al posto di 2 come peso effettivo)
per la prima parte del campione ed a 4.13 (al posto di 4 come peso effettivo) per la seconda parte
del campione. A volte la stima dei momenti secondi non è facile e può capitare che il FGLS non sia
così efficiente come potremmo aspettarci.

65
4

-1

-2

-3

-4
250 500 750 1000 1250 1500 1750 2000

Standardized Residuals

Fino ad ora abbiamo operato tenendo conto di essere già a conoscenza dell’esistenza di
eteroschedasticità, supponiamo di voler diagnosticare questo problema. Partiamo dalla regressione
OLS.

Dependent Variable: Y1
Method: Least Squares
Sample: 1 2000
Included observations: 2000

Variable Coefficient Std. Error t-Statistic Prob.

C 1.824909 0.189881 9.610802 0.0000


Z1 1.018442 0.024991 40.75205 0.0000
Z2 3.004315 0.025209 119.1742 0.0000

R-squared 0.889176 Mean dependent var 21.77273


Adjusted R-squared 0.889065 S.D. dependent var 9.723293
S.E. of regression 3.238532 Akaike info criterion 5.189616
Sum squared resid 20944.72 Schwarz criterion 5.198018
Log likelihood -5186.616 F-statistic 8011.258
Durbin-Watson stat 1.926549 Prob(F-statistic) 0.000000

Proviamo a testare l’ipotesi di omoschedasticità con il test di White in EViews (come implementare
questo test, vedi seconda parte dell’esercitazione).

66
White Heteroskedasticity Test:

F-statistic 0.472790 Prob. F(4,1995) 0.755759


Obs*R-squared 1.894106 Prob. Chi-Square(4) 0.755228

Test Equation:
Dependent Variable: RESID^2
Method: Least Squares
Sample: 1 2000
Included observations: 2000

Variable Coefficient Std. Error t-Statistic Prob.

C 10.67327 1.713710 6.228168 0.0000


Z1 -0.346961 0.573878 -0.604591 0.5455
Z1^2 0.018828 0.055570 0.338817 0.7348
Z2 0.418191 0.579809 0.721256 0.4708
Z2^2 -0.035343 0.056325 -0.627481 0.5304

R-squared 0.000947 Mean dependent var 10.47236


Adjusted R-squared -0.001056 S.D. dependent var 18.69726
S.E. of regression 18.70713 Akaike info criterion 8.698183
Sum squared resid 698163.5 Schwarz criterion 8.712185
Log likelihood -8693.183 F-statistic 0.472790
Durbin-Watson stat 1.676593 Prob(F-statistic) 0.755759

Il test ci indica di non rifiutare l’ipotesi nulla, quindi sembra che non ci sia eteroschedasticità.
Se osserviamo l’istogramma per le due regressioni eq3 ed eq4 realizzata sui sottocampioni, notiamo
che i residui si distribuiscono secondo una normale:

90
Series: Residuals
80 Sample 1 800
70 Observations 800

60 Mean 3.57e-15
Median -0.011825
50
Maximum 6.393506
40 Minimum -5.776638
Std. Dev. 1.980603
30 Skewness 0.164415
Kurtosis 2.996883
20
10 Jarque-Bera 3.604614
Probability 0.164918
0
-6 -4 -2 0 2 4 6

67
90
Series: Residuals
80 Sample 1201 2000
70 Observations 800

60 Mean 5.01e-15
Median 0.037697
50
Maximum 15.43024
40 Minimum -11.65803
Std. Dev. 4.175356
30 Skewness 0.132383
Kurtosis 3.070232
20
10 Jarque-Bera 2.501135
Probability 0.286342
0
-10 -5 0 5 10 15

Quindi il problema di eteroschedasticità è indipendente dai regressori.

Possiamo usare un test che mostri se la varianza sia cambiata nei due sottocampioni scelti. L’ipotesi
nulla è che la varianza nei due sottocampioni è la stessa. Questo test si costruisce considerando:
a) i RSS di 2 regressioni, ciascuna realizzata su ogni sottocampione;
b) i gradi di libertà di ciascuna regressione (qui ipotizziamo di considerare due sottocampioni
identici)
c) infine calcoliamo la statistica ed il relativo pvalue.

smpl 1 1000
equation eq1.ls y1 c z1 z2
scalar se1=eq1.@se
scalar df1=eq1.@regobs-eq1.@ncoef

smpl 1001 2000


equation eq2.ls y1 c z1 z2
scalar se2=eq2.@se
scalar df2=eq2.@regobs-eq2.@ncoef
weihat=se2

scalar ch2=(se2/se1)^2
scalar pvalueCH2=@fdist(ch2,df2,df1)

Il pvalue calcolato ci indica che rifiutiamo l’ipotesi nulla di omoschedasticità, quindi i residui sono
eteroschedastici.

68
Programma PRIMA PARTE ESERCITAZIONE

wfcreate(wf="E3GLS") u 1 2000
'crea un workfile chiamato E3GLS con 2000 osservazioni

rndseed 9072006
genr e=nrnd
'generate un errore white noise da una N(0,1)

smpl 1 1
genr y=e
smpl 2 2000
y=0.8*y(-1)+e
'generate un errore autocorrelato da un modello Autoregressivo d'ordine 1 AR(1)

smpl 1 2000
equation eqar1.ls y c y(-1)
'stimate il modello AR(1) per y

'ora generiamo un errore x eteroschedastico:


'nelle prime 1000 osservazioni lo standard error è 2
smpl 1 1000
genr x=2*e

'nelle ultime 1000 osservazioni lo standard error è 4


smpl 1001 2000
genr x=4*e

'ed ora da x creiamo gli errori w che sono sia autocorrelati che eteroschedastici
smpl 1 1
genr w=x

smpl 2 2000
w=0.9*w(-1)+x

group errors e y x w
'riuniamoli in un gruppo chiamato errors

'ora simuliamo un modello lineare con costante e 2 regressori


smpl 1 2000
genr z1=10*rnd
genr z2=10*rnd
genr y1=2+z1+3*z2+x

group regressione y1 z1 z2 x
'creiamo il gruppo regressione

equation eqreg.ls y1 c z1 z2
'stimiamo il modello ols

'CH2 Test: stimiamo gli standard errors nei due sottocampioni


smpl 1 1000
equation eq1.ls y1 c z1 z2
scalar se1=eq1.@se
scalar df1=eq1.@regobs-eq1.@ncoef

69
'salviamo la serie dei pesi per il GLS
genr weihat=se1

smpl 1001 2000


equation eq2.ls y1 c z1 z2
scalar se2=eq2.@se
scalar df2=eq2.@regobs-eq2.@ncoef
weihat=se2

scalar ch2=(se2/se1)^2
scalar pvalueCH2=@fdist(ch2,df2,df1)

smpl 1 2000
equation eqregn.ls(n) y1 c z1 z2
'stimiamo il modello ols con Newey-West standard errors

equation eqregw.ls(h) y1 c z1 z2
'stimiamo il modello ols con White standard errors

'ora creiamo la serie con gli standard errors effettivi


smpl 1 1000
genr wei=2
smpl 1001 2000
wei=4

'primo modo per stimare con gls: dividiamo tutte le serie per wei
smpl 1 2000
equation eqred.ls y1/wei 1/wei z1/wei z2/wei
eqred.makeresid resred

'secondo: inseriamo tra le opzioni che il peso (w per weight) è 1/wei


smpl 1 2000
equation eqwls.ls(w=1/wei) y1 c z1 z2
eqwls.makeresid reswls

group red resred reswls


'mettiamo in gruppo i residi per osservarne le differenze

'stimiamo con wls usando gli standard errors stimati


smpl 1 2000
equation eqwlshat.ls(w=1/weihat) y1 c z1 z2
eqwlshat.makeresid reswlshat

equation eqwlshat2.ls y1/weihat 1/weihat z1/weihat z2/weihat

'proviamo a vedere se la varianza è cambiata in due sottocampioni


smpl 1 1000
equation eq1.ls y1 c z1 z2
scalar se1=eq1.@se
scalar df1=eq1.@regobs-eq1.@ncoef

smpl 1001 2000


equation eq2.ls y1 c z1 z2
scalar se2=eq2.@se
scalar df2=eq2.@regobs-eq2.@ncoef
weihat=se2

70
scalar ch2=(se2/se1)^2
scalar pvalueCH2=@fdist(ch2,df2,df1)

PARTE SECONDA: COME TESTARE I RESIDUI


Lo scopo di questa parte dell’esercitazione è quello di testare i residui di diverse regressioni tramite
vari test per controllare se i residui sono normali, non correlati ed omoschedastici. Partiamo
considerando delle serie che generiamo noi tramite il programma prog3.prg, il quale genera delle
serie random con diverse caratteristiche ed effettua delle stime proponendo diverse regressioni con
diversi problemi negli errori.

1) ERRORI NORMALI

Partiamo dalla prima regressione EQ1

ls m c h

Dependent Variable: M
Method: Least Squares
Sample: 1 2000
Included observations: 2000

Variable Coefficient Std. Error t-Statistic Prob.

C 2.001682 0.022244 89.98698 0.0000


H 0.400154 0.022049 18.14879 0.0000

R-squared 0.141523 Mean dependent var 2.004664


Adjusted R-squared 0.141094 S.D. dependent var 1.073361
S.E. of regression 0.994760 Akaike info criterion 2.828370
Sum squared resid 1977.118 Schwarz criterion 2.833971
Log likelihood -2826.370 F-statistic 329.3785
Durbin-Watson stat 2.017380 Prob(F-statistic) 0.000000

Ecco i residui, sono oscillanti intorno allo zero, questo ci può suggerire che essi siano distribuiti
come una normale.

71
4

-1

-2

-3

-4
250 500 750 1000 1250 1500 175 0 2000

RES IDS1

Per saperlo, usiamo il test sulla normalità dei residui.

L’istogramma ci indica che i residui sono distribuiti come una normale con media 0 e varianza 1, la
statistica di Jarque-Bera non rifiuta l’ipotesi nulla di normalità dei residui.
Per l’ipotesi di Normalità degli errori:

72
Test di Jarque-Bera H0: Normalità di ε ⎛ μˆ 2 (
μˆ − 3σˆ 4
JB = T ⎜ 3 6 + 4
)
2

⎟ a
χ 2 (2)
H1: non Normalità di ε ⎜ 6σˆ 24σˆ 4 ⎟ ~
⎝ ⎠
H 0 , altre OLS

240
Series: Residuals
Sample 1 2000
200
Observations 2000

160 Mean -1.42e-16


Median -0.032632
Maximum 3.384899
120
Minimum -2.956185
Std. Dev. 0.994512
80 Skewness 0.072262
Kurtosis 2.883633
40
Jarque-Bera 2.869045
Probability 0.238229
0
-3 -2 -1 0 1 2 3

2) ERRORI SERIALMENTE CORRELATI

Ora consideriamo l’altra regressione EQ2.

ls y c h

Dependent Variable: Y
Method: Least Squares
Sample: 1 2000
Included observations: 2000

Variable Coefficient Std. Error t-Statistic Prob.

C 0.062939 0.030661 2.052726 0.0402


H 0.215765 0.030392 7.099505 0.0000

R-squared 0.024606 Mean dependent var 0.064547


Adjusted R-squared 0.024118 S.D. dependent var 1.388009

73
S.E. of regression 1.371169 Akaike info criterion 3.470204
Sum squared resid 3756.448 Schwarz criterion 3.475805
Log likelihood -3468.204 F-statistic 50.40297
Durbin-Watson stat 0.631477 Prob(F-statistic) 0.000000

Dall’output, possiamo considerare la statistica di Durbin-Watson:


Test di Durbin-Watson H0: εt non correlato T

∑ (εˆ t − εˆt −1 ) 2
H1: εt = ρεt-1 + ut, ρ≠0 DW = t =2
≈ 2 − 2 ρˆ
T

∑ εˆ
2
t
t =1

Infatti, nella prima regressione, la statistica è un valore intorno a 2, caso in cui non c’è correlazione
seriale. Invece qui, la statistica assume un valore intorno a 0.60, ciò mostra che c’è un problema di
correlazione seriale positiva. Infatti, se guardiamo il grafico notiamo che le oscillazioni intorno allo
zero sono meno fitte, anche se continuano ad esserci (da ciò possiamo presumere che il problema di
correlazione seriale non sia rilevante).

-2

-4

-6
250 500 750 1000 1250 1500 1750 2000

RESIDS2

74
Ora testiamo la correlazione usando Breusch-Godfrey test

L’ipotesi nulla è l’assenza di correlazione seriale fino al ritardo considerato come ipotesi (qui,
abbiamo considerato il ritardo secondo). La statistica utilizzata è pari al prodotto tra il numero di
osservazioni e l’R2 della Test Equation. Tale statistica è distribuita come una chi-quadro con gradi
di libertà pari il numero dei ritardi dei residui. La tabella riporta pure un F-test per l’ipotesi nulla
che i parametri legati ai ritardi degli errori siano non significativi.
In questo caso, rifiutiamo l’ipotesi nulla, quindi la serie è correlata serialmente.

Breusch-Godfrey Serial Correlation LM Test:

F-statistic 880.6772 Probability 0.000000


Obs*R-squared 937.5503 Probability 0.000000

Test Equation:
Dependent Variable: RESID
Method: Least Squares
Presample missing value lagged residuals set to zero.

Variable Coefficient Std. Error t-Statistic Prob.

C 0.000435 0.022359 0.019441 0.9845


H 0.006750 0.022163 0.304569 0.7607
RESID(-1) 0.660676 0.022370 29.53459 0.0000
RESID(-2) 0.034667 0.022377 1.549242 0.1215

75
R-squared 0.468775 Mean dependent var -1.02E-16

Adjusted R-squared 0.467977 S.D. dependent var 1.370826


S.E. of regression 0.999879 Akaike info criterion 2.839634
Sum squared resid 1995.518 Schwarz criterion 2.850836
Log likelihood -2835.634 F-statistic 587.1181
Durbin-Watson stat 2.002193 Prob(F-statistic) 0.000000

Nel libro troverete pure un’altra versione del test LM in cui si utilizzano le correlazioni stimate dei
residui.
Test LM H0: ε t non correlato ⎛ m 2⎞ a
LM = T ⎜⎜ ∑ rˆj ⎟⎟ χ 2 ( m)
H1: ε t correlato di ordine m ⎝ j =1 ⎠ ~
H 0 , altre OLS

3) ERRORI ETEROSCHEDASTICI

Ora consideriamo la regressione EQ3:

ls x c z

Dependent Variable: X
Method: Least Squares
Sample: 1 2000
Included observations: 2000

Variable Coefficient Std. Error t-Statistic Prob.

C 4.933039 0.934564 5.278438 0.0000


Z 27.39858 0.943466 29.04036 0.0000

R-squared 0.296811 Mean dependent var 5.440659


Adjusted R-squared 0.296459 S.D. dependent var 49.81998
S.E. of regression 41.78767 Akaike info criterion 10.30408
Sum squared resid 3488926. Schwarz criterion 10.30968
Log likelihood -10302.08 F-statistic 843.3425
Durbin-Watson stat 2.168432 Prob(F-statistic) 0.000000

76
Se osserviamo i residui notiamo che c’è un evidente caso di eteroschedasticità, dato che la varianza
dei residui è diversa nelle tre parti del campione.
300

200

100

-100

-200

-300
250 500 750 1000 1250 1500 1750 2000

RESIDS3

Testiamo questa ipotesi tramite i due test di White che si può realizzare automaticamente in
EViews:

77
Test di White H0: σi2=σ2 W = T⋅R2 ~ χ 2 (q )
H 0 , altreOLS
H1: σi2=f(γ+δZ), Z è T × q

L’ipotesi nulla è la presenza di omoschedasticità, esso non richiede l’ipotesi di Normalità degli
errori per ricavare la distribuzione della statistica.
In EViews abbiamo la possibilità di svolgere due tipi di White test: senza cross term e con cross
term. La differenza tra le due opzioni è data dal fatto che c’è la possibilità di avere i termini
incrociati tra i regressori, nel caso in cui abbiamo un solo regressore oltre la costante i risultati del
test sono identici come potete vedere sotto. L’ipotesi di omoschedasticità è rifiutata.

White Heteroskedasticity Test:No cross term

F-statistic 467.5040 Prob. F(2,1997) 0.000000


Obs*R-squared 637.7936 Prob. Chi-Square(2) 0.000000

Test Equation:
Dependent Variable: RESID^2
Method: Least Squares
Date: 03/28/07 Time: 10:27
Sample: 1 2000
Included observations: 2000

Variable Coefficient Std. Error t-Statistic Prob.

C 24.69140 95.72890 0.257930 0.7965


Z -17.88970 78.20735 -0.228747 0.8191
Z^2 1753.026 57.32989 30.57787 0.0000

R-squared 0.318897 Mean dependent var 1744.463


Adjusted R-squared 0.318215 S.D. dependent var 4194.968
S.E. of regression 3463.798 Akaike info criterion 19.13962
Sum squared resid 2.40E+10 Schwarz criterion 19.14802
Log likelihood -19136.62 F-statistic 467.5040
Durbin-Watson stat 1.257141 Prob(F-statistic) 0.000000

78
White Heteroskedasticity Test:Cross term

F-statistic 467.5040 Prob. F(2,1997) 0.000000


Obs*R-squared 637.7936 Prob. Chi-Square(2) 0.000000

Test Equation:
Dependent Variable: RESID^2
Method: Least Squares
Date: 03/28/07 Time: 10:27
Sample: 1 2000
Included observations: 2000

Variable Coefficient Std. Error t-Statistic Prob.

C 24.69140 95.72890 0.257930 0.7965


Z -17.88970 78.20735 -0.228747 0.8191
Z^2 1753.026 57.32989 30.57787 0.0000

R-squared 0.318897 Mean dependent var 1744.463


Adjusted R-squared 0.318215 S.D. dependent var 4194.968
S.E. of regression 3463.798 Akaike info criterion 19.13962
Sum squared resid 2.40E+10 Schwarz criterion 19.14802
Log likelihood -19136.62 F-statistic 467.5040

79
Durbin-Watson stat 1.257141 Prob(F-statistic) 0.000000

Possiamo testare l’ipotesi nulla di omoschedasticità con il test di Goldfeld-Quandt e con il test di
Breusch-Pagan.
Test di Goldfeld-Quandt H0: σi2=σ2 RSS 2
GQ = ~ F(p,p)
H1: σi2=cXi2, c>0, RSS1 H 0 , altre OLS

∑ (γˆ + δˆZ )
Test di Breusch-Pagan H0: σi2=σ2 T 2

2 i
H1: σi =f(γ+δZ), Z è T × q BP = i =1
~ χ 2 (q)
2 H 0 , altreOLS

Questi possono essere svolti solo nel caso in cui i residui oltre ad un problema di eteroschedasticità
rispettano le altre ipotesi del modello lineare,inoltre non vengono implementati automaticamente in
EViews, ma bisogna costruirli a mano.

4) ERRORI ETEROSCHEDASTICI ed AUTOCORRELATI

Consideriamo la regressione EQ4.


ls w c x

Dependent Variable: W
Method: Least Squares
Sample: 2 2000
Included observations: 1999

Variable Coefficient Std. Error t-Statistic Prob.

C 33.53275 0.194248 172.6289 0.0000


X 0.940519 0.015717 59.84271 0.0000

R-squared 0.641996 Mean dependent var 38.70313


Adjusted R-squared 0.641817 S.D. dependent var 12.99691
S.E. of regression 7.778444 Akaike info criterion 6.941590
Sum squared resid 120826.9 Schwarz criterion 6.947193
Log likelihood -6936.119 F-statistic 3581.150
Durbin-Watson stat 0.803251 Prob(F-statistic) 0.000000

Dall’output notiamo che c’è un problema di correlazione seriale, in considerazione della statistica di
Durbin-Watson. Se osserviamo il grafico, notiamo oltre ad un problema di correlazione, anche un
problema di eteroschedasticità.

80
40

30

20

10

-10

-20

-30

-40
250 500 750 1000 1250 1500 1750 2000

RESIDS4

Ora rifacciamo le analisi viste precedentemente sui residui il test Breusch- Godfrey rifiuta l’ipotesi
nulla di assenza di correlazione seriale ed il test di White rifiuta l’ipotesi di omoschedasticità.

Breusch-Godfrey Serial Correlation LM Test:

F-statistic 553.2271 Probability 0.000000


Obs*R-squared 713.1500 Probability 0.000000

Test Equation:
Dependent Variable: RESID
Method: Least Squares
Presample missing value lagged residuals set to zero.

81
Variable Coefficient Std. Error t-Statistic Prob.

C -0.065906 0.155892 -0.422771 0.6725


X 0.012855 0.012620 1.018619 0.3085
RESID(-1) 0.618569 0.022397 27.61837 0.0000
RESID(-2) -0.035183 0.022404 -1.570393 0.1165

R-squared 0.356753 Mean dependent var 2.61E-15


Adjusted R-squared 0.355786 S.D. dependent var 7.776497
S.E. of regression 6.241645 Akaike info criterion 6.502364
Sum squared resid 77721.47 Schwarz criterion 6.513570
Log likelihood -6495.112 F-statistic 368.8181
Durbin-Watson stat 2.037969 Prob(F-statistic) 0.000000

White Heteroskedasticity Test:

F-statistic 71.65049 Probability 0.000000


Obs*R-squared 133.9029 Probability 0.000000

Test Equation:
Dependent Variable: RESID^2
Method: Least Squares
Sample: 2 2000
Included observations: 1999

Variable Coefficient Std. Error t-Statistic Prob.

C 46.55645 3.836097 12.13641 0.0000


X -0.943796 0.316148 -2.985295 0.0029
X^2 0.124876 0.010465 11.93292 0.0000

R-squared 0.066985 Mean dependent var 60.44365


Adjusted R-squared 0.066050 S.D. dependent var 153.0839
S.E. of regression 147.9419 Akaike info criterion 12.83302
Sum squared resid 43686075 Schwarz criterion 12.84142
Log likelihood -12823.60 F-statistic 71.65049
Durbin-Watson stat 1.478069 Prob(F-statistic) 0.000000

82
Ecco un confronto tra i diversi residui analizzati in questa esercitazione: Notate che RESIDS1
Mostrano le caratteristiche di una serie normale, con media zero e varianza 1, invece RESIDS2
mostra delle oscillazioni più lente intorno allo zero, tipico sintomo di serie correlata. RESIDS3
mostrano l’esistenza di un problema di eteroschedasticità, anche RESDIS4 mostrano questo
sintomo abbinato ad un problema di correlazione.

RESIDS1 RESIDS2
4 6

3
4
2
2
1

0 0

-1
-2
-2
-4
-3

-4 -6
250 500 750 1000 1250 1500 1750 2000 250 500 750 1000 1250 1500 1750 2000

RESIDS3 RESIDS4
300 200

200
100
100

0 0

-100
-100
-200

-300 -200
250 500 750 1000 1250 1500 1750 2000 250 500 750 1000 1250 1500 1750 2000

83
In EVIEWS 6 c’è la possibilità di implementare altri nuovi Test sull’eteroschedasticità:

Heteroskedasticity Test: Breusch-Pagan-Godfrey

F-statistic 1.211686 Prob. F(1,1997) 0.2711


Obs*R-squared 1.212164 Prob. Chi-Square(1) 0.2709
Scaled explained SS 6.217720 Prob. Chi-Square(1) 0.0126

Test Equation:
Dependent Variable: RESID^2
Method: Least Squares
Date: 04/09/08 Time: 11:41
Sample: 2 2000
Included observations: 1999

Coefficient Std. Error t-Statistic Prob.

C 1185.128 86.25094 13.74046 0.0000


X 1.894442 1.721021 1.100766 0.2711

R-squared 0.000606 Mean dependent var 1195.435


Adjusted R-squared 0.000106 S.D. dependent var 3833.708
S.E. of regression 3833.505 Akaike info criterion 19.34195
84
Sum squared resid 2.93E+10 Schwarz criterion 19.34755
Log likelihood -19330.28 Hannan-Quinn criter. 19.34400
F-statistic 1.211686 Durbin-Watson stat 1.000420
Prob(F-statistic) 0.271131

Per esempio il Breusch-Pagan-Godfrey è simile al Breusch-Pagan tradizionale che studiate dal


libro, Harvey e Glejser sono costruiti in maniera simile, con l’unica differenza nell’ipotesi
alternativa (potete consultare l’Help di Eviews 6 per maggiori chiarimenti e curiosità!).

Programma SECONDA PARTE ESERCITAZIONE

wfcreate(wf="tests_resids") u 1 2000
rndseed 21101980
'generiamo dei white noise con media zero e varianza 1
genr e=nrnd
genr h=nrnd
genr m=nrnd+2+0.4*h

'Osserviamo se i residui della seguente regressione sono normali


equation eq1.ls m c h
eq1.makeresids resids1
resids1.hist
'salviamo l'istogramma
freeze(norm_eq1) resids1.hist

'ora consideriamo una serie con problemi di correlazione


smpl 1 1

genr y=0

smpl 2 2000
'ipotizziamo un processo autocorrelato di ordine 1
y=0.7*y(-1)+0.2*h+e

smpl 1 2000
'stimiamo il seguente modello e testiamo sui residui con il test di Breusch-Pagan l'ipotesi di
assenza di correlazione

equation eq2.ls y c h
eq2.makeresids resids2
eq2.auto(2)
freeze(bp_eq2) eq2.auto(2)

85
'ora consideriamo un problema di eteroschedasticità

rndseed 21101980
smpl 1 2000
genr z=nrnd
genr ee=e

'generiamo l'errore che ha varianza diversa per 3 sottocampioni


smpl 1 1000
genr ee=e
genr x=ee+z+5

smpl 1001 1500


genr eee=5*ee
genr x=eee+z+5

smpl 1501 2000


genr eeee=100*e
genr x=eeee+z+5

'stimiamo su tutto il campione


smpl 1 2000
'Ora testiamo l'ipotesi nulla di assenza di eteroschedasticità tramite il test di White
equation eq3.ls x c z
eq3.makeresids resids3
eq3.white(c)
freeze(white_eq3) eq3.white(c)

'ora creiamo una nuova serie che ha problemi sia di eteroschedasticità che di correlazione
smpl 1 1
genr w=x

smpl 2 2000
w=10+x+0.6*w(-1)

'testiamo i residui tramite i test di Breusch-Pagan e di White


equation eq4.ls w c x
eq4.makeresids resids4
eq4.auto(2)
eq4.white(c)
freeze(bp_eq4) eq4.auto(2)
freeze(white_eq4) eq4.white(c)

group rex resids1 resids2 resids3 resids4


rex.line(m)
freeze(confronto) rex.line(m)

86
QUARTA ESERCITAZIONE

In questa esercitazione usiamo il workfile wage.wf1.

1) Modello log-linearizzato

Consideriamo un modello in cui vogliamo spiegare il salario avendo come variabili esplicative
gli anni di attività lavorativa di un individuo, il suo livello di istruzione e il sesso.
Il livello di istruzione viene indicato dalla variabile educ che è una variabile discreta,
qualitativa, ovvero una variabile che assume i valori 1, 2, 3, 4,5 in base al livello di istruzione
(1=scuola elementare; 2=scuola media; 3=scuola professionale di 3 anni; 4=liceo; 5=università)
dell’individuo. Il sesso è indicato dalla variabile “male”, che è una variabile dummy, ovvero una
variabile binaria che può assumere solo 2 valori: 0 oppure 1, 1 se l’individuo è di sesso
maschile. Stiamo trattando un dataset cross-section, ovvero dove abbiamo osservazioni per tanti
individui.
Ecco il grafico della variabile educ e l’istogramma e le statistiche di male:

0
250 500 750 1000 1250

EDUC

900
Series: MALE
800 Sample 1 1404
700 Observations 1403

600 Mean 0.598004


Median 1.000000
500 Maximum 1.000000
400 Minimum 0.000000
Std. Dev. 0.490476
300 Skewness -0.399772
Kurtosis 1.159817
200
100 Jarque-Bera 235.3265
Probability 0.000000
0
0.0 0.2 0.4 0.6 0.8 1.0

87
L’unica variabile non qualitativa è l’esperienza. Ora trattiamo il modello trasformando il salario
e l’esperienza in logaritmi, lasciando in livelli l’istruzione e la variabile male.

genr lwage=log(wage)
genr lexper=log(exper)

Confrontiamo le serie in livelli ed in logaritmi:


900 50
800
700 40

600
30
500

400
20
300
200
10
100
0 0
250 500 750 1000 1250 250 500 750 1000 1250

LWAGE WAGE LEXPER EXPER

Ora stimiamo il seguente modello:

log(WAGE ) = β1 + β 2 log( EXPER ) + β 3 MALE + β 4 EDUC + ε t

equation eq1.ls lwage c lexper male educ

Dependent Variable: LWAGE


Method: Least Squares
Sample (adjusted): 1 1403
Included observations: 1403 after adjustments

Variable Coefficient Std. Error t-Statistic Prob.

C 5.022208 0.036506 137.5717 0.0000


LEXPER 0.175657 0.008811 19.93714 0.0000
MALE 0.101153 0.014279 7.084097 0.0000
EDUC 0.138109 0.006118 22.57558 0.0000

R-squared 0.345780 Mean dependent var 5.994157


Adjusted R-squared 0.344377 S.D. dependent var 0.318142
S.E. of regression 0.257601 Akaike info criterion 0.128039
Sum squared resid 92.83539 Schwarz criterion 0.142997
Log likelihood -85.81937 F-statistic 246.4751
Durbin-Watson stat 1.949599 Prob(F-statistic) 0.000000
88
Notiamo che ora il coefficiente stimato per l’esperienza è l’elasticità, ovvero di quanto aumenta in
percentuale la variabile dipendente in caso di un aumento percentuale della variabile che misura gli
anni di esperienza; lavorativa. In questo caso tale elasticità è pari a 0.17, cioè un aumento del 1%
dell’esperienza lavorativa porta ad un aumento dello 0.17% del salario.
Il coefficiente legato a “Male” ci dice che se l’individuo è maschio, il suo stipendio medio a parità
di condizioni è pari al 110% del reddito di un individuo di sesso femminile. Questa osservazione si
basa sul fatto che per x molto piccoli, e x ≈ 1 + x , come si può osservare dal grafico seguente
(ottenuto nella sezione esempio del programma):

1.24

1.20

1.16

1.12

1.08

1.04

1.00

0.96
2 4 6 8 10 12 14 16 18 20

1+X EX

Invece la variabile educ può essere considerata una variabile continua, ed il campione è ordinato
considerando tale variabile. Quindi l’interpretazione data al coefficiente stimato è quella di
semi-elasticità, più è elevato il grado di istruzione, più il salario aumenta.
Ogni successivo grado d’istruzione fa aumentare il salario del 13% rispetto alla media a parità
di esperienza lavorativa.
In termini monetari il salario aumenterà quindi di 0.13*wage (questa sarà la pendenza), mentre
l’elasticità sarà pari a 0.13*educ. Notate che in questa ultima interpretazione possiamo
considerare la media di wage e educ per ottenere un valore puntuale di elasticità e pendenza,
oppure possiamo considerare i singoli valori per ogni individuo e quindi elasticità e pendenza
cambiano a seconda dell’individuo.
Consultate la pagina 142 del libro dove trovate una tabella riassuntiva di tutti i casi
possibili di modelli in livelli e logaritmi.

2) Test sui residui e di linearità

Se esiste una relazione non lineare tra la variabile dipendente ed i regressori, il modello può
essere approssimato tramite un’espansione di Taylor come un modello lineare che include tra i
regressori le potenze ed i prodotti incrociati dei regressori. In una regressione contenente questi
ulteriori regressori i loro coefficienti risulteranno significativi in presenza di non linearità.

89
Se ci sono poche osservazioni e molti regressori, diventa impossibile stimare il modello
necessario per un test di non linearità che consideri espressamente i regressori non lineari; per
questo nel test di Ramsey si sostituiscono tali regressori con le potenze delle serie stimate
(FITTED)
Il Ramsey RESET è un test a due stadi: nel primo stadio si stima il modello lineare e si
ottengono i valori stimati (indicati nell’output come FITTED), nel secondo le potenze di
FITTED vengono aggiunte nella regressione come serie che approssimano la presenza di
regressori non lineari. L’ipotesi nulla del test è che i coefficienti di questi termini siano
congiuntamente non significativi, quindi rifiutando l’ipotesi nulla, rifiutiamo l’ipotesi di
linearità.

Possiamo effettuare il test usando il comando nel programma:


freeze(ram_reset1) eq1.reset(3)

Oppure dalla finestra dell’equazione:

In questo caso scegliamo tre potenze della variabile dipendente stimata come regressori aggiunti
che includono la componente non lineare.

Ramsey RESET Test:

F-statistic 3.160316 Probability 0.023844


Log likelihood ratio 9.496277 Probability 0.023371

90
Test Equation:
Dependent Variable: LWAGE
Method: Least Squares
Sample: 1 1403
Included observations: 1403

Variable Coefficient Std. Error t-Statistic Prob.

C 8691.182 4479.696 1.940128 0.0526


LEXPER 427.5820 221.9622 1.926373 0.0543
MALE 246.2236 127.8180 1.926360 0.0543
EDUC 336.1804 174.5158 1.926361 0.0543
FITTED^2 -627.3340 320.5141 -1.957275 0.0505
FITTED^3 71.78143 36.10392 1.988189 0.0470
FITTED^4 -3.075670 1.523879 -2.018317 0.0437

R-squared 0.350193 Mean dependent var 5.994157


Adjusted R-squared 0.347401 S.D. dependent var 0.318142
S.E. of regression 0.257007 Akaike info criterion 0.125547
Sum squared resid 92.20915 Schwarz criterion 0.151723
Log likelihood -81.07123 F-statistic 125.3886
Durbin-Watson stat 1.968012 Prob(F-statistic) 0.000000

Osservando la F-statistic e la Log-likelihood, rifiutiamo l’ipotesi nulla considerando un livello di


confidenza del 5% e del 10%, invece se usiamo come livello di confidenza l’1%, non possiamo
rifiutare l’ipotesi nulla.

Ora testiamo l’autocorrelazione e l’eteroschedasticità, usando i test di Breusch-Godfrey e di White,


visti nella scorsa esercitazione.

Breusch-Godfrey Serial Correlation LM Test:

F-statistic 1.691328 Probability 0.184652


Obs*R-squared 3.388978 Probability 0.183693

Test Equation:
Dependent Variable: RESID
Method: Least Squares
Presample missing value lagged residuals set to zero.

91
Variable Coefficient Std. Error t-Statistic Prob.

C -0.000394 0.036489 -0.010808 0.9914


LEXPER 0.000321 0.008814 0.036398 0.9710
MALE -0.000808 0.014316 -0.056453 0.9550
EDUC 1.59E-05 0.006115 0.002598 0.9979
RESID(-1) 0.025819 0.026773 0.964371 0.3350
RESID(-2) -0.042536 0.026809 -1.586626 0.1128

R-squared 0.002416 Mean dependent var 4.19E-16


Adjusted R-squared -0.001155 S.D. dependent var 0.257325
S.E. of regression 0.257474 Akaike info criterion 0.128472
Sum squared resid 92.61115 Schwarz criterion 0.150908
Log likelihood -84.12283 F-statistic 0.676531
Durbin-Watson stat 1.997032 Prob(F-statistic) 0.641283

White Heteroskedasticity Test:

F-statistic 2.505688 Probability 0.010544


Obs*R-squared 19.88892 Probability 0.010765

Test Equation:
Dependent Variable: RESID^2
Method: Least Squares
Sample: 1 1403
Included observations: 1403

Variable Coefficient Std. Error t-Statistic Prob.

C 0.001976 0.076820 0.025716 0.9795


LEXPER 0.013238 0.030734 0.430719 0.6667
LEXPER^2 0.005632 0.004812 1.170321 0.2421
LEXPER*MALE -0.014651 0.010351 -1.415342 0.1572
LEXPER*EDUC -0.003218 0.004742 -0.678505 0.4976
MALE -0.003870 0.042307 -0.091466 0.9271
MALE*EDUC 0.009927 0.007442 1.333880 0.1825
EDUC 0.003711 0.027223 0.136309 0.8916
EDUC^2 0.000809 0.002892 0.279784 0.7797

92
R-squared 0.014176 Mean dependent var 0.066169
Adjusted R-squared 0.008518 S.D. dependent var 0.148095
S.E. of regression 0.147463 Akaike info criterion -0.984091
Sum squared resid 30.31281 Schwarz criterion -0.950436
Log likelihood 699.3398 F-statistic 2.505688
Durbin-Watson stat 2.000345 Prob(F-statistic) 0.010544

Notiamo che c’è un problema di eteroschedasticità, invece non è presente un problema di


correlazione seriale.
Controlliamo le statistiche descrittive ed il test di Normalità sui residui, usando i comandi nella
barra oppure il comando:

eq1.makeresids res1
freeze(statistics) res1.stats

240
Series: Residuals
Sample 1 1403
200
Observations 1403

160 Mean 4.19e-16


Median 0.016823
Maximum 0.659060
120
Minimum -1.602980
Std. Dev. 0.257325
80 Skewness -0.905361
Kurtosis 6.005613
40
Jarque-Bera 719.7641
Probability 0.000000
0
-1.5 -1.0 -0.5 0.0 0.5

Notate che i residui non sono Normali, la kurtosis è di 6, invece che di 3, le skewness è –0.90,
invece che 0; quindi ci sono dei problemi. Osservando il grafico, possiamo vedere che nella coda
sinistra della distribuzione ci sono delle osservazioni che possiamo definire degli outliers, oppure
osservazioni aberranti, ovvero dei valori che possono influenzare pesantemente la nostra
distribuzione in modo sbagliato.
Dal punto di vista economico, considerando che i residui sono la differenza tra i valori effettivi ed i
valori stimati, è possibile che il salario di qualche individuo sia stranamente troppo basso rispetto a
quello stimato, oppure si sono verificati degli errori di misurazione nel raccogliere i dati.

Osservando anche il grafico dei residui dell’equation 1, notiamo questo problema:

93
6.8
6.4
6.0
5.6
5.2
1.0 4.8
0.5 4.4
0.0
-0.5
-1.0
-1.5
-2.0
250 500 750 1000 1250

Residual Actual Fitted

Infatti, ci sono dei residui molto bassi rispetto agli altri, cioè ci sono degli outliers.
Per risolvere questo problema, possiamo scartare queste osservazioni, cambiando il campione,
oppure utilizzare una regola più sistematica.
Per esempio potremmo decidere di scartare tutte le osservazioni i cui residui siano minori di –2
volte lo standard error della regressione, quindi consideriamo una restrizione nel campione di stima
imponendo la restrizione che devono essere utilizzate solo le osservazioni che avevano residui>-
2*standard error nella prima regressione.

scalar se1=eq1.@se
eq1.makeresids resids1
smpl if resids1>-2*se1

Ristimiamo la regressione su questo sottocampione creato:

equation eq2.ls lwage c lexper male educ

Dependent Variable: LWAGE


Method: Least Squares
Sample: 1 1404 IF RESIDS1>-2*SE1
Included observations: 1357

Variable Coefficient Std. Error t-Statistic Prob.


94
C 4.989661 0.031324 159.2940 0.0000
LEXPER 0.187779 0.007528 24.94314 0.0000
MALE 0.102550 0.012269 8.358177 0.0000
EDUC 0.145801 0.005286 27.58135 0.0000

R-squared 0.452598 Mean dependent var 6.016498


Adjusted R-squared 0.451384 S.D. dependent var 0.293670
S.E. of regression 0.217517 Akaike info criterion -0.210132
Sum squared resid 64.01561 Schwarz criterion -0.194766
Log likelihood 146.5748 F-statistic 372.8917
Durbin-Watson stat 1.862342 Prob(F-statistic) 0.000000

Notate l’indicazione del sample, ora abbiamo un sample ristretto ed i coefficienti comunque sono
molto simili alla prima regressione.

Ora riconsideriamo tutti i test sui residui:

Ramsey RESET Test:

F-statistic 2.730810 Probability 0.042613


Log likelihood ratio 8.210025 Probability 0.041865

Test Equation:
Dependent Variable: LWAGE
Method: Least Squares
Sample: 1 1404 IF RESIDS1>-2*SE1
Included observations: 1357

Variable Coefficient Std. Error t-Statistic Prob.

C 4908.100 3076.051 1.595585 0.1108


LEXPER 260.4952 164.6181 1.582421 0.1138
MALE 142.2578 89.90079 1.582386 0.1138
EDUC 202.2573 127.8172 1.582396 0.1138
FITTED^2 -357.1253 221.7743 -1.610309 0.1076
FITTED^3 40.81011 24.91300 1.638105 0.1016
FITTED^4 -1.745487 1.048550 -1.664667 0.0962

R-squared 0.455900 Mean dependent var 6.016498

95
Adjusted R-squared 0.453482 S.D. dependent var 0.293670
S.E. of regression 0.217101 Akaike info criterion -0.211761
Sum squared resid 63.62947 Schwarz criterion -0.184870
Log likelihood 150.6798 F-statistic 188.5268
Durbin-Watson stat 1.872785 Prob(F-statistic) 0.000000

140
Series: RES2
120 Sample 1 1404 IF RESIDS1>
-2*SE1
100 Observations 1357

80 Mean 3.43e-16
Median 0.000884
Maximum 0.635701
60
Minimum -0.539518
Std. Dev. 0.217277
40
Skewness -0.024856
Kurtosis 2.715269
20
Jarque-Bera 4.723677
0 Probability 0.094247
-0.4 -0.2 -0.0 0.2 0.4 0.6

Breusch-Godfrey Serial Correlation LM Test:

F-statistic 3.485439 Probability 0.030916


Obs*R-squared 6.965893 Probability 0.030717

Test Equation:
Dependent Variable: RESID
Method: Least Squares
Presample and interior missing value lagged residuals set to zero.

Variable Coefficient Std. Error t-Statistic Prob.

C 1.30E-07 0.031267 4.15E-06 1.0000


LEXPER 5.82E-05 0.007520 0.007737 0.9938
MALE -0.000313 0.012276 -0.025470 0.9797
EDUC -1.31E-05 0.005277 -0.002490 0.9980
RESID(-1) 0.070211 0.027771 2.528261 0.0116
RESID(-2) -0.042134 0.027715 -1.520250 0.1287
96
R-squared 0.005133 Mean dependent var -2.00E-16
Adjusted R-squared 0.001451 S.D. dependent var 0.217277
S.E. of regression 0.217119 Akaike info criterion -0.212331
Sum squared resid 63.68700 Schwarz criterion -0.189282
Log likelihood 150.0667 F-statistic 1.394175
Durbin-Watson stat 1.994233 Prob(F-statistic) 0.223582

White Heteroskedasticity Test:

F-statistic 1.375072 Probability 0.202819


Obs*R-squared 10.98439 Probability 0.202586

Test Equation:
Dependent Variable: RESID^2
Method: Least Squares
Sample: 1 1404 IF RESIDS1>-2*SE1
Included observations: 1357

Variable Coefficient Std. Error t-Statistic Prob.

C -0.028067 0.032641 -0.859870 0.3900


LEXPER 0.023239 0.013033 1.783114 0.0748
LEXPER^2 -0.000947 0.002041 -0.464140 0.6426
LEXPER*MALE -0.003759 0.004386 -0.856880 0.3917
LEXPER*EDUC -0.003579 0.002016 -1.775877 0.0760
MALE 0.002885 0.017956 0.160652 0.8724
MALE*EDUC 0.002505 0.003185 0.786760 0.4316
EDUC 0.024532 0.011621 2.111017 0.0350
EDUC^2 -0.002415 0.001236 -1.953885 0.0509

R-squared 0.008095 Mean dependent var 0.047174


Adjusted R-squared 0.002208 S.D. dependent var 0.061806
S.E. of regression 0.061738 Akaike info criterion -2.725226
Sum squared resid 5.138002 Schwarz criterion -2.690651
Log likelihood 1858.066 F-statistic 1.375072
Durbin-Watson stat 1.986737 Prob(F-statistic) 0.202819

97
Notate che abbiamo risolto il problema di eteroschedasticità, ma abbiamo creato un po’ di
autocorrelazione nei residui.

Ora utilizzando un nuovo comando: tra gli stability tests possiamo osservare la stima ricorsiva dei
coefficienti della nostra regressione,ovvero come si evolve la stima dei parametri al cambiare del
campione, per capire se i parametri cambiano all’aumentare del livello medio d’istruzione.
Possiamo usare i comandi nella barra:

Oppure il comando nel programma:

98
freeze(c1) eq2.rls(c) c(1) c(2) c(3) c(4)

Ecco l’output:
5 .3 .2 4

5 .2
.2 0

5 .1
.1 6
5 .0
.1 2
4 .9

.0 8
4 .8

4 .7 .0 4
250 500 750 1 00 0 1250 250 500 750 1000 1250

R e cu rs ive C (1 ) Es tim a te s ± 2 S .E . R e cu rs ive C (2 ) E s t im a te s ± 2 S .E .

.3 5 .2 4

.3 0
.2 0

.2 5
.1 6
.2 0
.1 2
.1 5

.0 8
.1 0

.0 5 .0 4
250 500 750 1 00 0 1250 250 500 750 1000 1250

R e cu rs ive C (3 ) Es tim a te s ± 2 S .E . R e cu rs ive C (4 ) E s t im a te s ± 2 S .E .

Notate dal terzo riquadro che il differenziale percentuale di salario tra uomini e donne diminuisce
con l’aumentare dell’istruzione, negli altri casi invece la stima varia di poco. Infatti notiamo che se
l’istruzione è solamente elementare, il salario degli uomini è di poco più superiore del 25% del
salario delle donne, se l’istruzione è universitaria il salario degli uomini è poco più di quello delel
donne “solo” del 10%.
Notata la tabella dei coefficienti stimati di c(1) c(2) c(3) c(4) ricorsivamente:

Stiamo considerando il campione ristretto, senza considerare outliers; notate che l’ultima stima è
quella che è riportata nell’output della regressione eq1.
3) Dummy

Abbiamo detto precedentemente che la variabile educ è una variabile qualitativa che può assumere i
valori 1, 2, 3, 4, 5 a seconda del grado d’istruzione dell’individuo. Utilizzando tale variabile come
regressore abbiamo stimato che un aumento del livello d’istruzione aumenta il salario del 14%.
Se consideriamo restrittiva l’ipotesi che ogni passaggio nel livello d’istruzione porti alla stessa
variazione percentuale di salario, possiamo utilizzare della variabili dummy.

99
Al posto di considerare questa variabile, creiamo delle variabili dummy, ovvero delle variabili
binarie che assumono valore 1 oppure 0, in base al livello di istruzione.
Queste assumono valore 0 tranne nella parte del campione in cui educ assume valore 1 (nel caso di
dummy 1), valore 2 (nel caso di dummy 2), valore 3 (nel caso di dummy 3), valore 4 (nel caso di
dummy 4) e valore 5 (nel caso di dummy 5).
Ecco i comandi:
smpl @all
genr d1=0
genr d2=0
genr d3=0
genr d4=0
genr d5=0
smpl if educ=1
d1=1
smpl if educ=2
d2=1
smpl if educ=3
d3=1
smpl if educ=4
d4=1
smpl if educ=5
d5=1

Ora stimiamo la seconda regressione (considerando sempre il campione ristretto per evitare gli
outliers) usando le dummy al posto di educ.

Ricordate che in questo caso le dummy si dicono additive, perché si sommano alla costante nel
momento in cui assumono valore 1, quindi la pendenza della retta di regressione (logaritmo del
salario in funzione dell’esperienza) è uguale; avremo infatti 5 linee di regressione diverse con
diversa intercetta ma con identica pendenza (se non teniamo conto di male, altrimenti avremmo 10
rette di regressione)..

Notate poi un altro aspetto fondamentale.


Se inseriamo 5 dummy ed una costante, più altri regressori, accade che la matrice delle X non è più
invertibile per un problema di multicollinearità, dato che il regressore legato alla costante è una
colonna di 1 e che quindi è pari alla somma delle dummy, cioè è una loro combinazione lineare.
Quindi non possiamo mettere tutte le variabili, ma dobbiamo scartare una dummy (nel nostro caso
d1).
Questo problema viene chiamato DUMMY TRAP, la trappola della dummy.

smpl if (resids1)>-2*se1
equation eq3.ls lwage c lexper male d2 d3 d4 d5

Dependent Variable: LWAGE


Method: Least Squares
Sample: 1 1404 IF (RESIDS1)>-2*SE1
Included observations: 1357

Variable Coefficient Std. Error t-Statistic Prob.

C 5.141733 0.033373 154.0689 0.0000

100
LEXPER 0.187468 0.007545 24.84598 0.0000
MALE 0.103011 0.012388 8.315611 0.0000
D2 0.143160 0.026130 5.478687 0.0000
D3 0.277877 0.025069 11.08465 0.0000
D4 0.437280 0.025919 16.87124 0.0000
D5 0.577308 0.026807 21.53584 0.0000

R-squared 0.452956 Mean dependent var 6.016498


Adjusted R-squared 0.450524 S.D. dependent var 0.293670
S.E. of regression 0.217688 Akaike info criterion -0.206364
Sum squared resid 63.97378 Schwarz criterion -0.179473
Log likelihood 147.0183 F-statistic 186.3012
Durbin-Watson stat 1.863697 Prob(F-statistic) 0.000000

In questa nuova regressione i coefficienti stimati sono interpretabili in maniera simile rispetto alla
variabile “male”.
Ciò che è interessante da leggere è come passando da un grado scolastico 1 ad un grado 2, il salario
aumenti del 14%, dal secondo grado al terzo aumenti del 13% (0.27-0.14), dal secondo al quarto,
aumenti del 29% (0.43-0.14), dal quarto al terzo aumenti del 16% (0.43-0.27), dal quinto al secondo
aumenti del 43% (0.57-0.14) e dal quarto al quinto del 14% (0.57-0.43).
In effetti, l’approssimazione del tasso di crescita come esponente di e è valido per bassi tassi di
crescita, ma rimane il fatto che con l’aiuto delle dummy possiamo per esempio dire che il salario in
logaritmi aumenta in maniera più rilevante nel caso in cui un individuo scelga la scuola superiore
rispetto alla scuola professionale.

4) Forecasting

In questa sezione accenniamo alle previsioni, che saranno più importanti quando tratteremo i
modelli dinamici (dato che per esempio è in modelli dinamici riguardanti l’evoluzione di un
titolo azionario che apprezziamo maggiormente l’importanza delle previsioni).
Nel nostro caso in cui abbiamo un dataset cross-section di individui possiamo utilizzare le
previsioni come strumento per valutare la bontà di diversi modelli.
Per esempio possiamo confrontare due modelli più semplici dove il salario è funzione
dell’esperienza.
I due modelli verranno stimati nel campione 1-1300, e confrontando i valori previsti per le
ultime osservazioni con i valori effettivi possiamo capire quale possa essere il modello migliore.
L’equazione 4 è la regressione del logaritmo dei salari sull’esperienza sul campione 1 1300

log(wage) = β1 + β 2 exp er + ε t

smpl 1 1300
equation eq4.ls lwage c exper

Dependent Variable: LWAGE

101
Method: Least Squares
Sample: 1 1300
Included observations: 1300

Variable Coefficient Std. Error t-Statistic Prob.

C 5.839672 0.016706 349.5498 0.0000


EXPER 0.008250 0.000839 9.836913 0.0000

R-squared 0.069377 Mean dependent var 5.981452


Adjusted R-squared 0.068660 S.D. dependent var 0.315613
S.E. of regression 0.304586 Akaike info criterion 0.461809
Sum squared resid 120.4187 Schwarz criterion 0.469763
Log likelihood -298.1760 F-statistic 96.76486
Durbin-Watson stat 1.587007 Prob(F-statistic) 0.000000

Interpretiamo il coefficiente stimato come una semi-elasticità, cioè la variazione percentuale del
salario all’aumentare degli anni di esperienza. Se l’esperienza aumenta di 1, il salario aumenta
di 0.008*wage; l’elasticità sarà pari a 0.008*exper.

Ora sul restante campione compiamo una previsione, cioè indichiamo quale dovrebbe essere il
valore atteso del logaritmo del salario di un individuo se conosciamo gli anni di esperienza e sulla
base delle informazioni che abbiamo per i primi 1300 individui.
Possiamo usare i comandi nella barra:

102
Oppure usare i comandi:

smpl 1301 1404


freeze(f4) eq4.forcst(e,n) lwagef4n selwagef4n

Creando la previsione della serie chiamata lwagef4n e lo standard error selwagef4n.


Ed ecco le statistiche che descrivono la previsione:

Forecast: LWAGEF4N
Actual: LWAGE
Forecast sample: 1301 1404
Adjusted sample: 1301 1403
Included observations: 103

Root Mean Squared Error 0.336404


Mean Absolute Error 0.279915
Mean Absolute Percentage Error 4.467966
Theil Inequality Coefficient 0.027767
Bias Proportion 0.359644
Variance Proportion 0.465118
Covariance Proportion 0.175238

103
smpl 1301 1404
group g4 lwage lwagef4n-1.96*selwagef4n lwagef4n+1.96*selwagef4n
freeze(gp4)g4.line

Usando i comandi qui sopra, possiamo creare gli intervalli di confidenza intorno alla previsione.
Confrontandoli con la serie effettiva notiamo che il valore effettivo del logaritmo del salario si
trova quasi sempre all’interno dell’intervallo di confidenza basato sul modello stimato nelle
prime 1300 osservazioni. Se cosi non fosse, possiamo affermare che il modello non funziona per
le ultime osservazioni, e che quindi è meglio provare con un modello diverso, o stimare lo
stesso modello nei due sottocampioni (ci troviamo cioè davanti ad un break strutturale).

6 .8

6 .4

6 .0

5 .6

5 .2
1325 1350 1375 1400

LW AGE
L W A G E F 4 N - 1 .9 6 * S E L W A G E F 4 N
L W A G E F 4 N + 1 .9 6 * S E L W A G E F 4 N

Proviamo a rifare il test di Ramsey su questa specificazione:

Ramsey RESET Test:

F-statistic 25.74577 Prob. F(2,1399) 0.0000


Log likelihood ratio 50.71115 Prob. Chi-Square(2) 0.0000

Test Equation:
Dependent Variable: LWAGE
Method: Least Squares
Sample: 1 1403
Included observations: 1403
104
Coefficient Std. Error t-Statistic Prob.

C 2691.243 4161.783 0.646656 0.5180


EXPER 6.102034 9.151916 0.666749 0.5050
FITTED^2 -112.5849 179.7773 -0.626247 0.5313
FITTED^3 5.834915 9.948995 0.586483 0.5576

R-squared 0.104428 Mean dependent var 5.994157


Adjusted R-squared 0.102507 S.D. dependent var 0.318142
S.E. of regression 0.301395 Akaike info criterion 0.442059
Sum squared resid 127.0839 Schwarz criterion 0.457016
Log likelihood -306.1042 Hannan-Quinn criter. 0.447650
F-statistic 54.37647 Durbin-Watson stat 1.524990
Prob(F-statistic) 0.000000

Rifiutiamo l’ipotesi nulla di linearità.

Ora rifacciamo la stessa operazione sull’altro modello:


log(WAGE ) = β 1 + β 2 EXPER + β 3 EXPER 2 + ε t

smpl 1 1300
equation eq5.ls lwage c exper exper^2

Dependent Variable: LWAGE


Method: Least Squares
Sample: 1 1300
Included observations: 1300

Variable Coefficient Std. Error t-Statistic Prob.

C 5.713872 0.025134 227.3322 0.0000


EXPER 0.026804 0.002923 9.169139 0.0000
EXPER^2 -0.000487 7.35E-05 -6.616059 0.0000

R-squared 0.099759 Mean dependent var 5.981452


Adjusted R-squared 0.098371 S.D. dependent var 0.315613
S.E. of regression 0.299688 Akaike info criterion 0.430156
Sum squared resid 116.4874 Schwarz criterion 0.442087
Log likelihood -276.6013 F-statistic 71.86286
Durbin-Watson stat 1.566832 Prob(F-statistic) 0.000000

105
In questo caso per interpretare i coefficienti dobbiamo fare attenzione alle formule matematiche. Per
calcolare la semi-elasticità:

∂ log(WAGE )
= β 2 + 2 β 3 EXPER
∂EXPER

Invece, l’effetto marginale è calcolato nel seguente modo:

∂WAGE ∂WAGE ∂ log(WAGE )


= = WAGE * (β 2 + 2 β 3 EXPER )
∂EXPER ∂ log(WAGE ) ∂EXPER

Come prima, se prendiamo una media di wage ed exper, abbiamo un valore puntuale, altrimenti
avremo un valore che sarà diverso per ogni individuo.
Ora effettuiamo le previsioni anche per questo secondo modello con i seguenti comandi:

smpl 1301 1404


freeze(f5) eq5.forcst(e,n) lwagef5n selwagef5n

Forecast: LWAGEF5N
Actual: LWAGE
Forecast sample: 1301 1404
Adjusted sample: 1301 1403
Included observations: 103

Root Mean Squared Error 0.326226


Mean Absolute Error 0.274742
Mean Absolute Percentage Error 4.390080
Theil Inequality Coefficient 0.026936
Bias Proportion 0.401099
Variance Proportion 0.325075
Covariance Proportion 0.273826

smpl 1301 1404


group g5 lwage lwagef5n-1.96*selwagef5n lwagef5n+1.96*selwagef5n
freeze(gp5) g5.line

106
6.8

6.4

6.0

5.6

5.2

4.8
1325 1350 1375 1400

LWAGE
LWAGEF5N-1.96*SEL WAGEF5N
LWAGEF5N+1.96*SEL WAGEF5N

Qua sotto riportiamo le formule di Root Mean Squared Error, Mean Absolute Error e Mean
Absolute Percentage Error.

Dove h è la lunghezza del campione di previsione. Le prime due statistiche ci danno un valore
assoluto, ed a parità di variabile dipendente considerata minori sono le statistiche, migliore è il
modello. Se vogliamo avere un’idea dell’importanza relativa degli errori di previsione rispetto
al valore effettivo utilizziamo il Mean Absolute Percentage Error; per esempio in questi due
modelli in media l’errore di previsione è pari a poco più del 4% del valore effettivo.
Sulla base di tali statistiche il modello di eq5 è migliore, ma comunque i valori effettivi sono in
tutti e due i casi all’interno dell’intervallo di confidenza.

Rifacciamo il test di Ramsey su questa specificazione, in cui aggiungiamo l’esperienza al


quadrato:

107
Ramsey RESET Test:

F-statistic 2.379181 Prob. F(1,1399) 0.1232


Log likelihood ratio 2.383957 Prob. Chi-Square(1) 0.1226

Test Equation:
Dependent Variable: LWAGE
Method: Least Squares
Sample: 1 1403
Included observations: 1403

Coefficient Std. Error t-Statistic Prob.

C 52.41160 30.26828 1.731568 0.0836


EXPER 0.496446 0.303935 1.633395 0.1026
EXPER^2 -0.009158 0.005607 -1.633453 0.1026
FITTED^2 -1.426548 0.924853 -1.542459 0.1232

R-squared 0.105728 Mean dependent var 5.994157


Adjusted R-squared 0.103811 S.D. dependent var 0.318142
S.E. of regression 0.301176 Akaike info criterion 0.440605
Sum squared resid 126.8994 Schwarz criterion 0.455563
Log likelihood -305.0847 Hannan-Quinn criter. 0.446196
F-statistic 55.13380 Durbin-Watson stat 1.527830
Prob(F-statistic) 0.000000

Ora non possiamo rifiuta tare l’ipotesi nulla di linearità.

108
PROGRAMMA
'specificazione log-lineare: parametri sono 'principalmente semi-elasticità

'grafico delle variabili qualitative


smpl @all

freeze(male_grafico) male.hist
freeze(educ_grafico) educ.line
'trasformazione logaritmica della variabili wage ed exper
smpl @all
genr lwage=log(wage)
genr lexper=log(exper)
'grafico per confrontare i livelli ed i logaritmi
group ww lwage wage
freeze(ww_grafico) ww.line
group ee lexper exper
freeze(ee_grafico) ee.line
'regressione e test sui residui
equation eq1.ls lwage c lexper male educ
eq1.forcst wagef_eq1

'test di Ramsey-Reset
freeze(ram_reset1) eq1.reset(3)
'test di correlazione seriale
freeze(bp1) eq1.auto(2)
'test di White
freeze(white1) eq1.white(c)

'statistiche sui residui


eq1.makeresids res1
freeze(statistics) res1.stats
freeze(hist_res1) res1.hist

'eliminare gli outliers negativi


scalar se1=eq1.@se
eq1.makeresids resids1

'nuova specificazione sul sottocampione pulito dagli outliers


smpl if resids1>-2*se1
equation eq2.ls lwage c lexper male educ
freeze(ram_reset2) eq2.reset(3)
freeze(bp2) eq2.auto(2)
freeze(white2) eq2.white(c)
eq2.makeresids res2
freeze(statistics2) res2.stats
freeze(hist_res2) res2.hist

'recursive coefficients: l'effetto di educ su wage scende all'aumentare di educ


freeze(c1) eq2.rls(c) c(1) c(2) c(3) c(4)

'creiamo dummy per il livello di istruzione


smpl @all
genr d1=0
genr d2=0
genr d3=0
genr d4=0
genr d5=0

109
smpl if educ=1
d1=1
smpl if educ=2
d2=1
smpl if educ=3
d3=1
smpl if educ=4
d4=1
smpl if educ=5
d5=1

'usiamo le dummy al posto di educ


smpl if (resids1)>-2*se1
equation eq3.ls lwage c lexper male d2 d3 d4 d5

'Confrontiamo due specificazioni usando soltanto la variabile exper con out-of-sample forecasts

'exper in livelli
smpl 1 1300
equation eq4.ls lwage c exper
'forecasting
smpl 1301 1404
freeze(f4) eq4.forcst(e,n) lwagef4n selwagef4n
'intervalli di confidenza
smpl 1301 1404
group g4 lwage lwagef4n-1.96*selwagef4n lwagef4n+1.96*selwagef4n
freeze(gp4) g4.line

'exper in livelli ed in termini quadrati


smpl 1 1300
equation eq5.ls lwage c exper exper^2
'forecasting
smpl 1301 1404
freeze(f5) eq5.forcst(e,n) lwagef5n selwagef5n
'intervalli di confidenza
smpl 1301 1404
group g5 lwage lwagef5n-1.96*selwagef5n lwagef5n+1.96*selwagef5n
freeze(gp5) g5.line

'esempio
smpl 1 20
genr x=@trend*0.01
genr ex=exp(x)
group expo 1+x ex
freeze(exp_graf) expo.line

smpl @all

110
QUINTA ESERCITAZIONE

PRIMA PARTE

L’obiettivo di questa prima parte dell’esercitazione è quello di imparare ad analizzare delle serie
storiche, utilizzando il programma eserc_5.prg.

Creiamo un workfile con 1000 osservazioni

rndseed 10101010
wfcreate(wf=eserc_5) u 1 1000

Generiamo un processo white noise estratto da una normale standardizzata.

genr et=nrnd

Generiamo un processo MA(1) che chiamiamo ht e che useremo in seguito. Le osservazioni al


tempo t di questa serie dipendono solo dai residui al tempo t ed al tempo (t-1):
genr ht=et+0.7*et(-1)

Generiamo inoltre dei processi AR : tali modelli spiegano yt in funzione del suo passato (cioè di
valori ritardati della stessa serie : y(t-1), y(t-2),...,)
Quando generiamo dei processi autoregressivi AR, dobbiamo scegliere le condizione iniziali; il
numero di osservazioni iniziali da fissare corrispondono al numero di ritardi del processo (ad
esempio nel caso di un processo AR(2), dobbiamo fissare 2 osservazioni iniziali). Possiamo fissare
le condizioni iniziali uguali a 0.

genr yt=0
genr xt=0
genr zt=0
genr kt=0

Ora creiamo due processi AR(1): il processo yt è stazionario in senso debole (cioè con media,
varianza ed autocovarianze che non dipendono da t) dato che il parametro alpha è pari a 0.
Invece il processo xt è non stazionario dato che alpha è pari ad 1.
In questo caso vi è un trend stocastico (pari alla sommatoria dei residui), abbiamo cioè un processo
con radice unitaria.

smpl 2 1000
genr yt=0.7*yt(-1)+et
genr xt=xt(-1)+et

Ora creiamo zt come somma tra un trend deterministico e il residuo al tempo t:


genr zt=@trend+et

Ed infine creiamo un processo autoregressivo stazionario con trend deterministico :


genr kt=0.6*kt(-1)+0.1*@trend+et

111
Ora osserviamo il grafico dei 4 processi :

freeze(graph_yt) yt.line
freeze(graph_xt) xt.line
freeze(graph_zt) zt.line
freeze(graph_kt) kt.line
300 40

250 30

20
200
10
150
0
100
-10
50
-20
0 -30

-50 -40
250 500 750 1000 250 500 750 1000

KT XT

4 1200
3
1000
2
1 800
0
600
-1
-2 400
-3
200
-4
-5 0
250 500 750 1000 250 500 750 1000

YT ZT

Notate che la serie yt sembra essere correlata, ma la correlazione non è molto alta e la serie oscilla
intorno allo zero, la media del processo (proprietà del mean reverting). Infatti nei processi
autoregressivi, stazionari, media e varianza non dipendono dal tempo.
Invece il processo xt non oscilla intorno allo zero, poiché gli effetti dei singoli residui si cumulano
senza scomparire nel medio-lungo periodo come nel caso precedente; questo è un sintomo di
persistenza generata da una radice unitaria. In questo caso la varianza del processo aumenta
all’aumentare del tempo.
La serie zt mostra le caratteristiche di un trend lineare, deterministico, notate che la serie cresce con
l’aumentare del tempo. Anche la serie kt mostra le caratteristiche di un trend deterministico, anche
se è una combinazione tra un processo autoregressivo stazionario ed un trend deterministico.

Nel caso di serie storiche, è utile osservare il correlogramma delle serie in questione.
Il correlogramma mette in evidenza la partial autocorrelation e la autocorrelation function.

freeze(correl_yt) yt.correl(16)

112
freeze(correl_xt) xt.correl(16)
freeze(correl_zt) zt.correl(16)
freeze(correl_kt) kt.correl(16)

Nel caso di un modello AR(1) l’autocorrelation function teorica d’ordine k è pari alla potenza k-
esima di alpha, mentre per quanto riguarda la PACF è sempre pari a 0 a parte il primo termine che è
uguale al primo termine della ACF.
Infatti se osserviamo il correlogramma di yt vediamo che l’ACF è molto simile a quella teorica (le
potenze di 0.7, vedete equazione (16)), PACF(1) è pari a 0.69, e gli altri termini della PACF sono
non significativi.
Se avessimo avuto un processo AR(k) stazionario, avremmo avuto k termini della PACF
significativi. Un processo white noise (cioè una serie non autocorrelata) avrebbe un correlogramma
con nessun termine significativo.
Nel caso della serie xt in cui è presente un trend stocastico, l’ACF decresce lentamente, infatti esso
è semplicemente funzione di t e k (vedete equazione (18)).
La PACF ha solo il primo termine significativo.

Correlogramma delle serie stazionaria, yt (processo stazionario):

Correlogramma delle serie non stazionaria, xt (processo con radice unitaria):

113
Per quanto riguarda le due serie zt e kt che hanno un trend deterministico, il correlogramma è molto
simile al caso della serie non stazionaria xt. Ciò succede perché le due serie sono molto persistenti a
causa del trend deterministico. Quindi l’osservazione delle serie e del correlogramma non sono
sufficienti al fine di determinare se in una serie sia presente un trend stocastico.

Correlogramma di zt (processo con trend deterministico):

Correlogramma di kt (processo AR con anche trend deterministico):

Per determinare se una serie è stazionaria, esistono molti tests nella letteratura econometrica, i tests
principali possono essere fatti su Eviews. In questa esercitazione ne abbiamo citato solo due:
Augmented Dickey-Fueller (ADF) e KPSS

114
Nell’ADF l’ipotesi nulla che viene testata è la presenza di radice unitaria (cioè di un trend
stocastico); invece in KPSS, l’ipotesi nulla è la stazionarietà del processo. Entrambi i test sono
costruiti usando regressioni ausiliarie. Ecco i comandi per il test ADF e per il test KPSS,
rispettivamente.

freeze(adf_yt) yt.adf
freeze(adf_xt) xt.adf
freeze(adf_zt) zt.adf
freeze(adf_kt) kt.adf

freeze(kpss_yt) yt.uroot(kpss)
freeze(kpss_xt) xt.uroot(kpss)
freeze(kpss_zt) zt.uroot(kpss)
freeze(kpss_kt) kt.uroot(kpss)

Nel caso di questi test, è meglio implementarli usando le finestre, dato che c’è la possibilità di
scegliere diverse opzioni.
Il test ADF si basa su una rispecificazione del modello AR(k) della nostra serie di interesse,
depurata da costante ed eventuale trend deterministico.
L’AR(k) della parte stocastica del modello (cioè al netto di costante e trend deterministico) diventa
un AR(k-1) della serie in differenze prime a cui si aggiunge y(t-1).
Se stimando questo modello il parametro y(t-1) è significativamente maggiore di 0 allora vuol dire
che vi è una radice unitaria che può essere eliminata semplicemente facendo la differenza prima
della serie d’interesse. Infatti se fosse significativamente uguale o maggiore di zero ci troveremmo
davanti ad una serie con unit root o davanti ad una serie con andamento esplosivo.

Per effettuare il test ADF dobbiamo scegliere Unit Root test dalla finestra della serie::

115
Lag length indica il numero di ritardi della serie in differenze prime da inserire nella regressione; è
possibile fare in modo che Eviews scelga il numero di ritardi automaticamente tramite lo Schwarz
Info Criterion (come in questo caso), o indicare i numeri di ritardi.
Possiamo scegliere di inserire nella regressione ausiliaria che valuterà la radice unitaria un trend
deterministico e l’intercetta, l’intercetta oppure nessuna delle opzioni precedenti, e chiedere di
effettuare il test sulla serie stessa, o sulla sua differenza prima o seconda.
Per scegliere bene l’opzione possiamo osservare il grafico della serie, per esempio nel caso di xt e
yt non notiamo né intercetta, né trend lineare, quindi possiamo scegliere l’opzione none.
Implementando il test per XT vediamo che non si rifiuta l’ipotesi nulla.

Null Hypothesis: XT has a unit root


Exogenous: Constant
Lag Length: 0 (Automatic based on SIC, MAXLAG=21)

t-Statistic Prob.*

Augmented Dickey-Fuller test statistic 0.755295 0.9933


Test critical values: 1% level -3.436676
5% level -2.864222
10% level -2.568250

*MacKinnon (1996) one-sided p-values.

Augmented Dickey-Fuller Test Equation


Dependent Variable: D(XT)
Method: Least Squares
Date: 05/25/07 Time: 14:08
Sample: 2 1000
Included observations: 999

116
Variable Coefficient Std. Error t-Statistic Prob.

XT(-1) 0.001133 0.001500 0.755295 0.4503


C -0.045743 0.033035 -1.384663 0.1665

R-squared 0.000572 Mean dependent var -0.037501


Adjusted R-squared -0.000431 S.D. dependent var 0.985322
S.E. of regression 0.985534 Akaike info criterion 2.810734
Sum squared resid 968.3640 Schwarz criterion 2.820558
Log likelihood -1401.962 F-statistic 0.570470
Durbin-Watson stat 2.083576 Prob(F-statistic) 0.450251

Come vedete sopra la statistica d’interesse è la t-statistics per l’ipotesi nulla che xt(-1) sia
significativamente minore di 0. Il p-value riportato nella regressione non è affidabile, perché nel
caso di presenza di radice unitaria, la statistica t non si distribuisce come una t-student.
Potete osservare tutto ciò facendo girare il programma olsunit.prg, in cui vengono simulati 1000
AR(1) stazionari e 1000 AR(1) con radice unitaria. Il programma produce tre grafici, tra cui il
grafico disttstat che mostra come la distribuzione (stimata con metodi nonparametrici) di tale
statistica sia distorta e asimmetrica:

Kernel Density (Epanechnikov, h = 0.5682)


.5

.4

.3

.2

.1

.0
-3 -2 -1 0 1 2 3
SER03

Da tale esempio possiamo capire perché il valore critico indicato nella tabella del test al 5% di
significatività sia pari a -2.86. Eviews riporta i valori critici per le diverse specificazioni; tali valori
critici sono stati tabulati sulla base di simulazioni simili a quelle fatte in quest’ultimo programma.
Nel caso di yt la t-statistics è molto bassa, quindi rifiutiamo l’ipotesi nulla di nonstazionarietà:

117
Null Hypothesis: YT has a unit root
Exogenous: None
Lag Length: 0 (Automatic based on SIC, MAXLAG=12)

t-Statistic Prob.*

Augmented Dickey-Fuller test statistic -4.290009 0.0000


Test critical values: 1% level -2.588292
5% level -1.944072
10% level -1.614616

*MacKinnon (1996) one-sided p-values.

Nel caso della serie zt, dobbiamo svolgere il test usando l’opzione trend ed intercetta:
Null Hypothesis: ZT has a unit root
Exogenous: Constant, Linear Trend
Lag Length: 0 (Automatic based on SIC, MAXLAG=12)

t-Statistic Prob.*

Augmented Dickey-Fuller test statistic -9.614275 0.0000


Test critical values: 1% level -4.052411
5% level -3.455376
10% level -3.153438

*MacKinnon (1996) one-sided p-values.

In questo caso rifiutiamo l’ipotesi nulla di radice unitaria, perché infatti abbiamo un trend
deterministico non stocastico, anche se il correlogramma di zt è molto simile a quello di un
processo non stazionario.

Se avessimo scelto l’opzione none, il risultato sarebbe stato:


Null Hypothesis: ZT has a unit root
Exogenous: None
Lag Length: 21 (Automatic based on SIC, MAXLAG=21)

t-Statistic Prob.*

Augmented Dickey-Fuller test statistic 0.348100 0.7853

118
Test critical values: 1% level -2.567329
5% level -1.941147
10% level -1.616481

*MacKinnon (1996) one-sided p-values.

In questo caso avremmo non rifiutato l’ipotesi nulla ed avremmo detto erroneamente che nella serie
c’è una radice unitaria.
Per evitare errori simili, dobbiamo guardare il grafico della serie per capire se c’è un trend od
un’intercetta, altrimenti possiamo anche guardare se il trend o l’intercetta nella regressione ausiliare
sono significative. Rifacciamo il test con l’opzione trend ed intercetta:

Augmented Dickey-Fuller Test Equation


Dependent Variable: D(ZT)
Method: Least Squares
Date: 05/21/07 Time: 23:01
Sample (adjusted): 2 1000
Included observations: 999 after adjustments

Variable Coefficient Std. Error t-Statistic Prob.

ZT(-1) -1.048944 0.031652 -33.14006 0.0000


C 0.075566 0.068111 1.109452 0.2675
@TREND(1) 1.048616 0.031642 33.13975 0.0000

R-squared 0.524415 Mean dependent var 0.999325


Adjusted R-squared 0.523460 S.D. dependent var 1.421077
S.E. of regression 0.980996 Akaike info criterion 2.802501
Sum squared resid 958.5031 Schwarz criterion 2.817236
Log likelihood -1396.849 F-statistic 549.1322
Durbin-Watson stat 2.000318 Prob(F-statistic) 0.000000

Notate che il trend è significativamente diverso da zero.

Un discorso simile può essere fatto con la serie kt, che è un processo stazionario ma con un trend
deterministico. Implementiamo ADF con l’opzione trend:

119
Null Hypothesis: KT has a unit root
Exogenous: Constant, Linear Trend
Lag Length: 0 (Automatic based on SIC, MAXLAG=21)

t-Statistic Prob.*

Augmented Dickey-Fuller test statistic -16.57494 0.0000


Test critical values: 1% level -3.967261
5% level -3.414318
10% level -3.129280

*MacKinnon (1996) one-sided p-values.

Con l’opzione none:

Null Hypothesis: KT has a unit root


Exogenous: None
Lag Length: 5 (Automatic based on SIC, MAXLAG=21)

t-Statistic Prob.*

Augmented Dickey-Fuller test statistic 10.02331 1.0000


Test critical values: 1% level -2.567291
5% level -1.941142
10% level -1.616485

*MacKinnon (1996) one-sided p-values.

Per quanto riguarda il test KPSS, si tratta di un test complesso che richiede anche la stima dello
spettro dei residui (vedete pagina 7 del pdf con l’help di Eviews), ed in cui l’ipotesi nulla è
l’assenza di una radice unitaria.
In questa esercitazione riportiamo solo alcuni esempi, mostrando come interpretare la statistica
riportata. Anche in questo caso possiamo scegliere se inserire la costante e/o il trend.

120
Anche in questo caso, siamo interessati a valutare l’ipotesi nulla aggiungendo nella regressione
ausiliare il trend e l’intercetta oppure solo l’intercetta.
Nel caso di xt, non era presente il trend, quindi scegliamo solo intercetta:

121
Null Hypothesis: XT is stationary
Exogenous: Constant
Bandwidth: 24 (Newey-West using Bartlett kernel)

LM-Stat.

Kwiatkowski-Phillips-Schmidt-Shin test statistic 2.619567


Asymptotic critical values*: 1% level 0.739000
5% level 0.463000
10% level 0.347000

*Kwiatkowski-Phillips-Schmidt-Shin (1992, Table 1)

In questo caso, l’output di Eviews non calcola il p-value, quindi dobbiamo confrontare la statistica
ottenuta con il valore critico asintotico tabulato da Eviews, scegliamo sempre come livello di
significatività il 5%. 2.61>0.463, quindi rifiutiamo l’ipotesi nulla di stazionarietà, xt non è
stazionaria ed ha una radice unitaria.
Nel caso di yt, scegliamo sempre l’opzione intercetta:

Null Hypothesis: YT is stationary


Exogenous: Constant
Bandwidth: 19 (Newey-West using Bartlett kernel)

LM-Stat.

Kwiatkowski-Phillips-Schmidt-Shin test statistic 0.868995


Asymptotic critical values*: 1% level 0.739000
5% level 0.463000
10% level 0.347000

*Kwiatkowski-Phillips-Schmidt-Shin (1992, Table 1)

In questo caso 0.868>0.463, la statistica calcolata è superiore rispetto a quella tabulata; quindi
rifiutiamo l’ipotesi nulla, la serie yt non è stazionaria. Ciò è strano dato che siamo sicuri (dato che
l’abbiamo creata noi) che la serie sia stazionaria. Scegliamo l’opzione trend:

122
Null Hypothesis: YT is stationary
Exogenous: Constant, Linear Trend
Bandwidth: 18 (Newey-West using Bartlett kernel)

LM-Stat.

Kwiatkowski-Phillips-Schmidt-Shin test statistic 0.064930


Asymptotic critical values*: 1% level 0.216000
5% level 0.146000
10% level 0.119000

*Kwiatkowski-Phillips-Schmidt-Shin (1992, Table 1)

Residual variance (no correction) 1.768173


HAC corrected variance (Bartlett kernel) 9.375627

KPSS Test Equation


Dependent Variable: YT
Method: Least Squares
Sample: 1 1000
Included observations: 1000

Variable Coefficient Std. Error t-Statistic Prob.

C 0.390105 0.084120 4.637461 0.0000


@TREND(1) -0.001025 0.000146 -7.030561 0.0000

R-squared 0.047191 Mean dependent var -0.121946


Adjusted R-squared 0.046236 S.D. dependent var 1.362940
S.E. of regression 1.331058 Akaike info criterion 3.411824
Sum squared resid 1768.173 Schwarz criterion 3.421639
Log likelihood -1703.912 F-statistic 49.42879
Durbin-Watson stat 0.647670 Prob(F-statistic) 0.000000

Notate che il trend è significativamente diverso da zero nella regressione ausiliaria ed ora non
rifiutiamo l’ipotesi nulla di stazionarietà, dato che 0.06<0.146.
A volte KPSS e ADF possono essere contraddittori e nel caso in cui abbiamo delle serie storiche
non generate da noi, dobbiamo stare molto attenti a valutare le diverse ipotesi.
123
Nel caso di zt, dobbiamo inserire l’opzione trend:

Null Hypothesis: ZT is stationary


Exogenous: Constant, Linear Trend
Bandwidth: 2 (Newey-West using Bartlett kernel)

LM-Stat.

Kwiatkowski-Phillips-Schmidt-Shin test statistic 0.061582


Asymptotic critical values*: 1% level 0.216000
5% level 0.146000
10% level 0.119000

*Kwiatkowski-Phillips-Schmidt-Shin (1992, Table 1)

Così non rifiutiamo l’ipotesi nulla, la serie zt è stazionaria. Notate che nella regressione ausiliaria, il
trend è significativamente diverso da zero:

KPSS Test Equation


Dependent Variable: ZT
Method: Least Squares
Sample: 1 1000
Included observations: 1000

Variable Coefficient Std. Error t-Statistic Prob.

C 0.118278 0.062010 1.907416 0.0568


@TREND(1) 0.999688 0.000107 9300.759 0.0000

R-squared 0.999988 Mean dependent var 499.4625


Adjusted R-squared 0.999988 S.D. dependent var 288.7310
S.E. of regression 0.981195 Akaike info criterion 2.801907
Sum squared resid 960.8182 Schwarz criterion 2.811723
Log likelihood -1398.953 F-statistic 86504117
Durbin-Watson stat 2.097609 Prob(F-statistic) 0.000000

Se non avessimo inserito l’opzione trend:

124
Null Hypothesis: ZT is stationary
Exogenous: Constant
Bandwidth: 24 (Newey-West using Bartlett kernel)

LM-Stat.

Kwiatkowski-Phillips-Schmidt-Shin test statistic 4.102351


Asymptotic critical values*: 1% level 0.739000
5% level 0.463000
10% level 0.347000

*Kwiatkowski-Phillips-Schmidt-Shin (1992, Table 1)

In questo caso avremmo rifiutato l’ipotesi nulla di stazionarietà.


Controlliamo kt, con l’opzione trend:

Null Hypothesis: KT is stationary


Exogenous: Constant, Linear Trend
Bandwidth: 16 (Newey-West using Bartlett kernel)

LM-Stat.

Kwiatkowski-Phillips-Schmidt-Shin test statistic 0.064980


Asymptotic critical values*: 1% level 0.216000
5% level 0.146000
10% level 0.119000

*Kwiatkowski-Phillips-Schmidt-Shin (1992, Table 1)

Non rifiutiamo l’ipotesi nulla di stazionarietà.

Ora stimiamo i diversi modelli.

'stimiamo i diversi modelli


'stima con yt(-1), la costante è la media condizionata
equation eq01a.ls yt c yt(-1)
'stima con AR(1), la costante è la media incondizionata
equation eq01b.ls yt c ar(1)
'stima di un modello con radice unitaria
equation eq02.ls xt c ar(1)
'stima di un modello con trend deterministico
equation eq03.ls zt c @trend

125
'stima di un modello AR stazionario con trend deterministico
equation eq04.ls kt c @trend ar(1)
'diverse stime per il modello MA
equation eq05a.ls ht c ar(1)
equation eq05b.ls ht c ar(1) ar(2)
equation eq05c.ls ht c ar(1) ar(2) ar(3)
equation eq05d.ls ht c ma(1)

Iniziamo con il modello di yt.


Nel caso di serie storiche possiamo usare nella regressione yt(-1), la ritardata oppure il termine
AR(1). Notate che non c’è differenza nella stima, l’unica differenza è nella costante, nel caso di yt(-
1), la costante rappresenta la media condizionata, nel caso in cui usiamo AR(1), la costante
rappresenta la media incondizionata (che nei processi autoregressivi e pari al rapporto tra la media
condizionata e la diffenza tra 1 ed i parametri legati alle variabili ritardate).

Dependent Variable: YT
Method: Least Squares
Sample: 2 1000
Included observations: 999

Variable Coefficient Std. Error t-Statistic Prob.

C -0.038518 0.031310 -1.230219 0.2189


YT(-1) 0.691576 0.022891 30.21218 0.0000

R-squared 0.477949 Mean dependent var -0.122068


Adjusted R-squared 0.477425 S.D. dependent var 1.363617
S.E. of regression 0.985749 Akaike info criterion 2.811171
Sum squared resid 968.7865 Schwarz criterion 2.820994
Log likelihood -1402.180 F-statistic 912.7755
Durbin-Watson stat 2.062614 Prob(F-statistic) 0.000000

Dependent Variable: YT
Method: Least Squares
Sample: 2 1000
Included observations: 999
Convergence achieved after 3 iterations

Variable Coefficient Std. Error t-Statistic Prob.

C -0.124887 0.101120 -1.235040 0.2171


AR(1) 0.691576 0.022891 30.21218 0.0000

126
R-squared 0.477949 Mean dependent var -0.122068
Adjusted R-squared 0.477425 S.D. dependent var 1.363617
S.E. of regression 0.985749 Akaike info criterion 2.811171
Sum squared resid 968.7865 Schwarz criterion 2.820994
Log likelihood -1402.180 F-statistic 912.7755
Durbin-Watson stat 2.062614 Prob(F-statistic) 0.000000

Inverted AR Roots .69

Considerate la seguente formula, prendete la costante delle prima regressione (la media
condizionata), dividetela per 1 meno il coefficiente legato a y(-1) ed otterrete la media
incondizionata del processo.

-0.038518/(1-0.691576)= -0.124887

Stimiamo xt:

Dependent Variable: XT
Method: Least Squares
Sample: 2 1000
Included observations: 999
Convergence achieved after 5 iterations

Variable Coefficient Std. Error t-Statistic Prob.

C 40.38707 51.76457 0.780207 0.4355


AR(1) 1.001133 0.001500 667.6151 0.0000

R-squared 0.997768 Mean dependent var 7.239847


Adjusted R-squared 0.997766 S.D. dependent var 20.85057
S.E. of regression 0.985534 Akaike info criterion 2.810734
Sum squared resid 968.3640 Schwarz criterion 2.820558
Log likelihood -1401.962 F-statistic 445710.0
Durbin-Watson stat 2.083576 Prob(F-statistic) 0.000000

Inverted AR Roots 1.00


Estimated AR process is nonstationary

Notate che la radice unitaria viene riconosciuta da Eviews ed il processo è indicato come non
stazionario. La media non condizionata è molto diversa rispetto alla media della serie (40 invece di

127
7) perché dividendo la stima della media condizionata per 1-1.001133 si ottiene una stima della
media non condizionata che tende ad infinito
Nel caso di zt, il trend deterministico è significativamente diverso da zero.

Dependent Variable: ZT
Method: Least Squares
Sample: 2 1000
Included observations: 999

Variable Coefficient Std. Error t-Statistic Prob.

C 0.118753 0.062165 1.910293 0.0564


@TREND 0.999687 0.000108 9282.219 0.0000

R-squared 0.999988 Mean dependent var 499.9625


Adjusted R-squared 0.999988 S.D. dependent var 288.4423
S.E. of regression 0.981680 Akaike info criterion 2.802897
Sum squared resid 960.8042 Schwarz criterion 2.812720
Log likelihood -1398.047 F-statistic 86159583
Durbin-Watson stat 2.097593 Prob(F-statistic) 0.000000

In questo ultimo caso sia la componente di trend deterministico che quella AR sono riconosciute
significativamente diverse da zero.

Dependent Variable: KT
Method: Least Squares
Sample: 2 1000
Included observations: 999
Convergence achieved after 3 iterations

Variable Coefficient Std. Error t-Statistic Prob.

C -0.077188 0.143938 -0.536256 0.5919


@TREND 0.249220 0.000249 1001.361 0.0000
AR(1) 0.567386 0.026100 21.73855 0.0000

R-squared 0.999814 Mean dependent var 124.5337


Adjusted R-squared 0.999814 S.D. dependent var 71.91897
S.E. of regression 0.981404 Akaike info criterion 2.803332
Sum squared resid 959.3003 Schwarz criterion 2.818067
Log likelihood -1397.265 F-statistic 2679239.
Durbin-Watson stat 2.032427 Prob(F-statistic) 0.000000

128
Inverted AR Roots .57

Dato che come abbiamo visto in precedenza, R2 non è affidabile per scoprire quale sia il modello
autoregressivo più adatto dobbiamo stimare diversi modelli e confrontarli sulla base di SIC, AIC o
le statistiche legate alla capacità previsiva di tale modelli. Consideriamo per esempio il processo ht.
Stimiamolo i modelli AR(1), AR(2) ed AR(3).

Dependent Variable: HT
Method: Least Squares
Sample (adjusted): 3 1000
Included observations: 998 after adjustments
Convergence achieved after 3 iterations

Variable Coefficient Std. Error t-Statistic Prob.

C -0.065232 0.060563 -1.077096 0.2817


AR(1) 0.448188 0.028345 15.81167 0.0000

R-squared 0.200648 Mean dependent var -0.063553


Adjusted R-squared 0.199845 S.D. dependent var 1.180255
S.E. of regression 1.055754 Akaike info criterion 2.948389
Sum squared resid 1110.158 Schwarz criterion 2.958221
Log likelihood -1469.246 F-statistic 250.0088
Durbin-Watson stat 1.762405 Prob(F-statistic) 0.000000

Inverted AR Roots .45

Dependent Variable: HT
Method: Least Squares
Sample (adjusted): 4 1000
Included observations: 997 after adjustments
Convergence achieved after 3 iterations

Variable Coefficient Std. Error t-Statistic Prob.

C -0.061597 0.046425 -1.326791 0.1849


AR(1) 0.565447 0.030596 18.48097 0.0000
AR(2) -0.260672 0.030610 -8.515809 0.0000

R-squared 0.255779 Mean dependent var -0.062276

129
Adjusted R-squared 0.254282 S.D. dependent var 1.180157
S.E. of regression 1.019125 Akaike info criterion 2.878770
Sum squared resid 1032.383 Schwarz criterion 2.893528
Log likelihood -1432.067 F-statistic 170.8125
Durbin-Watson stat 1.893285 Prob(F-statistic) 0.000000

Inverted AR Roots .28-.43i .28+.43i

Dependent Variable: HT
Method: Least Squares
Sample (adjusted): 5 1000
Included observations: 996 after adjustments
Convergence achieved after 3 iterations

Variable Coefficient Std. Error t-Statistic Prob.

C -0.063706 0.056776 -1.122069 0.2621


AR(1) 0.618091 0.031120 19.86184 0.0000
AR(2) -0.372849 0.034802 -10.71358 0.0000
AR(3) 0.196826 0.031108 6.327206 0.0000

R-squared 0.285308 Mean dependent var -0.062363


Adjusted R-squared 0.283146 S.D. dependent var 1.180747
S.E. of regression 0.999706 Akaike info criterion 2.841296
Sum squared resid 991.4158 Schwarz criterion 2.860990
Log likelihood -1410.965 F-statistic 132.0034
Durbin-Watson stat 1.945689 Prob(F-statistic) 0.000000

Inverted AR Roots .57 .02-.59i .02+.59i

Ciò che notiamo che in tutte e tre le regressioni i coefficienti sono significativamente diversi da
zero.
Quale modello dobbiamo scegliere?
Per la scelta, non dobbiamo usare R squared, dato che esso è funzione dei coefficienti.
Dobbiamo usare due indicatori AIC e SIC, nel migliore modello essi sono minimizzati, in
questo caso l’AR(3) ha lo Schwarz Info Criterion più basso.
Il modello che noi scegliamo deve essere però capace di modelizzare l’autocorrelazione delle serie,
per cui i residui devono essere non autocorrelati. Dobbiamo cioè osservare il correlogramma dei
residui (tale correlogramma è la prima scelta tra i residual tests dell’equazione), ed accertarci che
tutti i termini di ACF e PACF siano non significativi.
Di seguito vediamo il correlogramma dei residui per i modelli autoregressivi che abbiamo stimato,
come vedere i residui rimangono autocorrelati. Il problema è che ht è un cosiddetto processo

130
Moving Average d’ordine 1 (MA(1)), che corrisponde ad un processo autoregressivo con un
numero infinito di termini.

131
Sarà sufficiente digitare il seguente comando per ottenere in questo caso un modello con residui non
autocorrelati: ls ht c ma(1)

Un altro sistema per confrontare diversi modelli è tramite le previsioni, si possono cioè confrontare
le statistiche riguardanti la bontà delle previsioni, come il RMSE dei diversi modelli.
Nel caso di serie storiche Eviews da due opzioni: previsioni dinamiche e previsioni statiche.
Per Eviews effettuare previsioni dinamiche significa non utilizzare le informazioni presenti nel
campione sul quale effettuiamo le previsioni. Ciò significa che per tali previsioni si utilizza il
modello,le osservazioni ed i parametri stimati nella prima parte del campione, e si sostituiscono le
osservazioni effettive nel periodo di previsione, con le previsioni. Effettuare previsioni statiche
significa per Eviews utilizzare le osservazioni effettive.
Per capire meglio la differenza facciamo l’esempio del modello AR(1) per la serie stazionaria yt.
Stimiamo ls yt c ar(1) sulle prime 900 osservazioni e prevediamo sul restante campione.

Dependent Variable: YT
Method: Least Squares
Sample (adjusted): 2 900
Included observations: 899 after adjustments
Convergence achieved after 3 iterations

Variable Coefficient Std. Error t-Statistic Prob.

C -0.113532 0.107502 -1.056084 0.2912


AR(1) 0.693094 0.024072 28.79205 0.0000

R-squared 0.480296 Mean dependent var -0.114640


Adjusted R-squared 0.479716 S.D. dependent var 1.371457
S.E. of regression 0.989241 Akaike info criterion 2.818465
Sum squared resid 877.8027 Schwarz criterion 2.829147
Log likelihood -1264.900 F-statistic 828.9819
Durbin-Watson stat 2.080816 Prob(F-statistic) 0.000000

Inverted AR Roots .69

'forecasting su AR(1) stazionario

smpl 1 900
equation eq01c.ls yt c ar(1)

smpl 901 1000


freeze(forecast) eq01d.forecast(g,e) ytf1 ytf1_se
freeze(forecast_s) eq01d.fit(g,e) ytf2 ytf2_se

Qua sopra vediamo i comandi per previsioni dinamiche e statiche (per le quali si usa fit). Di seguito
vediamo che nella finestra Forecast è stata aggiunta l’opzione di scelta Dynamic/Static.

132
3
Forecast: YTF
Actual: YT
2
Forecast sample: 901 1000
Included observations: 100
1
Root Mean Squared Error 1.279938
0 Mean Absolute Error 1.085610
Mean Abs. Percent Error 113.4935
Theil Inequality Coefficient 0.903624
-1 Bias Proportion 0.004710
Variance Proportion 0.934520
-2 Covariance Proportion 0.060770

-3
925 950 975 1000

YTF

Il grafico sopra riportato mostra le previsioni dinamiche. La previsione di y(901) è pari a


y(900)*0.69, la previsione di y(902)=0.69*0.69*y(900), e cosi via (vedete equazione (46)).
Nel lungo periodo l’effetto di y(900) scompare e la previsione tende alla media non
condizionata del modello.
Invece nel caso di previsioni statiche riportate di seguito, vediamo che la previsione di y(903) è
uguale a 0.69*y(902) (vedete equazione (47)). Per maggiori dettagli sulle previsioni leggete gli
appunti in pdf sui modelli dinamici.

133
5
Forecast: YTF
4 Actual: YT
3 Forecast sample: 901 1000
Included observations: 100
2
Root Mean Squared Error 0.953941
1
Mean Absolute Error 0.798041
0 Mean Abs. Percent Error 192.1410
Theil Inequality Coefficient 0.432126
-1 Bias Proportion 0.001337
Variance Proportion 0.173829
-2
Covariance Proportion 0.824834
-3

-4
925 950 975 1000

YTF

134
SECONDA PARTE

Lo scopo di questa seconda parte è quello di analizzare il problema delle regressioni spurie,
considerando serie storiche non stazionarie ed analizzare il caso di cointegrazione tra due serie
storiche.

Consideriamo due serie storiche:


genr et=nrnd
genr ut=nrnd
genr xt=0
genr yt=0
smpl 2 1000
genr yt=2+yt(-1)+et
genr xt=3+xt(-1)+ut

Ambedue le serie sono non stazionarie, sono serie con radice unitaria, chiamate RANDOM WALK,
nel caso specifico con DRIFT, dato che sia in X che in Y c’è la costante.

XT YT
3200 3200

2800 2800

2400 2400

2000 2000

1600 1600

1200 1200

800 800

400 400

0 0
250 500 750 1000 250 500 750 1000

Testiamo l’ipotesi nulla di radice unitaria con il test ADF, usando per ambedue l’opzione di
costante, non rifiutiamo l’ipotesi nulla:

Null Hypothesis: XT has a unit root


Exogenous: Constant
Lag Length: 0 (Automatic based on SIC, MAXLAG=21)

t-Statistic Prob.*

Augmented Dickey-Fuller test statistic -1.400021 0.5835


Test critical values: 1% level -3.436676
5% level -2.864222
10% level -2.568250

*MacKinnon (1996) one-sided p-values.

135
Null Hypothesis: YT has a unit root
Exogenous: Constant
Lag Length: 0 (Automatic based on SIC, MAXLAG=21)

t-Statistic Prob.*

Augmented Dickey-Fuller test statistic 1.270287 0.9986


Test critical values: 1% level -3.436676
5% level -2.864222
10% level -2.568250

*MacKinnon (1996) one-sided p-values.

Possiamo concludere che sia X che Y sono serie autocorrelate non stazionarie, presentano radice
unitaria e vengono chiamate integrate di ordine uno [I(1)], dato che se prendiamo la differenza
prima di X e di Y, queste ultime sono stazionarie:

genr dxt=d(xt)
genr dyt=d(yt)

DXT DYT
7 7

6 6

5 5

4 4

3 3

2 2

1 1

0 0
250 500 750 1000 250 500 750 1000

Considerando per esempio solo X, notate che DX non ha più radice unitaria, è stazionaria ed il
correlogramma è simile ad un correlogramma di un white noise:

Null Hypothesis: DXT has a unit root


Exogenous: Constant
Lag Length: 0 (Automatic based on SIC, MAXLAG=21)

t-Statistic Prob.*

136
Augmented Dickey-Fuller test statistic -31.37296 0.0000
Test critical values: 1% level -3.436683
5% level -2.864225
10% level -2.568251

*MacKinnon (1996) one-sided p-values.

Provate ad osservare DY.

Ora proviamo regredire la variabile y sulla x.


equation eq01.ls yt c xt

Dependent Variable: YT
Method: Least Squares
Sample: 2 1000
Included observations: 999

Variable Coefficient Std. Error t-Statistic Prob.

C -12.27947 0.556468 -22.06679 0.0000


XT 0.681855 0.000321 2125.973 0.0000

137
R-squared 0.999779 Mean dependent var 1016.806
Adjusted R-squared 0.999779 S.D. dependent var 583.9298
S.E. of regression 8.676015 Akaike info criterion 7.161002
Sum squared resid 75047.42 Schwarz criterion 7.170825
Log likelihood -3574.920 F-statistic 4519760.
Durbin-Watson stat 0.018281 Prob(F-statistic) 0.000000

Osserviamo l’output della regressione. Notate che sia la costante che il coefficiente di x sono
significativamente diversi da zero. Notate la statistica t per il coefficiente di X, è circa 2126, un
numero molto grande!
Notate Rquadro, è un valore prossimo a 1!
Fino ad ora possiamo essere soddisfatti della nostra regressione, ma attenzione la statistica Durbin-
Watson è circa 0.018, molto bassa ed indica la presenza di autocorrelazione positiva (ricordate se
DW<<2, c’è autocorrelazione positiva, se DW>>2, c’è autocorrelazione negativa).
Regola: se DW<Rquadro, c’è un problema, il problema di regressione spuria, ovvero abbiamo
regredito due variabili X ed Y che non hanno nulla in comune, tranne il fatto di essere non
stazionarie. Quindi quando regredite delle variabili non stazionarie, potete avere questo problema
nelle stime.
Le caratteristiche tipiche della regressione spuria sono:
1) R quadro molto elevati, tendono ad 1;
2) DW molto bassi, convergono a zero e gli errori sono integrati a loro volta di ordine uno;
3) T statistici molto alti;
4) Coefficienti per la variabile indipendente significativi, tendono ad una variabile aleatoria
invece che a zero e sono distribuiti normalmente.
5) Se fate la regressione opposta ls xt c yt, il coefficiente di yt è l’inverso del coefficiente
stimato nella regressione per la variabile indipendente nel caso di ls yt c xt

Dependent Variable: XT
Method: Least Squares
Sample: 2 1000
Included observations: 999

Variable Coefficient Std. Error t-Statistic Prob.

C 18.33780 0.808596 22.67857 0.0000


YT 1.466265 0.000690 2125.973 0.0000

R-squared 0.999779 Mean dependent var 1509.245


Adjusted R-squared 0.999779 S.D. dependent var 856.2901
S.E. of regression 12.72274 Akaike info criterion 7.926659
Sum squared resid 161382.5 Schwarz criterion 7.936482
Log likelihood -3957.366 F-statistic 4519760.
Durbin-Watson stat 0.018279 Prob(F-statistic) 0.000000

138
Possiamo osservare questi problemi usando un esperimento MonteCarlo.
Esso consiste nel creare 100 volte le nostre serie non stazionarie, salvare i coefficienti di nostro
interesse (beta, t-statistic, R2, DW,…) e controllarne i valori oppure la distribuzione.
genr yt=0
genr xt=0

for !k=1 to 100


genr et=nrnd
genr ut=nrnd
smpl 2 1000
genr yt=2+yt(-1)+et
genr xt=3+xt(-1)+ut

genr dxt=d(xt)
genr dyt=d(yt)

equation eq01.ls yt c xt
beta1(!k)=@coefs(2)
t_ratio(!k)=@tstats(2)
r2(!k)=@r2
dw(!k)=@dw

equation eq02.ls xt c yt
beta2(!k)=@coefs(2)

next

smpl 1 100
freeze(beta1_distr) beta1.hist
freeze(t_ratio_distr) t_ratio.hist
freeze(r2_distr) r2.hist

freeze(dw_1) dw.hist

show dw

genr betainv=1/beta1

group confronto_beta betainv beta2


freeze(confr_beta) confronto_beta.line

139
12
Series: BETA1
Sample 1 100
10
Observations 100

8 Mean 0.666782
Median 0.668948
6 Maximum 0.696787
Minimum 0.633344
Std. Dev. 0.014235
4 Skewness -0.157771
Kurtosis 2.483608
2
Jarque-Bera 1.525951
Probability 0.466277
0
0.6375 0.6500 0.6625 0.6750 0.6875

20
Series: R2
Sample 1 100
16 Observations 100

Mean 0.999683
12 Median 0.999759
Maximum 0.999947
Minimum 0.998565
8 Std. Dev. 0.000243
Skewness -2.052990
Kurtosis 8.140148
4
Jarque-Bera 180.3341
Probability 0.000000
0
0.9990 0.9995

140
9
Series: T_RATIO
8 Sample 1 100
7 Observations 100

6 Mean 2094.478
Median 2035.458
5 Maximum 4340.018
4 Minimum 832.8751
Std. Dev. 677.6195
3 Skewness 0.594897
Kurtosis 3.392410
2

1 Jarque-Bera 6.539986
Probability 0.038007
0
1000 1500 2000 2500 3000 3500 4000

14
Series: DW
12 Sample 1 100
Observations 100
10
Mean 0.020893
8 Median 0.017986
Maximum 0.073427
Minimum 0.003051
6
Std. Dev. 0.013483
Skewness 1.426286
4
Kurtosis 5.652642

2 Jarque-Bera 63.22364
Probability 0.000000
0
0.025 0.050 0.075

Le statistiche mostrano ciò che avevamo detto in precedenza.


Per quanto riguarda il coefficiente beta nel caso della regressione ls yt c xt, possiamo vedere il
grafico dei due coefficienti beta, nelle rispettive regressioni:

141
1 .6 0

1 .5 6

1 .5 2

1 .4 8

1 .4 4

1 .4 0
10 20 30 40 50 60 70 80 90 100

B E T A IN V B E TA 2

Rifacciamo lo stesso esperimento usando due serie stazionarie


genr zt=2+0.75*zt(-1)+et
genr ht=3+0.75*ht(-1)+ut

equation eq01s.ls zt c ht
equation eq02s.ls ht c zt

Dependent Variable: ZT
Method: Least Squares
Sample: 2 1000
Included observations: 999

Variable Coefficient Std. Error t-Statistic Prob.

C 7.094853 0.360514 19.67981 0.0000


HT 0.073601 0.029906 2.461049 0.0140

R-squared 0.006038 Mean dependent var 7.974418


Adjusted R-squared 0.005041 S.D. dependent var 1.499651
S.E. of regression 1.495866 Akaike info criterion 3.645288
Sum squared resid 2230.903 Schwarz criterion 3.655112
Log likelihood -1818.821 F-statistic 6.056760
Durbin-Watson stat 0.504780 Prob(F-statistic) 0.014022

142
Notate che la regressione non è significativa, osserviamo R2, DW, t-statistic, beta ed il beta
della regressione opposta.
2000

-2 0 0 0

-4 0 0 0

-6 0 0 0

-8 0 0 0

-1 0 0 0 0
10 20 30 40 50 60 70 80 90 100

B E TA IN V 2 B E TA 2 S

Proviamo regredire la serie zt (stazionaria) sulla serie non stazionaria yt:

Dependent Variable: ZT
Method: Least Squares
Sample: 2 1000
Included observations: 999

Variable Coefficient Std. Error t-Statistic Prob.

C 7.709349 0.093839 82.15513 0.0000


YT 0.000178 5.46E-05 3.268681 0.0011

R-squared 0.010603 Mean dependent var 7.974418


Adjusted R-squared 0.009610 S.D. dependent var 1.499651
S.E. of regression 1.492428 Akaike info criterion 3.640685
Sum squared resid 2220.659 Schwarz criterion 3.650509
Log likelihood -1816.522 F-statistic 10.68428
Durbin-Watson stat 0.498654 Prob(F-statistic) 0.001117

La regressione non è significativa. R2 tende a zero, la stima del coefficiente di yt tende a zero.
Non si può spiegare una variabile stazionaria con una variabile integrata. Variabili stazionarie
devo essere spiegate da variabili stazionarie.

143
Ora creiamo le seguenti serie:

smpl @all
genr vt=nrnd

genr x1t=0
genr x2t=0

smpl 2 1000
genr x1t=x1t(-1)+et
genr x2t=0.4*x1t(-1)+vt
smpl @all

40

30

20

10

-10

-20

-30

-40
250 500 750 1000

X1T X2T

Ora proviamo diverse specificazioni e salviamo i residui dei modelli stimati:

Regrediamo x2t su x1t, ambedue sono variabili non stazionarie,mentre i residui sono stazionari.
Se possiamo scrivere una combinazione di due variabili o più variabili non stazionarie, che sia
stazionaria, si dice che esista una relazione di cointegrazione tra le due variabili. E’ possibile
testare se due variabili sono cointegrate verificando che i residui della regressione di una
sull’altra siano stazionare. Testiamo tramite il test di cointegrazione di Engle-Granger la
stazionarietà dei residui, dato che ora l’uso del test ADF non è più valide perche i residui si
distribuiscono secondo una nuova distribuzione e quindi non dobbiamo considerare i valori
tabulati da ADF, ma i valori riportati sul libro di testo nella tabella 7.10 a pagina 256:
Il TEST di ENGLE-GRANGER è composto da due stadi:

PRIMO STADIO
equation eq03.ls x2t c x1t
eq03.makeresids res3t
freeze(res3t_gr) res3t.line
freeze(res3t_correl) res3t.correl(16)

SECONDO STADIO: PROVIAMO DIVERSI MODELLI AR(q)


equation eq04.ls d(res3t) c res3t(-1)
equation eq05.ls d(res3t) c res3t(-1) d(res3t(-1))

144
Dependent Variable: D(RES3T)
Method: Least Squares
Sample (adjusted): 3 1000
Included observations: 998 after adjustments

Variable Coefficient Std. Error t-Statistic Prob.

C -0.000554 0.034251 -0.016180 0.9871


RES3T(-1) -0.973065 0.031716 -30.68072 0.0000

R-squared 0.485884 Mean dependent var 0.001239


Adjusted R-squared 0.485368 S.D. dependent var 1.508313
S.E. of regression 1.082031 Akaike info criterion 2.997559
Sum squared resid 1166.108 Schwarz criterion 3.007390
Log likelihood -1493.782 F-statistic 941.3068
Durbin-Watson stat 1.995071 Prob(F-statistic) 0.000000

Al posto di testare se i residui hanno una radice unitaria con ADF, regrediamo la differenza
prima dei residui sui residui ritardati (molto simile all’approccio svolto dalla regressione
ausiliare del ADF). Consideriamo la t-statistic del coefficiente di res3t(-1) e lo confrontiamo con
i valori tabulati nella tabella 7.10, considerando un livello di significatività dello 0.01, la
statistica tabulata è pari a -3. 90; in questo caso -30.68<-3.9, quindi rifiutiamo l’ipotesi nulla di
radice unitaria.

Proviamo ad usare come variabile indipendente la differenza ritardata (nel caso in cui i residui
siano AR(2)):

Dependent Variable: D(RES3T)


Method: Least Squares
Sample (adjusted): 4 1000
Included observations: 997 after adjustments

Variable Coefficient Std. Error t-Statistic Prob.

C -0.000781 0.034274 -0.022779 0.9818


RES3T(-1) -1.012761 0.044287 -22.86816 0.0000
D(RES3T(-1)) 0.040695 0.031734 1.282372 0.2000

R-squared 0.486696 Mean dependent var 0.001691


Adjusted R-squared 0.485663 S.D. dependent var 1.509002
S.E. of regression 1.082216 Akaike info criterion 2.998903

145
Sum squared resid 1164.164 Schwarz criterion 3.013661
Log likelihood -1491.953 F-statistic 471.2364
Durbin-Watson stat 1.996464 Prob(F-statistic) 0.000000

Il coefficiente di res3t(-1) è -22.86 (-22.86<-3.9), quindi rifiutiamo l’ipotesi nulla di radice


unitaria.
Ricordate che affinché due variabili siano cointegrate è necessaria la presenza di un trend
stocastico comune mentre nel caso di non cointegrazione ciascuna ha un proprio trend
stocastico.
Cointegrazione è sinonimo di presenza di un equilibrio di lungo periodo tra le due serie: nel
breve periodo ci si può allontanare da tale equilibrio, ma nel lungo periodo x2t=0.4x1t. Quindi
la relazione di cointegrazione è sostanzialmente una relazione di lungo periodo tra variabili.

Un risultato importante del test di Engle-Granger è il TEOREMA DELLA


RAPPRESENTAZIONE DI ENGLE E GRANGER, due variabili sono cointegrate se e solo se
sono rappresentabili con un modello a correzione dell’errore (ECM):

Δy t = δ ( y t −1 − β x t −1 ) + valori ritardati di Δy t e Δxt + u yt


Δxt = δ ( y t −1 − β x t −1 ) + valori ritardati di Δy t e Δxt + u xt
Se le due variabili Y ed X non sono cointegrate il valore di delta sarebbe pari a zero ed in questo
caso in cui non c’è presenza di cointegrazione il modello appropriato sarebbe quello in
differenze.

Stimiamo il modello ECM, considerando il vettore di cointegrazione tra x1t ed x2t, senza i
ritardi delle differenze prime tra le due serie.

equation eq06a.ls d(x2t) c res3t(-1)

Dependent Variable: D(X2T)


Method: Least Squares
Sample (adjusted): 3 1000
Included observations: 998 after adjustments

Variable Coefficient Std. Error t-Statistic Prob.

C -0.001985 0.031368 -0.063269 0.9496


RES3T(-1) -0.964704 0.029046 -33.21315 0.0000

R-squared 0.525514 Mean dependent var -0.000207


Adjusted R-squared 0.525038 S.D. dependent var 1.437864
S.E. of regression 0.990940 Akaike info criterion 2.821677
Sum squared resid 978.0347 Schwarz criterion 2.831508
Log likelihood -1406.017 F-statistic 1103.114
Durbin-Watson stat 2.004859 Prob(F-statistic) 0.000000

146
Possiamo interpretare le stime in questo modo: nel momento in cui ci si trova al di fuori
dell’equilibrio al tempo (t-1), si ha una variazione contraria al tempo t della serie x2t, tale da
riportare in tempi relativamente brevi le due serie in equilibrio ed il coefficiente di
aggiustamento è pari -0.96.

Se avessimo aggiunto le differenze prime dei ritardi, notiamo che non sono significative:

equation eq07.ls d(x2t) c res3t(-1) d(x2t(-1)) d(x1t(-1))

Dependent Variable: D(X2T)


Method: Least Squares
Date: 05/31/07 Time: 11:36
Sample (adjusted): 3 1000
Included observations: 998 after adjustments

Variable Coefficient Std. Error t-Statistic Prob.

C -0.002130 0.031358 -0.067912 0.9459


RES3T(-1) -1.013888 0.042197 -24.02756 0.0000
D(X2T(-1)) 0.044996 0.029068 1.547948 0.1220
D(X1T(-1)) -0.032594 0.036129 -0.902155 0.3672

R-squared 0.526764 Mean dependent var -0.000207


Adjusted R-squared 0.525335 S.D. dependent var 1.437864
S.E. of regression 0.990630 Akaike info criterion 2.823048
Sum squared resid 975.4590 Schwarz criterion 2.842710
Log likelihood -1404.701 F-statistic 368.8101
Durbin-Watson stat 2.000034 Prob(F-statistic) 0.000000

Potevamo stimare l’ECM anche in questo modo:


equation eq06b.ls d(x2t) c (x2t(-1)-0.4*x1t(-1))

Dependent Variable: D(X2T)


Method: Least Squares
Sample: 2 1000
Included observations: 999

Variable Coefficient Std. Error t-Statistic Prob.

C -0.074390 0.031432 -2.366712 0.0181


X2T(-1)-0.4*X1T(-1) -0.964592 0.029044 -33.21088 0.0000

147
R-squared 0.525230 Mean dependent var 0.000597
Adjusted R-squared 0.524753 S.D. dependent var 1.437368
S.E. of regression 0.990895 Akaike info criterion 2.821583
Sum squared resid 978.9265 Schwarz criterion 2.831406
Log likelihood -1407.381 F-statistic 1102.963
Durbin-Watson stat 2.003359 Prob(F-statistic) 0.000000

RICORDATE: LA RELAZIONE DI LUNGO PERIODO TRA X3T E X1T è X2T=0.4*X1T (nel


libro le due variabili dell’esempio a pagina 266 sono legate da un coefficiente di lungo periodo pari
ad uno, in questo caso invece il coefficiente è pari a 0.4).

PROGRAMMA

'PRIMA PARTE: MODELLI DINAMICI

rndseed 10101010
wfcreate(wf=eserc_5prima) u 1 1000

genr et=nrnd

'generiamo un processo MA(1)


genr ht=et+0.7*et(-1)

'generiamo dei processi autoregressivi, ponendo le condizioni iniziali


genr yt=0
genr xt=0
genr zt=0
genr kt=0

smpl 2 1000

'processo AR stazionario
genr yt=0.7*yt(-1)+et

'processo AR con radice unitaria


genr xt=xt(-1)+et

'processo con trend deterministico


genr zt=@trend+et

'processo AR stazionario con trend deterministico


genr kt=0.6*kt(-1)+0.1*@trend+et

'grafico dei quattro processi


freeze(graph_yt) yt.line
freeze(graph_xt) xt.line
freeze(graph_zt) zt.line
freeze(graph_kt) kt.line

'correlogramma dei processi


freeze(correl_yt) yt.correl(16)
freeze(correl_xt) xt.correl(16)

148
freeze(correl_zt) zt.correl(16)
freeze(correl_kt) kt.correl(16)

'test adf
freeze(adf_yt) yt.adf
freeze(adf_xt) xt.adf
freeze(adf_zt) zt.adf
freeze(adf_kt) kt.adf

'test kpss
freeze(kpss_yt) yt.uroot(kpss)
freeze(kpss_xt) xt.uroot(kpss)
freeze(kpss_zt) zt.uroot(kpss)
freeze(kpss_kt) kt.uroot(kpss)

'stimiamo i diversi modelli


'stima con yt(-1), la costante è la media condizionata
equation eq01a.ls yt c yt(-1)
'stima con AR(1), la costante è la media incondizionata
equation eq01b.ls yt c ar(1)
'stima di un modello con radice unitaria
equation eq02.ls xt c ar(1)
'stima di un modello con trend deterministico
equation eq03.ls zt c @trend
'stima di un modello AR stazionario con trend deterministico
equation eq04.ls kt c @trend ar(1)
'diverse stime per il modello MA
equation eq05a.ls ht c ar(1)
equation eq05b.ls ht c ar(1) ar(2)
equation eq05c.ls ht c ar(1) ar(2) ar(3)
equation eq05d.ls ht c ma(1)

'forecasting per il processo AR(1)


smpl 1 900
equation eq01c.ls yt c ar(1)
smpl 901 1000
'forecast dinamico
freeze(forecast) eq01c.forecast(g,e) ytf1 ytf1_se
'forecast statico
freeze(forecast_s) eq01c.fit(g,e) ytf2 ytf2_se

'SECONDA PARTE: COINTEGRAZIONE

rndseed 10101010
wfcreate(wf=eserc_5seconda) u 1 1000

'generiamo due serie storiche random walk with drift


genr et=nrnd
genr ut=nrnd
genr xt=0
genr yt=0
smpl 2 1000
genr yt=2+yt(-1)+et
genr xt=3+xt(-1)+ut
smpl @all

149
freeze(graph_yt) yt.line
freeze(graph_xt) xt.line

'prendiamo le differenze prime


genr dxt=d(xt)
genr dyt=d(yt)
freeze(graph_dyt) dyt.line
freeze(graph_dxt) dxt.line
freeze(correl_dyt) dyt.correl(16)
freeze(correl_dxt) dxt.correl(16)

'regressione spuria
equation eq01a.ls yt c xt
equation eq01b.ls xt c yt

'creiamo due serie stazionarie


genr zt=0
genr ht=0
smpl 2 1000
genr zt=2+0.75*zt(-1)+et
genr ht=3+0.75*ht(-1)+ut

'regressione di una serie stazionaria su una integrata


equation eq02.ls zt c yt

'creiamo nuove serie per esaminare la cointegrazione


smpl @all
genr vt=nrnd

genr x1t=0
genr x2t=0

smpl 2 1000
genr x1t=x1t(-1)+et
genr x2t=0.4*x1t(-1)+vt
smpl @all

'test di granger
'primo stadio: eseguiamo la regressione e ne salviamo i residui
equation eq03.ls x2t c x1t
eq03.makeresids res3t
freeze(res3t_gr) res3t.line
freeze(res3t_correl) res3t.correl(16)
'secondo stadio: facciamo un test per la radice unitaria sui residui
equation eq04.ls d(res3t) c res3t(-1)
equation eq05.ls d(res3t) c res3t(-1) d(res3t(-1))

'modello ECM e teorema di rappresentazione di Engle e Granger


equation eq06a.ls d(x2t) c res3t(-1)
equation eq07.ls d(x2t) c res3t(-1) d(x2t(-1)) d(x1t(-1))
'modo equivalente per stimare l'ECM
equation eq06b.ls d(x2t) c (x2t(-1)-0.4*x1t(-1))

150