Sei sulla pagina 1di 25

1 Modelli per serie storiche univari-

ate

Caratteristiche delle serie storiche:

fytg
l’ordine t non puo’essere variato; v.c. non indipendenti;
non replicabili (i dati si ottengono da una sola realiz-
zazione) bisogna dunque essere rigorosi nello speci…care
la natura stocastica del modello, i.e. valora atteso, vari-
anza, covarianza, autocovarianza, autocorrelazione.

Le serie storiche sono soprattutto utili a fare previsioni

Un processo tipico e fra l’altro già incontrato e’il processo


Autoregressivo di ordine uno

yt = + y t 1 + "t (1)
non ha un interpretazione casuale. Assumendo che
1. j j < 1

2. "t e’un processo white noise, omoschedastico e privo


di autocorrelazione.

Otteniamo:
= E (yt) = + E (yt 1) + "t
E (yt) = + E (yt 1)
=
1
de…nendo cyt come yt centrato cyt = yt riscriviamo
la (1) come
c yt = cyt 1 + "t

V (yt) = V ( + yt 1 + "t)
= ( 2V (yt 1) + 2)
dato che V (yt) = V (yt 1)
2
V (yt) = 2
1
Cov (ytyt 1) = E (cyt cyt 1)
= E [( cyt 1 + "t) (cyt 1)]
= V (yt)
2
= 2
1
potete ottenere allo stesso modo che
2
Cov (ytyt k ) = k
1 2

Nota che i valori di media e varianza non dipendono dale


tempo t mentre la Cov (ytyt k ) dipende solo da k e non
da t.

Processo a Media Mobile di ordine uno

yt = + "t + " t 1
V (yt) = E ("t + "t 1)2
= E ("t)2 + 2E ("t 1)2
= (1 + 2) 2
Cov (ytyt 1) = E [(h"t + i "t 1) ("t 1 + "t 2)]
= E "2t 1
= 2

Cov (ytyt 2) = 0
Cov (ytyt k ) = 0 per k = 2; 3; 4::
Se j j < 1 un processo AR puo’essere riscritto come un
processo MA per sostituzione di yt 1 = + yt 2 +"t 1;
yt 1 = (yt 2 ) + "t 1 in (1) otteniamo
yt = + 2(yt 2 ) + "t + " t 1
sostituendo ancora yt 2 = (yt 3 ) + "t 2
abbiamo
yt = + 2( (yt 3 ) + "t 2) + "t + "t 1
= + 3 (yt 3 ) + "t + " t 1 + 2 "t 2
continuando le sostituzioni si ottiene
nP1
yt = + n (y )+ j"
t n t j
j=0
nP1
dove j" e’una componente MA
t j
j=0
1.0.1 Operatore ritardo

Un modo alternativo di rappresentazione

Lyt = yt 1
Lj yt = yt j
AR(1) ) yt = 1yt 1 + "t

yt 1 yt 1 = "t
(1 1 L)yt = "t
"t
yt =
1 1L

1.1 Stazionarieta’

La stazionarieta’e’importantissima per la previsione


In senso stretto l’intera distribuzione di probabilita’con-
giunta a qualsiasi insieme di date non e’ in‡uenzata da
uno slittamento arbitrario lungo l’asse del tempo.

In senso debole Media, Varianza e Covarianza sono in-


dipendenti dal tempo. La covarianza dipende solo dalla
lunghezza dell’intervallo che separa due osservazioni.

E (yt) = <1
V (yt) = 0<1
Cov (ytyt k ) = k; k = 1; 2; 3::
Stazionarieta’in senso debole. Esempio Processo White
Noise
"t N (0; 2" )
autocovarianza

k = Cov (yt; yt k ) = Cov (yt k ; yt)


autocorrelazione
Cov (yt; yt k )
k = = k
V (yt) 0
Funzione di autocorrelazione ACF: autocorrelazioni in fun-
zione di k. Descrive la dipendenza fra le osservazioni.

Per k = 2; 3; 4::

processo AR(1)

yt = + y t 1 + "t

k 2
1 2
k
k = = 2 = k
0 2
1
processo MA(1)

yt = + "t + "t 1
2
1
1 = = 2) 2
=
0 (1 + 1+ 2
k 0
e k = = 2) 2
=0
0 (1 +
1.2 Stazionarieta’e radici unitarie

I processi MA(1) sono sempre stazionari.

Un processo AR(1) si dice stazionario quando j j < 1

yt = + y t 1 + "t
Processi autoregressivi non stazionari:
1. Processi Di¤erenza Stazionari (DS), (in (1) =
1)

Random Walk yt = yt 1 + "t


Random Walk plus drift yt = + yt 1 + "t
Es.:
V (cyt) = V (cyt 1) + 2
Non c’è soluzione a meno che 2 = 0, la varianza è
in…nita sia che = 1 e > 1.

In alcuni casi e’ su¢ ciente calcolare le di¤erenze per


trasformare una serie non stazionaria in stazionaria. Un
random walk (processo non stazionario) si trasforma in
un white noise ( processo stazionario)

yt yt 1 = + "t

Integrato di ordine uno I(1) yt = (yt yt 1)


Integrato di ordine due I(2) 2y = ( y yt 1)
t t
1. Processi Trend Stazionari (TS). Processi di lungo
periodo che hanno la media non costante nel tempo.
yt = + t + "t
f + tg trend deterministico. E’un processo trend
stazionario nel senso che basta inserire un trend e
diventa stazionario. Detrendizzazione
1.3 Test di radice unitaria

Per il processo AR(1)

yt = + y t 1 + "t
= 1 corrisponde al test di radice unitaria. Dickey Fuller
(1979) dimostrano che, dato che yt non e’stazionario, lo
stimatore OLS di ^ non ha una distribuzione t. Dunque
in alternativa e’stata proposta la seguente statistica
1
DF =
s:e:(^)
dove ^ e’stimato tramite un OLS ma i valori critici sono
ricavati da una distribuzione corretta.

H0 : = 1 Random Walk DS
H1 : j j < 1 Stazionario
al 5% tDF = 2; 86
Per convenienza di solito si riscrive il modello come

yt = +( 1) yt 1 + "t (2)
dato che

yt yt 1 = + yt 1 yt 1 + "t
e si sottopone a test H0 : ( 1) = 0: Nota che questa
speci…cazione e’ robusta a problemi di autocorrelazione
dei residui.

Di solito siamo interessati a 2 casi in particolare:

1. Processo stazionario attorno ad una intercetta

yt = + y t 1 + "t

H0 : Random Walk
H1 : Stazionario con intercetta

yt = +( 1) yt 1 + "t
H0 : =( 1) = 0
si procede con un F test
2. Processo stazionario attorno ad un trend con inter-
cetta
yt = + y t 1 + t + "t

H0 : Random Walk
H1 : Stazionario ad un trend con intercetta

yt = +( 1) yt 1 + t + "t
H0 : =( 1) = = 0
Le statistiche di DW sono dunque , , t ed F

Nota che poiche’i test di radice unitaria hanno potenza


minore dei test di signi…cativita’ dei coe¢ cienti più co-
muni, e’stata proposta una alternativa: il KPSS. Questo
test si basa sull’idea che ogni serie storica e’una somma
di un trend deterministico, un random walk e un termine
d’errore stazionario

yt = + t + t + ut
t = t 1+ t
dove ut iid(0; 2u) e t iid(0; 2 ). Se 2 = 0
T
P
t = 0+ j = 0
j=1
Assumendo che 0 è costante, allora yt si riduce a

yt = ( + 0) + t + ut
che è un processo trend stazionario. Se invece 2 >
0, allora yt è un processo di¤erenza stazionario poichè
include un random walk t.

H0 : 2 =0
H1 : 2 > 0
Sotto H0 di processo stazionario attorno ad un trend o
no
1. primo passo OLS yt = + t + "t ) ^
"t = et

Pt
2. somme parziali st = s=1 es per ogni t:
PT
t=1 s2t
KP SS =
^2
e’una statistica LM . KPSS hanno derivato la dis-
tribuzione sotto l’ipotesi nulla (non standard se c’e’
radice unitaria): ^ 2 Newey West standard error.

1.4 Processi AR di ordine superiore al primo

yt = c + 1yt 1 + 2yt 2 + "t


"t W N (0; 2" )
e’un AR(2). Utilizzando gli operatori del ritardo ricavi-
amo le condizioni necessarie e su¢ cienti per la stazionarita’.
Un processo AR(2) si dice stazionario se tutte le radici
di
(1 2
1L 2L ) =0
cadono al di fuori del cerchio unitario nel campo comp-
lesso.

yt = c + 1yt 1 + 2yt 2 + ::: pyt p + "t


"t W N (0; 2" )
e’un AR(p).

(1 2 ::: p
1L 2 L pL ) = 0
(L)yt = c + "t
cioe’ le cui radici devono cadere al di fuori del cerchio
unitario nel campo complesso

AR(p) e’un processo stazionario solo se


1
P
j ij < 1
i=0
1
P
se almeno una radice e’uguale a 1 j ij = 1
i=0

Il Test di Dickey Fuller per un AR(p) si basa sulla seguente


speci…cazione (seguendo gli stessi passaggi visti per (2))
pP1
yt = + t + 'yt 1 + i yt i + "t
! i=1
p
P p
P
dove ' = i 1; i = i
i=1 i=1

1.5 Processi ARMA

ARMA(1,1)

yt = + y t 1 + "t + "t 1
ARMA(p,q)

yt = + 1yt 1 + 2yt 2 + :: + pyt p


+"t + 1"t 1 + :: + q "t q
1.6 Funzione di autocorrelazione parziale

Autocorrelazione parziale fra yt e yt p denominata pp e’


un legame di correlazione fra yt e yt p al netto dell’in‡uenza
esercitata dai termini intermedi yt 1; :::yt p+1

yt = + 1yt 1 + "t ) ^11


yt = + 1yt 1 + 2yt 2 + "t ) ^22 stima di 2
Nota che per un AR(p) il ^kk = 0 8k > p .

Per esempio AR(1) il ^22 = ^33 = ::: = 0

Per un MA(1) PACF convergono verso zero piu’o meno


rapidamente

In un ARMA (p,q) sia la ACF che la PACF non tagliano


mai zero ma convergono a zero asintoticamente.
2 Speci…cazione stima e controllo
diagnostico - Regole generali

1) Identi…cazione

2) Stima

3) Controllo diagnostico

E’una procedura iterativa

2.1 Identi…cazione

Scelta del tipo di modello AR o MA e del loro ordine.


Guardare le AFC e PACF e confrontare
1. AR (p) stazionaria la ACF decade geometricamente
la PACF taglia dopo p periodi

2. MA(q) ACF taglia dopo q periodi mentre la PACF


decade geometricamente

3. ARMA(p,q) non c’è in nessuno dei due casi un taglio


netto

2.2 Stima ARMA

1. AR(p) OLS corretto consistente ed e¢ ciente M LE

2. MA(q) OLS non e’possibile perche’i regressori sono


incogniti. Si utilizza la stima M LE che richiede
un’ipotesi sulla distribuzione dei termini di disturbo
e procedure numeriche di massimizzazione

3. ARMA(p,q) vedi punto 2


2.3 Controllo diagnostico

La speci…cazione scelta e’adatta ai …ni previsivi?

1. SOVRAPARAMETRIZZATO i coe¢ cienti sono sig-


ni…cativi? coe¢ cienti relativi all’ordine p o q scelti
! se i coe¤ relativi agli ordini troppo alti sono non
signi…cativi si possono ridurre i parametri da stimare
t test o F test

2. SOTTOPARAMETRIZZATO

yt = c^ + ^ 1yt 1 + ^ 2yt 2 + ^ 3yt 3 +


"t + ^1^
^ "t 1 + ^2^
"t 2 + ^3^
"t 3 + ^4^
"t 4
^4 e’ signi…cativo? La parsimonia e’ un principio
fondamentale

Veri…care l’ipotesi di autocorrelazione dei residui


=)errata speci…cazione
Model selection criteria: Akaike Information Cri-
terion e Schwarz Bayesian Criterion

AIC (p) = T log(^ 2) + 2p


SBC (p) = T log(^ 2) + p log T
^ 2 = RSS=(n p). La regole e’ di scegliere il
modello con piu’basso AIC e SBC

3 Modelli dinamici con variabili stazionar

Modello autoregressivo a ritardi distribuiti

yt = + y t 1 + 0 xt + 1 xt 1 + " t (3)
dove "t W N indipendente da yt 1; yt 2 e xt; xt 1.
Calcolando le derivate parziali possiamo calcolare il molti-
plicatore d’impatto. E¤etto di xt su yt
@yt
= 0
@xt
L’e¤etto dopo un periodo e’dato da
@yt+1 @yt
= + 1= 0 + 1
@xt @xt
dopo due periodi
@yt+2
= ( 0 + 1)
@xt
Se j j < 1 gli e¤etti superiori al primo sono decrescent.
iIl moltiplicatore di lungo periodo (o moltiplicatore di
equilibrio) e’
@yt @yt+1 @yt+2
+ + + ::: =
@xt @xt @xt
0 + 1
0 +( 0 + 1) + ( ( 0 + 1)) + ::: =
1
Allo stesso risultato si giunge calcolando il valore atteso
della (3)
E (yt) = + E (yt 1) + 0E (xt) + 1E (xt 1)
+ 1
= + 0 E (xt)
1 1

Il modello (3) puo’essere stimato con il metodo OLS a


condizione che E (xt"t) = 0

Potrebbero piacerti anche