Sei sulla pagina 1di 115

Indice

Analisi delle Serie Temporali A. Introduzione, 1


(lucidi delle lezioni) Che cos una serie temporale (o storica)?, 2 Esempio 1: medie giornaliere delle polveri rilevate in una delle
centraline per il controllo atomosferico in Padova, 3 Esempio 2: linci catturate annualmente in Canada, 4
Esempio 3: portata del Nilo, 5 Esempio 4: consumo di gas, 6 Esempio 5: consumo di vino bianco secco, 7
Esempio 6: vendite di un certo prodotto (e una serie che dovrebbe anticiparne le variazioni), 8 Esempio 7:
indice di qualit di un processo produttivo, 9 Esempio 8: input e output di una centrale a gas, 10 Esempio 9:
diametro delle gonne allorlo, 11 Il problema. . . , 12 Principali applicazioni, 13 Caratteristiche del corso, 14

B. Kolmogorov perdono!, 15
Guido Masarotto Che cos un processo stocastico?, 16 Serie temporali e processi stocastici, 17 Caratteristiche interessanti
Facolt di Scienze Statistiche di un processo stocastico, 18 Il problema della stazionariet, 19 Processi stocastici stazionari, 21 Propriet
della funzione di autocorrelazione di un processo stocastico stazionario, 23

Universit di Padova C. Stima della funzione di autocorrelazione, 24


guido.masarotto@unipd.it Stima di alcune caratteristiche interessanti, 25 Una banda ci viene in aiuto, 27 Quattro serie tempora-
li. . . , 30 . . . il loro correlogramma. . . , 31 . . . qualche commento . . . , 32 . . . un esercizio e. . . , 33 . . . la sua
soluzione, 38 La temperatura al castello di Nottingham, 39 Un correlogramma a Nottingham, 40 A castel-
lo meglio essere corretti, 41 Nottingham: grafici di autodispersione, 42 Esercizio, 44 La produzione di
automobili in Giappone, 45 Esercizio, 47 Il test di Ljung-Box (e quello di Box-Pierce), 48

6 gennaio 2003
D. Scomposizione di una serie temporale in componenti ele-
mentari, 50
E se il processo non stazionario?, 51 Componenti di una serie temporale, 52 Modelli di composizione, 53
Esempio di una serie additiva, 54 Esempio di una serie moltiplicativa, 55 Destagionalizzazione di una
serie temporale, 56 Perch destagionalizzare?, 57

E. Stima della media e sua scomposizione mediante modello di


regressione, 61
CO2 a Mauna Loa, 62 CO2: un modello lineare, 66 CO2: serie destagionalizzata, 70 Altri modelli di
regressione: cenni, 71 Appendice: richiami sul modello di regressione lineare multiplo, 72

i
F. Scomposizione di una serie temporale: un approccio flessibi- Materiale didattico
le, 76
Il punto debole. . . , 77 Regressione non parametrica: cenni, 78 Stima del trend in assenza di stagionalit, 97 1. Questi lucidi
Medie mobili e filtri lineari, 98 Stima della componente stagionale in assenza di trend, 99 Stima simulta-
nea delle componenti di trend e stagionali: lalgoritmo di backfitting, 104 In pratica, 106 Passeggeri delle 2. Guido Masarotto e Giovanna Capizzi (2002), Materiali per il laboratorio con R, http://sirio.stat.unipd.it/ts
aerolinee, 107 Scomposizioni con problemi, 126 Estensioni e cautele, 131
3. C. Chatfield (1996), The analysis of time series: an introduction, Chapman and Hall, Londra
G. Modelli dinamici basati sullidea di lisciamento esponenziale
4. T. Di Fonzo e F. Lisi (2001), Complementi di statistica economica. Analisi delle serie storiche univariate, Cleup
, 132 Editrice, Padova

Struttura di un modello dinamico, 133 Un modello basato sul lisciamento esponenziale, 135 Serie alla deriva, 142
Introduzione di una componente stagionale, 150 Innovazione additiva o moltiplicativa?, 157 Sintesi dei mo-
delli considerati: le quattro forme di base, 159 Sintesi dei modelli considerati: casi particolari, 160 Nomi
assegnati ad alcuni casi particolari, 161 Costruzione empirica di un modello, 162 Stima dei parametri, 163
Scelta di un modello, 167 Verifica delladattamento, 168 Una serie temporale di vendite, 169 Previsione:
considerazioni generali, 176 Previsione con i modelli basati sul lisciamento esponenziale, 179 Previsione
della serie delle vendite, 185 Una serie con le bollicine, 188

H. I modelli ARMA e ARIMA, 203


Introduzione, 204 Modelli a media mobile, 205 Invertibilit di un modello MA(q), 207 Modelli autoregressivi, 210
La funzione di autocorrelazione parziale, 212 Modelli autoregressivi a media mobile, 214 Loperatore di
ritardo, 216 Modelli integrati ovvero metti un po di trend in un modello ARMA, 217 Identificazione di un
modello ARMA/ARIMA, 221 Esempio con serie non stagionali, 222 Modelli ARIMA stagionali, 223 Esempio
con serie stagionali, 224

I. Serie temporali bivariate: cenno, 225

ii
Che cos una serie temporale (o storica)?

Non infrequente, nelle applicazioni, che le osservazioni


Unit A sulle variabili di interesse, siano raccolte sequenzialmen-
te nel tempo (vedi esempi nelle pagine seguenti).
Introduzione Nel caso in cui, siano rilevate k variabili in n istanti di
tempo, i dati prendono quindi la forma

variabili rilevate
tempo Y1 Yk
t1 y11 .. yk1
t2 y12 .. yk2
.. .. .. ..
tn y1n .. ykn

e costituiscono quello che usualmente chiamata una


serie temporale (o storica) k-variata. Spesso, e
sar lunico caso che consideremo, le osservazioni sono
equispaziate nel tempo (ovvero ti ti1 = costante).
Ovviamente, consideremo solo il caso in cui i fenomeni
rilevati siano statistici, ovvero, mostrino una variabilit
non irrilevante e siano non deterministici.

Unit A: Introduzione 2
Esempio 1: medie giornaliere delle polveri Esempio 2: linci catturate annualmente in
rilevate in una delle centraline per il Canada
controllo atomosferico in Padova

7000
6000
5000
4000
lynx

3000
2000
1000
0
1820 1840 1860 1880 1900 1920

E evidente una componente ciclica con una frequenza


poco pi lunga di 10 anni (ci sono 12 minimi e 12
massimi in circa 110 anni).

Unit A: Introduzione 3 Unit A: Introduzione 4


Esempio 3: portata del Nilo Esempio 4: consumo di gas

1200
1400

1000
1200

800
1000

UKgas
Nile

600
800

400
600

200
1880 1900 1920 1940 1960 1960 1965 1970 1975 1980 1985

Time Time

La serie trimestrale. Si osservi sia laumento nel tempo


Qual la distribuzione del massimo in 500 anni delle che la presenza di oscillazioni di tipo stagionale la cui
portate? ampiezza aumenta con laumentare del livello della serie
stessa.

Unit A: Introduzione 5 Unit A: Introduzione 6


Esempio 5: consumo di vino bianco secco Esempio 6: vendite di un certo prodotto (e
una serie che dovrebbe anticiparne le
variazioni)

260
240
BJsales
5000

220
14200
4000

13
BJsales.lead

12
3000

11
10
0 50 100 150
2000

Il grafico di sopra mostra le vendite di una azienda. Il


1980 1985 1990 1995
grafico sotto una serie che anticipa i cambiamenti della
prima serie. Si vedano gli istanti di tempo indicati
dalle linee tratteggiate verticali. Sono punti di svolta
per la seconda serie che anticipano simili andamenti
nella prima. Il problema come possibile utilizzare
Si osservi sia laumento nel tempo che la presenza di queste informazioni per calcolare delle previsioni
oscillazioni di tipo stagionale. delle vendite (che ad esempio, potrebbero essere
utilizzate per decidere quanto produrre, quante scorte
mantenere,. . . )
Unit A: Introduzione 7 Unit A: Introduzione 8
Esempio 7: indice di qualit di un processo Esempio 8: input e output di una centrale a
produttivo gas

60
14.5

55
GFoutput
14.0

50
13.5

3
2
13.0

1
GFinput

0
12.5

1
2
12.0

0 50 100 150 200 250 300

5 10 15 20 25 Il grafico di sopra mostra una serie di misurazioni


condotte su un parametro che pu essere interpreta-
25 giorni di misurazioni (5 misure al giorno) su di to come un indice di qualit della produzione di una
un parametro che misura la qualit di un processo fornace a gas. Il grafico di sotto una caratteristica della
produttivo. fornace che pu essere controllata dal personale tecnico.
Tutte le oscillazioni sono casuali? Oppure, nascosto nel Il problema capire come fissare i valori della seconda
rumore, c qualcosa di sistematico e quindi magari di serie per far correre la prima il pi possibile vicino al
eliminabile? suo valore obbiettivo (cio 60).

Unit A: Introduzione 9 Unit A: Introduzione 10


Esempio 9: diametro delle gonne allorlo Il problema. . .

. . . quello di capire la dinamica della serie osservata,


ovvero, il meccanismo con cui si evolve nel tempo.
In particolare, in questo corso, ci occuperemo di
1000

? descrivere/modellare le variazioni nel tempo della


media (ed, eventualmente di altre caratteristiche).
900

? descrivere/modellare le relazioni dinamiche di tipo


lineare esistenti (ovvero tra le osservazioni ieri, oggi,
800

domani, . . . ).
700
600

1870 1880 1890 1900 1910

Unit A: Introduzione 11 Unit A: Introduzione 12


Principali applicazioni Caratteristiche del corso

Previsione: al tempo tn vogliamo prevedere i valori 1. E introduttivo: vuole presentare solo alcune idee e
che la serie temporale assumer al tempo t > tn. tecniche di base. Considereremo solo
Controllo: si supponga di avere a che fare, per dati equispaziati nel tempo (ti ti1 = );
semplicit, con due sole variabili (k = 2) e che: situazioni in cui le variabili rilevate siano
i) le variazioni di y1t influenzino y2t; numeriche ed (almeno assimilabili a variabili) reali,
ii) y1t sia controllabile (ovvero possiamo fissarne i quasi sempre il caso di serie univariate,
valori); solo relazioni dinamiche di tipo lineare.
iii) non possiamo controllare y2t; per, desideremmo 2. E operativo: vuole sviluppare la capacit di
che y2t risulti uguale ad un valore prefissato, analizzare concretamente delle serie reali (per
diciamo , per ogni t. questo le esercitazioni nel laborario informatico
Il problema : quali valori scegliamo per la prima costituiscono una parte integrante del corso).
variabile affinch la seconda si discosti il meno
possibile dal valore desiderato?

Osservazione: Per dare una risposta ad ambedue i


problemi dobbiamo ovviamente dare una risposta alle
domande del lucido di pagina 12.
Esercizio: Spiegare perch vera la precedente
osservazione.

Unit A: Introduzione 13 Unit A: Introduzione 14


Che cos un processo stocastico?

? Per quello che ci riguarda, trascurando definizioni pi


Unit B generali, un processo stocastico consiste semplicemen-
te in una successione di variabili casuali Y = {Yt :
Kolmogorov perdono! < t < +} ordinate nel tempo e con arbitrarie
relazione di dipendenza interne.
? Unesperimento su Y ci fornisce quindi una particolare
2 cose 2 sui processi stocastici ovvero sul modello successione numerica {yt : < t < +} in
probabilistico di riferimento cui ciascuna yt il risultato di un esperimento sulla
variabile casuale Yt. Una particolare successione
funzione di autocovarianza e di autocorrelazione generata dal processo viene usualmente chiamata
realizzazione o traiettoria del processo.
stazionariet
? Ovviamente, a meno di casi degeneri, esperimenti
diversi su Y risulteranno in traiettorie diverse, ovvero,
il processo pu generare differenti (tipicamente
infinite) successioni. In caso contrario, il meccanismo
sarebbe deterministico non stocastico.
? Le varie traiettorie generabili dal processo non avranno
per in generale tutte la stessa probabilit, ovvero,
avremmo traiettorie pi probabili e traiettorie meno
probabili.

Unit B: Kolmogorov perdono! 16


Serie temporali e processi stocastici Caratteristiche interessanti di un
processo stocastico
? Lanalisi delle serie temporali rivolta alla comprensio-
ne di fenomeni che si evolvono nel tempo in maniera ? E possibile dimostrare che la distribuzione di
non deterministica. probabibilit di un processo stocastico completamen-
? I processi stocastici sono modelli matematici utili per te caratterizzata dallinsieme di tutte le distribuzioni
descrivere la legge probabilistica (o stocastica -dal di probabilit finite-dimensionali del processo, ovvero,
greco che ha a che fare con il caso) con cui un certo dalle distribuzioni di probabilit di (Yt1 , . . . , Ytk ) per
fenomeno fisico si pu evolvere nel tempo (o nello qualsivoglia k e per qualsivoglia scelta associata di
spazio, o nel tempo e nello spazio,. . . ). In questo t1 , . . . , t k .
senso, costituiscono il modello probabilistico naturale
di riferimento per lanalisi delle serie temporali. ? Stimare per dai dati tutte queste distribuzioni
? Possiamo guardare alle osservazioni disponibili (la , soprattutto in assenza di forti informazioni sul
serie storica osservata) come ad un pezzettino di processo, praticamente impossibile.
una realizzazione di un processo stocastico e utilizzare ? Molto spesso ci si limita perci a considerare
questi dati per cercare di capire la legge probabilisti- solamente particolari momenti del processo. In
ca (o alcuni dei suoi aspetti) del processo stocastico particolare noi ci concentreremo sui momenti primi e
che li ha generati, ovvero, ricondurre lanalisi delle secondi e considereremo le seguenti funzioni (che
serie temporali ad un problema di inferenza statistica supporremmo tranquillamente esistere tolto in casi
su processi stocastici. particolari che saranno evidenziati):
? Questo quello che faremo. Si osservi comunque
che non filosoficamente indolore. Ovvero, spesso media: t = E(Yt),
lesperimento che ha generato la serie osservata varianza: 2t = var(Yt),
irripetibile. A noi quindi interessa la serie osservata, autocovarianza: (t 0, t 00) = cov(Yt 0 , Yt 00 ),
non il meccanismo con cui potrebbero esserne generate
altre di analoghe ma, a questo punto, in mondi in cui e la associata funzione di autocorrelazione
non abitiamo. Per. . . (t 0, t 00)
0 00
(t , t ) =
t 0 t 00
Unit B: Kolmogorov perdono! 17 Unit B: Kolmogorov perdono! 18
Il problema della stazionariet E per evidente che questa formula non utilizzabi-
le senza ipotesi aggiuntive sul processo stocastico che
Supponiamo di avere a disposizione 1000 osservazio- genera i dati. Infatti, anche se abbiamo un certo
ni su di una serie temporale univariata (ovvero numero di osservazioni (1000), poich non abbiamo
conosciamo y1, . . . , y1000 ) e di voler calcolare una nessuna osservazione su Y1001 non abbiamo nessun
previsione per il valore che la serie assumer al tempo dato che ci fornisca direttamente informazioni su
1001 (ovvero per y1001 ). 1001 . Analogamente, nei dati non abbiamo nessuna
informazione diretta sulla covarianza tra Y1000 e
Sulla base delle cose che sappiamo dai corsi Y1001 (ci servirebbero dei dati generati dalla variabile
precedenti potremmo ad esempio pensare di utilizzare casuale bivariata (Y1000, Y1001)). E anche su Y1000
un modello di regressione lineare semplice in cui abbiamo una sola osservazione. Un po poco per
y1001 sia la variabile dipendente utilizzando come stimare in maniera affidabile 1000 e completamente
variabile esplicativa losservazione nota pi vicina insufficiente per stimare dai dati 1000
nel tempo ovvero y1000 . Questo, utilizzando le
Il problema generale. Ovvero non centra la
formule note dal corso di Statistica Descrittiva e la
formula della pagina precedente. Infatti, per calcolare
notazione del lucido (18), ci port a pensare ad una
delle previsioni dovremmo conoscere che relazione
previsione calcolata come
esiste tra quello che accaduto fino ad oggi e
che conosciamo, ovvero (y1, . . . , y1000 ), e quello che
(1001, 1000)
y1001 = 1001 + (y1000 1000 ) accadr domani, ovvero y1001 . Ma nei dati, in assenza
21000 di ipotesi aggiuntive, non abbiamo informazioni
dirette, sulla dipendenza tra passato, presente e
futuro per il semplice e ovvio fatto che il futuro non lo
abbiamo per definizione osservato.
Lipotesi di stazionariet una ipotesi aggiuntiva
spesso utilizzata (ovvero, che si rivelata utile
empiricamente) per risolvere il problema precedente
(ed altri analoghi).
Unit B: Kolmogorov perdono! 19 Unit B: Kolmogorov perdono! 20
Processi stocastici stazionari Nel caso un processo stocastico sia stazionario possiamo
scrivere, con un leggero abuso di notazione rispetto a
Un processo stocastico detto stazionario quanto fatto prima,

in senso forte se per qualsiasi h, k, t1,. . . e tk (tutti
E(Yt) =

interi) la distribuzione di probabilit di var(Yt) = 2
per qualsivoglia t e h

cov(Yt+h, Yt) = (h)

corr(Yt+h, Yt) = (h)
(Yt1 , . . . , Ytk )
ovvero, se un processo stazionario,
uguale alla distribuzione di probabilit di
? la media e la varianza non variano con il tempo
(Yt1+h , . . . , Ytk+h );
? le covarianze (e quindi le autocorrelazioni) solo
funzione della distanza nel tempo tra le due variabili
in senso debole se per qualsiasi h, t 0 e t 00 (interi)
casuali coinvolte1

E(Yt 0 ) = E(Yt 00 )
var(Yt 0 ) = var(Yt 00 )
cov(Yt 0 , Yt 00 ) = cov(Yt 0+h , Yt 00+h)

Si osservi che la prima definizione implica la seconda


(almeno se i momenti coinvolti esistono).

1
questa relazione si ottiene dalla definizione di stazionariet debole ponendo
h = t 0
Unit B: Kolmogorov perdono! 21 Unit B: Kolmogorov perdono! 22
Propriet della funzione di
autocorrelazione di un processo stocastico
stazionario
Unit C
(h) = (h)/2;
Stima della funzione di autocorrela-
(0) = 1 (beh, se quello che capita oggi non fosse zione
correlato perfettamente con quello che capita oggi
avremmo veramente da preoccuparci; formalmente
2 = (0));
Stimatori
1 (h) 1 h (sono coefficienti di correlazione);
Bande nel correlogramma
(h) = (h). E una conseguenza del fatto che per
qualsiasi coppia di variabili casuali, diciamo X e Y, Test di Ljung-Box (e Box-Pierce)

cov(X, Y) = cov(Y, X);

Per qualsiasi k e per qualsiasi scelta di (a1, . . . , ak)


(numeri qualsiasi)

k X
X k
aiaj(i j) 0
i=0 j=0

Infatti,
Pk la quantit sul lato sinistro la varianza di
2
i=0 ai Yti divisa per .

Unit B: Kolmogorov perdono! 23


Stima di alcune caratteristiche Nota 1: Si osservi che dividiamo per n e non per
interessanti n h che il numero degli addendi. E usuale fare cos
poich in questo modo anche la stima (e non solo quello
che si vuole stimare) gode delle propriet descritte
Nel caso di un processo stazionario, i valori attesi di
nel lucido (23). Ad esempio, dividendo per n h
tutte le osservazioni (qualsiasi sia t) sono uguali ad una
potremmo ottenere stime dei coefficienti di autocorrela-
costante . Possiamo quindi pensare di stimare il valore
zione, in modulo, pi grandi di 1. Dividendo per n per
comune della media mediante
introduciamo una distorsione verso lo zero nello stima
n (=sottostiamo in maniera sistematica la correlazione
1X esistente).
= y = yt .
n
t=1
Nota 2: (h) non definito se h > n 1. Questo
scontato. Con n osservazioni non abbiamo nessuna
In maniera analoga, sfruttando le altre invarianze nel coppia di osservazioni distanti n o n + 1 o cos via.
tempo, possiamo stimare la funzione di autocovarianza Nota 3: Si osservi tra laltro che ha senso calcolare
e di autocorrelazione mediante (h) solo se n h, ovvero il numero di addendi su cui
n basata la stima, sufficientemente grande. Questo
1 X non un grande problema nelle applicazioni visto che
(h) = (yt y)(yth y)
n tipicamente si interessati alla funzione di autocovarian-
t=h+1
(h) za (o di autocorrelazione) solamente per ritardi non
(h) = grandi. Per va sempre tenuto presente.
(0)
Nota 4: Per il calcolo di (h) ovviamente non
necessaria la stazionariet. Delle volte si usa (h) per
avere una idea media nel tempo della dipendenza
lineare esistente.
Nota 5: Il grafico di (h) verso h viene chiamato
correlogramma.
Unit C: Stima della funzione di autocorrelazione 25 Unit C: Stima della funzione di autocorrelazione 26
Una banda ci viene in aiuto ? Valori di (h), per quanto diversi da zero, ma
allinterno di queste bande suggeriscono che lautocorre-
? E possibile dimostrare che se non esiste autocorrela- lazione stimata potrebbe essere in realt dovuta al caso
zione nel processo (ovvero se (h) = 0 quando h 6= (ovvero non essere una propriet del processo).
0, ovvero se come si usa dire il processo osservato ? Si osservi, comunque, che anche in assenza di
un rumore bianco
(white noise)) allora la distribuzione autocorrelazione, ci aspettiamo, utilizzando le bande
asintotica di n(h) una normale di media nulla e precedenti, un (h) ogni 20 fuori dalle bande.
varianza uno.
? Ovvero, se calcoliamo i primi 30 coefficienti di
? Quindi nel caso di una serie senza autocorrelazione, autocorrelazione, trovarne uno, due o anche tre fuori
(h) cadr nellintervallo dalle bande pu essere attribuito alleffetto del caso.
? Ovviamente per ce li aspettiamo non di molto esterni
[z1/2 / n, z1/2 / n]
alle bande stesse.

(dove z il quantile -simo di una normale standard)


con una probabilit approssimativamente uguale a 1
(ovviamente n deve essere sufficientemente grande
n > 50 sembra essere sufficiente).
? Per questo nei grafici della funzione di autocorrelazio-
ne empirica (ovvero quella stimata dai dati),
sono spesso

indicate delle bande del tipo [1,96/ n, 1,96/ n]
(z0.975 = 1,96).

Unit C: Stima della funzione di autocorrelazione 27 Unit C: Stima della funzione di autocorrelazione 28
Pochi (h) fuori di poco dalle bande possono essere attribuiti allerrore di stima. Il primo correlogramma mostra Quattro serie temporali. . .
quindi una situazione probabilmente di incorrelazione. Nel secondo, un solo (h) esterno alle bande. Per molto (a)

pi grande dei limiti disegnati. Probabilmente indica una autocorrelazione reale.

2
1.0

0
2
0.5

4
ACF

0 20 40 60 80 100
0.0

(b)
0.5

3
2
1
1.0

0
3 2 1
0 5 10 15 20

Lag

0 20 40 60 80 100

(c)
1.0

6
4
0.5

2
0
4 2
ACF

0.0

0 20 40 60 80 100
0.5

(d)
1.0

0 5 10 15 20
1
0

Lag
1
2

0 20 40 60 80 100

Unit C: Stima della funzione di autocorrelazione 29 Unit C: Stima della funzione di autocorrelazione 30
. . . il loro correlogramma. . . . . . qualche commento . . .
(a)
1.0

? Il grafico della prima serie mostra la presenza di


onde che per non hanno lunghezza e ampiezza
0.5

costante. Le onde a smorzare nel correlogram-


0.0

ma ci raccontano esattamente la presenza di questa


0.5

0 5 10 15 20
componente. Il correlogramma ci dice anche che la
(b) lunghezza media delle onde di 6 periodi.
1.0

? La serie (c) caratterizzata da oscillazioni molto pi


rapide. Il correlogramma ci segnala un comportamen-
0.5

to addirittura di tipo alternante: ad una osservazio-


0.0

ne grande tendenzialmente segue una osservazione


0.5

0 5 10 15 20
piccola e cos via.
(c)
? Dal grafico della serie (c), come del resto in quello
1.0

della serie (a), si individua facilmente la presenza di


autocorrelazione positiva a ritardo 1 (una osservazio-
0.6

ne grande tendelzialmente seguita da unaltra


0.2

osservazione grande, una piccola da una piccola).


0.2

0 5 10 15 20
Il correlogramma ci racconta che questa lunica
(d) correlazione esistente: osservazioni pi distanti sono
incorrelate.
1.0

? Il correlogramma della serie (d) ci indica che si tratta


0.6

di un white noise.
0.2
0.2

0 5 10 15 20

Unit C: Stima della funzione di autocorrelazione 31 Unit C: Stima della funzione di autocorrelazione 32
. . . un esercizio e. . . 3 2 1 0 1 2 3 3 2 1 0 1 2 3

3
Le figure nelle prossime pagine riportano i grafici di yt

2
1
disegnato verso yth per alcuni valori di h. Chiameremo

0
a

a
questo tipo di grafici di autodispersione (lag plot nella

1
letteratura anglosassone). Le serie utilizzate sono quelle

2
3
precedenti. Ogni pagina si riferisce ad una delle lag 1 lag 2 lag 3

3
serie. Ma le pagine non sono nellordine utilizzato

2
precedentemente. Completare il seguente schemetto:

1
0
a

1
la figura si riferisce

2
a pagina alla serie

3
lag 4 lag 5 lag 6

34 ......

3
35 ......

2
1
36 ......

0
a

a
37 ......

1
2
3
La soluzione a pagina 38. lag 7 lag 8 lag 9

3
2
1
0
a

1
2
3
lag 10 lag 11 lag 12
3 2 1 0 1 2 3

Unit C: Stima della funzione di autocorrelazione 33 Unit C: Stima della funzione di autocorrelazione 34
3 2 1 0 1 2 3 2 1 0 1 2 4 2 0 2 4 4 2 0 2 4
2

2
1

0
0
a

a
2
1
2

4
lag 1 lag 2 lag 3 lag 1 lag 2 lag 3

2
1

0
0
a

2
1
2

4
lag 4 lag 5 lag 6 lag 4 lag 5 lag 6
2

2
1

0
0
a

a
2
1
2

4
lag 7 lag 8 lag 9 lag 7 lag 8 lag 9
2

2
1

0
0
a

2
1
2

4
lag 10 lag 11 lag 12 lag 10 lag 11 lag 12
3 2 1 0 1 2 4 2 0 2 4

Unit C: Stima della funzione di autocorrelazione 35 Unit C: Stima della funzione di autocorrelazione 36
6 4 2 0 2 4 6 8 6 4 2 0 2 4 6 8
. . . la sua soluzione
6

.
4
2
a

a
la figura si riferisce
0
2

a pagina alla serie


4

lag 1 lag 2 lag 3 34 (b)


35 (d)

6
36 (a)

4
2
37 (c)
a

0
2
4
lag 4 lag 5 lag 6
6
4
2
a

a
0
2
4

lag 7 lag 8 lag 9


6
4
2
a

0
2
4

lag 10 lag 11 lag 12


6 4 2 0 2 4 6 8

Unit C: Stima della funzione di autocorrelazione 37 Unit C: Stima della funzione di autocorrelazione 38
La temperatura al castello di Nottingham Un correlogramma a Nottingham

1.0
65
60

0.5
55
nottem

50

0.0
45

0.5
40
35

1.0
30

1920 1925 1930 1935 1940 0 2 4 6 8 10


Si osservi come le onde nel periodogramma si
Time
smorzino lentamente. A 10 anni di distanza1 c
ancora della dipendenza. Tenendo presente che stiamo
dividendo per n (vedi pagina 25), la diminuzione
E evidente la presenza (come atteso) di una importante
potrebbe addirittura essere un artefatto. Infatti. . .
componente stagionale.

1
Si osservi che i ritardi nel grafico della funzione di autocorrelazione, fatto in
R, sono etichettati utilizzando gli anni non i mesi.
Unit C: Stima della funzione di autocorrelazione 39 Unit C: Stima della funzione di autocorrelazione 40
A castello meglio essere corretti Nottingham: grafici di autodispersione
30 40 50 60 70 30 40 50 60 70

60
nottem

nottem

nottem
1.0

40
30 50
lag 12 lag 24 lag 36
0.5

60
nottem

nottem

nottem

50
40
30
0.0

lag 48 lag 60 lag 72

60
nottem

nottem

nottem
40 50
0.5

30
lag 84 lag 96 lag 108

60
nottem

nottem

nottem

50
1.0

40
0 2 4 6 8 10

30
lag 120 lag 132 lag 144
30 40 50 60 70

. . . se dividiamo per n h il correlogramma non Si osservi che sono mostrati solo i ritardi stagionali.
diminuisce pi. Quindi, lultimo grafico, mostra il digramma di
dispersione tra la temperatura di oggi e quella di 12
anni fa.

Unit C: Stima della funzione di autocorrelazione 41 Unit C: Stima della funzione di autocorrelazione 42
Esercizio
30 40 50 60 70 30 40 50 60 70 30 40 50 60 70 30 40 50 60 70
60

60
nottem

nottem

nottem

nottem

nottem

nottem
50

50
40

40
30

30
lag 6 lag 18 lag 30 lag 1 lag 2 lag 3

60

60
nottem

nottem

nottem

nottem

nottem

nottem
50

50
40

40
30

30
lag 42 lag 54 lag 66 lag 4 lag 5 lag 6
60

60
nottem

nottem

nottem

nottem

nottem

nottem
50

50
40

40
30

30
lag 78 lag 90 lag 102 lag 7 lag 8 lag 9

60

60
nottem

nottem

nottem

nottem

nottem

nottem
50

50
40

40
30

30
lag 114 lag 126 lag 138 lag 10 lag 11 lag 12
30 40 50 60 70 30 40 50 60 70

Rispetto al grafico di prima i ritardi sono stati sfasati La figura mostra i diagrammi di autodispersione per i
di 6 mesi. Con un p di licenza potremmo dire che primi 12 ritardi. In alcuni dei grafici compaiono delle
stiamo guardando alla correlazione tra la temperatura sorta di anelli. Spiegare perche.
nellinverno/primavera/estate/autunno di un anno e
quella nellestate/autunno/inverno/primavera di 1, 2, . . .
anni prima.
Unit C: Stima della funzione di autocorrelazione 43 Unit C: Stima della funzione di autocorrelazione 44
La produzione di automobili in Giappone Il correlogramma quelo tipico in questo casi: positivo
e vicino ad uno allinizio, poi decresce lentamente
Il grafico mostra il numero di automobili (in migliaia) e inverte il suo segno ad un ritardo pari ad
prodotte in Giappone dal 1949 al 1989. La serie approssimativamente la met della lunghezza della serie
evidentemente non stazionaria visto laumento della osservata.

1.0
media (trend) negli anni.

0.5
0.0
12000

0.5
1.0
10000

0 5 10 15 20 25 30
8000

1.0
6000

0.5
0.0
4000
2000

1.0
0

0 5 10 15 20 25 30

1950 1960 1970 1980 1990


Il secondo correlogramma stato ottenuto dividendo
per nh. Si osservi come in questo caso la correlazione
negativa a ritardi elevati diventi addirittura inferiore a
1!!!
Unit C: Stima della funzione di autocorrelazione 45 Unit C: Stima della funzione di autocorrelazione 46
Esercizio Il test di Ljung-Box (e quello di Box-Pierce)

La figura mostra i diagrammi dia autodispersione per la Una statistica test che pu essere utilizzata per verificare
serie considerata nelle pagine precedenti. Indicando con lipotesi che il processo sia un white noise
yt la variabile posta sulle ascisse in ogni grafico, dire se
H
sulle ordinate stato disegnato yth o yt+h per i valori X 2(h)
prescelti di h (in questo caso 1, . . . , 12)? TL&B = n(n + 2)
nh
0 2000 6000 10000 0 2000 6000 10000 h=1

dove H un intero prescelto. Sotto lipotesi


10000

nulla (assenza di autocorrelazione) TL&B si distribuisce


asintoticamente come una variabile casuale 2 con H
6000
d

d
gradi di libert. Valori troppo grandi rispetto a quelli
2000

che ci aspettiamo da questa distribuzione sono evidenza


0

lag 1 lag 2 lag 3


che lautocorrelazione non solo apparente.
Un test, asintoticamente analogo a quello di Ljung e Box,

10000
si basa sulla statistica test proposta e studiata da Box e
6000
d

Pierce
XH
2(h).
2000

TB&P = n
0

lag 4 lag 5 lag 6 h=1


La differenza tra le due statistiche consiste semplicemen-
10000

te nella differente ponderazione adottata: nella prima


il quadrato di (h) entra con peso n(n + 2)/(n
6000
d

h) mentre nella seconda con peso n. Asintotica-


mente sono equivalenti. Si pu per mostrare che
2000

la prima statistica converge pi rapidamente alla sua


0

lag 7 lag 8 lag 9


0 2000 6000 10000
distribuzione asintotica. E quindi consigliabile utilizzare
TL&B.
Unit C: Stima della funzione di autocorrelazione 47 Unit C: Stima della funzione di autocorrelazione 48
Esempio 1. Con i dati del primo esempio di pagina
29, TL&B calcolato sulla base dei primi 20 coefficien-
ti di autocorrelazione campionari vale 26,63. Una
approssimazione del livello di significativ del test Unit D
quindi
Prob(220 26,63) 0,15. Scomposizione di una serie temporale
Le differenze da zero delle autocorrelazioni campionarie
potrebbero quindi essere semplicemente dovute al errore
in componenti elementari
di stima.
Esempio 2. Con i dati del secondo esempio di pagina
29, TL&B calcolato sulla base dei primi 20 coefficien- trend, stagionalit e componente irregolare
ti di autocorrelazione campionari vale 87,65. Una differenti modelli di composizione delle componenti
approssimazione del livello di significativ del test
quindi serie destagionalizzate
Prob(220 87,65) 2 1010.
Questo valore ci dice che applicando la medesima
procedura a serie storiche incorrelate ci aspettiamo un
valore della statistica test grande come quello osservato
circa due volte ogni dieci miliardi di occasioni. Quindi,
ci suggerisce che lautocorrelazione segnalata dal grafico
reale (e non semplicemente dovuta allerrore di stima).

Unit C: Stima della funzione di autocorrelazione 49


E se il processo non stazionario? Componenti di una serie temporale

Molte serie temporali contengono evidenti segni di non- Non infrequente che una serie storica possa essere
stazionariet In particolare in posizione e dispersione. pensata come la composizione di varie componenti.
In questi casi, abbastanza comune per non perdere In particolare, spesso, anche solo guardando il grafico
i vantaggi assicurati dalla stazionariet, cercare di della serie, sono evidenti:
trasformare la serie originale in una serie stazionaria.
[trend] una componente che varia lentamente nel tempo
Ovviamente, una possibilit per realizzare il programma e che essenzialmente determina il livello della serie;
precedente consiste nello stimare la parte non [stagionalit] una o pi componenti periodiche, ovvero
stazionaria della serie osservata per poi rimuoverla. che si ritrovano uguali o quasi a distanza fissa nel
Questo tra laltro un problema spesso interessante di tempo (ad esempio, in serie mensili ogni 12 mesi, in
per se. serie trimestrali ogni 4 trimesti, in serie giornaliere,
ogni 7 giorni);
[componente irregolare] una componente pi erratica
che determina nella serie delle oscillazioni tipicamente
di breve periodo. Normalmente pu essere assimilato
ad un processo stocastico stazionario.

Unit D: Scomposizione di una serie . . . 51 Unit D: Scomposizione di una serie . . . 52


Modelli di composizione Esempio di una serie additiva

Indichiamo con Tt, St e It le tre componenti. Le maniere

3000
in cui possono interagire per formare la serie osservata
possono essere differenti. Alcuni esempi sono i seguenti

y
2600
modelli di composizione

2200
3200
additivo: yt = Tt + St + It;

3000
moltiplicativo: yt = TtStIt;

2800
trend
2600
moltiplicativo con comp. irr. additiva yt = TtSt + It.

100 2400
50
seas
0
50
100
150
100
50
irr
0
100 50

2 4 6 8 10

Time

Lampiezza delle oscillazioni stagionali e della componente irregolare nella serie (primo grafico del pannello) la

stessa a prescindere dal livello della serie stessa.

Unit D: Scomposizione di una serie . . . 53 Unit D: Scomposizione di una serie . . . 54


Esempio di una serie moltiplicativa Destagionalizzazione di una serie
temporale
5000

Nelle prossime unit vedremo alcune tecniche utili per


3000

scomporre una serie temporale nelle sue componenti


y

elementari e quindi, in particolare, per stimarne la


1000

componente stagionale.
14000

Unutilizzo di queste tecniche consiste nella produzione


1000

di cosidette serie destagionalizzate ovvero serie in cui la


trend

parte periodica e predicibile sia stata rimossa.


600

I dettagli di come pu essere fatto dipendono dal


200

modello di composizione. Ad esempio, nel caso di un


2.5

modello [additivo, moltiplicativo] sufficiente [sottrarre


2.0

dalla,dividere la] serie originale [,per] la componente


seas
1.5

stagionale.
1.0

Esercizio: Proporre una formula per destagionalizzare


0.5

una serie per cui si adottato un modello moltiplicativo


4

con componente irregolare additiva.


3
irr
2
1

2 4 6 8 10

Time

Le oscillazioni stagionali e la componente irregolare entrano nella serie (primo grafico del pannello) con una

ampiezza che dipende dal livello della serie (ovvero dal trend).

Unit D: Scomposizione di una serie . . . 55 Unit D: Scomposizione di una serie . . . 56


Perch destagionalizzare? ? Inoltre la componente stagionale costituisce spesso una
parte della serie storica la cui esistenza scontata e la
? Si supponga che qualcuno vi dica che la media della cui spiegazione quindi nota e perci non particolar-
CO2 a Padova risultata a novembre il 20% pi elevata mente interessante. Nello stesso tempo per pu
che a ottobre. essere sufficientemente grande per mascherare altri
andamenti.
? Possiamo affermare che linquinamento realmente
aumentato? Boh!!! ? Un esempio mostrato nei prossimi due grafici:

? Laumento potrebbe essere semplicemente stagionale i) il primo mostra la serie mensile dei passegeri su
e ad esempio legato al maggiore utilizzo delle tratte aeree internazionali (in migliaia) dai 1949
automobili e del riscaldamento privato dovuto alle al 1960; evidente un trend crescente e una forte
temperature pi fredde (traffico e riscaldamento sono componente stagionale;
le fonti maggiori di CO2); ii) nel secondo grafico viene mostrata una versione
destagionalizzata della stessa serie con aggiunta
? Nella serie destagionalizzata questa componente una stima della componente di trend.
prevedibile speriamo di averla eliminata.
Si noti come nel secondo grafico sia evidente i due
? Ovviamente lo stesso discorso pu essere fatto in rallentamenti nella crescita avvenuti tra il 1953/54
moltissime altre situazioni. Ad esempio, un aumento (guerra di Corea?) e il 1957/58 (conseguenza di alcuni
degli occupati nellagricoltura del 10% tra giugno e disastri?) Lo stesso non si pu dire con riferimento al
maggio una indicazione di un vero e proprio boom primo grafico dove i due rallentamenti sono coperti
economico? dalla componente stagionale.

Unit D: Scomposizione di una serie . . . 57 Unit D: Scomposizione di una serie . . . 58


Passegeri delle linee aree internazionali Passegeri delle linee aree internazionali
Serie osservata Serie destagionalizzata

500
600

serie destagionalizzata
500

stima del trend

400
AirPassengers

400

300
300

200
200
100

1950 1952 1954 1956 1958 1960 1950 1952 1954 1956 1958 1960

Unit D: Scomposizione di una serie . . . 59 Unit D: Scomposizione di una serie . . . 60


CO2 a Mauna Loa

Illustriamo le tecniche di questo unit utilizzando la


Unit E seguente serie mensile di misurazioni di CO2 a Mauna
Loa (una localit delle Haway).
Stima della media e sua scomposizio-
ne mediante modello di regressione

360
350
340
co2
? richiami sul modello lineare di regressione multipla

330
? rappresentazione del trend mediante un polinomio

320
? rappresentazione della stagionalit mediante variabili
dummies
1960 1970 1980 1990

Time

Sono evidenti
- una componente di trend sufficientemente regolare
(potrebbe essere un polinomio del secondo ordine)
- una componente stagionale
che rendono la serie non stazionaria.

Unit E: Stima della media e sua . . . 62


Il grafico stato costruito nella seguente maniera: Questo porta a pensare ad un modello del tipo
- per prima cosa, ad ogni osservazione stata sottratta la
media delle 12 osservazioni del suo anno yt = (Trend)t + (Stagionalit)t + (Errore)t
- poi, separatamente per ogni anno, i 12 scarti sono stati
disegnati verso il numero dordine del mese. dove

- (Trend)t un polinomio del secondo ordine, ovvero,


4

(Trend)t = 0 + 1t + 2t2

- (Stagionalit)t una componente periodica che si


2

ripete di anno in anno, ovvero,

(Stagionalit)t+12 = (Stagionalit)t.
0
2

2 4 6 8 10 12

Il grafico mostra che il profilo stagionale sostanzialmen-


te rimasto lo stesso per tutti i 39 anni considerati.

Unit E: Stima della media e sua . . . 63 Unit E: Stima della media e sua . . . 64
Una conferma giunge anche dal grafico seguente che CO2: un modello lineare
mostra le sotto-serie mensili (ovvero la serie di tutti
i gennaii disegnata contro lanno,. . . ). Se vale il Poniamo
modello precedente in questo grafico dovremmo infatti
osservare 12 curve approssimamente parallele, ciascuna i = (Stagionalit)i per i = 1, . . . , 12
approssimabile da un pezzettino di parabola).
Allora, il modello prima formulato per la CO2 pu essere
scritto come un modello lineare del tipo
456
2371
18 yt = 0 + 1t + 2t2 + 1d1,t + + 12d12,t + (Errore)t
360

1
91

dove, d1,t una variabile che vale 1 se siamo nel mese di


gennaio e zero altrove, d2,j una variabile che vale 1 se
350

siamo nel mese di febbraio e zero altrove,. . . . Variabili


indicatrici di questo tipo sono usualmente chiamate
340

dummy (=mute).
456
37
1281 Scritto in termini matriciali il modello diventa
1
91
330

12 1 0 .. 0 0

y1 1 1

y2 1 2 22 0 1 .. 0 0 0
. . . ..
.. .. .. .. .. 1
320


5
46
. . .
37
2
181 y11 1 11 112 0 0 .. 1 0
2


911
y12 = 1 12 122 0 0 .. 0 1 1 +

y13 1 13 132 1 0 .. 0 0 .2

1960 1970 1980 1990
.
. . . .. .. .. .. .. ..
. . .
11
. . . .. .. .. .. .. ..
. . .
12
y468 1 468 4682 0 0 .. 0 1

Unit E: Stima della media e sua . . . 65 Unit E: Stima della media e sua . . . 66
Si osservi che in un modello del tipo co2 ~ p(2) + c

360
(serie osservata)=(trend)+(stagionalit)+(errore)

data
340
il livello medio dei tre addendi in cui viene scomposta

320
la serie osservata in una qualche forma arbitrario.

360
Ad esempio, assegnata una scomposizione di questo

trend
tipo, possiamo generarne unaltra perfettamente valida

340
aggiungendo un valore arbitrario, indichiamolo con ,

3 320
al trend e sottraendo /3 alla componente stagionale e
2/3 alla componente di errore.

2
seasonal
1
1 0
Possiamo superare questa ambiguit imponendo dei
vincoli in maniera tale che la prima componente, quella

2 3
di trend, sia interpretabile come quella che ci fornisce il

remainder
1
livello della serie osservata.

0
In particolare, sembra sensato chiedere che la somma

1
della componente stagionale in un anno sia nulla. Nel

2
1960 1970 1980 1990
caso del modello lineare precedente, questo diventa il Time
seguente vincolo lineare sui parametri
Il primo grafico mostra la serie originale, il secondo la
1 + + 12 = 0. componente di trend stimata, il terzo la componente
stagionale, lultimo la componente erratica.
Le stime a minimi quadrati possono quindi essere
ottenuti con la procedura indicata nel lucido (75).
Esercizio: Formulare i dettagli (in particolare cosa a e
?)
Unit E: Stima della media e sua . . . 67 Unit E: Stima della media e sua . . . 68
Si osservi come la componente di errore sia evidentemen- CO2: serie destagionalizzata
te autocorrelata positivamente (si spieghi perche
basandosi sul terzo grafico precedente; pu essere Avendo stimato la componente stagionale possiamo
conveniente costruirsi ad esempio un diagramma di eliminarla ottenendo la cosidetta serie destagiona-
autodispersione su cui disegnare approssimativamente lizzata. In questo caso, ci basta sottrarre dalla serie
(Errore)t1 sullasse delle ascisse e (Errore)t1 sullasse originale la componente stagionale
delle ordinate) e forse, addirittura, non stazionaria in
media.

360
Questo ci confermato dal correlogramma empirico

350
1.0

340
0.5

330
ACF

0.0

320
1960 1970 1980 1990
0.5

Time

Osservazione: Poich la componente erratica mostra


1.0

0 1 2 3 4 5 qualche segno di stagionalit, la procedura utilizzata


Lag
per ottenere la serie destagionalizzata criticabile.
che decresce lentamente e forse mostra la presenza Ritorneremo nella prossima unit su questo punto. In
una residua componente stagionale (Esercizio: Perche?) ogni caso, trend e stagionalit spiegano pi del 99%
della varianza della co2 (lR2 del modello vale 0,997).
Quindi, lombra di stagionalit magari presente ma
di certo non importante.

Unit E: Stima della media e sua . . . 69 Unit E: Stima della media e sua . . . 70
Altri modelli di regressione: cenni Appendice: richiami sul modello di
regressione lineare multiplo
Al posto di variabili dummy, possiamo utilizzare
funzioni trigonometriche per introdurre in un situazione: una variabile dipendente (y) e k variabili
modello di regressione una componente periodica. esplicative (x1, . . . , xk).
Possiamo anche introdurre interazioni tra trend e relazione lineare:
stagionalit ad esempio introducendo nel modello dei
termini che sono il prodotto di quelli visti nellappli- yi = 0 + 1x1i + + kxki + (errore)i
cazione fatta. Nel contesto in cui stiamo operando
ci servirebbero, ad esempio, per modellare una dove
componente stagionale che varia nel tempo.
- yi indica li-sima osservazione sulla variabile dipendente
In alcuni campi applicativi comune utilizzare per mentre
stimare la componente di trend funzioni diverse dai - xji indica losservazione i-sima sulla j-sima variabile
polinomi. dipendente.
... scrittura matriciale: n osservazioni possono essere
scritte compattamente come
Non affrontiamo questi argomenti in parte per problemi
di tempo in parte perch nei corsi di Modelli I e II y = X +
sviluppate capacit di questo tipo. E quindi. . .
ovvero

y1

1 x11 .. x
errore

k1 1
. .. ..
. .. .. 0 ..
. = . . .. +

. . . .. ..
..

.. x k
yn 1 x1n kn erroren

Unit E: Stima della media e sua . . . 71 Unit E: Stima della media e sua . . . 72
minimi quadrati: la stima a minimi quadrati dei minimi quadrati ponderati: nella soluzione precedente
parametri di regressione, ovvero, il valore di = diamo lo stesso peso a tutte le osservazioni. In alcuni
(0, . . . , k) che minimizza vedremo per che ci interesser calcolare il vettore che
minimizza la seguente somma dei quadrati ponderata
n
X
T
(y X) (y X) = (yi 0 1x1i kxki)2 n
X
i=1 wi(yi 0 1x1i kxki)2
i=1
vale
= (XT X)1XT y dove w = (w1, . . . , wn) sono pesi noti assegnati ad ogni
osservazione. E possibile in questo caso far vedere che
valori previsti: il valore previsto/interpolato dal la soluzione data da
modello alle variabili esplicative (x1, . . . , xk), ovvero,
(w) = (XT WX)1XT Wy
0 + 1x1 + + kxk
dove W = diag(w1, . . . , wn) ovvero una matrice
una combinazione lineare delle y originali, ovvero, diagonale in cui w1 lelemento (1, 1), w2 lelemento
del tipo (2, 2) e cos via.
Xn
wi y i Nota: Anche in questo caso i valori previsti dal modello
i=1 sono funzione lineare delle y.
Infatti,

0 + 1x1 + + kxk = (1, x1, . . . , xk)(XT X)1XT y = wT y.

Ovviamente i pesi w dipendono dalla matrice di disegno


X e dalle x a cui vogliamo calcolare la previsione.

Unit E: Stima della media e sua . . . 73 Unit E: Stima della media e sua . . . 74
minimi quadrati con un vincolo: Supponiamo ora di
voler stimare il modello ma di sapere a priori che il
vettore dei parametri, , soddisfa esattamente al vincolo
Unit F
T
a =0
Scomposizione di una serie temporale:
dove a un qualsiasi vettore noto. un approccio flessibile
E possibile dimostrare che, tra tutti i vettori che
soddisfano il vincolo, quello che minimizza la somma dei
quadrati degli scarti delle osservazioni dai valori previsti
dal modello, ovvero che risolve il problema di minimo
vincolato
P
min0,...,k ni=1 (yi 0 1x1i kxki)2
con il vincolo che a00 + + akk = 0

aT
(a) = T a
a a
dove lo stimatore a minimi quadrati.
Nota: La formula in se non molto interessante.
Limportante che il problema abbia una soluzione
facilmente calcolabile.

Unit E: Stima della media e sua . . . 75


Il punto debole. . . Regressione non parametrica: cenni

. . . dellapproccio precededente che i risultati dipendono [il problema] - sono disponibili dei dati bivariati del
in maniera cruciale dalla capacit e dalla possibilit di tipo
scegliere in maniera appropriata le funzioni con cui {(x1, y1), . . . , (xn, yn)}
interpolare il trend e la componente stagionale. su due variabili X e Y;
In questa unit studieremo un approccio pi flessibile. - la relazione tra la X e la Y pu essere scritta nella
forma
La trattazione orientata yi = f(xi) + i (F.1)
dove f() = E(Y|X = x) mentre le i sono delle
al mostrare le connessioni esistenti con i problemi di
variabili casuali (visto quanto detto con media nulla);
regressione non parametrica;
- non sappiamo come specificare f() parametricamente
allanalisi esplorativa ed interattiva dei dati pi che alla (ad esempio, non una retta, non un polinomio,. . . );
produzione di statistiche ufficiali. - per sappiamo che f() una funzione continua e
senza oscillazioni particolarmente violente;
- vogliamo utilizzare i dati per costruire una stima di f()

Unit F: Scomposizione di una serie . . . 77 Unit F: Scomposizione di una serie . . . 78


[medie locali] Si supponga che La media delle Y non pu essere la soluzione generale.

f(x) = per quasivoglia x

8
dove indica una costante coincidente con la media f ( x) = y
^

6
della variabile Y 1

4
y

2
In questo caso degenere, potremmo stimare f()

0
mediante

4
n
1X 0 1 2 3 4 5
f(x) = = y = yi per qualsivoglia x
n x
i=1

ovvero, semplicemente calcolando la media delle y. Per, se le oscillazioni di f() sono dolci, possiamo
pensare di stimare f() mediante delle medie locali del
tipo
f ( x) = y
^
22


media delle yi tali che |xi x|
20

f(x) = sia minore di una costante


18
y

prescelta
16
14

o, del tipo,
12

3 4 5 6 7
x
media ponderata delle yi con
pesi costruiti in maniera che
f(x) =
risultino grandi se xi x e

piccoli se xi lontano da x
1
Si ricordi che, per la (F.1), possiamo scrivere yi = + i e che le hanno
media nulla
Unit F: Scomposizione di una serie . . . 79 Unit F: Scomposizione di una serie . . . 80
Questo ci porta a degli stimatori del tipo [pesi costruiti da un nucleo] Supponiamo di scegliere
una funzione k() non decrescente per x < 0 e non
n
X crescente per x > 0 e tale che k(x) 0 quando |x|
f(x) = wi(x)yi (F.2) sufficientemente grande. Una possibilit per generare i
i=1 pesi consiste nel porre

dove wi(x) il peso che assegnamo a yi quando 


xi x

calcoliamo la stima di f() a x. k
h
wi(x) = n  
X xi x
8

k
6

h
i=1
4
2

e, quindi,
0

n
2

 
X xi x
k yi
4

0.10
f(x) = i=1n 

0.08

pesi usati per stimare f(1) X xi x
k
0.06
h
i=1
0.04
La funzione k() usualmente indicata come nucleo
0.02

(kernel in inglese) e lo stimatore risultante stimatore


0.00

basato sul metodo del nucleo.


0.10
0.08

pesi usati per stimare f(4)


Ad esempio, lesempio della pagina precedente stato
0.06

costruito utilizzando come nucleo la densit di una


0.04

distribuzione normale standard.


0.02
0.00

0 1 2 3 4 5

Unit F: Scomposizione di una serie . . . 81 Unit F: Scomposizione di una serie . . . 82


Esempi di nuclei [regressione locale] Una possibilit diversa consiste
nellutilizzare come stima di f(x) il valore assunto ad x
da un polinomio adattato utilizzando solo le osservazioni
vicine.
Ad esempio, uno degli stimatori pi utilizzati lo
stimatore loess che stima f(x) mediante
I( x < 2)

f(x) = b0(x) + b1(x)x + + bp(x)xp

dove i coefficienti b0(x), . . . , b1(x), che si osservi


dipendono da x, sono determinati minimizzando
2

X  xi x 
k (yi b0(x) b1(x)x bp(x)xp)2
exp( 0.5x2)

h(x)
i

con
(1 |x|3)3 se |x| 1
k(x) =
0 altrove

1.0
I( x 2)(1 (x 2)2)2

0.8
0.6
(1 x 3)3
0.4
0.2
0.0

3 2 1 0 1 2 3

1.5 1.0 0.5 0.0 0.5 1.0 1.5

Unit F: Scomposizione di una serie . . . 83 Unit F: Scomposizione di una serie . . . 84


h(x) usualmente determinato in maniera tale che solo
s osservazioni ricevono un peso maggiore di 0 (con s
valore prefissato).
Per i risultati del lucido 74 anche questo stimatore del (2, f (2))
^

tipo (F.2) anche se non detto che i pesi sommino ad 1


e che siano positivi.

y
pesi utilizzati per determinare la retta

w
0 1 2 3 4 5

La figura illustra come viene determinata la stima per


x = 2 nel caso in cui si scelga di adattare una retta (p=1)
utilizzando il 25% delle osservazioni pi vicine.

Unit F: Scomposizione di una serie . . . 85 Unit F: Scomposizione di una serie . . . 86


Stima con loess (p=1,s=25%) [spline] Una smoothing splines la soluzione del
seguente problema: trovare la funzione f() che
minimizza tra tutte le possibili funzioni f : R R la
seguente somma dei quadrati penalizzata
8

n
X Z x(n)
2
SQp = [yi f(xi)] + v [f 00(x)]2dx
x(1)
6

i=1

dove x(1) = min(x1, . . . , xn) e x(n) = max(x1, . . . , xn).


4

Si osservi che
y

- il primo addendo una usuale somma dei quadrati


degli scarti tra le osservazioni e i valori previsti dal
0

modello; diventa piccolo ovviamente pi il modello


prevede bene le osservazioni ed, in particolare, diventa
nullo per ogni funzione che interpoli esattamente i dati
2

stessi;
- il secondo addendo viceversa una penalit che
4

diventa grande pi la derivata seconda grande (in


0 1 2 3 4 5
modulo), ovvero pi varia la derivata prima, ovvero
x
pi f() si allontana da una retta (per una retta la
derivata seconda sempre nulla); penalizza quindi le
funzioni non liscie, quelle con molte oscillazioni e
cambi di pendenza;

Unit F: Scomposizione di una serie . . . 87 Unit F: Scomposizione di una serie . . . 88


- v un coefficiente che controlla il peso relativo dei due
addendi; in particolare se v piccolo la penalizzazio-
ne non pesa; in questo caso, otteniamo una f()
che tende ad interpolare molto bene anche a costo
di essere troppo poco liscia (ovvero pu interpolare

8
anche la componente erratica); viceversa se h grande
la penalit pesa molto e quindi otteniamo una stima v "giusto"
molto liscia (per v otteniamo, qualsiasi siano i v "piccolo"

6
v "grande"
dati, una retta visto che in ogni altro caso la penalit
dominerebbe SQp). Si veda lesempio a pag. 90.

4
E possibile dimostrare che
? la soluzione del problema una funzione continua con

y
le prime due derivate continue che

2
? in ognuno degli intervalli determinato dai valori
distinti nelle x un polinomio del terzo ordine;

0
Ad esempio se supponiamo che tutte le x siano
differenti e gi ordinate (ovvero x1 < x2 < < xn)
la soluzione un polinomio cubico in tutti gli intervalli

2
[xi xi+1 ], i = 1, . . . , n1; i coefficienti dei vari polinomi
che rappresentano localmente la funzione non sono
completamente liberi ma soddisfano a dei vincoli che
4
garantiscono la continuit della soluzione e delle sue
prime due derivate. 0 1 2 3 4 5

E inoltre possibile far vedere che anche questo stimatore x

del tipo (F.2).

Unit F: Scomposizione di una serie . . . 89 Unit F: Scomposizione di una serie . . . 90


[numero di parametri equivalenti] Gli stimatori visti
hanno un parametro aggiustabile che controlla il grado
di lisciamento (h nel caso dello stimatore del nucleo, s
nel caso dello stimatore loess, v nel caso delle spline).
Al di l dei dettagli formali, possibile inoltre far vedere

8
che una volta fissato h o s o v, lo stimatore che si
ottiene ha, nella sostanza, la flessibilit di un modello di spline npe=3
regressione con un certo numero di parametri, numero loess npe=3

6
che viene usualmente chiamato numero di parametri
equivalenti.

4
Ovviamente pi il numero di parametri equivalenti
grande pi lo stimatore flessibile e viceversa.

y
Il numero di parametri equivalenti costituisce quindi una

2
maniera unificata per fissare il grado di lisciamento
desiderato.

0
Tra laltro, stimatori diversi (ad esempio loess o
spline) con un numero di parametri equivalenti uguali
producono di norma stime molte simili (si vedano i

2
grafici nelle prossime pagine).

0 1 2 3 4 5

npe: numero di parametri equivalenti


Unit F: Scomposizione di una serie . . . 91 Unit F: Scomposizione di una serie . . . 92
8

8
spline npe=10 spline npe=30
loess npe=10 loess npe=30
6

6
4

4
y

y
2

2
0

0
2

2
4

0 1 2 3 4 5 0 1 2 3 4 5

x x

npe: numero di parametri equivalenti npe: numero di parametri equivalenti


Unit F: Scomposizione di una serie . . . 93 Unit F: Scomposizione di una serie . . . 94
[scelta del grado di lisciamento] La/e costante/i che Un approccio alternativo si basa sullutilizzo di criteri del
controllano il grado di lisciamento (ad esempio, il tipo
numero di parametri equivalenti) pu/possono essere n log(2p) + cp
scelta/e ad occhio utilizzando un procedimento di dove
prova ed errore e cercando di bilanciare il grado di
lisciamento con la capacit della curva stimata di - indicata con fp() la stima di f() ottenuta utilizzando
descrivere i dati. p parametri equivalenti,

Esistono poi procedure pi formali. Alcune tra le n


1 X 2
pi popolari sono basate su tecniche di validazione 2p = yi fp(xi)
n
incrociata. Nella forma pi semplice la validazione i=1
incrociata funziona cos:
- mentre c una appropriata costante positiva
? i dati sono divisi (casualmente) in due sottoinsiemi; (eventualmente dipendente da n ma non da p)
? f() viene stimata sul primo sottoinsieme utilizzando
vari valori per la costante che controlla il lisciamento; La scelta di p avviene minimizzando il criterio.
? le varie stime vengono utilizzate per prevedere le Il primo addendo misura quanto la stima di f()
osservazioni del secondo sottoinsieme; prevede bene le osservazioni e quindi, usualmente,
? il parametro di lisciamento della curva migliore, decresce al crescere di p (pi p grande pi lo stimatore
ovvero quella che ha previsto in maniera migliore il usato flessibile, quindi meglio riesce a riprodurre i dati
secondo gruppo di dati viene adottato per produrre la osservati). Il secondo addendo invece penalizza i valori
stima finale di f) che ovviamente sar basata su tutti grandi di p.
i dati.
Famosi criteri di questo tipo sono
Esistono poi varie varianti a questo schema di base
(pi di due sottoinsiemi,. . . ). Non li approfondiamo Akaike Information Criterion: lo si ottiene ponendo
anche perch la validazione incrociata non funziona c = 2; spesso indicato con la sigla AIC
particolarmente bene quando i residui intorno alla f() Schwarz Information Criterion o Bayesian Information
sono autocorrelati. Criterion: lo si ottiene ponendo c = log(n) ; spesso
viene indicato con la sigla BIC.
Unit F: Scomposizione di una serie . . . 95 Unit F: Scomposizione di una serie . . . 96
Stima del trend in assenza di stagionalit Medie mobili e filtri lineari

Per una serie non stagionale i metodi appena descritti Lo stimatore del trend che si ottiene nella parte centrale
sono utilizzabili direttamente per la stima della delle osservazioni (ovvero per t non troppo vicino
componente del trend. Il ruolo delle x sar in questo allinizio e alla fine del periodo osservato) della forma
caso giocato dal tempo, ovvero xi = ti dove ti indica
listante di tempo in cui stato osservato li-simo valore m
X
della serie temporale, mentre ovviamente le y saranno Tt = wiyt+i (F.3)
i valori della serie stessa. i=m

dove m un intero P appropriato e wi sono opportuni pesi


che sommano a 1 ( i wi = 1). Si osservi che i pesi non
dipendono da t. Una trasformazione di questo tipo viene
usualmente indicata con il termine di media mobile. Il
suo caso generale, ovvero quando la somma dei pesi
arbitraria, viene chiamata filtro lineare.
Le medie mobili hanno una lunga tradizione di
utilizzo nella scomposizione di una serie temporale.
Affrontare questo problema partendo dalla regressione
non parametrica presenta per alcuni vantaggi:
permette di costruire i pesi in maniera pi naturale;
chiarisce cosa pu essere fatto allinizio e alla fine
della serie (si osservi infatti che una formula del tipo
(F.3) incalcolabile se t m o t > n m);
permette di trattare anche serie con valori mancanti
senza moltiplicarli come accadrebbe se si rimanesse
legati alla (F.3).
Unit F: Scomposizione di una serie . . . 97 Unit F: Scomposizione di una serie . . . 98
Stima della componente stagionale in Una serie solo stagionale
assenza di trend

Il grafico nel lucido 100 mostra una serie mensile

1.3
solo stagionale ovvero senza visibili traccie di una
componente di trend. La componente stagionale sembra

1.2
per evolversi nel tempo. In particolare la sua ampiezza
aumenta.

1.1
Il grafico nel lucido 101 mostra le 12 sottoserie mensili:
(i) il grafico in basso a sinistra mostra i valori osservati
nei vari mesi di gennaio; (ii) quello alla sua destra i

1.0
valori osservati nei vari mesi di febbraio; (iii) e cos via;
lordinamento da sinistra verso destra e dal basso in

0.9
alto (ovvero il grafico sulla seconda riga, terza colonna
riporta i valori osservati nei vari anni durante il mese di

0.8
luglio)
Una possibilit per stimare la componente stagionale
consiste nel lisciare ciascuna di queste sottoserie 2 4 6 8 10 12

utilizzando i metodi presentati allinizio dellunit. Si


vedano i grafici nei lucidi 102 e 103.

Unit F: Scomposizione di una serie . . . 99 Unit F: Scomposizione di una serie . . . 100


Grafico delle sottoserie mensili Grafico delle sottoserie mensili lisciate utilizzando
Given : cycle(y)
una spline con 3 parametri equivalenti.
2 4 6 8 10 12 2 4 6 8 10 12 Given : cycle(y)
1.3

2 4 6 8 10 12 2 4 6 8 10 12
1.2

1.3
1.1

1.2
1.0

1.1
0.9

1.0
0.8

0.9
0.8
1.3
1.2

1.3
1.1

1.2
1.0

1.1
0.9

1.0
0.8

0.9
0.8
1.3
1.2

1.3
1.1

1.2
1.0

1.1
0.9

1.0
0.8

0.9
0.8
2 4 6 8 10 12 2 4 6 8 10 12

2 4 6 8 10 12 2 4 6 8 10 12

Unit F: Scomposizione di una serie . . . 101 Unit F: Scomposizione di una serie . . . 102
Serie osservata (cerchietti) con stima della componente Stima simultanea delle componenti di trend
stagionale (linea continua) e stagionali: lalgoritmo di backfitting

Supponiamo che la serie osservata presenti sia una


componente di trend che una componente stagionale
1.3

che si combinino tra di loro in accordo al modello


moltiplicativo (lucido 53). Supponiamo inoltre, per il
1.2

momento, di avere a disposizione una stima preliminare


(0)
della componente di trend (indichiamola con Tt ).
Una possibilit per stimare simultaneamente le due
1.1

componenti consiste nellutilizzare un approccio basato


sul cosidetto algoritmo di backfitting che si concretizza
1.0

nei seguenti passi:


1. Poniamo i uguale ad 1;
0.9

2. Calcoliamo una versione della serie senza trend


(i) (i1)
at = yt/Tt e poi una stima della componente
0.8

(i)
stagionale, indichiamola con St lisciando le
(i)
sottoserie stagionali di at .
2 4 6 8 10 12 3. Calcoliamo una versione della serie destagionalizzata
(i) (i)
bt = yt/St e una stima della componente di trend,
(i) (i)
indichiamola con Tt , lisciando bt .
4. Poniamo i = i + 1 e ritorniamo al passo 2 a meno che
(i)
lalgoritmo non sia arrivato a convergenza, ovvero Tt
(i1)
non sia sufficientemente vicino a Tt .

Unit F: Scomposizione di una serie . . . 103 Unit F: Scomposizione di una serie . . . 104
Note In pratica

1. Se lalgoritmo viene bloccato dopo i iterazioni, Lutilizzo dellapproccio precedente richiede una serie
(i) (i)
utilizziamo le ultime stime prodotte, ovvero Tt e St di scelte da parte dellanalista che possono essere
come stime della componenti di trend e stagionali- convenientemente organizzate nel seguente ordine
t. La componente irrregolare diventa quindi It =
(i) (i)
yt/(Tt St ). Come si combinano trend e
stagionalit? In maniera additiva o O

2. Nel caso il modello di composizione sia additivo o moltiplicativa?


possiamo utilizzare lalgoritmo di prima sempliceme- 
mente ridefinendo Scelta dello stimatore e del grado
di lisciamento del trend; sua
(i) (i1) stima preliminare
at = yt Tt
(i) (i)
Se NO:
bt = yt St 
rivediamo le
(i) (i) Scelta dello stimatore e del grado
It = yt Tt St di lisciamento per la stima della scelte fatte
componente stagionale precedente-
mente

Stima simultanea delle
3. Partendo con una stima preliminare della componente
componenti di trend e stagionali
stagionale possiamo procedere in maniera essenzialmen-
mediante backfitting
te analoga semplicemente invertendo i passi 2 e
3. 
I risultati sembrano /
soddisfacenti?

Se SI:
interpretiamo ed utilizziamo la
scomposizione ottenuta

Unit F: Scomposizione di una serie . . . 105 Unit F: Scomposizione di una serie . . . 106
Passeggeri delle aerolinee [scelta di uno stimatore per la stagionalit] Lisciando
la serie pre-destagionalizzata con una spline con 20
Illustriamo la procedura precedente utilizzando la serie gradi di libert otteniamo una stima preliminare del
il cui grafico mostrato nel lucido 59 trend. Dividendo la serie osservata per questa stima
otteniamo una serie in cui la componente di trend stata
[tipo di composizione.] Il grafico mostra chiaramente approssimativamente rimossa (lucido 118).
che lampiezza della componente stagionale aumenta Guardando ad un grafico delle sottoserie (lucido
allaumentare del livello della serie osservata (ovvero 119) possiamo decidere come stimare la componente
del suo trend). Adottiamo quindi in prima ipotesi un stagionale. In questo caso, anche per tenere il
modello moltiplicativo. modello semplice e quindi per ottenere delle stime
[scelta di uno stimatore per il trend] La presenza di stabili abbiamo deciso di lisciare le sottoserie mensili
una forte componente stagionale rende difficile capire semplicemente utilizzando delle rette. La capacit
dalla serie originale quanto sia necessario lisciare per di queste di spiegare le variazioni nella componente
ottenere ragionevoli stime del trend (vedi lucido 111). stagionale sembra infatti sufficiente (lucido 120).

Inoltre, se si usa uno stimatore flessibile del trend e [lisciamento suggerito da BIC] Il grafico nel lucido
lo si applica direttamente alla serie originale, le stime 121 mostra, utilizzando un grafico a scala di grigio, come
risentono della componente stagionale (vedi lucido varia il criterio BIC al variare del numero di parametri
112). equivalenti degli stimatori utilizzati per il trend e la
stagionalit. Nel grafico, ambedue le componenti sono
Per questi motivi conveniente ragionare con una stimate utilizzando delle spline.
versione pre-destagionalizzata della serie osservata
(lucidi 113-116). In questo caso la serie pre- Il grafico sostanzialmente conferma la scelta fatta a
destagionalizzata molto regolare (la componente di occhio. Indica infatti che il numero di parametri
rumore bassa). Provando a lisciarla utilizzando equivalenti da utilizzare per il trend dovrebbe essere
stimatori con vari livelli di flessibilit (lucido 117) scelto tra 10 e 20 e quello per la stagionalit vicino a
vediamo che una spline con 20 gradi di libert 2 (2 ovviamente il numero di parametri liberi in una
(parametri equivalenti) sembra essere in grado di retta).
descrivere in trend.
Unit F: Scomposizione di una serie . . . 107 Unit F: Scomposizione di una serie . . . 108
[scomposizione della serie] Avendo deciso, almeno [verifica della bont della scomposizione] Verifiche che
preliminarmente, come stimare trend e stagionali- possono essere condotte sono
t possiamo stimarli simultaneamente utilizzando
i) disegnare la serie destagionalizzata e il trend per
lalgoritmo di backfitting. Il risultato mostrato nel
vedere se questultimo fornisce una descrizione
lucido 122.
adeguata delle variazioni di lungo periodo della
Si osservi come i risultati ottenuti indichino che con media; la serie destagionalizzata ovviamente
il passare degli anni ci sia stato un aumento di quella calcolata con i coefficienti stagionali ottenuti
importanza del picco estivo mentre abbia via via perso alla fine dellalgoritmo di backfitting non quelli
di importanza il picco primaverile osservabile nei primi preliminari;
anni. Questi effetti sono ovviamente al netto dellaumen- ii) disegnare le sottoserie stagionali della serie con
to della ampiezza delle oscillazioni stagionali dovuto al il trend rimosso e verificare ladattamento dei
trend (la serie stagionale disegnata nel grafico quella coefficienti stagionali stimati;
dei coefficienti moltiplicativi). iii) calcolare la funzione di autocorrelazione della
componente irregolare; questultima non dovrebbe
indicare residui di stagionalit, ovvero, i coefficienti
di autocorrelazione ai ritardi stagionali dovrebbero
essere piccoli; sarebbe inoltre auspicabile che la
componente irregolare presenti al pi solamente
della correlazione di breve periodo (solo ai primi
ritardi).
Nel caso in esame i tre grafici sono riportati rispettiva-
mente nei lucidi 123, 124 e 125 e non sembrano indicare
la presenza di particolari problemi.

Unit F: Scomposizione di una serie . . . 109 Unit F: Scomposizione di una serie . . . 110
100 200 300 400 500 600100 200 300 400 500 600
Due stime del trend Una stima del trend che non ci piace!

600
500
400
300
200
100
1950 1952 1954 1956 1958 1960
1950 1952 1954 1956 1958 1960

Nel primo grafico, la stima basata su una spline con La stima del trend stata ottenuta lisciando la serie
4 parametri equivalenti, nel secondo su di una spline osservata con una spline con 20 parametri equivalenti.
con 20 parametri equivalenti. Qual delle due stime Si noti come risenta della componente stagionale e
migliore? Un p difficile da dirsi! 2 quindi non sia accettabile come stima del trend.

2
Le stime sono state ottenute lisciando la serie pre-destagionalizzata (vedi
lucido 113).
Unit F: Scomposizione di una serie . . . 111 Unit F: Scomposizione di una serie . . . 112
Pre-destagionalizzazione Assunzioni sensate sulle componenti sono:
i) Tt Tti per i = 6, . . . , 6 ovvero il trend varia
Vogliamo mostrare come sia possibile in maniera molto lentamente nel tempo;
approssimativa (e quindi utile soprattutto in una fase ii) St St12, ovvero la componente stagionale si ripete
esplorativa) ma molto semplice trasformare la serie quasi uguale in due anni vicini;
originale in maniera tale da eliminare la componente iii) (St5 + + St+6)/12 = 1 ovvero, nel corso di
stagionale ed esporre il trend. un anno le oscillazioni stagionali si compensano; in
Nel modello moltiplicativo caso contrario Tt non sarebbe interpretabile come il
livello di yt;
iv) la media di It vale 1 per qualsivoglia t; di nuovo, se
yt = T t St I t .
questo non accadesse non potremmo interpretare Tt
come il livello della serie osservata.
Consideriamo, per un prefissato t, gli istanti di tempo
Ma allora
t 6, . . . , t 1, t, t + 1, . . . , t + 6 1
2 yt6 + yt5 + + yt+5 + 12 yt+6
dt = Tt It
12
che, visto che la serie mensile, costituiscono le
osservazioni di un intero anno pi un mese.
dove It = (It6/2+It5 + +It+5 +It+6/2)/12 ha media
uno.
Quindi, almeno approssimativamente, dt una serie
temporale
a) con la componente di trend della seria originale
b) ma in cui la componente stagionale stata eliminata
Osservazione: dt calcolabile solo per t = 7, . . . , n 6
dove con n abbiamo indicato la lunghezza della serie.

Unit F: Scomposizione di una serie . . . 113 Unit F: Scomposizione di una serie . . . 114
Osservazione. Si osservi che le assunzioni i) e ii) Passeggeri delle aerolinee: serie
precedenti potrebbero essere sostituite dalla predestagionalizzata
Tt5St5 + + Tt+6St+6
Tt
12

450
ovvero dallipotesi che la media della parte sistematica
della serie fatta su di un periodo lungo un anno sia

400
approssimativamente uguale al trend in uno dei mesi
centrali.

350
Nel caso avessimo adottato un modello additivo,

300
avremmo potuto procedere nella medesima maniera.
Infatti in questo caso yt = Tt + St + It ed ragionevole

250
assumere che
i) Tt Tti per i = 6, . . . , 6;

200
ii) St St12;
iii) (St5 + + St + + St+5 + St+6)/12 = 0

150
iv) la media di It vale 0 per qualsivoglia t.
Quindi, in questo caso, 1950 1952 1954 1956 1958 1960

1
2 yt6 + yt5 + + yt+5 + 12 yt+6
dt = Tt + I t
12
Esercizio. Si estenda il ragionamento precedente al caso
dove It = (It6/2+It5 + +It+5 +It+6/2)/12 ha media di una serie con una frequenza qualsiasi distinguendo il
zero. caso in cui il periodo stagionale sia pari o dispari.

Unit F: Scomposizione di una serie . . . 115 Unit F: Scomposizione di una serie . . . 116
Stime preliminari della componente di trend Stima preliminare della serie senza trend
ottenute lisciando la serie
pre-destagionalizzata

1.3
1.2
spline con 2 gradi di liberta spline con 5 gradi di liberta

1.1
1.0
0.9
spline con 10 gradi di liberta spline con 20 gradi di liberta

0.8
1950 1952 1954 1956 1958 1960

La serie disegnata stata ottenuta come

serie osservata
stima preliminare del trend

Unit F: Scomposizione di una serie . . . 117 Unit F: Scomposizione di una serie . . . 118
Grafici delle sottoserie mensili della serie Grafici delle sottoserie mensili della serie
senza trend senza trend
Given : cycle(y) Given : cycle(y)

1950 1954 1958 1950 1954 1958 1950 1954 1958 1950 1954 1958
1.3

1.3
1.2

1.2
1.1

1.1
1.0

1.0
0.9

0.9
0.8

0.8
1.3

1.3
1.2

1.2
1.1

1.1
y
1.0

1.0
0.9

0.9
0.8

0.8
1.3

1.3
1.2

1.2
1.1

1.1
1.0

1.0
0.9

0.9
0.8

0.8
1950 1954 1958 1950 1954 1958 1950 1954 1958 1950 1954 1958

time(y)

Le varie sottoserie sono state interpolate con una retta


adattata a minimi quadrati.

Unit F: Scomposizione di una serie . . . 119 Unit F: Scomposizione di una serie . . . 120
BIC in funzione dei gradi di lisciamento Scomposizione della serie
utilizzati AirPassengers ~ s(20) * p(1)

600
500
6

400
data
300
650

200
5

100
500
700

400
trend
300
4 750

200
1.3
800

1.2
3

seasonal
1.1
1.0
850

0.9
0.8
2

1.04
5 10 15 20 25 30 35

remainder
1.00
Il grafico basato su di un modello moltiplicativo. 0.96

Sia il trend che la stagionalit sono stimati utilizzando


0.92

delle spline. Lasse delle x mostra il numero di 1950 1952 1954 1956 1958 1960

parametri equivalenti utilizzato per il trend, quello delle Time

y lanalogo numero utilizzato per stimare la stagionalit.

Unit F: Scomposizione di una serie . . . 121 Unit F: Scomposizione di una serie . . . 122
Serie destagionalizzata e trend stimato Serie con il trend eliminato:
sottoserie mensili e stagionalit stimata
Given : cycle(y)

1950 1954 1958 1950 1954 1958


500

1.3
1.2
1.1
400

1.0
0.9
0.8
300

1.3
1.2
1.1
200

1.0
0.9
0.8
1950 1952 1954 1956 1958 1960

1.3
1.2
1.1
1.0
0.9
0.8

1950 1954 1958 1950 1954 1958

time(y)

Unit F: Scomposizione di una serie . . . 123 Unit F: Scomposizione di una serie . . . 124
Componente irregolare: Scomposizioni con problemi
funzione di autocorrelazione campionaria
Nel lucido 127, sono riportati i correlogrammi della
componente irregolare di alcune scomposizioni ottenute
con scelte non felici dei gradi di lisciamento.
1.0

Nella situazione in alto a sinistra c troppa correlazio-


ne a ritardi alti (ad esempio 4 anni= 48ritardi).
Normalmente accade quando il trend stato lisciato
0.5

troppo (si veda anche il grafico nel lucido 128).


Nella situazione in alto a destra, il correlogramma indica
0.0

un residuo di stagionalit nella componente irregolare.


Di norma succede quando le sottoserie stagionali sono
lisciate troppo (vedi anche il grafico nel lucido 129).
0.5

I correlogrammi nella seconda riga, in particolare quello


a destra, indicano un sovraaggiustamento stagionale
(autocorrelazione a ritardo 12 negativa). Di solito
accade quando la componente stagionale viene lisciata
1.0

troppo poco (vedi anche il grafico nel lucido 130). Pu


0 1 2 3 4 5
anche accadere se la componente di trend lisciata
troppo. In questo caso infatti, lalgoritmo di backfitting
non potendo attribuire la parte giusta di variabilit
della serie osservata alla componente di trend cerca
di utilizzare il pi possibile la componente stagionale
finendo per farlo troppo.

Unit F: Scomposizione di una serie . . . 125 Unit F: Scomposizione di una serie . . . 126
Correlogrammi che indicano problemi Serie destagionalizzata e trend
1.0

1.0
trend: polinomio grado 2 trend: spline 20 gdl

500
stagionalita: retta stagionalita: costante
0.5

0.5
0.0

0.0

400
0.5

0.5
1.0

1.0

0 1 2 3 4 5 0 1 2 3 4 5

300
1.0

1.0

trend: spline 20 gdl trend: spline 20 gdl


stagionalita: spline 3 gdl stagionalita: spline 6 gdl
0.5

0.5

200
0.0

0.0
0.5

0.5
1.0

1.0

1950 1952 1954 1956 1958 1960


0 1 2 3 4 5 0 1 2 3 4 5

Il trend stato stimato utilizzando un polinomio di grado


2. La componente stagionale utilizzando delle rette per
interpolare le sottoserie mensili.

Unit F: Scomposizione di una serie . . . 127 Unit F: Scomposizione di una serie . . . 128
Serie con il trend eliminato: Serie con il trend eliminato:
sottoserie mensili e stagionalit stimata sottoserie mensili e stagionalit stimata
Given : cycle(y) Given : cycle(y)

1950 1954 1958 1950 1954 1958 1950 1954 1958 1950 1954 1958
1.3

1.3
1.2

1.2
1.1

1.1
1.0

1.0
0.9

0.9
0.8

0.8
1.3

1.3
1.2

1.2
1.1

1.1
y

y
1.0

1.0
0.9

0.9
0.8

0.8
1.3

1.3
1.2

1.2
1.1

1.1
1.0

1.0
0.9

0.9
0.8

0.8
1950 1954 1958 1950 1954 1958 1950 1954 1958 1950 1954 1958

time(y) time(y)

Il trend stato stimato utilizzando una spline con 20 Il trend stato stimato utilizzando una spline con 20
gradi di libert. La componente stagionale utilizzando gradi di libert. La componente stagionale utilizzando
una costante per interpolare le sottoserie mensili. una spline con 6 gradi di libert per interpolare le
sottoserie mensili.
Unit F: Scomposizione di una serie . . . 129 Unit F: Scomposizione di una serie . . . 130
Estensioni e cautele

- Spesso prima di procedere alla scomposizione la


serie osservata viene aggiustata per altri fattori Unit G
noti (ad esempio, nel caso di serie mensili su
produzione, vendite,. . . , sulla base dei giorni di Modelli dinamici basati sullidea di
effettiva apertura); lisciamento esponenziale
- Non abbiamo, per motivo di tempo, considerato i
problemi che sorgono quando la serie storica contiene
dei valori anomali (outliers) la cui presenza pu,
In questa unit, vengono presentati alcuni modelli
purtroppo distorcere i risultati.
dinamici spesso utilizzati per la previsione a breve
- Dovrebbe essere chiaro che, indipendente dal metodo termine di serie storiche in particolare in ambito
utilizzato, esiste un qualche elemento di arbitrariet aziendale.
in una qualsiasi scomposizione di questo tipo. Tutto
sommato, stiamo moltiplicando i dati:osserviamo una
serie sola e poi la trasformiamo in tre serie distinte. E
quindi importante non sovra-interpretare i risultati.

Unit F: Scomposizione di una serie . . . 131


Struttura di un modello dinamico Linterpretazione che abbiamo dato a ut regge, se ut
non prevedibile sulla base di yt1, yt2, . . ..
Un modello dinamico cerca di descrivere la legge Una maniera minima per formalizzare questa idea
con cui un certo processo stocastico si evolve nel tempo. consiste nel richiedere qualche cosa del tipo
Molti sono basati su di una relazione del tipo
E(ut|yt1, yt2, . . .) = 0 (G.2)

valore parte !
osservato = determinata + (innovazione)
Un alternativa utilizzata nel caso il modello sia tutto
al tempo t dal passato
lineare, ovvero quando g( ) una funzione lineare
nei suoi argomenti ed inoltre si interessati solamente
dove (i) il primo addendo costituisce la parte di yt a spiegare la dipendenza lineare tra le osservazioni,
prevedibile sulla base della traiettoria precedente della consiste nel richiedere che ut abbia media nulla e sia
serie osservata, ovvero di yt1, yt2, . . ., mentre (ii) il incorrelato con yt1, yt2, . . ..
secondo addendo rappresenta quello che di nuovo e
quindi di imprevedibile accade al tempo t. Trascurando alcuni problemi tecnici, la (G.1) ci
dice che il passato di ut pu essere calcolato da
Tentando di tradurre in formule la relazione yt1, yt2, . . .. Quindi, linterpretazione data a ut
precedente arriviamo ad una struttura del tipo regge se ut non prevedibile anche sulla base di
ut1, ut2, . . ..
yt = gt(yt1, yt2, . . .) + ut (G.1)
E quindi usuale richiedere che . . . , ut, ut+1, . . . sia o
una successione di variabili casuali di media nulla
dove gt( ) e ut indicano rispettivamente la parte del indipendenti o almeno incorrelate
presente determinata dal passato e linnovazione.
Un modello di questo tipo pu essere specificato
assegnando le funzioni gt( ) e la legge di probabilit
di ut.

Unit G: Modelli dinamici basati sullidea di . . . 133 Unit G: Modelli dinamici basati sullidea di . . . 134
Un modello basato sul lisciamento Una variante molto semplice del modello precedente
esponenziale che permette al livello di evolversi si concretizza
nellassumere che
Per iniziare consideriamo il caso in cui y1, y2, . . . sia
yt = lt1 + ut
una successione di v.c. indipendenti di media costante (G.3)
lt = (1 )lt1 + yt (l0 = , 0 1)
ed uguale ad . Volendo complicarci la vita, possiamo
pensare che la successione sia generata dal seguente
La prima equazione rimasta invariata. La seconda
paio di equazioni alle differenze
equazione viceversa stata modificata introducendo
un aggiornamento del livello sulla base dellultima
yt = lt1 + ut
osservazione. In particolare, il livello della prossima
lt = lt1 (l0 = )
osservazione, lt, viene ottenuto come media (pesata) del
livello precedente, lt1, e dellosservazione corrente yt.
dove, ut = yt .
Con sostituzioni successive facile mostrare che
La prima equazione ci dice che yt ottenuto come la
somma di due addendi
lt = yt + (1 )yt1 + (1 )2yt2 +
- il primo, lt1, fornisce il livello della serie osservata + (1 )t1y1 + +(1 )tl0 =
(infatti E(ut) = 0); la notazione e, in particolare, il t1
X
pedice utilizzato per il livello, stata scelta in maniera = (1 )iyti + (1 )tl0 (G.4)
da enfatizzare il fatto che il livello delle osservazioni al i=0
tempo t gi noto al tempo t 1;
- il secondo, ut, costituisce la deviazione del valore Quindi lt una media pesata di yt, . . . , y1, l0. La somma
corrente dal livello determinato precedentemente. dei pesi vale 1. Se 0 < < 1, i pesi assegnati alle
osservazioni passate decrescono geometricamente; sono
La seconda equazione ci dice che per questo modello quindi posti su una curva di tipo esponenziale da cui il
particolarmente semplice il livello della serie rimane nome lisciamento esponenziale. Si osservi anche come
costante (ovvero era noto non solo al tempo t 1 ma
il peso assegnato ad l0 converga a zero per t +.
anche ai tempi di Adamo e Eva).
Unit G: Modelli dinamici basati sullidea di . . . 135 Unit G: Modelli dinamici basati sullidea di . . . 136
Pesi esponenziali per tre differenti valori Tre serie simulate
di

10
0.20

= 0.2
0.15

5
0.10

0
0.05

= 0.2

5
0.00

10
0.5

= 0.5
0.4

5
0.3

0
0.2

= 0.5
0.1

5
0.8 0.0

10
= 0.8
0.6

5
0.4

0
0.2

= 0.8

5
0 100 200 300 400 500
0.0

5 10 15
Le tre serie sono state simulate ponendo l0 = 0 e
Si osservi come allaumentare di i pesi assegnati alle utilizzando sempre la stessa sequenza di numeri pseudo-
osservazioni pi lontane nel tempo decrescano. Quindi casuali normali (di media nulla e varianza unitaria).
pi grande pi la memoria del processo diminuisce. Si osservi come lampiezza delle variazioni del livello
aumenti allaumentare di .
Unit G: Modelli dinamici basati sullidea di . . . 137 Unit G: Modelli dinamici basati sullidea di . . . 138
Si osservi che Ricordando che
se = 0 ritorniamo al modello con livello costante; - la media di una somma di v.c. la somma delle medie;
se = 1, lt = yt ovvero il livello della prossima - la varianza di una somma di v.c. incorrelate la
osservazione coincide con losservazione corrente. somma della varianze;
- stiamo supponendo che l0 sia una costante;
Sostituendo la prima equazione della (G.3) nella
- le {ut} sono v.c. indipendenti (e quindi incorrelate) di
seconda, possiamo scrivere
media nulla,

yt = lt1 + ut troviamo che
lt = lt1 + ut (l0 = )
E(yt) = E(lt) = l0
t1
X
Dalla rappresentazione precedente, possiamo vedere var(yt) = var(ut) + 2
var(uti)
come i=1
t1
X
t1
X var(lt) = 2 var(uti)
yt = l 0 + u t + uti i=0
i=1
t1
X
lt = l 0 + uti La prima relazione ci dice che la media della serie
i=0 osservata (e del suo livello) costante.

Unit G: Modelli dinamici basati sullidea di . . . 139 Unit G: Modelli dinamici basati sullidea di . . . 140
Le altre due ci dicono per che se linnovazione non Serie alla deriva
degenere (ovvero se var(ut) non zero) allora, le
varianze di yt e di lt aumentano allaumentare di t. In [il problema] Molte serie temporali contengono una
particolare, se, per qualsivoglia t, var(ut) = 2 abbiamo evidente componente di deriva (drift in inglese) ovvero
che tendono per lunghi periodi ad aumentare o a diminuire
var(yt) = (1 + 2(t 1))2. sistematicamente. Vediamo allora come sia possibile
Quindi, per t sufficientemente grande yt pu essere introdurre esplicitamente una componente di questo
dovunque. tipo nel modello.
Dallaltra parte per, poich [deriva additiva costante] Un modello con una deriva
costante nel tempo
var(yt yt1) = var(ut + ( 1)ut1) = (1 + (1 )2)2
yt = lt1 + d + ut
(G.5)
vero che yt pu arrivare per t arbitrariamente grande lt = (1 )(lt1 + d) + yt = lt1 + d + ut
dappertutto ma, a meno che 2 non sia enorme si pu
muovere solo a piccoli passi. dove d il parametro di deriva, mentre, al solito, l0 =
e 0 1.
Si osservi come, nella (G.5), il livello tendenzialmente
aumenti di d unit in ogni istante di tempo.
Inoltre, come facile verificare,

E(yt) = l0 + d t

ovvero, la serie osservata contiene una componente


di trend esattamente lineare. Se > 0 comunque
var(yt) aumenta allaumentare di t e quindi la serie pu
allontanarsi anche di molto dal suo valore medio.
Unit G: Modelli dinamici basati sullidea di . . . 141 Unit G: Modelli dinamici basati sullidea di . . . 142
Alcune serie simulate [deriva additiva adattiva] Una estensione del modello
precedente che permette alla componente di deriva di
evolversi nel tempo
50

= 0.2
40


yt = lt1 + dt1 + ut
30

lt = (1 )(lt1 + dt1) + yt
20


dt = (1 )dt1 + (lt lt1)
10

Si osservi lt lt1 il coefficiente angolare della retta


50 0

= 0.5 passante per i punti (t1, lt1) e (t, lt). Quindi, la deriva,
40

che, come facile verificare con sostituzioni successive


30

pu essere scritta come


20

t1
10

X
dt = (1 )i(lti lti1 ) + (1 )td0
50 0

i=0
= 0.8
40

, nella sostanza, una media ottenuta con pesi che


30

decrescono geometricamente dei coefficienti angolari


20

della spezzata che passa per i punti (0, l0), (1, l1),. . . ,(t, lt).
10

Si osservi che il modello pu anche essere scritto in una


0

0 100 200 300 400 500 forma che enfatizza il ruolo dellinnovazione come

In tutte le serie stato utilizzato l0 = 0 e d = yt = lt1 + dt1 + ut
0,1. Linnovazione stata generata utilizzando un lt = lt1 + dt1 + ut
generatore di normali standard. La sequenza dei valori
dt = dt1 + ut
dellinnovazione la stessa nelle tre simulazioni che
quindi differiscono solo per il valore di .
Unit G: Modelli dinamici basati sullidea di . . . 143 Unit G: Modelli dinamici basati sullidea di . . . 144
[deriva additiva a smorzare (damped)] Una estensione Due serie simulate. . .
del modello precedente che risulta a volte utile si
concretizza nellassumere che

500
yt = lt1 + dt1 + ut
lt = lt1 + dt1 + ut

300
dt = dt1 + ut

dove un ulteriore parametro (0 < 1).

100
Se = 1 riotteniamo il modello precedente. Viceversa,

80 0
quando < 1 la deriva tende a contrarsi verso lo
zero. In questi casi otteniamo quindi un modello in cui i

60
cambiamenti di direzione sono pi probabili.

40
20
0
0 50 100 150 200 250 300

La prima serie stata simulata a partire da una sequenza


ut di numeri pseudo-casuali normali di media 0 e
varianza 9 ponendo = 0,5, = 0.1, l0 = 0 e d0 = 0.1
e = 1 (modello con deriva addittiva normale). La
seconda a partire dalla stessa sequenza di numeri pseudo
casuali e con gli stessi valori per , , l0 e d0 ma ponendo
= 0.9 (modello con deriva addittiva a smorzare).

Unit G: Modelli dinamici basati sullidea di . . . 145 Unit G: Modelli dinamici basati sullidea di . . . 146
. . . e le rispettive derive [deriva moltiplicativa] Il punto di riferimento per i
modelli precedenti un trend lineare. In realt,
soprattuto nella versione con deriva che si evolve, il
modello riesce ad approssimare anche trend di natura
diversa.
4

=1
= 0.9 Esiste comunque una versione del modello precedente
che ingloba esplicitamente lidea di una crescita di
3

tipo esponenziale. Si osservi innanzitutto che una serie


temporale del tipo
2

yt = exp(a + bt) + ut
z

pu essere rappresentata dal sistema di equazioni alle


1

differenze

yt = lt1dt1 + ut
0

lt = lt1dt1 (l0 = exp(a))



dt = dt1 (d0 = exp(b))
0 50 100 150 200 250 300

La maniera usuale di rendere adattivo sia il livello


lt che lincremento percentuale dt si concretizza nel
generalizzare le equazioni precedenti nella seguente
Si osservi come nel caso = 0.9 la deriva tenda a modo
rimanere vicino allo zero.
yt = lt1dt1 + ut
lt = (1 )lt1dt1 + yt = lt1dt1 + ut

dt = (1 )dt1 + (lt/lt1) = dt1 + ut

Unit G: Modelli dinamici basati sullidea di . . . 147 Unit G: Modelli dinamici basati sullidea di . . . 148
Una serie simulate con deriva moltiplicativa Introduzione di una componente stagionale

[modello di riferimento per il trend] Supponiamo, per


semplificare il discorso successivo, di avere a che fare
100

con una serie temporale il cui trend possa essere ben


descritto da un modello con deriva additiva adattiva. Gli
altri casi sono trattabili in maniera analoga.
80

[stagionalit additiva] Una componente stagionale,


additiva di periodo f pu facilmente essere introdotta
ponendo
60



yt = lt1 + dt1 + stf + ut

40

lt = (1 )(lt1 + dt1) + (yt stf)



dt = (1 )dt1 + (lt lt1)

st = (1 )stf + (yt lt1 dt1)
20

dove l0, d0 e s0, . . . , s1f sono valori arbitrari (di


inizializzazione) mentre , e sono parametri di
0 100 200 300 400 500
lisciamento che assumono valori tra 0 e 1.
La serie stata generata a partire usando una sequenza Si osservi in particolare che se = 0 allora st una
di numeri casuali normali standard per linnovazione e successione deterministica di periodo f (ovvero abbiamo
ponendo = 0,5, = 0.05, l0 = 10 e d0 = 1,002. una serie che presenta una stagionalit costante).
Viceversa, se > 0 la stagionalit tende ad evolversi
nel tempo.

Unit G: Modelli dinamici basati sullidea di . . . 149 Unit G: Modelli dinamici basati sullidea di . . . 150
Si osservino inoltre le equazioni con cui vengono Una serie simulata con stagionalit
aggiornati lt, che ora interpretabile come il livello del additiva. . .
trend, e st, la componente stagionale. In particolare
si noti come combinino in una certa qual misura lidea
del lisciamento esponenziale con lidea dellalgoritmo di
backfitting presentato a pagina 104. Infatti, lt e st sono

1000
una media ponderata
dei valori precedenti, lt1 e stf rispettivamente,

800
e del valore corrente della serie, yt, da cui viene
eliminata nel caso di lt la componente stagionale e

600
nel caso di st la componente di trend.
La forma che rende eplicito il ruolo dellinnovazione del

400
modello precedente

200

yt = lt1 + dt1 + stf + ut

lt = lt1 + dt1 + ut

dt = dt1 + ut

0

st = stf + ut
5 10 15 20 25

La serie stata simulata a partire da una successione di


numeri pseudo-casuali normali di media nulla e varianza
25 utilizzando = 0,5, = 0,1, = 0,5, l0 = 0, d0 =
0,1 e s1i = 50 sin(2(i/12)) e f = 12.

Unit G: Modelli dinamici basati sullidea di . . . 151 Unit G: Modelli dinamici basati sullidea di . . . 152
e le sue componenti [stagionalit moltiplicativa] Seguendo lo stesso ordine
di idee possiamo definire un modello con una
componente stagionale moltiplicativa ponendo
1000


yt = (lt1 + dt1)stf + ut
600
level



lt = (1 )(lt1 + dt1) + yt

stf
200

dt = (1 )dt1 + (lt lt1)


7 0



yt
6

st = (1 )stf +
l +d
5

t1 t1
drift
4
3
2
1

La forma basata sulle innovazioni diventa in questa caso


60 0
seasonality


20


yt = (lt1 + dt1)stf + ut
lt = lt1 + dt1 + ut
20


stf
60

dt = dt1 + ut
10 15



ut
innovation

st = stf +
5

l +d t1 t1
0
10

0 5 10 15 20 25

Unit G: Modelli dinamici basati sullidea di . . . 153 Unit G: Modelli dinamici basati sullidea di . . . 154
Una serie simulata con stagionalit e le sue componenti
moltiplicativa. . .

250
350

150
level
50
300

1.50
1.0
250

drift
0.5
200

1.30.0
seasonality
1.2
150

1.1
1.0
0.9
100

2
innovation
1
50

0
1
2
0

3
0 5 10 15 20 25

5 10 15 20 25

La serie stata simulata a partire da una successione di


numeri pseudo-casuali normali di media nulla e varianza
1 utilizzando = 0,5, = 0,1, = 0,1, l0 = 1, d0 = 0,1
e s1i = 1 + 0,1 sin(2(i/12)) e f = 12.

Unit G: Modelli dinamici basati sullidea di . . . 155 Unit G: Modelli dinamici basati sullidea di . . . 156
Innovazione additiva o moltiplicativa? [innovazione moltiplicativa] In altri casi per la
variabilit di ut sembra dipendere da gt ed in
[notazione] Tutti i modelli precedenti possono essere particolare, lo scarto quadratico medio di ut sembra
scritti nella forma essere proporzionale a gt. E quindi usuale considerare
anche la possibilit che

yt = g t + u t
equazioni aggiuntive per calcolare gt var(ut) = 2g2t

dove gt la parte di yt predicibile sulla base del passato. In questi casi, si parla di innovazione moltiplicativa.
Infatti il modello pu anche essere scritto come
[innovazione additiva] Per molte serie temporali la
varianza di ut, ovvero dellinnovazione, non sembra
yt = gt(1 + at)
dipendere dal livello della serie (ovvero da gt).
equazioni aggiuntive per calcolare gt
Supponendo che la varianza sia anche costante nel
tempo possiamo allora scrivere
dove at = ut/gt.
var(ut) = 2 nota: Si osservi che nel caso moltiplicativo abbiamo
assunto gt > 0.
dove una costante appropriata.
Si parla, in questi casi, di innovazione addittiva.

Unit G: Modelli dinamici basati sullidea di . . . 157 Unit G: Modelli dinamici basati sullidea di . . . 158
Sintesi dei modelli considerati: le quattro Sintesi dei modelli considerati: casi
forme di base particolari

In tutti i modelli Deriva


yt = g t + u t tipo di nome in ast per vincoli
dove deriva largomento drift sui parametri
additivo none = 0, = 1, d0 = 0
additivo additive =1
tipo di tipo di equazioni per il
additivo c/additive = 0, = 1
deriva stagionalit calcolo di gt
additivo d/additive nessuno
gt = lt1 + dt1 + stf
moltiplicativo multiplicative nessuno
lt = lt1 + dt1 + ut
additiva additiva moltiplicativo c/multiplicative =0
dt = dt1 + ut
st = stf + ut
gt = (lt1 + dt1)stf Stagionalit
lt = lt1 + dt1 + ut/stf tipo di nome in ast per vincoli
additiva moltiplicativa
dt = dt1 + ut/stf stagionalit largomento seasonality sui parametri
st = stf + ut/(lt1 + dt1) additivo none = 0, si = 0 se i 0
gt = lt1 dt1 + stf additivo additive nessuno
lt = lt1 dt1 + ut additivo c/additive =0
moltiplicativa additiva
dt = dt1 + ut /lt1 moltiplicativo multiplicative nessuno
st = stf + ut moltiplicativo c/multiplicative =0
gt = lt1 dt1stf
lt = lt1 dt1 + ut/stf
moltiplicativa moltiplicativa Innovazione
dt = dt1 + ut /(lt1stf)
st = stf + ut/(lt1dt1) tipo di nome in ast per
innovazione largomento innovation assunzioni
additiva additive var(ut) = 2
moltiplicativa multiplicative var(ut) = 2g2t

Unit G: Modelli dinamici basati sullidea di . . . 159 Unit G: Modelli dinamici basati sullidea di . . . 160
Nomi assegnati ad alcuni casi particolari Costruzione empirica di un modello

[modello di Holt] Modello senza deriva e senza stagionalit. Per costruire un modello appartenente alla classe
E chiamato anche lisciamento esponenziale semplice.In ast: descritta possibile seguire il seguente approccio
drift=none e seasonality=none.
[lisciamento esponenziale doppio] Modello senza stagionalit e
con deriva additiva non a smorzare. In ast: drift=additive e scelta di uno dei modelli della o O
seasonality=none. classe

NO:
[modello di Holt-Winters additivo] Modello con deriva additiva
stima dei parametri del modello rivediamo le
(non a smorzare) e stagionalit additiva. E chiamato
anche lisciamento esponenziale triplo additivo. In ast: scelto scelte fatte
drift=additive e seasonality=additive. 
precedente-
il modello sembra descrivere in mente
[modello di Holt-Winters moltiplicativo] Modello con deriva additiva
maniera adeguata il meccanismo /
(non a smorzare) e stagionalit moltiplicativa. E chiamato
anche lisciamento esponenziale triplo moltiplicativo. In ast:
generatore della serie temporale
drift=additive e seasonality=multiplicative. osservata?


[theta method] Modello senza stagionalit con deriva additiva SI:


costante. In ast: drift=c/additive e seasonality=none. utilizziamo il modello, ad
esempio, per calcolare delle
previsioni della serie.

Si osservi comunque che non detto che il meccanismo


che genera la serie osservata possa essere approssima-
to da uno dei modelli descritti. In particolare, niente
nei modelli considerati stato introdotto per spiegare
lautocorrelazione di un processo stazionario. Quindi,
anche possible che lesito sia nessuno dei modelli della
classe accettabile!.
Unit G: Modelli dinamici basati sullidea di . . . 161 Unit G: Modelli dinamici basati sullidea di . . . 162
Stima dei parametri [stimatori di massima verosimiglianza] Una possibilit
per stimare offerta dagli stimatori di massima
Iniziamo occupandoci del problema della stima dei verosimiglianza, che, nel contesto in cui siamo vengono
parametri di un modello visto che, come vedremo, di solito calcolati sotto lipotesi che a1, a2, . . . sia una
preliminare anche alla fase di scelta di un modello. successione di variabili casuali normali ed indipendenti.

[notazione] Indichiamo con il vettore dei parametri Sotto questa ipotesi il calcolo della verosimiglianza
di un particolare modello, ovvero, il vettore che ha come molto agevole. Innanzitutto ricordiamoci che
elementi
p(y1, . . . , yn; ) = p(y1; ) p(y2|y1; )
(i) le costanti di lisciamento non vincolate (ovvero, i
p(yn|yn1 , . . . , y1; )
vari , ,. . . ),
(ii) le condizioni iniziali per le equazioni alle
differenze che definiscono il modello (ovvero, l0 e dove p(; ) indica la funzione di densit del primo
se servono d0 e s0, s1, . . .) e argomento calcolata sotto lipotesi che il vero valore dei
(iii) il parametro di dispersione dellinnovazione (). parametri sia . Osserviamo poi che, dalla struttura del
modello, segue immediatamente che
Tutti i modelli di questa unit possono essere scritti nella
forma (yt|yt1, . . . , y1) N(gt(), 2vt()2)
yt = gt() + vt()at
dove gt() , al solito la parte di yt predicibile sulla base Infatti, assegnate le osservazioni passate e , gt() e
del passato, at = ut/vt() e vt() sono assimilabili a delle quantit non stocastiche.

1 se linnovazione additiva
vt() =
gt() se linnovazione moltiplicativa

Nella notazione stiamo enfatizzando, rispetto a quanto


fatto precedentemente, il ruolo dei parametri.

Unit G: Modelli dinamici basati sullidea di . . . 163 Unit G: Modelli dinamici basati sullidea di . . . 164
La funzione di verosimiglianza, a meno di termini [osservazioni e cautele] E possibile far vedere che le
moltiplicativi non dipendenti da quindi propriet (almeno quelle asintotiche) degli stimatori
non dipendono dallassunzione di normalit fatta nel
n 2 !
calcolo della verosimiglianza (nel senso che, sotto ipotesi

Y 1 1 yt gt()
L() = exp piuttosto deboli, la distribuzione asintotica, almeno dei
vt() 2 vt()
t=1
parametri di lisciamento e di la stessa sia se at
normale sia se non lo ). E per bene tenere presente
Gli stimatori di massima verosimiglianza possono essere che
ottenuti massimizzando L(). Per nessuno dei modelli
(i) I parametri che descrivono le condizioni iniziali
considerati gli stimatori sono esprimibili in forma chiusa.
(l0, d0, s0,. . . ) non vengono stimati, in generale, in
E quindi necessario utilizzare delle opportune procedure
maniera consistente. Questa non una caratteristi-
numeriche.
ca degli stimatori di massima verosimiglianza. E una
Esercizio. Si partizioni come (, ) dove indica il caratteristica dei modelli ed in particolare del fatto
vettore di tutti i parametri escluso . Si osservi che gt(), che gt() dipende solo debolmente dalle condizioni
qualsiasi sia il modello non dipende da e quindi pu iniziali quando t grande (si ricordi ad esempio come
essere scritto come gt(). Si dimostri inoltre che nel limportanza di l0 diminuisse nellequazione (G.4)).
caso linnovazione sia additiva gli stimatori di massima Fanno ovviamente eccezione i casi in cui leffetto della
verosimiglianza possono essere ottenuti minimizzando condizione iniziale non scompare da gt(). Esempi sono
in la somma dei quadrati degli errori di previsione un i modelli con deriva o stagionalit costante nel tempo.
passo in avanti
(ii) I parametri di lisciamento (,. . . ) variano nellinter-
n
X vallo [0, 1]. La teoria asintotica standard per questi
2
s () = (yt gt())2 parametri vale ma solamente se il vero valore dei
t=1 parametri interno allintervallo. Negli altri casi la teoria
standard non si applica. Si tratta di una situazione
e, indicata la stima di con , stimando 2 mediante sfortunata visto che molte ipotesi di interesse vedono
coivolti punti estremi (ad esempio, per verificare se
1 2 la deriva fissa o no saremmo interessati a verificare
2 = s ()
n lipotesi = 0).
Unit G: Modelli dinamici basati sullidea di . . . 165 Unit G: Modelli dinamici basati sullidea di . . . 166
Scelta di un modello Verifica delladattamento

Una possibile strategia consiste nello Si basano usualmente sullanalisi delle innovazioni
standardizzate del modello stimato, ovvero di
(a) stimare tutti i possibili modelli (almeno tutti quelli
compatibili con le caratteristiche della serie, ovvero, ad
esempio, non ha senso considerare i modelli stagionali yt gt()
at =
per una serie che stagionale non ); vt()
(b) ordinare i modelli stimati utilizzando un criterio del
tipo di quelli considerati a pagina 96 che nel presente Verifiche standard sono:
caso sono definiti come
(i) disegnare at verso t per verificare se la media nulla
e la varianza costante per ogni t.
2logL() + cn(numero parametri del modello)
(ii) calcolare e disegnare la funzione di autocorrelazio-
dove indica lo stimatore di massima verosimiglian- ne di at e magari anche verificare lipotesi che at sia
za mentre cn una costante (per cn = 2 otteniamo il assimilabile ad un rumore bianco utilizzando il test di
criterio AIC, per cn = log(n) il criterio BIC). Ricordando Box-Ljung.
che L() pu essere interpretata come una misura della (iii) inoltre usuale anche utilizzare un normal
capacit del modello con una particolare struttura e probability plot per verificare la normalit di at;
parametri di spiegare i dati osservati, la logica degli per quanto non strettamente richiesta, la normalit,
indici descritti quella del lucido 96. almeno approssimata, di at garantisce la sensatezza
(c) scegliere il modello migliore (quello con il criterio dellapproccio utilizzato per la stima, pu essere utile
pi basso) o, se questo non soddisfacente, uno dei per calcolare previsioni intervallari (vedi lucido 176);
migliori. il grafico pu inoltre segnalare la presenza di eventuali
osservazioni anomale il cui effetto deve essere indagato.
Esercizio. Dimostrare che se si confrontano modelli
con innovazione additiva i criterio scritti sopra sono
equivalenti ai criteri nlog2 + cn(num. par. modello)
Unit G: Modelli dinamici basati sullidea di . . . 167 Unit G: Modelli dinamici basati sullidea di . . . 168
Una serie temporale di vendite Innanzitutto carichiamo i dati, selezioniamo le prime
144 osservazioni e disegnamo la serie osservata.
Riportiamo lanalisi, inclusi i comandi per R, per
analizzare la serie mostrata nel primo grafico della figura > data(BJsales)
nel lucido 8. La serie comprende 150 osservazioni. > y <- window(BJsales,end=144)
Per costruire un modello noi useremo le prime 144 > plot(y)
osservazioni. In questa maniera potremmo poi utilizzare
il modello per prevedere le ultime 6 osservazioni e

260
confrontare le previsioni con quanto effettivamente
avvenuto.

250
240
230
y

220
210
200
0 20 40 60 80 100 120 140

Time

Unit G: Modelli dinamici basati sullidea di . . . 169 Unit G: Modelli dinamici basati sullidea di . . . 170
Poi stimiamo tutti i modelli compatibili con la serie Stimiamo quindi questo modello (output rieditato
osservata (ovvero tutti i modelli non stagionali) e spezzando alcune delle righe originali)
ordiniamoli utilizzando BIC
> m <- esFit(y,drift="d/additive",
> esId(y) + seasonality="none",
drift sea inn np BIC AIC rankAIC + innovation="additive")
1 d n a 5 825.1447 810.2957 1 > m
2 a n a 4 826.2208 814.3416 2 Call: esFit(y = y, drift = "d/additive",
3 m n a 4 827.2143 815.3351 3 seasonality = "none",
4 a n m 4 830.0236 818.1444 4 innovation = "additive")
5 m n m 4 830.8629 818.9837 5 drift=d/additive,
6 c/a n a 3 838.0757 829.1662 6 seasonality=none,
7 c/m n a 3 838.2286 829.3191 7 innovation=additive
8 c/m n m 3 842.4375 833.5281 8 alpha phi beta
9 n n a 2 844.9391 838.9995 9 0.94758225 0.87909108 0.27893611
10 n n m 2 849.0382 843.0986 10 l.start d.start sigma
11 d n m 5 1610.2699 1595.4208 11 200.03953950 -0.08819421 1.34164674
12 c/a n m 3 2356.4463 2347.5368 12 -2log(likelihood)= 800.2957
AIC= 810.2957 BIC= 825.1447
I differenti modelli sono idenficati nelloutput con le
iniziali del tipo di deriva (drift), stagionalit (sea) e
innovazione (inn). Loutput del comando mostra anche
il numero di parametri del modello (np), i valori di BIC
e AIC e in numero dordine del modello quando se si
utilizzasse AIC per ordinare i vari modelli (rankAIC). In
questo caso, i due criteri sono perfettamente concordi
e suggeriscono un modello con deriva additiva a
smorzare (damped) e innovazione addittiva.
Unit G: Modelli dinamici basati sullidea di . . . 171 Unit G: Modelli dinamici basati sullidea di . . . 172
Il comando tsdiag pu essere utilizzato per ottenere il Mostriamo anche il normal proability plot di at.
grafico delle at, della loro autocorrelazione campionaria
e dei livelli di significativit osservati del test di Ljung- > qqnorm(residuals(m))
Box calcolato sul primo coefficiente di autocorrelazio-
Normal QQ Plot
ne, sui primi due,. . . , sui primi gof.lag coefficienti di
autocorrelazione dove gof.lag il secondo argomento

4
di tsdiag.

> tsdiag(m,20)

2
Standardized Residuals
3
2

Sample Quantiles
1
1

0
3

0 20 40 60 80 100 120 140

Time

2
ACF of Residuals
1.0
0.6
ACF

0.2

4
0.2

0 5 10 15 20
2 1 0 1 2
Lag

Theoretical Quantiles
p values for LjungBox statistic
0.8
p value

0.4
0.0

5 10 15 20

lag

Unit G: Modelli dinamici basati sullidea di . . . 173 Unit G: Modelli dinamici basati sullidea di . . . 174
La funzione di autocorrelazione e i valori del test di Previsione: considerazioni generali
Ljung-Box sono molto buoni. Il grafico dei residui non
segnala deviazioni particolarmente rilevanti da quanto [il problema] Vogliamo, sulla base delle osservazioni,
atteso (al pi una leggera diminuzione della variablibit indichiamole con (y1, . . . , yn), prevedere il valore della
con il passare del tempo). serie in un istante futuro, diciamo n + h. In altre parole,
Il normal probability plot indica un buon adattamento vogliamo farci raccontare dalle osservazioni y1, . . . , yn
della distribuzione normale alle at. quello che sanno su yn+h .
In conclusione adottiamo il modello suggerito da BIC e [futuro|passato] La soluzione generale offerta dalla
AIC come un possibile modello generatore della serie. distribuzione di yt+h condizionata a (y1, . . . , yn).
Infatti, P(yn+h |y1, . . . , yn) ci dice dove ci aspettiamo di
trovare il processo al tempo t + h sapendo che al tempo
1 era a y1, al tempo 2 a y2,. . . , al tempo n a yn.
Ad esempio, se fosse vero che P(0 yt+h
1|y1, . . . , yn) = 0 allora nessuna delle realizzazioni del
processo che passano al tempo 1 per y1,. . . , al tempo
n per yn, poi, al tempo t + h si trovano nellintervallo
[0, 1].
Mentre, se fosse vero che P(0 yt+h 1|y1, . . . , yn) =
0,9 allora 9 traiettorie su 10 del processo che passano
al tempo 1 per y1,. . . , si trovano al tempo t + h
nellintervallo [0, 1].
Quindi, in termini generali, la soluzione del problema
consiste nel calcolare (almeno approssimativamen-
te) questa distribuzione condizionata o qualche suo
parametro caratteristico.
Unit G: Modelli dinamici basati sullidea di . . . 175 Unit G: Modelli dinamici basati sullidea di . . . 176
[media/mediana condizionati] Media e mediana della [intervalli di previsione] I quantili della distribuzione
distribuzione condizionata possono essere utilizzate per condizionata sono particolarmente interessanti poich
fornire una idea di dove dovrebbe trovarsi il processo permettono di costruire agevolmente degli intervalli
al tempo yt+h . Tra laltro si osservi che per una nota di previsione, ovvero degli intervalli che includono
propriet della media i valore futuro con una probabilit preassegna-
ta. Intervalli di previsione sono nelle applicazioni
E((yn+h yn+h|n )2|Yn) E((yn+h (Yn))2|Yn) importanti. Permettono infatti di esporre in maniera
intuitiva e non tecnica il grado di precisione con cui
dove conosciamo il futuro.

- Yn = (y1, . . . , yn) indica le osservazioni, Si supponga di voler determinare [an+h|n , bn+h|n ] tali che
- yn+h|n = E(yn+h |Yn) indica la media condizionata e
- () indica una generica funzione. P(an+h|n yn+h bn+h|n |y1, . . . , yn) = 1

Quindi, la media condizionata gode della propriet


dove una costante assegnata ( [0, 1]).
di minimizzare la media degli errori di previsione al
quadrato. Esistono varie possibilit. Ma quella che si adotta
comunemente consiste nel porre
Si osservi, che poich per qualsiasi variabile casuale
u, E(u) = EYn (E(u|Yn)) (la media marginale la (/2) (1/2)
media delle medie condizionate), la disuguaglianza pu an+h|n = yn+h|n e bn+h|n = yn+h|n
estendersi anche ai valori attesi non condizionati.
(p)
Ricordando la propriet simile della mediana, possiamo dove yn+h|n indica il quantile p della distribuzione
anche affermare che la mediana condizionata minimizza condizionata, ovvero
la media dei valori assoluti degli errori di previsione.
(p)
P(yn+h|n yn+h|n |y1, . . . , yn) = p.

Unit G: Modelli dinamici basati sullidea di . . . 177 Unit G: Modelli dinamici basati sullidea di . . . 178
Previsione con i modelli basati sul
lisciamento esponenziale Algoritmo di simulazione

Ci comporteremo come se la struttura prescelta per


il modello (tipo di deriva,. . . ) e i parametri stimati 1. calcolare ln, dn, sn,. . . ,snf+1 da y1,. . . , yn;
coincidano con la vera struttura e i veri parametri, 2. generare dalla distribuzione dellinnovazione an+1 ,. . . ,
ovvero, come se il vero modello fosse noto. an+l;
3. utilizzando le equazioni alle differenze che definiscono
Si tratta di una ipotesi non realistica che per semplifica
il modello simulare a partire dalle quantit determinate
in maniera drastica la trattazione, e fornisce soluzioni
ai passi 1 e 2, yn+1 , . . . , yn+h ;
sensate ampiamente utilizzate nelle applicazioni.
4. ripetere i passi 2 e 3 un certo numero di volte,
Leffetto principale quello di sovrastimare la precisione
indichiamolo con B;
delle previsioni (ci siamo persi per strada un pezzo di
5. alla fine ci troviamo con B traiettorie future
variabilit!).
simulate e quindi B possibili yn+l tutti estratti
Una soluzione generale per approssimare la distribuzio- dalla distribuzione condizionata (visto che siamo
ne condizionata e quindi per calcolarne i momenti e i sempre partiti da ln, dn,. . . ). Possiamo quindi
quantili consiste nel procedere per simulazione. stimare la distribuzione condizionata usando queste
pseudo-determinazioni di yt+l.

Unit G: Modelli dinamici basati sullidea di . . . 179 Unit G: Modelli dinamici basati sullidea di . . . 180
Alcuni futuri simulati (e uno vero!!!) Per quanto riguarda la simulazione dellinnovazione
futura sono spesso considerate due possibilit:
270

(a) Al posto delle innovazioni future an+1 , an+2 , . . .


vengono utilizzati dei numeri pseudo casuali
N(0, 2)1. Si parla in questo caso di simulazioni o
di bootstrap parametrico.
265

E un approccio sensato ovviamente nei soli casi


in cui la distribuzione di at sembra essere almeno
approssimativamente normale.
260

(b) Un approccio alternativo, utilizzabile quando


at non sembra essere normale, si concretizza
nel generare an+1 ,an+2 ,. . . , ricampionando le
255

innovazioni effettivamente osservate. Ovvero, al


passo 1 dellalgoritmo di simulazione calcoliamo
ln,. . . dalla serie osservata. Simultaneamente
250

calcoliamo quindi anche u1,. . . ,un e perci anche


a1,. . . ,an2.
100 110 120 130 140 150 Per simulare il futuro, an+1 viene generato
scegliendo a caso una delle a1,. . . ,an, an+2 viene
Il grafico mostra la serie delle vendite osservata. Le generata nella stessa maniera,. . . . Lestrazio-
osservazioni con 100 t 144 sono disegnate ne avviene in maniera tale che ciascuna delle
con la linea continua, quelle dopo 144 (che non innovazioni osservata possa essere estratta con la
abbiamo utilizzato per costruire il modello) con una stessa probabilit.
linea tratteggiata. Sono stati poi aggiunti 5 futuri Si parla in questo caso di ricampionamento o
simulati utilizzando il modello stimato e ipotizzando la bootstrap non parametrico.
normalit delle innovazioni.
1
in realt nelle applicazioni si usa 2 , ovvero la varianza stimata
2
in realt sono a non a visto che usiamo i parametri stimati
Unit G: Modelli dinamici basati sullidea di . . . 181 Unit G: Modelli dinamici basati sullidea di . . . 182
Nel caso di modelli tutti additivi (deriva, stagionali- Si osservi inoltre che, a prescindere dalla struttura
t e innovazione non moltiplicativi) la media condiziona- del modello, la distribuzione di yn+1 dato (y1, . . . , yn)
ta di yn+h pu essere calcolata simulando il futuro sempre e immediatamente determinabile dalla
facendo a finta che un+1 = 0, un+2 = 0,. . . ovvero distribuzione dellinnovazione standardizzata an+1 . Ad
supponendo che il futuro non ci riservi niente di nuovo. esempio, come gi osservato,
Esercizio: Si dimostri laffermazione precedente. poich yn+1 = gn+1 + vn+1 an+1 , se an+1 N(0, 2)
Aiuto: sufficiente osservare che sempre per sostituzio- allora yn+1 N(gn+1 , 2v2n+1 )
ni successive yn+h = yn+h +(combinazione lineare di
In generale,
un+1 ,. . . ,un+h) e ricordare che la media dellinnovazione
nulla.
P(yn+1 f|y1, . . . , yn) =
Per modelli con qualcosa di moltiplicativo = P(an+1 (f gn+1 )/vn+1 |y1, . . . , yn)
possibile far vedere che simulare il futuro facendo a
finta che tutte le innovazioni future siano nulle pu
essere utilizzato per calcolare delle buone approssima-
zioni della media condizionata. Chiameremo queste
previsioni ingenue o naif (in inglese e in ast naive).
Sempre per i modelli tutti additivi e se linnovazio-
ne si distribuisce come una normale, possibile far
vedere che la distribuzione di yn+h data la serie osservata
normale e pu essere determinata in forma chiusa. I
dettagli non sono presentati visto che sono molto simili
a quello che faremo nella prossima unit per un modello
ARIMA.

Unit G: Modelli dinamici basati sullidea di . . . 183 Unit G: Modelli dinamici basati sullidea di . . . 184
Previsione della serie delle vendite Per ottenere le previsione ingenue o lanalogo di quanto
appena vista ma calcolato ricampionando le innovazioni
Con il seguente comando, se m loggetto ritornato da sufficiente cambiare metodo.
esFit, chiediamo a R di generare 1000 futuri3 per
le 144 osservazioni utilizzate per stimare il modello. > predict(m,6,method="naive")
Linnovazione viene simulata da una distribuzione Time Series:
normale. Il metodo predict in questo caso ritorna Start = 145
una serie temporale multivariate contenenti le stime End = 150
della media, della mediana e di alcuni altri percentili Frequency = 1
della distribuzione condizionata. Lultimo comando sotto Series 1
(il cui output stato tagliato) pu essere utilizzato [1,] 261.8299
per mostrare le stime della media, della mediana e un .............
intervallo di previsione al 90% per i valori futuri. [6,] 264.5363
> predict(m,6,method="resample")[,
> yg <- predict(m,6,method="gauss") + c("5%","median","mean","95%")]
> colnames(yg) Time Series:
[1] "2.5%" "5%" "25%" "median" "mean" Start = 145
"75%" "95%" "97.5%" End = 150
> yg[,c("5%","median","mean","95%")] Frequency = 1
Time Series: 5% median mean 95%
Start = 145 145 259.7755 261.7510 261.7610 263.9980
End = 150 .......................................
Frequency = 1 150 255.9069 264.2205 264.2492 272.4579
5% median mean 95%
145 259.6545 261.8513 261.8354 263.9763
.......................................
150 256.2099 264.5428 264.5254 272.9976
3
il numero variabile utilizzando largomento n.series
Unit G: Modelli dinamici basati sullidea di . . . 185 Unit G: Modelli dinamici basati sullidea di . . . 186
Con i seguenti comandi disegnamo la media della Una serie con le bollicine
distribuzione condizionata, un intervallo di previsione al
90% e, per confronto, le vere osservazioni sulle vendite. Una delle serie temporali inclusa in ast si riferisce
alle vendite di champagne di una particolare azienda
> a <- c("5%","mean","95%") produttrice. Si tratta di una serie storica mensile.
> plot(yg[,a],plot.type="s",lty="dotdash") Anche in questo caso, per vedere la capacit previsiva
> points(window(BJsales,start=145),pch="*",cex=2) del modello in azione non utilizzeremo le ultime 12
osservazioni per costruire il modello.
> data(champagne)
> end(champagne)
[1] 1972 9
> bollicine <- window(champagne,end=c(1971,9))
> plot(bollicine)
270

14000
yg[, c("5%", "mean", "95%")]

12000
265

10000
* * *
* *

bollicine

8000
*
260

6000
4000
2000

145 146 147 148 149 150


1964 1966 1968 1970
Time
Time

Unit G: Modelli dinamici basati sullidea di . . . 187 Unit G: Modelli dinamici basati sullidea di . . . 188
Vediamo quali modelli suggeriscono AIC e BIC. Con Proviamo a stimare i tre modelli migliori per ambedue i
keep=2 avvisiamo esId di ritornare solo i due modelli criteri e verifichiamone ladattamento.
con il BIC pi piccolo e, se diversi, i due modelli con il
miglior AIC. > m1 <- esFit(bollicine,"n","c/m","a")
> tsdiag(m1)
> esId(bollicine,keep=2) Standardized Residuals
drift sea inn np BIC AIC rankAIC
1 n c/m a 14 1660.724 1625.268 3

3
1
2 m c/m a 16 1664.543 1624.022 1

1
3 a c/m a 16 1665.408 1624.887 2

3
1964 1966 1968 1970

Time
In questo caso ce un parziale disaccordo tra i
due criteri. Il modello migliore per BIC terzo ACF of Residuals

per AIC, quello secondo per BIC il migliore

1.0
per AIC,. . . . Ambedue i criteri suggeriscono come

0.6
ACF
appropriata una stagionalit costante e moltiplicativa

0.2
(seasonality=c/multiplicative) e una innovazione

0.2
0.0 0.5 1.0 1.5
additiva (innovation=additive). Per, nel miglior Lag

modello per BIC la deriva assente (drift=none).


Mentre AIC suggerisce una delibera moltiplicativa p values for LjungBox statistic

(drift=multiplicative) o, in subordine, additiva

0.8
drift=additive).
p value

0.4
0.0

0 5 10 15 20 25 30 35

lag

Unit G: Modelli dinamici basati sullidea di . . . 189 Unit G: Modelli dinamici basati sullidea di . . . 190
> m2 <- esFit(bollicine,"m","c/m","a") > m3 <- esFit(bollicine,"a","c/m","a")
> tsdiag(m2) > tsdiag(m3)
Standardized Residuals Standardized Residuals

4
4
2

2
0

0
2

2
1964 1966 1968 1970 1964 1966 1968 1970

Time Time

ACF of Residuals ACF of Residuals


1.0

1.0
0.6

0.6
ACF

ACF
0.2

0.2
0.2

0.2
0.0 0.5 1.0 1.5 0.0 0.5 1.0 1.5

Lag Lag

p values for LjungBox statistic p values for LjungBox statistic


0.8

0.8
p value

p value
0.4

0.4
0.0

0.0
0 5 10 15 20 25 30 35 0 5 10 15 20 25 30 35

lag lag

Unit G: Modelli dinamici basati sullidea di . . . 191 Unit G: Modelli dinamici basati sullidea di . . . 192
Per tutti e tre i modelli lautocorrelazione dei residui La caratteristica ancora pi evidenziata dal normal
non sembra indicare particolari problemi. Comunque i probability plot. Una delle osservazioni, i grafici
modelli suggeriti da BIC sembra essere marginalmente precedenti dei residui la collocano intorno al 1967,
migliore (sopratutto se guardiamo ai livelli di significati- anomala rispetto alle altre.
vit dei test di Ljung-Box basati su 13 o pi coefficienti
di autocorrelazione). > qqnorm(residuals(m1))
Inoltre, il modello suggerito da BIC pi parsimonioso,
Normal QQ Plot
ovvero utilizza meno parametri, e quindi quello che
rischia meno di cogliere caratteristiche spurie della serie
osservata. Sembra quindi sensato sceglierlo.

2000
Il grafico dei residui di tutti e tre i modelli mostra per
un caratteristica non del tutto piacevole e che merita
di essere investigata.

1000
Sample Quantiles

0
1000
2 1 0 1 2

Theoretical Quantiles

Unit G: Modelli dinamici basati sullidea di . . . 193 Unit G: Modelli dinamici basati sullidea di . . . 194
Vediamo qual e cerchiamo di capire che cosa successo Il grafico mostra chiaramente che cosa successo.
facendo uno zoom sulla serie. Almeno negli anni vicini, dopo il picco natalizio le
vendite calano a gennaio fino ad un livello uguale od
> start(bollicine) addirittura pi basso di quello nei mesi immediatamente
[1] 1964 1 successivi.
> which.max(abs(residuals(m1)))
Questa diminuzione avviene solo parzialmente a
[1] 37
gennaio 1967. Il modello sbaglia quindi la previsione.
> #losservazione "incriminata" e quindi
> #il gennaio 1967 Per capire se questo pesa sul modello, costruiamo una
> z <- window(bollicine,start=c(1964,12), serie pulita sostituendo al valore di gennaio 1967 la
+ end=c(1969,2)) media dei gennaii degli anni vicini e vediamo cosa
> plot(z) succede.
> points(z,pch=month.name[cycle(z)])
> arrows(1967+0.5,bollicine[37]+200, > z <- window(y,start=c(1964,12),
+ 1967,bollicine[37]) + end=c(1969,2))
> #comandi come prima
> #gennaio 67 adesso sembra normale
D
D
10000

N D
D D

10000
D N
N
8000

D
N
D
D N

8000
N O
z

N
6000

D
N O
J O
z
O

6000
S
AMJ
S MJ
O O
FM
4000

M MJ A J JF O S
M M
S A S J J
AMJ
S MJ
A J J O
FM
4000
M J JF F M MJ A JF
J
M M J J
JF S A S
A J J J
2000

M J JF F
A A A JF
A
2000

A A A
1965 1966 1967 1968 1969 A

Time 1965 1966 1967 1968 1969

Time

Unit G: Modelli dinamici basati sullidea di . . . 195 Unit G: Modelli dinamici basati sullidea di . . . 196
I modelli suggeriti dai due criteri non cambiano. Questo Stimiamo il modello suggerito da BIC.
consolante. Ovvero, losservazione anomala non
sembra particolarmente influente. > m1bis <- esFit(y,"n","c/m","a")
> tsdiag(m1bis)
> esId(y,keep=2) Standardized Residuals
drift sea inn np BIC AIC rankAIC

2
1 n c/m a 14 1639.490 1604.033 3

1
0
2 m c/m a 16 1641.137 1600.615 1

1
3 a c/m a 16 1642.633 1602.112 2

3
1964 1966 1968 1970

Time

ACF of Residuals

1.0
0.6
ACF

0.2
0.2
0.0 0.5 1.0 1.5

Lag

p values for LjungBox statistic

0.8
p value

0.4
0.0 0 5 10 15 20 25 30 35

lag

Unit G: Modelli dinamici basati sullidea di . . . 197 Unit G: Modelli dinamici basati sullidea di . . . 198
Lautocorrelazione dei residui non preoccupa. Anche il Proviamo a vedere se ci sono differenze nella distribuzio-
normal probability plot diventato pi normale. ne prevista per le prossime 12 osservazioni. Nella figura
(vedi prossimo lucido per le istruzioni R) i tre grafici
> qqnorm(residuals(m1bis)) confrontano (dallalto verso il basso) i percentili 0.5 e
0.95 e la media calcolati utilizzando i due modelli e
Normal QQ Plot generando le innovazioni future con i due metodi visti
(in ogni grafico ci sono 4 curve).
1000

12000
500

2000 4000 6000 8000


Sample Quantiles

1971.8 1972.0 1972.2 1972.4 1972.6


500

12000
1000

8000
4000
1500

1971.8 1972.0 1972.2 1972.4 1972.6

2 1 0 1 2
10000

Theoretical Quantiles
6000
2000

Unit G: Modelli dinamici basati sullidea di . . . 199 Unit G: Modelli dinamici basati sullidea di . . . 200
Istruzioni R per costruire il grafico sul lucido 200. Visto che le differenze nelle previsioni tra i vari modelli
e i vari metodi sembrano irrilevanti usiamo il modello
> a <- c("5%","95%","mean") originale e generiamo le innovazioni assumendo la
> p1 <- predict(m1,12,method="g")[,a] normalit. Al grafico, per vedere il modello in azione
> p2 <- predict(m1,12,method="r")[,a] aggiungiamo anche le vere osservazioni (che si tenga
> p3 <- predict(m1bis,12,method="g")[,a] conto, non sono state in nessuna maniera utilizzate
> p4 <- predict(m1bis,12,method="r")[,a] nellanalisi).
> oldp <- par(mfrow=c(3,1),mar=c(1,1,1,1))
> plot(p1,plot.type="s",lty="dotdash")
> for (i in 1:3)
> points(champagne,pch="*",cex=2)
+ plot(cbind(p1[,i],p2[,i],p3[,i],p4[,i]),
+ plot.type="s",ylab="")
> par(oldp)

14000
*

12000
10000
*

8000
p1
*

6000
*
*
* * *
4000
* *
*
2000

*
1971.8 1972.0 1972.2 1972.4 1972.6

Time

Unit G: Modelli dinamici basati sullidea di . . . 201 Unit G: Modelli dinamici basati sullidea di . . . 202
Introduzione

Nella prima parte dellunit vengono presentati


Unit H i modelli a media mobile (MA(q)), autoregres-
sivi (AR(p)) e autoregressivi a media mobile
I modelli ARMA e ARIMA (ARMA(p, q)),
Sono modelli dinamici lineari che generano processi
stazionari. La loro caratteristica principale consiste
nella capacit di rappresentare/approssimare la
struttura di autocorrelazione di un qualsiasi processo
stazionario.
Vedremo poi una estensione di questi modelli (i
cosidetti modelli autoregressivi a media mobile
integrati o ARIMA(p, d, q)) che estendono i modelli
ARMA nella direzione della non-stazionariet.
Consideremo poi le varianti stagionali di queste
classi di modelli.
In tutti questi modelli, la serie osservata generata
a partire da un processo, {ut}, linnovazione del
processo, che supporremo essere un rumore bianco
(vedi pagina 27) di media nulla e varianza 2u.
Contrariamente a quanto fatto nellunit precedente
ipotizzeremo che il processo di interesse inizi a ,
non a 1. Il periodo di osservazione per, al solito,
inizia a 1 e finisce con n.

Unit H: I modelli ARMA e ARIMA 204


Modelli a media mobile Funzioni di autocorrelazione di alcuni modelli
MA(1) e MA(2)
Un processo stocastico, {yt}, detto generato da un
modello a media mobile di ordine q (moving average in

1.0

1.0
inglese, da cui la sigla/acronimo MA(q)) se
yt = ut + 0.8ut1 yt = ut 0.8ut1

0.5

0.5
yt = + ut + 1ut1 + + qutq

0.0

0.0
dove (, 1, . . . , q) un vettore di parametri costanti.

0.5

0.5
E immediato verificare che

1.0

1.0
E(yt) = 0 2 4 6 8 10 0 2 4 6 8 10

1.0

1.0
e che, per 0 h q, yt = ut + 0.8ut1 + 0.6ut2 yt = ut 0.8ut1 0.2ut2

0.5

0.5
cov(yt, yth ) = (h + 1h+1 + + qh q)2u

0.0

0.0
mentre

0.5

0.5
se h > q allora cov(yt, yth) = 0 (H.1)
La (H.1) mostra come caratteristica di un modello
1.0

1.0
MA(q) sia quello di avere una memoria finita1. 0 2 4 6 8 10 0 2 4 6 8 10

Poich la media costante e cov(yt, yth) dipende solo


da h, il processo stazionario, almeno del secondo
ordine.

1
almeno quella che si manifesta attraverso la dipendenza lineare.
Unit H: I modelli ARMA e ARIMA 205 Unit H: I modelli ARMA e ARIMA 206
Invertibilit di un modello MA(q) In definitiva sembrerebbe che dovremmo arrivare a

X
Un modello MA(q) detto invertibile se, per ogni t, ut ut = ()iyti .
calcolabile a partire da yt, yt1, . . .. i=0

Questo non automatico. Si consideri infatti un modello


MA(1), per semplicit di media nulla, Ma difficile pensare di dare un senso alla sommatoria
infinita che abbiamo appena scritto se i pesi assegnati
alle y esplodono, ovvero se || 1. E dallaltra parte
yt = ut + ut1.
se || 1 allora non ci aspettiamo neanche che il termine
()m+1 utm1 che compariva prima svanisca quando
Con sostituzioni successive troviamo m grande. Infatti, possibile far vedere che un modello
MA(1) invertibile se e solo se || < 1.
ut = yt ut1 = In generale possibile dimostrare che condizione
= yt yt1 + 2ut2 = necessaria per linvertilit di un modello MA(q) che
= yt yt1 + 2yt2 3ut3 = le q soluzioni dellequazione
..
= yt yt1 + + ()mytm + ()m+1 utm1 1 + 1 x + + q xq = 0 (H.2)

siano in modulo maggiori di uno (si osservi che le radici


possono anche essere numeri complessi). Nel seguito
supporremmo di avere sempre a che fare con modelli
invertibili o al pi con modelli in cui le soluzioni della
(H.2) siano in modulo uguale a 1. Questo non un
limite. Infatti possibile dimostrare che se un processo
rappresentabile da un modello MA(q) con radici della
(H.2) minori in modulo di 1, allora pu anche essere
rappresentato da un modello MA(q) invertibile.
Unit H: I modelli ARMA e ARIMA 207 Unit H: I modelli ARMA e ARIMA 208
Nel caso un modello MA(q) sia invertibile possibile Modelli autoregressivi
mostrare che esiste una successione di pesi 1, 2, per
cui Un processo stocastico, {yt}, detto generato da un
X
ut = y t iyti modello autoregressivo di ordine p (sigla/acronimo
i=1 AR(p)) se
dove luguaglianza da intendersi nel senso della
convergenza in media quadratica, ovvero, yt = + 1(yt1 ) + + p(ytp ) + ut
" m
!#2
X dove (, 1, . . . , p) un vettore di parametri costanti.
lim E ut yt iyti =0 Come si pu vedere si tratta di un normale modello di
m
i=1
regressione lineare in cui la variabile risposta il valore
I pesi convergono a zero in particolare presente del processo mentre le variabili esplicative sono
i valori passati del processo stesso.

X
2i < E possibile dimostrare che il processo generato da un
i=1
processo AR(p) stazionario se e solo se le radici
dellequazione
Si osservi che quindi possiamo anche scrivere
1 1 x p xp = 0 (H.4)

X
yt = iyti + ut (H.3) sono in modulo maggiori di uno. In questo caso,
i=1 coincide con la media di yt e possible far vedere che
il processo rappresentabile come una media mobile
ovvero, che un modello MA(q) invertibile pu essere
infinita ovvero che esistono dei pesi 1, 2, . . . tali che
visto come una specie di modello di regressione infinito
in cui le variabili esplicative sono il passato di yt.
X
Gli infiniti coefficienti di regressione 1, 2, . . . non sono yt = + u t + iuti (H.5)
per completamente liberi. Tutti sono infatti funzione i=1
dei q coefficienti 1, . . . , q.
Unit H: I modelli ARMA e ARIMA 209 Unit H: I modelli ARMA e ARIMA 210
Funzioni di autocorrelazione di alcuni modelli AR(1) La funzione di autocorrelazione parziale
e AR(2)
La figura precedente mostra come per un modello AR(1)
1.0

1.0
yt = 0.8yt1 + ut yt = 0.8yt1 + ut lautocorrelazione ai ritardi superiori al primo sia diversa
da zero e possa anche essere non banale.
0.5

0.5
In realt noi sappiamo che in un certo senso quella
0.0

0.0
correlazione spuria. Ad esempio la correlazione che
troviamo a ritardo 2 legata al fatto che yt1 generato
0.5

0.5
a partire da yt2 e yt a partire da yt1. Quindi, la
correlazione tra yt e yt2 diversa da zero ma tutta
1.0

1.0

mediata da yt1.
0 2 4 6 8 10 0 2 4 6 8 10

Per un processo AR(2) viceversa una parte della


1.0

1.0

yt = 0.8yt1 0.6yt2 + ut yt = 0.6yt1 + 0.3yt2 + ut correlazione a ritardo 2 mediata da yt1 mentre una
parte e esprime limpatto diretto di yt2, non mediato,
0.5

0.5

di yt2 su yt.
Per isolare la correlazione diretta dalla correlazio-
0.0

0.0

ne mediata possibile utilizzare i coefficienti di


0.5

0.5

autocorrelazione parziale
1.0

1.0

(h) = corr(yt, yth|yt1, . . . , yth+1 ) h = 1, 2, . . .


0 2 4 6 8 10 0 2 4 6 8 10

E possibile far vedere che la funzione di autocorrelazio-


che misura la correlazione esistente tra yt e yth
ne di un processo AR(1) soddisfa lequazione (h) =
quando da ambedue le variabili venga eliminato la parte
1(h 1), (0) = 1 e quindi che (h) = h1 . Si
spiegabile linearmente da yt1, . . . , yth+1 . Per un
noti landamento diverso a seconda del segno di 1.
processo AR(p)
Si osservi inoltre landamento oscillatorio a smorzare
possibile per alcuni modelli AR(2). (h) = 0 se h > p
Unit H: I modelli ARMA e ARIMA 211 Unit H: I modelli ARMA e ARIMA 212
Funzioni di autocorrelazione parziale di alcuni Modelli autoregressivi a media mobile
modelli AR e MA
Combinano le due classi di modelli appena viste.
1.0

1.0
yt = 0.8yt1 + ut yt = ut + 0.8ut1
Un processo stocastico {yt} si dice generato da un
0.5

0.5
modello autoregressivo a media mobile di ordine
(p, q) (abbreviato in ARMA(p, q)) quando generato
0.0

0.0
dallequazione alle differenze
0.5

0.5
yt = + 1(yt1 ) + + p(ytp ) +
+ut + 1ut1 + + qutq (H.6)
1.0

1.0

0 2 4 6 8 10 0 2 4 6 8 10

Il processo invertibile se tutte le radici dellequazione


1.0

1.0

yt = ut 0.8ut1 yt = ut 0.8ut1 + 0.6ut2 analoga alla (H.2) sono in modulo maggiore di 1. In


questo caso gode anche di una rappresentazione AR()
0.5

0.5

del tipo della (H.3).


0.0

0.0

Il processo stazionario se tutte le radici dellequazio-


ne analoga alla (H.4) sono in modulo maggiore di 1.
0.5

0.5

In questo caso gode anche di una rappresentazione


MA() del tipo della (H.5).
1.0

1.0

0 2 4 6 8 10 0 2 4 6 8 10 La funzione di autocorrelazione pu avere andamenti


molto diversi. La regola generale che i primi
Si osservi come la funzione di autocorrelazione parziale q coefficienti sono sostanzialmente arbitrari; dopo
di un processo MA(q) converga verso zero ma senza la funzione di autocorrelazione converge verso lo
diventare esattamente zero. Ed inoltre, come la funzione zero come fa, a partire da zero, la funzione di
di autocorrelazione parziale di un MA(m) possa, a autocorrelazione di un AR(p).
parte il segno, mostrare gli andamenti qualitativi della
funzione di autocorrelazione di un AR(m) e viceversa.
Unit H: I modelli ARMA e ARIMA 213 Unit H: I modelli ARMA e ARIMA 214
Funzioni di autocorrelazione di un modello Loperatore di ritardo
ARMA(1,2)
Questi modelli sono scrivibili in termini compatti
utilizzando loperatore di ritardo2
1.0

Byt = yt1.
yt = 0.7yt1 + ut 0.95ut2
ARMAacf(ar = c(0.7), ma = c(0, 0.95), lag = 10)

0.5

Usandolo possiamo riscrivere lequazione (H.6) come

(B)(yt ) = (B)ut
0.0

dove

(B) = 1 1B 2B2 pBp


0.5

(B) = 1 1B 2B2 qBq


1.0

0 2 4 6 8 10

0:10

Si osservi come la convergenza verso lo zero in accordo


allequazione (h) = 1(h 1) che caraterizza il
modello AR(1) (vedi lucido 211) in questo caso inizi da
h = q = 2. 2
uso la lettera B mutuandola dalla letteratura anglosassone dove
labbreviazione di backward visto che abbiamo gi troppi R in questi lucidi
Unit H: I modelli ARMA e ARIMA 215 Unit H: I modelli ARMA e ARIMA 216
Modelli integrati ovvero metti un po di Un processo simulato
trend in un modello ARMA

4
Si supponga che yt = + t, ovvero di considerare un

2
processo deterministico la cui realizzazione una retta.
Ovviamente

0
2
(1 B)yt = yt yt1 =

200 4
ovvero, le differenze di una serie costituita solo da un
trend lineare una serie costante.

150
100
Che cosa ci aspettiamo di ottenere se sostituiamo nella

y
equazione precedente a un processo stocastico, ad

50
esempio un ARMA(p, q) di media ? Ovvero, quali

0
caratteristiche avranno le traiettorie di un processo
generato da una equazione alle differenze del tipo 0 100 200 300 400

yt = yt1 + zt Il processo nel primo grafico stato generato utilizzando


lequazione
dove {zt} indica un processo stazionario di media 1

1

generato da un modello ARMA? La risposta facile. zt = + 0,8 zt1 + ut (z100 = 0)
2 2
Mediamente, yt dovrebbe aumentare di unit per ogni
unit di tempo. Quindi ci aspettiamo che yt esibisca un dove ut N(0, 1). Il processo nel secondo stato
trend lineare. generato a partire dal primo utilizzando lequazione

yt = yt1 + zt (y0 = 0)
Unit H: I modelli ARMA e ARIMA 217 Unit H: I modelli ARMA e ARIMA 218
Un altro processo simulato Queste semplici considerazioni ed esempi suggeriscono
di considerare modelli del tipo

(1 B)dyt = zt con (B)(zt ) = (B)ut (H.7)

per approssimare il meccanismo generatore di una serie


50

temporale non stazionaria. Si parla in questo caso


di modello autoregressivo a media mobile integrato3 di
ordine (p, d, q) (abbreviazione ARIMA(p, d, q)).
0

Si osservi che possiamo non menzionare esplicitamen-


te {zt} nella definizione di un modello ARIMA(p, d, q).
Infatti, sottraendo e poi applicando loperatore (B) ad
ambedue i termini della prima equazione che compare
50

nella (H.7) otteniamo

(B)(1 B)dyt = + (B)(zt )


100

0 200 400 600 800 1000


dove = (B) = (1 1 p).
La serie stata simulata utilizzando Sostituendo quindi la seconda equazione della (H.7)
otteniamo
yt = yt1 + zt dove zt = 0,8zt1 + ut (ut N(0, 1))
(B)(1 B)dyt = + (B)ut
Si osservi come usando una ARMA di media nulla
otteniamo una serie che esibisce anchessa una
componente di trend (in questo caso, solo localmente
lineare). 3
il nome integrato discende dal fatto che yt = y0 +
Pt
i=0 zi e che la somma
lanalogo a tempo discreto di un integrale.
Unit H: I modelli ARMA e ARIMA 219 Unit H: I modelli ARMA e ARIMA 220
Identificazione di un modello ARMA/ARIMA Esempio con serie non stagionali

trasformazione della serie


osservata in maniera tale che
diventi stazionaria (incluso luso o O

di differenze, ovvero la scelta di


d).

NO:
scelta di p e q rivediamo le
 scelte fatte
stima dei parametri del modello precedente-
scelto mente

il modello sembra descrivere in
maniera adeguata il meccanismo /

generatore della serie temporale


osservata?

SI:
utilizziamo il modello, ad
esempio, per calcolare delle
previsioni della serie.

Unit H: I modelli ARMA e ARIMA 221 Unit H: I modelli ARMA e ARIMA 222
Modelli ARIMA stagionali Esempio con serie stagionali

La versione stagionale dei modelli ARIMA normalmente


considerata si concretizza nellassumere che il processo
osservato generato in accordo allequazione alle
differenze

(B)(Bf)(1 B)d(1 Bf)Dyt = (B)(Bf)ut

dove:
- f indica la lunghezza del periodo stagionale (12 nel
caso di dati mensili,. . . );
- (B) = 1 1B pBp un operatore
autoregressivo non-stagionale;
- (Bf) = 1 1Bf pBPf un operatore
autoregressivo che vede solo i ritardi stagionali;
- (B) = 1 + 1B + + qBq un operatore a media
mobile non-stagionale;
- (Bf) = 1 + 1 Bf + + QBQf un operatore a media
mobile stagionale.
Eventualmente, come prima, possiamo aggiungere un
termine costante al secondo termine.

Unit H: I modelli ARMA e ARIMA 223 Unit H: I modelli ARMA e ARIMA 224
Unit I

Serie temporali bivariate: cenno

Potrebbero piacerti anche