Sei sulla pagina 1di 9

FUNZIONI DI AUTOCOVARIANZA E DI AUTOCORRELAZIONE GLOBALE E PARZIALE DI UN PROCESSO STAZIONARIO

La covarianza di un processo stazionario {Xt}tT non dipende dal tempo t ma solo dal ritardo k e pu quindi essere rappresentata a una funzione : IR dove I linsieme dei numeri interi e R linsieme dei numeri reali, tale che k k = Cov[Xt, Xt-k].

Tale funzione detta funzione di autocovarianza di un processo stazionario. Si noti che: 0 = Cov[Xt, Xt]=V[Xt] =2 k = k poich k = Cov[Xt, Xt-k]= Cov[Xt+k, Xt] limkk =0 il processo ergodico in media per il teorema di Slutsky.

Una misura normalizzata e adimensionale della relazione lineare che intercorre tra due variabili distanti k ritardi data dalla funzione di autocorrelazione globale : I[-1,1], tale che k k = Corr[Xt, Xt-k] =Cov[Xt, Xt-k]/ {V[Xt] V[Xt-k]}1/2= k/0 .

Si noti che: k = k poich k = k e k = k/0 k [-1,1] ( un coefficiente di correlazione!) come segue da: k [-1,1] |k/0 |1 |k |0 (nellipotesi non restrittiva in cui E[Xt]=0) |E[Xt Xt-k]| {E[Xt2] E[Xt-k2]}1/2 che per la disuguaglianza di Cauchy-Schwarz 24

nello spazio in cui definito il prodotto interno < Xt , Xt-k > := E[Xt, Xt-k] sempre verificato. Dunque k =1 (1) massima correlazione lineare positiva (negativa) tra Xt e Xt-k; k =0 assenza di autocorrelazione tra le variabili Xt e Xt-k che si dicono cos incorrelate. k invariante in modulo rispetto a trasformazioni lineari della variabile Xt. Infatti, posto E[Xt]=0, k = Corr [aXt + b, Xt-k]= Cov [aXt + b, Xt-k]/ {V[aXt + b] V[Xt-k]}1/2 = E[aXt Xt-k + bXt-k]-E[aXt + b]E[Xt-k]/ {a2V[Xt ]V[Xtk]} 1/2

= aCov[Xt Xt-k] / {a2V[Xt ] V[Xt-k] }1/2=ak/ |a|/ 0= k.

Considerato il vettore Xt T= [X1 X2 XN] delle v.a. che costituiscono il processo stazionario a media zero { Xt }t=1,,N, la matrice E[XtXtT]RNN la matrice di varianza e covarianza del processo,
1 0 0 E[XtXtT]= 1 M M N 1 N 2
K N 1 K N 2 e la matrice P(N)= E[XtXtT]/0 RNN la K M K 0

matrice di autocorrelazione o matrice di Toeplitz del processo,


0 P(N)= 1 M N 1

1 0 N 2
M

K N 1 K N 2 . La matrice di Toeplitz simmetrica anche K M K 0

rispetto alla diagonale principale centrosimmetrica e circolante. Se k la funzione di autocorrelazione di un processo stazionario, allora esiste una funzione, f(),[-,], tale che f()0 e [-,] f()d=1. Tale funzione la funzione di densit spettrale del processo, definita come f()=1/(2)[1+2k=1,, kcos ( k)], attraverso cui possibile studiare le 25

propriet di un processo nel dominio delle frequenze anzich del tempo. Esercizio: disegnare k=k per valori di 0<<1 e -1<<0.

La funzione di autocorrelazione globale misura, al variare di k, la relazione lineare che esiste tra Xt e Xt-k considerando anche le variabili Xt-1,, Xt-k+1. Una misura della relazione lineare tra Xt e Xt-k che non tenga conto della dipendenza lineare tra Xt e Xt-k e le variabili Xt-1,, Xt-k+1 data dalla funzione di autocorrelazione parziale : N[-1,1], tale che k kk =Corr [Xt, Xt-k I Xt-1,, Xt-k+1] dove N linsieme dei numeri naturali. Il coefficiente kk misura la correlazione tra Xt e Xt-k una volta spiegata la dipendenza lineare tra Xt e Xt-k e le variabili Xt-1,, Xt-k+1. Il coefficiente di autocorrelazione parziale pu anche essere interpretato come il coefficiente di regressione di Xt su Xt-k nel modello

Xt =k1 Xt-1 +k2 Xt-2++kkXt-k +at, k=1,2, da cui, nellipotesi E[Xt]=0 t, E[XtI Xt-1,, Xt-k+1] =k1 Xt-1 +k2 Xt-2+, k=1,2, che misura laumento di Xt-k al variare di una unit della variabile Xt-k, una volta spiegate le relazioni lineari tra le variabili intermedie. Da tale relazione si pu ricavare una relazione tra i coefficienti di autocorrelazione globale e parziale che consente di calcolare questi ultimi a partire dai primi. Infatti Xt =k1 Xt-1 +k2 Xt-2++kkXt-k +at, k=1,2, E[Xt Xt-k]=k1 k-1 +k2 k-2++kk 0 , k=1,2, e dividendo entrambi i membri per la varianza del processo 0 , 26

k=k1 k-1 +k2 k-2++kk 0 , k=1,2, e in generale j =k1 j-1 +k2 j-2++kk j-k , j=1,,k e k=1,2, o in forma matriciale
1 0 2 = 1 M M k k 1

1 0 N 2
M

K k 1 k1 K k 2 k 2 K M M K 0 kk

ed equivalentemente
1 2 = P M (k ) k k1 k2 M kk .

Segue dalla regola di Cramer per la soluzione esplicita (e unica) di un sistema quadrato con matrice dei coefficienti non singolare che il valore kk= det Q(k)/ det P(k) dove Q(k) la matrice che si ottiene dalla matrice di Toeplitz P(k), sostituendone lultima colonna con il vettore dei termini noti [1 2 k]T. Esercizio: Si consideri il processo stazionario Xt = at - at-1 con =0.7 e se ne disegnino la funzione di autocorrelazione globlale e parziale. Si noti che il processo unapprossimazione finita di un processo lineare MA(), in particolare, un processo MA(1).

Esercizio: Si disegni la funzione di autocorrelazione parziale del processo considerato precedentemente, la cui forma Xt = Xt-1 + at e avente k=k per valori di 0<<1 e -1<<0. Il processo unapprossimazione finita di un processo lineare AR(), in particolare, un processo AR(1).

27

STIMA DEI MOMENTI E DELLE FUNZIONI DI AUTOCOVARIANZA E DI AUTOCORRELAZIONE GLOBALE E PARZIALE DI UN PROCESSO STAZIONARIO Osservata la serie storica {xt}t=1,...,N, le stime dei momenti , k, k e kk si ottengono dai momenti campionari: *=(1/N) t=1,,N xt k*= (1/N) t=k+1,,N (xt - *)( xt-k - *) k*= k*/0* kk*= det Q(k)*/ det P(k)*

Si noti che: Per un processo stazionario ed ergodico in media, lo stimatore * corretto e consistente per . Lo stimatore k* consistente e asintoticamente corretto per k ed inoltre pi efficiente di quello che si otterrebbe dividendo per N-k per N. Tali propriet si riflettono in quelle di k* e kk*. Per ottenere stime attendibili di k necessario disporre di almeno 50 osservazioni e le autocorrelazioni stimate non dovrebbero superare il 25-30% delle osservazioni disponibili. Non necessario che una serie sia stazionaria per calcolare k*, anzi, come si vedr, il comportamento di k* pu essere utilizzato per individuare eventuali elementi di non stazionariet. Il grafico di k* al variare di k viene chiamato correlogramma empirico o campionario.

28

INFERENZA SUL COEFFICIENTE DI AUTOCORRELAZIONE GLOBALE DI UN PROCESSO STAZIONARIO

Nellipotesi in cui il processo stocastico {Xt}tT sia non autocorrelato, allora si dimostra che per N sufficientemente elevato, k* ha distribuzione asintotica Normale a media nulla e varianza 1/N, ossia k* N(0,1/N). In questo caso ci si aspetta che, per N sufficientemente elevato, k* cada nellintervallo [-N1/2

z1-/2, N-1/2 z1-/2 ] con probabilit pari a 1-. Per questo nei

correlogrammi campionari di un processo che si suppone non autocorrelato, le stime dei coefficienti di autocorrelazione sono accompagnate da intervalli di confidenza al livello =0.05 del tipo [-N-1/2 1.96, N-1/2 1.96]. Se il valore stimato del coefficiente cade allesterno di tali bande, allora esso si pu ritenere significativamente diverso da zero con probabilit pari a 0.95; per N non sufficientemente elevato da garantire lapprossimazione asintotica, allora una stima della varianza di k* data da 1/N-k/N2.

Se, al contrario, il processo si suppone autocorrelato, allora vale lapprossimazione di Bartlett per la varianza di k* che si distingue in V(k*) = (1/N) j=-,, (j2 + j+kj-k - 4jj-k + 2j2k2), se il processo ha distribuzione normale {Xt}tTN(0,2); V(k*) = (1/N) [1+2j=1,,qj2], se il processo tale per cui k=0 , k>q. In altri termini: se la funzione di autocorrelazione globale si annulla dopo il ritardo q, allora la varianza di k pu essere stimata attraverso la quantit (1/N) [1+2j=1,,qj2]. 29

Nellipotesi di processo autocorrelato in cui la funzione di autocorrelazione parziale si annulli dopo il ritardo p, ossia kk =0 per k>p, allora V(kk*) = 1/N, per k>p.

INFERENZA SU UN INSIEME DI COEFFICIENTI DI AUTOCORRELAZIONE GLOBALE

Al di l della significativit di ogni singolo coefficiente di correlazione, importante sapere se un insieme di m coefficienti di autocorrelzione sono tutti congiuntamente non significativamente diversi da zero: lipotesi di non autocorrelazione di un processo fino al ritardo m che viene saggiata attraverso il test portemanteau di Ljung-Box, la cui ipotesi nulla e statistica test sono rispettivamente H0: 1 =2 == m=0 e Qm=N(N+2) k=1,,m (1/Nk) 2 k 2m.

RAPPRESENTAZIONE NEL DOMINIO DELLE FREQUENZE: ANALISI SPETTRALE

Lipotesi di base nellanalisi spettrale di una serie storica che ogni processo stazionario possa essere rappresentato da una combinazione lineare di funzioni periodiche. Dunque, anche la sua variabilit potr essere valutata sulla base del contributo di delle varie componenti alle singole frequenze. Si ricordi la funzione di densit spettrale di un processo stazionario f:[- ,] [0,1], f() tale che f() =1/(2)[1+2k=1,, kcos (k)].

Vale la relazione f()=g()/0, dove 30

g()=1/(2)[0+2k=1,, kcos (k)]

lo spettro del processo e consente di rappresentare un processo stazionario nel dominio delle frequenze, cio, la variabilit del processo tra le frequenze e +d espressa da g(), mentre nel dominio temporale la variabilit tra t e t+k espressa da k. Lo spettro infatti la trasformata di Fourier della funzione di autocovarianza del processo. Infatti, in generale, la trasformata di Fourier di una funzione a dominio discreto data da g() =t= -,, f(t)e-it =t= -,, f(t) [cos t i sen t] e nellipotesi in cui f(t) = f(-t) funzione pari e [- ,] = () [f(0) + 2t=1,, f(t) cos t] e nel caso di t=k, (k) = -k con (0)=0 g() = ()[0+2k=1,, kcos (k)]. Poich [-,] g()d=0, larea sottostante lo spettro pari alla varianza del processo. Esercizio: disegnare la funzione di densit spettrale del processo Xt = at - at1

con =0.7 e =-0.7 e quella del processo Xt = Xt-1 + at con =0.7 e =-0.7.

Si osservi che dato che [,], allora /2[1/2,1/2]. Posto f=/2, allora p=1/f il periodo della serie in funzione della frequenza f espressa nellunit di tempo in cui sono espressi i dati, mentre la frequenza angolare in radianti. Ad esempio, per dati mensili, p=12 f=1/p=1/12=0.08 (fondamentale armonica stagionale per dati mensili) e =20.08=0.05.

31

Segue che vicino allorigine ci sono le basse frequenze, associate alle componenti periodiche di lungo periodo (tendenza-ciclo, p>36 per dati mensili). Al contrario, lontano dallorigine ci sono le alte frequenze, associate alle componenti periodiche di breve periodo (rumore, p< 0 per dati mensili).

32