Sei sulla pagina 1di 14

Processi gaussiani

Un processo stocastico X t è definito gaussiano se per ogni n-upla

t 1 , t 2 , ,X

, t n , la densità della famiglia di variabili casuali X t1 , X t2 ,

è:

tn

f

(

x )

= (2

π

)

n / 2

exp

1 (
2

Σ 1/ 2

x

)

'

µ Σ

1

(

x µ

)

dove x =[x 1 x 2

delle n v.c. e Σ è la matrice di covarianza di x .

x n ]’, µ=[µ 1 µ 2

µ n ]’ è il vettore dei valori medi

Funzione di autocovarianza

Sia {X t } un p.s. stazionario a media nulla. La sua funzione di autocovarianza è

γ(k) = Cov[X t ,X t+k ] = E[X t X t+k ]

e descrive la dipendenza temporale lineare della serie.

Valgono le proprietà

1.

γ(k)=γ(-k)

2. γ(k)≤γ(0)

n

n

3. ∑∑

i = 1

j=

1

α α γ

i

j

(simmetria)

(disug. di Cauchy-Schwartz)

(

i

j

)

0

(positiva definita)

Funzione di autocorrelazione (ACF)

ρ

(

k

) =

(

Cov X

t ,

X

t

k

)

γ (

k )

(

Var X

t )

(

Var X

t

k

)

=

γ (0)

Proprietà

ρ(0) =1

ρ(k) = ρ(-k)

• |ρ(k)| 1

n

n

∑∑

α α ρ

i

j

( ) t t i − j
(
)
t
t
i
j

0

Funzione di autocorrelazione parziale (PACF)

Misura la correlazione tra X t e X t+k al netto della dipendenza lineare

con le variabili casuali intermedie X t+1 , X t+2 ,

X t+k-1

,

P(k) = Corr[X t E(X t | X t+1 ,

,

X t+k-1 ), X t+k E(X t+k | X t+1 ,

,

X t+k-1 )]

Può essere vista come il coefficiente φ kk delle regressioni (k=1,2,…):

X

t

+

k

= φ

k1

X

t

+

k

1

+φ

k 2

X

t

+

k

2

+

+φ

kk

X

t

+

e

t

+

k

,

Calcolo della funzione di autocorrelazione parziale

Ρ

(

k

)

=

della funzione di autocorrelazione parziale Ρ ( k ) = Matrice di Toeplitz     1

Matrice di Toeplitz

   

1

ρ

(1)

 

ρ

(2)

 

L

ρ

(

k

2)

ρ

(1)

 
 

ρ

(1)

 

1

 

ρ

(1)

L

ρ

(

k

3)

ρ

(2)

 

M

M

M

M

M

ρ

(

k

1)

ρ

(

k

 

2)

ρ

(

k

 

3)

L

ρ

(1)

ρ

(

k

)

 

1

ρ

(1)

 

ρ

(2)

 

L

ρ

(

2)

k ρ

(

k

1)

 

ρ

(1)

 

1

ρ

(1)

 

L

ρ

(

k

3)

ρ

(

k

2)

 

M

M

M

M

M

ρ

(

k

1)

ρ

(

k

2)

ρ

(

k

3)

L

ρ

(1)

1

 

N.B.: L’informazione contenuta nella PACF è esattamente la stessa di quella contenuta nella ACF, di cui è trasformazione; tuttavia è utile perché mette in evidenza caratteristiche diverse.

Inferenza sulla ACF

La ACF per processi stazionari e invertibili converge a zero (oppure è zero da un certo ritardo in poi), e può essere stimata consistentemente dai dati per mezzo delle formule:

γˆ(

k

)

ˆ (

ρ

k

)

=

1

n

t

n

k

=

( x

+ 1

γ ˆ( k )

=

γ ˆ(0)

t

ˆ )(

µ

x

t

k

ˆ )

µ

Inferenza sulla ACF

La varianza asintotica di

(1946) e coinvolge i valori incogniti

Sotto l’ipotesi che il processo sia un white noise gaussiano, tuttavia, tale varianza si riduce a 1/n, e

ρˆ (k)

è stata calcolata da Bartlett

ρ (j k )

ρˆ (

k

a

)~

N

0,

1  

n

L’ipotesi H 0 : X t è un WN può essere verificata osservando la ACF campionaria e le bande di confidenza al 95%

±1.96

1

n
n

Inferenza tramite le ACF campionarie

Processi lineari gaussiani stazionari e invertibili

ACF

corrispondenza

biunivoca

gaussiani stazionari e invertibili ACF corrispondenza biunivoca inferenza ACF campionaria Serie storica calcolo
gaussiani stazionari e invertibili ACF corrispondenza biunivoca inferenza ACF campionaria Serie storica calcolo
gaussiani stazionari e invertibili ACF corrispondenza biunivoca inferenza ACF campionaria Serie storica calcolo
inferenza ACF campionaria
inferenza ACF campionaria

inferenza

ACF campionaria

ACF campionaria

ACF campionaria

Serie storica

Serie storica

calcolo

Serie storica calcolo
gaussiani stazionari e invertibili ACF corrispondenza biunivoca inferenza ACF campionaria Serie storica calcolo

Funzione generatrice delle autocovarianze

Γ

(

B

)

=

+∞

γ

k =−∞

(

k B

)

k

=

γ

(0)

+

+∞

γ

k

= 1

(

k

)[

B

k

+

B

k

]

Esercizi

Calcolare la ACF e la funzione generatrice di autocovarianze di

1. processo WN: X t = a t

2. processo lineare del teorema di Wold:

Z

t

=ψ

(B)a

t

1. ACF: ρ(0)=1

2.

Γ(B) = σ

ACF:

2

Soluzioni

ρ(k)=0 per k=1,2,…

ρ k

(

) =

ψ ψ

j

j

j

= 0

+

k

per k =1,2,… ρ k ( ) = ∞ ∑ ψ ψ j j j =

2

ψ

j

j

= 0

Tenendo conto che ψ j =0 per j<0 e usando la sostituzione r=k+j

Γ

=

=

(

B

) =

σ

2

∑∑

ψ ψ

j

j

k

=−∞

j = 0

σ

2

∑∑

ψ ψ

j

r

j

= 0

r =

0

2

σ ψ

(

B

)

ψ

(

B

1

B

)

r

j

=

+

k

B

k

=

σ

2

∑∑

ψ ψ

j

j

j

= 0

k

=−

j

σ

2

ψ

r

r

= 0

B

r

ψ

j

j =

0

B

j

+

k

=

B

k

=

Momenti e momenti condizionati

Sia t l’informazione disponibile al tempo t (nei casi da noi considerati sarà sempre t ={X t , X t-1 , X t-2 , …}).

• Se esiste dipendenza temporale, la distribuzione incondizionata di X t+1 , f(x t+1 ), non coinciderà con la distribuzione condizionata di X t+1 | t , f(x t+1 |ω t ).

• I momenti incondizionati ed i momenti condizionati saranno quindi, in genere, diversi:

E[g(X t+1 )] E[g(X t+1 )| t ]

Il previsore ottimale (minimo MSE)

Prevedere puntualmente X t+1 , data l’informazione t , significa fornire quella funzione dell’informazione passata, g(t ), che mediamente “sbaglia di meno”.

Lo “sbaglio” solitamente viene quantificato come errore quadratico medio (MSE=mean squared error):

E[X t+1 g(t )] 2

La g(t ) che minimizza l’MSE è g(t ) = E[X t+1 | t ]

Dimostrazione

Se si indica con P n,1 un qualsiasi previsore di X n+1 , l’errore che si commette utilizzando tale stimatore invece della variabile vera, può essere espresso come:

e n,1 =X n+1 P n,1 =[X n+1 g n,1 ] + [g n,1 P n,1 ]

dove g n,1 =E(X n+1 Ω n ).

Prendendo il valore atteso del quadrato si ottiene l’MSE dell’errore

MSE(e n,1 )=Var(X n+1  Ω n )+E(g n,1 P n,1 ) 2

che è minimo quando g n,1 = P n,1 .