Sei sulla pagina 1di 128

Università degli studi di Roma “TOR VERGATA” Corso di Laurea in Fisica

TESI DI LAUREA

SINGULAR SPECTRUM ANALYSIS APPLICATA A SEGNALI CEREBRALI

LAUREANDO:

Roberto Gaeta

N. di matricola F 000060

RELATORI:

Prof. Roberto Benzi

Dott. Livio Narici

Università degli studi di Roma “TOR VERGATA” Corso di Laurea in Fisica

TESINE

TECNICHE STRUMENTALI PER LA RIVELAZIONE DI SEGNALI IMMERSI NEL RUMORE

RELATORE:

Prof. Sergio Cantarano

MISURE

GIUNZIONI TUNNEL

DINAMICHE

RELATORE:

Prof. Matteo Cirillo

DI

CAMPI

CRITICI

IN

Introduzione

Una definizione ostensiva di ciò che sia la fisica afferma: la fisica è tutto ciò che

studiano i fisici. Nel passato tutto ciò che era “vivente” non veniva studiato dai fisici,

semplicemente perché l’enorme complessità che mostra anche la più semplice

struttura biologica, non permetteva alle conoscenze passate di formulare una teoria, o

anche un semplice modello matematico su tali sistemi. Ma negli ultimi tre decenni

l’evoluzione delle prestazioni dei calcolatori da una parte e della ricerca matematica

dall’altra,

ha

portato

sempre

più

i

fisici

allo

studio

di

strutture

biologiche.

Attualmente i sistemi fisici possono essere classificati in tre categorie 1 :

1)

Sistemi fisici descritti da teorie matematiche conosciute, relativamente

insensibili a piccole variazioni dei dati iniziali, i quali permettono alla teoria

matematica di fornire previsioni sul comportamento del sistema su lunghi o

lunghissimi periodi di tempo.

2)

Sistemi fisici descritti da teorie matematiche conosciute, sensibili a piccole

variazioni dei dati iniziali, i quali permettono alla teoria matematica di fornire

previsioni sul comportamento del sistema solo su brevi o brevissimi periodi

di

tempo.

3)

Sistemi fisici senza alcuna teoria matematica che lì descriva.

Nella terza categoria rientrano certamente la grandissima parte dei sistemi biologici.

Per arrivare ad una teoria matematica che descriva un sistema, bisogna prima di tutto

ottenere dati sperimentali in modo che sia possibile confutare o meno le previsioni

fornite dalla teoria. Ma vi sono dei sistemi biologici, per i quali non solo è difficile

formulare una teoria, ma è persino difficile ottenere dati sperimentali che possano

essere interpretati anche da un modesto modello matematico. Il più complesso fra

questi è forse il cervello. Esistono molti modi per studiare questo sistema, la biologia

ha descritto i suoi componenti fondamentali : i neuroni; la psicologia ne ha studiato

le sue funzioni cognitive,, ma che sono anche le più evanescenti dal punto di vista

della metodologia scientifica. Il fisico invece vede il sistema cervello come una

“scatola nera” con determinati ingressi e uscite, dove per ingressi si intendono

stimoli fisici quantitativamente misurabili che stimolano in “qualche modo” tutto ciò

che esiste dentro questa “scatola nera” , mentre per uscite si intendono di nuovo

quantità fisiche misurabili che sono prodotte da questa “scatola nera”. Una volta

ottenuti i dati sperimentali, il fisico cercherà di trovare un modello o meglio ancora

una teoria che descriva (e preveda) i dati ottenuti (i dati futuri). É evidente che il

fisico rispetto allo psicologo, si pone problemi misurabili, anche se può essere

affascinante parlare della creatività o della timidezza esse non sono proprietà

misurabili; invece rispetto al biologo, il fisico si pone in una visione olistica,

trascurando completamente che cosa ci sia dentro la scatola nera. Il problema iniziale

è dunque avere gli appropriati strumenti matematici che permettano di ottenere delle

informazioni

interpretabili

dalle

misure

ottenute.

Nel

caso

di

misure

neuromagnetiche il segnale che si ottiene è estremamente complicato.

Questa tesi vuole dimostrare l’applicabilità su segnali così complessi e rumorosi,

come quelli del cervello, di una nuova tecnica matematica non lineare detta SSA

(acronimo di Singular Spectrum Analysis), usata già da anni per l’analisi di segnali

digitali, introdotta in oceanografia da Colebrook 2 , e in dinamica non lineare da

Broomhead

e

King 3

e

da

Fraedrich 4 .

Questa

tecnica

permette

di

riconoscere

oscillazioni in un segnale rumoroso e di studiarne l’andamento temporale. Il concetto

base della SSA può essere ricavato dalla più classica PCA (acronimo di Principal

Component Analysis)(vedi § 2.1). La PCA è usata nel caso di M segnali, provenienti

da M punti dello spazio differenti, ed ogni segnale viene espanso in un sottospazio di

dimensione M dalla PCA, mentre nella SSA si ha un solo segnale che viene espanso

in modo opportuno in un sottospazio di dimensione M. La differenza sostanziale è

che nella PCA il numero M è fissato dal numero di segnali che si analizzano, mentre

nella SSA il numero M è arbitrario. Sia la PCA che la SSA sono delle applicazioni

del più generale teorema matematico di espansione bi-ortogonale di Karhunen-

Loève 5 . Vautard e Ghil hanno dimostrato che quando nel segnale sono presenti delle

oscillazioni persistenti, nello spettro degli autovalori della matrice di autocovarianza

del segnale sono presenti delle coppie di autovalori quasi uguali 6 . Sempre Vautard e

Ghil hanno introdotto una tecnica “ad hoc” per riconoscere la frequenza di queste

oscillazioni 7 , una volta riconosciuta si procede con la ricostruzione tramite la tecnica

delle componenti ricostruite (vedi § 2.2), della oscillazione. Il problema maggiore

deriva dal fatto che Vautard e Ghil nel loro articolo applicano questi algoritmi su

2 J.M. Colebrook, Oceanol. Acta 1 (1978) 9.

3 D.S. Broomhead e G.P. King, On the qualitative analysis of experimental dynamical systems, in:

Nonlinear Phenomena and Chaos, ed S. Sarkar (Adam Hilger, Bristol, 1986)

4 K. Fraedrich, J. Atmos. Sci. 43 (1986) 419

5 M. Loève, Probability Theory, 3rd ed. (Van Nostrand, Princeton, 1962).

6 R. Vautard e M. Ghil, Physica D35 (1989) 395

segnali di prova che, nel peggiore dei casi, erano composti da un’oscillazione e da un

rumore con la stessa varianza. Se supponiamo che il rumore sia rumore bianco, il

quale ha uno spettro di Fourier con uguale intensità su tutte le frequenze, mentre

un’oscillazione di una data frequenza, anche se modulata in ampiezza ha uno spettro

puntuale, allora tenendo conto di questo e del teorema di Parseval (Thm 1.12.9),

concludiamo che gli spettri di Fourier dei segnali utilizzati come esempi da Vautard e

Ghil sono sufficientemente puliti. Nel nostro caso invece ci troviamo con segnali che

hanno uno spettro di Fourier tipo fig.27. Nulla quindi ci permetteva di affermare se la

tecnica “ad hoc” introdotta da Vautard e Ghil potesse ritenersi valida anche nel caso

di segnali siffatti. La tesi è consistita nel continuo sviluppo del programma per

l’analisi SSA, l’ultima versione, (la 37-esima) è riportata in App. A. Le versioni sono

state tante per il fatto che l’articolo su cui si basa l’intera costruzione della procedura

(R. Vautard - P. Yiou - M. Ghil, Physica D58

1992

95) omette una caratteristica

essenziale della SSA (vedi § 2.3 e §2.4). Questo fatto unito all’incertezza della

validità della tecnica introdotta “ad hoc” da V. e G. nel caso di segnali molto

rumorosi,

non

permetteva

di

capire

cosa

andava

modificato

nella

tecnica

di

riconoscimento delle oscillazioni. In un’altro articolo degli stessi autori si trova la

descrizione di questa caratteristica (formula 2.3.1). Nella tesi si propone una nuova

tecnica di riconoscimento delle oscillazioni (def.2.4.2) che permette l’applicazione

della SSA a segnali molto rumorosi, (prima di arrivare alla def.2.4.2 la nuova

proposta era la def.2.4.1). Utilizzando sempre gli stessi parametri per l’analisi SSA, i

risultati ottenuti con le varie definizioni, rappresentati in fig. 74 (con la def.2.4.2) e in

fig.73 (con la def.2.4.1) sono riportati in tabella:

Oscillazioni trovate con la tecnica di Vautard e Ghil def.2.3.2

Con la def.2.4.1

Con la def.2.4.2

2

33

58

Tab. a I risultati si riferiscono all’analisi SSA del canale 1(uno dei gradiometri che rilevava il campo magnetico cerebrale) i parametri dell’analisi sono M=700 (numero di autovalori) e RR=10 (vedi def.2.3.3)

La fig.74

è importante perché conferma i risultati ottenuti, dagli studiosi di

neuromagnetismo, ed in più mostra che la SSA permette di ottenere dei risultati più

raffinati rispetto alle tecniche precedenti (vedi §3.4). La tesi dunque dimostra che la

nuova proposta (def.2.4.2) per riconoscere le oscillazioni, permette l’applicabilità

della tecnica SSA anche nel caso di segnali estremamente rumorosi.

La stesura della tesi consiste essenzialmente in 4 capitoli. Nel primo capitolo si

riassumono tutti gli elementi teorici che sono di base per la comprensione della SSA.

Nel secondo capitolo si descrive come si arriva alla SSA 8 , le caratteristiche della

tecnica e infine la nuova proposta per il riconoscimento delle oscillazioni. Il capitolo

tre si apre con dei cenni sul cervello e sulla tecnica utilizzata per l’acquisizione dati,

poi si dilunga sulla discussione dei risultati ottenuti. Nel capitolo 4 si descrivono le

conclusioni e possibili prospettive future per la SSA.

8 La formalizzazione in definizioni e teoremi della PCA, della SSA e la dimostrazione della formula

2.2.1 sono elaborazioni personali.

Capitolo 1

Elementi teorici

1.1 Spazi lineari

L’insieme non vuoto

si dice spazio lineare se soddisfa le seguenti condizioni:

1 ) , : = + 2 ) + = + 3) + ( +
1
)
,
:
=
+
2
)
+
=
+
3)
+ (
+
) = (
+
) +
4)
0
:
+
0
=
5
)
(
)
:
+ (- ) = 0
6)
a
¬
a
7
) a(
b
) = (
ab
)
a ,
b
¬
8) 1
=
9) (a + b)
= a
+ b
10) a(
+
) = a
+ a

Definizione

1

,

2

,

,

N

1.1.1

Sia

uno

spazio

lineare.

Si

dice

che

gli

N

vettori

sono linearmente dipendenti se esistono N numeri {c i } non tutti

N

nulli tali che:

i = 1

c i

indipendenti.

i

= 0 . In caso contrario gli N vettori sono detti linearmente

Nota 1 Da adesso sarà sottinteso che lo spazio è lineare.

Definizione 1.1.2 Uno spazio N si dice N-dimensionale se contiene N vettori

linearmente indipendenti e se N+1 vettori sono sempre linearmente dipendenti.

Definizione 1.1.3 Ogni insieme di N vettori linearmente indipendenti in si dice

costituire una base.

Assegnata una base esiste una corrispondenza biunivoca tra i vettori dello spazio N

e lo spazio delle N-ple ordinate di numeri.

Teorema 1.1.1 Sia {e i } una base di N e A una matrice reale N

A

π 0 i vettori {e j ’} definiti da:

e

e

e

1

2

N

' e 1 ' e 2 T = A  ' e N
'
e
1
'
e
2
T
= A
'
e
N

N tale che det

(1.1.1)

sono una base.

Dimostrazione Si ha

N

s =

1

(e

s

'

)c

s

=

N

s

=

1

N

k

=

1

e

k

a

ks

c

s

=

N

k

=

1

e

k

N

s

=

1

a

ks

c

s

= 0 dato che {e i }

é una base si deve avere

N

s = 1

a

ks

c

s

= 0 ma essendo A non singolare segue che tutti i c s

sono nulli, dunque {e i ’} é una base. c.v.d.

Teorema 1.1.2 Siano {e i } ed

{e i ’}

due basi di

N

. Sia

N-ple ordinate di numeri che rappresentano il vettore

vale la relazione:

c 1

c

2

c

N

= A

c 1

c

2

'

c

N

N e siano {c i } e {c i ’} le

nelle rispettive basi. Allora

(1.1.2)

dove A é la matrice di trasformazione da una base all’altra come in (1.1.1).

Dimostrazione

=

N

i =

1

c

i

'

e

i

'

=

i

N

=

1

c

i

'

N

k

=

1

e a

k

ki

=

N

k

=

1

e

k

N N

i

=

1

a

ki

c

i

'

=

k =

1

e c

k

k

dunque c

=

k

N

i =

1

a

ki

c

i

'

1.2 Spazi Euclidei

c.v.d.

Definizione 1.2.1 Uno spazio

dicesi metrico se in esso é definita una funzione

reale d( , ) definita

,

e che soddisfi le seguenti proprietà: 1) d( , ) 0 (il

segno

di

uguaglianza

vale

se

e

solo

se

=

) ;

2)

3) d( , )

d( , ) + d( ,

) .

d( , ) = d( , )

;

Definizione 1.2.2 Sia

uno spazio lineare. Si abbia un’applicazione :

¬ che

soddisfi le seguenti proprietà: 1) ( + ) = ( ) + ( ) ;

2) (a ) = a ( )

a

¬ ;

allora l’applicazione si dice funzionale lineare.

Definizione 1.2.3 Uno spazio reale

dicesi normato se in esso é definito un

funzionale lineare

:

¬

detto norma che soddisfi le seguenti proprietà:

1)

0

 

=

0

= 0 ;

2)

+

+

,

;

3)

a

a

3) a a a ¬ .

a

¬.

Nota 2 Uno spazio normato é anche metrico; é sufficiente introdurre la distanza

d( , )

=

.

Definizione 1.2.4 Si definisce prodotto scalare in uno spazio lineare complesso

l’applicazione bilineare (,) :

complessi), tale che

,

c

(con c

si intende l’insieme dei numeri

soddisfi le seguenti proprietà:

1) (

, ) = (

,

)

;

2) (

+

, ) = (

, ) + (

,

)

;

3) (a

, ) = a (

) (

, a ) = a(

,

)

;

5) (

, ) 0.

 

,

)

;

4

Un prodotto scalare molto utilizzato é il seguente

N

i = 1

i

i

verificare che esso soddisfa la def. 1.2.4.

,

N

c

si può

Definizione 1.2.5 Si definisce spazio euclideo uno spazio lineare con un prodotto

scalare fissato in esso.

Nota 3 Uno spazio euclideo é anche normato se si definisce

anche metrico (vedi nota 2).

=

Definizione 1.2.6 Due vettori ,

si dicono ortogonali se ( , ) = 0

(

,

)

1

2 .

Quindi é

Dato uno spazio euclideo N il prodotto scalare di due vettori in una data base {e i } é

data da:

(

,

) =

N N

i = 1

a e

i

i

,

s=1

b s

e

s

= i
=
i

s

a b

i

s

(

e

i

,

e

s

)

Definizione 1.2.7 Si dice matrice metrica la matrice N x N che ha come elementi i

prodotti scalari h

is

(e

i

, e

s

)

Definizione 1.2.8 Una base si dice ortonormale se h is = is

N

In una base ortonormale il prodotto scalare è dato semplicemente da ( , ) =

i = 1

a b

i

i

Ogni base può essere ortonormalizzata usando il metodo di Gram-Schmidt. 9

1.3 Matrici diagonalizzabili

Definizione 1.3.1 Siano A e B due matrici N x N. Si dice commutatore di A e B la

matrice [A , B] definita come:

[A,B]

A B

B A

Le matrici A e B si dice che commutano se [A, B] = ∆

Definizione 1.3.2 Sia A una matrice N x N. Si dice aggiunta hermitiana la matrice

A + che verifica la relazione ( ,A ) = (A

+

,

)

,

¬

N

9 Vedi G. Strang “Algebra lineare e sue applicazioni” Liguori Editore pag.161

Definizione 1.3.3 Sia A una matrice N x N. La matrice A si dice hermitiana

(autoaggiunta hermitiana) se A= A + .

Definizione 1.3.4 Sia

un numero complesso. Si dice che è un autovalore della

matrice A se det(A - I) = 0. Dove con I si intende la matrice unitaria.

Definizione 1.3.5 Per ciascuno autovalore della matrice A è associato uno spazio

di vettori { }, detti anche autovettori i quali soddisfano la relazione A = .

Teorema 1.3.1 Gli autovalori di una matrice hermitiana sono reali

Dimostrazione

A

=

(

,

A

)

=

(

,

)

Teorema 1.3.2 Siano 1 2

(A

,

)

=

(

,

A

+

)

=

(

,

A

)

=

(

,

)

=

c.v.d.

due autovalori distinti della matrice hermitiana A, e

siano 1 2 gli autovettori associati. Allora ( , ) = 0. 1 2 prodotto
siano 1 2 gli autovettori associati. Allora ( ,
) = 0.
1
2
prodotto scalare con
(
)
(
)
Dimostrazione Si ha A
=
2
,
A
=
,
(*) in modo
1
1
1
2
1
1
2
1
prodotto scalare con
simile si ha A
(
)
(
)
=
1
,
A
=
,
(**) ora sfruttando
2
2
2
1
2
2
1
2
le
proprietà
del
prodotto
scalare
e
che
A
è
hermitiana
si
ha:
(
)
(
)
(
+
)
(
)
,A
=
A
,
=
,A
=
,A
quindi sottraendo membro a membro la
2
1
1
2
1
2
1
2

(**) con la (*) si ottiene 0 =

ha la tesi. c.v.d.

(

2

1

)(

1

,

2

)

dato che gli autovalori sono distinti si

Teorema

1.3.3

Ogni

matrice

hermitiana

A

ammette

una base

di autovettori

ortonormali

 

Dimostrazione

Sia

1 un’autovettore

di

A.

L’insieme

V 1

definito

da

V

1

{

lasciato

(

1

,A

)

=

¬

N

(

A

:

(

,

,

1

)

= 0

} ha dimensione N-1. Questo sottospazio ortogonale a 1 é

invariante

da

A;

infatti

si

ha:

1

)

=

(

,A

+

1

)

=

(

,A

1

)

=

1

(

,

1

)

= 0

V

1

allora

1

A

dunque esisterà almeno un’altro autovettore 2 di A appartenente al sottospazio V 1 ;

anche il sottospazio V 12 definito da V

12

{

¬

N

:

(

,

1

)

= 0,

(

,

2

)

= 0

}

é invariante

rispetto ad A e quindi esisterà almeno un’ altro autovettore di A appartenente a

questo sottospazio; si continua in modo simile fino ad esaurire tutto lo spazio. c.v.d.

Definizione 1.3.6 Una matrice si dice diagonalizzabile se esiste una matrice M tale

che:

dove

MAM

1

=

é una matrice diagonale.

(trasformazione di similitudine)

Teorema 1.3.4 Sia A una matrice hermitiana. A é diagonalizzabile.

Dimostrazione Prendiamo come matrice M, la matrice composta dagli N autovettori

ortonormali

base. Allora

i

=

(

i

1

,

i

2

,

M

, ) di A, che sappiamo dal thm 1.3.3 formare una iN  11 12
,
)
di A, che sappiamo dal thm 1.3.3 formare una
iN
11
12
13
1N
21
22
23
2 N
=
 
N
1
NN

si verifica facilmente che M -1 = M T . Ora il prodotto MAM T é una matrice che ha sulla

diagonale gli autovalori di A e tutti gli altri elementi sono nulli. c.v.d.

Nota Si dimostra che le matrici più generali che sono diagonalizzabili sono le matrici

cosiddette normali. Una matrice W si dice normale se [W , W + ] = 0.

1.4 Definizione assiomatica della probabilità

Sia

un insieme non vuoto, definiamo gli elementi di

eventi , e

spazio degli

eventi. Consideriamo inoltre l’insieme nullo {} e

come eventi. Un’ esperimento

é un’operazione che in determinate condizioni “produce” degli eventi. L’insieme

di tutti gli eventi possibili di

si dice spazio degli eventi associato

. Siano

1

,

2

due spazi degli eventi associati agli esperimenti 1 , 2 e sottoinsiemi dello spazio

degli eventi . L’unione

1 o da 2 . L’intersezione

prodotti da

1

e

da

2 .

1

1

1

e

2 é definita come l’insieme degli eventi prodotti da

2

2

é definita come l’insieme degli eventi in comune

si

dicono

incompatibili

se

1

2

= ∆ .

Una

sequenza

esperimento

1

,

2

,

con

,

n é

spazio

detta

degli

esaustiva

se

n

i=1

eventi

associato

i =

.

.

Ad

Consideriamo

ogni

evento

E

un

assegniamo un numero reale p(E) detta probabilità di E, la quale soddisfa i seguenti

assiomi (Kolmogorov):

Assioma 1

E

0

p(E)

1

Assioma 2

p(

) = 1

Assioma 3 Se gli eventi E 1 ,E 2 ,

,

E n sono eventi incompatibili a due a due, allora

p

n n

i = 1

E

i

=

i = 1

p(E

i )

1.5 Variabili stocastiche

Quando abbiamo definito lo spazio degli eventi non abbiamo specificato che cosa o

come sono gli elementi ad esso appartenenti. Gli elementi dello spazio ovviamente

dipenderanno dall’esperimento. Per esempio al lancio di una moneta é associato uno

spazio degli eventi composto da “testa” e “croce”, ma possiamo sempre costruire una

funzione che associ a questi eventi dei numeri reali. Questa funzione si dice mappa.

Definizione 1.5.1 Una variabile stocastica , X é una mappa X :

ogni elemento E

corrisponde un unico numero reale X(E).

¬ tale che ad

Sia

¬. In questo caso si ha la mappa identità, ed é quindi naturale pensare che la

variabile

stocastica

non

é

la

mappa

ma

bensì

gli

stessi

risultati

numerici

dell’esperimento. Ci rimane da definire la probabilità per le variabili stocastiche.

Definizione 1.5.2

¬ definiamo p(X

) = p(

()) dove

() = {E;E

e X(E)

}

Ovviamente se

¬ questa definizione é tautologica. Da adesso se non specificato

altrimenti sarà sempre che

¬ . Le variabili stocastiche possono essere discrete o

continue. Se non specificato per variabile stocastica intendiamo variabile stocastica

discreta.

1.6 Operatore di aspettazione

Definizione 1.6.1 Sia X una variabile stocastica con p i = p(X=x i ). Per ogni funzione

g(X) di X definiamo l’operatore di aspettazione da:

E[g X

(

)

]

i

g x

(

i

)

p

i

L’operatore E è un operatore lineare.

Definizione 1.6.2 Definiamo n-esimo momento sull’origine la quantità:

(n=1,2,3,

)

n

[

'= E X

n

]

Il momento sull’origine di ordine 1 é anche definito come media

i

x p

i

i

.

Definizione 1.6.3 Definiamo n-esimo momento sulla media la quantità:

(n=2,3,4,

)

Il

2

momento

i

p

i

(

x

i

standard.

sulla

)

2

media

di

[

(

= E

X

n

ordine

2

)

é

n

]

anche

definito

come

varianza

. Mentre la radice quadrata della varianza si dice deviazione

1.7 Funzioni di distribuzione

Definizione 1.7.1 Data una variabile stocastica X, la funzione di distribuzione di X,

F(X) é definita da:

F(x) = p(X

x)

Tutte le funzioni di distribuzione hanno le seguenti proprietà:

1 ) 0

F(x)

 

1

x

 

2) lim

x

-

(

F x

)

=

0

 

,

lim

x

(

F x

)

=

1

3 )

h

0,

 

x

 

F(x)

4)

x

lim

h

0

+

F(x + h) =

+

h

)

(

F x

(

F x

)

1.8 Processi stocastici stazionari

Definizione 1.8.1 Un processo stocastico , {X t }, é un insieme di variabili stocastiche

indicizzate dal simbolo t, dove t

numeri relativi.

T

Z

dove con Z intendiamo l’insieme dei

Ad ogni t il processo stocastico definisce una variabile stocastica.

Definizione 1.8.2 Un processo stocastico {X t }, si dice stazionario di ordine 1 se

= E[X

t

] é una costante indipendente da t.

Definizione 1.8.3 Un processo stocastico {X t }, si dice stazionario di ordine 2 se:

1 ) E X

3 ) E X X

2 ) E

[(

[

t

]

=

t +

]

[

X

t

t

é una costante indipendente da t

)(

X

t

)]

=

2

é una costante indipendente da t

= funzione solo di

1.9 La funzione di autocovarianza e di autocorrelazione

Definizione

1.9.1

Sia

{X t }

un

processo

stazionario

di

ordine

2.

autocovarianza C( ) la funzione definita da:

C

(

)

E

[(

X

t

)(

X

t +

)]

Si

dice

si definisce inoltre la funzione di autocorrelazione ( ) come:

(

)

C

(

)

C

(

0

)

Da adesso in poi se non specificato altrimenti consideriamo solo processi stocastici

reali.

Teorema 1.9.1 Sia {X t } un processo stazionario di ordine 2. La funzione di

autocovarianza possiede le seguenti proprietà:

1

2 )

3) C

) C

(

0

(

C

(

)

)

)

=

2

(

C 0

C

(

=

)

)

{

X t

}

¬

Dimostrazione Si può supporre che il processo stazionario abbia media nulla, ciò

non diminuisce il grado di generalità del teorema.

1) Segue direttamente dalla def. 1.8.3 c.v.d.

2) Dati

**

E

[

(

1

X

t

1

+

,

2

2

X

t

+

¬

)

costruiamo la combinazione lineare

2 ]

=

E

[

2

2

1

X

t

+

2

2

X

2

t

+

+ 2

1

2

X X

t

t

+

]

=

1

X

t

+

2 C(

1

0

)

2

X

+

t

+

2

2

allora:

C(

0

)

+ 2

1

2

C(

)

dove abbiamo utilizzato la linearità dell’operatore di aspettazione e che il processo

stazionario fosse di ordine 2. Ora la quantità ** é una quantità maggiore o uguale a

zero. Se vediamo l’ultimo termine come un’equazione di secondo grado, una volta in

1 e un’altra in 2 troviamo che la condizione per la quale la ** deve essere positiva é

[C(0)]

3)

C

2

(

[C(

)

=

)]

2

c.v.d.

[

E X X

t

t

]

pongo t- =s

[

E X

s

+

X

s

]

=

C(

)

c.v.d.

Teorema 1.9.2 L’autocovarianza é un prodotto scalare

Dimostrazione Vediamo se l’autocovarianza soddisfa la def. 1.2.4. Supponiamo che

la media del processo stocastico sia nulla. Si ha:

1 ) E X X [ ] = E X X [ ] t s
1 )
E X X
[
]
=
E X X
[
]
t
s
s
t
2 ) E
[(
+
X
) X
] =
E X X
[
]
X t
r
s
t
s
3 )
E
[
aX X
]
=
aE X X
[
]
t
s
t
s
4) E
[
X aX
]
=
aE X X
[
]
t
s
t
s
5) E X
[
X
]
=
2 ≥ 0
t
t

c.v.d.

[

+ E X

a

a

r

C

C

X

s

]

Il fatto che l’autocovarianza sia un prodotto scalare ci permette di dire che il modulo

della deviazione standard

é la norma di {X t }. Ed inoltre ci permette di introdurre il

concetto di ortogonalità (def.1.2.6).

Definizione 1.9.2 Si dice processo puramente stocastico di ordine 2, un processo

stocastico {X t } che soddisfi le seguenti condizioni:

[

1 ) E X

t ]

2) E

[

(

X

(

3) C

)

= t 2 ) ] 2 = t 2 = 0 = 0 π 0
=
t
2
)
]
2
=
t
2
= 0
=
0
π
0

= costante

t

2

=

costante

Un

processo

puramente

stocastico

é

comunemente

conosciuto

come

rumore

bianco”. Dal punto di vista dell’autocorrelazione si dice anche “non correlato”. Dal

punto di

vista dell’autocovarianza

come

prodotto

scalare si

dice

che

{X s }

é

“ortogonale” a {X t } per s π t (qui s e t vanno intese come diverse sequenze ordinate

di indici).

Definizione 1.9.3 La matrice simmetrica N x N

T

C

(

0

)

C

(

1

)

 

(

C n

 

1

)

C

(

1

)

 

C

(

0

)

C

(

1

)

C

(

2

)

C

(

1

)

C

(

0

)

(

C n

 

1

)

 

 

C

(

0

)

 
   

si dice matrice di autocovarianza.

Teorema 1.9.3 La matrice di autocovarianza T ha le seguenti proprietà:

)

1)

1

¬

Siano

N

i

T

T

0

semi - definita positiva

¬

,

i

gli autovalori di T. Allora

i

0

i = 1,

,N

Dimostrazione 1) Sia {a i } una N-pla di numeri reali. Definiamo la variabile

stocastica

=

i

a X

i

i

allora abbiamo

0

E

[

2

]

=

E

i

s

a a X X

i

s

i

s

=

i

s

(

a a C i

i

s

s

)

c.v.d.

2) Gli autovalori di T sono reali perché una matrice simmetrica é hermitiana (vedi

Thm 1.3.1).

Ora essendo la matrice di autocovarianza semi-definita positiva si ha:

T

=

T

T

=

T

ora essendo

T

0

0

c.v.d.

1.10 Stime della funzione di autocovarianza

Sia {X t } un processo stazionario di ordine 2, e siano dati i valori di X t per t=1,2,

,N.

Definizione 1.10.1 Si dice stima imparziale della media la quantità:

Infatti abbiamo:

1 N  X ∫ X t N t = 1 1 N 1 E[X]
1
N
 X ∫
X t
N
t = 1
1
N
1
E[X]

=
E X
[
]
=
N
N
t
N
t = 1

=

Ora dobbiamo verificare per la consistenza che la varianza di questa stima sia finita.

E

1

N

N 1

s =

1

X

s

N

t

N 2

=

1

X

t

=

N

2

N

s =

1

N t = 1
N
t
=
1

(

t

s

)

=

2 N

N

r

=

1

N

+ 1

r 1 N
r
1
N

(

r )

dove abbiamo posto r=t-s e poi invece di sommare una volta per t e poi per s,

sommiamo per le diagonali del reticolo formato dal quadrato t per s. Ora se il limite:

lim

N

r

N

=

1

N

+ 1

1
1
r
r

N

(

r

)

é finito allora la varianza della stima della media tende a zero come N tende ad

infinito.

Definizione 1.10.2 Si dice stima imparziale dell’autocovarianza la funzione:

1 N ~ C ( )  ∫ (  X )( ) X X
1
N
~
C
(
)

(
 X
)(
)
X
X
X
= 0,
±
1,
±
2,
,
±
(
N -1
)
t
t +
N
t = 1
Per vedere le proprietà di questa funzione facciamo prima questa osservazione:
N
N
[
(
)(
)
]
[
{(
 X
)
(
 X
)}
{
(
 X
)
 X
} ]
X
X
=
X
+
X
+
(
)
t
t +
t
t +
t = 1
N
t
=
1
[
(
 X
)(
 X
)
]
2
 X
X
X
+
(
N
)(
)
dove abbiamo assunto che
(
X
t
t
+
t = 1
t
allora possiamo scrivere:
1
N
~
[
)(
)
]
2

C
(
)
(
X
X
(
X
)
t
t +
N
t = 1
dunque:
N
~
1
1
N
[
(
)
]
[
)(
)
]
2
E C
E
(
X
X
E
[
(
 X
)
]
=
C
(
)
E
[
(
t
t +
N
N
t
= 1
t = 1
2 costan te
C
(
)
2
N

t

 X



X

)

= 0

)

2

]

~

(

Allora la differenza fra C

)

e

(

C

)

é di ordine 1/N e come prima approssimazione

possiamo trascurare questo termine di ordine 1/N.

Esiste un’altra stima in letteratura data da:

(1.10.1)

1 N (  X )( X t N t = 1
1
N
(
 X
)(
X
t
N
t = 1

(

C

 



)

)

X

X

 

t +

Questa stima della autocovarianza, nonostante sia usata nella maggior parte delle

librerie di statistica per computer, ha la proprietà che al tendere di verso il modulo

di N-1 la stima data dalla 1.10.1 diverge in modo notevole dalla covarianza; infatti

trascurando il termine di ordine 1/N si ha:

(

[

E C

)

]

1 N N t = 1
1
N
N
t = 1

C

(

)

=

1

N
N

C

(

)

comunque se <<N allora le due stime sono praticamente coincidenti. Si può inoltre

dimostrare che la varianza della stima data dalla def. 1.10.2 é di ordine 1/(N- ) e che

la varianza della stima data dalla formula 1.10.1 é di ordine 1/N. 10

Inoltre si dimostra anche che la matrice di autocovarianza formata con la stima data

dalla 1.10.1 é semi-definita positiva, mentre la matrice di autocovarianza formata con

la stima data dalla def. 1.10.2 non é necessariamente semi-definita positiva.

1.11 La funzione di covarianza

10 vedi pag.325-328 di “Spectral analysis and time series” M.B. Priestley - Academic Press 1981

Definizione 1.11.1 Siano

X

1,t

,

X

2,t

,

,

X

M,t

processi stocastici. Essi sono detti

reciprocamente stazionari di ordine 2 se:

X

2 ) E X

1

)

s t

,

[

è un processo stocastico stazionario di ordine 2

s

,

t

X

k

,

t +

]

è una funzione che dipende solo da

s

=

1 2

,

,

,

M

Definizione 1.11.2 Siano X

1,t

,

X

di ordine 2. Si dice covarianza C

2,t

s,k

,

(

)

,

X

M,t

dei processi reciprocamente stazionari

la funzione definita da:

 

(

)

 

(X

 

)(X

 

)

C

s,k

E

s,t

s

k ,t

+

k

È evidente che la covarianza si riduce all’autocovarianza del processo s-esimo se

s=k. Inoltre se i processi sono reali si ha C

simile al thm 1.9.1.

s,k

(

)

=

C

k,s

(

Definizione 1.11.3