Sei sulla pagina 1di 50

CAPITOLO 3

I Processi Stocastici

3.1. Definizione di Processi Stocastici

Una distinzione importante tra i segnali è quella che si fa tra segnali predicibili , di cui si può conoscere a priori l’evoluzione nel tempo (come ad esempio un’onda quadra) e segnali non predicibili , di cui si possono al più supporre alcune caratter- istiche principali (ad esempio le escursioni massime, la velocità di variazione e così via). Si supponga di registrare l’evoluzione della pressione atmosferica in un certo lu- ogo della Terra durante l’anno. Questa grandezza fisica non è predicibile a priori, e l’unico modo per conoscerla è quello di osservarla a posteriori. Dopo l’acquisizione si potranno fare alcune osservazioni, come ad esempio il fatto che essa difficilmente supera i 1030 mB e altrettanto difficilmente va al di sotto di 950 mB . Una cosa impor- tante a proposito di questo segnale è che non solo non si può prevedere, ma che esso cambia a seconda del periodo in cui è stato registrato (cioè la sua osservazione nel mese di marzo è sicuramente diversa da quella nel mese di agosto) ed inoltre cambia a seconda del luogo della Terra in cui viene registrato, anche se la registrazione è fatta nello stesso periodo (vedi in figura 3.1.1 tre differenti misurazioni).

250 200 150 100 50 0 − 50 0 10 20 30 40 50 60
250
200
150
100
50
0
50
0
10
20
30
40
50
60
70
80
90
100

F IGURA 3.1.1. Rappresentazione delle pressioni atmosferiche in vari luoghi della Terra.

La variabilità del processo è quindi di due tipi: una variabilità tra i vari segnali ed una variabilità dell’evoluzione temporale del singolo segnale. Il modellamento di un segnale aleatorio viene fatto attraverso la teoria dei processi stocastici.

67

3.1. DEFINIZIONE DI PROCESSI STOCASTICI

68

Come nella teoria delle probabilità, dovremmo, per un segnale aleatorio, individ- uare lo spazio delle probabilità, cioè l’insieme di tutti i possibili segnali che costitu- iscono il processo (ammesso che questo si possa fare): = { ! i }. Quindi riferendosi

al processo si può pensare una corrispondenza che associ ad ogni campione ! i di

un dato segnale. Questa corrispondenza costituisce il processo aleatorio. Una data

misurazione della pressione atmosferica in un punto della Terra costituisce un risultato dello spazio campione e viene chiamato realizzazione del processo x i (t) = X (t, ! i ). Il processo stocastico è comunemente indicato con X (t), omettendo la relazione

di dipendenza dallo spazio campione con cui è associato .

Una volta fissato quale tra i vari segnali del processo va estratto, si ha una funzione del tempo che rappresenta la realizzazione. Una realizzazione del processo stocastico non è più aleatoria, a posteriori, nel senso che dopo l’osservazione essa è una funzione deterministica del tempo. Viceversa, si può fissare un arbitrario istante di tempo ed osservare il valore che tutte le realizzazioni del processo assumono a quell’istante:

X (t o ) (vedi in figura 3.1.2)

400 350 300 250 200 150 100 50 0 − 50 0 10 20 30
400
350
300
250
200
150
100
50
0
50
0
10
20
30
40
50
60
70
80
90
100
t
o

F IGURA 3.1.2. Estrazione di una variabile aleatoria dal processo stocastico.

I valori che sono assunti sulle varie realizzazioni del processo non sono predicibili a priori e quindi rappresentano i risultati di una variabile aleatoria.

3.1.1. Processi parametrici. Un primo esempio di processi stocastici è dato dai processi parametrici, cioè processi in cui per le funzioni del tempo esiste una forma chiusa che permetta di rappresentarle, sebbene uno o più parametri di queste funzioni siano variabili aleatorie. Si supponga di considerare il seguente processo:

(3.1.1)

X (t; ! ) = e A( ! ) t u (t)

3.1. DEFINIZIONE DI PROCESSI STOCASTICI

69

dove A(! ) rappresenta una variabile aleatoria con distribuzione uniforme nell’inter- vallo [0, 1/T ] . Se omettiamo la dipendenza dal risultato ! , si può scrivere: X (t) = e At u (t). In questo processo parametrico è quindi definita una classe di funzioni il cui andamento dipende dal valore estratto di una v.a. Un altro esempio notevole (che avremo modo di riprendere più avanti) è quello dell’oscillazione sinusoidale prodotta da un oscillatore reale. In un oscillatore reale, mentre si possono controllare abbastanza bene l’ampiezza e la frequenza dell’oscil- lazione, è molte volte difficile determinare la fase iniziale. Ne consegue che accen- dendo in tempi differenti l’oscillatore la funzione sinusoidale che viene generata può essere modellata come un processo stocastico parametrico:

(3.1.2)

X (t) = A · sin(2f o t + )

dove è una variabile aleatoria uniforme nell’intervallo [0, 2[ .

3.1.2. Caratterizzazione di un processo stocastico. Al contrario di quanto si può

fare per un segnale deterministico, per un processo stocastico non è possibile una sua caratterizzazione in termini di andamento temporale. Si devono quindi introdurre gli strumenti della teoria delle probabilità per poter caratterizzare il processo in modo statistico. Si cominci ad osservare che, se si considera un istante di tempo ben determinato t o , il valore che tutte le realizzazioni assumono in quell’istante rappresenta una v.a.

Quindi è possibile, per quella v.a. definire una funzione di distribuzione di probabilità (dipendente da t o ):

(3.1.3)

F (x ; t o ) = P (X (t o ) x )

La funzione di distribuzione cambierà al variare di t o , dato che al variare dell’istante

di osservazione la v.a. è differente. Questo modellamento non è tuttavia sufficiente a

caratterizzare il processo. Se così fosse dovremmo essere in grado di prevedere l’an-

damento della singola realizzazione a partire da tutte le funzioni di distribuzione di probabilità estratte ad ogni istante, e così non è. Si pensi ad esempio alla possibil- ità che abbiamo di prevedere l’andamento di un titolo in borsa nel tempo. Si vuole cioè cercare di determinare quando il valore del titolo supera il valore attuale. Per fare questo la caratterizzazione del primo ordine che abbiamo dato non è sufficiente.

E’ necessaria una caratterizzazione che permetta di correlare, congiuntamente, le due

variabili aleatorie nei due istanti differenti t o e t 1 nei quali conduciamo l’osservazione.

3.2. PARAMETRI STATISTICI DEL 1 o E 2 o ORDINE

70

E’ necessaria quindi una caratterizzazione del secondo ordine . Questa relazione è de- scritta dalla funzione di distribuzione di probabilità congiunta per una coppia di v.a.:

(3.1.4)

F (x 1 , x 2 ; t 1 , t 2 ) = P (X (t 1 ) x 1 ; X (t 2 ) t 2 )

La conoscenza completa della statistica del secondo ordine richiede che queste fun- zioni di distribuzione siano note per ogni coppia possibile di istanti di tempo. Iterando questo ragionamento, si capisce che la caratterizzazione di un processo stocastico si può considerare completa solo quando, fissati n istanti di tempo (con n

arbitrariamente grande), si è in grado di determinare la funzione di distribuzione con- giunta di ordine n per le n variabili aleatorie che si hanno estraendo i valori dalle

realizzazioni agli istanti t 1 , t 2 ,

, t n :

(3.1.5)

F (x 1 , x 2 ,

,

x n ; t 1 , t 2 ,

,

t n ) = P (X (t 1 ) x 1 , X (t 2 ) x 2 ,

, X (t n ) x n )

Da questa si può ricavare la funzione densità di probabilità di ordine n :

(3.1.6)

f (x 1 , x 2 ,

, x n ; t 1 , t 2 ,

,

t n ) = @ n F (x 1 , x 2 , @ x 1 @ x 2

,

x n ; t 1 , t 2 ,

,

t

n )

@ x n

, ore n e qualunque n pla di istanti di tempo caratterizza completamente il processo aleatorio. Si capisce bene che la conoscenza completa di un processo aleatorio è impresa quali sempre impossibile. Nella maggior parte dei casi si cerca di determinare la dis- tribuzione (e densità) del primo o al più secondo ordine. Altre volte ci si accontenta di determinare alcuni parametri statistici.

t n ) per qualunque val-

La conoscenza della classe di funzioni f (x 1 , x 2 ,

, x n ; t 1 , t 2 ,

3.2. Parametri Statistici del 1 o e 2 o Ordine

3.2.1. Valor medio, potenza e varianza. Alcuni parametri statistici permettono di determinare le caratteristiche principali di un processo statistico, pur senza la conoscen- za completa di esso. Tra questi parametri particolarmente significativa è la funzione valor medio: µ X (t). Per definizione questa funzione è il valor medio della v.a. che si ottiene estraendo i

3.2. PARAMETRI STATISTICI DEL 1 o E 2 o ORDINE

valori delle realizzazioni all’istante assegnato:

(3.2.1)

+ 1

µ (t) = E [ X (t)] = Z

1

xf X (x, t)dx

71

al variare di t si generano una serie di valori medi che costituiscono la funzione. La funzione valor medio rappresenta una statistica del primo ordine, dato che per il suo calcolo è sufficiente la conoscenza della statistica di primo ordine del processo. La funzione valor medio rappresenta una specie di compendio di tutte le realizzazioni del processo stocastico, ma non rappresenta necessariamente essa stessa una realizzazione del processo.

E XAMPLE 3.2.1. Si supponga di considerare il processo aleatorio parametrico X (t) = a cos(2f o t + ), dove è una v.a. con densità di probabilità uniforme nell’intervallo [0, [ . La funzione valor medio si può determinare osservando che, per ogni istante t fissato, il processo X (t) si può pensare come la trasformazione della v.a. in un’altra v.a. X = X (). Il suo valor medio quindi si può determinare con il teorema del valor medio: µ (t) = E [ X (t)] = E [ a cos(2f o t + )] :

(3.2.2)

µ (t) = Z

+

1

1

a cos(2f o t + )f ()d=

a

Z

0

cos(2f o t + )d= 2a sin(2f o t)

Analogamente si potrebbe ricavare la funzione valor medio nel caso visto nella eq. 3.1.2, in cui cioè: X (t) = a sin(2f o t + ), con = U (0, 2).

Un’altra grandezza statistica del primo ordine utile per caratterizzare il processo, è la potenza media statistica istantanea (brevemente detta potenza media):

(3.2.3)

+ 1

P x (t) = E [X 2 (t)] = Z

1

x 2 · f X (x, t)dx

analoga alla potenza istantanea per i segnali deterministici. Si può inoltre definire la funzione varianza del processo:

(3.2.4)

+ 1

x (t) = E [(X (t) µ (t)) 2 ] = Z

2

1

(x µ (t)) 2 · f X (x, t)dx

3.2. PARAMETRI STATISTICI DEL 1 o E 2 o ORDINE

Si ricava, abbastanza facilmente:

(3.2.5)

x (t) = P x (t) µ 2 (t)

2

72

la relazione che esprime la dipendenza tra varianza, funzione valor medio e potenza istantanea.

3.2.2. Autocorrelazione e autocovarianza. Due parametri statistici del secondo ordine, fondamentali per lo studio dei processi stocastici, sono la funzione di autocor- relazione e la funzione di autocovarianza. Il loro significato è rimandato più avanti, quando si introdurranno i processi stazionari. Si supponga di considerare due istanti di tempo arbitrari, t 1 e t 2 . Dato il processo stocastico, è possibile estrarre le due v.a. Y = X (t 1 ) e Z = X (t 2 ). Ha senso allora ef- fettuare il calcolo della correlazione tra Y e Z . Generalmente questa correlazione sarà funzione dei due istanti di tempo, e quindi si può ritenere una funzione di due variabili:

(3.2.6)

R x (t 1 , t 2 ) = E [ X (t 1 )X (t 2 )] = Z

x

1

= 1 Z

+

1

+

1

x 2 = 1

x 1 x 2 f x (x 1 , x 2 ; t 1 , t 2 )dx 1 dx 2

La funzione che così si ottiene è detta funzione di autocorrelazione, poichè le due variabili aleatorie sono state ottenute estraendole dallo stesso processo. In modo del tutto analogo è possibile determinare la funzione di autocovarianza:

C x (t 1 , t 2 ) = E [(X (t 1 ) µ (t 1 )) · (X (t 2 ) µ (t 2 ))] =

(3.2.7)

= Z

x = 1 Z

1

+

1

+

1

x 2 = 1

(x 1 µ (t 1 )) · (x 2 µ (t 2 )) · f x (x 1 , x 2 ; t 1 , t 2 )dx 1 dx 2

Dalla definizione è facile ricavare che: C x (t 1 , t 2 ) = R x (t 1 , t 2 ) µ (t 1 )µ (t 2 ).

E XAMPLE 3.2.2. Si calcoli la funzione di autocorrelazione del processo X (t) = a · cos(2f o t + ) , con = U [0, [ . Estraendo il processo negli istanti t 1 e t 2 si ottengono le v.a.: X (t 1 ) = a · cos(2f o t 1 + ) e X (t 2 ) = a · cos(2f o t 2 + ) , che si

3.2. PARAMETRI STATISTICI DEL 1 o E 2 o ORDINE

73

possono ritenere entrambe trasformazioni della stessa v.a Quindi, mediante il teore- ma del valor medio si ottiene:

R x (t 1 , t 2 ) = E [X (t 1 )X (t 2 )] = E [ a · cos(2f o t 1 + ) · a · cos(2f o t 2 + )] =

2

(3.2.8) = a 2 · Z cos(2f o t 1 + ) cos(2f o t 2 + )d= a 2 cos(2f o (t 1 t 2 ))

0

1

In questo esempio la funzione di autocorrelazione è sinusoidale, come i segnali che costituiscono le singole realizzazioni del processo, inoltre dipende dalle due vari- abili attraverso la loro differenza. La funzione di autocorrelazione è quindi, in realtà, funzione di una sola variabile. Si supponga ora di avere lo stesso processo precedente: X (t) = a · cos(2f o t + ) , ma con = U [0, 2[ . Si voglia calcolare la funzione valor medio, la funzione di autocorrelazione e la funzione di autocovarianza. Si osservi che, se per la funzione valor medio si ha:

(3.2.9)

µ (t) = E [X (t)] = Z 2 2 · a · cos(2f o t + )d

0

1

= 0

allora: C x (t 1 , t 2 ) = R x (t 1 , t 2 ). Entrambe valgono:

R x (t 1 , t 2 ) = E [X (t 1 )X (t 2 )] =

(3.2.10) = Z 2 2 · a · cos(2f o t 1 + ) · a · cos(2f o t 2 + )d= a 2 cos(2f o (t 1 t 2 ))

0

1

2

pari al risultato ottenuto precedentemente (vedi 3.2.8). Vediamo infine il caso in cui nel processo X (t) = A · cos(2f o t) a variare sia l’ampiezza dell’oscillazione sinusoidale. Tale ampiezza vari come una v.a. uniforme nell’intervallo [0, 1]. La funzione valor medio si ottiene fissando un dato istante di tempo t:

1

(3.2.11) µ (t) = E [X (t)] = E [ A · cos(2f o t)] = E [A ] · cos(2f o t) = 2 · cos(2f o t)

3.2. PARAMETRI STATISTICI DEL 1 o E 2 o ORDINE

La funzione di autocorrelazione vale:

74

R x (t 1 , t 2 ) = E [ A · cos(2f o t 1 ) · A · cos(2f o t 2 )] = cos(2 f o t 1 ) · cos(2f o t 2 ) · E [ A 2 ] =

(3.2.12)

1

= 3 cos(2f o t 1 ) · cos(2f o t 2 )

e in questo caso non si può esprimere come funzione di una sola variabile. La funzione di autocovarianza vale infine:

1

1

1

C x (t 1 , t 2 ) = 3 cos(2f o t 1 ) · cos(2f o t 2 ) 2 · cos(2f o t 1 ) · 2 · cos(2f o t 2 ) =

(3.2.13)

1

= 12 cos(2f o t 1 ) · cos(2f o t 2 )

Un altro esempio notevole è il seguente:

E XAMPLE 3.2.3. Processo di Bernoulli e processi derivati. Si consideri il seguente processo tempo discreto: I n = { 0, 1} che può assumere valori solo in istanti discreti indicati con indici interi n 2 N . I valori assunti dalle singole realizzazioni possono essere soltanto 0 o 1. In particolare il valore 0 è assunto con probabilità p , il valore 1 con probabilità 1 p :

(3.2.14)

I n = 0

1

p

1 p

Le singole realizzazioni, come pure le estrazioni in una singola realizzazione sono indipendenti tra loro (vedi figura 3.2.1). La funzione valor medio vale:

(3.2.15)

m I (n ) = p · 0 + (1 p ) · 1=1 p

3.2. PARAMETRI STATISTICI DEL 1 o E 2 o ORDINE

75

       

1

1

0

1

0

1

1

i i+1

i+2

i+3

     

0

1

1

1

0

0

1

i i+1

i+2

i+3

F IGURA 3.2.1. Rappresentazione grafica del processo di Bernoulli.

ed è indipendente dal tempo (cioè l’indice n ). La varianza vale:

(3.2.16)

I 2 = E [I n ] E 2 [ I n ] = p · 0 2 + (1 p ) · 1 2 (1 p ) 2 = p (1 p )

2

Infine la funzione di autocorrelazione vale:

(3.2.17)

R I (n, m) = E [I n I m ] = E [ I n ] E [ I m ]

essendo le estrazioni indipendenti. Quindi si ha: R I (n, m) = (1 p ) 2 . Un processo derivato da quello di Bernoulli è il seguente:

(3.2.18)

D n = 2I n 1 = 1

1

p

1 p

Il suo valor medio vale:

(3.2.19)

m D (n ) = E [2I n 1] = 2(1 p ) 1=1 2p

la sua varianza vale

(3.2.20)

D = E [ D n ] E 2 [D n ] =

2

2

E 4I n 4I n + 1 (1 2p ) 2 = 4p (1 p )

2

Infine la funzione di autocorrelazione vale:

3.2. PARAMETRI STATISTICI DEL 1 o E 2 o ORDINE

(3.2.21)

R D (n, m) = E [ D n D m ] = E [4I n I m 2I n 2I m + 1] =

= 4(1 p ) 2 4(1 p ) + 1 = (1 2p ) 2

76

che è lo stesso risultato che avremmo ottenuto semplicemente osservando che: E [ D n D m ] =

E [ D n ] E [ D m ].

L’ultima applicazione del processo di Bernoulli è la passeggiata a caso unidimen- sionale, cioè il processo:

(3.2.22)

Il suo valor medio vale:

S n = D 1 + D 2 +

+ D n

(3.2.23) E [S n ] = E [ D 1 + D 2 +

+ D n ] = E [ D 1 ]+ E [ D 2 ]+

+ E [ D n ] = n (1 2p )

e questa volta è una quantità dipendente da n . Inoltre, essendo i processi indipendenti tra loro la varianza è somma delle varianze

(3.2.24)

2

S n =

n

X

k =1

2

D = 4np (1 p )

La sua funzione di autocorrelazione vale:

(3.2.25)

R S (n.m ) = E [S n S m ] = E "

n

X

k

=1

D k ·

m

X

l

=1

D l # =

n

m

X X

k =1 l =1

E [ D k · D l ] = n ·m ·(1 2p ) 2

Il range di valori che può assumere questo processo è variabile con n . Per un certo

fissato, S n può assumere tutti i valori compresi tra [ n, n]. La probabilità che tra i

n

D 1 , D 2 ,

che S n valga: k (n k )=2k n ) è:

, D n vi siano k valori pari ad 1 ed n k valori pari a 1 (quindi la probabilità

(3.2.26)

P (S n = 2k n )=( n )(1 p ) k p n k

k

Una variazione sul tema dei processi stocastici di Bernoulli è il segnale telegrafico casuale. Il processo consiste di realizzazioni che possono assumere solo valori discreti

3.2. PARAMETRI STATISTICI DEL 1 o E 2 o ORDINE

77

pari a 1 od a 1. Le funzioni sono continue nel tempo:

(3.2.27)

X (t) = 1

1

Per ipotesi si suppone inoltre che

(3.2.28)

P (X (0) = 1) = P (X (0) = 1) = 1 /2

Le realizzazioni del processo assumono valori differenti cambiando di “stato” nello stesso modo con cui arrivano gli eventi negli esperimenti aleatori alla Poisson. Una possibile realizzazione è riportata in figura (3.2.2).

Una possibile realizzazione è riportata in figura (3.2.2). F IGURA 3.2.2. Realizzazione di un processo telegrafico

F IGURA 3.2.2. Realizzazione di un processo telegrafico casuale

Sia l’intensità della legge di Poisson che governa il processo. Ogni singola real-

izzazione, x (t), permane ad un dato valore sino a che non c’è un arrivo che gli fa cambiare stato. Il numero di arrivi nell’unità di tempo è regolato da una v.a. discreta

di Poisson con intensità . Calcoliamo la probabilità che ad un dato istante t la singola

realizzazione abbia uno dei due valori:

P (X (t) = 1) = P (X (t)=1/X (0) = 1) · P (X (0) = 1)

(3.2.29)

+P (X (t)=1/X (0) = 1) · P (X (0) = 1)

la prima delle due somme a secondo membro ha il termine P (X (t)=1/X (0) = 1)

che si può verficare solo se il numero di cambiamenti (eventi di Poisson) verificatosi è

pari, per il secondo termine il numero di cambiamenti da verificarsi è dispari:

3.2. PARAMETRI STATISTICI DEL 1 o E 2 o ORDINE

78

(3.2.30) P(N camb = pari ) =

(3.2.31)

P (N camb = dispari ) =

1

X

j =0

Da cui si ha in conclusione:

1

X

j =0

(t) 2 j

)! e t = e t ·

(2j

(t) 2 j +1

(2j + 1)! e t = e t ·

1

2 (e t + e t ) = 2 (1 + e 2 t )

1

1

2 (e t e t ) = 2 (1 e 2 t )

1

(3.2.32)

P (X (t) = 1) =

1

2 [

1

2 (1 + e 2 t ) + 2 (1 e 2 t )] = 1

2

1

ed analogamente: P (X (t) = 1) = 1

2 . Calcoliamo la funzione valor medio e la funzione varianza del processo:

(3.2.33)

(3.2.34)

1

1

m X (t) = E [X (t)] = 2 · ( 1) + 2 · (+1) = 0

1

1

X (t) = P x (t) = E [ X (t) 2 ] = 2 · ( 1) 2 + 2 · (+1) 2 = 1

2

Calcoliamo infine la funzione di autocorrelazione e la funzione di autocovarianza:

R x (t 1 , t 2 )

= C x (t 1 , t 2 ).

(3.2.35)

R x (t 1 , t 2 ) = E [ X (t 1 )X (t 2 )]

tuttavia il prodotto di X (t 1 )X (t 2 ) può essere solo o 1 oppure +1. In particolare è pari a 1 quando il numero di cambiamenti (eventi di Poisson) avvenuti tra t 1 e t 2 è dispari, altrimenti il prodotto X (t 1 )X (t 2 ) è pari a +1. Quindi:

P (X (t 1 )X (t 2 ) = 1) = P (N camb = pari ) = P (N (t 2 t 1 ) = pari ) =

3.3. PROCESSI STAZIONARI

(3.2.36)

=

1 (1 + e 2 ( t 2 t 1 ) )
2

Analogamente per un numero dispari di arrivi:

79

P (X (t 1 )X (t 2 ) = 1) = P (N camb = dispari ) = P (N (t 2 t 1 ) = dispari ) =

(3.2.37)

Si ha in conclusione:

=

1 (1 e 2 ( t 2 t 1 ) )
2

1

E [X (t 1 )X (t 2 )] = (+1) · 2 (1 + e 2 ( t 2 t 1 ) )+( 1) ·

1 (1 e 2 ( t 2 t 1 ) ) =
2

= e 2 | t 2 t 1 |

(3.2.38)

ed, ancora una volta, abbiamo trovato un processo la cui funzione di autocorrelazione (e di autocovarianza) dipende solo dalla differenza dei due istanti generici, e non separatamente dai due.

3.3. Processi Stazionari

Una notevole proprietà dei processi stocastici è la stazionarietà. Si è visto che

i parametri statistici del primo e secondo ordine dipendono dalla scelta degli istanti

di tempo. Anche la funzione densità di probabilità congiunta di ordine n dipende

generalmente dalla scelta degli istanti di tempo in corrispondenza dei quali si valuta il processo.

, t n , in corrispondenza

dei quali si ottiene la funzione di densità di probabilità congiunta:

, Se si spostano rigidamente tutti gli istanti di tempo di una stessa quantità t, gen- eralmente otterremo una differente funzione di densità di probabilità congiunta:

f x (x 1 , x 2 ,

Si supponga ora di considerare n istanti di tempo t 1 , t 2 ,

x n ; t 1 , t 2 ,

, t n ).

(3.3.1)

f x (x 1 , x 2 ,

,

x n ; t 1 + t, t 2 + t,

, t n + t)

.

3.3. PROCESSI STAZIONARI

80

P ROPOSITION 3.3.1. Un processo si dice stazionario in senso stretto, se risulta

che, per ogni scelta di n , t 1 , t 2 ,

 

,

t n e di t:

(3.3.2) f x (x 1 , x 2 ,

,

x n ; t 1 , t 2 ,

,

t n ) = f x (x 1 , x 2 ,

,

x n ; t 1 + t, t 2 + t,

,

t n + t)

La stazionarietà forte (in senso stretto) richiede l’uguaglianza della funzione di densità di probabilità congiunta per qualunque ordine, scelta degli istanti di tempo e di traslazione. Cioè richiede che rispetto a tutte queste variabili la funzione f x sia invariante. I processi X (t) e X (t + t) devono quindi avere le stesse statistiche. Questo non significa che le due variabili aleatorie che estrarremo nei due istanti di tempo sono identiche (poichè questo non può mai accadere per il significato stesso di grandezza statistica) ma significa che le due quantità non possono essere distinte tra loro con misure statistiche. Conseguenza di questa definizione è che: f x (x ; t) = f x (x ; t + t) cioè la funzione densità di probabilità del primo ordine non è funzione del tempo e anche i parametri statistici del primo ordine (funzione valor medio, funzione potenza e funzione varian- za) non dipendono dalla variabile tempo (stazionarietà del primo ordine). Inoltre per quel che riguarda la stazionarietà del secondo ordine, si ha:

(3.3.3)

f x (x 1 , x 2 ; t 1 , t 2 ) = f x (x 1 , x 2 ; t 1 + t, t 2 + t)

e questo può accadere solo se la funzione di densità di probabilità dipende dalla

differenza tra gli istanti di tempo, e non separatamente dai due: f x (x 1 , x 2 ; t 1 , t 2 ) = f x (x 1 , x 2 ; t 1 t 2 ). Allora tutte le statistiche del secondo ordine (funzione di autocor-

relazione e funzione di autocovarianza) dipenderanno dalla differenza degli istanti di tempo e non separatamente dai due. Questo è il caso del processo visto in (3.1.2) o del segnale telegrafico casuale. Salendo di ordine (sebbene statistiche di ordine superiore non siano state introdotte) si ottiene che la funzione densità di probabilità congiunta di ordine n e tutte le statis- tiche di ordine correlato non dipenderanno dagli istanti di tempo separatamente, ma

, t n 1 t n , dato che solo queste differenze

restano invariate rispetto ad una traslazione rigida dei tempi.

C OROLLARY 3.3.2. Una stazionarietà di ordine n implica la stazionarietà di tutti

gli ordini più bassi (il contrario generalmente non è vero).

dalle n 1 differenze t 1 t 2 , t 2 t 3 ,

3.3. PROCESSI STAZIONARI

81

3.3.1. Stazionarietà in senso lato. La verifica della stazionarietà in senso stret- to, anche per ordini bassi, è in genere un compito arduo (salvo casi particolari). Di solito allora ci si accontenta di una definizione di stazionarietà meno restrittiva: la stazionarietà in senso lato (o debole).

P ROPOSITION 3.3.3. Un processo aleatorio è stazionario in senso lato se la sua

funzione valor medio è costante µ x (t) = µ x e la sua funzione di autocorrelazione dipende solo dalla differenza degli istanti di tempo R x (t 1 , t 2 ) = R x (t 1 t 2 ).

La definizione di stazionarietà in senso lato coinvolge solo due statistiche e quindi non richiede alcuna paricolare proprietà alla funzione densità di probabilità congiunta.

C OROLLARY 3.3.4. Un processo stazionario in senso stretto è stazionario anche

in senso lato. Non è vero il viceversa

Se il processo è stazionario in senso lato la funzione di autocovarianza vale:

(3.3.4)

2

C x (t 1 , t 2 ) = R x (t 1 t 2 ) µ x = C x (t 1 t 2 )

cioè anche la funzione di autocovarianza dipende dalla differenza degli istanti di tempo. Anche nel caso di stazionarietà in senso lato rimane comunque difficile ver- ificare la proprietà. Infatti la verifica di una proprietà statistica come la stazionarietà richiede che si riescano a manipolare (per effettuare misure statistiche) tutte le possi- bili realizzazioni del primo e secondo ordine del processo, o che si conosca in qualche modo una forma chiusa della funzione di densità di probabilità del processo stesso al variare di t (cosa normalmente non vera). La funzione di autocorrelazione, nell’ipotesi di stazionarietà in senso lato può es- sere riscritta mettendo in evidenza proprio la dipendenza dalla differenza degli istanti di tempo:

(3.3.5)

R x (t 1 , t 2 ) = R x (t, t ) = E [ X (t)X (t )]

visto più volte: X (t) = a · cos(2f o t + ),

con = U [0, [ . Si è ottenuto che µ (t) = 2 a sin(2f o t), quindi il processo non si

E XAMPLE 3.3.5.

Riprediamo l’esempio

può considerare stazionario in senso lato, dato che la funzione valor medio dipende dal tempo.

Il processo X (t) = a · cos(2f o t + ), con = U [0, 2[, ha invece: µ (t)=0

e R x (t 1 , t 2 ) = a 2 cos(2f o (t 1 t 2 )), e quindi si può ritenere un processo stazionario

2

3.3. PROCESSI STAZIONARI

82

in senso lato, dato che la funzione valor medio è costante e la funzione di autocorre-

lazione dipende solo dalla differenza dei tempi.

Un caso particolare del processo telegrafico casuale è il seguente

E XAMPLE 3.3.6. Segnale dati. Si supponga di avere un processo stocastico le cui realizzazioni sono funzioni del tempo V (t) che possono assumere solo due valori discreti: +1 e 1 con probabilità 1/2. Si supponga inoltre che la funzione cambi di stato solo ad istanti prefissati, che verranno indicati con degli indici interi: V (nT ) = V n . I valori inoltre sono assunti in modo indipendente l’uno dall’altro. Quindi la funzione assume valore costante per tutti gli istanti di tempo t compresi tra due transizioni: V (t) = V n per nT t < (n + 1)T . La forma generica della funzione è quindi la seguente:

(3.3.6)

V (t) =

+ 1

X

n= 1

V n rect( t nT T/2

T

)

Il precedente processo modella molto bene un segnale dati binario con velocità di clock

pari a 1/T . Esso è utile a schematizzare tutte le situazioni in cui si ha il trasferimento di bit tra due sistemi (ad esempio un computer ed una sua periferica). Poichè infatti non è nota a priori l’informazione che si sta trasmettendo, il processo si può considerare a tutti gli effetti aleatorio. Determiniamo ora i parametri statistici rilevanti e verifichiamo l’eventuale staziona- rietà. Ad un certo istante fissato t, l’osservazione di tutte le realizzazioni porta a dire che i valori che queste possono assumere sono soltanto +1 o 1. Inoltre, poichè si è supposto che tali valori sono assunti con probabilità pari ad 1/2, la funzione di densità

di probabilità del primo ordine non può che valere:

(3.3.7)

1

1

f v (v ; t) = 2 (v + 1) + 2 (v 1)

Questa funzione non dipende dalla variabile tempo. Quindi il processo è stazionario

in senso stretto per il primo ordine. Ci aspettiamo allora che la funzione valor medio

sia costante:

(3.3.8)

µ v (t) = Z

1

+

1

vf v (v ; t)dv = Z

1

+

1

1

1

v · [ 2 (v + 1) + 2 (v 1)] dv = 0

3.3. PROCESSI STAZIONARI

83

Il calcolo della funzione di autocorrelazione è un po’ più complesso. Tuttavia

si può facilmente dimostrare che il processo non è stazionario nè in senso stretto,

nè in senso lato per quel che riguarda il secondo ordine, dato che la funzione di

autocorrelazione non può dipendere dalla sola differenza dei tempi.

Si consideri infatti, nella figura 3.3.1, i due istanti di tempo t 1 e t 2 . Nel grafico

in

alto i due istanti di tempo capitano all’interno dell’intervallo [ nT, (n + 1)T ] , quin-

di

la realizzazione assume valore uguale: V (t 1 ) = V (t 2 ) = V n . Si ha allora che

2

R v (t 1 , t 2 ) = E [ V (t 1 )V (t 2 )] = E [ V ]=1. Se ora spostiamo rigidamente i due istanti

n

di tempo sino a farli capitare a cavallo di due intervalli, come indicato nella figura in

basso, si avrà che V (t 1 ) 6= V (t 2 ) e quindi

(3.3.9)

R v (t 1 , t 2 ) = E [V (t 1 )V (t 2 )] = E [ V (t 1 )]E [ V (t 2 )] = E [ V n ] E [ V n+1 ]=0

Se il processo fosse stazionario in senso lato la funzione di autocorrelazione dovrebbe

dipendere solo dalla differenza dei due istanti di tempo e quindi la R v (t 1 , t 2 ) nei due

casi avrebbe dovuto mantenere lo stesso valore.

) nei due casi avrebbe dovuto mantenere lo stesso valore. t t 1 2 t t
t t 1 2 t t 1 2
t
t
1
2
t
t
1
2

F IGURA 3.3.1. Realizzazione di un processo dati binario

Si può concludere quindi che il processo in esame non è stazionario in senso lato, pur essendo stazionario in senso stretto per il primo ordine.

Un caso molto frequente è quello in cui si conosce la forma di un segnale (cioè il suo andamento) ma non si riesce a piazzare il segnale rispetto ad un preciso riferimento

3.3. PROCESSI STAZIONARI

84

temporale. In tal caso il segnale può essere modellato come un processo stocastico di questo tipo:

E XAMPLE 3.3.7. X (t) = p (t ), con variabile aleatoria che modella l’in- certezza sulla posizione temporale del segnale. Un esempio classico è l’eco del segnale radar. Se supponiamo per semplicità che il segnale sia periodico di periodo T : p (t) = p (t + T ), si può ipotizzare distribuita in modo uniforme tra 0 e T : 2 U (0, T ). Troviamo le proprietà del processo descritto. La funzione valor medio:

(3.3.10)

µ (t) = E [ p (t )] = Z T p (t ) T d=

0

1

T Z

1

t

t

T

p

()d

Poichè la funzione p () è periodica di periodo T , il suo integrale in un periodo non può dipendere dagli estremi di integrazione, quindi dal valore t. Quindi la funzione valor medio è indipendente dalla variabile tempo. In particolare il valore che la funzione valor medio assume è pari al valor medio della funzione p (). Per la funzione di autocorrelazione si ha invece:

R x (t 1 , t 2 ) = E [ X (t 1 )X (t 2 )] = E [ p (t 1 )p (t 2 )] =

(3.3.11)

= Z T p (t 1 ) · p (t 2 ) T d=

0

1

T Z t 1

1

t 1 T

p () · p (t 2 t 1 + )d

Anche in questo caso la funzione integranda, essendo il prodotto di due segnali peri- odici di periodo T, è ancora periodica di periodo T , quindi il suo integrale non dipende dal particolare posizionamento degli estremi di integrazione. La funzione di autocorre- lazione quindi non dipende separatamente da t 1 o da t 2 , ma solo dalla loro differenza:

R x (t 1 , t 2 ) = R x (t 1 t 2 ). Se si pone allora: t 1 t 2 = nella equazione precedente si ha:

(3.3.12)

R x () =

T Z

1

T / 2

T / 2

p () · p ( )d

avendo posto t 1 = T/2. La funzione di autocorrelazione statistica del processo X (t) è pari alla funzione di autocorrelazione del segnale deterministico e periodico p (t).

3.3. PROCESSI STAZIONARI

85

3.3.2. Proprietà della funzione di autocorrelazione di un processo stazionario

in senso lato. Vediamo ora alcune proprietà della funzione di autocorrelazione di un processo stazionario in senso lato.

(1) La funzione di autocorrelazione R x () è pari: R x () = R x ( ). Per dimostrare questa proprietà si osservi che, per la stazionarietà del proces- so, la funzione di autocorrelazione rimane invariata se la si calcola relativa- mente a due istanti di tempo t e t oppure ai due istanti t e t + , dato che questi ultimi sono ottenuti semplicemente mediante traslazione rigida. Si ha allora

(3.3.13)

R x () = E [ X (t)X (t )] = E [X (t + )X (t)] = R x ( )

(2) Il valore assunto da R x () nell’origine è pari alla potenza statisica del pro- cesso:

(3.3.14)

.

R x ()| =0 = R x (0) = E [ X (t)X (t)] = E [ X 2 (t)]

(3) La funzione di autocorrelazione è massima in modulo nell’origine: R x (0) |R x ()|. Se si considera infatti la disuguaglianza: E [(X (t) ± X (t )) 2 ] 0, si osserva che essa è sempre vera, dato che rappresenta la aspettazione di una quantità sempre positiva. Sviluppando la relazione precedente si ha però:

(3.3.15)

E [(X (t) ± X (t )) 2 ] =

= E [X 2 (t) + X 2 (t ) ± 2X (t)X (t )] = 2 R x (0) ± 2R x ()

che prova la disuguaglianza. (4) Se R x () non è periodica il suo valore limite per ! 1 è il quadrato del valor medio:

(3.3.16)

!1 R x () = µ

lim

2

x

Per giustificare qualitativamente questa proprietà si ricordi innanzitutto che:

2

R x () = C x () + µ x . Al crescere della distanza tra gli istanti di tempo, t e t , i valori delle variabili aleatorie tendono sempre più ad “allontanarsi” tra loro, ad assumere cioè comportamenti statistici sempre più indipendenti, finchè, al limite per ! 1, il loro comportamento è completamente indipen- dente e quindi la loro autocovarianza è nulla. La funzione di autocorrelazione quindi diventa pari al quadrato del valor medio.

3.3. PROCESSI STAZIONARI

86

E XAMPLE 3.3.8. Si riconsideri il processo dati binario già visto precedentemente. Se il riferimento temporale non è noto, il modello più appropriato per questo processo è:

X + 1 V n rect ( t ⇥ T/2 nT (3.3.17) V (t) =
X
+ 1
V n rect ( t ⇥ T/2 nT
(3.3.17)
V (t) =
)
T
n= 1
0
t
0
t
F IGURA 3.3.2. Realizzazioni di un processo dati binario con
riferimento temporale non noto

dove la variabile aleatoria contiene l’incertezza relativa al riferimento temporale, ed è distribuita nell’intervallo [0, T ] in modo uniforme. Tale v.a. è indipendente dalla generazione dei dati binari, ed è modellata da una v.a. uniforme nell’intervallo [0, T [ . Indipendentemente dall’istante di inizio del processo, il ragionamento fatto per deter- minare la funzione di densità di probabilità del primo ordine vale ancora. Quindi il processo si può ancora definire stazionario in senso stretto per il primo ordine, e il calcolo della funzione valor medio è uguale a quanto già fatto in (3.3.8). Si ha allora che: µ v (t) = µ v = 0. Per il calcolo della funzione di autocorrelazione si ha invece:

R v (t 1 , t 2 ) = E [

+ 1

X

n= 1

V n rect( t 1 T/2 nT

T

+ 1

X
·

m= 1

V m rect( t 2 T/2 mT

T

)] =

)·

(3.3.18)

=

+

1

X

+

1

X

n= 1 m= 1

3.3. PROCESSI STAZIONARI

E [ V n V m rect( t 1 T/2 nT ) · rect( t 2 T/2 mT

T

T

)]

87

ottenibile sfruttando la linearità dell’operatore aspettazione. Ora si osservi che rispetto alla statistica dei dati binari, E [V n V m ] è diversa da zero solo quando gli indici n ed m sono uguali (vedi il ragionamento e l’eq. (3.3.9)). Quindi della doppia sommatoria sopravvive solo un indice:

R x (t 1 , t 2 ) =

+ 1