Sei sulla pagina 1di 23

PROCESSI CASUALI

1 PROCESSI CASUALI

Segnali deterministici e casuali


Un segnale x(t) si dice DETERMINISTICO se è una funzione nota di t, cioè se, fissato
un qualunque istante di tempo to, il valore x(to) assunto dal segnale è noto con
esattezza a priori.
Tutti i segnali visti sino ad ora sono deterministici. Ad esempio i valori assunti dal
segnale x(t)=cos(2πt) sono noti con certezza per ogni valore di t

t … -0.4 -0.3 -0.2 -0.1 0 0.1 0.2 0.3 0.4 …


x(t) … -0.809 -0.309 0.309 0.809 1 0.809 0.309 -0.309 -0.809 ...

Spesso il segnale non è rappresentabile (se non in forma approssimata) con una
semplice e comoda funzione matematica quale il coseno, ma se il suo valore è noto
in modo univoco ad ogni istante di tempo è comunque un segnale deterministico.

Un segnale x(t) si dice PROCESSO CASUALE se, fissato un qualunque istante di


tempo to, il valore x(to) assunto dal segnale è caratterizzabile solo in senso statistico,
cioè è una variabile casuale descritta dalla sua densità di probabilità.

Un esempio di processo casuale è il rumore presente in ogni dispositivo elettronico.


Questo tipo di segnale non è prevedibile a priori, il suo valore è noto con certezza
solo una volta che sia stato misurato.
2 PROCESSI CASUALI
Introduzione ai processi casuali (1)
Il rumore termico

Un classico e importante esempio utile a introdurre il concetto di processo casuale


è rappresentato dalla debole tensione elettrica v1(t) esistente ai capi di un resistore.
Questa tensione, variabile nel tempo, è causata dal movimento caotico degli
elettroni dovuto ad una temperatura del materiale superiore allo zero assoluto.

Se si registra la tensione v1(t) si ottiene (dopo aver effettuato la misura!) un segnale


che può essere considerato deterministico.

v1(t)

3 PROCESSI CASUALI

Introduzione ai processi casuali (2)


Se però si prende un secondo resistore identico al primo, posto alla stessa temperatura,
e si esegue la misura della tensione elettrica ai suoi capi, si ottiene un nuovo segnale
v2(t), con caratteristiche simili ma diverso dal precedente poiché gli elettroni si
muovono in modo diverso, ed indipendentemente, nei due resistori.

v2(t)

v1(t)

t
4 PROCESSI CASUALI
Introduzione ai processi casuali (3)
Se lo scopo è determinare l’effetto del rumore termico prodotto dal resistore su
un’apparecchiatura elettronica o un sistema di trasmissione, non è di alcuna utilità
aver visto l’andamento delle tensioni v1(t) o v2(t) ai capi dei due resistori se il
resistore effettivamente montato nell’apparecchiatura è un altro (o anche il primo, ma
in un tempo successivo: il rumore termico non si ripete in modo prevedibile!).

E’ utile invece riuscire a descrivere le caratteristiche della tensione di rumore comuni


a tutti i resistori dello stesso tipo e a quella temperatura.

In questo modo, qualsiasi sia il resistore (di quel valore e a quella temperatura)
montata nell’apparecchiatura, potremo dire, per esempio, con quale probabilità si
presenteranno certi valori di tensione o quale sarà la potenza di rumore.

Si abbandona dunque il concetto di certezza (proprio dei segnali deterministici) per


passare a quello dell’incertezza, descritto dalla teoria delle probabilità, proprio dei
processi casuali.

I valori del processo in generici istanti di tempo sono considerati variabili casuali, e
descritti come tali (attraverso le relative densità di probabilità).

5 PROCESSI CASUALI

Dimensione temporale e di insieme


Le tensioni elettriche esistenti ai capi di tutti i resistori dello stesso tipo e temperatura
costituiscono le realizzazioni del processo casuale rumore termico.

Dimensione
realizzazioni d’insieme
tempo

Dimensione
temporale

x1 (t ) x2 (t ) .... xi (t ) .... xN (t )
6 PROCESSI CASUALI
Descrizione dei processi casuali
Di un processo casuale è utile conoscere le caratteristiche comuni a tutte le realizzazioni

Un processo casuale è descritto completamente dalle densità di probabilità congiunte di


tutti gli ordini e per tutti gli istanti di tempo. Tuttavia in molti casi questa informazione
completa non è disponibile. In pratica per descrivere il processo casuale x(t) si utilizzano
soprattutto:

la densità di probabilità delle ampiezze del processo px(a)

che descrive con quale probabilità una realizzazione del processo casuale x(t) assume un
valore uguale ad a. In generale px(a) dipende anche dal tempo. Tuttavia noi ci
occuperemo di una classe di processi casuali detti stazionari le cui caratteristiche
statistiche non dipendono dal tempo t .

la funzione di autocorrelazione del processo Rx(τ )

che descrive quantitativamente il legame tra il valore assunto da una realizzazione del
processo casuale al tempo t +τ e quello assunto dalla stessa realizzazione al tempo t .
Anche in questo caso, limitando l’analisi ai processi casuali stazionari, Rx(τ ) non dipende
dal tempo t ma solo dal ritardo τ tra le due misure.
7 PROCESSI CASUALI

Densità di probabilità del processo casuale (1)


Per un prefissato tempo t, il processo x(t) è una variabile casuale con densità di
probabilità px(a) (chiamata d.d.p. del processo casuale):
P(a < x(t ) ≤ a + da )
p x (a ) = lim
da →0 da
che ci dice con quale probabilità una qualsiasi realizzazione del processo assume valori in
un intorno infinitesimo di a. A partire dalla d.d.p. si possono definire:
+∞
• Valore medio: µ x = E[ x(t )] = ∫ ap x (a )da
−∞

[ ]
+∞
E x(t ) = ∫ a p x (a )da
2 2
• Valore quadratico medio:
−∞

[ ]= ∫ a − µ [ ]
+∞
σ = E x(t ) − µ x p x (a )da = E x(t ) − µ x2
• Varianza: 2 2 2 2
x x
−∞

• La probabilità che una qualsiasi realizzazione assuma valori in un dato intervallo:


a2

P[a1 < x(t ) ≤ a2 ] = ∫ p (a )da


x
a1
8 PROCESSI CASUALI
Densità di probabilità del processo casuale (2)
I parametri che caratterizzano il processo casuale x(t) possono essere calcolati in modo
approssimato attraverso medie aritmetiche su un numero molto elevato di realizzazioni:

• Valore medio: N

∑ x (t )
1
µx ≈ i
N i =1

• Valore quadratico medio:

[
E x(t )
2
] ≈
1
N
N

∑ x (t )
i =1
i
2

• Varianza:
2
N N
∑ x (t ) − N ∑ x j (t )
1 1
σ x2 ≈ i
N i =1 j =1

L’indice i della sommatoria si riferisce a diverse realizzazioni

9 PROCESSI CASUALI

Densità di probabilità di un processo gaussiano


p (a )
1
2πσ x2

1 ⎛ (a − µ x ) 2

p(a) = exp⎜⎜ − ⎟
0 .606

2σ x2 ⎟ 2πσ x2
2πσ x2 ⎝ ⎠
σX σX

0 .135 2σ X 2σ X
2πσ 2
x
µX a

m x +σ x
⎛ (a − µ x )2 ⎞
P (µ x − σ x < x ≤ µ x + σ x ) =
1

m x −σ x 2π σ x2
exp⎜⎜ −
⎝ 2σ 2
x
⎟ da ≈ 0.683


µ x + 2σ x
⎛ (a − µ x )2 ⎞
P (µ x − 2σ x < x ≤ µ x + 2σ x ) =
1
µ x − 2σ x
∫ 2π σ x
2
exp⎜⎜ −
⎝ 2σ 2
x
⎟ da ≈ 0.954


µ x + 3σ x
⎛ (a − µ x )2 ⎞
P (µ x − 3σ x < x ≤ µ x + 3σ x ) =
1

µ x −3σ x 2π σ x
2
exp⎜⎜ −
⎝ 2σ 2
x
⎟ da ≈ 0.997


10 PROCESSI CASUALI
Funzione Q e funzione errore complementare (erfc)
p (a )
B = P(x > µ x + β )

1 ⎛ (a − µ x )2 ⎞
0 .606 = ∫
µx +β 2πσ x
2
exp⎜⎜ −
⎝ 2σ 2
x
⎟ da


2πσ 2
x σx σx
⎛β ⎞ 1 ⎛ β ⎞
C=B B
= Q⎜⎜ ⎟⎟ = erfc⎜⎜ ⎟

σ
⎝ x⎠ 2 ⎝ 2σ x ⎠
µX
β β a

t Q(t) t Q(t) s erfc(s) s erfc(s)


0,00 5,000E-01 0,8 2,119E-01 0,0 1,000E+00 1,6 2,370E-02

( )
0,05 4,801E-01 1,0 1,587E-01 0,1 8,875E-01 1,8 1,090E-02
0,10 4,602E-01 1,2 1,151E-01 0,2 7,730E-01 2,0 4,700E-03 exp − t 2 / 2
0,15 4,404E-01 1,4 8,080E-02 0,3 6,714E-01 2,2 1,900E-03 per t > 3 Q(t ) ≈
0,20 4,207E-01 1,6 3,806E-01 0,4 5,716E-01 2,4 6,885E-04 2π t
0,25
0,30
4,013E-01
3,821E-01
1,8
2,0
3,590E-02
2,280E-02
0,5
0,6
4,795E-01
3,961E-01
2,6
2,8
2,360E-04
7,502E-05
per s > 2 erfc( s ) ≈
exp − s 2( )
πs
0,35 3,622E-01 2,4 8,200E-03 0,7 3,222E-01 3,0 2,209E-05
0,40 3,446E-01 2,8 2,600E-03 0,8 2,579E-01 3,3 3,057E-06
0,45 3,264E-01 3,2 6,871E-04 1,0 1,573E-01 3,7 1,671E-07
0,50 3,085E-01 3,6 1,591E-04 1,2 9,700E-02 4,0 1,542E-08
0,60 2,743E-01 4,0 3,167E-05 1,4 4,770E-02 5,0 1,537E-12

11 PROCESSI CASUALI

Processi casuali stazionari con valor medio non nullo


Un processo casuale con valor medio diverso da zero può essere rappresentato come
la somma di un processo a valor medio nullo e di una costante (segnale
deterministico) uguale al valor medio.

Le d.d.p delle ampiezze di


Una realizzazione di
y(t) = x(t) + 0.5 x(t) ed y(t)
x(t) ed y(t)

0.8 yi(t) 0.8


0.7 0.7
0.6 0.6
0.5 0.5
0.4 0.4
0.3 0.3
0.2 0.2
0.1 0.1
0 0
-0.1 -0.1
-0.2 -0.2
-0.3 xi(t) -0.3
-0.4 -0.4
-0.5 -0.5
-0.6 -0.6 d.d.p.
-0.7 -0.7
-0.8
-40 -20 0 20 40 -0.8
tempo 0 0.05 0.1PROCESSI0.15 0.2
12 CASUALI
Autocorrelazione dei processi casuali stazionari (1)
L’autocorrelazione del processo x(t) è definita come valor medio di x*(t)x(t+τ).
Se il processo è stazionario l’autocorrelazione non dipende da t, ma solo da τ.

[
Rx (τ ) = E x * (t ) x (t + τ ) ]
Per τ =0 si ottiene

Rx (0) = E[| x (t ) |2 ]

L’autocorrelazione è interpretabile come media aritmetica, su un gran numero


di realizzazioni, dei prodotti dei valori del processo agli istanti t e t+τ.

N
Rx (τ ) ≈ ∑ x (t ) x (t + τ )
1 *
i i
N i =1
L’indice i della sommatoria si riferisce a diverse realizzazioni
13 PROCESSI CASUALI

Autocorrelazione dei processi casuali stazionari (2)


Consideriamo per esempio due processi casuali stazionari a valor medio nullo, ma con
caratteristiche differenti. Il primo ha realizzazioni che variano lentamente nel tempo (ad
es. il rumore di un motore di un’auto al minimo), mentre il secondo ha realizzazioni che
variano con grande rapidità (ad es. Il fruscio di fondo di un disco rovinato) ...

µx = 0 [
Rx (τ ) = E x * (t ) x (t + τ ) ] [ ]
Rx (0 ) = E | x (t ) |2 = σ x2

τ τ
x(t) x(t+τ) x(t) x(t+τ)
2 2
1 1
0 0
-1 -1
-2 -2
0 50 100 150 200 0 50 100 150 200
14 PROCESSI CASUALI
Autocorrelazione dei processi casuali stazionari (3)
2
Alcune realizzazioni di un
0
processo che varia lentamente
-2
0 50 100 150 200
Se x(t) varia lentamente nel 2
tempo, x(t+τ ) è solitamente 0

poco diverso da x(t): il -2


0 50 100 150 200
prodotto xi(t)xi(t+τ ) ha segno 2
positivo per quasi tutte le 0
realizzazioni. -2
Per τ=0 l’autocorrelazione Rx(0) 0 50 100 150 200
è la varianza del processo; per 2

τ>0 l’autocorrelazione Rx(τ) è 0


-2
sempre minore di Rx(0). 0 50 100 150 200
2
N
Rx (τ ) ≈ ∑ x (t )x (t + τ ) > 0
1 0
i i -2
N i =1
τ
0 50 100 150 200
valore elevato!
15
x(t) x(t+τ )
PROCESSI CASUALI

L’autocorrelazione dei processi casuali stazionari (4)


2
Alcune realizzazioni di un 0
processo che varia rapidamente -2
0 50 100 150 200
2
0
Se x(t) varia rapidamente nel
-2
tempo , x(t+τ ) è spesso molto
0 50 100 150 200
diverso da x(t): il prodotto 2
xi(t)xi(t+τ ) ha segno casuale 0
nelle varie realizzazioni e -2
quindi l’autocorrelazione ha un 0 50 100 150 200
2
valore prossimo a zero.
0
-2
0 50 100 150 200
2
0
N -2
Rx (τ ) ≈ ∑ x (t )x (t + τ ) ≈ 0
1
τ
i i 0 50 100 150 200
N i =1
x(t) x(t+τ )
16 PROCESSI CASUALI
Esempio di valutazione dell’autocorrelazione (1)
xi* (t ) xi (t + τ )
0.5 0.5 0.5

0 0 0

-0.5 τ =0 -0.5 τ =0.2 -0.5 τ =0.4


i =1 i =100
0.5 0.5 0.5

0 0 0

-0.5 τ =0.6 -0.5 τ =0.8 -0.5 τ =1

0.5 0.5 0.5

0 0 0

-0.5 τ =1.2 -0.5 τ =1.4 -0.5 τ =1.6


17 PROCESSI CASUALI

Esempio di valutazione dell’autocorrelazione(2)

Rx (τ ) = E[ x* (t ) x (t + τ )]
1
Risultato del calcolo
0.8

0.6

0.4
Nota: è evidente, dalla
0.2
definizione di
autocorrelazione, che per
0
τ
qualsiasi processo casuale
stazionario Rx(τ) è una
-0.2 funzione pari, cioè
Rx(-τ)=Rx(τ)
-0.4
-4 -2 0 2 4
18 PROCESSI CASUALI
Proprietà dell’autocorrelazione

1. L’autocorrelazione in τ=0 coincide con la potenza media del processo casuale.

[ ]
N
Rx (0 ) = E x (t ) = E [Px ] = P ≈ ∑ x (t )
2 1 2
i
N i =1

2. Rx(0 ) è il massimo valore che può assumere l’autocorrelazione.

Rx (τ ) ≤ Rx (0)

3. Rx(τ) è inoltre una funzione pari


Rx (τ ) = Rx (−τ )

4. Dato un processo y(t) con media µy possiamo scrivere y(t)=x(t)-µy, ove x(t) è un
processo a media 0. Vale la seguente relazione

R y (τ ) = Rx (τ ) + µ y2

19 PROCESSI CASUALI

Autocovarianza dei processi casuali stazionari

[
C x (τ ) = E ( x (t ) - µ x )
*
(x(t + τ ) - µx ) ] = Rx (τ ) − µ x 2
Per un processo a valor medio nullo, l’autocovarianza coincide con
l’autocorrelazione

[ ]
C x (0 ) = E | x (t ) - µ x |2 = Rx (0 ) − µ x = σ x2
2

20 PROCESSI CASUALI
Il coefficiente di correlazione (1)

Dato un processo casuale, si definisce coefficiente di correlazione del


processo, l’autocovarianza normalizzata:

ρx (τ) = x =
[
C (τ ) E (x(t) −µx ) (x(t +τ) −µx ) Cx(τ )
*
= 2
]
Cx(0) [
E | x(t) −µx |2
σx ]
C x (τ )
ρ x (τ ) = ≤1 ρ x (0) = 1
C x (0)

21 PROCESSI CASUALI

Il coefficiente di correlazione (2)

Il coefficiente di correlazione del processo è una funzione i cui valori sono


limitati tra -1 e +1. Ovviamente il suo valore in τ=0 è unitario e, salvo casi
molto particolari, è l’unico massimo.

Il valore del coefficiente di correlazione in funzione di τ è una misura della


predicibilità di una realizzazione del processo all’istante t+τ noto il valore
della realizzazione all’istante t.

Seρρxx(τ)=±1:
••Se (τ)=±1:x(t) x(t+ττ))sisidicono
x(t)eex(t+ diconocompletamente
completamentecorrelati,
correlati,c’è
c’èun
unlegame
legame
deterministico fra i due campioni e quindi
deterministico fra i due campioni e quindi è possibile predire è possibile predire
perfettamente
perfettamenteililvalore
valoredell’uno
dell’unonoto notoililvalore
valoredell’altro.
dell’altro.
ρ (τ)=0 [cioè se C (τ)=0]: x(t) e x(t+ τ
Se ρxx(τ)=0 [cioè se Cxx(τ)=0]: x(t) e x(t+τ) sono incorrelati,
••Se ) sono incorrelati, non
non èè possibile
possibile
predire il valore dell’uno noto il valore dell’altro.
predire il valore dell’uno noto il valore dell’altro.

22 PROCESSI CASUALI
Una semplice dimostrazione del legame
correlazione/predicibilità
Consideriamo il processo casuale stazionario a valor medio nullo x(t). Indichiamo per
brevità con x1 e x2 le due variabili casuali x(t1) e x(t2) e per semplicità assumiamo x1 e x2
reali. Dimostreremo che:

1 - quanto più due variabili casuali x1 e x2 (a valor medio nullo) sono correlate, tanto
meglio possiamo stimare dall’una il valore dell’altra.

2 - la stima sarà la migliore possibile, se l’errore di stima è incorrelato con i dati.

Dire che la variabile casuale x2 è correlata con la variabile casuale x1 equivale a dire
che il valore assunto da x2 è in parte proporzionale a quello assunto da x1 più una
variabile casuale indipendente da x1 e quindi non predicibile. In breve:

x2 = rx1 + n
dove n è una variabile casuale indipendente da x1, a valore medio nullo e varianza

σ n2 = E[n 2 ]
23 PROCESSI CASUALI

La stazionarietà del processo ci dice che la varianza σ2 delle due variabili casuali x1 e x2 è
la medesima, imponendo un legame tra la varianza di n e il coefficiente r.
In formule abbiamo:

[ ] [ ]
E x12 = E x22 = σ 2 ⇒ E [x ] = E [(rx + n ) ] = σ
2 2 2
2 1

r E [x ]+ E [n ]+ 2r E [x n] = σ
2 2 2
⇒ r σ + E [n ] = σ
2 2 2 2 2
1
123 1
=0
da cui: perchè indipendenti

σ n2 = (1 − r 2 )σ 2

Piu’ |r| è prossimo a 1, piu’ σn2 è piccolo e tanto meno x1 si discosta da x2.
Si può dimostrare che il coefficiente di correlazione fra x1 e x2 è uguale a r:

ρ x (τ ) = E [x1 x2 ] / E [x12 ] = r
Infatti:
E [x1 x2 ] = E [x1 (rx1 + n )] = rE x12 [ ]
Piu’ il coefficiente di correlazione è in modulo prossimo a 1, piu’ x2 è predicibile da x1.
24 PROCESSI CASUALI
Stima lineare di x2 da x1 (predire il futuro)
Conoscendo il valore assunto da x1, cerchiamo di predire al meglio (stimare) il
valore che assumerà x2 cercando il coefficiente di proporzionalità a

xˆ 2 = ax1
Il valore ottimo di a si ha se la differenza (in media quadratica) tra il valore
stimato e il valore effettivamente assunto da x2 è minima, cioè se è minimo

[ )
] [
E ( x2 − x2 ) 2 = E ( x2 − ax1 ) 2 ]
Derivando rispetto ad a e uguagliando a zero si ottiene il valore ottimo di a

[ ]
a = E [x1 x2 ] / E x12 = r
Il valore ottimo di a coincide, ovviamente, con il coefficiente r, infatti:

E [x1 x2 ] = E [x1 (rx1 + n )] = rE x12[ ]


25 PROCESSI CASUALI

Come si fa a predire il futuro?


IlIlvalore
valoreottimo
ottimodidiaacoincide
coincidecon
conrrche
cheèèililcoefficiente
coefficientedidicorrelazione
correlazionedelle
delle
variabili casuali x e x
variabili casuali x1 e x2
1 2

[ ]
a = E [x1 x2 ] / E x12 = ρ x (τ )
Questa considerazione ci consente di definire una procedura per stimare al
meglio il valore che assumerà x2 una volta noto il valore assunto da x1

1a fase: apprendimento - Analizzando N (numero grande) realizzazioni del


processo casuale, si calcola il coefficiente di correlazione (ricordare che µx=0)

E [x (t ) x (t + τ )] N N
ρ x (τ ) = ≈ ∑ xi (t )xi (t + τ ) ∑ x (t )2
i
E[ x 2 (t )] i =1 i =1

2a fase: predizione - Si stima x(t+τ ) da x(t)

xˆ (t + τ ) = ρ x (τ ) x (t )
26 PROCESSI CASUALI
L’errore di stima
Si nota che l’errore di stima, essendo causato solo dalla variabile casuale n, ha
valore quadratico medio pari a quello di n

[ )
] [
E ( x2 − x2 ) 2 = E ( x2 − ax1 ) 2 = σ x2 (1 − r 2 ) ]
Da questa espressione si capisce subito che:

1 - l’errore di stima è nullo se le variabili casuali sono totalmente correlate (|r|=1)


2 - l’errore di stima è massimo se le variabili casuali sono incorrelate (|r|=0)

Infine, è importante notare che l’errore di stima è incorrelato con il dato (x1),
infatti:

]
E [x1 ( x2 − ax1 )] = E x1 x2 − ax12 = [
= E [x x ] − aE [x ] = rE [x ] − rE [x ] = 0
1 2
2
1
2
1
2
1

27 PROCESSI CASUALI

Valor medio e autocorrelazione temporale


Si abbia un processo casuale stazionario x(t) di cui si conosce una sua realizzazione
limitata nel tempo da –T/2 a T/2 che indichiamo con xT(t)
Valor medio temporale
T /2
1
η x = lim
T →∞ T ∫x
−T / 2
T ( t ) dt

Autocorrelazione temporale

T /2 T /2
1 1
ℜ x (τ ) = lim ∫x ( t ) x T ( t + τ ) dt ℜ x ( 0 ) = lim ∫| x ( t ) |2 dt = Px
*
T T
T →∞ T T →∞ T
−T / 2 −T / 2

Per un processo stazionario

E [η x ] = µ x
E [ℜ x (τ )] = R x (τ )
E [ℜ x ( 0 )] = E [ Px ] = R x ( 0 ) = P = potenza del processo
28 PROCESSI CASUALI
Processi casuali ergodici
Tra i processi casuali stazionari esistono alcuni processi per i quali si possono ricavare
la densità di probabilità e la funzione di autocorrelazione da una sola realizzazione.
Questi processi sono detti ERGODICI.

realizzazioni Nota importante:


Per un processo
ergodico tutte le
realizzazioni hanno
la medesima
tempo

potenza.

Osservare tutte le realizzazioni ad un istante di tempo (o per una coppia di istanti)


permette di ricavare le stesse informazioni statistiche ottenibili dall’osservazione
prolungata nel tempo di una singola realizzazione.
Un esempio di processo ERGODICO è rappresentato dal rumore termico.
29 PROCESSI CASUALI

Processi casuali ergodici (d.d.p. ampiezze)


La
Ladensità
densitàdidiprobabilità
probabilitàdei
deivalori
valoriassunti
assuntida
daun
unprocesso
processocasuale
casualeergodico
ergodicopuò
può
essere
esserevalutata,
valutata,oltre
oltreche
chedall’insieme
dall’insiemedelle
dellerealizzazioni
realizzazioni(ad
(adun
unsolo
soloistante
istantediditempo,
tempo,
arbitrario, anche da una sola realizzazione, come percentuale del tempo in
arbitrario, anche da una sola realizzazione, come percentuale del tempo in cui ilcui il
processo
processoassume
assumeampiezze
ampiezzefrafraaaeea+da
a+dadiviso
divisoper
perl’ampiezza
l’ampiezzadell’intervallo
dell’intervalloda.da.

Realizzazione del processo casuale


0.8 0.8
0.7 0.7
0.6 0.6
0.5 0.5
0.4 0.4
0.3 0.3
0.2 0.2
0.1 0.1
0 0
-0.1 -0.1
-0.2 -0.2
-0.3 -0.3
-0.4 -0.4
-0.5 -0.5
-0.6 -0.6
-0.7 -0.7
-0.8 -0.8
-40 -20 0 tempo 20 40
0 0.05 0.1 0.15
30 PROCESSI CASUALI
Processi casuali ergodici

Il valor medio temporale coincide col valor medio di insieme (processo ergodico per la
media).
L’autocorrelazione temporale coincide con l’autocorrelazione di insieme (processo
ergodico per l’autocorrelazione).

T /2
1
η x = lim
T →∞ T ∫x
−T / 2
T ( t ) dt = µ x

T /2
1
ℜ x (τ ) = lim ∫x ( t ) x T ( t + τ ) dt = R x (τ )
*
T
T →∞ T
−T / 2

31 PROCESSI CASUALI

Densità spettrale di potenza (1)


La densità spettrale di potenza di un processo casuale stazionario x(t) è definita
come la trasformata di Fourier dell’autocorrelazione Rx(τ )
∞ ∞
Sx ( f ) = ∫ R (τ ) exp{− j 2πfτ }dτ
−∞
x Rx (τ ) = ∫ S ( f ) exp{ j 2πfτ }df
−∞
x

Perchè la Sx(f) è una densità spettrale di potenza?


1 - Come si è visto l’autocorrelazione in τ=0, per un processo stazionario,
rappresenta la potenza del processo stesso

Rx (0) = E[ℜ x (0)] = E[ Px ] = P


2 - L’autocorrelazione in τ=0 è uguale all’integrale della sua TDF (th. valore origine):

R x ( 0) =
−∞
∫ S ( f ) df
x =P

La densità spettrale di potenza per un processo casuale x(t) rappresenta quindi


come è distribuita, statisticamente, la potenza alle varie frequenze.
32 PROCESSI CASUALI
Densità spettrale di potenza (2)
Dato un processo y(t) con media µy possiamo scrivere:

y (t ) = x (t ) − µ y
Ove x(t) è un processo a media 0.

Valgono le seguenti relazioni

R y (τ ) = Rx (τ ) + µ y
2

S y (τ ) = S x (τ ) + µ y δ ( f )
2

Un processo stazionario, con media diversa da 0, ha una densità spettrale di potenza


con un impulso nell’origine di area pari al quadrato della media.
Viceversa un processo con media 0 ha una densità spettrale di potenza senza impulsi
per f=0.

33 PROCESSI CASUALI

Densità spettrale di potenza (significato fisico)


Si supponga che il processo casuale y(t) sia ottenuto da x(t) attraverso un filtro ideale
passa banda centrato sulla frequenza f0 (e, simmetricamente, -f0) con piccola banda ∆f. Si
può ben dire che y(t) contiene le sole frequenze di x(t) nella banda del filtro, cioè in un
intorno di ±fo. Se ∆f è sufficientemente piccolo si ha

Sy ( f ) = Sx ( f0 ) per f0 − ∆f / 2 < f < f0 + ∆f / 2

e simmetricamente intorno a -f0. La potenza di y(t), cioè la potenza di x(t) nelle bande ∆f ,
è data da
+∞
P=
−∞
∫S y ( f ) df = 2S x ( f 0 ) ∆ f

Dunque Sx(f0) ha effettivamente il significato di potenza per unità di banda in un intorno di


f0, cioè di densità spettrale di potenza. Nota: l’aggettivo “spettrale” viene usato per
indicare tutto ciò che si riferisce al “dominio” delle frequenze. Si noti che metà della
potenza è attribuita alle frequenze negative! Poiché ciò ha poco senso fisico, spesso si
preferisce definire una densità spettrale unilatera (doppia della “bilatera”; è ovvio che poi
nei calcoli si considerano le sole frequenze positive!)
IMPORTANTE: la densità spettrale di potenza non può essere negativa (a nessuna
frequenza, filtrando, si otterrebbe un processo y(t) con potenza negativa!!)
34 PROCESSI CASUALI
Processi casuali attraverso sistemi LTI (1)
Se un processo casuale x(t) stazionario passa attraverso un sistema lineare tempo-
invariante con risposta all’impulso h(t) e risposta in frequenza H(f), il processo casuale in
uscita y(t) è stazionario ed ha le seguenti caratteristiche:
1. In generale la densità di probabilità del processo in uscita y(t) è diversa da quella di
x(t). Solo la densità di probabilità Gaussiana rimane tale nel passaggio del processo
casuale attraverso il sistema LTI: cambiano solo valor medio e varianza.
2. Il valor medio del processo in uscita è legato a quello d’ingresso dalla seguente
relazione:
µ y = µ x ⋅ H ( 0)
3. L’autocorrelazione del processo d’uscita è legata a quella d’ingresso dalla seguente
relazione:
R y (τ ) = Rx (τ ) ∗ h (τ ) ∗ h (− τ )
4. La densità spettrale di potenza del processo in uscita è legata a quella d’ingresso dalla
seguente relazione:

S y ( f ) = Sx ( f ) ⋅ H ( f )
2

35 PROCESSI CASUALI

Processi casuali attraverso sistemi LTI (2)


5. La potenza del processo in uscita dipende dalla densità spettrale di potenza del
processo d’ingresso e dalla risposta in frequenza del sistema LTI secondo la relazione

∞ ∞
Py = ∫ S y ( f )df = ∫ S x ( f ) ⋅ H ( f ) df
2

−∞ −∞

6. La varianza del processo in uscita dipende dalla densità spettrale di potenza e dal valor
medio del processo d’ingresso e dalla risposta in frequenza del sistema LTI:

∞ ∞
σ = Py − µ y = ∫ S y ( f )df − µ y = ∫ S x ( f ) ⋅ H ( f ) df − µ x H (0 )
2 2 2 2 2 2
y
−∞ −∞

36 PROCESSI CASUALI
Processi casuali bianchi (1)

Si definisce bianco (a valor medio nullo) un processo casuale stazionario con densità
spettrale di potenza costante.
Quindi un processo casuale bianco (a valor medio nullo) ha autocorrelazione
impulsiva.

ATTENZIONE: questa caratteristica è indipendente dalla densità di probabilità delle


ampiezze che può essere di tipo qualsiasi (ad es. Gaussiana, uniforme …)

Si tratta, evidentemente, di una idealizzazione (anche la luce che diciamo “bianca”, da cui
deriva il nome, ha spettro che non si estende all’infinito). Notiamo che un processo
veramente bianco avrebbe potenza infinita!
Nel mondo reale osserviamo solo processi filtrati (con banda più o meno larga). Se la
banda del processo in ingresso è più larga di quella del filtro, possiamo assegnare valori
arbitrari alla densità spettrale fuori banda (senza che cambino i risultati del calcolo). Un
valore costante è il più comodo dal punto di vista matematico.

37 PROCESSI CASUALI

Processi casuali bianchi (2)

2 x(t)
Rx(τ)
0
Sx(f)
-2 N0/2
0 100
N0/2

px(a) τ f

-5 0 5

Nota: autocorrelazione impulsiva significa che il valore x(t+τ) del processo bianco al
tempo t+τ è assolutamente impredicibile dal valore x(t) all’istante t : il processo varia in
modo infinitamente rapido!
Se il processo bianco ha valor medio µx diverso da zero, si ha Sx(f)=(N0/2)+|µx|2 δ(f) e
Rx(τ)= (N0/2)δ(τ)+|µx|2

38 PROCESSI CASUALI
Processi casuali bianchi (3)

Solitamente la densità spettrale (bilatera) di un processo casuale x(t) bianco viene indicata
con Sx(f)=N0/2 e quindi la funzione di autocorrelazione con Rx(τ)= N0/2 δ(τ)
Nota: si indica quindi con N0 la densità spettrale di potenza unilatera.
E’ importante saper calcolare la potenza di un processo y(t) ottenuto da un processo bianco
x(t) attraverso un filtro con risposta all’impulso h(t) e risposta in frequenza H(f). Si ha

+∞ +∞
σ = ∫ S y ( f )df = ∫ Sx ( f ) H ( f ) df =
2 2
y
−∞ −∞
+∞ +∞
N N
= 0 ∫ Sx ( f ) H ( f ) df = 0 ∫ h2 (t )dt
2

2 −∞ 2 −∞

39 PROCESSI CASUALI

Correlazione tra uscita e ingresso di un sistema LTI


La correlazione tra due processi casuali ergodici y(t) e x(t) è definita nel modo seguente:

T /2
ℜ yx (τ ) = Tlim 1
→∞ T ∫ y * ( t ) x ( t + τ )dt = R yx (τ )
−T / 2

Se i due processi casuali y(t) e x(t) sono rispettivamente l’uscita e l’ingresso di un sistema
LTI la loro correlazione è uguale alla convoluzione tra l’autocorrelazione dell’ingresso e la
risposta all’impulso del sistema LTI:

R yx (τ ) = R x (τ ) ∗ h (τ )
Si nota che se il processo d’ingresso è bianco (autocorrelazione impulsiva), la correlazione
tra uscita e ingresso coincide con la risposta all’impulso del sistema.

R yx (τ ) = δ (τ ) ∗ h (τ ) = h (τ )
Questa proprietà è spesso utilizzata nei sistemi di telecomunicazione per stimare la
risposta impulsiva del canale di trasmissione che è ignoto a priori.
40 PROCESSI CASUALI
Correlazione tra uscita e ingresso bianco

x(t) Processo bianco y(t)

h(t) ?
Processo correlato

h(τ)
T /2
ℜ yx (τ ) = Tlim 1
→∞ T ∫ y * ( t ) x ( t + τ )dt = se Sx(f)=1 e
−T / 2 quindi Rx(τ)=δ(τ)

41 PROCESSI CASUALI

Un esempio importante di processo bianco (1)


Si consideri il processo x(t) le cui realizzazioni sono costituite da treni di impulsi equispaziati
a passo T, con ritardo iniziale τ casuale e area a casuale indipendente da impulso a impulso
con valor medio nullo e varianza σ 2.


x(t ) = ∑ a δ (t − nT − τ )
n = −∞
n

x1(t)

T τ
t

x2(t)

T τ t
42 PROCESSI CASUALI
Un esempio importante di processo bianco (2)

Si può dimostrare che il processo casuale x(t) è STAZIONARIO ed ERGODICO,

con le seguenti proprietà

1. Il valor medio è nullo: µx = 0

2. La varianza è: σ 2 / T

3. L’autocorrelazione è impulsiva (processo bianco): Rx (τ ) = (σ 2 / T ) δ (τ )

4. La densità spettrale di potenza è costante (processo bianco): Sx (τ ) = (σ 2 / T )

43 PROCESSI CASUALI

Se il processo casuale x(t) passa attraverso un sistema LTI con risposta in frequenza
H(f) e risposta all’impulso h(t), in uscita si ottiene un processo y(t) con:

Densità spettrale di potenza: Sy (f ) = (σ 2 / T) |H(f)|2

h(t) y1(t)

T τ
t

Sx (f) H(f) Sy (f)

f f f
44 PROCESSI CASUALI
Il processo casuale y(t) costruito nel modo indicato precedentemente può essere
usato per rappresentare (nel tempo) una sequenza casuale di bit. Ciascuno di essi
sarà codificato, ad esempio, con un impulso rettangolare, di base T, ed ampiezza:
+A (“1”) o -A (“0”):
h(t) y1(t)
A
+1 +1 +1 +1
-1 T -1 τ -1
T t

Sx (f) |H(f)|2 A2T Sy (f)


1/T (AT)2

f f f

h(t ) = A ⋅ rect (t / T )
Sx ( f ) = 1 / T S y ( f ) = A2T ⋅ sinc2 (Tf )
H ( f ) = AT ⋅ sinc(Tf )
45 PROCESSI CASUALI