Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Dispense07 PDF
Dispense07 PDF
1 PROCESSI CASUALI
Spesso il segnale non è rappresentabile (se non in forma approssimata) con una
semplice e comoda funzione matematica quale il coseno, ma se il suo valore è noto
in modo univoco ad ogni istante di tempo è comunque un segnale deterministico.
v1(t)
3 PROCESSI CASUALI
v2(t)
v1(t)
t
4 PROCESSI CASUALI
Introduzione ai processi casuali (3)
Se lo scopo è determinare l’effetto del rumore termico prodotto dal resistore su
un’apparecchiatura elettronica o un sistema di trasmissione, non è di alcuna utilità
aver visto l’andamento delle tensioni v1(t) o v2(t) ai capi dei due resistori se il
resistore effettivamente montato nell’apparecchiatura è un altro (o anche il primo, ma
in un tempo successivo: il rumore termico non si ripete in modo prevedibile!).
In questo modo, qualsiasi sia il resistore (di quel valore e a quella temperatura)
montata nell’apparecchiatura, potremo dire, per esempio, con quale probabilità si
presenteranno certi valori di tensione o quale sarà la potenza di rumore.
I valori del processo in generici istanti di tempo sono considerati variabili casuali, e
descritti come tali (attraverso le relative densità di probabilità).
5 PROCESSI CASUALI
Dimensione
realizzazioni d’insieme
tempo
Dimensione
temporale
x1 (t ) x2 (t ) .... xi (t ) .... xN (t )
6 PROCESSI CASUALI
Descrizione dei processi casuali
Di un processo casuale è utile conoscere le caratteristiche comuni a tutte le realizzazioni
che descrive con quale probabilità una realizzazione del processo casuale x(t) assume un
valore uguale ad a. In generale px(a) dipende anche dal tempo. Tuttavia noi ci
occuperemo di una classe di processi casuali detti stazionari le cui caratteristiche
statistiche non dipendono dal tempo t .
che descrive quantitativamente il legame tra il valore assunto da una realizzazione del
processo casuale al tempo t +τ e quello assunto dalla stessa realizzazione al tempo t .
Anche in questo caso, limitando l’analisi ai processi casuali stazionari, Rx(τ ) non dipende
dal tempo t ma solo dal ritardo τ tra le due misure.
7 PROCESSI CASUALI
[ ]
+∞
E x(t ) = ∫ a p x (a )da
2 2
• Valore quadratico medio:
−∞
[ ]= ∫ a − µ [ ]
+∞
σ = E x(t ) − µ x p x (a )da = E x(t ) − µ x2
• Varianza: 2 2 2 2
x x
−∞
• Valore medio: N
∑ x (t )
1
µx ≈ i
N i =1
[
E x(t )
2
] ≈
1
N
N
∑ x (t )
i =1
i
2
• Varianza:
2
N N
∑ x (t ) − N ∑ x j (t )
1 1
σ x2 ≈ i
N i =1 j =1
9 PROCESSI CASUALI
1 ⎛ (a − µ x ) 2
⎞
p(a) = exp⎜⎜ − ⎟
0 .606
2σ x2 ⎟ 2πσ x2
2πσ x2 ⎝ ⎠
σX σX
0 .135 2σ X 2σ X
2πσ 2
x
µX a
m x +σ x
⎛ (a − µ x )2 ⎞
P (µ x − σ x < x ≤ µ x + σ x ) =
1
∫
m x −σ x 2π σ x2
exp⎜⎜ −
⎝ 2σ 2
x
⎟ da ≈ 0.683
⎟
⎠
µ x + 2σ x
⎛ (a − µ x )2 ⎞
P (µ x − 2σ x < x ≤ µ x + 2σ x ) =
1
µ x − 2σ x
∫ 2π σ x
2
exp⎜⎜ −
⎝ 2σ 2
x
⎟ da ≈ 0.954
⎟
⎠
µ x + 3σ x
⎛ (a − µ x )2 ⎞
P (µ x − 3σ x < x ≤ µ x + 3σ x ) =
1
∫
µ x −3σ x 2π σ x
2
exp⎜⎜ −
⎝ 2σ 2
x
⎟ da ≈ 0.997
⎟
⎠
10 PROCESSI CASUALI
Funzione Q e funzione errore complementare (erfc)
p (a )
B = P(x > µ x + β )
∞
1 ⎛ (a − µ x )2 ⎞
0 .606 = ∫
µx +β 2πσ x
2
exp⎜⎜ −
⎝ 2σ 2
x
⎟ da
⎟
⎠
2πσ 2
x σx σx
⎛β ⎞ 1 ⎛ β ⎞
C=B B
= Q⎜⎜ ⎟⎟ = erfc⎜⎜ ⎟
⎟
σ
⎝ x⎠ 2 ⎝ 2σ x ⎠
µX
β β a
( )
0,05 4,801E-01 1,0 1,587E-01 0,1 8,875E-01 1,8 1,090E-02
0,10 4,602E-01 1,2 1,151E-01 0,2 7,730E-01 2,0 4,700E-03 exp − t 2 / 2
0,15 4,404E-01 1,4 8,080E-02 0,3 6,714E-01 2,2 1,900E-03 per t > 3 Q(t ) ≈
0,20 4,207E-01 1,6 3,806E-01 0,4 5,716E-01 2,4 6,885E-04 2π t
0,25
0,30
4,013E-01
3,821E-01
1,8
2,0
3,590E-02
2,280E-02
0,5
0,6
4,795E-01
3,961E-01
2,6
2,8
2,360E-04
7,502E-05
per s > 2 erfc( s ) ≈
exp − s 2( )
πs
0,35 3,622E-01 2,4 8,200E-03 0,7 3,222E-01 3,0 2,209E-05
0,40 3,446E-01 2,8 2,600E-03 0,8 2,579E-01 3,3 3,057E-06
0,45 3,264E-01 3,2 6,871E-04 1,0 1,573E-01 3,7 1,671E-07
0,50 3,085E-01 3,6 1,591E-04 1,2 9,700E-02 4,0 1,542E-08
0,60 2,743E-01 4,0 3,167E-05 1,4 4,770E-02 5,0 1,537E-12
11 PROCESSI CASUALI
[
Rx (τ ) = E x * (t ) x (t + τ ) ]
Per τ =0 si ottiene
Rx (0) = E[| x (t ) |2 ]
N
Rx (τ ) ≈ ∑ x (t ) x (t + τ )
1 *
i i
N i =1
L’indice i della sommatoria si riferisce a diverse realizzazioni
13 PROCESSI CASUALI
µx = 0 [
Rx (τ ) = E x * (t ) x (t + τ ) ] [ ]
Rx (0 ) = E | x (t ) |2 = σ x2
τ τ
x(t) x(t+τ) x(t) x(t+τ)
2 2
1 1
0 0
-1 -1
-2 -2
0 50 100 150 200 0 50 100 150 200
14 PROCESSI CASUALI
Autocorrelazione dei processi casuali stazionari (3)
2
Alcune realizzazioni di un
0
processo che varia lentamente
-2
0 50 100 150 200
Se x(t) varia lentamente nel 2
tempo, x(t+τ ) è solitamente 0
0 0 0
0 0 0
0 0 0
Rx (τ ) = E[ x* (t ) x (t + τ )]
1
Risultato del calcolo
0.8
0.6
0.4
Nota: è evidente, dalla
0.2
definizione di
autocorrelazione, che per
0
τ
qualsiasi processo casuale
stazionario Rx(τ) è una
-0.2 funzione pari, cioè
Rx(-τ)=Rx(τ)
-0.4
-4 -2 0 2 4
18 PROCESSI CASUALI
Proprietà dell’autocorrelazione
[ ]
N
Rx (0 ) = E x (t ) = E [Px ] = P ≈ ∑ x (t )
2 1 2
i
N i =1
Rx (τ ) ≤ Rx (0)
4. Dato un processo y(t) con media µy possiamo scrivere y(t)=x(t)-µy, ove x(t) è un
processo a media 0. Vale la seguente relazione
R y (τ ) = Rx (τ ) + µ y2
19 PROCESSI CASUALI
[
C x (τ ) = E ( x (t ) - µ x )
*
(x(t + τ ) - µx ) ] = Rx (τ ) − µ x 2
Per un processo a valor medio nullo, l’autocovarianza coincide con
l’autocorrelazione
[ ]
C x (0 ) = E | x (t ) - µ x |2 = Rx (0 ) − µ x = σ x2
2
20 PROCESSI CASUALI
Il coefficiente di correlazione (1)
ρx (τ) = x =
[
C (τ ) E (x(t) −µx ) (x(t +τ) −µx ) Cx(τ )
*
= 2
]
Cx(0) [
E | x(t) −µx |2
σx ]
C x (τ )
ρ x (τ ) = ≤1 ρ x (0) = 1
C x (0)
21 PROCESSI CASUALI
Seρρxx(τ)=±1:
••Se (τ)=±1:x(t) x(t+ττ))sisidicono
x(t)eex(t+ diconocompletamente
completamentecorrelati,
correlati,c’è
c’èun
unlegame
legame
deterministico fra i due campioni e quindi
deterministico fra i due campioni e quindi è possibile predire è possibile predire
perfettamente
perfettamenteililvalore
valoredell’uno
dell’unonoto notoililvalore
valoredell’altro.
dell’altro.
ρ (τ)=0 [cioè se C (τ)=0]: x(t) e x(t+ τ
Se ρxx(τ)=0 [cioè se Cxx(τ)=0]: x(t) e x(t+τ) sono incorrelati,
••Se ) sono incorrelati, non
non èè possibile
possibile
predire il valore dell’uno noto il valore dell’altro.
predire il valore dell’uno noto il valore dell’altro.
22 PROCESSI CASUALI
Una semplice dimostrazione del legame
correlazione/predicibilità
Consideriamo il processo casuale stazionario a valor medio nullo x(t). Indichiamo per
brevità con x1 e x2 le due variabili casuali x(t1) e x(t2) e per semplicità assumiamo x1 e x2
reali. Dimostreremo che:
1 - quanto più due variabili casuali x1 e x2 (a valor medio nullo) sono correlate, tanto
meglio possiamo stimare dall’una il valore dell’altra.
Dire che la variabile casuale x2 è correlata con la variabile casuale x1 equivale a dire
che il valore assunto da x2 è in parte proporzionale a quello assunto da x1 più una
variabile casuale indipendente da x1 e quindi non predicibile. In breve:
x2 = rx1 + n
dove n è una variabile casuale indipendente da x1, a valore medio nullo e varianza
σ n2 = E[n 2 ]
23 PROCESSI CASUALI
La stazionarietà del processo ci dice che la varianza σ2 delle due variabili casuali x1 e x2 è
la medesima, imponendo un legame tra la varianza di n e il coefficiente r.
In formule abbiamo:
[ ] [ ]
E x12 = E x22 = σ 2 ⇒ E [x ] = E [(rx + n ) ] = σ
2 2 2
2 1
r E [x ]+ E [n ]+ 2r E [x n] = σ
2 2 2
⇒ r σ + E [n ] = σ
2 2 2 2 2
1
123 1
=0
da cui: perchè indipendenti
σ n2 = (1 − r 2 )σ 2
Piu’ |r| è prossimo a 1, piu’ σn2 è piccolo e tanto meno x1 si discosta da x2.
Si può dimostrare che il coefficiente di correlazione fra x1 e x2 è uguale a r:
ρ x (τ ) = E [x1 x2 ] / E [x12 ] = r
Infatti:
E [x1 x2 ] = E [x1 (rx1 + n )] = rE x12 [ ]
Piu’ il coefficiente di correlazione è in modulo prossimo a 1, piu’ x2 è predicibile da x1.
24 PROCESSI CASUALI
Stima lineare di x2 da x1 (predire il futuro)
Conoscendo il valore assunto da x1, cerchiamo di predire al meglio (stimare) il
valore che assumerà x2 cercando il coefficiente di proporzionalità a
xˆ 2 = ax1
Il valore ottimo di a si ha se la differenza (in media quadratica) tra il valore
stimato e il valore effettivamente assunto da x2 è minima, cioè se è minimo
[ )
] [
E ( x2 − x2 ) 2 = E ( x2 − ax1 ) 2 ]
Derivando rispetto ad a e uguagliando a zero si ottiene il valore ottimo di a
[ ]
a = E [x1 x2 ] / E x12 = r
Il valore ottimo di a coincide, ovviamente, con il coefficiente r, infatti:
[ ]
a = E [x1 x2 ] / E x12 = ρ x (τ )
Questa considerazione ci consente di definire una procedura per stimare al
meglio il valore che assumerà x2 una volta noto il valore assunto da x1
E [x (t ) x (t + τ )] N N
ρ x (τ ) = ≈ ∑ xi (t )xi (t + τ ) ∑ x (t )2
i
E[ x 2 (t )] i =1 i =1
xˆ (t + τ ) = ρ x (τ ) x (t )
26 PROCESSI CASUALI
L’errore di stima
Si nota che l’errore di stima, essendo causato solo dalla variabile casuale n, ha
valore quadratico medio pari a quello di n
[ )
] [
E ( x2 − x2 ) 2 = E ( x2 − ax1 ) 2 = σ x2 (1 − r 2 ) ]
Da questa espressione si capisce subito che:
Infine, è importante notare che l’errore di stima è incorrelato con il dato (x1),
infatti:
]
E [x1 ( x2 − ax1 )] = E x1 x2 − ax12 = [
= E [x x ] − aE [x ] = rE [x ] − rE [x ] = 0
1 2
2
1
2
1
2
1
27 PROCESSI CASUALI
Autocorrelazione temporale
T /2 T /2
1 1
ℜ x (τ ) = lim ∫x ( t ) x T ( t + τ ) dt ℜ x ( 0 ) = lim ∫| x ( t ) |2 dt = Px
*
T T
T →∞ T T →∞ T
−T / 2 −T / 2
E [η x ] = µ x
E [ℜ x (τ )] = R x (τ )
E [ℜ x ( 0 )] = E [ Px ] = R x ( 0 ) = P = potenza del processo
28 PROCESSI CASUALI
Processi casuali ergodici
Tra i processi casuali stazionari esistono alcuni processi per i quali si possono ricavare
la densità di probabilità e la funzione di autocorrelazione da una sola realizzazione.
Questi processi sono detti ERGODICI.
potenza.
Il valor medio temporale coincide col valor medio di insieme (processo ergodico per la
media).
L’autocorrelazione temporale coincide con l’autocorrelazione di insieme (processo
ergodico per l’autocorrelazione).
T /2
1
η x = lim
T →∞ T ∫x
−T / 2
T ( t ) dt = µ x
T /2
1
ℜ x (τ ) = lim ∫x ( t ) x T ( t + τ ) dt = R x (τ )
*
T
T →∞ T
−T / 2
31 PROCESSI CASUALI
y (t ) = x (t ) − µ y
Ove x(t) è un processo a media 0.
R y (τ ) = Rx (τ ) + µ y
2
S y (τ ) = S x (τ ) + µ y δ ( f )
2
33 PROCESSI CASUALI
e simmetricamente intorno a -f0. La potenza di y(t), cioè la potenza di x(t) nelle bande ∆f ,
è data da
+∞
P=
−∞
∫S y ( f ) df = 2S x ( f 0 ) ∆ f
S y ( f ) = Sx ( f ) ⋅ H ( f )
2
35 PROCESSI CASUALI
∞ ∞
Py = ∫ S y ( f )df = ∫ S x ( f ) ⋅ H ( f ) df
2
−∞ −∞
6. La varianza del processo in uscita dipende dalla densità spettrale di potenza e dal valor
medio del processo d’ingresso e dalla risposta in frequenza del sistema LTI:
∞ ∞
σ = Py − µ y = ∫ S y ( f )df − µ y = ∫ S x ( f ) ⋅ H ( f ) df − µ x H (0 )
2 2 2 2 2 2
y
−∞ −∞
36 PROCESSI CASUALI
Processi casuali bianchi (1)
Si definisce bianco (a valor medio nullo) un processo casuale stazionario con densità
spettrale di potenza costante.
Quindi un processo casuale bianco (a valor medio nullo) ha autocorrelazione
impulsiva.
Si tratta, evidentemente, di una idealizzazione (anche la luce che diciamo “bianca”, da cui
deriva il nome, ha spettro che non si estende all’infinito). Notiamo che un processo
veramente bianco avrebbe potenza infinita!
Nel mondo reale osserviamo solo processi filtrati (con banda più o meno larga). Se la
banda del processo in ingresso è più larga di quella del filtro, possiamo assegnare valori
arbitrari alla densità spettrale fuori banda (senza che cambino i risultati del calcolo). Un
valore costante è il più comodo dal punto di vista matematico.
37 PROCESSI CASUALI
2 x(t)
Rx(τ)
0
Sx(f)
-2 N0/2
0 100
N0/2
px(a) τ f
-5 0 5
Nota: autocorrelazione impulsiva significa che il valore x(t+τ) del processo bianco al
tempo t+τ è assolutamente impredicibile dal valore x(t) all’istante t : il processo varia in
modo infinitamente rapido!
Se il processo bianco ha valor medio µx diverso da zero, si ha Sx(f)=(N0/2)+|µx|2 δ(f) e
Rx(τ)= (N0/2)δ(τ)+|µx|2
38 PROCESSI CASUALI
Processi casuali bianchi (3)
Solitamente la densità spettrale (bilatera) di un processo casuale x(t) bianco viene indicata
con Sx(f)=N0/2 e quindi la funzione di autocorrelazione con Rx(τ)= N0/2 δ(τ)
Nota: si indica quindi con N0 la densità spettrale di potenza unilatera.
E’ importante saper calcolare la potenza di un processo y(t) ottenuto da un processo bianco
x(t) attraverso un filtro con risposta all’impulso h(t) e risposta in frequenza H(f). Si ha
+∞ +∞
σ = ∫ S y ( f )df = ∫ Sx ( f ) H ( f ) df =
2 2
y
−∞ −∞
+∞ +∞
N N
= 0 ∫ Sx ( f ) H ( f ) df = 0 ∫ h2 (t )dt
2
2 −∞ 2 −∞
39 PROCESSI CASUALI
T /2
ℜ yx (τ ) = Tlim 1
→∞ T ∫ y * ( t ) x ( t + τ )dt = R yx (τ )
−T / 2
Se i due processi casuali y(t) e x(t) sono rispettivamente l’uscita e l’ingresso di un sistema
LTI la loro correlazione è uguale alla convoluzione tra l’autocorrelazione dell’ingresso e la
risposta all’impulso del sistema LTI:
R yx (τ ) = R x (τ ) ∗ h (τ )
Si nota che se il processo d’ingresso è bianco (autocorrelazione impulsiva), la correlazione
tra uscita e ingresso coincide con la risposta all’impulso del sistema.
R yx (τ ) = δ (τ ) ∗ h (τ ) = h (τ )
Questa proprietà è spesso utilizzata nei sistemi di telecomunicazione per stimare la
risposta impulsiva del canale di trasmissione che è ignoto a priori.
40 PROCESSI CASUALI
Correlazione tra uscita e ingresso bianco
h(t) ?
Processo correlato
h(τ)
T /2
ℜ yx (τ ) = Tlim 1
→∞ T ∫ y * ( t ) x ( t + τ )dt = se Sx(f)=1 e
−T / 2 quindi Rx(τ)=δ(τ)
41 PROCESSI CASUALI
∞
x(t ) = ∑ a δ (t − nT − τ )
n = −∞
n
x1(t)
T τ
t
x2(t)
T τ t
42 PROCESSI CASUALI
Un esempio importante di processo bianco (2)
2. La varianza è: σ 2 / T
43 PROCESSI CASUALI
Se il processo casuale x(t) passa attraverso un sistema LTI con risposta in frequenza
H(f) e risposta all’impulso h(t), in uscita si ottiene un processo y(t) con:
h(t) y1(t)
T τ
t
f f f
44 PROCESSI CASUALI
Il processo casuale y(t) costruito nel modo indicato precedentemente può essere
usato per rappresentare (nel tempo) una sequenza casuale di bit. Ciascuno di essi
sarà codificato, ad esempio, con un impulso rettangolare, di base T, ed ampiezza:
+A (“1”) o -A (“0”):
h(t) y1(t)
A
+1 +1 +1 +1
-1 T -1 τ -1
T t
f f f
h(t ) = A ⋅ rect (t / T )
Sx ( f ) = 1 / T S y ( f ) = A2T ⋅ sinc2 (Tf )
H ( f ) = AT ⋅ sinc(Tf )
45 PROCESSI CASUALI