Sei sulla pagina 1di 51

Introduzione ai Segnali Aleatori

Ernesto Conte

9 marzo 2007
ii
Indice

1 Segnali aleatori 1
1.1 Segnali aleatori: definizione e classificazione . . . . . . . . . . . . . 1
1.2 Caratterizzazione statistica di segnali aleatori . . . . . . . . . . . . . 3
1.2.1 Caratterizzazione di i-esimo ordine . . . . . . . . . . . . . . 3
1.2.2 Caratterizzazione sintetica . . . . . . . . . . . . . . . . . . . 8
1.3 Segnali aleatori stazionari . . . . . . . . . . . . . . . . . . . . . . . . 12
1.4 Caratterizzazione congiunta . . . . . . . . . . . . . . . . . . . . . . . 14
1.5 Processi complessi . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.6 Processi gaussiani . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.7 Ergodicità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.8 Caratterizzazione energetica dei segnali . . . . . . . . . . . . . . . . 20
1.8.1 Segnali di energia e di potenza . . . . . . . . . . . . . . . . . 20
1.8.2 Densità spettrali di energia e di potenza . . . . . . . . . . . . 22
1.8.3 Segnali PAM . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.9 Legami Ingresso Uscita per sistemi LTI . . . . . . . . . . . . . . . . 34
1.9.1 Analisi dei sistemi LTI nel dominio del tempo . . . . . . . . . 35
1.9.2 Legami ingresso uscita per le PSD . . . . . . . . . . . . . . . 39
1.10 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

iii
iv
Capitolo 1

Segnali aleatori
1.1 Segnali aleatori: definizione e classificazione
Un segnale aleatorio (s.a.) X(t) è una famiglia di v.a.

{X(t), t ∈ T}

con insieme di indici T, tutte definite sullo stesso spazio campione {Ω, E, P }.
L’insieme degli indici T è usualmente denominato insieme dei tempi, essendo que-
sto il caso più comune; conseguentemente, se T è discreto, tipicamente in tal caso
T = N o T = Z, il s.a. si dice a tempo discreto; analogamente, si dice a tempo conti-
nuo se T è continuo e, in tal caso, di norma, T = R o T = R+ = [0, +∞). I segnali
a tempo discreto sono pertanto le successioni di v.a. e, nel caso particolare di insieme
dei tempi finito, cioè:
T = Nn , {1, 2, . . . n}
il s.a. si riduce ad ve.a.. Inoltre, se l’insieme dei tempi è non negativo (N o R+ ) il
segnale è detto monolatero, altrimenti esso è bilatero.
I s.a., oltre che con riferimento all’insieme dei tempi, si classificano anche sulla
scorta del tipo di v.a. che lo costituiscono: precisamente {X(t), t ∈ T} si dice ad
ampiezza discreta se i suoi campioni sono v.a. discrete, mentre si dice ad ampiezza
continua, o analogico, se i suoi campioni sono v.a. continue.
Se, fissato ω ∈ Ω, si considerano tulle le determinazioni delle v.a. {X(t), t ∈
T} si ha una funzione reale del tempo, diciamola x(t): tale funzione è denominata
realizzazione, o determinazione o funzione membro, del s.a. X(t). In altri termini il
s.a. può anche essere definito come la corrispondenza

X : ω ∈ Ω −→ x(t) ∈ RT

ove RT denota l’insieme di tutte le funzioni reali definite in T 1 . Infine, fissato ω ∈ Ω e


u in generale, considerati due insiemi A e B con B A si denota l’insieme di tutte le funzioni definite
1 Pi`

in A ed a valori in B

1
6
x(t, ω)

t1 -
t2 t
ω1

ω2
ω

Figura 1.1: Rappresentazione grafica di un segnale aleatorio.

t ∈ T, si ha un numero reale: in altri termini il s.a. è una funzione di due variabili una
ω ∈ Ω e l’altra t ∈ T, cioè:

X : (ω, t) ∈ Ω × T −→ x(t) ∈ R

In conclusione un s.a. può essere riguardato come un insieme di funzioni del tempo
o come una famiglia di v.a.; in ogni caso va tenuto presente che la notazione X(t) pu ò
avere quattro diversi significati e cioè (fig. 1.1):

• una famiglia di funzioni del tempo ovvero una famiglia di v.a. (t e ω variabili),
cioè il segnale aleatorio;

• una singola funzione del tempo (t variabile e ω fissato); cioè una funzione
membro del segnale aleatorio;

• una variabile aleatoria (t fissato e ω variabile);

• un semplice numero (t e ω fissati);

l’effettiva interpretazione di X(t) va dedotta di volta in volta dal contesto.

Esempio 1 Generatore di forme d’onda.

Si consideri lo spazio campione

Ω = Nn , {1, 2, . . . n}

con la legge di probabilità definita dall’equiprobabilità degli eventi elementari; allora

X: k∈Ω −→ xk (t) ∈ RR (1.1)

ove xk (t), k = 1, 2, . . . n, sono n funzioni del tempo è un segnale X(t) aleatorio


tempo continuo, bilatero, ed ad ampiezza discreta. J

2
Esempio 2 Sinusoide a fase uniforme

Sia Ω = [0, 2π) con legge di probabilità uniforme (la probabilità di un sotto-intervallo
di [0, 2π) è proporzionale alla lunghezza dell’intervallo); allora

X: θ∈Ω −→ A cos[2πf0 t + θ] ∈ RR (1.2)

è un segnale aleatorio X(t) tempo continuo, bilatero, ed ad ampiezza continua. J

Esempio 3 n−sima cifra frazionaria della rappresentazione binaria di x ∈ [0, 1)

Sia Ω = [0, 1) con legge di probabilità uniforme (la probabilità di un


sotto-intervallo di [0, 1) è proporzionale alla lunghezza dell’intervallo); allora

n − sima cifra frazionaria della
X : (x, n) ∈ Ω × N −→ (1.3)
rappresentazione binaria di x ∈ [0, 1)

è un segnale aleatorio tempo discreto, monolatero, ed ad ampiezza continua, ovvero è


una successione di v.a. binarie. J

1.2 Caratterizzazione statistica di segnali aleatori


1.2.1 Caratterizzazione di i-esimo ordine
L’interpretazione di un s.a. come famiglia di v.a. è particolarmente utile nel definirne la
caratterizzazione probabilistica. Infatti questa consiste nell’assegnare la distribuzione
di probabilità (in alternativa CDF, pdf o pmf ) di ordine i PX(t1 )X(t2 )···X(ti ) (·), del
ve.a.  
X(t1 )
 X(t2 ) 
 
Xt i ≡ X t ≡ X ≡  .. , (1.4)
 . 
X(ti )
ottenuto campionando il s.a. X(t), comunque si scelgano gli i istanti di campionamen-
to  
t1
 t2 
 
ti ≡ t ,  .  ∈ T (1.5)
 .. 
ti
e per ogni valore di i ∈ N. Si noti che la notazione Xti evidenzia la dipendenza
del ve.a. dagli i istanti di tempo e da i stesso. Tuttavia, nel seguito, quando non è
necessario sottolineare tali dipendenze si utilizzeranno le notazioni semplificate X t o
X. Considerazioni analoghe valgono per ti e t

3
In altri termini, un s.a. si caratterizza se si assegna la caratterizzazione dei vettori
di dimensione finita, ma arbitraria, comunque estratti dal s.a.. Ad esempio, supposto,
per fissare le idee, il segnale ad ampiezza continua occorre assegnare la successione di
pdf congiunte:

fXti (x; t) ≡ fX(t1 ),X(t2 )...X(ti ) (x1 , x2 , . . . , xi ; t1 , t2 , . . . ti ) i∈N (1.6)

ove  
x1
 x2 
 
x= ..  ∈ Ri (1.7)
 . 
xi
è il vettore dei valori che il ve.a. dei campioni considerati (1.4) può assumere. Notiamo
esplicitamente che la notazione utilizzata evidenzia che la pdf congiunta di ordine i del
s.a. X(t) dipende anche dagli i istanti di tempo considerati, come del resto è ovvio in
quanto al variare di tali istanti si ottiene un diverso ve.a..
Se è assegnato lo spazio di probabilità {Ω, E, P (·)} ed il s.a. X(t) allora, almeno
in linea di principio, si possono calcolare le distribuzioni di probabilità del vettore dei
campioni (1.4) comunque lo si scelga.

Esempio 4 n−sima cifra frazionaria della rappresentazione binaria di x ∈ [0, 1)

Si riprenda in esame il processo X(n) dell’esempio 3: iniziamo col determinare


la pmf del primo ordine, di X(1) cioè della prima cifra frazionaria. Dalla definizio-
ne di tale s.a. segue immediatamente che X(1), e più in generale X(n), è una v.a.
bernoulliana; inoltre si ha:
(
P ({x ∈ [0, 1) : x ∈ [0, 0.5)}) = 21 se j = 0
P ({X(1) = j}) =
P ({x ∈ [0, 1) : x ∈ [0.5, 1)}) = 21 se j = 1

per cui in definitiva risulta:  


1
X(1) ∼ B 1,
2
Analogamente si calcola la distribuzione di X(n); precisamente si ha:
(
1
P ({x ∈ [0, 1) : x ∈ A0 }) = 2 se j = 0
P ({X(n) = j}) =
1
P ({x ∈ [0, 1) : x ∈ A1 }) = 2 se j = 1
ove:
n−2 n−1
A0 = [0, 21n ) ∪ [ 22n , 23n ) ∪ · · · ∪ [ 2 2n , 2 2n )
n−1
A1 = [ 21n , 22n ) ∪ [ 23n , 24n ) ∪ · · · ∪ [ 2 2n , 1)

4
In altri termini l’evento {X(n) = j} è la probabilità che X(n) assuma valori nel plu-
rintervallo Aj che, indipendentemente da j e da n, ha lunghezza 21 e quindi probabilità
1
2 . Pertanto la pmf del prim’ordine è:

1
pX(n) (x) = x ∈ {0, 1}
2
ovvero sinteticamente:
 
1
X(n) ∼ B 1, ∀n ∈ N
2
Si noti che per il s.a. in esame la pmf del 1o ordine non dipende dall’istante di
tempo considerato: in altri termini i campioni del segnale sono v.a. identicamente
distribuite.
Per la caratterizzazione di ordine superiore occorre valutare probabilità congiunte
del tipo:
P ({X(n1 ) = j1 } ∩ {X(n2 ) = j2 } ∩ · · · ∩ {X(ni ) = ji })
A tal fine, per fissare le idee, valutiamo la

P ({X(1) = 1} ∩ {X(2) = 0} ∩ {X(3) = 1})

Come è immediato verificare risulta:


1
P ({X(1) = 1} ∩ {X(2) = 0}) = 4
1
P ({X(1) = 1} ∩ {X(2) = 0} ∩ {X(3) = 1}) = 8

Poiché inoltre
1 1 1
P ({X(1) = 1}) = P ({X(2) = 0}) = P ({X(3) = 1}) =
2 2 2
gli eventi considerati sono statisticamente indipendenti. Con considerazioni analoghe
è possibile dimostrare che comunque si estraggano v.a. dal processo in esame que-
ste risultano statisticamente indipendenti. Conseguentemente la pmf congiunta di i
campioni è data semplicemente dal prodotto delle i pmf marginali; in altri termini si
ha:
pX(n1 ),X(n2 )···X(ni ) (j1 , j2 · · · ji ; n1 , n2 , · · · ni ) =
Y i
1 (1.8)
pX(nk ) (jk ; nk ) = i
2
k=1

Si noti che la pmf congiunta dipende solo dal numero i di campioni considerati
idipendentemente dagli istanti in cui tali campioni sono presi, J

Riguardare un s.a. come una famiglia di segnali deterministici risulta particolar-


mente utile se è possibile fornire un’espressione analitica del s.a. in termini di una o

5
più v.a.: tale, ad esempio, è il caso della sinusoide a fase aleatoria dell’esempio 2, che
può, equivalente, essere definita in modo come segue:

X(t) = A cos[2πf0 t + Θ] , Θ ∼ U(0, 2π) (1.9)

Più in generale per tale tipo di segnali, detti anche segnali a parametri aleatori, si ha
X(t) = g(t; Y) ove Y è un ve.a. di assegnata pdf congiunta. In questo caso la carat-
terizzazione probabilistica del segnale aleatorio può ottenersi da quella dei parametri
con le tecniche di trasformazioni di ve.a.
Non sempre i s.a. sono assegnati a partire dallo spazio di probabilità che sotten-
dono: infatti possono essere assegnati direttamente dando una famiglia di distribuzio-
ne di probabilità consistente. Invero sussiste il seguente teorema che ci limitiamo ad
enunciare:
Teorema di estensione di Kolmogorov: Assegnata una famiglia consistente di distri-
buzioni (CDF, pdf o pmf ) di ordine i PX(t1 )X(t2 )···X(ti ) (·), comunque scelto i ∈ N
e comunque scelti gli istanti di tempo t1 , t2 , · · · ti ∈ T, esiste un processo aleatorio
consistente con tale famiglia.

Esempio 5 Processo di Bernoulli

Un processo di Bernoulli è una successione di v.a. binarie iid

X(n) ∼ B(1, p), ∀n ∈ T

ed è quindi un s.a. tempo discreto ed ad ampiezza discreta; inoltre X(n) è un processo


di Bernoulli monolatero se T = N, mentre è bilatero se T = Z.
Considerati i campioni consecutivi del processo:
 
X(k)
 X(k + 1) 
 
X= .. ,
 . 
X(k + i − 1)
posto  
x0
 x1 
 
x= ..  ∈ {0, 1}i
 . 
xi−1
la loro pmf congiunta vale:
j=i−1
Y  
pX (x; i) = pxj (1 − p)1−xj = pw(x) (1 − p)i−w(x)
j=0
j=i−1 (1.10)
X
ove w(x) , xi
j=0

6
Come è immediato verificare, la successione di tali pmf è consistente: pertanto essa, a
norma del Teorema di Kolmogorov, definisce un segnale aleatorio.
Si osservi che la pmf congiunta dipende dal numero i dei campioni considerati,
ma non dall’istante iniziale k. Inoltre, aver considerato i campioni consecutivi non è
limitativo perché la pmf congiunta dei campioni, per l’indipendenza è data dal pro-
dotto delle pmf marginali dei singoli campioni; inoltre, essendo le v.a. identicamente
distribuite, tale pmf marginale non dipende dagli istanti di tempo in cui i campioni so-
no presi. In conclusione la pmf congiunta è data in ogni caso dalla (1.10), ove X è il
vettore di i campioni comunque scelti.
Tipicamente un processo di Bernoulli è associato ad un esperimento aleatorio con-
sistente in una serie infinita di prove relative al verificarsi o meno di un evento E nella
generica prova; ogni prova può, quindi, avere due esiti, convenzionalmente denominati
successo S ed insuccesso I. Le successive prove sono indipendenti e sono effettuate
sotto identiche condizioni, la probabilità di successo in una generica prova è p, la pro-
babilità di insuccesso è q = 1 − p. Ad esempio, se l’esperimento è una serie di lanci
di una moneta ben bilanciata allora p = q = 0.5; se l’esperimento è l’osservazione del
comportamento delle autovetture a un dato bivio assumendo come successo la svolta a
destra, e se si osserva che la percentuale di autovetture che svoltano a destra nel lungo
termine è 62% allora p = 0.62; se l’esperimento consiste nell’osservare la n-sima cifra
frazionaria di un numero reale x scelto a caso in [0, 1) allora p = q = 0.5. All’espe-
rimento è associato un segnale X(n) nel seguente modo: X(n) = 1 se nell’ennesima
prova si è avuto un successo, altrimenti X(n) = 0, in altri termini X(n) e l’indica-
tore dell’evento E relativamente all’ n-sima prova: il segnale che cosı̀ si ottiene è un
processo di Bernoulli.
Notiamo esplicitamente che il processo di Bernoulli assegnato direttamente descri-
ve svariati esperimenti tutti però riconducibili allo schema precedentemente delineato
(processi aleatori equivalenti). J

Esempio 6 Successioni di v.a. indipendenti

Si osservi che la proprietà fondamentale del processo di Bernoulli, e cioè la possibi-


lità di caratterizzare il segnale aleatorio a partire dalla caratterizzazione del singolo
campione, deriva dall’indipendenza statistica dei suoi campioni e quindi vale, mutatis
mutandis, più in generale per le successioni di v.a. indipendenti. Supposto, ad esempio,
il segnale ad ampiezza continua la pdf congiunta di ordine i e data da:

fX(n1 ),X(n2 )...X(ni ) (x1 , x2 , . . . , xi ; n1 , n2 , . . . ni ) =


(1.11)
= fX(n1 ) (x1 ; n1 )fX(n2 ) (x2 ; n2 ) · · · fX(ni ) (xi ; ni )

Notiamo esplicitamente che, come evidenzia la notazione utilizzata, la pdf dipende non

7
solo dalle i variabili reali x1 , x2 , . . . xi , ma anche dagli i istanti temporali, congruente-
mente con quanto visto in generale per un qualunque s.a.
Se le v.a. della successione oltre ad essere indipendenti sono anche identicamente
distribuite (successioni di v.a. iid) allora la pdf marginale del singolo campione non
dipende dal tempo, dovendo essere sempre la stessa per un qualunque valore dell’indice
della successione; conseguentemente anche la pdf congiunta non dipende dagli istanti
di tempo considerati. J

1.2.2 Caratterizzazione sintetica


Non sempre è disponibile la caratterizzazione completa, o per lo meno quella di ordi-
ne i, di un segnale aleatorio; inoltre in diversi problemi la caratterizzazione completa
del segnale non è necessaria: in tali situazioni, si può far ricorso ad una caratteriz-
zazione sintetica dello stesso, cioè in termini di alcune funzioni che ne descrivono il
comportamento medio.
La prima di tali funzioni è la media statistica µX (·) del segnale X(·), cioè la
funzione:
µX (t) = E[X(t)] t∈T
in altri termini la media del processo è la media statistica della v.a. X(t) in funzione
dell’istante di campionamento t ∈ T.
Analogamente si definiscono il valor quadratico medio X 2 (·) (o valore m.s.), il
2
valore efficace (o valore rms) Xrms (·) e la varianza σX (·) di X(·)
p
X 2 (t) = E[X 2 (t)] Xrms (t) = E[X 2 (t)]
t∈T
2
σX (t) = Var[X(t)] = E{[X(t) − µX (t)]2 }
Tali grandezze, come è immediato verificare, sono legate tra loro dalla relazione:
2
σX (t) = Var[X(t)] = X 2 (t) − µ2X (t)

La correlazione fra le v.a. X(t) e X(s), considerata come funzione di t ∈ T e s ∈ T, è


la funzione di autocorrelazione (acorf ) in tempo-tempo del segnale X(t)

rXX (t, s) = E[X(t)X(s)] t, s ∈ T (1.12)

Nel caso di sequenze, si preferisce utilizzare i simboli n e k per denotare i due istanti
considerati, per cui la funzione di autocorrelazione in tempo-tempo è

rXX (n, k) = E[X(n)X(k)] n, k ∈ T (T = N o T = Z)

La funzione di autocorrelazione rXX (t, s) gode delle seguenti proprietà:

8
P1. Il valore per t = s è il valore m.s. del segnale, cioè

rXX (t, t) = X 2 (t)

P2. La funzione di autocorrelazione al quadrato è maggiorata dal prodotto dei valori


m.s. , cioè
2
rXX (t, s) ≤ rXX (t, t)rXX (s, s)
conseguentemente è limitata se il valore ms è limitato.

P3. La funzione di autocorrelazione è simmetrica, cioè:

rXX (t, s) = rXX (s, t)

P4. La funzione di autocorrelazione è definita non negativa, cioè comunque si scelgano


n istanti di tempo t1 , t2 , . . . , ti e per ogni i ∈ N la matrice:

rXX (t1 , t1 ) rXX (t1 , t2 ) . . . rXX (t1 , ti )

rXX (t2 , t1 ) rXX (t2 , t2 ) . . . rXX (t2 , ti )

RX = .. .. ..
. . ... .

rXX (ti , t1 ) rXX (ti , t2 ) . . . rXX (ti , ti )

è definita non negativa.


Le proprietà P1 e P3 seguono banalmente dalla definizione (1.12) della funzione di
autocorrelazione; mentre la P3 è la disuguaglianza di Schwarz per variabili aleatorie.
Per quanto concerne la P4, è sufficiente osservare che RX è la matrice di correlazione
del ve.a. (1.4) cioè del vettore degli n campioni del processo X(t) e quindi, come tutte
le matrici di correlazione, è definita non negativa.
La covarianza tra due campioni del segnale aleatorio definisce, al variare degli
istanti di campionamento, la funzione di autocovarianza (a.cov.f); precisamente si ha

cXX (t, s) = Cov[X(t), X(s)] = E[X(t) − µX (t)][X(s) − µX (s)]}

per segnali a tempo continuo; per segnali a tempo discreto si preferisce la notazione:

cXX (n, k) = Cov[X(n), X(k)] = E{[X(n) − µX (n)][X(k) − µX (k)]}

In altri termini la funzione di autocovarianza del processo X(·) è la funzione di


autocorrelazione del processo centrato

Xa (·) = X(·) − µX (·)

e quindi gode delle stesse proprietà della funzione di autocorrelazione; inoltre tali
funzioni sono legate dalla relazione:

rXX (t, s) = cXX (t, s) + µX (t)µX (s) rXX (n, k) = cXX (n, k) + µX (n)µX (k)

9
Esempio 7 Successioni di v.a. indipendenti]

Iniziamo col considerare una successione X(n) di v.a. iid. Poiché, come precedente-
mente osservato, la caratterizzazione del segnale non dipende dal tempo, media, valore
rms e varianza del processo sono anch’essi indipendenti dal tempo, cioè:
2 2
µX (n) = µX Xrms (n) = Xrms σX (n) = σX (1.13)

2
ove µX , Xrms e σX sono, rispettivamente, media, valore rms e varianza della v.a. X(n).
In particolare se le v.a. sono binarie, cioè X(n) è un processo di Bernoulli, come è
immediato verificare, risulta:
√ 2
µX (n) = p Xrms (n) = p σX (n) = p(1 − p) = pq

Il calcolo dell’autocorrelazione di una successione di v.a. iid è immediato grazie


all’indipendenza, e quindi incorrelazione, tra i suoi campioni:
(
E[X 2 (n)] = Xrms
2
= σX 2
+ µ2X n = k
rXX (n, k) = E[X(n)X(k)] =
E[X(n)]E[X(k)] = µ2X n 6= k

o equivalentemente:
2
rXX (n, k) = µ2X + σX δ(n − k) (1.14)

Conseguentemente l’autocovarianza di una successione di v.a. iid vale:


2
cXX (n, k) = σX δ(n − k) (1.15)

in altri termini una qualunque sucessione di v.a. iid ha una funzione di autocovarianza
impulsiva. Si noti che la (1.15) afferma semplicemente che, essendo i campioni del
processo indipendenti, essi sono anche incorrelati, purché distinti (n 6= k).
Risultati analoghi sussistono per successioni di v.a. indipendenti, ma non necessa-
riamente identicamente distribuite. Invero, in questo caso, media, valore rms e varianza
del processo sono funzione dell’istante considerato. Analogamente autocorrelazione ed
autocovarianza hanno espressioni simili; precisamente si ha:
2
rXX (n, k) = µ2X (n) + σX (n)δ(n − k) (1.16)

Conseguentemente l’autocovarianza di una successione di v.a. indipendente vale


2
cXX (n, k) = σX (n)δ(n − k) (1.17)

Pertanto la funzione di autocovarianza è ancora impulsiva, in quanto, essendo i cam-


pioni del processo indipendenti, essi sono anche incorrelati, purché distinti (n 6= k),
ma la sua ampiezza dipende, in questo caso, dall’istante n. J

10
Esempio 8 Sinusoide a fase uniforme.

La media di una sinusoide a fase uniforme (1.9) si valuta semplicemente col


Teorema fondamentale per il calcolo della media: precisamente si ha:
Z 2π
1
µX (t) = E[A cos(2πf0 t + Θ)] = A cos(2πf0 t + α) dα = 0
0 2π

Analogamente si calcola il valore ms, coincidente con la varianza:

2
 
X 2 (t) = σX (t) = E A2 cos2 (2πf0 t + Θ) =
 
= 12 A2 + E 12 A2 cos(4πf0 t + 2Θ) = 12 A2

Per quanto riguarda la funzione di autocorelazione, coincidente con la funzione di


autocovarianza essendo la media nulla, si ha:

rXX (t, s) = E [A cos(2πf0 t + Θ)A cos(2πf0 s + Θ)] =


1 2
1 2 
= 2 A cos[2πf0 (t − s)] + E 2 A cos(2πf0 (t + s) + 2Θ)
1 2
= 2A cos([2πf0 (t − s)]

da cui, in definitiva, risulta:

1 2
rXX (t, s) = A cos([2πf0 (t − s)] (1.18)
2
Si noti che la funzione di autocorrelazione non dipende singolarmente dai due
istanti di tempo t ed s, ma solo dalla loro differenza τ = t − s. J

Spesso nel definire le funzioni di autocorrelazione e di autocovarianza anzicché


utilizzare come variabili indipendenti i due istanti temporali si preferisce far riferimento
al ritardo. Precisamente la funzione di autocorrelazione in tempo-ritardo è definita da:

rXX (t, τ ) = E[X(t)X(t − τ )] rXX (n, m) = E[X(n)X(n − m)]

In modo analogo si possono definire le funzioni di autocovarianza in tempo-ritardo.


Si osservi che con abuso di notazione sia l’autocorrelazione in tempo-tempo che
quella in tempo-ritardo vengono denotate con lo stesso simbolo rXX (·, ·); pertanto
la distinguibilità delle due funzioni è affidata esclusivamente ai simboli utilizzati per
denotare i due istanti di tempo (t ed s nel caso di segnali a tempo continuo e rispetti-
vamente n e k per le sequenze) ovvero il tempo ed il ritardo (t e τ nel caso di segnali
a tempo continuo e rispettivamente n e m per le sequenze): pertanto, tali variabili
temporali non sono variabili mute.

11
1.3 Segnali aleatori stazionari
Come precedentemente osservato, le varie caratterizzazioni probabilistiche prima in-
trodotte dipendendono dagli istanti di tempo considerati; cosı̀ ad esempio la pdf con-
giunta di ordine i (1.6) è funzione degli i valori che i campioni del s.a. possono assu-
mere, ma anche degli i istanti temporali. Se le varie caratterizzazioni di un s.a., almeno
in qualche misura, non sono affette dalla scelta dell’origine dei tempi, il segnale si dice
stazionario. Tuttavia occorre precisare questo concetto perché esistono diversi livelli
di stazionarietà.
Un segnale X(t), t ∈ T si dice stazionario in senso stretto, o semplicemente stazio-
nario, se i due segnali X(t) e X(t − T ) hanno la stessa caratterizzazione; la traslazione
T è arbitraria, ma l’istante t − T deve appartenere a T per qualsiasi t; in altri termini
deve aversi:
T : t − T ∈ T∀t (1.19)

Nel seguito riterremo sempre soddisfatte la condizione precedente anche se non lo


ricorderemo esplicitamente, nel senso che le traslazioni sono arbitrarie, ma devono
sempre dar luogo ad istanti di tempo appartenenti a T. Si noti che la condizione (1.19)
è sicuramente soddisfatta nel caso di s.a. bilateri (T = R o T = Z).
Sono, ad esempio, stazionari le successioni di v.a. iid: invero la loro caratterizza-
zione di ordine i (1.6) non dipende dal tempo ed è quindi invariante per traslazioni per
ogni i.
La caratterizzazione da prendere in considerazione per la stazionarietà in senso
stretto è quella di ordine comunque elevato. Poiché spesso per molti scopi è sufficien-
te la caratterizzazione del primo o del secondo ordine ha interesse definire anche la
stazionarietà di ordine i.
Un segnale X(t) si dice stazionario di ordine i se i segnali aleatori X(t) e X(t−T )
hanno la stessa caratterizzazione dell’i-esimo ordine. Si noti che se un s.a. è stazionario
di ordine i allora è possibile dimostrare che esso è anche stazionario di ordine k, ∀k ≤
i. In particolare, se un segnale è stazionario almeno del primo ordine, supposto, per
fissare le idee il segnale ad ampiezza continua, risulta:

fX(t) (x; t) = fX(t−T ) (x; t − T ) = fx (x) indipendente da t

quindi i suoi campioni sono v.a. identicamente distribuite; in tal caso, necessariamente:

µX (t) = µX indipendente da t (1.20)

cioè la media è indipendente dal tempo (più in generale lo sono tutti i momenti della
v.a. X(t)).

12
Analogamente, se un segnale è stazionario almeno del secondo ordine allora si ha:
fX(t1 ),X(t2 ) (x1 , x2 ; t1 , t2 ) = fX(t1 −T ),X(t2 −T ) (x1 , x2 ; t1 − T, t2 − T )
(1.21)
= fX(t1 −t2 ),X(0) (x1 , x2 ; t1 − t2 , 0)
e quindi la pdf del secondo ordine è funzione solo della differenza τ = t1 − t2 . Ne
segue che anche le funzioni di autocorrelazione e di autocovarianza dipendono soltanto
dalla differenza τ :
rXX (t1 , t2 ) = rXX (t1 − t2 , 0) , rXX (τ )
(1.22)
cXX (t1 , t2 ) = cXX (t1 − t2 , 0) , cXX (τ )
In molti casi, quando è sufficiente la caratterizzazione globale del segnale (cioè media
e autocorrelazione), siamo interessati soltanto al verificarsi della (1.20) e della (1.22);
ciò conduce ad una forma più debole di stazionarietà. Un segnale si dice stazionario in
senso lato (SSL o WSS) se la media è costante nel tempo (1.20) e l’autocorrelazione
o l’autocovarianza dipende soltanto dalla differenza tra i due istanti di tempo (1.22),
cioè dal ritardo τ . Ad esempio, la sinusoide a fase uniforme considerata nell’esempio
8, la cui media è nulla e la cui acf è data da (1.18), è SSL. Si osservi che, proprio per-
ché spesso l’ipotesi di stazionarietà in senso lato è soddisfatta, nel definire le funzioni
di autocorrelazione e di autocovarianza si preferisce far riferimento alla funzione di
autocorrelazione in tempo-ritardo anziché a quella in tempo-tempo.
Nel definire i vari tipi di stazionarietà le traslazioni considerate sono arbitrarie. Se
invece ci si limita a considerare solo traslazioni del tipo T = kT0 con k ∈ Z, cioè
traslazioni tutte multiple intere di un periodo fondamentale T0 purché ammissibili, si
ha la cosı̀ detta ciclostazionarietà.
Precisamente X(t) è ciclostazionario di ordine i se i due segnali X(t) e X(t−kT0 )
hanno la stessa caratterizzazione di ordine i per ogni k: in altri termini la pdf (rispet-
tivamente pmf ) congiunta di ordine i (e quindi a nche quelle di ordine inferiore) è
funzione periodica di periodo T0 . Un segnale si dice poi ciclostazionario se è ciclosta-
zionario di ordine i per ogni i. Ad esempio, la sinusoide a fase uniforme (esempio2),
come è immediato verificare, è ciclostazionaria di periodo T0 = |f10 | . Infine un s.a. si
dice ciclostazionario in senso lato se:
• la media del segnale è periodica di periodo T0 ;

• la funzione di autocorrelazione in tempo-tempo è funzione periodica di periodo


T0 nel senso che si ha:

rXX (t + kT0 , s + kT0 ) = rXX (t, s), ∀t, s ∈ T e ∀k ∈ Z

o, equivalentemente la funzione di correlazione in tempo-ritardo soddisfa la


condizione:

rXX (t + kT0 , τ ) = rXX (t, τ ), ∀t, t − τ ∈ T e ∀k ∈ Z

13
Notiamo infine che spesso la ciclostazionarietà, come illustrato dall’esempio della
sinusoide a fase uniforme, traduce una periodicità intrinseca del segnale.

1.4 Caratterizzazione congiunta


Spesso occorre considerare più di un segnale aleatorio. In tal caso, in aggiunta alla
caratterizzazione statistica dei singoli segnali, occorre anche precisare in che termini
i processi si influenzino statisticamente l’un l’altro. Facendo riferimento per sempli-
cità al caso di due soli segnali, supposti a tempo continuo, diciamoli X(t) e Y (t), la
caratterizzazione completa congiunta richiede la specificazione della CDF (in alterna-
tiva pdf o pmf a seconda che si tratti di segnali ad ampiezza continua o discreta) di un
numero arbitrario di campioni comunque scelti sia su X(t) che su Y (t).
Per quanto concerne la caratterizzazione sintetica oltre a fornire medie e funzioni di
autocorrelazione dei singoli segnali, occorre anche specificare il momento congiunto:

rXY (t, s) = E[X(t)Y (s)]

che prende il nome di funzione di mutua correlazione in tempo-tempo di X(t) e Y (t).


Tale funzione dipende dall’ordine con cui sono considerati i processi, ma la funzione
di mutua correlazione tra Y (t) e X(t) è legata a quella tra X(t) e Y (t) dall’ovvia
relazione di simmetria:
rY X (t, s) = rXY (s, t)
In alternativa si può considerare la funzione di mutua correlazione in tempo-ritardo:

rXY (t, τ ) = E[X(t)Y (t − τ )]

Analogamente si possono introdurre la funzione di mutua covarianza in tempo-tempo

cXY (t, s) = E{[X(t) − µX (t)][Y (s) − µY (s)]}

e la funzione di mutua covarianza in tempo-ritardo

cXY (t, τ ) = E{[X(t) − µX (t)][Y (t − τ ) − µY (t − τ )]}

Anche il concetto di stazionarietà può essere esteso a coppie di segnali aleatori in modo
ovvio. Ci limitiamo a considerare esplicitamente solo la stazionarietà in senso lato:
due segnali aleatori, X(t) e Y (t), si dicono congiuntamente stazionari in senso lato se
X(t) e Y (t) sono singolarmente SSL e se inoltre la loro funzione di mutua correlazione
(equivalentemente la funzione di mutua covarianza) dipende solo dal ritardo, cioè:

rXY (t, τ ) = rXY (τ )

Osserviamo infine che quanto esposto con riferimento ai segnali a tempo continuo vale
anche mutatis mutandis per le sequenze.

14
1.5 Processi complessi
È utile prendere in esame anche processi complessi:

Z(t) = X(t) + jY (t)

la cui caratterizzazione statistica equivale a caratterizzare congiuntamente la sua parte


reale X(t) ed il coefficiente dell’immaginario Y (t).
Per quanto concerne la caratterizzazione sintetica ci si limita spesso a considerare
la media del processo complesso:

µZ (t) = µX (t) + jµY (t)

e la funzione di autocorrelazione in tempo-tempo:

rZZ (t, s) = E[Z(t)Z ∗ (s)]

o la funzione di autocorrelazione in tempo-ritardo:

rZZ (t, τ ) = E[Z(t)Z ∗ (t − τ )]

Ora, assegnare la media del processo complesso è equivalente ad assegnare la media


della parte reale e del coefficiente dell’immaginario; ma assegnare l’autocorrelazione
rZ (·, ·) non è in generale equivalente ad assegnare l’autocorrelazione rXX (·, ·) della
parte reale e quella rY (·, ·) della parte immaginaria, nonché le loro mutue correlazioni
rXY (·, ·) e rY X (·, ·). All’uopo occorre anche specificare il momento congiunto:

RZZ (t, s) = E[Z(t)Z(s)]

Infatti, come è facile verificare, specificare la rZZ (·, ·) e la RZZ (·, ·) è equivalente a
specificare rXX (·, ·), rY Y (·, ·), rXY (·, ·) e la rY X (·, ·) e viceversa. Tuttavia spesso la
RZZ (·, ·) non viene presa esplicitamente in considerazione in quanto, per la maggior
parte dei processi di interesse, essa è identicamente nulla.
Qualora si considerino due (o più) processi complessi, diciamoli Z(t) e V (t),
occorre introdurre la funzione di mutua-correlazione in tempo-tempo:

rZV (t, s) = E[Z(t)V ∗ (s)]

o la funzione di mutua-correlazione in tempo-ritardo:

rZV (t, τ ) = E[Z(t)V ∗ (t − τ )]

Nel considerare i processi complessi si è fatto riferimento alle funzioni di auto e mutua
correlazione nonché alle forme d’onda: in modo ovvio si introducono anche le funzione
di auto e mutua covarianza e si estendono tali definizioni alle sequenze.

15
Osserviamo che la funzione di mutua correlazione compare naturalmente quando
si combinano tra loro più segnali. Ad esempio, l’autocorrelazione del segnale somma
Z(t) = X(t) + Y (t) è data da:

rZZ (t, s) = rXX (t, s) + rY Y (t, s) + rXY (t, s) + rY X (t, s)

Quindi l’incoerenza dei due segnali, cioè il soddisfacimento della

rXY (t, s) = 0 ∀ t, s ∈ T (1.23)

è condizione sufficiente per l’additività della funzione di autocorrelazione.

1.6 Processi gaussiani


Un categoria di processi la cui caratterizzazione statistica è molto semplice è quella dei
processi gaussiani, per i quali la pdf congiunta di ordine comunque elevato si ricava
dalla media e dalla funzione di autocovarianza.
Ricordiamo innanzitutto che N variabili aleatorie reali (rispettivamente un vettore)
 
X(0)
 X(1) 
 
X= .. 
 . 
X(N − 1)

si dicono congiuntamente gaussiane se la loro pdf congiunta è:

fX (u0 , u1 , · · · , uN −1 ) = fX (u) =  
= √ 1N exp − 21 (u−µ)T C−1 (u−µ) (1.24)
(2π) |C|

ove µ è il vettore delle medie:


T
µ = [µ0 µ1 · · · µN −1 ] µi , E[X(i)]

|C| e C−1 denotano rispettivamente il determinante e l’inversa della matrice di


covarianza C di X
C = E[(X − µ)(X − µ)T ]
cioè della matrice il cui elemento generico c(i, j) è la covarianza tra le variabili
aleatorie X(i) e X(j).
Per indicare sinteticamente che X è un vettore gaussiano, di media µ e matrice di
covarianza C, si adopera la notazione:

X ∼ N(µ, C)

16
Analogamente N v.a. complesse Z(0), Z(1), · · · , Z(N − 1), eventualmente organiz-
zate in un vettore complesso Z, si dicono congiuntamente gaussiane se tali sono le 2N
variabili aleatorie reali:

X(0), Y (0), X(1), Y (1), . . . , X(N − 1), Y (N − 1)

ove X(i) e Y (i) denotano rispettivamente la parte reale ed il coefficiente dell’imma-


ginario della v.a. complessa Z(i).
Ciò premesso, un segnale aleatorio X(·), reale o complesso, si dice gaussiano se,
considerati N campioni comunque scelti, questi, per ogni N , sono v.a. congiuntamente
gaussiane.
Dalla definizione segue che la conoscenza di valor medio µ(·) e funzione di autoco-
varianza cXX (·, ·) è sufficiente a caratterizzare completamente un processo gaussiano
X(·). Infatti, supposto per fissare le idee il processo tempo continuo, la pdf di N cam-
pioni X(ti ), i = 0, 1, . . . N − 1, arbitrariamente scelti è data dalla (1.24) ove il vettore
µ e la matrice C sono espressi in termini del valor medio del processo µX (t) e della
sua autocovarianza cXX (t, s) dalle relazioni

µX = µX (t) = [µX (t0 ) µX (t1 ) . . . µX (tN −1 )]T (1.25)


 
cXX (t0 , t0 ) cXX (t0 , t1 ) ··· c(XX t0 , tN −1 )
 cXX (t1 , t0 ) cXX (t1 , t1 ) ··· cXX (t1 , tN −1 ) 
 
C = C(t) =  . .. ..  (1.26)
 .. . ··· . 
cXX (tN −1 , t0 ) cXX (tN −1 , t1 ) · · · cXX (tN −1 , tN −1 )
Pertanto la pdf di ordine N del processo dipende dagli istanti di tempo considerati
solo tramite la media (1.25), il determinante e l’inversa della matrice di covarianza
C (1.26). Conseguentemente un processo gaussiano stazionario in senso lato è anche
stazionario in senso stretto poiché il vettore µX (1.25) è indipendente dal tempo e
il generico elemento c(i, j) = cXX (ti , tj ) della matrice di covarianza C (1.26) non
dipende separatamente da ti e da tj , ma solo dalla loro differenza ti − tj ; quindi la pdf
congiunta degli N campioni è invariante per traslazioni.
Si osservi che se gli N campioni considerati del processo gaussiano sono incorre-
lati essi sono anche indipendenti: in altri termini nel caso gaussiano incorrelazione è
equivalente ad indipendenza. Infatti se i campioni sono incorrelati allora la matrice di
covarianza (1.26) è diagonale; conseguentemente, esplicitando il prodotto matriciale
che costituisce l’argomento dell’esponenziale a secondo membro della (1.24), si ha

N −1
1 X [ui − µX (ti )]2

2 i=0 cXX (ti , ti )

17
e la pdf congiunta (1.24) diventa
N
Y −1  
1 1 [ui − µ(ti )]2
fX (u0 , u1 , . . . , uN −1 ) = p exp −
i=0
2πcXX (ti , ti ) 2 cXX (ti , ti )

cioè il prodotto delle pdf marginali dei singoli campioni X(ti ).


Interessa infine ricordare che ogni trasformazione lineare, con o senza memoria, di
un processo gaussiano dà luogo a variabili o a processi ancora gaussiani. In partico-
lare se l’ingresso di un sistema lineare temporalmente invariante o non, è un segnale
aleatorio gaussiano, allora anche l’uscita è un segnale aleatorio gaussiano, il sistema
cambia solo media ed autocovarianza del processo, ma non la forma della pdf dei suoi
campioni.

1.7 Ergodicità
La caratterizzazione probabilistica di un segnale aleatorio non è sempre disponibile:
in tali situazioni occorre misurare, sulla scorta di un adeguato numero di campioni del
segnale, le grandezze d’interesse.
Ad esempio, supposto per fissare le idee il segnale X(n) a tempo discreto, dovendo
valutarne la media statistica se ne valuta la media temporale sull’intervallo −N ≤ n ≤
N:
XN
1
µ
bN = X(n) (1.27)
2N + 1
n=−N

ovviamente tale media dipende dalla realizzazione utilizzata, e, quindi, è una v.a.; per
contro la media statistica del segnale:

µX (n) = E[X(n)]

dipenderà dall’istante di tempo considerato. Conseguentemente, condizione necessaria


affinché media temporale e media statistica coincidano è che la media temporale non
sia aleatoria e che la media statistica non dipenda dal tempo; quest’ultima condizione
è certamente soddisfatta se il segnale è stazionario.
Supposto, pertanto, che la media del segnale sia indipendente dal tempo, la media
statistica della media temporale, come è immediato verificare, vale:

µN ] = µX
E[b (1.28)

e, con facili passaggi, si ricava che la sua la varianza è data da:


N
X N
X
1
µN ] =
Var[b cXX (n, k) (1.29)
(2N + 1)2
n=−N k=−N

18
Pertanto la misura della media statistica, data dalla (1.27), è in genere affetta da un
errore aleatorio dato da
ε=µ bN − µX
la cui quantificazione è distinta in due contributi. Il primo è l’errore sistematico, detto
anche polarizzazione dello stimatore µ bN :

µ N ] − µX
E[ε] = E[b (1.30)

che nel caso in esame (si veda la 1.28) è nullo.


Il secondo contributo è la varianza dell’errore, coincidente con la varianza di µ
bN ,
la cui entità è inversamente proporzionale al quadrato del numero di osservazioni e
dipende anche dall’andamento della funzione di covarianza (vedi 1.29). Se (condizione
di ergodicità per la media):
N
X N
X
1
lim cXX (n, k) = 0 (1.31)
N →∞ (2N + 1)2
n=−N k=−N

allora la misura è mediamente corretta e l’errore m.s. può essere reso piccolo a piacere
aumentando il numero 2N + 1 dei campioni; in altri termini, µ bN converge alla media
statistica µX .
Risultati analoghi valgono se il segnale è a tempo continuo: in tal caso lo stimatore
della media statistica è: Z T
1
µ
bT = X(t)dt (1.32)
2T −T
Una semplice condizione sufficiente per l’ergodicita della media è espressa dal
seguente
Teorema Ergodico: condizione sufficiente affinché un segnale aleatorio SSL, avente
valore quadratico medio finito, sia ergodico per la media è che i suoi campioni siano
asintoticamente incorrelati, cioè che la sua autocovarianza sia infinitesima la crescere
della separazione temporale tra i campioni del segnale. Se invece i campioni sono
asintoticamente correlati, se cioè:

lim cXX (τ ) = c∞ 6= 0 lim cXX (m) = c∞ 6= 0


|τ |→∞ |m|→∞

allora il segnale aleatorio è necessariamente non ergodico per la media.


Si osservi che se X(n) è una sequenza SSL di v.a. incorrelate, cioè avente funzione
di autocovarianza impulsiva (1.15), in particolare se X(n) è una sequenza di v.a. i.i.d.,
allora la condizione (1.31) è soddisfatta e si ha quindi:
N
X
1
lim X(n) = µX (m.s.)
N →∞ 2N + 1
n=−N

19
Tale risultato è noto come Legge dei grandi numeri: pertanto la condizione di ergodicità
della media (1.31) generalizza alle sequenze correlate tale legge.
Più in generale si pone il problema di stabilire sotto quali condizioni una determi-
nata caratteristica probabilistica del segnale (media, valore m.s., funzione di autocor-
relazione, CDF, ecc.) possa essere misurata, con sufficiente accuratezza, come media
temporale di una funzione membro, eventualmente opportunamente pre-elaborata, su
di un’intervallo d’osservazione finito. Precisamente occorre stabilire in quali ipotesi la
media temporale di una opportuna funzione del segnale converga, in media quadratica,
alla grandezza di interesse al crescere del numero dei campioni; in altri termini occorre
stabilire, supposto il segnale tempo discreto, sotto quali ipotesi

< g[X(n)] >= E[g[X(n)]]

1.8 Caratterizzazione energetica dei segnali


1.8.1 Segnali di energia e di potenza
I segnali, e quindi anche i segnali aleatori, sono spesso classificati sulla scorta del loro
contenuto energetico. Precisamente si definisce l’energia di un segnale la quantità:
 Z

 |X(t)|2 dt segnale tempo continuo

 T
EX , X (1.33)

 2

 |X(n)| segnale tempo discreto
n∈T

Quando X(·) è aleatorio l’energia varia da realizzazione a realizzazione e, quindi, è


una v.a.; pertanto per carattarezzirare da un punto di vista energetico un s.a. se ne
considera l’energia media :
EX , E[EX ] (1.34)
Un segnale dicesi di energia se la sua energia media è finita e non nulla;
conseguentemente per un segnale di energia si ha:

P ({EX }) = +∞}) = 0

e quindi l’energia delle singole realizzazioni deve essere finita almeno con probabilità
uno.
Si noti che l’energia non è additiva, ma, come è facile verificare, l’energia del
segnale somma Z(·) = X(·) + Y (·) vale:

EZ = EX + EY + EXY + EY X (1.35)

20
ove EXY = EY∗ X è l’energia mutua, definita da:
 Z 

 E ∗
X(t)Y (t)dt segnale tempo continuo



 T
EXY , E[EXY ] = " # (1.36)

 X

 X(n)Y (n)∗
 E
 segnale tempo discreto
n∈T

L’energia mutua e da conto di come interagiscono i due segnali in termini energetici; se


l’energia mutua è nulla si ha che l’energia del segnale somma è la somma delle energie
ed i segnali si dicono ortogonali.
Se l’energia è infinita il segnale viene caratterizzato, da un punto di vista energetico,
dalla sua potenza. Ricordiamo che si definisce valor medio temporale, o semplicemente
valor medio se la dizione è non ambigua, la quantità:
 Z
 1


 lim |X(t)|2 dt segnale tempo continuo
 T →T T T
< X(·) > , (1.37)

 1 X
 lim
 |X(n)| 2
segnale tempo discreto
 N →T N
n

La potenza di un segnale è allora semplicemente la media temporale del segnale


modulo quadro
PX , < |X(·)|2 > (1.38)
Nel caso di segnali aleatori PX è a sua volta aleatoria per cui se ne considera il valor
medio:
PX , E[PX ] (1.39)
e si chiamano segnali di potenza i segnali per i quali la potenza media PX è finita e non
nulla; per tali segnali si ha
P ({PX = +∞}) = 0
e quindi la potenza delle singole realizzazioni deve essere finita (con probabilità uno).
Anche la potenza non è in genere additiva, ma vale una relazione analoga a quella
stabilita per l’energia; precisamente, la potenza del segnale somma:

Z(·) = X(·) + Y (·)

vale:
PZ = PX + PY + PXY + PY X
ove PXY = PY∗ X è la potenza mutua definita da:

PXY , E[PXY ] , E[< X(·)Y ∗ (·) >] (1.40)


| {z }
PXY

21
Si noti che, ipotizzando di poter scambiare le operazioni di media statistiica con
quella d’integrazione o di media temporale, nel caso di segnali d’energia si ha:
 Z

 rXX (t, t)dt segnale tempo continuo

 T
EX = X



 rXX (n, n) segnale tempo discreto
n∈T

ed analogamente nel caso di segnali di potenza:



 < rXX (t, t) > segnale tempo continuo
PX =

< rXX (n, n) > segnale tempo discreto

Se il segnale è stazionario almeno in senso lato,

rXX (t, t) = rXX (0), rXX (n, n) = rXX (0)

conseguentemente l’energia è infinita: in altri termini un segnale d’energia è neces-


sariamente non stazionario. Tale affermazione si giustifica anche sul piano intuitivo
se si tiene presente che le realizzazioni di un segnale di energia hanno energia finita
e, quindi, asintoticamente devono essere trascurabili il che contrasta con l’ipotesi di
stazionarietà. In altri termini i segnali stazionari almeno in senso lato sono segnali di
potenza e per tali segnali si ha:

PX = rXX (0) = E[|X(·)|2 ]

cioè la potenza è l’autocorrelazione nell’origine ovvero il valore m.s. del segnale.

1.8.2 Densità spettrali di energia e di potenza


Innanzi tutto ricordiamo che se x(t) e y(t) sono due segnali deterministici di energia
la loro energia mutua, per la relazione di Parseval, vale:
Z ∞ Z 1
2
Exy = X(f )Y ∗ (f )df Exy = X(ν)Y ∗ (ν)dν
−∞ − 21

che porta immediatamente ad interpretare la funzione integranda come spettro di ener-


gia mutua o densità spettrale di energia mutua (ESD mutua) di x(·) e y(·). Notiamo
esplicitamente che in questa definizione l’ordine dei due segnali è importante, dal mo-
mento che il secondo dei due spettri deve essere coniugato. Dunque l’ESD mutua è la
funzione
Sxy (·) , X(·)Y ∗ (·)

22
e ovviamente si ha
Sxy (·) = S∗yx (·)
Se i due segnali coincidono, allora si ottiene la densità spettrale d’energia:

Sxx (·) , |X(·)|2 (1.41)

Ricordiamo che la banda di un segnale è qualitativamente definita come la gamma


di frequenze contenente le componenti significative del segnale e può essere valutata in
base a considerazioni energetiche: precisamente, per i segnali di energia essa pu ò esse-
re definita come l’intervallo di frequenze in cui è allocata una determinata frazione del-
l’energia totale, ad esempio il 90%, il 95%, il 99%, ecc.; inoltre, se i segnali sono reali,
comunemente si prendono in esame solo le frequenze positive (banda monolatera).

Esempio 9 Impulso rettangolare

Sia x(t) un impulso rettangolare di ampiezza A e durata T ; ricordando che


 
t
AΠ ←→ AT sinc(f T )
T
si ottiene immediatamente la seguente espressione per l’ESD dell’impulso rettangolare

Sxx (f ) = Ex T sinc2 (f T )

ove Ex = A2 T è l’energia di x(t).


È interessante valutare la frazione di energia Ex (k)/Ex dell’impulso rettangolare
compresa nell’intervallo di frequenze
k k
− ≤f ≤ k = 1, 2, . . .
T T
Integrando l’ESD si ha:
Z k Z k
E(k) T
2
= T sinc (f T )df = 2 sinc2 (u)du
E k
−T 0

Valutando numericamente l’integrale si ha che per k = 1, cioè nel lobo principale, la


frazione di energia è pari al 90 %; includendo anche una coppia di lobi laterali (k = 2
la frazione di energia sale al 95 %, mentre per racchiudere il 99 % dell’energia occorre
portare in conto nove coppie di lobi laterali (k = 10). Conseguentemente la banda
monolatera al 90 % è 1/T , quella al 95 % è 2/T e quella al 99 % è 10/T . J

Si noti infine che sviluppando |X(·) + Y (·)|2 è immediato mostrare che l’ESD del
segnale somma x(·) + y(·) è data da:

Sx+y (·) = Sx (·) + Sy (·) + Sxy (·) + Syx (·) = Sx (·) + Sy (·) + 2<e{Sxy (·)} (1.42)

23
Per i segnali aleatori di energia è possibile introdurre l’ESD mutua ed auto come
media statistica di quella valutata sulla generica funzione membro, ma tale caso non è
di grossa rilevanza pratica perché i segnali d’interesse sono di norma segnali di potenza.
Per i segnali di potenza ha interesse considerare la distribuzione in frequenza della
potenza mutua (1.40) di X(·) e Y (·) e si definisce lo spettro di potenza mutua o densit à
spettrale di potenza mutua di X(·) e Y (·), e la si denota col simbolo SXY (·), il limite
1
SXY (f ) = lim E [XT (f )YT∗ (f )] (1.43)
T →∞ 2T

dove XT (f ) e YT (f ) denotano gli spettri dei segnali troncati. In altri termini la PSD
mutua è il limite dell’ESD media dei segnali troncati divisa per l’ampiezza dell’inter-
vallo di osservazione al crescere di tale ampiezza. Analogamente nel caso di segnali a
tempo discreto, con ovvio significato dei simboli, si pone
1
SXY (ν) = lim E [XN (ν)YN∗ (ν)] (1.44)
N →∞ 2N + 1
Ponendo nelle definizioni (1.43) e (1.44) X(·) ≡ Y (·) si ottiene la definizione della
PSD del segnale X(·)
   
E |XT (f )|2 E |XN (ν)|2
SXX (f ) = lim SXX (ν) = lim (1.45)
T →∞ 2T N →∞ 2N + 1
In altri termini la PSD è il limite della media del periodogramma P (·), definito da:
1 1
PT (f ) , |XT (f )|2 PN (ν) , |XN (ν)|2 (1.46)
2T 2N + 1
Si noti che, dalle definizioni introdotte, segue che l’ESD e la PSD sono funzioni
reali non negative,
SXX (·) ≥ 0
e che gli spettri mutui di energia e di potenza soddisfano la seguente proprietà di
simmetria:
SXY (·) = S∗Y X (·)
che per segnali reali diventa:

SXY (·) = SY X (−(·))

Sottolineamo esplicitamente che il significato computazionale della definizione


della PSD è relativamente modesto dal momento che esistono metodi di calcolo di
SXX (·) ben più potenti di quello basato sulla (1.45). Tali metodi utilizzano il legame,
che verrà derivato in seguito, esistente tra spettri di potenza e funzioni di correlazione
(teorema di Wiener Khintchine). Il seguente esempio viene infatti sviluppato pi ù che
altro per evidenziare i limiti di applicabilità della definizione.

24
Esempio 10 PSD di una sinusoide a fase aleatoria

Sia X(t) = A cos(2πf0 t + Θ) con A e f0 costanti e Θ variabile aleatoria unifor-


memente distribuita in (0, 2π). Utilizzando la trasformata dell’impulso rettangolare e
la regola di modulazione, si ha:
 
t
xT (t) = AΠ cos(2πf0 t + Θ)
2T
l
XT (f ) = AT sinc[2(f − f0 )T ]ejΘ + AT sinc[2(f + f0 )T ]e−jΘ

da cui, valutando l’ESD di xT (t) come XT (f )XT∗ (f ) e mediando su Θ si ha

1 1 
E{|XT (f )|2 } = A2 2T sinc2 [2(f − f0 )T ] + 2T sinc2 [2(f + f0 )T ]
2T 4
onde, passando al limite per T → ∞, si ricava:
1 2
SXX (f ) = A [δ(f − f0 ) + δ(f + f0 )]
4
Pertanto la PSD di una sinusoide a fase iniziale uniforme è costituito da due righe
(δ-impulsi) alle frequenze ±f0 . J
Come evidenziato da tale esempio, la PSD può essere valutata mediante definizione
se è disponibile l’espressione analitica della generica funzione membro (segnali a para-
metri aleatori). Ma, poiché, in genere, di un segnale aleatorio è nota la caratterizzazione
statistica nel dominio del tempo, la PSD viene comunemente valutata col:

Teorema 1 (Wiener-Kintchine): La densità spettrale di potenza mutua SXY (·) dei


due segnali X(·) e Y (·), è la trasformata di Fourier della loro funzione di mutua
correlazione media definita da:

rXY (τ ) ,< E[X(t)Y ∗ (t − τ )] > r XY (m) ,< E[X(n)Y ∗ (n − m)] > (1.47)

in particolare della funzione di mutua correlazione per segnali congiuntamente SLL.

Corollario 1 La densità spettrale di potenza SXX (·) di X(·) è la trasformata di


Fourier della sua funzione di auto correlazione media:

rXX (τ ) ,< E[X(t)X ∗ (t − τ )] > r XX (m) ,< E[X(n)X ∗ (n − m)] > (1.48)

Analogamente a quanto visto per i segnali di energia, la PSD consente di definire


la banda per i segnali di potenza in termini energetici come la gamma di frequenze in
cui è allocata una prefissata frazione della potenza totale, come illustrato dal seguente

25
Esempio 11 PSD e banda di un segnale con acf esponenziale

Sia X(t) un segnale SSL, a media nulla ed autocorrelazione

rXX (τ ) = PX e−|τ |/T

ci proponiamo di determinare PSD e banda di tale segnale.


Ricordando che:
2T
PX e−|τ |/T ←→ PX
1 + (2πf T )2

a norma del Teorema di WK si ottiene immediatamente la seguente espressione per


l’PSD del segnale in esame:

2T
SXX (f ) = PX
1 + (2πf T )2

La potenza di tale segnale PX (B) nella banda −B ≤ f ≤ B è quindi:


Z B
2T 2
PX (B) = PX 2
df = PX arctan (2πBT )
−B 1 + (2πf T ) π

che per B = ∞ restituisce la potenza totale PX . Pertanto, la banda monolatera B cui


compete la frazione 1 −  dell’energia totale si ottiene risolvendo l’equazione

2
1−= arctan [2πBT ]
π
da cui si ricava: π 
1
B = tan [1 − ]
2πT 2
In particolare:
1  π 2
B0.05 = tan 0.95 Hz '
2πT 2 T
è la banda al 95% dell’energia. J
Si osservi che anche per i segnali di potenza, come è facile verificare, la PSD del
segnale somma è data da una relazione del tutto analoga alla (1.42). Conseguentemen-
te, se i due segnali sono incoerenti allora, a norma del teorema di Wiener-Kinchine, la
loro PSD mutua è nulla; pertanto non solo l’autocorrelazione di una somma di segnali
incoerenti è la somma delle singole autocorrelazioni, ma anche la PSD della somma di
segnali incoerenti è la somma delle PSD dei singoli addendi.
Si osservi infine che le considerazioni svolte con riferimento ai segnali di potenza
aleatori valgono anche per i segnali deterministici, solo che in tal caso l’operazione di
media statistica è ridondante.

26
1.8.3 Segnali PAM
Di notevole interesse per le applicazioni sono i segnali PAM, cioè i segnali del tipo
+∞
X
X(t) = A(n)p(t − nT ) (1.49)
n=−∞

ove p(t) è un segnale impulsivo, cioè un segnale di energia, anche se è utile includere
come caso limite l’impulso ideale δ(t), ed A(n) è una sequenza in genere aleatoria, det-
ta sequenza modulante. L’andamento tipico di un segnale PAM è riportato in fig. 1.2:
precisamente nella fig. 1.2b è riportata una realizzazione a(n) della sequenza modulan-
te A(n) ed in fig. 1.2c la corrispondente realizzazione x(t) del segnale PAM, con p(t)
impulso rettangolare di durata T /2 (fig. 1.2a).

6
p(t)

a)
-
T t
2

6
a(n)

b)
-
n

6
x(t)
c)
-
t

Figura 1.2: Impulso base a), sequenza modulante b) e segnale PAM c).

Sono, per esempio, di tipo PAM i segnali utilizzati nelle trasmissioni numeriche
multilivello: precisamente in tal caso una sorgente discreta emette, in modo cadenzato,
ogni T secondi, un simbolo a(n) ed un modulatore di dati, disposto in cascata, genera

27
a(n) x(t)
Sorgente - Modulatore -
numerica
6

∼ p(t)

Figura 1.3: Generazione di segnali PAM.

l’impulso a(n)p(t − nT ) di ampiezza proporzionale al simbolo emesso dalla sorgente


(fig. 1.3).
Si noti che per i segnali PAM il calcolo del loro spettro di potenza può essere
condotto secondo la definizione. Precisamente ci proponiamo di determinare la PSD
mutua tra i due PAM isocroni:
+∞
X +∞
X
X(t) = A(n)p(t − nT ) Y (t) = B(n)q(t − nT ) (1.50)
n=−∞ n=−∞

aventi cioè stesso periodo T . Consideriamo 2N + 1 impulsi dei segnali PAM, cioè i
segnali:
N
X N
X
XN (t) = A(n)p(t − nT ) YN (t) = B(n)q(t − nT )
n=−N n=−N

Trasformando secondo Fourier si ha:


N
X
XN (f ) = A(n)P (f )e−j2πnf T = P (f )AN (f T )
n=−N

ove AN (ν) è la trasformata della successione A(n) troncata tra −N ed N valutata in


ν = f T ; analogamente, con ovvio significato dei simboli, si ha

YN (f ) = Q(f )BN (f T )

Conseguentemente, dalla definizione di PSD, si ha:

1
SXY (f ) , lim E [XN (f )YN∗ (f )]
N (2N + 1)T
1 1
= lim E [P (f )AN (f T )Q∗ (f )BN (f T )]
T N 2N + 1
1 1
= P (f )Q∗ (f ) lim E [AN (f T )BN (f T )]
T N 2N + 1

28
Il limite all’ultimo membro della relazione precedente è, per definizione, la PSD mutua
SAB (ν) tra le due sequenze modulanti valutato in ν = f T per cui,in definitiva, si ha:
1
SXY (f ) = P (f )Q∗ (f )SAB (f T ) (1.51)
T
Pertanto la PSD mutua tra due PAM isocroni, a meno del fattore 1/T , è data dal
prodotto della ESD mutua tra i due impulsi base

Spq (f ) = P (f )Q∗ (f )

e la PSD mutua tra le due sequenze modulanti.


Ponendo nella (1.50)

p(t) ≡ q(t); A(n) ≡ B(n)

la (1.51) diventa
1
SXX (f ) = |P (f )|2 SAA (f T ) (1.52)
T
che esprime la PSD di un segnale PAM. Pertanto la PSD di un segnale PAM è pari, a
meno del fattore di scala T1 , al prodotto della ESD dell’impulso base per la PSD della
sequenza modulante, valutata per ν = f T .

Esempio 12 Segnale numerico sincrono

Un caso molto comune di segnale PAM è quello la cui sequenza modulante A(n) è
una successione di v.a. iid, che modella l’emissione di simboli da parte di una sorgente
numerica senza memoria secondo lo schema generale di fig. 1.3.
In fig. 1.4 è riportato una possibile realizzazione di tale segnale nel caso di sequenza
modulante binaria, nel caso cioè che le v.a. A(n) siano bernoulliane, sia nel caso di
impulso base di tipo rettangolare di durata T (impulso NRZ ≡ Non-Return to Zero) che
di impulso rettangolare di durata inferiore a T (impulso RZ), precisamente di durata
T /2 nel caso di figura. Poiché l’informazione binaria è affidata alla presenza o meno
dell’impulso p(t) nel corrispondente intervallo di bit, tale tecnica di segnalazione viene
chiamata segnalazione ON-OFF.
Ricordando che l’autocorrelazione di una sequenza di v.a. iid vale:
+∞
X
2
rAA (m) = σA δ(m) + µ2A ⇔ SAA (ν) = 2
σA + µ2A δ(ν − k)
k=−∞

si ha che la PSD del numerico sincrono senza memoria è data da:


 µ 2 X +∞   2  

SXX (f ) =
A P k δ f − k + 1 σ A 2
|P (f )|2 (1.53)
T T T T
k=−∞

29
6
p(t) 6
p(t)

- -
T t T /2 t
Impulso NRZ Impulso RZ

6
a(n)

-
n
Sequenza modulante

6
x(t)

-
T t

Segnale binario sincrono ON-OFF NRZ

6
x(t)

-
T t

Segnale binario sincrono ON-OFF RZ

Figura 1.4: Segnalazione binaria ON-OFF.

30
ed il suo spettro di potenza è interamente determinato dallo spettro d’energia dell’im-
pulso base. In particolare se l’impulso p(t) è un impulso rettangolare NRZ di ampiezza
unitaria la ESD vale:
Spp (f ) = T sinc2 (f T ) (1.54)
tutte le righe spettrali, tranne quella a frequenza zero, corrispondente alla potenza in
continua, si annullano, e la parte continua della PSD è proporzionale allo spettro di
energia dell’impulso NRZ. In altri termini lo spettro di potenza del segnale numerico
sincrono senza memoria NRZ è
2
SXX (f ) = µ2A δ(f ) + σA T sinc2 (f T )

Tale relazione in particolare evidenzia che tale segnale ha una banda B sostanzialmente
pari alla cadenza 1/T con cui i simboli sono emessi dalla sorgente.
Se invece si utilizza un impulso rettangolare RZ di ampiezza unitaria e durata T /2,
la ESD vale:  
1 1
Spp (f ) = T sinc2 fT (1.55)
2 2
lo spettro di potenza è:
+∞      
1 2 X 2 k k 1 2 2 1
SXX (f ) = µA sinc δ f− + σA T sinc fT
4 2 T 4 2
k=−∞

Quindi nella PSD del segnale numerico sincrono senza memoria RZ oltre alla riga a
frequenza zero, associata alla potenza in continua, sono presenti righe spettrali alle
frequenze armoniche dispari della cadenza 1/T , e la banda è pari al doppio della ca-
denza. Pertanto il segnale numerico sincrono senza memoria RZ ha il vantaggio di
semplificare il recupero del sincronismo, grazie alla presenza di righe spettrali a fre-
quenza armonica della cadenza, ma al prezzo di una dimezzamento della potenza e di
un raddoppio della larghezza di banda.
La presenza nella segnalazione ON-OFF di righe spettrali costituisce uno spreco di
potenza: infatti è possibile dimostrare che il tasso di simboli errati, dovuti al rumore che
si aggiunge al segnale nella trasmissione, diminuisce all’aumentare della separazione
tra i due livelli del segnale. A ciò si può facilmente ovviare, utilizzando una sequenza
modulante a valor medio nullo. Nel caso binario con bit equiprobabili, ciò si realizza
codificando i bit emessi dalla sorgente come segue

A(n) = 1 −→ B(n) = 1 A(n) = 0 −→ B(n) = −1

in altri termini si convertono gli zeri in −1. Nella fig. 1.5 è riportato un tipico andamen-
to di tale PAM sia nel caso di impulsi NRZ che di impulsi RZ. Poiché in questo caso
l’informazione è affidata al segno dell’impulso tale tipo di segnalazione è denominata

31
6
a(n)

-
n
Processo di Bernoulli

6
b(n)

-
n

Sequenza modulante

6
x(t)

-
t

Segnale binario sincrono antipodale NRZ

6
x(t)

-
t

Segnale binario sincrono antipodale RZ

Figura 1.5: Segnalazione binaria antipodale.

32
a(n) b(n) x(t)
Sorgente - Codificatore - Modulatore -
numerica
6

∼ p(t)

Figura 1.6: Segnalazione con codifica di linea.

antipodale. La PSD di un segnale antipodale è proporzionale alla ESD dell’impulso


impiegato; in particolare per un impulso rettangolare NRZ di ampiezza unitaria, la cui
ESD è data dalla (1.54) si ha:

SXX (f ) = T sinc2 (f T )

ed è dato da  
1 2 1
SXX (f ) = T sinc fT
4 2
nel caso di impulso RZ (vedi (1.55)).
Dal confronto di tali spettri si evince che il segnale binario sincrono antipodale
NRZ ha una banda metà di quello RZ ed una potenza doppia. Da tale punto di vista
il confronto è nettamente a vantaggio del segnale NRZ. Tuttavia si noti che il segnale
RZ, anche se non in modo evidente, contiene informazione sulla cadenza: è infatti
sufficiente raddrizzare il segnale RZ, prenderne cioè il modulo, per ottenere un segnale
periodico di periodo T da cui estrarre la cadenza. J
Il segnale numerico sincrono impiegante un impulso base di tipo rettangolare ha
uno spettro di potenza di tipo passa basso, pertanto per poterlo trasmettere è necessario
un canale che abbia una buona risposta nell’intorno della frequenza zero. Ma molti
canali, in particolare quello telefonico, hanno una cattiva risposta in bassa frequenza:
in tal caso si pone il problema di modificare la distribuzione spettrale della potenza
allo scopo di adattare le caratteristiche spettrali del segnale a quelle del canale. Dalla
espressione generale (1.52) della PSD si evince che tale risultato si può conseguire o
cambiando l’impulso base o agendo sulla sequenza modulante. Di norma si preferisce
questa seconda strada in quanto perseguibile con tecniche numeriche; precisamente
lo schema di generazione del segnale di fig. 1.3 si modifica in quello di fig. 1.6 ove
lo schema di codifica va scelto in modo da conferire le proprietà desiderate alla PSD
(codifica di linea). In generale però per sagomare lo spettro è necessario far ricorso ad
una codifica con memoria che, introducendo una correlazione tra i simboli emessi dalla
sorgente senza memoria, consente di ottenere una PSD radicalmente diversa dalla ESD
dell’impulso base (correlative coding).

33
Esempio 13 Segnale binario sincrono: caso generale

Nella segnalazione binaria ON-OFF ed in quella antipodale l’informazione sul sim-


bolo binario emesso dalla sorgente è affidata alla presenza o meno dell’impulso (ON-
OFF) ovvero al suo segno (Antipodale). Più in generale è possibile utilizzare due
diversi impulsi, siano p0 (t) e p1 (t) per rappresentare il simbolo emesso dalla sorgente:
precisamente se il simbolo emesso all’istante nT è zero si trasmette l’impulso p0 (t)
altrimenti si trasmette p1 (t). In tal caso il segnale binario è esprimibile come
+∞
X +∞
X
X(t) = A(n)p1 (t − nT ) + [1 − A(n)]p0 (t − nT ) (1.56)
n=−∞ n=−∞

Il segnale (1.56) può essere riguardato come la somma di due PAM isocroni ON-OFF, il
primo con modulante A(n) ed impulso base p1 (t) ed il secondo con modulante B(n) =
1 − A(n) ed impulso base p0 (t).
Se la sorgente è senza memoria A(n) è un processo di Bernoulli di parametro p;
conseguentemente anche B(n) è un processo di Bernoulli, ma di parametro q = 1 −
p; pertanto, come è immediato verificare auto e mutue correlazioni di tali sequenze
valgono:
rAA (m) = pqδ(m) + p2
rBB (m) = pqδ(m) + q 2
rAB (m) = −pqδ(m) + pq
Pertanto calcolando lo spettro di potenza del segnale (1.56) come somma della PSD del
primo addendo, più quella del secondo più le loro PSD mutue, con facili manipolazioni
algebriche, si perviene alla seguente espressione per la PSD di tale segnale, cioè:

+∞     2  
1 X k k k
Sx (f ) = qP
0 T + pP δ f −
T
1
T2 T
k=−∞
pq 2
+ |P0 (f ) − P1 (f )|
T

1.9 Legami Ingresso Uscita per sistemi LTI


Il problema che ora affrontiamo è quello di determinare i legami tra alcune gradez-
ze globali, quali la media, la funzione di autocorrelazione e la PSD, dell’ingresso e
dell’uscita di un sistema LTI (Fig. 1.7a): in particolare ci proponiamo di determina-
re la caratterizzazione statistica globale dell’uscita da quella dell’ingresso. L’analisi
sarà preliminarmente effettuata nel dominio del tempo e poi estesa, con l’ausilio del
Teorema WK, al dominio della frequenza.

34
1.9.1 Analisi dei sistemi LTI nel dominio del tempo
Iniziamo col valutare la media dell’uscita. Riferendoci, per fissare le idee, ai segnali a
tempo discreto, si ha:

µY (n) = E[Y (n)] = E[h(n) ∗ X(n)] = h(n) ∗ E[X(n)] = h(n) ∗ µX (n)

e quindi
µY (·) = h(·) ∗ µX (·) (1.57)

In altri termini la media statistica dell’uscita è la risposta del sistema alla media
statistica dell’ingresso (Fig. 1.7b).

X(·) Y (·) µX (·) µY (·)


- h(·) - - h(·) -

a) b)

Figura 1.7: Legame ingresso - uscita per la media statistica.

Nel caso in cui l’ingresso sia SSL il legame diventa:



X
µY = µ X h(m) = µX H(0) (1.58)
m=−∞

ove si è introdotto il guadagno in continua del sistema H(0)



X
H(0) = h(m)
m=−∞

Pertanto, la media dell’uscita è proporzionale a quella in ingresso, con costante di


proporzionalità pari al guadagno in continua.
Nel caso di segnali non stazionari mediando, rispetto alla variabile temporale,
entrambi i membri della (1.57) si ha

X
Ydc , < µY (n) > = < h(m)µX (n − m) >
m=−∞

X
= < µX (n − m) > h(m) = Xdc H(0)
| {z } m=−∞
Xdc | {z }
H(0)

quindi, in definitiva, risulta:


Ydc = H(0) Xdc (1.59)

35
X1 (·) Y1 (·)
- h1 (·) -
rX1 X2 (·) rY1 Y2 (·)
- rh1 h2 (·) -

X2 (·) Y2 (·)
- h2 (·) -

a) b)

Figura 1.8: Legame tra le mutue correlazioni degli ingressi e delle uscite.

cioè la proporzionalità si ha tra le componenti continue.


Notiamo esplicitamente che il legame stabilito tra le componenti continue è vali-
do anche per i segnali deterministici di potenza, anche se, in questo caso, la media
statistica è pleonastica.
Notiamo altresı̀ che nel derivare il legame tra le componenti continue dell’ingresso
e dell’uscita, si è implicitamente supposto che entrambi i segnali fossero segnali di po-
tenza finita. Tale ipotesi la riterremo valida anche nel seguito e, precisamente, faremo
l’ipotesi che il sistema LTI non alteri la natura del segnale in ingresso, nel senso che
l’uscita corrispondente ad un segnale di energia finita sia ancora un segnale di ener-
gia finita ed, analogamente, che l’uscita corrispondente ad un segnale di potenza finita
sia ancora un segnale di potenza finita. Tale condizione è ad esempio soddisfatta se il
sistema è stabile.
Passiamo ora alle funzioni di autocorrelazione. Precisamente consideriamo la situa-
zione di Fig. 1.8, da cui, particolarizzando segnali e sistemi, è possibile ricavare i vari
casi di interesse; supponiamo inoltre che i due segnali d’ingresso X1 (n) e X2 (n) siano
a tempo discreto e congiuntamente SSL. Precisamente, con riferimento alla Fig. 1.8,
ci proponiamo di determinare la mutua correlazione rY1 Y2 (n, k) tra le due uscite in
funzione di quella rX1 X2 (m) tra i due ingressi e delle risposte impulsive h1 (m) e
h2 (m) dei due sistemi LTI.
Dalla definizione di mutua correlazione si ha:

+∞
X
rY1 Y2 (n, k) = E[Y1 (n), Y2∗ (k)] = h1 (i)E[X1 (n − i)Y2∗ (k)] =
i=−∞
+∞ (1.60)
X
= h1 (i)rX1 Y2 (n − i, k)
i=−∞

ove, nell’effettuare i passaggi, si è utilizzata la linearità della media. D’altra parte la

36
mutua correlazione rX1 Y2 (n, k) è data da:
+∞
X
rX1 Y2 (n, k) = E[X1 (n), Y2∗ (k)] = h∗2 (j)E[X1 (n)X2∗ (k − j)] =
j=−∞
+∞
X
= h∗2 (j)rX1 X2 (n − k + j)
j=−∞
(1.61)
ove, nell’effettuare l’ultimo passaggio, si è utilizzata la SSL dei due ingressi. Tale re-
lazione evidenzia che la mutua correlazione rX1 Y2 (n, k) dipende solo dalla differenza
m = n − k; per cui, cambiando nell’ultima sommatoria j in −j si ha:
+∞
X
rX1 Y2 (m) = h∗2 (−j)rX1 X2 (m − j) = h∗2 (−m) ∗ rX1 X2 (m) (1.62)
j=−∞

Poichè, come già osservato rX1 Y2 (n, k) = rX1 Y2 (n − k), allora dalla (1.60) segue che
anche la rY1 Y2 (n, k) dipende solo dal ritardo ed il legame (1.60) può essere riscritto
come convoluzione
+∞
X
rY1 Y2 (m) = h1 (m)rX1 Y2 (m − i) = h1 (m) ∗ rX1 Y2 (m) (1.63)
i=−∞

Sostituendo infine in tale relazione a rX1 Y2 (m) la sua espressione (1.62) si ha:

rY1 Y2 (m) = h1 (m) ∗ h∗2 (−m) ∗ rX1 X2 (m) (1.64)

che esprime il legame cercato.


Una analoga derivazione vale per segnali e sistemi continui. In definitiva risulta

rY1 Y2 (·) = rX1 X2 (·) ∗ h1 (·) ∗ h∗2 (−(·)) = rX1 X2 (·) ∗ rh1 h2 (·) (1.65)
| {z }
rh1 h2 (·)

In altri termini la mutua correlazione rY1 Y2 (·) tra le due uscite dei sistemi LTI di
Fig. 1.8a si ottiene come l’uscita del sistema LTI di risposta impulsiva rh1 h2 (·) alla
mutua correlazione rX1 X2 (·) tra i due ingressi (Fig. 1.8b).
Si noti che, da quanto detto, segue che se i due ingressi di Fig. 1.8a sono
congiuntamente stazionari in senso lato, allora tali sono anche le corrispondenti uscite.
Particolarizzando lo schema generale di Fig. 1.8a come in Fig. 1.9a è immediato
derivare il legame ingresso-uscita per la funzione di autocorrelazione. In questo caso,
dall’equazione (1.65) si ottiene:

rY Y (·) = rXX (·) ∗ h(·) ∗ h∗ (−(·)) = rXX (·) ∗ rhh (·) (1.66)
| {z }
rhh (·)

37
X(·) Y (·)
- h(·) -
rXX (·) rY Y (·)
- rhh (·) -

X(·) Y (·)
- h(·) -

a) b)

Figura 1.9: Legame ingresso uscita per l’autocorrelazione.

X(·) Y (·)
- h(·) -
rXX (·) rY X (·)
- h(·) -

X(·) X(·)
- - -
a) b)

Figura 1.10: Schema di calcolo della mutua correlazione tra uscita ed ingresso.

cioè l’autocorrelazione dell’uscita è pari alla convoluzione dell’autocorrelazione del-


l’ingresso e di quella rhh (·) della risposta impulsiva: in altri termini, l’autocorrelazio-
ne della risposta di un sistema LTI è pari alla risposta all’ingresso rXX (·) del sistema
avente risposta impulsiva rhh (·) (Fig. 1.9b). Si osservi inoltre che se l’ingresso del si-
stema LTI è stazionario in senso lato, allora dall’equazione (1.57) segue che la media
statistica dell’uscita è indipendente dal tempo: dunque, se l’ingresso di un sistema LTI
è SSL tale è anche il corrispondente segnale di uscita.
Dalla relazione (1.66) segue che, se l’ingresso ha un’autocorrelazione impulsiva,
2
diciamola σX δ(·) si ha:

2
rY Y (·) = σX δ(·) ∗ h(·) ∗ h∗ (−(·)) = σX
2 2
δ(·) ∗ rhh (·) = σX rhh (·) (1.67)

cioè l’uscita ha un’autocorrelazione proporzionale a quella della risposta impul-


siva del sistema. Pertanto è possibile generare un segnale con una preassegna-
ta autocorrelazione filtrando, con un filtro LTI, un segnale con autocorrelazione
impulsiva.
L’equazione (1.65) consente anche di ricavare come casi particolari le mutue cor-
relazioni uscita-ingresso e ingresso-uscita. Invero, sulla scorta della Fig. 1.10a, si
ha:
rY X (·) = rXX (·) ∗ h(·) ∗ δ(−(·)) = rXX (·) ∗ h(·) (1.68)

38
X1 (·) Y1 (·)
- H1 (·) -
SX1 X2 (·) SY1 Y2 (·)
- H1 (·)H2∗ (·) -

X2 (·) Y2 (·)
- H2 (·) -

a) b)
Figura 1.11: Legame I/O per le PSD mutue: a) sistemi effettivi, b) sistema euivalente.

che esprime il legame tra la mutua correlazione fra l’uscita e l’ingresso di un sistema
LTI: dunque la mutua correlazione uscita-ingresso può calcolarsi come risposta del
sistema LTI all’autocorrelazione dell’ingresso (Fig. 1.10a). In modo analogo si ottiene

rXY (·) = rXX (·) ∗ h∗ (−(·)) (1.69)

Con considerazioni simili a quelle precedentemente svolte, dall’espressioni stabilite


per le mutue correlazioni uscita-ingresso e ingresso−uscita, segue che se il segnale
d’ingresso è SSL allora uscita ed ingresso del sistema LTI sono congiuntamente SSL.
Si noti infine che i vari legami stabiliti (1.65, 1.66, 1.69, 1.68) valgono anche
se i segnali aleatori non sono stazionari: in tal caso però occorre considerare le
mutuecorrelazioni medie (1.47) e le autocorrelazioni medie (1.48).

1.9.2 Legami ingresso uscita per le PSD


Sulla scorta del Teorema di Wiener-Khinchine è immediato stabilire i legami esistenti
tra le PSD in ingresso ed in uscita a sistemi LTI semplicemente trasformando gli analo-
ghi legami tra le correlazioni precedentemente stabiliti. Nel seguito faremo riferimento
alle PSD che è il caso di maggiore interesse, anche se le relazioni stabilite, grazie alla
simbologia unica per PSD e ESD, valgono senza alcuna modifica anche per gli spettri
di energia.
Ricordando, ad esempio, che la mutua correlazione tra le uscite di due sistemi LTI
(vedi fig. 1.11a) è data dalla (1.65) trasformando secondo Fourier si ha

SY1 Y2 (·) = H1 (·)H2∗ (·)SX1 X2 (·) (1.70)

In altri termini al fine del calcolo dello spettro di potenza incrociato tra le due usci-
te è sufficiente sostituire i due sistemi con un unico sistema di risposta armonica
H1 (·)H2∗ (·) sollecitato dalla PSD mutua tra i due ingressi, come schematizzato in

39
fig. 1.11b. In modo analogo è possibile stabilire gli altri legami di interesse: cosı̀ lo
spettro di potenza dell’uscita è legato a quello dell’ingresso dalla relazione
SY Y (·) = |H(·)|2 SXX (·) (1.71)
cioè la PSD dell’uscita è pari a quella dell’ingresso per |H(·)|2 , comunemente deno-
minata funzione di trasferimento dell’energia; infine le PSD mutue uscita-ingresso e
ingresso-uscita sono date da
SY X (·) = H(·)SXX (·) SXY (·) = H(·)∗ SXX (·)
I vari legami considerati sono riassunti nella fig. 1.12.

X(·) Y (·)
- H(·) -

a)

(·)
SXX - SY Y (·) (·)
SXX - SY X (·) (·)
SXX - SXY (·)
|H(·)|2 - H(·) - H ∗ (·) -

b)

Figura 1.12: Legami I/O per PSD: a) sistema effettivo, b) sistemi equivalenti.

Dalla relazione (1.70) segue che, se le risposte armoniche dei due filtri di fig. 1.11a
non si sovrappongono, cioè non sono mai entrambe diverse da zero ad una stessa fre-
quenza, allora le due uscite sono incoerenti anche se gli ingressi, supposti SSL, sono
correlati. Ciò comporta che è possibile generare segnali incoerenti da un unico segnale
SSL filtrandolo con due sistemi LTI le cui risposte armoniche non si sovrappongano se-
condo quanto illustrato in fig. 1.13. Se poi l’ingresso è gaussiano SSL le due uscite non
solo sono incoerenti, ma anche statisticamente indipendenti. Una ulteriore conseguen-
za della (1.70) è l’incoerenza di due segnali SSL qualsiasi che non si sovrappongono
nel dominio della frequenza: è sufficiente infatti osservare che tali segnali restano inal-
terati per effetto di un filtraggio LTI da parte di due sistemi le cui risposte armoniche
valgano uno ove la PSD del singolo segnale è non nulla e zero altrove. In particolare,
dati un segnale ed un disturbo, il rumore nella banda del segnale è sempre incoerente
con quello fuori banda.
Si osservi che la potenza ∆PX in uscita ad un filtro passa banda ideale, centrato
alla frequenza fo , di guadagno unitario e banda ∆f , vale:
Z +∞ Z f0 + 12 ∆f
∆PX = SY Y (f )df = SXX (f )df
−∞ f0 − 21 ∆f

40
Y1 (·)
- H1 (·) -
X(·)
-
Y2 (·)
- H2 (·) -

Figura 1.13: Generazione di due segnali incoerenti da un unico segnale.

Pertanto la potenza delle componenti spettrali di un segnale appartenenti ad un certo


intervallo di frequenze, si ottiene integrando su tale intervallo la sua PSD; inoltre la
densità spettrale di potenza di X(t) può anche essere definita come:
∆PX
SXX (f ) = lim
∆f →0 ∆f

A tale interpretazione corrisponde un metodo sperimentale per la misura della PSD


mediante un filtro a banda stretta. Precisamente, la potenza ∆PX in uscita ad un fil-
tro centrato alla frequenza f0 e di banda ∆f è proporzionale al valore della PSD del
segnale in ingresso X(t) valutata alla frequenza di centro banda. Si ha infatti:
Z +∞ Z +∞
∆PX = SY Y (f )df = SXX (f )|H(f )|2 df
−∞ −∞
Z +∞

= SXX (f0 ) |H(f )|2 df ∝ SXX (f0 )
−∞

Si osservi che la relazione precedente è valida quale che sia la forma della rispo-
sta armonica del filtro, purché la sua banda sia sufficientemente stretta sı̀ da ritenere
costante in tale banda loa PSD del segnale d’ingresso. È quindi possibile misurare lo
spettro di potenza di un segnale se si ha a disposizione uno strumento che misura la
potenza ed un filtro passa banda, a banda stretta, con frequenza centrale accordabile
in modo da analizzare la banda d’interesse. Ovviamente lo stesso risultato pu ò esse-
re ottenuto operando in parallelo con un banco di filtri a banda stretta le cui risposte
armoniche siano centrate alle frequenze a cui si vuol misurare la PSD e ricoprano la
banda di interesse.
Dalla relazione (1.71) si ha che è possibile generare un segnale aleatorio SSL X(·)
con assegnata PSD, o equivalentemente con assegnata correlazione, filtrando un rumore
bianco W (·) avente PSD unitaria con un filtro LTI la cui funzione di trasferimento di
energia sia pari alla assegnata PSD desiderata, come schematizzato in fig. 1.14.
Per rumore bianco si intende un segnale aleatorio SSL a media nulla con autocor-
relazione impulsiva e quindi PSD costante: una sequenza di variabili aleatorie a media

41
nulla, iid, o almeno incorrelate, fornisce un primo esempio di rumore bianco. Nel caso
di segnali a tempo continuo, un generatore di rumore bianco non è fisicamente realiz-
zabile in quanto la sua potenza è infinita: tuttavia, anche in tal caso è utile introdurre
tale modello quale caso limite di segnali di potenza SSL a larga banda. Ad esempio il
rumore termico, presente in tutti i dispositivi ed apparati eletronici ha una PSD che pu ò
ritenersi costante fino a frequenze dell’ordine del THz; conseguentemente, la PSD del
rumore in uscita è proporzionale alla funzione di trasferimento dell’energia del sistema
se quest’ultimo ha una banda molto minore di quella dell’ingresso; pertanto ai fini della
valutazione degli effetti del rumore in uscita è del tutto lecito modellare il disturbo in
ingresso come rumore bianco, con una notevole semplificazione della complessità dei
calcoli.
La risposta armonica del filtro sagomatore di fig. 1.14 è del tipo
p
H(·) = SXX (·)ejβ(·)

con β(·) risposta in fase arbitraria. Se però, come in genere avviene, si richiede che
il filtro sia stabile e causale la fase non può essere arbitraria, ma va opportunamente
scelta: sfortunatamente non esistono semplici procedure di determinazione della fase
nè nel dominio del tempo nè in quello della frequenza.

Generatore W (·) X(·)


di rumore - H(·) -
bianco

Figura 1.14: Generazione di un segnale con assegnata PSD.

Esempio 14 PSD di un PAM con pre-codifica

Come precedentemente accennato il segnale PAM utilizzato per trasmettere i sim-


boli emessi da una sorgente senza memoria ha una PSD dettata esclusivamente dallo
spettro dell’impulso base: in tal caso è utile pre-codificare la sequenza modulante, co-
me illustrato in fig. 1.6 generando una sequenza correlata opportunamente in modo da
ottenere la PSD desiderata.
Come codificatore si può utilizzare un filtro LTI come illustrato in fig. 1.15. In tal
caso la PSD del segnale PAM X(t) vale
1h 2 i
e T ) |H(f T )|2 |P (f )|2
SXX (f ) = σa + µ2a δ(f
T
2
ove µA e σA sono la media e, rispettivamente, la varianza dei simboli emessi dalla sor-
gente senza memoria. Per eliminare la parte a righe dello spettro è sufficiente imporre

42
Sorgente A(n) B(n) X(t)
senza - |H(ν)|2 - Modulatore -
memoria
6

∼ p(t)

Figura 1.15: Generazione di PAM con pre-codifica LTI.

che il filtro LTI abbia un guadagno nullo in continua; in tale ipotesi la PSD del PAM
diventa
1
SXX (f ) = σa2 |H(f T )|2 |P (f )|2 (1.72)
T
Pertanto essa è proporzionale al prodotto della ESD dell’impulso base per la funzione
di trasferimento dell’energia del filtro codificatore.
Ad esempio, nel caso di una sorgente binaria, cioè A(n) processo di Bernoulli di
parametro 1/2, utilizzando come filtro codificatore una differenza prima, cioè

y(n) = x(n) − x(n − 1) |H(ν)|2 = 4 sin2 (πν)

e come impulso base un impulso rettangolare RZ di ampiezza A e durata T /2 la PSD


del PAM è  
2 2 2 1
SXX (f ) = sin (πf T )A T sinc fT
2
Si osservi come, grazie alla presenza del fattore sin2 (πf T ) dovuto al filtraggio, il
contenuto spettrale del PAM nell’intorno della frequenza zero sia trascurabile; inoltre
è notevolmente attenuato anche il contenuto spettrale nell’intorno della frequenza 1/T
con una conseguente riduzione della banda. Per contro il sistema è più complesso ed
inoltre il segnale trasmesso è, per effetto della codifica, a tre livelli, 0, A, −A.
Più in generale la relazione (1.72), eventualmente col vincolo H(0) = 0 se oc-
corre eliminare la parte a righe dello spettro, consente di determinare la funzione di
trasferimento dell’energia |H(·)|2 necessaria per ottenere una pre-assegnata PSD Sx .
J

La potenza di rumore in uscita ad un filtro LTI quando l’ingresso è rumore bianco


(vedi fig. 1.14) è data da:
Z
N0 +∞
PX = |H(f )|2 df
2 −∞
ove N0 /2 denota la PSD del rumore, e può riscriversi

PX = N0 |H(f0 )|2 BN

43
Filtro
6 ideale

H(f ) 2
H(0)
a)

-
BN BN f

Filtro
6 ideale

H(f ) 2
H(f0 )
b)
-
−f0 f0 f

BN BN

Figura 1.16: Definizione di banda di rumore: sistemi passa-basso (a) e passa-banda


(b).

ove:

Z +∞ 2

BN , H(f ) df
H(f0 )
0

definisce la banda di rumore (monolatera) del filtro.


Pertanto la banda di rumore è la banda del filtro ideale avente lo stesso guadagno
|H(f0 )|2 di centro banda e la cui funzione di trasferimento dell’energia sottende la
stessa area. Tale interpetrazione è illustrata in fig. 1.16 sia nel caso di sistemi passa-
basso che passa-banda. Dalla relazione di Parseval segue che la banda di rumore è
calcolabile anche a partire dalla risposta impulsiva con la relazione:

Z +∞
2
|h(t)| dt
−∞
2BN = Z 2
+∞
h(t)e −j2πf0 t
dt

−∞

Si osservi che la definizione data vale, con ovvie modifiche, anche per sistemi discreti;

44
precisamente, in tal caso, si ha:
+∞
X 2
|h(m)|
Z + 21 2

BN = H(ν) dν 2BN =
m=−∞
2
H(ν0 ) X
+∞
0
−j2πν0 m
h(m)e

m=−∞

Si osservi infine che, nel definire la banda di rumore si è implicitamente fatto riferi-
mento ai sistemi reali, anche se la definizione può essere estesa con ovvie modifiche
anche al caso di sistemi complessi.

1.10 Esercizi

Ex. 1.1 Sia X(n) un segnale gaussiano a media nulla e varianza σ 2 . Determinare il
rapporto Kc = XσM ove XM è il valore superato al più con probabilità 10−5

Ex. 1.2 Sia X(t) un segnale aleatorio gaussiano SSL a media nulla ed autocorrelazio-
ne in tempo−tempo rXX (t1 , t2 ) e sia Y (t) il processo modulato in angolo da X(t),
cioè il segnale
Y (t) = A exp{j[ω0 t + kP M X(t) + Θ]}

ove ω0 e kP M sono costanti e Θ è una variabile aleatoria uniforme in (0, 2π)


indipendente da X(t).
Calcolare media ed autocorrelazione in tempo−tempo di Y (t); stabilire inoltre se Y (t)
sia SSL qualora lo sia X(t).
2
1
ω 2 jωµ
N.B. Se Z ∼ N(µ, σ 2 ) allora E{ejωZ } = e− 2 σ e

Ex. 1.3 Un segnale aleatorio gaussiano Xa (t) SSL, a media nulla e con
autocorrelazione τ 
rXa Xa (τ ) = σ 2 sinc
T
è campionato con passo T ottenendo la sequenza X(n) = Xa (nT ).
Mostrare che X(n) è una sequenza di v.a.i.i.d..

Ex. 1.4 Sia X(n) un processo aleatorio SSL, gaussiano a media nulla ed
autocorrelazione rXX (m) = a|m| con |a| < 1.
Determinare la pdf del 1o ordine della sequenza Y (n) = X(2n) − X(2n − 1).

45
Ex. 1.5 Determinare la pdf congiunta delle due variabili aleatorie:
N
X −1 N
X −1
X, W (n)p1 (n) Y =, W (n)p0 (n)
n=0 n=0

con W (n) processo aleatorio gaussiano bianco di potenza σ 2 e pi (t), i = 1, 2 segnali


di energia Ei ed energia mutua E12 . Ripetere il calcolo per le v.a.
Z T Z T
X= W (t)p1 (t)dt Y = W (t)p2 (t)dt
0 0

con W (t) processo aleatorio gaussiano bianco e pi (t), i = 1, 2 segnali di energia Ei


ed energia mutua E12 .

Ex. 1.6 Si desidera misurare una tensione continua A affetta da una deriva aleatoria
n(t) SSL a media nulla ed autocorrelazione esponenziale rn (τ ) = e−1000|τ | , con un
errore rms di 0.01 V. Per ottenere la precisione voluta il segnale x(t) = A+n(t) è filtra-
to con un filtro avente risposta impulsiva h(t) = ω0 e−ω0 t u(t) (filtro RC): determinare
il valore del parametro ω0 del filtro all’uopo necessario.

Ex. 1.7 Mostrare che il valore attuale dell’uscita di un sistema LTI tempo discreto,
causale è statisticamente indipendente dai valori futuri dell’ingresso se quest’ultimo
è gaussiano bianco. Stabilire se il risultato è valido anche se il rumore bianco non è
gaussiano.

Ex. 1.8 Per combattere disturbi fortemente correlati i sistemi radar usano il filtro MA:

y(n) = x(n) − x(n − 1)

Supposto che il disturbo in ingresso sia aleatorio a media nulla con autocorrelazione
esponenziale rXX (m) = σI2 ρ|m| , determinare l’attenuazione del disturbo CA , defi-
nita da CA = σI2 /σO 2
, dove σI2 è la potenza del disturbo in ingresso al filtro e σO
2

quella in uscita. Ripetere il calcolo per disturbo con autocorrelazione gaussiana, cioè
2
rXX (m) = σI2 ρm .

Ex. 1.9 Un segnale aleatorio X(t), stazionario almeno del 1o ordine, avente una pdf
tipo Laplace, cioè: " √ #
1 2|x|
fX (x) = √ exp −
2σ σ
è cimato, con un cimatore ideale simmetrico, al livello XM .
Determinare il fattore di carico Kc , XM /σ in modo che la frazione di tempo in cui
si ha cimatura sia 10−5 .

46
Ex. 1.10 Si consideri il sistema LTI avente la seguente risposta impulsiva:

h(n) = ban−1 u(n − 1)

2
con in ingresso una sequenza di v.a. iid X(n) con media µX e varianza σX .
Stabilire le condizioni cui devono soddisfare a e b per avere un sistema stabile. De-
terminare inoltre a e b in modo che l’uscita abbia la stessa media dell’ingresso ed una
2
varianza pari ad un decimo di σX .

Ex. 1.11 Si consideri il segnale di energia


N
X −1
x(t) = a(n)p(t − nT )
n=0

con a(n) sequenza finita deterministica e p(t) impulso arbitrario.


Mostrare che la ESD di x(t) è data dal prodotto delle ESD della sequenza modulante
a(n) e di quella di p(t); conseguentemente l’autocorrelazione di x(t), antitrasformata
dell’ESD, vale
+∞
X
rXX (τ ) = ra (m)rp (τ − mT )
−∞

Ex. 1.12 Determinare la PSD del segnale Y (t) = X(t) · cos(ω0 t + Θ), dove X(t) è
un segnale binario sincrono NRZ e Θ è una v.a. statisticamente indipendente da X(t)
uniforme in (0, 2π).

47