Esplora E-book
Categorie
Esplora Audiolibri
Categorie
Esplora Riviste
Categorie
Esplora Documenti
Categorie
Ernesto Conte
9 marzo 2007
ii
Indice
1 Segnali aleatori 1
1.1 Segnali aleatori: definizione e classificazione . . . . . . . . . . . . . 1
1.2 Caratterizzazione statistica di segnali aleatori . . . . . . . . . . . . . 3
1.2.1 Caratterizzazione di i-esimo ordine . . . . . . . . . . . . . . 3
1.2.2 Caratterizzazione sintetica . . . . . . . . . . . . . . . . . . . 8
1.3 Segnali aleatori stazionari . . . . . . . . . . . . . . . . . . . . . . . . 12
1.4 Caratterizzazione congiunta . . . . . . . . . . . . . . . . . . . . . . . 14
1.5 Processi complessi . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.6 Processi gaussiani . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.7 Ergodicità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.8 Caratterizzazione energetica dei segnali . . . . . . . . . . . . . . . . 20
1.8.1 Segnali di energia e di potenza . . . . . . . . . . . . . . . . . 20
1.8.2 Densità spettrali di energia e di potenza . . . . . . . . . . . . 22
1.8.3 Segnali PAM . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.9 Legami Ingresso Uscita per sistemi LTI . . . . . . . . . . . . . . . . 34
1.9.1 Analisi dei sistemi LTI nel dominio del tempo . . . . . . . . . 35
1.9.2 Legami ingresso uscita per le PSD . . . . . . . . . . . . . . . 39
1.10 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
iii
iv
Capitolo 1
Segnali aleatori
1.1 Segnali aleatori: definizione e classificazione
Un segnale aleatorio (s.a.) X(t) è una famiglia di v.a.
{X(t), t ∈ T}
con insieme di indici T, tutte definite sullo stesso spazio campione {Ω, E, P }.
L’insieme degli indici T è usualmente denominato insieme dei tempi, essendo que-
sto il caso più comune; conseguentemente, se T è discreto, tipicamente in tal caso
T = N o T = Z, il s.a. si dice a tempo discreto; analogamente, si dice a tempo conti-
nuo se T è continuo e, in tal caso, di norma, T = R o T = R+ = [0, +∞). I segnali
a tempo discreto sono pertanto le successioni di v.a. e, nel caso particolare di insieme
dei tempi finito, cioè:
T = Nn , {1, 2, . . . n}
il s.a. si riduce ad ve.a.. Inoltre, se l’insieme dei tempi è non negativo (N o R+ ) il
segnale è detto monolatero, altrimenti esso è bilatero.
I s.a., oltre che con riferimento all’insieme dei tempi, si classificano anche sulla
scorta del tipo di v.a. che lo costituiscono: precisamente {X(t), t ∈ T} si dice ad
ampiezza discreta se i suoi campioni sono v.a. discrete, mentre si dice ad ampiezza
continua, o analogico, se i suoi campioni sono v.a. continue.
Se, fissato ω ∈ Ω, si considerano tulle le determinazioni delle v.a. {X(t), t ∈
T} si ha una funzione reale del tempo, diciamola x(t): tale funzione è denominata
realizzazione, o determinazione o funzione membro, del s.a. X(t). In altri termini il
s.a. può anche essere definito come la corrispondenza
X : ω ∈ Ω −→ x(t) ∈ RT
in A ed a valori in B
1
6
x(t, ω)
t1 -
t2 t
ω1
ω2
ω
t ∈ T, si ha un numero reale: in altri termini il s.a. è una funzione di due variabili una
ω ∈ Ω e l’altra t ∈ T, cioè:
X : (ω, t) ∈ Ω × T −→ x(t) ∈ R
In conclusione un s.a. può essere riguardato come un insieme di funzioni del tempo
o come una famiglia di v.a.; in ogni caso va tenuto presente che la notazione X(t) pu ò
avere quattro diversi significati e cioè (fig. 1.1):
• una famiglia di funzioni del tempo ovvero una famiglia di v.a. (t e ω variabili),
cioè il segnale aleatorio;
• una singola funzione del tempo (t variabile e ω fissato); cioè una funzione
membro del segnale aleatorio;
Ω = Nn , {1, 2, . . . n}
2
Esempio 2 Sinusoide a fase uniforme
Sia Ω = [0, 2π) con legge di probabilità uniforme (la probabilità di un sotto-intervallo
di [0, 2π) è proporzionale alla lunghezza dell’intervallo); allora
3
In altri termini, un s.a. si caratterizza se si assegna la caratterizzazione dei vettori
di dimensione finita, ma arbitraria, comunque estratti dal s.a.. Ad esempio, supposto,
per fissare le idee, il segnale ad ampiezza continua occorre assegnare la successione di
pdf congiunte:
fXti (x; t) ≡ fX(t1 ),X(t2 )...X(ti ) (x1 , x2 , . . . , xi ; t1 , t2 , . . . ti ) i∈N (1.6)
ove
x1
x2
x= .. ∈ Ri (1.7)
.
xi
è il vettore dei valori che il ve.a. dei campioni considerati (1.4) può assumere. Notiamo
esplicitamente che la notazione utilizzata evidenzia che la pdf congiunta di ordine i del
s.a. X(t) dipende anche dagli i istanti di tempo considerati, come del resto è ovvio in
quanto al variare di tali istanti si ottiene un diverso ve.a..
Se è assegnato lo spazio di probabilità {Ω, E, P (·)} ed il s.a. X(t) allora, almeno
in linea di principio, si possono calcolare le distribuzioni di probabilità del vettore dei
campioni (1.4) comunque lo si scelga.
4
In altri termini l’evento {X(n) = j} è la probabilità che X(n) assuma valori nel plu-
rintervallo Aj che, indipendentemente da j e da n, ha lunghezza 21 e quindi probabilità
1
2 . Pertanto la pmf del prim’ordine è:
1
pX(n) (x) = x ∈ {0, 1}
2
ovvero sinteticamente:
1
X(n) ∼ B 1, ∀n ∈ N
2
Si noti che per il s.a. in esame la pmf del 1o ordine non dipende dall’istante di
tempo considerato: in altri termini i campioni del segnale sono v.a. identicamente
distribuite.
Per la caratterizzazione di ordine superiore occorre valutare probabilità congiunte
del tipo:
P ({X(n1 ) = j1 } ∩ {X(n2 ) = j2 } ∩ · · · ∩ {X(ni ) = ji })
A tal fine, per fissare le idee, valutiamo la
Poiché inoltre
1 1 1
P ({X(1) = 1}) = P ({X(2) = 0}) = P ({X(3) = 1}) =
2 2 2
gli eventi considerati sono statisticamente indipendenti. Con considerazioni analoghe
è possibile dimostrare che comunque si estraggano v.a. dal processo in esame que-
ste risultano statisticamente indipendenti. Conseguentemente la pmf congiunta di i
campioni è data semplicemente dal prodotto delle i pmf marginali; in altri termini si
ha:
pX(n1 ),X(n2 )···X(ni ) (j1 , j2 · · · ji ; n1 , n2 , · · · ni ) =
Y i
1 (1.8)
pX(nk ) (jk ; nk ) = i
2
k=1
Si noti che la pmf congiunta dipende solo dal numero i di campioni considerati
idipendentemente dagli istanti in cui tali campioni sono presi, J
5
più v.a.: tale, ad esempio, è il caso della sinusoide a fase aleatoria dell’esempio 2, che
può, equivalente, essere definita in modo come segue:
Più in generale per tale tipo di segnali, detti anche segnali a parametri aleatori, si ha
X(t) = g(t; Y) ove Y è un ve.a. di assegnata pdf congiunta. In questo caso la carat-
terizzazione probabilistica del segnale aleatorio può ottenersi da quella dei parametri
con le tecniche di trasformazioni di ve.a.
Non sempre i s.a. sono assegnati a partire dallo spazio di probabilità che sotten-
dono: infatti possono essere assegnati direttamente dando una famiglia di distribuzio-
ne di probabilità consistente. Invero sussiste il seguente teorema che ci limitiamo ad
enunciare:
Teorema di estensione di Kolmogorov: Assegnata una famiglia consistente di distri-
buzioni (CDF, pdf o pmf ) di ordine i PX(t1 )X(t2 )···X(ti ) (·), comunque scelto i ∈ N
e comunque scelti gli istanti di tempo t1 , t2 , · · · ti ∈ T, esiste un processo aleatorio
consistente con tale famiglia.
6
Come è immediato verificare, la successione di tali pmf è consistente: pertanto essa, a
norma del Teorema di Kolmogorov, definisce un segnale aleatorio.
Si osservi che la pmf congiunta dipende dal numero i dei campioni considerati,
ma non dall’istante iniziale k. Inoltre, aver considerato i campioni consecutivi non è
limitativo perché la pmf congiunta dei campioni, per l’indipendenza è data dal pro-
dotto delle pmf marginali dei singoli campioni; inoltre, essendo le v.a. identicamente
distribuite, tale pmf marginale non dipende dagli istanti di tempo in cui i campioni so-
no presi. In conclusione la pmf congiunta è data in ogni caso dalla (1.10), ove X è il
vettore di i campioni comunque scelti.
Tipicamente un processo di Bernoulli è associato ad un esperimento aleatorio con-
sistente in una serie infinita di prove relative al verificarsi o meno di un evento E nella
generica prova; ogni prova può, quindi, avere due esiti, convenzionalmente denominati
successo S ed insuccesso I. Le successive prove sono indipendenti e sono effettuate
sotto identiche condizioni, la probabilità di successo in una generica prova è p, la pro-
babilità di insuccesso è q = 1 − p. Ad esempio, se l’esperimento è una serie di lanci
di una moneta ben bilanciata allora p = q = 0.5; se l’esperimento è l’osservazione del
comportamento delle autovetture a un dato bivio assumendo come successo la svolta a
destra, e se si osserva che la percentuale di autovetture che svoltano a destra nel lungo
termine è 62% allora p = 0.62; se l’esperimento consiste nell’osservare la n-sima cifra
frazionaria di un numero reale x scelto a caso in [0, 1) allora p = q = 0.5. All’espe-
rimento è associato un segnale X(n) nel seguente modo: X(n) = 1 se nell’ennesima
prova si è avuto un successo, altrimenti X(n) = 0, in altri termini X(n) e l’indica-
tore dell’evento E relativamente all’ n-sima prova: il segnale che cosı̀ si ottiene è un
processo di Bernoulli.
Notiamo esplicitamente che il processo di Bernoulli assegnato direttamente descri-
ve svariati esperimenti tutti però riconducibili allo schema precedentemente delineato
(processi aleatori equivalenti). J
Notiamo esplicitamente che, come evidenzia la notazione utilizzata, la pdf dipende non
7
solo dalle i variabili reali x1 , x2 , . . . xi , ma anche dagli i istanti temporali, congruente-
mente con quanto visto in generale per un qualunque s.a.
Se le v.a. della successione oltre ad essere indipendenti sono anche identicamente
distribuite (successioni di v.a. iid) allora la pdf marginale del singolo campione non
dipende dal tempo, dovendo essere sempre la stessa per un qualunque valore dell’indice
della successione; conseguentemente anche la pdf congiunta non dipende dagli istanti
di tempo considerati. J
Nel caso di sequenze, si preferisce utilizzare i simboli n e k per denotare i due istanti
considerati, per cui la funzione di autocorrelazione in tempo-tempo è
8
P1. Il valore per t = s è il valore m.s. del segnale, cioè
per segnali a tempo continuo; per segnali a tempo discreto si preferisce la notazione:
e quindi gode delle stesse proprietà della funzione di autocorrelazione; inoltre tali
funzioni sono legate dalla relazione:
rXX (t, s) = cXX (t, s) + µX (t)µX (s) rXX (n, k) = cXX (n, k) + µX (n)µX (k)
9
Esempio 7 Successioni di v.a. indipendenti]
Iniziamo col considerare una successione X(n) di v.a. iid. Poiché, come precedente-
mente osservato, la caratterizzazione del segnale non dipende dal tempo, media, valore
rms e varianza del processo sono anch’essi indipendenti dal tempo, cioè:
2 2
µX (n) = µX Xrms (n) = Xrms σX (n) = σX (1.13)
2
ove µX , Xrms e σX sono, rispettivamente, media, valore rms e varianza della v.a. X(n).
In particolare se le v.a. sono binarie, cioè X(n) è un processo di Bernoulli, come è
immediato verificare, risulta:
√ 2
µX (n) = p Xrms (n) = p σX (n) = p(1 − p) = pq
o equivalentemente:
2
rXX (n, k) = µ2X + σX δ(n − k) (1.14)
in altri termini una qualunque sucessione di v.a. iid ha una funzione di autocovarianza
impulsiva. Si noti che la (1.15) afferma semplicemente che, essendo i campioni del
processo indipendenti, essi sono anche incorrelati, purché distinti (n 6= k).
Risultati analoghi sussistono per successioni di v.a. indipendenti, ma non necessa-
riamente identicamente distribuite. Invero, in questo caso, media, valore rms e varianza
del processo sono funzione dell’istante considerato. Analogamente autocorrelazione ed
autocovarianza hanno espressioni simili; precisamente si ha:
2
rXX (n, k) = µ2X (n) + σX (n)δ(n − k) (1.16)
10
Esempio 8 Sinusoide a fase uniforme.
2
X 2 (t) = σX (t) = E A2 cos2 (2πf0 t + Θ) =
= 12 A2 + E 12 A2 cos(4πf0 t + 2Θ) = 12 A2
1 2
rXX (t, s) = A cos([2πf0 (t − s)] (1.18)
2
Si noti che la funzione di autocorrelazione non dipende singolarmente dai due
istanti di tempo t ed s, ma solo dalla loro differenza τ = t − s. J
11
1.3 Segnali aleatori stazionari
Come precedentemente osservato, le varie caratterizzazioni probabilistiche prima in-
trodotte dipendendono dagli istanti di tempo considerati; cosı̀ ad esempio la pdf con-
giunta di ordine i (1.6) è funzione degli i valori che i campioni del s.a. possono assu-
mere, ma anche degli i istanti temporali. Se le varie caratterizzazioni di un s.a., almeno
in qualche misura, non sono affette dalla scelta dell’origine dei tempi, il segnale si dice
stazionario. Tuttavia occorre precisare questo concetto perché esistono diversi livelli
di stazionarietà.
Un segnale X(t), t ∈ T si dice stazionario in senso stretto, o semplicemente stazio-
nario, se i due segnali X(t) e X(t − T ) hanno la stessa caratterizzazione; la traslazione
T è arbitraria, ma l’istante t − T deve appartenere a T per qualsiasi t; in altri termini
deve aversi:
T : t − T ∈ T∀t (1.19)
quindi i suoi campioni sono v.a. identicamente distribuite; in tal caso, necessariamente:
cioè la media è indipendente dal tempo (più in generale lo sono tutti i momenti della
v.a. X(t)).
12
Analogamente, se un segnale è stazionario almeno del secondo ordine allora si ha:
fX(t1 ),X(t2 ) (x1 , x2 ; t1 , t2 ) = fX(t1 −T ),X(t2 −T ) (x1 , x2 ; t1 − T, t2 − T )
(1.21)
= fX(t1 −t2 ),X(0) (x1 , x2 ; t1 − t2 , 0)
e quindi la pdf del secondo ordine è funzione solo della differenza τ = t1 − t2 . Ne
segue che anche le funzioni di autocorrelazione e di autocovarianza dipendono soltanto
dalla differenza τ :
rXX (t1 , t2 ) = rXX (t1 − t2 , 0) , rXX (τ )
(1.22)
cXX (t1 , t2 ) = cXX (t1 − t2 , 0) , cXX (τ )
In molti casi, quando è sufficiente la caratterizzazione globale del segnale (cioè media
e autocorrelazione), siamo interessati soltanto al verificarsi della (1.20) e della (1.22);
ciò conduce ad una forma più debole di stazionarietà. Un segnale si dice stazionario in
senso lato (SSL o WSS) se la media è costante nel tempo (1.20) e l’autocorrelazione
o l’autocovarianza dipende soltanto dalla differenza tra i due istanti di tempo (1.22),
cioè dal ritardo τ . Ad esempio, la sinusoide a fase uniforme considerata nell’esempio
8, la cui media è nulla e la cui acf è data da (1.18), è SSL. Si osservi che, proprio per-
ché spesso l’ipotesi di stazionarietà in senso lato è soddisfatta, nel definire le funzioni
di autocorrelazione e di autocovarianza si preferisce far riferimento alla funzione di
autocorrelazione in tempo-ritardo anziché a quella in tempo-tempo.
Nel definire i vari tipi di stazionarietà le traslazioni considerate sono arbitrarie. Se
invece ci si limita a considerare solo traslazioni del tipo T = kT0 con k ∈ Z, cioè
traslazioni tutte multiple intere di un periodo fondamentale T0 purché ammissibili, si
ha la cosı̀ detta ciclostazionarietà.
Precisamente X(t) è ciclostazionario di ordine i se i due segnali X(t) e X(t−kT0 )
hanno la stessa caratterizzazione di ordine i per ogni k: in altri termini la pdf (rispet-
tivamente pmf ) congiunta di ordine i (e quindi a nche quelle di ordine inferiore) è
funzione periodica di periodo T0 . Un segnale si dice poi ciclostazionario se è ciclosta-
zionario di ordine i per ogni i. Ad esempio, la sinusoide a fase uniforme (esempio2),
come è immediato verificare, è ciclostazionaria di periodo T0 = |f10 | . Infine un s.a. si
dice ciclostazionario in senso lato se:
• la media del segnale è periodica di periodo T0 ;
13
Notiamo infine che spesso la ciclostazionarietà, come illustrato dall’esempio della
sinusoide a fase uniforme, traduce una periodicità intrinseca del segnale.
Anche il concetto di stazionarietà può essere esteso a coppie di segnali aleatori in modo
ovvio. Ci limitiamo a considerare esplicitamente solo la stazionarietà in senso lato:
due segnali aleatori, X(t) e Y (t), si dicono congiuntamente stazionari in senso lato se
X(t) e Y (t) sono singolarmente SSL e se inoltre la loro funzione di mutua correlazione
(equivalentemente la funzione di mutua covarianza) dipende solo dal ritardo, cioè:
Osserviamo infine che quanto esposto con riferimento ai segnali a tempo continuo vale
anche mutatis mutandis per le sequenze.
14
1.5 Processi complessi
È utile prendere in esame anche processi complessi:
Infatti, come è facile verificare, specificare la rZZ (·, ·) e la RZZ (·, ·) è equivalente a
specificare rXX (·, ·), rY Y (·, ·), rXY (·, ·) e la rY X (·, ·) e viceversa. Tuttavia spesso la
RZZ (·, ·) non viene presa esplicitamente in considerazione in quanto, per la maggior
parte dei processi di interesse, essa è identicamente nulla.
Qualora si considerino due (o più) processi complessi, diciamoli Z(t) e V (t),
occorre introdurre la funzione di mutua-correlazione in tempo-tempo:
Nel considerare i processi complessi si è fatto riferimento alle funzioni di auto e mutua
correlazione nonché alle forme d’onda: in modo ovvio si introducono anche le funzione
di auto e mutua covarianza e si estendono tali definizioni alle sequenze.
15
Osserviamo che la funzione di mutua correlazione compare naturalmente quando
si combinano tra loro più segnali. Ad esempio, l’autocorrelazione del segnale somma
Z(t) = X(t) + Y (t) è data da:
fX (u0 , u1 , · · · , uN −1 ) = fX (u) =
= √ 1N exp − 21 (u−µ)T C−1 (u−µ) (1.24)
(2π) |C|
X ∼ N(µ, C)
16
Analogamente N v.a. complesse Z(0), Z(1), · · · , Z(N − 1), eventualmente organiz-
zate in un vettore complesso Z, si dicono congiuntamente gaussiane se tali sono le 2N
variabili aleatorie reali:
N −1
1 X [ui − µX (ti )]2
−
2 i=0 cXX (ti , ti )
17
e la pdf congiunta (1.24) diventa
N
Y −1
1 1 [ui − µ(ti )]2
fX (u0 , u1 , . . . , uN −1 ) = p exp −
i=0
2πcXX (ti , ti ) 2 cXX (ti , ti )
1.7 Ergodicità
La caratterizzazione probabilistica di un segnale aleatorio non è sempre disponibile:
in tali situazioni occorre misurare, sulla scorta di un adeguato numero di campioni del
segnale, le grandezze d’interesse.
Ad esempio, supposto per fissare le idee il segnale X(n) a tempo discreto, dovendo
valutarne la media statistica se ne valuta la media temporale sull’intervallo −N ≤ n ≤
N:
XN
1
µ
bN = X(n) (1.27)
2N + 1
n=−N
ovviamente tale media dipende dalla realizzazione utilizzata, e, quindi, è una v.a.; per
contro la media statistica del segnale:
µX (n) = E[X(n)]
µN ] = µX
E[b (1.28)
18
Pertanto la misura della media statistica, data dalla (1.27), è in genere affetta da un
errore aleatorio dato da
ε=µ bN − µX
la cui quantificazione è distinta in due contributi. Il primo è l’errore sistematico, detto
anche polarizzazione dello stimatore µ bN :
µ N ] − µX
E[ε] = E[b (1.30)
allora la misura è mediamente corretta e l’errore m.s. può essere reso piccolo a piacere
aumentando il numero 2N + 1 dei campioni; in altri termini, µ bN converge alla media
statistica µX .
Risultati analoghi valgono se il segnale è a tempo continuo: in tal caso lo stimatore
della media statistica è: Z T
1
µ
bT = X(t)dt (1.32)
2T −T
Una semplice condizione sufficiente per l’ergodicita della media è espressa dal
seguente
Teorema Ergodico: condizione sufficiente affinché un segnale aleatorio SSL, avente
valore quadratico medio finito, sia ergodico per la media è che i suoi campioni siano
asintoticamente incorrelati, cioè che la sua autocovarianza sia infinitesima la crescere
della separazione temporale tra i campioni del segnale. Se invece i campioni sono
asintoticamente correlati, se cioè:
19
Tale risultato è noto come Legge dei grandi numeri: pertanto la condizione di ergodicità
della media (1.31) generalizza alle sequenze correlate tale legge.
Più in generale si pone il problema di stabilire sotto quali condizioni una determi-
nata caratteristica probabilistica del segnale (media, valore m.s., funzione di autocor-
relazione, CDF, ecc.) possa essere misurata, con sufficiente accuratezza, come media
temporale di una funzione membro, eventualmente opportunamente pre-elaborata, su
di un’intervallo d’osservazione finito. Precisamente occorre stabilire in quali ipotesi la
media temporale di una opportuna funzione del segnale converga, in media quadratica,
alla grandezza di interesse al crescere del numero dei campioni; in altri termini occorre
stabilire, supposto il segnale tempo discreto, sotto quali ipotesi
P ({EX }) = +∞}) = 0
e quindi l’energia delle singole realizzazioni deve essere finita almeno con probabilità
uno.
Si noti che l’energia non è additiva, ma, come è facile verificare, l’energia del
segnale somma Z(·) = X(·) + Y (·) vale:
EZ = EX + EY + EXY + EY X (1.35)
20
ove EXY = EY∗ X è l’energia mutua, definita da:
Z
E ∗
X(t)Y (t)dt segnale tempo continuo
T
EXY , E[EXY ] = " # (1.36)
X
X(n)Y (n)∗
E
segnale tempo discreto
n∈T
vale:
PZ = PX + PY + PXY + PY X
ove PXY = PY∗ X è la potenza mutua definita da:
21
Si noti che, ipotizzando di poter scambiare le operazioni di media statistiica con
quella d’integrazione o di media temporale, nel caso di segnali d’energia si ha:
Z
rXX (t, t)dt segnale tempo continuo
T
EX = X
rXX (n, n) segnale tempo discreto
n∈T
22
e ovviamente si ha
Sxy (·) = S∗yx (·)
Se i due segnali coincidono, allora si ottiene la densità spettrale d’energia:
Sxx (f ) = Ex T sinc2 (f T )
Si noti infine che sviluppando |X(·) + Y (·)|2 è immediato mostrare che l’ESD del
segnale somma x(·) + y(·) è data da:
Sx+y (·) = Sx (·) + Sy (·) + Sxy (·) + Syx (·) = Sx (·) + Sy (·) + 2<e{Sxy (·)} (1.42)
23
Per i segnali aleatori di energia è possibile introdurre l’ESD mutua ed auto come
media statistica di quella valutata sulla generica funzione membro, ma tale caso non è
di grossa rilevanza pratica perché i segnali d’interesse sono di norma segnali di potenza.
Per i segnali di potenza ha interesse considerare la distribuzione in frequenza della
potenza mutua (1.40) di X(·) e Y (·) e si definisce lo spettro di potenza mutua o densit à
spettrale di potenza mutua di X(·) e Y (·), e la si denota col simbolo SXY (·), il limite
1
SXY (f ) = lim E [XT (f )YT∗ (f )] (1.43)
T →∞ 2T
dove XT (f ) e YT (f ) denotano gli spettri dei segnali troncati. In altri termini la PSD
mutua è il limite dell’ESD media dei segnali troncati divisa per l’ampiezza dell’inter-
vallo di osservazione al crescere di tale ampiezza. Analogamente nel caso di segnali a
tempo discreto, con ovvio significato dei simboli, si pone
1
SXY (ν) = lim E [XN (ν)YN∗ (ν)] (1.44)
N →∞ 2N + 1
Ponendo nelle definizioni (1.43) e (1.44) X(·) ≡ Y (·) si ottiene la definizione della
PSD del segnale X(·)
E |XT (f )|2 E |XN (ν)|2
SXX (f ) = lim SXX (ν) = lim (1.45)
T →∞ 2T N →∞ 2N + 1
In altri termini la PSD è il limite della media del periodogramma P (·), definito da:
1 1
PT (f ) , |XT (f )|2 PN (ν) , |XN (ν)|2 (1.46)
2T 2N + 1
Si noti che, dalle definizioni introdotte, segue che l’ESD e la PSD sono funzioni
reali non negative,
SXX (·) ≥ 0
e che gli spettri mutui di energia e di potenza soddisfano la seguente proprietà di
simmetria:
SXY (·) = S∗Y X (·)
che per segnali reali diventa:
24
Esempio 10 PSD di una sinusoide a fase aleatoria
1 1
E{|XT (f )|2 } = A2 2T sinc2 [2(f − f0 )T ] + 2T sinc2 [2(f + f0 )T ]
2T 4
onde, passando al limite per T → ∞, si ricava:
1 2
SXX (f ) = A [δ(f − f0 ) + δ(f + f0 )]
4
Pertanto la PSD di una sinusoide a fase iniziale uniforme è costituito da due righe
(δ-impulsi) alle frequenze ±f0 . J
Come evidenziato da tale esempio, la PSD può essere valutata mediante definizione
se è disponibile l’espressione analitica della generica funzione membro (segnali a para-
metri aleatori). Ma, poiché, in genere, di un segnale aleatorio è nota la caratterizzazione
statistica nel dominio del tempo, la PSD viene comunemente valutata col:
rXY (τ ) ,< E[X(t)Y ∗ (t − τ )] > r XY (m) ,< E[X(n)Y ∗ (n − m)] > (1.47)
rXX (τ ) ,< E[X(t)X ∗ (t − τ )] > r XX (m) ,< E[X(n)X ∗ (n − m)] > (1.48)
25
Esempio 11 PSD e banda di un segnale con acf esponenziale
2T
SXX (f ) = PX
1 + (2πf T )2
2
1−= arctan [2πBT ]
π
da cui si ricava: π
1
B = tan [1 − ]
2πT 2
In particolare:
1 π 2
B0.05 = tan 0.95 Hz '
2πT 2 T
è la banda al 95% dell’energia. J
Si osservi che anche per i segnali di potenza, come è facile verificare, la PSD del
segnale somma è data da una relazione del tutto analoga alla (1.42). Conseguentemen-
te, se i due segnali sono incoerenti allora, a norma del teorema di Wiener-Kinchine, la
loro PSD mutua è nulla; pertanto non solo l’autocorrelazione di una somma di segnali
incoerenti è la somma delle singole autocorrelazioni, ma anche la PSD della somma di
segnali incoerenti è la somma delle PSD dei singoli addendi.
Si osservi infine che le considerazioni svolte con riferimento ai segnali di potenza
aleatori valgono anche per i segnali deterministici, solo che in tal caso l’operazione di
media statistica è ridondante.
26
1.8.3 Segnali PAM
Di notevole interesse per le applicazioni sono i segnali PAM, cioè i segnali del tipo
+∞
X
X(t) = A(n)p(t − nT ) (1.49)
n=−∞
ove p(t) è un segnale impulsivo, cioè un segnale di energia, anche se è utile includere
come caso limite l’impulso ideale δ(t), ed A(n) è una sequenza in genere aleatoria, det-
ta sequenza modulante. L’andamento tipico di un segnale PAM è riportato in fig. 1.2:
precisamente nella fig. 1.2b è riportata una realizzazione a(n) della sequenza modulan-
te A(n) ed in fig. 1.2c la corrispondente realizzazione x(t) del segnale PAM, con p(t)
impulso rettangolare di durata T /2 (fig. 1.2a).
6
p(t)
a)
-
T t
2
6
a(n)
b)
-
n
6
x(t)
c)
-
t
Figura 1.2: Impulso base a), sequenza modulante b) e segnale PAM c).
Sono, per esempio, di tipo PAM i segnali utilizzati nelle trasmissioni numeriche
multilivello: precisamente in tal caso una sorgente discreta emette, in modo cadenzato,
ogni T secondi, un simbolo a(n) ed un modulatore di dati, disposto in cascata, genera
27
a(n) x(t)
Sorgente - Modulatore -
numerica
6
∼ p(t)
aventi cioè stesso periodo T . Consideriamo 2N + 1 impulsi dei segnali PAM, cioè i
segnali:
N
X N
X
XN (t) = A(n)p(t − nT ) YN (t) = B(n)q(t − nT )
n=−N n=−N
YN (f ) = Q(f )BN (f T )
1
SXY (f ) , lim E [XN (f )YN∗ (f )]
N (2N + 1)T
1 1
= lim E [P (f )AN (f T )Q∗ (f )BN (f T )]
T N 2N + 1
1 1
= P (f )Q∗ (f ) lim E [AN (f T )BN (f T )]
T N 2N + 1
28
Il limite all’ultimo membro della relazione precedente è, per definizione, la PSD mutua
SAB (ν) tra le due sequenze modulanti valutato in ν = f T per cui,in definitiva, si ha:
1
SXY (f ) = P (f )Q∗ (f )SAB (f T ) (1.51)
T
Pertanto la PSD mutua tra due PAM isocroni, a meno del fattore 1/T , è data dal
prodotto della ESD mutua tra i due impulsi base
Spq (f ) = P (f )Q∗ (f )
la (1.51) diventa
1
SXX (f ) = |P (f )|2 SAA (f T ) (1.52)
T
che esprime la PSD di un segnale PAM. Pertanto la PSD di un segnale PAM è pari, a
meno del fattore di scala T1 , al prodotto della ESD dell’impulso base per la PSD della
sequenza modulante, valutata per ν = f T .
Un caso molto comune di segnale PAM è quello la cui sequenza modulante A(n) è
una successione di v.a. iid, che modella l’emissione di simboli da parte di una sorgente
numerica senza memoria secondo lo schema generale di fig. 1.3.
In fig. 1.4 è riportato una possibile realizzazione di tale segnale nel caso di sequenza
modulante binaria, nel caso cioè che le v.a. A(n) siano bernoulliane, sia nel caso di
impulso base di tipo rettangolare di durata T (impulso NRZ ≡ Non-Return to Zero) che
di impulso rettangolare di durata inferiore a T (impulso RZ), precisamente di durata
T /2 nel caso di figura. Poiché l’informazione binaria è affidata alla presenza o meno
dell’impulso p(t) nel corrispondente intervallo di bit, tale tecnica di segnalazione viene
chiamata segnalazione ON-OFF.
Ricordando che l’autocorrelazione di una sequenza di v.a. iid vale:
+∞
X
2
rAA (m) = σA δ(m) + µ2A ⇔ SAA (ν) = 2
σA + µ2A δ(ν − k)
k=−∞
29
6
p(t) 6
p(t)
- -
T t T /2 t
Impulso NRZ Impulso RZ
6
a(n)
-
n
Sequenza modulante
6
x(t)
-
T t
6
x(t)
-
T t
30
ed il suo spettro di potenza è interamente determinato dallo spettro d’energia dell’im-
pulso base. In particolare se l’impulso p(t) è un impulso rettangolare NRZ di ampiezza
unitaria la ESD vale:
Spp (f ) = T sinc2 (f T ) (1.54)
tutte le righe spettrali, tranne quella a frequenza zero, corrispondente alla potenza in
continua, si annullano, e la parte continua della PSD è proporzionale allo spettro di
energia dell’impulso NRZ. In altri termini lo spettro di potenza del segnale numerico
sincrono senza memoria NRZ è
2
SXX (f ) = µ2A δ(f ) + σA T sinc2 (f T )
Tale relazione in particolare evidenzia che tale segnale ha una banda B sostanzialmente
pari alla cadenza 1/T con cui i simboli sono emessi dalla sorgente.
Se invece si utilizza un impulso rettangolare RZ di ampiezza unitaria e durata T /2,
la ESD vale:
1 1
Spp (f ) = T sinc2 fT (1.55)
2 2
lo spettro di potenza è:
+∞
1 2 X 2 k k 1 2 2 1
SXX (f ) = µA sinc δ f− + σA T sinc fT
4 2 T 4 2
k=−∞
Quindi nella PSD del segnale numerico sincrono senza memoria RZ oltre alla riga a
frequenza zero, associata alla potenza in continua, sono presenti righe spettrali alle
frequenze armoniche dispari della cadenza 1/T , e la banda è pari al doppio della ca-
denza. Pertanto il segnale numerico sincrono senza memoria RZ ha il vantaggio di
semplificare il recupero del sincronismo, grazie alla presenza di righe spettrali a fre-
quenza armonica della cadenza, ma al prezzo di una dimezzamento della potenza e di
un raddoppio della larghezza di banda.
La presenza nella segnalazione ON-OFF di righe spettrali costituisce uno spreco di
potenza: infatti è possibile dimostrare che il tasso di simboli errati, dovuti al rumore che
si aggiunge al segnale nella trasmissione, diminuisce all’aumentare della separazione
tra i due livelli del segnale. A ciò si può facilmente ovviare, utilizzando una sequenza
modulante a valor medio nullo. Nel caso binario con bit equiprobabili, ciò si realizza
codificando i bit emessi dalla sorgente come segue
in altri termini si convertono gli zeri in −1. Nella fig. 1.5 è riportato un tipico andamen-
to di tale PAM sia nel caso di impulsi NRZ che di impulsi RZ. Poiché in questo caso
l’informazione è affidata al segno dell’impulso tale tipo di segnalazione è denominata
31
6
a(n)
-
n
Processo di Bernoulli
6
b(n)
-
n
Sequenza modulante
6
x(t)
-
t
6
x(t)
-
t
32
a(n) b(n) x(t)
Sorgente - Codificatore - Modulatore -
numerica
6
∼ p(t)
SXX (f ) = T sinc2 (f T )
ed è dato da
1 2 1
SXX (f ) = T sinc fT
4 2
nel caso di impulso RZ (vedi (1.55)).
Dal confronto di tali spettri si evince che il segnale binario sincrono antipodale
NRZ ha una banda metà di quello RZ ed una potenza doppia. Da tale punto di vista
il confronto è nettamente a vantaggio del segnale NRZ. Tuttavia si noti che il segnale
RZ, anche se non in modo evidente, contiene informazione sulla cadenza: è infatti
sufficiente raddrizzare il segnale RZ, prenderne cioè il modulo, per ottenere un segnale
periodico di periodo T da cui estrarre la cadenza. J
Il segnale numerico sincrono impiegante un impulso base di tipo rettangolare ha
uno spettro di potenza di tipo passa basso, pertanto per poterlo trasmettere è necessario
un canale che abbia una buona risposta nell’intorno della frequenza zero. Ma molti
canali, in particolare quello telefonico, hanno una cattiva risposta in bassa frequenza:
in tal caso si pone il problema di modificare la distribuzione spettrale della potenza
allo scopo di adattare le caratteristiche spettrali del segnale a quelle del canale. Dalla
espressione generale (1.52) della PSD si evince che tale risultato si può conseguire o
cambiando l’impulso base o agendo sulla sequenza modulante. Di norma si preferisce
questa seconda strada in quanto perseguibile con tecniche numeriche; precisamente
lo schema di generazione del segnale di fig. 1.3 si modifica in quello di fig. 1.6 ove
lo schema di codifica va scelto in modo da conferire le proprietà desiderate alla PSD
(codifica di linea). In generale però per sagomare lo spettro è necessario far ricorso ad
una codifica con memoria che, introducendo una correlazione tra i simboli emessi dalla
sorgente senza memoria, consente di ottenere una PSD radicalmente diversa dalla ESD
dell’impulso base (correlative coding).
33
Esempio 13 Segnale binario sincrono: caso generale
Il segnale (1.56) può essere riguardato come la somma di due PAM isocroni ON-OFF, il
primo con modulante A(n) ed impulso base p1 (t) ed il secondo con modulante B(n) =
1 − A(n) ed impulso base p0 (t).
Se la sorgente è senza memoria A(n) è un processo di Bernoulli di parametro p;
conseguentemente anche B(n) è un processo di Bernoulli, ma di parametro q = 1 −
p; pertanto, come è immediato verificare auto e mutue correlazioni di tali sequenze
valgono:
rAA (m) = pqδ(m) + p2
rBB (m) = pqδ(m) + q 2
rAB (m) = −pqδ(m) + pq
Pertanto calcolando lo spettro di potenza del segnale (1.56) come somma della PSD del
primo addendo, più quella del secondo più le loro PSD mutue, con facili manipolazioni
algebriche, si perviene alla seguente espressione per la PSD di tale segnale, cioè:
+∞ 2
1 X k k k
Sx (f ) = qP
0 T + pP δ f −
T
1
T2 T
k=−∞
pq 2
+ |P0 (f ) − P1 (f )|
T
34
1.9.1 Analisi dei sistemi LTI nel dominio del tempo
Iniziamo col valutare la media dell’uscita. Riferendoci, per fissare le idee, ai segnali a
tempo discreto, si ha:
e quindi
µY (·) = h(·) ∗ µX (·) (1.57)
In altri termini la media statistica dell’uscita è la risposta del sistema alla media
statistica dell’ingresso (Fig. 1.7b).
a) b)
35
X1 (·) Y1 (·)
- h1 (·) -
rX1 X2 (·) rY1 Y2 (·)
- rh1 h2 (·) -
X2 (·) Y2 (·)
- h2 (·) -
a) b)
Figura 1.8: Legame tra le mutue correlazioni degli ingressi e delle uscite.
+∞
X
rY1 Y2 (n, k) = E[Y1 (n), Y2∗ (k)] = h1 (i)E[X1 (n − i)Y2∗ (k)] =
i=−∞
+∞ (1.60)
X
= h1 (i)rX1 Y2 (n − i, k)
i=−∞
36
mutua correlazione rX1 Y2 (n, k) è data da:
+∞
X
rX1 Y2 (n, k) = E[X1 (n), Y2∗ (k)] = h∗2 (j)E[X1 (n)X2∗ (k − j)] =
j=−∞
+∞
X
= h∗2 (j)rX1 X2 (n − k + j)
j=−∞
(1.61)
ove, nell’effettuare l’ultimo passaggio, si è utilizzata la SSL dei due ingressi. Tale re-
lazione evidenzia che la mutua correlazione rX1 Y2 (n, k) dipende solo dalla differenza
m = n − k; per cui, cambiando nell’ultima sommatoria j in −j si ha:
+∞
X
rX1 Y2 (m) = h∗2 (−j)rX1 X2 (m − j) = h∗2 (−m) ∗ rX1 X2 (m) (1.62)
j=−∞
Poichè, come già osservato rX1 Y2 (n, k) = rX1 Y2 (n − k), allora dalla (1.60) segue che
anche la rY1 Y2 (n, k) dipende solo dal ritardo ed il legame (1.60) può essere riscritto
come convoluzione
+∞
X
rY1 Y2 (m) = h1 (m)rX1 Y2 (m − i) = h1 (m) ∗ rX1 Y2 (m) (1.63)
i=−∞
Sostituendo infine in tale relazione a rX1 Y2 (m) la sua espressione (1.62) si ha:
rY1 Y2 (·) = rX1 X2 (·) ∗ h1 (·) ∗ h∗2 (−(·)) = rX1 X2 (·) ∗ rh1 h2 (·) (1.65)
| {z }
rh1 h2 (·)
In altri termini la mutua correlazione rY1 Y2 (·) tra le due uscite dei sistemi LTI di
Fig. 1.8a si ottiene come l’uscita del sistema LTI di risposta impulsiva rh1 h2 (·) alla
mutua correlazione rX1 X2 (·) tra i due ingressi (Fig. 1.8b).
Si noti che, da quanto detto, segue che se i due ingressi di Fig. 1.8a sono
congiuntamente stazionari in senso lato, allora tali sono anche le corrispondenti uscite.
Particolarizzando lo schema generale di Fig. 1.8a come in Fig. 1.9a è immediato
derivare il legame ingresso-uscita per la funzione di autocorrelazione. In questo caso,
dall’equazione (1.65) si ottiene:
rY Y (·) = rXX (·) ∗ h(·) ∗ h∗ (−(·)) = rXX (·) ∗ rhh (·) (1.66)
| {z }
rhh (·)
37
X(·) Y (·)
- h(·) -
rXX (·) rY Y (·)
- rhh (·) -
X(·) Y (·)
- h(·) -
a) b)
X(·) Y (·)
- h(·) -
rXX (·) rY X (·)
- h(·) -
X(·) X(·)
- - -
a) b)
Figura 1.10: Schema di calcolo della mutua correlazione tra uscita ed ingresso.
2
rY Y (·) = σX δ(·) ∗ h(·) ∗ h∗ (−(·)) = σX
2 2
δ(·) ∗ rhh (·) = σX rhh (·) (1.67)
38
X1 (·) Y1 (·)
- H1 (·) -
SX1 X2 (·) SY1 Y2 (·)
- H1 (·)H2∗ (·) -
X2 (·) Y2 (·)
- H2 (·) -
a) b)
Figura 1.11: Legame I/O per le PSD mutue: a) sistemi effettivi, b) sistema euivalente.
che esprime il legame tra la mutua correlazione fra l’uscita e l’ingresso di un sistema
LTI: dunque la mutua correlazione uscita-ingresso può calcolarsi come risposta del
sistema LTI all’autocorrelazione dell’ingresso (Fig. 1.10a). In modo analogo si ottiene
In altri termini al fine del calcolo dello spettro di potenza incrociato tra le due usci-
te è sufficiente sostituire i due sistemi con un unico sistema di risposta armonica
H1 (·)H2∗ (·) sollecitato dalla PSD mutua tra i due ingressi, come schematizzato in
39
fig. 1.11b. In modo analogo è possibile stabilire gli altri legami di interesse: cosı̀ lo
spettro di potenza dell’uscita è legato a quello dell’ingresso dalla relazione
SY Y (·) = |H(·)|2 SXX (·) (1.71)
cioè la PSD dell’uscita è pari a quella dell’ingresso per |H(·)|2 , comunemente deno-
minata funzione di trasferimento dell’energia; infine le PSD mutue uscita-ingresso e
ingresso-uscita sono date da
SY X (·) = H(·)SXX (·) SXY (·) = H(·)∗ SXX (·)
I vari legami considerati sono riassunti nella fig. 1.12.
X(·) Y (·)
- H(·) -
a)
(·)
SXX - SY Y (·) (·)
SXX - SY X (·) (·)
SXX - SXY (·)
|H(·)|2 - H(·) - H ∗ (·) -
b)
Figura 1.12: Legami I/O per PSD: a) sistema effettivo, b) sistemi equivalenti.
Dalla relazione (1.70) segue che, se le risposte armoniche dei due filtri di fig. 1.11a
non si sovrappongono, cioè non sono mai entrambe diverse da zero ad una stessa fre-
quenza, allora le due uscite sono incoerenti anche se gli ingressi, supposti SSL, sono
correlati. Ciò comporta che è possibile generare segnali incoerenti da un unico segnale
SSL filtrandolo con due sistemi LTI le cui risposte armoniche non si sovrappongano se-
condo quanto illustrato in fig. 1.13. Se poi l’ingresso è gaussiano SSL le due uscite non
solo sono incoerenti, ma anche statisticamente indipendenti. Una ulteriore conseguen-
za della (1.70) è l’incoerenza di due segnali SSL qualsiasi che non si sovrappongono
nel dominio della frequenza: è sufficiente infatti osservare che tali segnali restano inal-
terati per effetto di un filtraggio LTI da parte di due sistemi le cui risposte armoniche
valgano uno ove la PSD del singolo segnale è non nulla e zero altrove. In particolare,
dati un segnale ed un disturbo, il rumore nella banda del segnale è sempre incoerente
con quello fuori banda.
Si osservi che la potenza ∆PX in uscita ad un filtro passa banda ideale, centrato
alla frequenza fo , di guadagno unitario e banda ∆f , vale:
Z +∞ Z f0 + 12 ∆f
∆PX = SY Y (f )df = SXX (f )df
−∞ f0 − 21 ∆f
40
Y1 (·)
- H1 (·) -
X(·)
-
Y2 (·)
- H2 (·) -
Si osservi che la relazione precedente è valida quale che sia la forma della rispo-
sta armonica del filtro, purché la sua banda sia sufficientemente stretta sı̀ da ritenere
costante in tale banda loa PSD del segnale d’ingresso. È quindi possibile misurare lo
spettro di potenza di un segnale se si ha a disposizione uno strumento che misura la
potenza ed un filtro passa banda, a banda stretta, con frequenza centrale accordabile
in modo da analizzare la banda d’interesse. Ovviamente lo stesso risultato pu ò esse-
re ottenuto operando in parallelo con un banco di filtri a banda stretta le cui risposte
armoniche siano centrate alle frequenze a cui si vuol misurare la PSD e ricoprano la
banda di interesse.
Dalla relazione (1.71) si ha che è possibile generare un segnale aleatorio SSL X(·)
con assegnata PSD, o equivalentemente con assegnata correlazione, filtrando un rumore
bianco W (·) avente PSD unitaria con un filtro LTI la cui funzione di trasferimento di
energia sia pari alla assegnata PSD desiderata, come schematizzato in fig. 1.14.
Per rumore bianco si intende un segnale aleatorio SSL a media nulla con autocor-
relazione impulsiva e quindi PSD costante: una sequenza di variabili aleatorie a media
41
nulla, iid, o almeno incorrelate, fornisce un primo esempio di rumore bianco. Nel caso
di segnali a tempo continuo, un generatore di rumore bianco non è fisicamente realiz-
zabile in quanto la sua potenza è infinita: tuttavia, anche in tal caso è utile introdurre
tale modello quale caso limite di segnali di potenza SSL a larga banda. Ad esempio il
rumore termico, presente in tutti i dispositivi ed apparati eletronici ha una PSD che pu ò
ritenersi costante fino a frequenze dell’ordine del THz; conseguentemente, la PSD del
rumore in uscita è proporzionale alla funzione di trasferimento dell’energia del sistema
se quest’ultimo ha una banda molto minore di quella dell’ingresso; pertanto ai fini della
valutazione degli effetti del rumore in uscita è del tutto lecito modellare il disturbo in
ingresso come rumore bianco, con una notevole semplificazione della complessità dei
calcoli.
La risposta armonica del filtro sagomatore di fig. 1.14 è del tipo
p
H(·) = SXX (·)ejβ(·)
con β(·) risposta in fase arbitraria. Se però, come in genere avviene, si richiede che
il filtro sia stabile e causale la fase non può essere arbitraria, ma va opportunamente
scelta: sfortunatamente non esistono semplici procedure di determinazione della fase
nè nel dominio del tempo nè in quello della frequenza.
42
Sorgente A(n) B(n) X(t)
senza - |H(ν)|2 - Modulatore -
memoria
6
∼ p(t)
che il filtro LTI abbia un guadagno nullo in continua; in tale ipotesi la PSD del PAM
diventa
1
SXX (f ) = σa2 |H(f T )|2 |P (f )|2 (1.72)
T
Pertanto essa è proporzionale al prodotto della ESD dell’impulso base per la funzione
di trasferimento dell’energia del filtro codificatore.
Ad esempio, nel caso di una sorgente binaria, cioè A(n) processo di Bernoulli di
parametro 1/2, utilizzando come filtro codificatore una differenza prima, cioè
PX = N0 |H(f0 )|2 BN
43
Filtro
6 ideale
H(f ) 2
H(0)
a)
-
BN BN f
Filtro
6 ideale
H(f ) 2
H(f0 )
b)
-
−f0 f0 f
BN BN
ove:
Z +∞ 2
BN , H(f ) df
H(f0 )
0
Z +∞
2
|h(t)| dt
−∞
2BN = Z 2
+∞
h(t)e −j2πf0 t
dt
−∞
Si osservi che la definizione data vale, con ovvie modifiche, anche per sistemi discreti;
44
precisamente, in tal caso, si ha:
+∞
X 2
|h(m)|
Z + 21 2
BN = H(ν) dν 2BN =
m=−∞
2
H(ν0 ) X
+∞
0
−j2πν0 m
h(m)e
m=−∞
Si osservi infine che, nel definire la banda di rumore si è implicitamente fatto riferi-
mento ai sistemi reali, anche se la definizione può essere estesa con ovvie modifiche
anche al caso di sistemi complessi.
1.10 Esercizi
Ex. 1.1 Sia X(n) un segnale gaussiano a media nulla e varianza σ 2 . Determinare il
rapporto Kc = XσM ove XM è il valore superato al più con probabilità 10−5
Ex. 1.2 Sia X(t) un segnale aleatorio gaussiano SSL a media nulla ed autocorrelazio-
ne in tempo−tempo rXX (t1 , t2 ) e sia Y (t) il processo modulato in angolo da X(t),
cioè il segnale
Y (t) = A exp{j[ω0 t + kP M X(t) + Θ]}
Ex. 1.3 Un segnale aleatorio gaussiano Xa (t) SSL, a media nulla e con
autocorrelazione τ
rXa Xa (τ ) = σ 2 sinc
T
è campionato con passo T ottenendo la sequenza X(n) = Xa (nT ).
Mostrare che X(n) è una sequenza di v.a.i.i.d..
Ex. 1.4 Sia X(n) un processo aleatorio SSL, gaussiano a media nulla ed
autocorrelazione rXX (m) = a|m| con |a| < 1.
Determinare la pdf del 1o ordine della sequenza Y (n) = X(2n) − X(2n − 1).
45
Ex. 1.5 Determinare la pdf congiunta delle due variabili aleatorie:
N
X −1 N
X −1
X, W (n)p1 (n) Y =, W (n)p0 (n)
n=0 n=0
Ex. 1.6 Si desidera misurare una tensione continua A affetta da una deriva aleatoria
n(t) SSL a media nulla ed autocorrelazione esponenziale rn (τ ) = e−1000|τ | , con un
errore rms di 0.01 V. Per ottenere la precisione voluta il segnale x(t) = A+n(t) è filtra-
to con un filtro avente risposta impulsiva h(t) = ω0 e−ω0 t u(t) (filtro RC): determinare
il valore del parametro ω0 del filtro all’uopo necessario.
Ex. 1.7 Mostrare che il valore attuale dell’uscita di un sistema LTI tempo discreto,
causale è statisticamente indipendente dai valori futuri dell’ingresso se quest’ultimo
è gaussiano bianco. Stabilire se il risultato è valido anche se il rumore bianco non è
gaussiano.
Ex. 1.8 Per combattere disturbi fortemente correlati i sistemi radar usano il filtro MA:
Supposto che il disturbo in ingresso sia aleatorio a media nulla con autocorrelazione
esponenziale rXX (m) = σI2 ρ|m| , determinare l’attenuazione del disturbo CA , defi-
nita da CA = σI2 /σO 2
, dove σI2 è la potenza del disturbo in ingresso al filtro e σO
2
è
quella in uscita. Ripetere il calcolo per disturbo con autocorrelazione gaussiana, cioè
2
rXX (m) = σI2 ρm .
Ex. 1.9 Un segnale aleatorio X(t), stazionario almeno del 1o ordine, avente una pdf
tipo Laplace, cioè: " √ #
1 2|x|
fX (x) = √ exp −
2σ σ
è cimato, con un cimatore ideale simmetrico, al livello XM .
Determinare il fattore di carico Kc , XM /σ in modo che la frazione di tempo in cui
si ha cimatura sia 10−5 .
46
Ex. 1.10 Si consideri il sistema LTI avente la seguente risposta impulsiva:
2
con in ingresso una sequenza di v.a. iid X(n) con media µX e varianza σX .
Stabilire le condizioni cui devono soddisfare a e b per avere un sistema stabile. De-
terminare inoltre a e b in modo che l’uscita abbia la stessa media dell’ingresso ed una
2
varianza pari ad un decimo di σX .
Ex. 1.12 Determinare la PSD del segnale Y (t) = X(t) · cos(ω0 t + Θ), dove X(t) è
un segnale binario sincrono NRZ e Θ è una v.a. statisticamente indipendente da X(t)
uniforme in (0, 2π).
47