Esplora E-book
Categorie
Esplora Audiolibri
Categorie
Esplora Riviste
Categorie
Esplora Documenti
Categorie
Dato un segnale analogico l’operazione di campionamento estrae i valori del segnale in istanti
discreti del tempo. Si ottiene un segnale numerico, una serie di numeri reali che rappresentano i
campioni del segnale. Il numero di campioni deve essere sufficiente a poter ricostruire il segnale
originale.
2
x
−4 −2 2 4
−1
f f
− B −f − B fS −B fS fS +B
B S B
(a) (b) SC
S(f) (f)
1
T
f
− fS −B B fS fS
B +B
Esempio 8.1. Un segnale audio con una banda B = 20 kHz nella Pulse Code Modulation
(PCM) viene campionato alle frequenze di 40 kHz o 48 kHz.
Nota 8.1. Il segnale viene filtrato prima di essere campionato perché al segnale è sempre sovrap-
posto il rumore termico a tutte le frequenze.
Nota 8.2. Se non è possibile campionare alla frequenza fS è necessario applicare un filtro di
antialiasing in una banda più stretta di [−B, B], che fa perdere parte dell’informazione del segnale
ma consente la ricostruzione seppur meno fedele del segnale originale.
8.3.2 Ricostruzione
I campioni del segnale numerico giunti al ricevitore attraversano il filtro di ricostruzione per
riottenere il segnale analogico di partenza. L’operazione di ricostruzione è necessaria per eliminare
le repliche spettrali che non fanno parte dello spettro del segnale di partenza e che sono il risultato
dell’operazione di campionamento.
Si utilizza un filtro passa basso ideale con banda pari alla frequenza di Nyquist, che faccia
passare le frequenze comprese nell’intervallo [− f2S , f2S ], e che compensi l’attenuazione di T1 di
SC (f ), per l’eq.3.4.1
f t
H(f ) = T rect h(t) = sinc
fS T
Il segnale ricostruito è la convoluzione del segnale campionato con il filtro
+∞
Z
sR (t) = sC (t) ∗ h(t) = sC (τ )h(t − τ ) dτ =
−∞
+∞ +∞
t−τ
Z X
= [s(τ ) δ(τ − nT )] sinc dτ =
n=−∞
T
−∞
+∞" +∞ #
t−τ
Z X
= s(nT ) δ(τ − nT ) sinc dτ =
n=−∞
T
−∞
+∞ +∞
t − nT
Z X
= s(nT ) sinc δ(τ − nT ) dτ =
T
−∞ n=−∞
per la proprietà di setaccio dell’impulso l’integrale si riduce al valore in τ = nT si ha
+∞ +∞
X t − nT X nT − t
= s(nT ) sinc = s(nT ) sinc
n=−∞
T n=−∞
T
Il segnale ricostruito nell’istante t si ottiene come somma dei prodotti tra i campioni del segnale
e il valore della funzione seno cardinale calcolata nei corrispondenti istanti di campionamento.
Nota 8.3. Se il segnale è passa banda, il teorema del campionamento continua a valere ma può
essere impraticabile campionare al doppio della frequenza massima. In tal caso si sfruttano le
repliche in banda base del segnale. Si seleziona una banda B tale che la frequenza massima sia un
multiplo intero della banda base, fBM = m ∈ N, e si porrà fS ≥ B.
Nota 8.4. Un campionamento perfetto dovrebbe estrarre l’informazione del segnale istantanea-
mente, mentre in realtà è necessario periodo di osservazione seppur breve. Un campionatore reale
effettua la convoluzione del segnale con un rettangolo molto stretto, s(t) ∗ rect τt con un duty
cycle molto piccolo, la cui trasformata risulta essere un sinc molto ampio ( τ1 B). Se in ricezione
è richiesta alta fedeltà al segnale originale è sempre possibile equalizzare per compensare l’effetto
sagomatore del filtro.
8.4 Quantizzazione
L’operazione di quantizzazione trasforma i valori continui dei campioni del segnale appartenenti
ad un intervallo [−a, a] in valori discreti dell’intervallo diviso in Q livelli distinti di ampiezza
∆ = 2aQ.
Nei sistemi di elaborazione a logica binaria si assegna ad ogni campione del segnale un numero
finito fisso di bit N che consente di individuare 2N livelli del segnale.
L’operazione comporta una perdita di informazione irreversibile.
Dato un processo aleatorio stazionario il campionamento di una sua realizzazione x(t) da luogo
ad una variabile aleatoria, con la sua funzione densità di probabilità f (x). Si supponga che la
dinamica della v.a. assuma valori nell’intervallo [−a, a], e che la quantizzazione in Q livelli sia
uniforme con intervalli di quantizzazione di ampiezza ∆ = 2a Q . I bordi degli intervalli si trovano
in xi = −a + i · ∆, con i = 0, . . . , Q. Per minimizzare l’errore di quantizzazione tra due intervalli
successivi il livello assume valore intermedio
xi + xi − 1 ∆
xi−1 ≤ x < xi , i = 1, . . . , Q, xq = = −a + i · ∆ −
2 2
sq (t)
4
111
3
110
2
101
1
s(t) 100
0
−4 −3 −2 −1 0 1 2 3 4 011
−1
010
−2
001
−3
000
−4
Figura 8.4: Quantizzatore a 3 bit di segnale s(t) ∈ [−4, 4]
da cui risulta un errore di quantizzazione assoluto massimo di ∆
2 in corrispondenza dei bordi degli
intervalli.
L’operazione introduce quindi un rumore di quantizzazione che si può valutare con l’errore
quadratico medio come
Za Q Zxi
X
Nq = E (x − xq )2 = 2
(x − xq )2 f (x) dx
(x − xq ) f (x) dx =
−a i=1x
i−1
1
Per un segnale con distribuzione uniforme si ha f (x) = 2a , x ∈ [−a, a] e 0 altrove, da cui
Q −a
Z+i∆ 2
X ∆ 1
Nq = x + a − i∆ + dx =
i=1
2 2a
−a+(i−1)∆
∆
ponendo y = x + a − i∆ + 2
∆
Q Z2 ∆
1 X Q y 3 2 1 ∆3 ∆2
= y 2 dy = = =
2a i=1 2a 3 − ∆
∆ 12 12
2
−∆
2
Tale quantità costituisce un disturbo che va confrontato con la potenza del segnale dato dallo
spettro di potenza Za a
2 1 1 x3 a2 Q2 ∆2
Sx = x dx = = =
2a 2a 3 −a 3 12
−a
Si ha il rapporto segnale rumore di quantizzazione Sx = Q2
Nq
che migliora aumentando il numero di livelli di quantizzazione. Per un numero di intervalli potenza
Sx
di due si ha N q
= 22n che espresso in decibel
Sx
= 10 log10 22n ∼
= n · 6 dB
Nq dB
ovvero si quadruplica il rapporto segnale rumore per ogni bit di quantizzazione in più.
Trasformata di Fourier del periodo x(t) (rettangolo di ampiezza unitaria e durata
T/2)
Definita la trasformataT di Fourier del segnale ristretto ST (f ) = F{sT (t)} si ha che i coefficienti
Z2 +∞
Z
1 k
− j 2π T 1 k 1 k
ck = s(t) e t
dt = sT (t) e− j 2π T t dt = ST
T T T T
− T2 −∞
quindi +∞
1 X k k
s(t) = ST ej 2π T t
T T
k=−∞
+∞
1 X k k
S(f ) = ST δ f− (2.28)
T T T
k=−∞
2 4 6
−1
= µX (t) ∗ h(t)
La funzione autocorrelazione in uscita
RY (t1 , t2 ) = E[Y (t1 )Y (t2 )] = E[(X(t1 ) ∗ h(t1 )) · (X(t2 ) ∗ h(t2 ))] =
+∞ +∞
Z Z
= E X(α)h(t1 − α)X(β)h(t2 − β) dα dβ =
−∞ −∞
+∞ Z
Z +∞
= h(α)h(β)RX (τ + β − α) dα dβ =
−∞ −∞
si può osservare che la funzione di autocorrelazione non dipende da t ma solo da τ pertanto filtrando
un processo stazionario si ottiene un processo stazionario,
+∞
+∞
Z Z
= h(β) RX (τ + β − α)h(α) dα dβ =
−∞ −∞
| {z }
RX (τ +β)∗h(τ +β)=g(τ +β)
+∞
Z +∞
Z
= h(β)g(τ + β) dβ = h(−z)g(τ − z) dz = g(τ ) ∗ h(−τ )
−∞ −∞
Si ottiene quindi RY (τ ) = RX (τ ) ∗ h(τ ) ∗ h(−τ ) = RX (τ ) ∗ Rh (τ )
dove la convoluzione del segnale h(τ )∗h(−τ ) è l’autocorrelazione del segnale deterministico risposta
all’impulso.
Un processo stazionario in senso lato in ingresso ad un sistema lineare tempo invariante viene
filtrato e da in uscita un processo stazionario in senso lato.
Nota 5.4. Il teorema del limite è centrale, ovvero fondamentale, perché modella un fenomeno fisico
importante come il rumore termico che è composto dalla sovrapposizione di moltissimi contributi
elementari indipendenti che complessivamente sono descritti da una statistica gaussiana standard.
7.4 Processo aleatorio bianco
Si supponga un modello teorico di un processo con densità spettrale di potenza la cui banda tende
a crescere illimitatamente, mantenendo il valore presente in f = 0. La densità spettrale di potenza
del processo X(t) tende a diventare costante a tutte le frequenze
SX (f ) = ξ
Il tempo di correlazione tende a ridursi fino ad arrivare al limite ad una funzione di autocorrelazione
impulsiva
RX (τ ) = ξ δ(τ )
Il valore medio µX (t) = lim RX (τ ) = µ2X = 0
τ →+∞
Nota 7.2. Il processo aleatorio bianco è solo una astrazione matematica: uno spettro reale non
potrà mai avere potenza a tutte le frequenze, avrebbe potenza infinita.
7.4.1 Esempio resistore con rumore termico
Esempio 7.2. L’agitazione termica degli elettroni in un resistore R
causa una tensione di rumore a vuoto proporzionale alla
temperatura del componente. Rispetto al modello ideale si ha +
quindi un resistore con in serie un generatore di tensione pari a N (t) −
quella prodotta dal rumore termico. Quest’ultimo pu`o essere
modellato come un processo aleatorio stazionario.
La descrizione del fenomeno del rumore termico coinvolge considerazioni di meccanica quanti-
stica che portano a determinare l’espressione della densità spettrale di potenza della tensione di
rumore (formula di Nyquist)
|f |
f ~ |f |
SN (f ) = 2R |f |0 = 2R ~|f | [V2 /Hz]
−1 kB TR −1
e f0
e
dove f0 = kB~TR , con la costante di Boltzmann kB = 1.38 × 10−23 J/K, la costante di Planck
~ = 6.63 × 10−34 J · s, la temperatura ambiente TR = 293 K. A temperatura ambiente la frequenza
f0 ∼
= 6 THz
A frequenze f f0 posso approssimare e k~|f | ~ |f |
B TR −1 ∼ =
kB TR
2
essendo ex = 1 + x + x2 + . . . la serie per x → 0 si approssima ex ∼ = 1 + x =⇒ ex −1 ∼ = x.
SN (f ) = 2RkB TR
La tensione quadratica media misurata con un voltmetro di banda B è pari alla densita spettrale
di potenza monolatera m
SN (f ) = 4RKB TR
Il modello del rumore bianco pertanto è utile: per calcolare gli effetti del rumore termico
sull’uscita di un sistema filtrante si può sostituire la densità di potenza del rumore termico SN (f )
con il suo modello semplificato di valore costante.
Nota 7.3. Nel dimensionamento dei sistemi di telecomunicazione è importante la potenza trasmes-
sa alla quale si somma la potenza del rumore. Si progettano i sistemi in modo da massimizzare la
potenza trasmessa utile.
La massima potenza in uscita P (t) misurata in W si ha quando il carico (Load ) è adattato,
ovvero per RL = R
2
vN (t) RL vN (t) RL =R 1 vN (t)
P (t) = vL (t) · i(t) = vL (t) = vN (t) =
R + RL R + RL R + RL 2 2R
La densità spettrale monolatera di rumore disponibile in uscita in una banda B
2
vN (t) 1 2 1
E = E vN (t) = 4RkB T B = kB T BW/Hz
4R 4R 4R
R +
+ RL
vn(t) − vL(t) RL vL (t) = R+RL vN (t)
−
3.5 Autocorrelazione per segnali ad energia finita
Si definisce per segnali ad energia finita la funzione autocorrelazione, grandezza che indica
quanto un segnale x(t) sia simile ad una sua replica ritardata di un tempo τ
+∞
Z
Rx (τ ) = x(t)x∗ (t − τ ) dt = x(τ ) ∗ x∗ (−τ )
−∞
∗
La trasformata di Fourier del prodotto di convoluzione
F
x(τ ) ∗ x∗ (−τ ) → X(f )X ∗ (f )
La funzione di autocorrelazione è anche l’antitrasformata di Fourier dello spettro di energia del
segnale +∞
Z
2
Rx (τ ) = |X(f )| ej 2πf τ dτ
−∞
Proprietà
1. La funzione di autocorrelazione calcolata per τ = 0 coincide con l’energia del segnale
+∞
Z
Rx (0) = x2 (t) dt = Ex
−∞
2. La funzione di autocorrelazione è una funzione pari
Rx (τ ) = Rx∗ (−τ )
Dim. Facilmente dimostrabile in frequenza
+∞
Z
2
Rx (τ ) = |X(f )| ej 2πf τ dτ
−∞
+∞
Z
2
Rx (−τ ) = |X(f )| e− j 2πf τ dτ
−∞
+∞
Z
2
Rx∗ (−τ ) = |X(f )| ej 2πf τ dτ
−∞
x
µ − 3σ µ − 2σ µ−σ µ µ+σ µ + 2σ µ + 3σ
68, 3%
95, 4%
99, 74%
La funzione di distribuzione di variabile aleatoria gaussiana non può essere calcolata in forma
chiusa, ma può essere calcolata con metodi numerici la funzione di distribuzione di probabilità
gaussiana standard
Zx
1 z2
ΦXN = √ e− 2 dz
2π
−∞
o la sua complementare QXN = 1 − ΦXN .
La funzione di distribuzione per la variabile aleatoria gaussiana si calcola applicando la trasfor-
mazione X = σX XN + µX nella funzione di distribuzione di probabilità della variabile aleatoria
normale standard
x − µX x − µX
FX (x) = P (X ≤ x) = P (σX · XN + µX ≤ x) = P XN ≤ = Φ XN
σX σX
La probabilità che la v.a. gaussiana assuma valori in un intervallo [a, b] si calcola
b − µX a − µX
P (a < x ≤ b) = FX (b) − FX (a) = ΦXN − ΦXN
σX σX
I valori di ΦXN sono tabulati o calcolati con le funzioni errore e errore complementare presenti nei
calcolatori elettronici Zx
2 2
erf (x) = √ e−z dz
π
0 +∞
Z
2 2
erfc(x) = 1 − erf (x) = √ e−z dz
π
x
La funzione di distribuzione standard calcolata dalla funzione errore
1 x
1 x Q(x) = erfc √
Φ(x) = 1 + erf √ 2
2 2 2
ΦXN (x)
1 2
erf (x)
erfc(x)
1
0.5
x
x
−1
(a) funzione di distribuzione di probabilità v.a. (b) funzione errore e errore complementare
normale standard
Si dimostra che l’integrale della funzione densità di probabilità
+∞
Z
S= fX (x) dx = 1
−∞
2
e−z dz soluzioni in forma chiusa, si considera che S 2 = 1 e si ha l’integrale
R
Dim. Non avendo
doppio +∞ +∞ +∞ Z+∞
(x−µ)2 (y−µ)2
Z Z Z
2 1 −
S = fX (x) dx fY (y) dy = e 2σ 2 dy dx
2πσ 2
−∞ −∞ −∞ −∞
Per risolvere l’integrale si applica la trasformazione da variabili cartesiane a variabili polari
x−µ y−µ
= % cos(ϑ) = % sen(ϑ)
σ σ
dx dy
= σ cos(ϑ) = σ sen(ϑ)
d% d%
dx dy
= −σ% sen(ϑ) = σ% cos(ϑ)
dϑ dϑ
dx dy = |J(%, ϑ)| d% dϑ
dove J(%, ϑ) è la matrice jacobiana
della trasformazione
che ha determinante
σ cos(ϑ) −σ% sen(ϑ)
|J(%, ϑ)| = = σ 2 % cos2 ϑ + σ 2 % sen2 ϑ = σ 2 %
σ sen(ϑ) σ% cos(ϑ)
+∞
Z2π Z +∞ Z2π +∞
%2 %2 %2
Z
2 1 − 2 2 1 − 2 − 2
S = e σ % d% dϑ = % e d% dϑ = − e =1
2πσ 2 2π
0
0 0 0 0
2
Dimostriamo che la variabile aleatoria gaussiana ha media µX e varianza σX . La funzione
generatrice dei momenti
+∞
Z (x−µX )2
tX tx 1 − 2
2σX
Dim. GX (t) = E e = e p e dx =
2πσX2
−∞
+∞
(x−µX )2
etµX
Z
t(x−µX ) − 2σX 2
=p 2
e e dx =
2πσX
−∞
2 2
+∞ 2
(x−µX −σX t)2
σX t
Z
1 −
= etµX +
2
2σX
2 p
2
e dx =
2πσX
−∞
| {z }
2 2 =1
σX t
tµX +
=e 2
dove l’esponente si è calcolato con i passaggi
(x − µX )2 (x − µX )2 − 2σX2 4 2
t(x − µX ) + σX 4 2
t − σX t 2 2
σX t 2
(x − µX − σX t)2
t(x−µX )− 2 = − 2 = − 2
2σX 2σX 2 2σX
Il valor medio e la varianza della variabile aleatoria gaussiana calcolati dai momenti del primo
e secondo ordine σ 2 t2
dGX (t) tµX + X2 2
E[X] = = e (µ + σ t) = µX
X X
dt t=0
t=0
2 2 2 2
d2 GX (t)
σX t σX t
tµX + 2 tµX + 2
2 2 2 2
E X = = e (µX + σ X t) + e σ X = µ2X + σX
2
dt2 t=0
t=0
E (X − µX )2 = E X 2 − E2 [X] = µ2X + σX 2
− µ2X = σX 2
= (ΛT )2 + ΛT
Gli stessi indici possono essere calcolati più agevolmente con la funzione generatrice dei mo-
menti:
+∞ +∞ +∞
X X (ΛT )k −ΛT X (et ΛT )k −ΛT t
GX (t) = etx pk δ(x − k) = etk e = e = e−ΛT eΛT e
k! k!
k=0 k=0 k=0
Valor medio (momento primo ordine)
t
d e−ΛT eΛT e
dGX (t)
t
µX = = = e−ΛT ΛT et eΛT e = ΛT e−ΛT eΛT =
dt t=0 dt
t=0
t=0
= ΛT
Potenza (momento secondo ordine)
t
t et ΛT
d2 GX (t) d e−ΛT ΛT et ee ΛT
d e e
= e−ΛT ΛT
2
E X = = =
dt2 t=0 dt dt
t=0 t=0
h t t
i
= e−ΛT ΛT et ee ΛT + et ee ΛT et ΛT =
t=0
= e−ΛT ΛT [eΛT + eΛT ΛT ] =
= (ΛT )2 + ΛT