Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
X (notare la lettera maiuscola) si dice v.a. discreta se può assumere un numero finito
di valori {x1 , x2 , ..., x n } (notare le lettere minuscole). Come esempio, una variabile
aleatoria di questo tipo potrebbe essere quella che conta il numero di clienti che
entrano in un supermercato in 10 minuti.
Per le variabili aleatorie discrete si può esprimere una funzione chiamata
distribuzione di probabilità: questa funzione associa ad ogni valore assunto dalla v.a.
discreta la relativa probabilità di “uscire”. La probabilità che un certo valore x1 sia
l’esito di un esperimento, modellato con una v.a. discreta, si definisce come
pi = PX { X = xi }
Per una v.a. discreta si definisce una funzione di distribuzione cumulativa (CDF,
cumulative distribution function): essa esprime la probabilità che la variabile aleatoria
in questione assuma valore pari o inferiore a quello di un certo esito
FX ( x ) = PX { X ≤ x}
Tale tipo di funzione non può essere altro che crescente (anche se non strettamente,
perché può rimanere zero in alcuni tratti).
Dimostrazione:
E ( X − E ( X ) ) = ∑ ( X − E ( X )) ∑ (X )
+ E 2 ( X ) − 2 XE ( X ) pi =
2 2
pi = 2
i i
( )
E X
( ) ( )
= ∑ X 2 pi − 2E ( X ) ∑ Xpi + E 2 ( X ) ∑ pi = E X 2 − 2E 2 ( X ) + E 2 ( X ) = E X 2 − E 2 ( X ) ;
i
i
i
( )
E X2 1
vedi il caso discreto);
- la deviazione standard: σ = var ( x ) ;
- il momento di ordine n: E X n ;
- il percentile: l’n-simo percentile di una v.a. è il valore (assunto dalla v.a. stessa)
per il quale la CDF vale n ;
100
- la mediana: è il cinquantesimo percentile della v.a.;
- la moda: è il valore “più probabile”, quello – cioè – che rende massima la
densità di probabilità; possono esserci più valori di moda (se è uno si parla di
distribuzione monomodale; se sono due di distribuzione bimodale, etc…).
∫ f ( x , y ) dx = P {Y = y} = f ( y )
ℝ
X ,Y Y
ℝ
∫ fX1 , X2 , ..., Xn ( x1 , x2 , ..., xn ) dxn = fX1 , X2 , ..., Xn−1 ( x1 , x2 , ..., xn−1 )
∫f X1 , X 2 , ..., X n ( x1 , x2 , ..., xn ) dx1dx 2 ...dx k = fX k +1 , X k + 2 , ..., X n ( x k +1 , x k +2 , ..., x n )
k
ℝ
(con k < n)
∫ fX1 , X2 , ..., Xn ( x1 , x2 , ..., xn ) dx1dx2 ...dxn = 1
ℝn
σ = var ( X ) = E ( X − E ( X ) ) = E X 2 − E2 [ X ] = ∫ x 2
2 1
2
dx −
a
b−a 4
(b− a )( a2 + ab+b2 )
(b + a ) = (b − a )
(b + a ) = a 2 + ab + b2 − (b + a ) = (b − a )
b 2 3 2 2 2
x3 1
= − −
3 a b − a 4 3 (b − a ) 4 3 4 12
2πσ
Questo termine, se integrato su tutto l’asse reale, dà come risultato 1.
La comodità di questo tipo di variabile sta nel fatto che, se ne diamo la definizione
come illustrato sopra, abbiamo già, senza fare un calcolo:
- il valor medio: E (X ) = µ ;
- la varianza: var ( X ) = σ 2 .
La funzione CDF sarà:
x x
−
( t − µ )2
1
FX ( x ) = ∫ fX (t ) dt = ∫e 2σ 2
dt
−∞ 2πσ −∞
risolvibile in campo complesso col teorema dei residui e che in campo reale non è
computabile. Per questo motivo si usano tabelle speciali in cui sono riportati valori
approssimati di questa funzione.
Ora calcoliamo alcune funzioni strettamente legate alla distribuzione gaussiana:
x
2
- funzione errore: erf ( x ) ≜ −t 2
∫ e dt (NOTA: è funzione dispari).
π 0
1 π 2π
2
e integriamo su tutto l’asse reale, il risultato sarà pari a 1. Si nota bene che per
x che tende ad infinito la funzione errore tende ad 1; inoltre possiamo
interpretare tale funzione come la probabilità che:
1
P ( X < x ) = erf ( x ) con X ∼ N 0,
2
La CDF della distribuzione normale si può calcolare tramite la funzione errore:
1 1 x−µ
FX ( x ) = + erf
2 2 2σ
Dimostrazione:
x
−
(t − µ )2 µ
−
(t − µ )2 x
−
( t − µ )2
1 1 1
FX (x ) = ∫e 2σ 2
dt = ∫e 2σ 2
dt + ∫µ e 2σ 2
dt =
2π σ −∞ 2π σ −∞ 2π σ
x−µ
µ
−
(t − µ )2 x
−
(t − µ )2 2σ
1 1 1 1
∫e ∫µ e 2σ ∫ e − s ds =
2
= dt + 2σ 2 2σ 2
dt = +
2π σ −∞
2π σ cam bio di 2 2π σ
variabile
0
=1 2, per ché il valor m edio (t − µ ) = s notare che dt = 2σ ds
divide l'area sotto al grafico
della gaussiana in due parti 2σ
uguali e valenti 1/2
x −µ
1 1 2 2σ − s2 1 1 x−µ
= + ∫
2 2 π 0
e ds = + erf
2 2
2σ
x −µ
erf
2σ
+∞
2
- funzione errore complementare: erfc ( x ) ≜ 1 − erf ( x ) = ∫e
− t2
dt .
π x
Dimostrazione:
x
2
erfc ( x ) ≜ 1 − erf ( x ) = 1 − ∫e
−t2
dt =
π −∞
+∞ x +∞
2 2 2
∫ e − t dt − ∫e
−t 2
∫e
−t 2
2
= dt = dt
π 0
π 0 π x
=1
2 2
NOTA (2): la funzione inversa di erfc(x) è detta inverfc(x). Vale circa:
− ln y
inverfc ( y ) ≅ ( dove y = erfc(x) )
1 + 0,6 ( − ln y )
−0,8
− ln y > x 2
− ln y > x = inverfc ( y ) con 0 < y < 1
+∞
1 2
1 x
- funzione Q: Q ( x ) ≜
−t
2π
∫e
x
2
dt =
2
erfc
2
Dimostrazione:
+∞
2
erfc ( k ) ≜ ∫e
−t 2
dt
π k
+∞
x x 2
∫e
−t 2
Se pongo k = : erfc ≜ dt
2 2 π x
2
+∞ ξ2
ξ dξ x 2 − dξ
Cambio di variabile t =
2
dt =
2
: erfc
2
≜
π ∫e
t
2
2
+∞ ξ2
1 x 1 1 −
erfc ≜ 2 ∫ e 2
dξ = Q ( t )
2 2 2 2π t
e α
per x ≥ 0
X : fX ( x ) = α 2
2
0 altrove
+∞
+∞
x −
x2 − x 22 +∞ −x2
2
+∞
1
x2
− 2
E [X ] = ∫ xα 2α
dx = x −e α −∫ 1 −e α dx = α 2π ∫ e α dx =
2
e 2 2 2
2
α 2π
0 d x
0 0
dx
x − 2xα 2
2 x2
x − 2α 2
∫ α 2 0 ∫ α2
e dx e dx
questo termine si annulla
+∞
+∞
x −
x2 − x 22 +∞ −x2
2
+∞ x2
− 2
E X = ∫x 2α
dx = x −e 2α − ∫ 2x −e 2α dx = 2 ∫ xe 2α dx =
2 2 2 2
e
α2
0 d x2
0 0
dx
x 2 x 2
x − 2α 2 x − 2α 2
∫ α 2
e dx
0 ∫ α 2
e dx
questo termine si annulla
+∞
x2 −x2
2
+∞
x −
= 2α ∫α 2α
dx = 2α −e 2α = 2α 2
2 2 2
2
e
0 0
π π
- varianza: var ( X ) = σ 2 = E X 2 − E 2 [ X ] = 2α 2 − α 2 = 2 − α 2
2 2
di ordine 0
x2 +µ2
x
con µ > 0 → X : fX ( x ) = 2 e 2α 2
− µx
I0 2 per x ≥ 0
α α
0 altrove
µx
Il termine I 0 2 , dove I0 sta ad indicare il Polinomio di Bessel di ordine zero, si
α
+π +π µ x
1 µx 1 cos ϑ
sviluppa così: I 0 ( x ) ≜ ∫
x cos ϑ
ϑ → ∫ eα dϑ .
2
e d I 0 2
≜
2π −π α 2π −π
Per la variabile aleatoria di Rice si ha che:
2 1
momento del second’ordine E X = 2α + µ = µ 1 +
2 2 2
K
fattore di Rice
k ≜ µ 2 ( 2α 2 )
µx
I0
α2
∞ x +µ
2 2
π µx ∞ π x2 +µ2 µx
x − 2 1 cos ϑ − + cos ϑ
Infatti: E [ X 2 ] = ∫ x 2 2 e 2α ⋅
1
∫ eα dϑ dx = ∫ ∫π x e 2α 2 α 2
dϑ dx
2 3
α 2π −π 2πα 2 0−
0
fX ( x )
Cambio di variabile:
∫∫ f ( x , y ) dxdy = ∫∫ f (φ1 (u,v ) ,φ2 (u,v ) ) J (u,v ) dudv
D φ −1 ( D )
∂φ1 ∂φ1
φ1 ∂v
Dove: ( x , y ) → ( u,v ) , x = φ1 ( u,v ) , y = φ2 ( u,v ) , φ = , J ( u,v ) = det ∂u
φ2 ∂φ2 ∂φ2
∂u ∂v
Ora effettuiamo il cambio di variabile:
ξ 2 +η 2 + µ 2 − 2 µξ
ξ = x cos ϑ ∞ ∞
(ξ 2 + η 2 ) ξ 2 + η 2 e
1 − 1
→ 2 ∫ ∫
2α 2
dξ dη =
η = x sin ϑ 2πα −∞ −∞ ξ 2 +η2
J (ξ ,η )
∞ ∞ ( ξ − µ ) +η
2 2
∞ ∞ ( ξ − µ ) +η 2
2
1 − 1 −
= ∫ ∫ξ 2α
dξ dη + ∫ ∫η 2α 2
dξ dη =
2 2 2
e e
2πα 2
−∞ −∞
2πα 2
−∞ −∞
∞ (ξ − µ )2 ∞ η2 ∞ (ξ − µ )2 ∞ η2
1 − − 1 − −
= ∫ξ dξ 2α
dη
∫e 2α 2
+ ∫e dξ 2α 2
∫η dη = 2α 2
2 2 2
e e
2πα 2 −∞ −∞
2πα 2 −∞ −∞
per parti ricorda un poco la gaussiana ricorda un poco la gaussiana per parti
= (α 2 + µ 2 )⋅α 2 π ∞ −
η2 ∞ −
(ξ − µ )2 = α 2 ⋅α 2 π
1 1
α 2π ∫e 2α 2 d η = 1⋅α 2 π
α 2π ∫e 2α 2 d ξ = 1⋅α 2 π (varianza)
−∞ −∞
=
1
(α 2 + µ 2 ) α 2πα 2π +
1
α 2πα 2α 2π = (α 2 + µ 2 ) + α 2 = 2α 2 + µ 2
2πα 2
2πα 2
- ∫∫ f ( x , y ) dxdy = 1 ;
ℝ
X ,Y
- P {( x , y ) ∈ A ⊂ ℝ } = ∫∫ f ( x , y ) dxdy ;
2
X ,Y
A
x y
- Fx , y ( x , y ) = ∫ ∫ f (u, z ) dudz .
X ,Y
−∞ −∞
= E [ XY ] − E [ X ] E [Y ] − E [Y ] E [ X ] + E [ X ] E [Y ] = E [ XY ] − E [Y ] E [ X ] .
costante costante costante
cov ( X ,Y )
Infine, definiamo il coefficiente di correlazione ρ X ,Y : ρ X ,Y = .
σ XσY
Il coefficiente di correlazione dà un’informazione sulla relazione di X e Y in “termini
medi statistici”; tale coefficiente può assumere valori da -1 a +1 (compresi): nel caso
(ancora più) particolare in cui il modulo di ρ X ,Y è 1, allora X e Y sono dipendenti. Un
altro caso limite interessante si ha quando ρ X ,Y è 0: allora in tal caso le due variabili X
e Y si dicono incorrelate. Ciò comporta che:
- cov ( X ,Y ) = 0 ;
- E [ XY ] − E [ X ] E [Y ] = 0 ⇒ E [ XY ] = E [ X ] E [Y ] . Quest’ultima affermazione ci
dà una relazione tra indipendenza statistica (“concetto” forte) e incorrelazione
(“concetto” debole). Se infatti si ha
fX ,Y ( x , y ) = fX ( x ) fY ( y )
allora si ha pure
E [ XY ] = E [ X ] E [Y ]
Dimostrazione:
fX ,Y ( x , y ) se x e y
sono indipendenti
2πσ xσ y 1 − ρ 2
E [ XY ] − E [ X ] E [Y ]
con ρ = (coefficiente di correlazione tra X e Y) , X ∼ N µ x ,σ x2 e
σ xσ y
Y ∼ N µ y ,σ y2 .
Si può dimostrare che, come accade di norma per le variabili congiunte, anche per le
variabili aleatorie congiuntamente gaussiane si ha che:
fX ( x ) = ∫ fX ,Y ( x , y ) dy
ℝ
( )
−1 T
1
f x1 , x2 ,..., x N =2
e
( 2π )
n
det c
{
Dove c è una matrice di covarianza n × n contenente i termini ci , j = cov ( X i , X j ) , }
x = ( x1 , x2 , ..., x n ) (vettore delle variabili aleatorie), µ = ( µ1 , µ2 , ..., µn ) (vettore dei
valori medi delle rispettive v.a.).
Una proprietà importante delle variabili gaussiane è che una combinazione lineare
delle stesse produce ancora una variabile con distribuzione gaussiana: tale
affermazione è enunciata in maniera rigorosa nel cosiddetto teorema del limite
centrale. Esso è così enunciato: X1 , X 2 , ..., X n siano v.a. indipendenti con valori medi
µ1 , µ2 , ..., µn e varianze σ 12 , σ 22 , ..., σ n2 . Allora la v.a.
1 n
( X i − µi )
Y =
n
∑ i =1 σi
sotto condizioni generali ha una distribuzione che, al crescere di n, tende a quella di
una gaussiana con valor medio nullo e varianza unitaria.
Nel caso particolare in cui X1 , X 2 , ..., X n sono variabili i.i.d. (indipendenti e
identicamente distribuite) , tutte con valore medio µ e varianza σ 2 , abbiamo invece:
1 n σ2
Y = ∑ i n→∞
n i =1
X → N µ,
n
II - PROCESSI ALEATORI
(random / stochastyc processes)
1. Definizione
T0
2
1
- calcolare il valor medio temporale: x (i )
(t ) = lim
T0 →∞ T ∫ x ( ) ( t ) dt ;
i
0 T
− 0
2
(t )
2
(i )
- calcolare la potenza media: x ;
Se abbiamo un processo
aleatorio tempo-continuo e
esaminiamo verticalmente le
varie realizzazioni in n istanti
di tempo t1 , t2 , ..., tn , ciò che
otteniamo sono n variabili
aleatorie
è sicuramente un numero maggiore di zero. Dunque possiamo scrivere:
0 ≤ E ( X (t ) ± X (t − τ ) )
2
Sviluppiamo quindi il binomio
0 ≤ E X 2 (t ) + X 2 (t − τ ) ± 2 X (t ) X (t − τ )
e applichiamo la linearità del valor medio:
0≤ E X 2 (t ) + E X 2 (t − τ ) ± E 2 X (t ) X (t − τ )
= RX ( 0 ) per la proprietà 1 = RX ( 0 ) per la proprietà 1 = 2 RX (τ ) per definizione
e per il fatto che il processo e per il fatto che il processo
è WSS e non c'è dipendenza è WSS e non c'è dipendenza
dal tempo dal tempo
5. Ergodicità
NOTA: I processi ergodici sono un sottoinsieme dei processi stazionari in senso stretto,
quindi sono davvero pochi!
Un connotato importante che
caratterizza i processi
ergodici è il fatto che in una
singola realizzazione vi siano
tutte le informazioni che il
processo possiede al suo
interno: questo perché le
medie temporali (orizzontali)
coincidono esattamente con le
medie statistiche (verticali).
Come conseguenza di ciò:
1) Le varie realizzazioni
hanno tutte lo stesso valor
medio temporale, il quale
coincide col valor medio del
processo. Si ha dunque:
{ valor medio statistico } =
= { valor medio temporale }
E X (t ) = E [ X ] = x (t ) =
T0
1
= lim
T0 →∞ 2T
0
∫ x ( t ) dt
−T0
3) Una cosa simile a quella illustrata nel punto (2) accade anche per la funzione di
autocovarianza: anche questa ha una sua “controparte orizzontale” e nel caso
ergodico quest’ultima coincide con la già introdotta CX (τ ) . Infatti:
{ autocovarianza statistica } = { autocovarianza temporale }
=E[ X ] =E[X ]
CX (τ ) = E X (t ) − E X (t ) X (t − τ ) − E X (t − τ ) = E ( X (t ) − E [ X ]) ( X (t − τ ) − E [ X ]) =
= x (t ) x (t − τ ) − x (t ) = Cx (τ )
2
=E 2 [X ]
Non è semplice fornire un esempio di processo ergodico; è invece molto più facile dare
un esempio di processo non ergodico. Il processo a realizzazioni costanti è fatto di n
realizzazioni, ognuna delle quali assume un (casuale) valore costante: sicuramente
questo processo è stazionario (posso calcolare valor medio, varianza, funzione di
autocorrelazione, etc… in qualunque punto, tanto il risultato non cambia) tuttavia non
è assolutamente ergodico; infatti, ogni realizzazione ha un valor medio diverso, un suo
spettro di potenza… e così via.
In cosa consiste la densità del prim’ordine di
un processo ergodico?
Possiamo fare due tipi di rilievi:
- verticale: consiste nell’andare ad
esaminare le varie realizzazioni in un
preciso istante di tempo e nel contare
quante di loro, in quel preciso istante,
hanno un valore contenuto all’interno
di un dato intervallo [a,b]. Da questo
esperimento si ricava:
= P {a < X (t ) < b}
nvolte
nrelizzazioni
In particolare, fissando un intervallo
molto piccolo possiamo ricavare
qualcosa di “imparentato” con la PDF:
P x < X (t1 ) < x+ dx = p1 ( x ) dx
a b
Quest’ultimo termine può essere a
b
sua volta integrato per ottenere: ∫ p ( x ) dx = P {a < X (t ) < b} .
a
1
( )
−1 T
1
f x1 , x2 ,..., x N = 2
e
( 2π )
n
det c
Dove:
- c è una matrice di covarianza con dimensione n × n contenente i termini
{c
i, j }
= cov ( Xi , X j ) = E Xi X j − E [ Xi ] E X j ;
- x = ( x1 , x2 , ..., x n ) (vettore delle variabili aleatorie);
- µ = ( µ1 , µ2 , ..., µn ) (vettore dei valori medi delle rispettive v.a.);
Se il processo aleatorio gaussiano è anche stazionario, allora si ha che i valori medi
sono tutti uguali:
E X (t ) = E [ X ]
Questo influisce sulle quantità sopra descritte facendo diventare così i coefficienti
della matrice di covarianza:
ci, j = CX (t j − ti ) = RX (t j − ti ) − E X
2
CX (τ ) = RX (τ ) − E X E X
Importante è la seguente estensione del teorema del limite centrale: dati n processi
aleatori X1 (t ) , X 2 (t ) , ..., X n (t ) identicamente distribuiti e statisticamente
indipendenti, il processo
1 n
Y (t ) =
∑ X i (t )
n i =1
ha una descrizione statistica che, al crescere di n, tende a quella di un processo
aleatorio gaussiano (indipendentemente dalle descrizioni dei processi
X1 (t ) , X 2 (t ) , ..., X n (t ) )
Anzitutto ricordiamo che un processo si dice discreto nei valori se, fissati gli istanti di
osservazione t1 , t2 , ..., tn , le v.a. X (t1 ) , X (t2 ) , ..., X (tn ) sono discrete e quindi descritte
dalla loro probabilità congiunta (probabilità di ordine n):
pn ( x1 ,t1 ; x 2 ,t2 ; ...; x n ,tn ) = P X (t1 ) = x1 , X (t2 ) = x 2 , ..., X (tn ) = x n
In tal caso le medie statistiche vanno riscritte con le opportune sostituzioni; ad
esempio, se X (t ) per ogni valore di t può assumere soltanto i valori x ( ) , x ( ) , ..., x ( )
1 2 L
( )
L
- il valor medio: E X (t ) = ∑ x ( ) P1 x ( ) ,t ;
i i
i =1
( )
L 2
- il momento del second’ordine: E X 2 (t ) = ∑ x ( ) P1 x ( ) ,t ;
i i
i =1
- la funzione di autocorrelazione:
L L
R X (t ,τ ) = E X (t ) X (t − τ ) = ∑ ∑ x ( )x ( )P x ( i ) , t ; x (l ) , t − τ .
i l
i =1 l =1
2
La stazionarietà e l’ergodicità si introducono in maniera assolutamente analoga a
quanto visto per i p.a. continui nei valori.
{ } ( )
L L
- il valor medio: E [ X n ] = ∑ x ( ) P X n = x ( ) = ∑ x ( ) P1 x ( ) , n ;
i i i i
i =1 i =1
{ } ( )
L 2 L 2
E X n2 = ∑ x ( ) P X n = x ( ) = ∑ x ( ) P1 x ( ) , n ;
i i i i
i =1
i =1
- la funzione di autocorrelazione:
L L
RX (n, k ) = E [ X n X n −k ] = ∑ ∑ x ( )x ( )P x (i ) , n ; x (l ) , n − k .
i l
i =1 l =1
2
I concetti di stazionarietà ed ergodicità possono essere introdotti analogamente ai casi
già considerati. In particolare:
- se il processo è WSS il valor medio non dipende dal tempo
E [ Xn ] = E [ X ]
e la funzione di autocorrelazione dipende solo dalla distanza relativa k fra i due
istanti considerati
RX ( n, k ) = RX ( k )
- la trasformata della funzione di autocorrelazione è:
∞
T X ( f ) = FS {RX ( k )} = ∑ RX ( k ) ⋅ e −2π fkT
−∞
Un processo aleatorio si dice ciclo stazionario se, per ogni t0 = kT (con k un numero
intero e T pari al periodo),
X (t ) e X (t − t0 ) = X (t − kT )
hanno la stessa descrizione statistica.
Ciò influisce, ovviamente, sulle densità di probabilità, che diventa periodica in t con
periodo T:
pn ( x1 ,t1 ; x 2 ,t2 ; ...; x n ,tn ) = pn ( x1 ,t1 + kT ; x2 ,t2 + kT ; ...; xn ,tn + kT )
Diventano periodici in t con periodo T anche:
- il valor medio: E X (t )
- la funzione di autocorrelazione: RX (t,τ ) = E X (t ) X (t − τ )
- la funzione di autocovarianza: CX (t,τ )
un
coefficiente
Sia s (i )
(t ) un segnale PAM generico: la sua espressione sarà s (i )
(t ) = ∑ an( ) g (t − nT )
i
S (t ) = ∑ An g (t − nT )
n
n n
PASSO 1
Come mai abbiamo escogitato questo artifizio (cit.)? Il motivo sta nel fatto che gli An
(di cui sopra) sono, in realtà, i coefficienti di un processo PAM aleatorio formulato nel
seguente modo:
S (t ) = S (t ) − E S (t ) + E S (t ) = ∑ An g (t − nT ) − ∑ E [ A ] g (t − nT ) + E S (t ) =
n n
trucco diabolico!
Dunque, ricapitolando:
S (t ) = E S (t ) + Γ (t )
con S (t ) = ∑ An g (t − nT ) e Γ (t ) = ∑ X n g (t − nT )
n n
Comunque sia, l’obiettivo di questo primo punto del problema è trovare la funzione di
autocorrelazione statistica RΓ (t,τ ) = E Γ (t ) − Γ (t − τ ) . Applichiamo dunque la
RΓ (t,τ ) = E ∑ X n g (t − nT )∑ X m g (t − τ − mT ) = ∑∑ E [XnXm ] g (t − nT ) g (t − τ − mT ) =
n m n m
NOTA: somiglia alla funzione
di autocorrelazione del processo
tempo-discreto X n
PASSO 2
∫ ∑ ∑ R ( k ) g (t − nT ) g (t − τ − ( n − k )T ) dt =
1 1
Rγ (τ ) = γ (t ) γ (t − τ ) = ∫ RΓ (t,τ ) dt = X
T −T
T −T n k
2 2
≜ξ
T
2
T −nT
2
∑k X ( )∑n ∫ t − nT g (t − τ − ( n − k ) T ) dt = T
1 1
=
T
R k g ∑ R (k) ∑ ∫
k
X
n −T −nT
g (ξ ) g (ξ − τ − kT ) dξ =
−T
2
2
equivale ad un unico integrale che va da −∞ a +∞
∞
1 1
=
T
∑ RX ( k ) ∫ g (ξ ) g (ξ − τ + kT )
dξ =
T
(k ) R
∑ R (τ − kT )
X g
−∞
k
k
è una è una funzione
integrale di autocorrelazione: successione del tempo
∞
R g (ψ ) = ∫ g (ξ ) g (ξ −ψ ) dξ con ψ =τ − kT
−∞
Quest’ultima espressione dell’autocorrelazione temporale di un segnale PAM aleatorio
è convenzionalmente esprimibile anche mediante convoluzione ibrida:
Rγ (τ ) = {RX ( k )} ⊗ Rg (τ )
1
T
PASSO 3
Possiamo ora passare, finalmente, al calcolo della funzione spettro densità di potenza
della generica realizzazione:
∞ ∞
1
G ( f ) = F Rγ (τ ) = ∫ Rγ (τ ) e − j 2 π f τ d τ = ∫ ∑ R X ( k ) R g (τ − kT ) e − j 2 π f τ d τ =
−∞ −∞
T k
∞
= ∑ RX (k )
1
T g
1
∫ R (τ − kT ) e
dτ = F
T
− j2π fτ
{R (τ )} ⋅ e
g
− j 2 π fkT
∑ R (k )
X
−∞
k
k
F {Rg (τ )} = F { g (τ ) ⊗ g ( −τ )} = G ( f ) G ( − f ) = G ( f ) G * ( f ) = G ( f )
2
prima proprietà: da convoluzione a semplice prodotto
Gγ ( f ) = ∑ R (k ) ⋅ e
X
− j 2 π fkT
T k
Gγ ( f ) = ∑k R X ( k ) ⋅ e − j 2 π fkT
= F S {R X ( k )}
T T
La nostra lunga ricerca è finita!
Ora, volendo, possiamo sviluppare la sommatoria spezzandola in tre parti e applicando
la simmetria hermitiana propria dei segnali reali.
il segnale è reale!
sfruttiamo la formula di Eulero
G( f ) G(f ) G(f )
2 2 2
∞ ∞ ∞
Gγ ( f ) = ∑ RX ( k ) ⋅ e − j2π fkT = Re ∑ RX ( k ) ⋅ e− j2π fkT = ∑ RX ( k ) ⋅ cos ( 2π fkT ) =
T k=−∞ T
=−∞ T =−∞
k
k
spezziamo in tre parti spezziamo in tre parti
∞
cambio di estremi ⇒ ∑ RX ( − k )⋅cos( 2π fkT )
k =1
G(f )
2
−1 ∞
= RX ( 0 ) + ∑ RX ( k ) ⋅ cos ( 2π fkT ) + ∑ RX ( k ) ⋅ cos ( 2π fkT ) =
T k =−∞ k =1
perché siccome il segnale è reale
RX ( k ) = RX ( − k )
G(f )
2
∞
= R
X ( 0 ) + 2 ∑ RX ( k ) ⋅ cos ( 2π fkT )
T k =1
n j 2π n T E [ A ]
t t
1 n j 2π n T
E S (t ) = E [ A ] ∑ g (t − nT ) = E [ A ] ∑ G e = ∑n G T e
T n T T
n
1 F { g (t )}
∑ x ( t − nT ) =
T∑
X ( f ) e j 2 π Tt
n n
n j 2π n E [ A] t
generica realizzazione s (t ) = γ (t ) + E S (t ) = γ (t ) + ∑ G e T
T n T
Se di questa realizzazione cerchiamo la densità spettrale di potenza otteniamo:
componente a righe che scappa fuori da E S ( t )
modellato il fasore
attraverso Dirac
G(f )
2 2
E A
∞ 2
n n
GS ( f ) = RX ( 0 ) + 2∑ RX ( k ) ⋅ cos ( 2π fkT ) + 2 ∑ G δ f −
T
k =1 T n
T T
componente continua (spettro distirbuito Gγ ( f ) ) t
2
E A n j 2π n T
T ∑ G e
T
n
OSSERVAZIONI:
- se E [ A ] = 0 lo spettro a righe scompare;
- la componente a righe scompare anche nel caso in cui, indipendentemente dal
n
valor medio, G è tale da far risultare G sempre pari a zero;
T
- ricordiamo che
= x n x n − k = Rx ( k )
= E [ An − k ]
RX ( k ) = E [ X n X n − k ]
= E An − E [ A ] An − k − E [ A ] = RA ( k ) − E 2 [ A ]
= E [ An ]
Dunque la funzione di autocorrelazione statistica non soltanto è pari alla
funzione di autocorrelazione temporale, ma coincide anche con una funzione di
autocovarianza delle A.
Diamo anzitutto lo schema sommario di quale sia il percorso intercorrente fra una
sorgente binaria e il segnale PAM completamente formato.
SORGENTE BINARIA
La sorgente binaria emette 1 bit ogni Tb secondi (tempo di bit):
da questo dato si ricava anche la bitrate, che è definita come Br = Tb−1 .
Un bit, in quanto bit, può assumere soltanto i valori {0,1}.
L’emissione della successione di bit {bn } è da considerarsi come una
realizzazione di {Bn } , che è un processo aleatorio,
senza memoria e stazionario (e dunque ergodico).
⇓
CODIFICATORE
Il codificatore è un componente che associa a un certo
numero di bit un simbolo appartenente a un preciso
alfabeto (finito). Riceve dunque in entrata una successione
di bit {bn } ed emette, in output, una successione di simboli
{an } . I simboli vengono rilasciati ogni T secondi (tempo di simbolo);
analogamente a prima, si definisce la symbol-rate come Bs = T −1 . Grazie
alla corrispondenza biunivoca fra i {bn } e gli {an } , possiamo dire che
pure il processo { An } è ergodico.
⇓
MODULATORE PAM
Il modulatore PAM possiede, nella pancia, un determinato impulso
g(t); riceve in ingresso i simboli generati dal codificatore e, in uscita,
rilascia ogni T secondi la funzione an g(t), ovvero l’impulso g(t) modulato
da un certo coefficiente an . La somma di tutti questi impulsi singolari
è la funzione s (t ) = ∑ a g (t − nT ) . NOTA: il processo S(t) è cicloergodico!
n
n
12. Qualche esempio di segnali PAM aleatori: codice bipolare alternato (AMI,
Alterned Marked Inversion)
- se l = 3 alfabeto di 8 simboli
bn an
In questo esempio con tre livelli si vede ancora
000 –7
meglio che, formalmente, i simboli generati sono
001 –5 − ( L − 1) , ..., − 5, − 3, − 1, + 1, +3, +5, ..., ( L − 1)
011 –3
Anche qui si nota la codifica Gray (tra una codifica a
010 –1 quella successiva vi è la differenza di un solo bit).
110 +1 Ora troviamo il valor medio del processo:
1
111 +3 E [ A ] = − ( L − 1 ) − ... − 3 − 1 + 1 + 3 + ... + ( L − 1 ) = 0
101 +5 L
E 100 +7
Essendo nullo questo valor medio, lo spettro di
potenza del processo non avrà la componente a righe
Per trovare i coefficienti che minimizzano l’errore, il componente chiamato MMSE
(minimal mean square error) predictor impone all’MSE la condizione di minimo
mediante la derivata parziale operata sui coefficienti:
∂J
=0
∂ai
Si può dimostrare che i coefficienti tirati fuori fissando questa condizione soddisfano
questo sistema di equazioni esposto in forma “matriciale”:
RX (1 ) RX ( 0 ) ⋯ ⋯ RX ( N − 1 ) a1
RX ( 2 ) = RX (1) ⋯ ⋯ ⋮ a2
⋮ ⋮ ⋯ ⋯ ⋮ ⋮
RX ( N ) RX ( N − 1) ⋯ ⋯ RX ( 0 ) an
III – MODULAZIONI
1. Concetti preliminari
Una classificazione simile a quella appena fatta è riferibile anche ai sistemi LTI: un
sistema LTI si dice infatti passa-basso se la sua funzione di trasferimento H(f) è fatta
in modo tale da avere componenti significative intorno allo zero; altrimenti, un
sistema si dice passa-banda se la banda passante della H(f) è concentrata alle
frequenze alte.
Un po’ di terminologia:
- x(t) è detto segnale modulante;
- s(t) è l’oscillazione modulata.
Ovviamente, per la natura stessa del componente, un modulatore non può essere LTI:
dobbiamo sacrificare o la linearità o la tempo-invarianza per fare in modo che sia
possibile far nascere nuovi fasori (ovvero “traslare” in frequenza). Un sistema LTI,
invece, modifica soltanto ampiezza e fase di un segnale, non la locazione della sua
banda.
()V t ϕ (t )
sensibilità del
modulatore:
rende m( t )
adimensionale
s (t ) = V0 1 + ka x (t ) cos 2π f0t + α (t ) + ϕ0
m (t ) = ka x (t )
con
α (t ) = 0
m (t ) 0
Nella modulazione in
ampiezza il segnale di tipo
passa-basso fa da
l’inviluppo per l’oscillazione
modulata, che eredita dal
segnale portante (la
sinusoide) i punti di
intersezione con lo zero.
Dove il segnale modulante è
maggiore di zero,
l’oscillazione modulata sarà
più intensa della portante;
viceversa, nelle parti
corrispondenti ai valori in
cui il segnale x(t) diventa
negativo, la s(t) sarà una
versione attenuata della
s0(t).
Tale tipo di modulazione in
ampiezza nasconde l’insidia
della sovramodulazione:
essa avviene quando il
blocco modulatore è troppo
sensibile ( ka molto alto) oppure
quando il segnale passa-basso
x(t) è già intrinsecamente molto
“ampio”. In situazione di
sovramodulazione capita che
V(t) diventa negativo (e quindi
che –V(t) diventa positivo):
dunque le due “pareti”
dell’inviluppo si accavallano e il
segnale s(t) non è più un
rappresentante attendibile del
segnale modulante. Inoltre
abbiamo il fenomeno dell’inversione di fase (vedi disegno). Per evitare queste
spiacevolezze deve accadere che V (t ) ≥ 0 per ogni t. Dunque, osservando l’espressione
dell’oscillazione modulata, bisogna imporre:
V (t ) ϕ (t )
s (t ) = V0 1 + ka x (t ) cos 2π f0t + α (t ) + ϕ0 V0 1 + ka x (t ) ≥ 0
m (t ) 0 m( t )
1 + ka x (t ) ≥ 0
m( t )
m( t )
ancora maggiore di zero per l’oscillazione “negativa” più ampia, vuol dire che tutte gli
altri valori non sono pericolosi). Alla fine otteniamo un’importante condizione sulla
sensibilità del modulatore, che è la seguente:
1
1 + ka ( − M ) ≥ 0 ⇒ 1 ≥ ka M ⇒ ka ≤
M
m (t ) = 0
ϕ (t )
V (t )
α (t ) =
s (t ) = V0 cos ( 2π f0t + kp x (t ) + ϕ0 )
kp x (t )
con
sensibilità del
modulatore:
conferisce a α (t )
dimensione [rad]
d
αɺ (t )
kp x (t ) k
NOTA: ∆f (t ) = f (t ) − f0 = = d t = p xɺ (t )
2π 2π 2π
È questo un primo esempio di modulazione d’angolo (il secondo esempio sarà quello
che si vedrà nel paragrafo 5): in questo contesto si parla quindi di indice di
modulazione angolare; esso è così definito:
mp = max α (t )
Nel caso particolare in cui il segnale modulante è una sinusoide (di frequenza fm ) si
introduce poi un indice più specifico, ovvero l’indice di modulazione di frequenza:
max ∆f (t )
mf =
fm
()
ϕ t
m (t ) = 0
V (t )
∆f (t ) = t
kf x (t )
con s (t ) = V0 cos 2π f0t + kf 2π ∫ ∆f (ξ ) dξ + ϕ0
sensibilità del −∞
modulatore:
conferisce a ∆f (t )
α (t )
dimensione [Hz]
s (t ) = V0 (1 + ka x1 (t ) ) cos ( 2π f0t + kp x 2 (t ) + ϕ0 )
Per quanto riguarda i circuiti di demodulazione, non vi è quasi nessuna differenza nei
simboli grafici (si nota soltanto l’assenza della portante).
l’oscillazione modulata sAM (t ) tornerà ad essere pari al valore della tensione d’uscita.
Si intuisce facilmente che è di fondamentale importanza dimensionare bene la costante
di tempo del circuito, in modo che la scarica abbia la giusta velocità e insegua
adeguatamente l’inviluppo.
Dal punto di vista della potenza trasmettere la portante è uno spreco: se però
disponiamo di un demodulatore coerente, è necessario trasmettere un residuo
(possibilmente molto debole) di portante, in modo che si possa eseguire la
demodulazione. Abbiamo però un’altra
possibilità: possiamo decidere di non
trasmettere la portante a patto di
poterla ricostruire – lato ricevente –
con un circuito apposito. A tal proposito
definiamo (con riferimento al disegno di
prima) la upper e la lower side band (v.
immagine).
Ora possiamo formulare un’espressione
alternativa per l’oscillazione modulata:
sAM (t ) = s0 (t ) + sUSB (t ) + sLSB (t ) ≡ sDSB (t )
portante segnale di segnale di segnale di
upper side band lower side band double side band
traslazione di + f0 traslazione di − f0
1 1 1 1
X (f ) + X ( f + 2 f0 ) + X ( f − 2 f0 ) + X ( f ) = X ( f ) Et voilà!
2 2
2
2
mangiato dal passa-basso mangiato dal passa-basso
Apriamo ora una piccola parentesi e vediamo cosa succede se, per qualche
motivo, non vi perfetta è sincronia fra la portante del modulatore e quella del
demodulatore e cioè se abbiamo
portante 1 (modulatore) → cos ( 2π f0t )
errore!
Con la modulazione QAM trasmettiamo due segnali nella stessa banda: sembra
impossibile, ma non è magia nera! Vediamo come si opera: prendiamo due segnali
modulanti x1 (t ) e x 2 (t )
- il primo segnale [ x1 (t ) ] viene dato a un modulatore a prodotto, che lo
moltiplica per un termine cos ( 2π f0t ) ;
- il secondo segnale [ x 2 (t ) ] viene dato a un altro modulatore a prodotto, che lo
(
moltiplica per un termine cos 2π f0t + π
2 )= − sin ( 2π f0t ) , in quadratura rispetto a
cos ( 2π f0t ) (NOTA: il sfasatura di π 2 si crea utilizzando un opportuno blocco di
ritardo. I modulatori a prodotto di cui stiamo parlando usano infatti una sola
portante, la quale viene offerta una volta così com’è e la un’altra volta ritardata,
appunto, di π 2 . Se così non fosse potrebbe esserci serio pericolo di non ottenere
la corretta sfasatura a causa di mancato sincronismo fra i due oscillatori delle
portanti).
A questo punto sommiamo i due segnali per ottenere s(t), l’oscillazione modulata che
spediamo nel mezzo passa-banda.
(
s (t ) = x1 (t ) cos ( 2π f0t ) + x 2 (t ) cos 2π f0t + π
2 )
= x1 (t ) cos ( 2π f0t ) − x 2 (t ) sin ( 2π f0t )
Ora esaminiamo il demodulatore: esso porta il segnale s(t) a due modulatori a prodotto
con diversa portante…
- il primo dei due ha portante 2 cos ( 2π f0t ) e dà, in uscita, un segnale che
chiamiamo PI (t ) (I sta per “in fase”) e che ha la forma
PI (t ) = x1 (t ) cos ( 2π f0t ) − x 2 (t ) sin ( 2π f0t ) 2cos ( 2π f0t ) =
= 2x1 (t ) cos2 ( 2π f0t ) − x 2 (t ) 2sin ( 2π f0t ) cos ( 2π f0t ) =
1 1
= 2x1 (t ) + cos ( 2 ⋅ 2π f0t ) − x 2 (t ) sin ( 2 ⋅ 2π f0t ) =
2 2
= x1 (t ) + x1 (t ) cos ( 2 ⋅ 2π f0t ) − x2 (t ) sin ( 2 ⋅ 2π f0t ) = x1 (t )
Come si specifica nel procedimento appena illustrato, quel che esce fuori è
soltanto il segnale (di partenza!) x1 (t ) , perché tutte le altre componenti vengono
eliminate da un filtro passa-basso che mettiamo a valle del modulatore a
prodotto;
- il secondo dei due ha portante −2sin ( 2π f0t ) e dà, in uscita, un segnale che
chiamiamo PQ (t ) (Q sta per “in quadratura”) e che ha la forma
PQ (t ) = − x1 (t ) cos ( 2π f0t ) − x 2 (t ) sin ( 2π f0t ) 2 sin ( 2π f0t ) =
= − x1 (t ) 2sin ( 2π f0t ) cos ( 2π f0t ) + 2x 2 (t ) sin 2 ( 2π f0t ) =
1 1
= − x1 (t ) sin ( 2 ⋅ 2π f0t ) + 2x 2 (t ) − cos ( 2 ⋅ 2π f0t ) =
2 2
= −x1 (t ) sin ( 2 ⋅ 2π f0t ) − x 2 (t ) cos ( 2 ⋅ 2π f0t ) + x 2 (t ) = x 2 (t )
Piccola parentesi: cosa accade se, per qualche motivo, le oscillazioni dei modulatori a
prodotto non sono ben sincronizzate? Prendiamo ad esempio il demodulatore e
introduciamo un certo sfasamento ∆ fra le portanti
Come già abbiamo visto per quanto riguarda le modulazioni d’angolo, questa è
l’espressione dell’oscillazione modulata:
s (t ) = V0 cos ( 2π f0t + α (t ) )
Purtroppo α (t ) incarna una relazione fortemente non lineare, che non ci permette di
trovare matematicamente l’espressione dello spettro di potenza, né nella maniera
usuale, né in nessun’altra. Esiste tuttavia una relazione “empirica” che riesce a darci,
a grandi linee, l’estensione della banda del segnale modulato ad angolo (banda di
Carson):
deviazione
massima
di
frequenza
B = 2 ∆fmax + fm
=max ∆f (t )
In base alla modulazione scelta, la massima deviazione di frequenza avrà una diversa
espressione:
CASO FM: = kf M (M è la dinamica del segnale)
1
CASO PM: = kp max xɺ (t )
2π
Comunque sia, pare evidente che un segnale modulato con modulazione d’angolo
occupa una banda molto superiore a quella del caso AM. Infatti
2 ( ∆fmax + fm ) = 2∆fmax + 2 fm > 2 fm
espressione della modulazione d'angolo mod. AM
banda di Carson
A titolo d’esempio, la ∆fmax di un segnale FM (del tipo che si riceve abitualmente con la
radiolina tascabile) è di 75 KHz, mentre la sua fm è di “soli” 15 KHz. Dunque un
segnale AM di equivalente frequenza occuperebbe 30 KHz contro i 180 KHz che si
hanno in modulazione di frequenza. Fatta questa considerazione si potrebbe pensare
che le modulazioni d’angolo siano svantaggiose in toto: in realtà esse hanno la
peculiarità di avere un inviluppo (cioè un’ampiezza) costante, particolare che facilita
molto la costruzione dei circuiti di modulazione/demodulazione e che rafforza la
resistenza ai disturbi. Le modulazioni d’ampiezza, che proprio nell’inviluppo portano
l’informazione, sono – sotto questo aspetto – maggiormente attaccabili.
Si tratta di una tecnica che permette di inviare attraverso uno stesso mezzo passa-
banda più segnali passa-basso opportunamente modulati a diverse (e opportune)
frequenze f1 , f2 , …, fn . Dal punto di vista del ricevente, è possibile ottenere l’i-esimo
segnale passa-basso spedito sapendo a che frequenza quest’ultimo è stato lanciato e
utilizzando un opportuno demodulatore. Ecco lo schema di funzionamento
(nell’esempio i segnali coinvolti sono tre):
LATO TX:
Come si trasmette il segnale? A tutti gli effetti si utilizza una FDM, visto che il
segnale differenza e il segnale media non si sovrappongono, ma – anzi – sono separati
da una portante (a 19 KHz):
- il segnale media è passa-basso;
- il segnale differenza è modulato DSB-SC e centrato ad una frequenza doppia
rispetto alla portante (38 KHz).
I due segnali così ottenuti vengono sommati e quindi modulati in frequenza. Ora il
segnale è diventato passa-banda e può essere trasmesso nel mezzo radio.
LATO RX:
Se s(t)
s (t ) = V0 1 + m (t ) cos ( 2π f0t + α (t ) + ϕ0 )
è la generica espressione di un’oscillazione modulata, allora il suo equivalente passa-
basso è la funzione i(t)
{
s (t ) = Re i (t ) e j 2π f0t }
L’obiettivo di questo procedimento è quello di depurare il segnale dalla sua frequenza
di posizionamento f0 .
Esaminiamo da vicino i vari casi di modulazione:
- AM: in questo caso l’oscillazione modulata si esprime come
sAM (t ) = V0 1 + ka x (t ) cos ( 2π f0t + ϕ0 )
Dunque è facile ricavare l’equivalente passa basso, perché:
{
s (t ) = Re i (t ) e j 2π f0t }
s (t ) = Re V0 1 + ka x (t ) e jϕ0 e j 2π f0t
equivalente passa-basso
(posto ϕ0 = 0 , V0 1 + ka x (t ) è una quantità reale e utilizzando Eulero si possono
sciogliere i termini esponenziali generando un termine coseno. Si noti che il
termine f0 non compare nell’equivalente passa-basso)
L’equivalente passa-basso, se la fase iniziale è nulla, non ha parte immaginaria
e, sul piano di Gauss, è individuato da un vettore che modifica la sua ampiezza
scorrendo sull’asse reale. Dunque, ricapitolando, le informazioni che si possono
ricavare dall’equivalente passa basso sono che:
- l’inviluppo non è costante (il vettore modifica la sua ampiezza);
- non vi è alcuna variazione di fase (il vettore sta sempre sull’asse reale).
- FM/PM: nelle modulazioni d’angolo l’oscillazione modulata si esprime così
sAM (t ) = V0 cos ( 2π f0t + α (t ) )
Possiamo quindi trovare anche qui l’equivalente passa-basso
{
s (t ) = Re i (t ) e j 2π f0t }
j 2π f0t
s (t ) = Re V0 e
jα (t )
e
equivalente
passa-basso
t
dove α (t ) = kp x (t ) nel caso PM e α (t ) = 2π kf ∫ x ( ξ ) dξ .
−∞
L’equivalente passa-basso, questa volta, ha una parte immaginaria, che sarebbe
sin α (t ) , ma ha lunghezza costante. Siamo quindi di fronte a un vettore che
ruota attorno all’origine generando una circonferenza (con raggio ovviamente
costante inviluppo costante); ovviamente questa volta la fase non sarà
costante, essendo pari a:
♦ α (t ) = kp x (t ) nel caso PM
t
♦ α (t ) = 2π kf ∫ x ( ξ ) dξ nel caso FM
−∞
- QAM: l’oscillazione modulata ha la seguente espressione
s (t ) = x1 (t ) cos ( 2π f0t ) − x2 (t ) sin ( 2π f0t )
L’equivalente passa-basso si ricava scrivendo la s(t) in tale forma:
j 2π f0t
s (t ) = Re x1 (t ) + jx 2 (t ) e
eqiuvalente passa-basso
π
e perché sin α = cos α + π , provare per credere!)
j
(NOTA: questo perché j = e 2
2
Il vettore che sul piano di Gauss individua l’equivalente passa-basso ha dunque
una parte reale pari ad x1 (t ) e una parte immaginaria pari a x 2 (t ) : siccome
entrambe queste funzioni possono variare, questa volta non avremo né fase né
ampiezza costanti (infatti tale modulazione è ibrida).
- modulazione a prodotto (DSB-SC): l’oscillazione modulata è
s (t ) = x (t ) cos ( 2π f0t ) = x (t ) cos 2π f0t + π ⋅ u ( − x (t ) )
funzione gradino
= + +
2 2 2 2
i * (t ) e − j 2π f0t i (t − τ ) e i * (t ) e − j 2π f0t i * (t − τ ) e
j 2 π f0 (t −τ ) − j 2 π f0 (t −τ )
+ + =
2 2 2 2
… notiamo, per fortuna, che qualcosa si semplifica …
( )
i (t ) i (t − τ ) e i (t ) i * (t − τ ) e
j 2 π f0t + j 2 π f0 ( t −τ ) j 2 π f0t − j 2 π f0 t −τ
= + +
4 4
( )
i * (t ) i ( t − τ ) e i * (t ) i * (t − τ ) e
− j 2 π f0t + j 2 π f0 t −τ − j 2 π f0t − j 2 π f0 (t −τ )
+ + =
4 4
… sfruttiamo la linearità del valor medio …
i (t ) i ( t − τ ) e i (t ) i* (t − τ ) e j2π f0τ i* (t ) i (t − τ ) e− j2π f0τ i* (t ) i* (t − τ ) e
j 2π f0t + j 2π f0 (t −τ ) − j 2π f0t − j 2π f0 (t −τ )
= + + +
4 4 4 4
costante
costante
j 2π f0τ − j 2π f0τ
e e e j2π f0τ e− j2π f0τ *
Rs ( f ) = i (t ) i (t − τ ) +
*
i (t ) i (t − τ ) =
*
Ri (τ ) + Ri (τ )
4 4 4 4
Ri (τ ) = i (t )i* (t −τ ) Ri* (τ ) = i* (t )i(t −τ )
VMAX = max V (t ) = V0 (1 + ma )
VMIN = min V (t ) = V0 (1 − ma )
Se ora facciamo:
VMAX − VMIN = V0 (1 + ma ) + V0 (1 − ma ) = 2maV0
VMAX + VMIN = V0 (1 + ma ) − V0 (1 − ma ) = 2V0
Quindi, con qualche calcolo algebrico elementare
VMAX − VMIN 2maV0
= = ma
VMAX + VMIN 2V0
- nel caso PM ed FM la storia è un po’ più intricata. Prendiamo ancora il nostro
segnale modulante sinusoidale
x (t ) = M cos ( 2π fmt + ϕm )
ricordando che, per le modulazioni d’angolo, si ha
k p x ( t ) PM
α (t ) = t
2π k f ∫ x ( ξ ) dξ FM
−∞
= ∑
n =−∞
cn e 2π
= ∑ce
n =−∞
n
jnΦ
TT
cn ≜ ∫
2π −π
V0 e e d Φ = V0 ∫
2π −π
e p e dΦ
funzione di Bessel di ordine n
e argomento mp
( )
Jn m p
{ }
s (t ) = Re i (t ) e j 2π f0t = V0 ∑ J (m ) cos ( 2π ( f
n =−∞
n p 0 + nfm ) t + nψ )
Le funzioni di Bessel, che non hanno forma chiusa, hanno le seguenti proprietà:
J ( x ) = ( −1 ) n J ( x )
−n n
∑ J n ( x ) = 1
2
n
(NOTA: la prima proprietà indica che, se l’indice della funzione di Bessel è pari, allora
anche la funzione stessa sarà pari; allo stesso modo, se l’indice è dispari, la funzione
sarà dispari)
Esse sono fatte così:
La J 0 ( x ) è quella che esprime la riga della componente continua (la frequenza f0 del
segnale modulato), la J1 ( x ) fornisce le righe alle frequenze f0 ± fm , la J 2 ( x ) le righe
alle frequenze f0 ± 2 fm etc…
Nel grafico vi è un valore piuttosto importante: quello in cui scompare la riga della
continua, ovvero il valore per il quale J 0 ( x ) = 0. Tale valore è x = 2,409. La cosa
interessante è che, in questo caso, “l’estensione” (anche se è difficile parlare di
estensione in tale contesto) che le righe occupano nello spettro delle frequenze è
effettivamente pari alla banda di Carson.
V- MODULAZIONI NUMERICHE
Vogliamo ora estendere questo caso ai segnali PAM: lo schema, dunque, si allunga un
pochetto:
volta, sta nel fatto che questi ultimi derivano da segnali digitali e che, lato ricevente,
questi segnali potranno eventualmente essere demodulati e riconvertiti in segnali
digitali.
Assumiamo, per ipotesi, che gli impulsi generati dal modulatore PAM siano
rettangolari e di tipo NRZ (ampiezza VM ), e che dunque abbiano la forma
t −T
g (t ) = VM rect 2
T
NOTA:
- VM regola l’ampiezza della rect;
- sottrarre T/2 al numeratore serve per far partire la rect, che normalmente è
centrata nell’origine, dall’origine stessa;
- dividere per T serve ad “allungare” la rect, che generalmente ha durata
unitaria.
Dunque la OOK:
- in corrispondenza di an = 0 dà un contributo nullo sull’oscillazione modulata
s(t): si ha 0 ⋅ g (t − nT ) ⋅ cos ( 2π f0t ) = 0 ;
- in corrispondenza di an = 1 genera, sulla s(t), un treno sinusoidale di ampiezza
t −T
VM : si ha 1 ⋅ g (t − nT ) ⋅ cos ( 2π f0t ) = 1 ⋅ rect 2 ⋅ V cos ( 2π f t ) .
M 0
T
Facciamo le stesse ipotesi di prima, ma questa volta gli an sono i simboli generati da
una codifica multilivello ad L livelli.
Si ricordi che, in questo caso:
- L = 2l è il numero di livelli;
- l = log 2 L sono i bit per ogni simbolo della nostra codifica;
- i simboli an sono suscettibili dei valori ±1, ± 3,. .., ± ( L − 1) , ciascuno dei
quali rappresenta una parola di l bit secondo un codice Gray;
- il tempo di simbolo è: T = log 2 L ⋅ Tb (con Tb tempo di simbolo);
Br
- la frequenza di simbolo è: Bs = .
log 2 L
NOTA: qui è facilissimo accorgersi che l’equivalente passa basso del segnale è
+∞
i (t ) = ∑ a g (t − nT ) = x (t )
n
n =−∞
Ancora una volta facciamo riferimento a un codice bipolare o multilivello: questa volta,
tuttavia, moduliamo in fase visto che l’oscillazione modulata ha la forma
s (t ) = V0 cos 2π f0t + α (t )
+∞ t − T − nT +∞
In questa relazione α (t ) = kp x (t ) = kp ∑ an g (t − nT ) = kpVM ∑ an rect 2 .
n =−∞ n =−∞ T
PAM
π π +∞ t − T − nT
Assumiamo kp = , in modo che α (t ) = ∑ an rect 2 e dunque i
LVM L n =−∞ T
possibili valori assunti si risultino uniformemente distribuiti sull’angolo giro.
L’equivalente passa-basso dell’oscillazione modulata è:
π
+∞ t −T −nT
j t − T − nT
∑ an rect 2
+∞ π
i (t ) = V0 e
jα (t ) L n =−∞ T j an
= V0 e ∑
n =−∞
rect
2
T
= V0 e L
La costellazione della modulazione PSK ha forma circolare con punti distribuiti
uniformemente (l’abbiamo imposto noi stessi poco fa).
NOTA: la 4-ASK coincide con la 4-QAM; allo stesso modo la 2-PSK coincide con la 2-
ASK.
6. Modulazioni L-FSK (Frequency Shift Keying a L livelli) L-CPFSK
(Continuous Phase Frequency Shift Keying a L livelli)
Abbiamo visto nello scorso capitolo che lo spettro di potenza dell’oscillazione modulata
può essere espresso in questo modo:
1 1
Gs ( f ) = Gi ( f − f0 ) + Gi ( f + f0 )
4 4
Dunque possiamo scegliere di trovare Gi ( f ) invece che lanciarci a capicollo sulla
ricerca di Gs ( f ) , tanto il conoscere uno dei due spettri in questione significa conoscere
anche l’altro. L’equivalente passa-basso delle varie modulazioni ha la forma:
i (t ) = ∑ an g (t − nT )
n
Dove i simboli an possono essere reali (L-ASK) oppure complessi (M-QAM, L-PSK).
Diamo ora le espressioni dei relativi spettri di potenza Gi ( f ) delle modulazioni:
E an2
G(f )
2
- L-ASK:
T
trasformata
dell'impulso rect
= una sinc
E µn
2
- M-QAM: G f 2
( )
T
2
V2 t
- L-PSK: 0 F rect
T T
Comune a queste tre espressioni è lo spettro di potenza normalizzato:
Gi ( f ) 2 f
= sinc
Gi ( 0 ) B
S
symbol
rate
Dunque la
1 1
Gs ( f ) = Gi ( f − f0 ) + Gi ( f + f0 )
4 4
è fatta di due sinc (larghezza del lobo centrale: 2 BS ) a frequenza f0 e − f0 .
NOTA: esiste una relazione tra la symbol-rate di una codifica e il numero di punti
nella costellazione della modulazione
symbol bit-rate
rate
Br
BS =
log 2 M
numero
di punti
Si noti che maggiore è il numero di punti e minore sarà la banda occupata dal segnale
(il denominatore diventa grande e la sinc più stretta perché BS cala). L’altra faccia
della medaglia è aumenta la difficoltà di ricezione a causa dei rumori.
VI - RADIODIFFUSIONE
Il segnale televisivo, come abbiamo visto, viaggia a cavallo fra la VHF (I, II, III) e la
UHF (IV e V). Si ricordi che il segnale video analogico in B/N è un segnale in banda
base con banda 5 MHz e che tale segnale veicola le informazioni riguardanti il
parametro di luminanza (intensità di luce, cioè bianco). Supponiamo che, per la
trasmissione, tale segnale sia trasmesso tramite una portante a frequenza f0 e, fatta
questa ipotesi, esaminiamo come è trasmesso il segnale video analogico a colori:
- tra f0 − 1,25 MHz e f0 + 5 MHz si trova il segnale di luminanza che, come si
osserva, tiene 6,25 MHz (invece che 10 MHz) in virtù di una “economica”
modulazione VSB; tale segnale viene ricevuto sia da chi ha un televisore in B/N
sia dagli utenti in grado di ricevere le trasmissioni a colori;
- attorno a f0 + 4,43 MHz si osserva empiricamente che il segnale di luminanza
presenta, come in altre parti, “dei buchi” generati dalla periodicità dei frame; si
sceglie dunque di porre qui il segnale di crominanza, modulato QAM, il quale,
essendo meno massiccio di quello della luminanza, riesce a stare comodamente
in tale piccolo intervallo di banda; il segnale di crominanza è interpretato solo
dalla TV a colori: se si dispone di solo B/N, tale informazione non viene recepita
e rimane ignorata;
- alla frequenza f0 + 5,5 MHz si modula in FM il segnale audio (tiene circa 130
KHz).
Dunque in totale il segnale video (a colori e analogico) tiene attorno ai 6,75 ∼ 7 MHz
(e circa 8 MHz in UHF).
Come abbiamo visto esiste una legge fisica che indica come la lunghezza d’onda
dipenda dalla frequenza di trasmissione secondo la legge λ = c f . Se si vuole
trasmettere un segnale su un raggio molto ma molto ampio l’ideale è utilizzare
un’antenna molto grande e di notevole potenza in modo da sfruttare le basse frequenze
( onde molto lunghe). Il problema è che tali frequenze sono preziosissime, in quanto
sono in grado di coprire un’area così vasta da risultare occupate su tutto il globo.
Utilizzarle su scala locale sarebbe sprecato, così in quest’ultimo caso si preferisce
collegare fra loro tante stazioni a potenza minore, le quali trasmettono (“ripetono”) lo
stesso segnale su una frequenza più alta (e quindi su un raggio minore). Facendo
l’esempio audio, si sceglie quindi la modulazione AM (che tiene poca banda quindi è
economica) per le preziose frequenze basse e a più grande portata (da VHF in giù),
mentre si preferiscono la modulazione FM e una frequenza più alta per la
trasmissione locale.
Nella trasmissione GSM trasmettiamo una segnale audio che in banda base occupa 4
KHz e che viene campionato a 8 KHz per soddisfare Shannon: la bitrate del segnale
digitale così ricavato è di circa 10 ∼ 20 Kbps (compressa dai 64 Kbps originale). Per la
trasmissione si utilizza una tecnica a di multiplazione a divisione temporale (TDM)
con 8 slot differenti, uno per ogni utente, i quali si ripetono periodicamente; la banda
totale utilizzata per 8 conversazioni tiene grosso modo 200 KHz, con differenzazione
tra banda di uplink (invio) e downlink (ricezione). Tale banda è, in realtà, tantissima
se consideriamo il numero di conversazioni telefoniche che si tengono
contemporaneamente in tutto il paese: sarebbe impensabile utilizzare, su tutto il
territorio nazionale, un range di frequenza per ogni conversazione, dunque si sfrutta il
principio del riuso di frequenza e quello della multiplazione statistica. Il primo si
realizza dal momento che esistono, su tutto il territorio, delle celle, ognuna di pochi
chilometri di raggio, le quali sono adeguatamente distanti fra loro in modo da evitare
interferenze. Due celle lontane possono usare per due conversazioni diverse la stessa
frequenza: in questo modo riusciamo ad evitare la necessità di una banda smisurata
per ospitare tutte quante le trasmissioni. Si è inoltre osservato che bastano
relativamente pochi canali per servire una vasta popolazione, dal momento che non
tutti gli utenti intraprendono una conversazione contemporaneamente.
Fra i collegamenti notevoli ricordiamo il collegamento P-P, che è quello tra parabole
poste a non più di 50 Km l’un con l’altra: è infatti necessario che le due installazioni
siano reciprocamente in vista e la curvatura terrestre, a questo scopo, è certamente
d’ostacolo. La trasmissione avviene ad una banda molto elevata (circa 10 GHz) e
dunque altrettanto elevato sarà il bitrate.
Molto importante è anche l’uso delle bande ISM (Industrial Scientific and Medical),
per le quali non serve licenza: è quindi possibile trasmettervi liberamente, a patto di
rispettare alcuni vincoli riguardo lo spettro di potenza. Il problema sta nel fatto che
tali bande sono relativamente strette e che vi è poco spazio, dal momento che tutti si
lanciano ad utilizzare le frequenze di cui sopra. Il collegamento Bluetooth e quello WI-
FI rientrano in quest’ambito.
Questi circuiti hanno lo svantaggio di essere difficili da progettare, perché devono con
un’unica operazione modulare direttamente alla frequenza f0 e ciò può risultare
abbastanza problematico. Per questo esistono i cosiddetti sistemi a supereterodina.
Tutti i circuiti sono in generale sorgenti di fluttuazioni aleatorie nel tempo di tensioni
e/o correnti che si sovrappongono ai segnali stessi e che chiamiamo rumore. Le origini
di questo rumore sono riconducibili alle leggi che regolano il funzionamento
microscopico dei dispositivi, che sono di tipo statistico e non deterministico.
Da cui:
Ge ( f ) = 2RkT GeMONO ( f ) = 4 RkT [V2 / Hz]
(formula di Nyquist)
hf
È per questo motivo che, se << 1, e ciò – sapendo che k = 2 ⋅ 1010 – avviene
kT h
proprio nel range di frequenze [ −10 , +10 ] , lo spettro assume valore costante.
11 11
Alla luce dei calcoli appena fatti, vogliamo ora dare un’espressione del rumore in
funzione di una qualsivoglia porzione di banda [±f, ±(f+B)] (dove essa è costante):
consideriamo dunque un resistore R a temperatura assoluta T. La potenza del rumore
nella banda B sarà:
Pe ,B ≜ eB2 (t ) = 2kTR ⋅ 2B = 4kTRB V 2
(nota: c’è 2B perché bisogna considerare sia la porzione positiva che quella negativa
delle frequenze)
Questo vuol dire che il valore efficace del segnale-rumore è:
eB ,eff ≜ 4kTRB V
Tipicamente la potenza di rumore è dell’ordine dei microVolt (esempio numerico con: R
= 1 kΩ, T = 290 K, B = 5 MHz Risultato: 9 µV ): tale quantità potrebbe essere
rilevante se confrontata con segnali deboli, mentre è trascurabile con segnali
dell’ordine del Volt o milliVolt.
Alla luce dell’analisi appena fatta, possiamo dire che un qualsiasi resistore si comporta
come una sorgente calibrata di rumore.
OSSERVAZIONI:
- le considerazioni appena fatte sono valide se è costante la frequenza di
lavoro f [Hz];
- nella pratica si cercano di fare impedenze puramente resistive e
costanti, in modo da ottimizzare la situazione;
- per fare queste osservazioni è sufficiente che Q sia lineare.
Hz
Quale sarà la potenza disponibile del rumore dN in una banda di ampiezza
infinitesima [±f, ±(f+df)] (ovvero la potenza ceduta al carico dalla resistenza
rumorosa)? Per trovarla basta fare:
kTR df
dN = = kTdf [W]
R
Possiamo infatti definire la densità spettrale di potenza ceduta al carico in termini di
Watt:
dN kTdf kT W
GN ( f ) = = = e GNMONO ( f ) = kT
2 ⋅ df 2 ⋅ df 2 Hz
(NOTA: il 2 al denominatore deriva dal fatto che c’è sia la parte di banda positiva che
quella negativa)
Quel che osserviamo è detto rumore granulare: esso è legato al carattere discreto del
flusso di corrente del dispositivo, che non è prodotto dal moto di un fluido continuo, ma
da portatori elementari di carica; si dice in particolare che la corrente ha un carattere
granulare in quanto gli elettroni non attraversano la giunzione in modo lineare. La
componente fluttuante che ne deriva è sperimentalmente considerabile come un
processo aleatorio gaussiano ergodico e, indicando con τ K la durata
dell’attraversamento della giunzione da parte del k-esimo portatore di carica, la
formula di Schottky ci dà l’espressione dello spettro di potenza (costante e dunque
bianco):
1
Gδ i ( f ) = qI 0 A
2
per f <<
Hz
max τ K
Possiamo, anche per questo caso di studio, indicare un artificio teorico che permette di
sostituire a un diodo rumoroso un diodo non rumoroso posto in parallelo a un
generatore di corrente fluttuante δ i (t ) legata a I 0 .
NOTA: lo shot noise non si può ridurre abbassando la temperatura.
Il rumore di ripartizione entra in gioco dei dispositivi tripolari (ad es. il BJT) ed è
causato da quella parte di tensione che fuoriesce dalla base del transistore.
dNU ( f ) = dN I ⋅ Gd + dN A ( f )
potenza ceduta al contributo dovuto
carico se il quadripolo soltanto al rumore
non fosse rumoroso dell'apparato
Come si vede, abbiamo espresso il rumore dovuto all’apparato come kTRGd df , dove
TR incarna un delta di temperatura con il quale si può “convertire” il rumore del
quadripolo, “trasferendo la colpa di tutto sull’effetto Johnson” (cit.). In sostanza,
aggiungendo questo TR alla temperatura del resistore R (che va a T0 + TR ), e
considerando il quadripolo come non rumoroso, la situazione rimane invariata.
Dunque
dNU ( f ) = kT0Gd df + kTRGddf = k (T0 + TR ) Gd df
potenza ceduta al contributo dovuto
carico se il quadripolo soltanto al rumore
non fosse rumoroso dell'apparato
da cui
dNU ( f )
= T0 + TR = temperatura equivalente di rumore dell’apparato
KGd df
Come si nota, tale temperatura equivalente Teq = T0 + TR è funzione:
- del quadripolo (e del suo guadagno);
- della frequenza di lavoro;
- della resistenza R (per via dell’adattamento).
Interessante osservazione: non dipende da T0 !
dNU
Definiamo allora cifra di rumore F ≜ ; tale quantità può essere anche espressa in
dNU′
funzione di T0 e TR :
dNU k (T0 + TR ) Gd df T0 + TR T
F ≜ = = =1+ R
dNU′ kT0Gd df T0 T0
Qui è evidente che:
- se TR T0 = 1 il quadripolo non è rumoroso;
- se TR T0 > 1 il quadripolo è rumoroso.
NOTE:
dNU
- la cifra di rumore è spesso espressa in dB: F[dB] = 10 log ;
dN ′ U
dN A = kTR1Gd1df ⋅ Gd 2Gd 3 ⋅ ... ⋅ Gdn + kTR 2Gd 2df ⋅ Gd 3Gd 4 ⋅ ... ⋅ Gdn + ... +
contributo del primo ... che passa attraverso tutti contributo del secondo ... che passa attraverso tutti
quadripolo della serie... gli altri quadripoli della cascata quadripolo della serie... gli altri quadripoli della cascata
parte di rumore indotta
dall'ultimo
parte di rumore indotta dal penultimo quadripolo
quadripolo
Se ora dividiamo per k, df e per Gd = Gd1Gd 2Gd3 ⋅ ... ⋅ Gdn otteniamo che
TR 2 TR 3 TRn
TR = TR1 + + + ... +
Gd1 Gd1Gd 2 Gd1Gd 2Gd 3 ⋅ ... ⋅ Gd( n −1)
Tale equazione è detta formula di Friis e illustra come, nella sommatoria che
costituisce l’apporto totale di rumore, il contributo del blocco i-esimo venga attenuato
dal prodotto dei guadagni dei blocchi che lo precedono. Appare quindi evidente che i
blocchi più critici siano i primi della serie, quelli in testa alla cascata: si vuole che
questi abbiano un guadagno molto alto e una piccola cifra di rumore e, dunque, che
possano essere considerati come dei LNA (Low Noise Amplifier, amplificatori a basso
rumore).
T
Sostituendo alla formula di Friis la relazione F = 1 + R ⇒ TR = ( F − 1) T0 otteniamo:
T0
F − 1 F3 − 1 Fn − 1
F = F1 + 2 + + ... +
Gd1 Gd1Gd 2 Gd1Gd 2Gd3 ⋅ ... ⋅ Gd(n −1)
v (t ) = HT ( f ) ⋅ H MP ( f ) ⋅ H R ( f ) x (t − t0 ) + n (t )
versione non distorta rumore
Utilizzando le caratteristiche dei sistemi LTI possiamo poi dare una relazione fra lo
spettro di potenza del rumore ν (t ) (quello che entra prima del ricevitore) e fra
l’analogo spettro di n(t) (che è il rumore in uscita, ovvero ν (t ) passato attraverso il
ricevitore):
Gn ( f ) = Gν ( f ) HR ( f )
2
kTSIST R V 2
=
2 Hz
(NOTA: facciamo l’ipotesi che la temperatura di sistema TSIST non dipenda in maniera
significativa da f nella banda che ci interessa)
Ora è agevole capire a quanto è pari la potenza del rumore n(t): abbiamo infatti tutte
quantità costanti nell’intervallo di frequenze che ci interessa (k è la costante di
Boltzmann, per TSIST è stata poco fa fatta l’ipotesi che sia costante, R è la resistenza di
adattamento e dunque non cambia, H R ( f ) come si è già detto è costante e pari ad
H R 0 ).
+∞ +∞ +f
kTSIST R kTSIST R m
n (t ) = N = ∫ Gn ( f ) df = ∫ H R ( f ) df =
2
2
GdR ∫ 1 df = fmTSIST GdR kR
−∞ −∞
2 2 − fm
=GdR
cambio di
estremi
Giunti a questo punto, per capire a quanto è pari l’SNR, ci manca solo la potenza del
segnale utile, ma a questo punto è facile perché:
sr (t ) = Ax (t − t0 ) = HT ( f ) ⋅ H MP ( f ) ⋅ H R ( f ) x (t − t0 )
versione non distorta
s (t ) = A x (t − t0 ) = x 2 (t − t0 ) = S = HT ( f ) ⋅ H MP ( f ) ⋅ H R ( f ) x 2 (t − t0 ) =
2 2 2 2
r A2
costante
Quanto vale TSIST ? Tale temperatura equivalente aggiunge rumore a monte del
ricevitore: per quantificarlo ragioniamo nel solito modo e consideriamo un apparato
fatto da
- un generatore di tensione in serie con la resistenza a temperatura TSORG ;
- un quadripolo (trasmettitore) con temperatura equivalente di rumore TrT ;
- un quadripolo (mezzo di propagazione) con temperatura equivalente di rumore
TrMP ;
- un quadripolo (ricevitore) con temperatura equivalente di rumore TrR .
Ponendoci nei pressi dell’ingresso del ricevitore e guardando a monte del circuito ci
accorgiamo che non siamo in un caso leggermente più complicato di quello “base”
(generatore + resistenza + un solo quadripolo); qui ci sono più quadripoli: nessun
problema, comunque, perché ci basta applicare Thévenin per trasformare tutto quello
che c’è prima del generatore in una serie
generatore + resistenza R a temperatura TS
Dunque ora TSIST = TS (ciò che c’è prima del ricevitore) + TrR (il ricevitore).
≥ γ ⇒ Pr ≥ γ fmTSIST k = PR min
fmTSIST k
IX - TRASMISSIONE NUMERICA PASSA-BASSO
1. Lo schema
Un’altra maniera per esprimere la qualità è quello di valutare se la consegna dei bit
avviene nei tempi giusti; se, al contrario, essi non arrivano al destinatario con una
tempistica esatta, quel che si verifica è il cosiddetto fenomeno di gitter.
Altrimenti si può valutare se sono rispettati i requisiti sul ritardo (delay), i quali
fondamentalmente dipendono dall’applicazione con la quale si ha a che fare.
Siccome nella pratica avviene spessissimo che il processo, in base al quale si genera un
errore nella trasmissione, sia ergodico, allora possiamo effettuare l’equivalenza
Il problema del rumore e degli errori è di grande importanza: infatti, mentre il segnale
s(t) (quello che esce dal modulatore PAM) è molto “limpido” e regolare, il segnale v(t)
non è altrettanto chiaro a causa del rumore termico e dei contributi di rumore
apportati da circuiteria e mezzo di propagazione. In un modello interpretativo “a
soglia”, che vede il ricevitore scegliere tra un valore e un altro in base a se il segnale
sia sopra o sotto un determinato valore, potrebbero infatti esserci alcuni
fraintendimenti (ad es. uno “0” visto al posto di un “-1”).
Iniziamo dunque a scindere il problema nelle sue parti per vedere come porre rimedio
al rumore. Il segnale s(t) ha questa espressione
s (t ) = ∑ an g (t − nT )
n
in quanto nasce come somma di più impulsi modulati dai simboli an e traslati nel
tempo di T in T. Tale segnale entra nel mezzo di propagazione, che si comporta come
un sistema LTI con funzione di trasferimento H MP ( f ) . A valle di questo componente
simbolico compiamo un’astrazione e aggiungiamo, tutto in una volta, il rumore ν (t )
considerato come termico e come conseguenza di una temperatura di sistema TSIST .
Segnale e rumore entreranno quindi insieme nel secondo blocco astratto “ricevitore”
[funzione di trasferimento H R ( f ) ] che dà come uscita
v (t ) = sr (t ) + n (t )
Studiamo ora il solo segnale utile: se chiamiamo
• g(t) l’impulso utilizzato dal modulatore PAM;
• r(t) il singolo impulso passato attraverso H MP ( f ) e H R ( f ) ;
• g (t − nT ) l’impulso traslato;
• r (t − nT ) la risposta all’impulso traslato (formulata utilizzando le ipotesi di
linearità e tempo-invarianza)…
… allora potremo dire che la risposta sr (t ) al segnale s (t ) = ∑ an g (t − nT ) .
n
può essere espressa come combinazione lineare di impulsi tra loro distanti T, in questo
modo:
sr (t ) = ∑ anr (t − nT )
n
Per il principio di sovrapposizione degli effetti, il segnale utile che troviamo in fondo
all’intero blocco mezzo di propagazione-ricevitore è una combinazione lineare delle
tante risposte al sistema generate dalla sollecitazione degli impulsi del PAM.
Passiamo ora al rumore ν (t ) (che, come abbiamo detto, viene inserito dopo il mezzo di
propagazione). Esso dovrà attraversare il solo blocco-astratto ricevitore [funzione di
trasferimento H R ( f ) ], la cui uscita sarà in questo caso n(t). Detto questo, si può
esprimere una relazione tra lo spettro di potenza di ν (t ) e quello di n(t):
Gn ( f ) = Gν ( f ) H R ( f )
2
−∞ −∞ −∞
2
(NOTA: abbiamo utilizzato la formula del rumore termico a temperatura TSIST )
Abbiamo quindi dato una caratterizzazione a segnale utile e rumore, che – ricordiamo
– viaggiano “uniti” in v(t) con questa espressione:
v (t ) = sr (t ) + n (t ) = ∑ anr (t − nT ) + n (t )
n
Come abbiamo spiegato nel paragrafo 1, questo segnale v(t) passa attraverso un
campionatore, il quale esegue un campionamento con passo T (il tempo di simbolo) in
modo da riottenere {an } . I simboli campionati (agli istanti tk ) sono in sequenza e
hanno questa espressione
v (tk ) = ∑ anr (t0 − ( n − k ) T ) + n (tk )
n
Tale campione è quello che verrà passato al decisore e quello sulla base del quale
dovremo valutare quale sarà effettivamente il k-simo simbolo.
Esistono, a tal proposito, due strategie di decisione:
- simbolo per simbolo (1 campione alla volta);
- stima di sequenza (si guardano più campioni alla volta prima di decidere).
Per ragioni di semplicità e brevità esamineremo soltanto il primo dei due casi.
Portiamo dunque fuori dall’ultima relazione scritta l’espressione concreta del generico
k-simo simbolo e noteremo che compaiono tre interessanti contributi!
v (tk ) = akr (t0 ) +
∑ a r (t − ( n − k ) T ) + n
n≠k
n 0 (t ) k
l'effettivo
rumore
k -simo simbolo un contributo che dipende da tutti
i simboli trante il k-esimo
(interferenza inter-simbolo, o ISI
Inter Symbol Interference )
Il primo contributo (come si può direttamente leggere sotto di esso) è quello del vero e
proprio k-simo simbolo. Esaminiamo ora meglio il secondo (interferenza ISI): anzitutto
è necessario specificare che non è detto che tale apporto (a tutti gli effetti disturbante e
quindi “rumoroso”) ci sia “per forza”. Esso c’è quando l’impulso-trasformato e modulato
akr (t0 ) è tanto “lungo”, nell’asse dei tempi, da interferire con quello immediatamente
successivo (e dunque, essendo tutti gli impulsi in sequenza, anche con quello
precedente). Dunque – ad esempio – il generico apporto akr (t0 ) viene “disturbato”
dalle code di:
... ak −2r (t0 − 2T ) , ak −1r (t0 − T ) , ak +1r (t0 + T ) , ak +2r (t0 + 2T ) ...
Il nostro obiettivo è ovviamente quello di eliminare l’interferenza ISI: si intende, da
come abbiamo esposto il problema, che la chiave di volta sta nel scegliere un impulso
g(t) [che diventa r(t) dopo essere passato da mezzo di propagazione e ricevitore] che
faccia al caso nostro. Intuitivamente si potrebbe pensare che sia sufficiente un vincolo
sulla durata dell’impulso in questione; in realtà – e qui sta la furbata – è sufficiente
che r(t) sia nullo agli istanti
..., t0 − 2T , t0 − T , t0 + T , t0 + 2T , ...
[NOTA: t0 è un istante di campionamento, in particolare è quello in cui è centrato
l’impulso r(t). Se r(t), ad esempio, è una sinc, in t0 tale funzione varrà 1]
Questo vincolo è davvero ingegnoso perché, se ripetiamo il ragionamento per l’impulso
successivo, esso – per rispettare le appena esposte condizioni di annullamento dell’ISI
– dovrà essere nullo agli istanti
..., t1 − 3T , t1 − 2T , t1 − T , t1 + T , t1 + 2T , ... "nuovo impulso"
↓ ↓ ↓ ↓
..., t0 − 2T , t0 − T , t0 + T , t0 + 2T , ... "vecchio impulso" r (t )
[NOTA: t1 è l’istante di campionamento in cui è centrato l’impulso successivo ad r(t)]
Come si vede, gli istanti in cui l’impulso successivo ad r(t) è nullo vanno a coincidere
esattamente con quelli in cui proprio r(t) era nullo e, guarda caso, essi sono gli istanti
in cui il campionatore va a fare le sue rilevazioni, aiutato dall’estrattore di sincronismo
di simbolo. Riassumendo, se in tali punti l’impulso è nullo, l’ISI si elimina perché
automaticamente (possiamo dire per costruzione) gli impulsi successivi e precedenti
(traslati di T) passeranno attraverso di essi.
Quindi, in notazione matematica, questi sono i vincoli su r(t):
r0 = r (t0 ) ≠ 0 in t = t0
r (t ) =
0 in t = t0 + kT , ∀k ≠ 0
Centrando il tutto nello zero (per semplicità) si ha:
r = r ( 0 ) ≠ 0 in t = 0
rɶ (t ) = 0
0 in t = kT , ∀k ≠ 0
Come si traduce tale vincolo nel dominio delle frequenze? La trasformata della
successione dei punti di annullamento che ci interessano è:
FS {rɶ ( kT )} = r0 e − j⋅0 = r0
(trasformata di una successione)
[NOTA: rimane soltanto un valore perché gli altri sono tutti pari a zero e quindi
rimangono tali]
Ora incrociamo questa relazione con quella della trasformata di un segnale periodico
nel dominio dei tempi:
n
FS {rɶ ( kT )} = ∑ Rɶ f + dove Rɶ ( f ) = F rɶ (t )
1
T n T
Dunque possiamo creare la catena di uguaglianze
n
FS {rɶ ( kT )} = r0 e j⋅0 = r0 = ∑ Rɶ f +
1
T n T
Nel dominio delle frequenze, dunque, la condizione di annullamento dell’ISI (criterio di
Nyquist) è davvero singolare! Essa ci impone che, se ripetiamo periodicamente
1
l’impulso con passo BS = (la symbol-rate), si debba ottenere la costante
T
n
∑n Rɶ f + T = r0T
Diamo ora l’esempio di qualche impulso che funziona bene a questo scopo:
- il più semplice impulso di questo tipo è certamente quello che, nel dominio
BS
delle frequenze, è rettangolare e di banda (intervallo di frequenze
2
− BS , BS ): se lo ripetiamo periodicamente per tutto l’asse delle frequenze
2 2
1
con passo BS = , tutti i blocchetti rettangolari – cioè i singoli impulsi –
T
appariranno come consecutivi, formando una retta orizzontale (costante).
NOTA: la retta orizzontale in questione è frutto di una “falsa consecutività”; ad ogni ripetizione,
infatti, il punto di congiunzione fra due impulsi (i quali appaiono perfettamente adesi) è in
realtà sede di un punto di discontinuità locale nella derivata prima.
Nel dominio del tempo, un impulso del genere è una sinc:
rɶ (t ) = r0 sinc (tBS )
Risulta facile verificare che rɶ (t ) rispetta le condizioni di annullamento dell’ISI
in quanto si annulla in …– 2T, – T, T, 2T…
- la famiglia di impulsi con un andamento anti-simmetrico rispetto alle rette
B
verticali f = ± S . Impulsi di questo tipo hanno una banda che può andare da
2
BS
a BS , dipendentemente da “quanto in fretta” la funzione decade a zero
2
nell’intervallo S , BS . Qualunque sia la forma di questi impulsi, se essi
B
2
rispettano l’anti-simmetria di cui sopra, allora sicuramente, qualora venissero
1
ripetuti periodicamente con passo BS = e sommati tutti insieme, andrebbero
T
ad affiancarsi e a sormontarsi fino a formare una costante. Un andamento
simile potrebbe quello di un impulso trapezoidale centrato nell’origine e con lati
B
obliqui antisimmetrici rispetto a f = ± S (decadimento lineare verso lo zero)
2
oppure quello di un impulso con andamento “a coseno rialzato” (decadimento
non lineare, bensì “smussato”, verso lo zero). In quest’ultimo caso si parla di
fattore di roll-off α (con 0 < α < 1 ): tale fattore indica in quale punto,
nell’intervallo S , BS , l’impulso degrada a zero. Tale punto è infatti al
B
2
B
valore di frequenza S (1 + α ) ; esaminiamo i casi limite:
2
B
- se α = 0 si torna nel caso di impulso rettangolare (rect con banda S )
2
visto poco fa;
- se α = 1 l’impulso somiglia più che altro a una gaussiana (derivata nulla
solo in 0 e fuori da [ − BS , BS ] ).
Le funzioni a coseno rialzato hanno il fondamentale vantaggio di non avere
discontinuità nella derivata prima e per questo sono molto usate.
Qualche osservazione:
- abbiamo detto che rɶ (t ) è la versione centrata nello zero di r (t ) . Sfruttando le
proprietà della trasformata di Fourier possiamo senz’altro dire che, nel dominio
delle frequenze, ciò comporti
R ( f ) e j 2π ft0 = Rɶ ( f ) ⇔ R ( f ) = Rɶ ( f ) e − j 2π ft0
- l’argomento di R ( f ) è lineare in f. Infatti, se Rɶ ( f ) è reale positiva, il suo
argomento è nullo e, dalle relazioni scritte sopra, si ha
R ( f ) = Rɶ ( f ) e − j 2π ft0 ⇒ arg R ( f ) = arg Rɶ ( f ) − arg e − j 2π ft0 = arg Rɶ ( f ) − 2π ft0 = −2π ft0
=0
Supponiamo che R(f) sia una funzione a coseno rialzato e che sia conforme al criterio di
Nyquist. Ricordandoci dello schema che abbiamo fatto sopra, possiamo applicare le
proprietà della funzione di trasferimento e dire che:
R ( f ) = G ( f ) H MP ( f ) H R ( f )
Dunque il ricevitore deve avere:
R(f )
HR ( f ) =
G ( f ) H MP ( f )
Ma questo che significa? Contestualizziamo con un esempio:
- mezzo di propagazione H MP ( f ) = H MP 0 costante nella banda di lavoro;
- impulso g(t) di tipo NRZ (rettangolare);
R ( f ) (a coseno rialzato)
- dunque si ha H R ( f ) =
G(f ) H
MP 0
una sinc
Proviamo a graficare!
Abbiamo graficato R(f) (a
coseno rialzato) e la
trasformata di g(t) – ovvero G(f)
– che è una sinc; quindi
abbiamo disegnato G −1 ( f ) e
moltiplicato quest’ultima per
R(f) [ H MP 0 è una costante
quindi la lasciamo stare]. Quel
che salta fuori è una funzione
che in maniera evidente
distorce. La cosa è davvero poco
intuitiva ma, per avere una
corretta interpretazione del
segnale numerico, il blocco
ricevitore deve distorcere il
segnale nella banda di lavoro
(ed avere funzione di
trasferimento identicamente
nulla al di fuori di essa, in
modo da eliminare i rumori
inutili). D’altronde, come già
abbiamo detto, qui non accade
che l’informazione stia nella
forma d’onda del segnale, caso
in cui diventa di magistrale
importanza la non distorsione a
tutti i livelli.
Se l’equalizzazione è stata fatta per il verso, il generico simbolo della sequenza {v (tk )}
avrà questa forma, determinata dalla presenza di un segnale utile e di un rumore
additivo gaussiano (a valor medio nullo e varianza σ 2 ):
r0 =r (t0 ) nk =n(tk )
v (tk ) = akr0 + nk
segnale utile rumore additivo
gaussiano: N 0, σ 2 ( )
Facciamo ora un esempio concreto: poniamo che i simboli ak siano quelli del codice
bipolare (e quindi +1 e –1, con sorgente bilanciata, il che significa Pr {ak = +1} =
= Pr {ak = −1} = 1 2 ) e che il decisore lavori simbolo per simbolo. Supponiamo poi, per
ipotesi, che r0 > 0 ; ebbene, se non ci fosse il rumore, avremmo che
r0 ( > 0 ) ← simbolo trasmesso: +1
vt ( k ) =
−r0 ( < 0 ) ← simbolo trasmesso: − 1
Il decisore, in questo caso, avrebbe vita facilissima e ci beccherebbe sempre:
chiamando infatti aˆ k il simbolo che verrà stimato dal componente, si ha che
se v (tk ) > 0 allora aˆ k = +1
il decisore dice:
se v (tk ) < 0 allora aˆ k = −1
ne consegue che aˆ k = sign v (tk )
Ovviamente la realtà dei fatti non è così rosa e fiori. Il rumore, infatti, sporca la
chiarezza di v (tk ) in quanto aggiunge all’eventuale + r0 o – r0 una certa quantità nk ;
v (tk ) = ±r0 + nk
siccome però il rumore è gaussiano a valor medio nullo, possiamo asserire che il
possibile scarto dal valore + r0 o – r0 sia simmetrico (e cioè corrispondente ad un
intervallo centrato proprio in + r0 o – r0 ).
Chiamiamo ora Pe la probabilità di errore: essa sarà pari alla probabilità che il
simbolo stimato dal decisore sia diverso da quello trasmesso e cioè che
Pe = Pr {aˆ k ≠ ak }
Sfruttiamo il teorema della probabilità totale:
Pe = Pr {aˆ k ≠ ak } = Pe {a }
Pr {ak = +1} + Pe {a }
Pr {ak = −1}
k =+1 k =−1
la probabilità d’errore è cioè uguale alla probabilità che vi sia stato un errore con
simbolo trasmesso ak = +1 sommata alla probabilità che si sia verificata una non
corretta interpretazione nel caso ak = −1 .
Elaboriamo la nostra relazione:
Pe = Pe {a }
Pr {v (tk ) < 0 ak = +1} + Pe {a }
Pr {v (tk ) > 0 ak = −1}
k =+1 k =−1
Pe = Pe {a }
Pr {r0 + nk < 0 ak = +1} + Pe {a }
Pr {−r0 + nk > 0 ak = −1}
k =+1 k =−1
Pe = Pe {a }
Pr {nk < −r0 ak = +1} + Pe {a }
Pr {nk > r0 ak = −1}
k =+1 k =−1
c
f = ⇒ df =
d c ( )
λ dλ = c dλ df = 125 GHz
λ dλ λ2
differenziamo!!