Sei sulla pagina 1di 90

I - TEORIA DELLA PROBABILITÁ

1. Variabili aleatorie discrete

X (notare la lettera maiuscola) si dice v.a. discreta se può assumere un numero finito
di valori {x1 , x2 , ..., x n } (notare le lettere minuscole). Come esempio, una variabile
aleatoria di questo tipo potrebbe essere quella che conta il numero di clienti che
entrano in un supermercato in 10 minuti.
Per le variabili aleatorie discrete si può esprimere una funzione chiamata
distribuzione di probabilità: questa funzione associa ad ogni valore assunto dalla v.a.
discreta la relativa probabilità di “uscire”. La probabilità che un certo valore x1 sia
l’esito di un esperimento, modellato con una v.a. discreta, si definisce come
pi = PX { X = xi }
Per una v.a. discreta si definisce una funzione di distribuzione cumulativa (CDF,
cumulative distribution function): essa esprime la probabilità che la variabile aleatoria
in questione assuma valore pari o inferiore a quello di un certo esito
FX ( x ) = PX { X ≤ x}
Tale tipo di funzione non può essere altro che crescente (anche se non strettamente,
perché può rimanere zero in alcuni tratti).

Per le v.a. discrete si definiscono:


- il valor medio: E ( X ) = ∑ xi PX {X = xi } ;
i 
pi

- la varianza: σ 2 = var ( X ) = E ( X − E ( X ) )  = E  X 2  − E 2 [ X ] ;


2

 
Dimostrazione:
E  ( X − E ( X ) )  = ∑ ( X − E ( X )) ∑ (X )
+ E 2 ( X ) − 2 XE ( X ) pi =
2 2
pi = 2
  i i
( )
E X

( ) ( )
= ∑ X 2 pi − 2E ( X ) ∑ Xpi + E 2 ( X ) ∑ pi = E X 2 − 2E 2 ( X ) + E 2 ( X ) = E X 2 − E 2 ( X ) ;


i
  i 
i

( )
E X2 1

- la deviazione standard: σ = var ( x ) ;


- il momento di ordine n: E  X n  .

2. Variabili aleatorie continue

X (notare la lettera maiuscola) si dice v.a. continua se può assumere un numero


infinito e non numerabile di valori ∈ ℝ .
Per questo tipo di variabili esiste una funzione densità di probabilità (PDF, probability
density function), che è la controparte continua della funzione distribuzione di
probabilità delle v.a. discrete.
Per le v.a. continue non ha senso calcolare la probabilità che l’esito di un esperimento
sia un valore reale preciso (i valori che la variabile può assumere sono infiniti, e
dunque la probabilità che “esca” uno preciso di essi è nulla); possiamo soltanto
calcolare la probabilità che la variabile aleatoria assuma valori compresi fra due
estremi reali a e b:
b
P {a ≤ X ≤ b} = ∫ fX ( x ) dx
a

Inoltre, abbiamo una CDF così definita:


x
FX ( x ) = PX { X ≤ x} = ∫ f ( u ) du
X
−∞

che è l’area che sta sotto la curva PDF da −∞ al valore scelto x.


Per come è stata definita, la CDF è una primitiva della PDF (e, dunque, la PDF sarà la
derivata della CDF); tale funzione di distribuzione cumulativa avrà le seguenti
proprietà:
- è sempre maggiore o uguale a 0 (e inferiore o al limite uguale a 1);
- se integrata su tutto l’asse reale dà come risultato 1;
- è non decrescente;
- vale 0 a meno infinito e 1 a più infinito.

Per le v.a. continue si definiscono:


+∞
- il valor medio: E ( x ) = ∫ xf ( x ) dx ;
X
−∞

- la varianza: σ 2 = var ( X ) = E ( X − E ( X ) )  = E  X 2  − E 2 [ X ] (per la dimostrazione


2

 
vedi il caso discreto);
- la deviazione standard: σ = var ( x ) ;
- il momento di ordine n: E  X n  ;
- il percentile: l’n-simo percentile di una v.a. è il valore (assunto dalla v.a. stessa)
per il quale la CDF vale n ;
100
- la mediana: è il cinquantesimo percentile della v.a.;
- la moda: è il valore “più probabile”, quello – cioè – che rende massima la
densità di probabilità; possono esserci più valori di moda (se è uno si parla di
distribuzione monomodale; se sono due di distribuzione bimodale, etc…).

3. Estensione: 2 variabili aleatorie

Se abbiamo, ad esempio, due variabili aleatorie continue X e Y, possiamo definire la


densità di probabilità congiunta fX ,Y ( x , y ) : essa è la funzione che esprime la seguente
probabilità fX ,Y ( x , y ) = P { X = x ,Y = y} . Ovviamente trattasi di una funzione a più
variabili (reali), graficabile nel piano a tre dimensioni.
Se nel piano cartesiano in cui riportiamo i valori di X e Y tracciamo un insieme chiuso
A, allora la probabilità che le due variabili aleatorie assumano valori compresi in A è
calcolabile mediante un integrale:
∫∫ fX ,Y ( x , y ) dxdy = P {( X ,Y ) ∈ A}
A

Di conseguenza, se nel piano cartesiano di cui sopra ritagliamo un piccolo quadratino


infinitesimo di lati dy e dx, la probabilità che i valori assunti dalle variabili aleatorie
siano quelli compresi in tale francobollo infinitesimo sarà rappresentata dal termine
che poco fa abbiamo trovato sotto l’integrale:
fX ,Y ( x , y ) dxdy = P {x ≤ X ≤ x + dx , y ≤ Y ≤ y + dy}
Possiamo “sciogliere” la dipendenza di tale funzione da una delle due variabili
aleatorie (o anche da entrambe) tramite un integrale su tutto l’asse reale: così facendo
otterremo un’ordinaria funzione a una variabile.
∫ f ( x , y ) dy = P { X = x } = f ( x )

X ,Y X

∫ f ( x , y ) dx = P {Y = y} = f ( y )

X ,Y Y

4. Estensione: n variabili aleatorie

È la versione estesa ad libitum di ciò che si è visto fin’ora; si può definire:


- una funzione densità di probabilità per n variabili aleatorie:
fX1 , X 2 , ..., X n ( x1 , x 2 , ..., x n ) ;
- integrando questa funzione sull’asse reale possiamo rimuovere la
dipendenza di tale funzione da una variabile (o da n, integrando in ℝ n ):


∫ fX1 , X2 , ..., Xn ( x1 , x2 , ..., xn ) dxn = fX1 , X2 , ..., Xn−1 ( x1 , x2 , ..., xn−1 )
∫f X1 , X 2 , ..., X n ( x1 , x2 , ..., xn ) dx1dx 2 ...dx k = fX k +1 , X k + 2 , ..., X n ( x k +1 , x k +2 , ..., x n )
k

(con k < n)
∫ fX1 , X2 , ..., Xn ( x1 , x2 , ..., xn ) dx1dx2 ...dxn = 1
ℝn

Se vogliamo calcolare la probabilità che le n variabili aleatorie assumano valori


compresi in un insieme A (n-dimensionale), possiamo utilizzare l’integrale:
∫ …∫ ∫ fX1 , X2 , ..., Xn ( x1 , x2 , ..., xn ) dx1dx2 ...dxn = P {( x1 , x2 , ..., xn ) ∈ A}
A

dove la quantità presente all’interno dell’integrale rappresenta una sorta di


francobollo n-dimensionale infinitesimo:
fX1 , X2 , ..., Xn ( x1 , x2 , ..., xn ) dx1dx2...dxn = P {x1 ≤ X ≤ x1 + dx1 , x2 ≤ X ≤ x2 + dx2 , ..., xn ≤ X ≤ xn + dxn }
Integrando (di volta in volta) questa quantità possiamo ricavare la probabilità in ogni
caso particolare che ci interessa.

5. Variabile aleatoria uniforme

La notazione per indicare una variabile aleatoria uniforme è la seguente:


X ∼ U [ a, b]
Con questa notazione si indica che tra a e b vi è lo stesso valore di densità di
probabilità. La relativa funzione sarà dunque:
 1
 tra a e b (*)
fX ( x ) =  b − a
0 altrove
(*) Se si tiene presente che l’area sotto la curva della funzione densità di probabilità dev’essere 1 e che tale funzione
dev’essere costante allora risulta evidente che l’area sopra menzionata è quella di un rettangolo di base b – a (e
dunque (b – a)–1 dovrà essere l’altezza!)

Possiamo poi calcolare:


- il valor medio:
(b− a )(b + a )

+∞
1 b2 − a 2 b + a
b b
1 1
E ( x ) = ∫ xfX ( x ) dx = ∫ x
b − a ∫a
dx = x dx = =
−∞ a
b−a b−a 2 2
- la varianza:
(b + a ) = b 2

σ = var ( X ) = E ( X − E ( X ) )  = E  X 2  − E2 [ X ] = ∫ x 2
2 1
2
dx −
  a
b−a 4
(b− a )( a2 + ab+b2 )
 
(b + a ) = (b − a )
(b + a ) = a 2 + ab + b2 − (b + a ) = (b − a )
b 2 3 2 2 2
 x3  1
=  − −
 3 a b − a 4 3 (b − a ) 4 3 4 12

6. Variabile aleatoria normale (gaussiana)

La notazione per indicare una variabile aleatoria Gaussiana (o normale) è la seguente:


X ∼ N  µ ,σ 2 
La densità di probabilità ha invece questo aspetto:

( x − µ )2
1
fX ( x ) = con σ > 0 e 2σ 2

2πσ
Questo termine, se integrato su tutto l’asse reale, dà come risultato 1.
La comodità di questo tipo di variabile sta nel fatto che, se ne diamo la definizione
come illustrato sopra, abbiamo già, senza fare un calcolo:
- il valor medio: E (X ) = µ ;
- la varianza: var ( X ) = σ 2 .
La funzione CDF sarà:
x x

( t − µ )2
1
FX ( x ) = ∫ fX (t ) dt = ∫e 2σ 2
dt
−∞ 2πσ −∞

All’interno di questa espressione è presente l’integrale del termine e −α , che è


2

risolvibile in campo complesso col teorema dei residui e che in campo reale non è
computabile. Per questo motivo si usano tabelle speciali in cui sono riportati valori
approssimati di questa funzione.
Ora calcoliamo alcune funzioni strettamente legate alla distribuzione gaussiana:
x
2
- funzione errore: erf ( x ) ≜ −t 2
∫ e dt (NOTA: è funzione dispari).
π 0

Come si osserva, questa funzione ricorda molto da vicino la gaussiana: se infatti



( x − µ )2
1 1
prendiamo la fX ( x ) = e 2σ 2
, poniamo µ = 0 e σ 2 = otteniamo
2πσ 2
1 1
fX ( x ) = e−x = e−x
2 2

1 π 2π
2
e integriamo su tutto l’asse reale, il risultato sarà pari a 1. Si nota bene che per
x che tende ad infinito la funzione errore tende ad 1; inoltre possiamo
interpretare tale funzione come la probabilità che:
 1
P ( X < x ) = erf ( x ) con X ∼ N  0, 
 2
La CDF della distribuzione normale si può calcolare tramite la funzione errore:
1 1 x−µ
FX ( x ) = + erf  
2 2  2σ 
Dimostrazione:
x

(t − µ )2 µ

(t − µ )2 x

( t − µ )2
1 1 1
FX (x ) = ∫e 2σ 2
dt = ∫e 2σ 2
dt + ∫µ e 2σ 2
dt =
2π σ −∞ 2π σ −∞ 2π σ
x−µ
µ

(t − µ )2 x

(t − µ )2 2σ
1 1 1 1
∫e ∫µ e 2σ ∫ e − s ds =
2
= dt + 2σ 2 2σ 2
dt =  +
2π σ −∞
  2π σ cam bio di 2 2π σ
variabile 
0
=1 2, per ché il valor m edio (t − µ ) = s notare che dt = 2σ ds
divide l'area sotto al grafico
della gaussiana in due parti 2σ
uguali e valenti 1/2
x −µ

1 1 2 2σ − s2 1 1 x−µ
= + ∫
2 2 π 0
e ds = + erf 
2 2 
 2σ 
 
 x −µ 
erf  
 2σ 
+∞
2
- funzione errore complementare: erfc ( x ) ≜ 1 − erf ( x ) = ∫e
− t2
dt .
π x

Dimostrazione:
x
2
erfc ( x ) ≜ 1 − erf ( x ) = 1 − ∫e
−t2
dt =
π −∞
+∞ x +∞
2 2 2
∫ e − t dt − ∫e
−t 2
∫e
−t 2
2
= dt = dt
π 0
  π 0 π x
=1

Trovare la CDF della funzione gaussiana


tramite la funzione errore complementare
è semplice, visto che già conosciamo la
relativa relazione per la funzione errore:
1 1 x−µ 1 1  x − µ  1 x−µ
FX ( x ) = + erf   = + 1 − erfc    = 1 − erfc  
2 2  2σ  2 2   2σ   2  2σ 

La funzione erfc(x) può essere approssimata da:


1 − x 2 1 − 43 x 2
- erfc ( x ) ≅ e + e per x > 0 (ottima approssimazione);
6 2
e−x
2

- erfc ( x ) ≅ per x > 0 (approssimazione meno buona, ma comunque


x π
abbastanza accettabile per x > 3,5).

NOTA: la funzione erfc(x) ha, come upper bound, funzioni come:


1 1 2
erfc ( x ) < e −2 x + e − x < e − x
2 2

2 2
NOTA (2): la funzione inversa di erfc(x) è detta inverfc(x). Vale circa:
− ln y
inverfc ( y ) ≅ ( dove y = erfc(x) )
1 + 0,6 ( − ln y )
−0,8

Tale relazione è valida per y che vale qualche decina.


Se la funzione erfc(y) è limitata da e − x , allora inverfc(x) è limitata da
2
− ln y .
Dimostrazione:
y = erfc(x) e inverfc(y) = x
−x2
y<e
ln y < ln e − x
2

− ln y > x 2
− ln y > x = inverfc ( y ) con 0 < y < 1
+∞
1 2
1  x 
- funzione Q: Q ( x ) ≜
−t


∫e
x
2
dt =
2
erfc 
 2

Dimostrazione:
+∞
2
erfc ( k ) ≜ ∫e
−t 2
dt
π k
+∞
x  x  2
∫e
−t 2
Se pongo k = : erfc  ≜ dt
2  2 π x
2
+∞ ξ2
ξ dξ  x  2 − dξ
Cambio di variabile t =
2
 dt =
2
: erfc 
 2
≜
π ∫e
t
2

2
+∞ ξ2
1  x  1 1 −
erfc  ≜ 2 ∫ e 2
dξ = Q ( t )
2  2 2 2π t

7. Variabile aleatoria di Rayleigh

Una variabile aleatoria (continua) di


Rayleigh ha una PDF così strutturata:
 x −x2
2

 e α
per x ≥ 0
X : fX ( x ) = α 2
2

0 altrove

Come per le altre variabili aleatorie


lanciamoci nella ricerca di:
- valore atteso: E [ X ] = α π ;
2
Dimostrazione:

risoluzione per parti dell'integrale

+∞
+∞
x −
x2   − x 22   +∞  −x2
2
+∞
1
x2
− 2
E [X ] = ∫ xα 2α
dx =  x  −e α  −∫ 1  −e α  dx = α 2π ∫ e α dx =
2
e 2 2 2
2
       α 2π
 
0 d x

0 0
  dx  
 x − 2xα 2 
2 x2
x − 2α 2
 ∫ α 2  0 ∫ α2
e dx e dx

questo termine si annulla

(NOTA: è comparsa una gaussiana a valore medio nullo e varianza α 2 )


l'integrale copre
metà dell'area che

sta sotto la curva
π
= α 2π 12 =α
2
- momento del second’ordine: E  X 2  = 2α 2
Dimostrazione:

risoluzione per parti dell'integrale

+∞
+∞
x −
x2   − x 22   +∞  −x2
2
+∞ x2
− 2
E  X  = ∫x 2α
dx =  x  −e 2α   − ∫  2x  −e 2α  dx = 2 ∫ xe 2α dx =
2 2 2 2
e
α2     
 
0 d x2 

0 0
  dx 
 
x 2 x 2
x − 2α 2 x − 2α 2
 ∫ α 2
e dx
 0 ∫ α 2
e dx
 
questo termine si annulla
+∞
x2  −x2
2
+∞
x −
= 2α ∫α 2α
dx = 2α  −e 2α  = 2α 2
2 2 2
2
e
0   0
π  π
- varianza: var ( X ) = σ 2 = E  X 2  − E 2 [ X ] = 2α 2 − α 2 =  2 − α 2
2  2

8. Variabile aleatoria di Rice

Una variabile aleatoria (continua) di Rice ha una PDF così strutturata:


 polinomio di Bessel

  
di ordine 0
x2 +µ2
x
con µ > 0 → X : fX ( x ) =  2 e 2α 2
−  µx 
I0  2  per x ≥ 0
α α 
0 altrove

 µx 
Il termine I 0  2  , dove I0 sta ad indicare il Polinomio di Bessel di ordine zero, si
α 
+π +π µ x
1  µx  1 cos ϑ
sviluppa così: I 0 ( x ) ≜ ∫
x cos ϑ
ϑ → ∫ eα dϑ .
2
e d I 0 2 

2π −π  α  2π −π
Per la variabile aleatoria di Rice si ha che:
 
 
2 1 
momento del second’ordine  E  X  = 2α + µ = µ 1 +
2 2 2
 K
 
 fattore di Rice  
 k ≜ µ 2 ( 2α 2 ) 
 µx 
I0  

 α2  
∞ x +µ
2 2
π µx ∞ π x2 +µ2 µx
x − 2 1 cos ϑ − + cos ϑ
Infatti: E [ X 2 ] = ∫ x 2 2 e 2α ⋅
1
∫ eα dϑ dx = ∫ ∫π x e 2α 2 α 2
dϑ dx
2 3

α 2π −π 2πα 2 0−
0
 
fX ( x )

Cambio di variabile:
∫∫ f ( x , y ) dxdy = ∫∫ f (φ1 (u,v ) ,φ2 (u,v ) ) J (u,v ) dudv
D φ −1 ( D )

 ∂φ1 ∂φ1 
φ1   ∂v 
Dove: ( x , y ) → ( u,v ) , x = φ1 ( u,v ) , y = φ2 ( u,v ) , φ =   , J ( u,v ) = det  ∂u 
φ2   ∂φ2 ∂φ2 
 
 ∂u ∂v 
Ora effettuiamo il cambio di variabile:
ξ 2 +η 2 + µ 2 − 2 µξ
ξ = x cos ϑ  ∞ ∞
(ξ 2 + η 2 ) ξ 2 + η 2 e
1 − 1
  → 2 ∫ ∫
2α 2
dξ dη =
η = x sin ϑ  2πα −∞ −∞ ξ 2 +η2


J (ξ ,η )

∞ ∞ ( ξ − µ ) +η
2 2
∞ ∞ ( ξ − µ ) +η 2
2

1 − 1 −
= ∫ ∫ξ 2α
dξ dη + ∫ ∫η 2α 2
dξ dη =
2 2 2
e e
2πα 2
−∞ −∞
2πα 2
−∞ −∞
∞ (ξ − µ )2 ∞ η2 ∞ (ξ − µ )2 ∞ η2
1 − − 1 − −
= ∫ξ dξ 2α

∫e 2α 2
+ ∫e dξ 2α 2
∫η dη = 2α 2
2 2 2
e e
2πα 2 −∞ −∞
2πα 2 −∞ −∞
  
 

per parti ricorda un poco la gaussiana ricorda un poco la gaussiana per parti
= (α 2 + µ 2 )⋅α 2 π ∞ −
η2 ∞ −
(ξ − µ )2 = α 2 ⋅α 2 π
1 1
α 2π ∫e 2α 2 d η = 1⋅α 2 π
α 2π ∫e 2α 2 d ξ = 1⋅α 2 π (varianza)
−∞ −∞

=
1
(α 2 + µ 2 ) α 2πα 2π +
1
α 2πα 2α 2π = (α 2 + µ 2 ) + α 2 = 2α 2 + µ 2
2πα 2
2πα 2

9. Funzione di distribuzione cumulativa congiunta

La funzione di distribuzione cumulativa congiunta riguarda più variabili aleatorie


continue: ponendo per esempio che le v.a. coinvolte siano 2 (X e Y), la funzione in
questione calcola la probabilità che l’esito dell’esperimento comporti, per X e Y, valori
inferiori o al limite uguali – rispettivamente – a x e y. Cerchiamo dunque:
FX ,Y ( x , y ) = P { X ≤ x ,Y ≤ y}
Ricordandoci poi (vedi paragrafo 3) della PDF di probabilità congiunta fX ,Y ( x , y )
formulata nel caso di due variabili aleatorie, si ha che – essendo la funzione di
distribuzione cumulativa una primitiva della funzione densità di probabilità:
∂2
fX ,Y ( x , y ) = Fx , y ( x , y )
∂x ∂y
Diamo ora qualche proprietà della CDF per più variabili continue (nel nostro caso 2,
ma il tutto si può estendere!):
- FX ( x ) = FX ,Y ( x , ∞ ) ;
- FY ( y ) = FX ,Y ( ∞, y ) ;

- fX ( x ) = ∫ f ( x , y ) dy = ∫ f ( x , y ) dy ;
−∞
X ,Y

X ,Y

- ∫∫ f ( x , y ) dxdy = 1 ;

X ,Y

- P {( x , y ) ∈ A ⊂ ℝ } = ∫∫ f ( x , y ) dxdy ;
2
X ,Y
A
x y

- Fx , y ( x , y ) = ∫ ∫ f (u, z ) dudz .
X ,Y
−∞ −∞

10. Variabili aleatorie condizionate e relativa PDF. Indipendenza statistica.

Cercare la probabilità condizionata di due variabili aleatorie significa osservare “cosa


succede ad una di esse sapendo cosa accade all’altra”: due o più variabili aleatorie
possono infatti essere l’una con l’altra dipendenti. In particolare, se esiste tale tipo di
dipendenza, si dice che la probabilità
P (X Y )
è quella “che si verifichi X sapendo che è accaduto Y”.
Possiamo così definire (sempre nel caso di due v.a.) una PDF condizionata:
f ( x, y)
fX Y ( x Y = y ) = X ,Y
fY ( y )
Tale funzione esprime, sapendo che y ha assunto un determinato valore, la densità di
probabilità nei confronti di x. Ovviamente, se Y non è possibile, non ci sarà possibilità
che si verifichino sia X che Y: si ha infatti che
fX Y ( x y ) = 0 ⇐ fY ( y ) = 0
Se X e Y sono statisticamente indipendenti, la distribuzione congiunta fX ,Y si può
scrivere così:
fX ,Y ( x , y ) = fX ( x ) fY ( y ) per ogni x e y
Oppure, equivalentemente:
fX Y ( x , y ) = fX ( x )
perché comunque l’esito dell’esperimento governato da X è indipendente da quello
regolato dalla v.a. Y.

11. Funzioni a due variabili aleatorie: valor medio statistico, funzione di


correlazione, funzione di covarianza, coefficiente di correlazione,
incorrelazione fra le v.a., relazioni tra indipendenza e incorrelazione

Il valor medio statistico di una funzione (a due variabili aleatorie) è il seguente:


E ( g ( X ,Y ) ) = ∫∫ fX ,Y ( x , y ) g ( x , y ) dxdy

La funzione di autocorrelazione è così definita:


corr ( X ,Y ) ≜ E [ XY ] = ∫∫ xy ⋅ fX ,Y ( x , y ) dxdy

Invece, la funzione di covarianza è:


cov ( X ,Y ) ≜ E ( X − E ( X ) ) (Y − E (Y ) ) 
Si può dimostrare che cov ( X ,Y ) = corr ( X ,Y ) − E [ X ] E [Y ] .
Dimostrazione:
Anzitutto, facciamo mente locale sull’equazione che dobbiamo dimostrare:
cov ( X ,Y ) = corr ( X ,Y ) − E [ X ] E [Y ]  E ( X − E ( X ) ) (Y − E (Y ) )  = E [ XY ] − E [ X ] E [Y ]
Dopodiché sviluppiamo il termine dentro la parentesi…
E ( X − E ( X ) ) (Y − E (Y ) )  = E XY − YE [ X ] − XE [Y ] − E [ X ] E [Y ]
… e applichiamo la proprietà di linearità del valor medio:
     
E  XY − YE [ X ] − XE [Y ] + E [ X ] E [Y ] = E [ XY ] − E Y E [ X ] − E  X E [Y ] + E E [ X ] E [Y ] =
  
costante 
  
costante 
  
 costante 

= E [ XY ] − E [ X ] E [Y ] − E [Y ] E [ X ] + E [ X ] E [Y ] = E [ XY ] − E [Y ] E [ X ] .
  
costante costante costante

Nel caso particolare:


cov ( X , X ) = E ( X − E ( X ) ) ( X − E ( X ) )  = E ( X − E ( X ) )  ≜ var ( X )
2

 
cov ( X ,Y )
Infine, definiamo il coefficiente di correlazione ρ X ,Y : ρ X ,Y = .
σ XσY
Il coefficiente di correlazione dà un’informazione sulla relazione di X e Y in “termini
medi statistici”; tale coefficiente può assumere valori da -1 a +1 (compresi): nel caso
(ancora più) particolare in cui il modulo di ρ X ,Y è 1, allora X e Y sono dipendenti. Un
altro caso limite interessante si ha quando ρ X ,Y è 0: allora in tal caso le due variabili X
e Y si dicono incorrelate. Ciò comporta che:
- cov ( X ,Y ) = 0 ;
- E [ XY ] − E [ X ] E [Y ] = 0 ⇒ E [ XY ] = E [ X ] E [Y ] . Quest’ultima affermazione ci
dà una relazione tra indipendenza statistica (“concetto” forte) e incorrelazione
(“concetto” debole). Se infatti si ha
fX ,Y ( x , y ) = fX ( x ) fY ( y )
allora si ha pure
E [ XY ] = E [ X ] E [Y ]
Dimostrazione:
fX ,Y ( x , y ) se x e y

sono indipendenti

∫∫ℝ xy ⋅ fX ,Y ( x , y ) dxdy = ∫∫ℝ xy fX ( x ) fY ( y ) dxdy = ℝ∫ xfX ( x ) dx ℝ∫ yfY ( y ) dy = E [ X ] E [Y ]


        
E [ XY ] E[ X ] E [Y ]

Questo significa che indipendenza implica sicuramente incorrelazione. Tuttavia


il contrario non avviene necessariamente!

12. Variabili aleatorie congiuntamente gaussiane

Due variabili aleatorie X e Y si dicono congiuntamente gaussiane se


 ( x − µ x ) + ( y − µ y ) − 2 ρ ( x − µ x )( y − µ y ) 
 2 2 
1

1 ( )
2 1 − ρ 2  σ x2 σ y2 σ xσ y 
fX ,Y ( x , y ) = e  

2πσ xσ y 1 − ρ 2
E [ XY ] − E [ X ] E [Y ]
con ρ = (coefficiente di correlazione tra X e Y) , X ∼ N  µ x ,σ x2  e
σ xσ y
Y ∼ N  µ y ,σ y2  .
Si può dimostrare che, come accade di norma per le variabili congiunte, anche per le
variabili aleatorie congiuntamente gaussiane si ha che:

fX ( x ) = ∫ fX ,Y ( x , y ) dy

E allo stesso modo valgono le relazioni illustrate nel paragrafo 9.

Ponendo il coefficiente di correlazione ρ = 0, la PDF diventa:



( ) 
2
1  ( x − µx ) y− µy
2
− + 
1 2  σ x2 σ y2 
fX ,Y ( x , y ) =
 
e
2πσ xσ y
In questo caso (e solo in questo caso) si verifica che l’incorrelazione (facile da
verificare) implichi l’indipendenza (difficile da verificare).

Se le variabili gaussiane sono N, allora la funzione di densità di probabilità sarà:


− ( x − µ )c ( x − µ )
1

( )
−1 T
1
f x1 , x2 ,..., x N =2
e
( 2π )
n
det c
{
Dove c è una matrice di covarianza n × n contenente i termini ci , j = cov ( X i , X j ) , }
x = ( x1 , x2 , ..., x n ) (vettore delle variabili aleatorie), µ = ( µ1 , µ2 , ..., µn ) (vettore dei
valori medi delle rispettive v.a.).

Una proprietà importante delle variabili gaussiane è che una combinazione lineare
delle stesse produce ancora una variabile con distribuzione gaussiana: tale
affermazione è enunciata in maniera rigorosa nel cosiddetto teorema del limite
centrale. Esso è così enunciato: X1 , X 2 , ..., X n siano v.a. indipendenti con valori medi
µ1 , µ2 , ..., µn e varianze σ 12 , σ 22 , ..., σ n2 . Allora la v.a.
1 n
( X i − µi )
Y =
n
∑ i =1 σi
sotto condizioni generali ha una distribuzione che, al crescere di n, tende a quella di
una gaussiana con valor medio nullo e varianza unitaria.
Nel caso particolare in cui X1 , X 2 , ..., X n sono variabili i.i.d. (indipendenti e
identicamente distribuite) , tutte con valore medio µ e varianza σ 2 , abbiamo invece:
1 n  σ2 
Y = ∑ i n→∞
n i =1
X → N  µ, 
 n 
II - PROCESSI ALEATORI
(random / stochastyc processes)

1. Definizione

Un processo aleatorio X(t) è formato da un insieme di realizzazioni (o funzioni


campione, x ( i ) (t ) ) determinate e, nel nostro caso, reali.
Ognuna di queste realizzazioni ha una certa probabilità di verificarsi: se poi
“verticalmente” fisso un istante di osservazione uguale per tutte le nostre
realizzazioni, otterrò un insieme di valori (uno per ogni realizzazione, dovuto
all’intersezione tra l’istante di tempo t scelto e la realizzazione stessa) aleatorio; a
causa di ciò posso dire che X (t1 ) è, in realtà, una variabile aleatoria.

Se ho a disposizione un processo aleatorio posso fare alcuni calcoli su di esso:


- medie orizzontali o temporali: sono medie a posteriori, formulabili - cioè - una
volta osservata l’uscita del processo (e non prima di averla conosciuta tutta!).
Se, dunque, osservo una realizzazione a caso x ( ) (t ) posso:
i

T0
2
1
- calcolare il valor medio temporale: x (i )
(t ) = lim
T0 →∞ T ∫ x ( ) ( t ) dt ;
i

0 T
− 0
2

(t )
2
(i )
- calcolare la potenza media: x ;

- calcolare la funzione di autocorrelazione: Rx (i ) (τ ) = x ( ) (t ) x ( ) (t − τ ) ;


i i

- calcolare lo spettro di potenza: Gx (i ) ( f ) = F Rx (i ) (τ ) . { }


- medie verticali: sono medie a priori; trattasi, precisamente, di quelle accennate
poco fa quando si parlava di rilevazioni fatte in un istante di osservazione
uguale per tutte quante le realizzazioni. Dei valori così ricavati possiamo
calcolare valore medio, varianza, momento di n-simo grado etc….
Volendo, posso “complicarmi la vita” e scegliere più punti di osservazione
t1 , t2 , ..., tn : otterrò così X (t1 ) , X (t2 ) , ..., X (tn ) , che posso studiare
separatamente oppure congiuntamente, calcolando la densità di probabilità
congiunta (di n-simo grado)
p ( x1 ,t1 ; x2 ,t2 ; ...; xn ,tn )
Moltiplicando quest’ultimo termine per d x 1 d x 2 ...d x n ottengo la probabilità che
la prima variabile aleatoria sia nell’intervallo infinitesimo [ x1 , x1 + dx1 ] , che la
seconda si trovi in [ x2 , x2 + dx2 ] e così via. Dopodiché per ogni variabile e per gli
intervalli che mi interessano posso fare, se vi è necessità, le integrazioni come
illustrato nei casi precedenti.

È poi necessario fare una distinzione fra:


- segnali tempo-continui: i segnali tempo continui possono assumere un valore
diverso ad ogni istante dell’asse dei tempi;
- segnali tempo-discreti: i segnali tempo discreti vengono “emessi” ogni quanto di
tempo;
- segnali continui nei valori: tali segnali possono assumere un’infinità non
numerabile di valori;
- segnali discreti nei valori: c’è un numero finito di valori che i segnali possono
assumere.

2. Descrizione statistica di processi aleatori tempo-continui e continui nei


valori: autocorrelazione e autocovarianza statistica

Se abbiamo un processo
aleatorio tempo-continuo e
esaminiamo verticalmente le
varie realizzazioni in n istanti
di tempo t1 , t2 , ..., tn , ciò che
otteniamo sono n variabili
aleatorie

X (t1 ) , X (t2 ) , ..., X (tn )

Una volta definite le grandezze


in gioco possiamo esprimere in
maniera rigorosa la densità di
probabilità (congiunta, di ordine n) legata al fatto che le varie realizzazioni, in
determinati istanti di tempo, assumano particolari valori:
pn ( x1 , t1 ; x 2 , t2 ; ...; xn , tn )
Come già si è detto nel capitolo 1, integrando la seguente quantità
pn ( x1 , t1 ; x 2 , t2 ; ...; xn , tn ) dx1dx 2 ...dx n
la quale esprime la probabilità che le variabili aleatorie in gioco assumano i seguenti
valori
P {x1 ≤ X (t1 ) ≤ x1 + dx1 , x 2 ≤ X (t2 ) ≤ x 2 + dx 2 , ..., x n ≤ X (tn ) ≤ x n + dx n }
è possibile verificare che sussistono le proprietà, anch’esse già viste:
- normalizzazione: ∫ ∫ ⋯∫ pn ( x1 , t1 ; x 2 , t2 ; ...; x n , tn ) dx1dx 2 ...dx n = 1 ;
ℝn
- “eliminazione” di una variabile:
∫ pn ( x1 , t1 ; x2 , t2 ; ...; xn , tn ) dx1dx2 ...dxn = pn−1 ( x1 , t1 ; x2 , t2 ; ...; xn−1 , tn−1 ) dx1dx2...dxn−1 ;

- calcolo della probabilità riguardo un insieme di valori:
{ }
P ( X (t1 ) , X (t2 ) , ..., X (tn ) ) ∈ A ⊂ Rn = ∫ ∫ ⋯∫ pn ( x1 , t1 ; x2 , t2 ; ...; xn , tn ) dx1dx2 ...dxn .
A

Per le funzioni sovrascritte si definisce una funzione di autocorrelazione statistica:


RX (t,τ ) ≜ E ( X (t ) X (t − τ ) ) = corr ( X (t ) X (t − τ ) )
NOTA: tale definizione ricorda una formulazione analoga data nel caso non aleatorio
per funzioni determinate: Rx (τ ) = x (t ) x (t − τ ) . La funzione di autocorrelazione
statistica, tuttavia, dipende da due parametri (sia da t che da t − τ ), mentre la Rx (τ ) –
notare la x minuscola – dipende solamente da τ .

Introduciamo poi la funzione di autocovarianza statistica:


C X (t ,τ ) ≜ cov ( X (t ) X (t − τ ) ) =E {( X (t ) − E  X (t ) ) ( X (t − τ ) − E  X (t − τ ) )} =
= ... = R X (t ,τ ) − E  X (t )  E  X (t − τ ) 
 
E ( X (t ) X (t −τ ) )

La funzione di autocorrelazione e la funzione di autocovarianza misurano la


somiglianza tra il processo osservato in un istante e lo stesso processo osservato in un
altro istante: più valgono e maggiore sarà la somiglianza in questione.

3. Processi aleatori stazionari in senso stretto (SSS, Strict Sense Stationary)

Due processi aleatori


X (t ) e X (t − t0 )
si dicono stazionari in senso stretto se hanno la stessa descrizione statistica per ogni
t0 . Questo comporta che ad esempio, se traslo tutte le realizzazioni di una quantità t0,
non osservo differenze. Dal punto di vista statistico rimangono dunque invariate le
funzioni densità di probabilità, come si nota in questa uguaglianza:
pn ( x1 , t1 ; x 2 , t2 ; ...; x n , tn ) = pn ( x1 , t1 + z; x 2 , t2 + z; ...; x n , tn + z )
Come si vede, non conta dove gli istanti sono posizionati, ma conta soltanto la distanza
relativa fra di essi (la “differenza”). Posso quindi scrivere che:
 
p2 ( x1 , t1 ; x 2 , t2 ) = p2  x1 , x 2 ; t2 − t1 
 
 τ 
( 4 parametri )  ( 3 parametri )
Conseguenza della stazionarietà è che posso svincolare dalla dipendenza rispetto al
tempo la densità di probabilità del prim’ordine:
p1 ( x1 ,t1 ) = p1 ( x1 )
Inoltre, non c’è bisogno di specificare t nell’espressione del valor medio, che pure lui a
tutti gli effetti non dipende dal tempo.
E  X (t )  = E [ X ]
Fra le altre conseguenze della stazionarietà in senso stretto:
- neanche la funzione di autocorrelazione non dipende dal tempo, perché è la
stessa per tutti gli istanti di osservazioni che hanno la stessa distanza relativa:
RX (t,τ ) ≜ E ( X (t ) X (t − τ ) ) = RX (τ )
- la stessa identica cosa accade per la funzione di autocovarianza:
CX (t,τ ) ≜ cov ( X (t ) X (t − τ ) ) = CX (τ )

4. Processi aleatori stazionari in senso lato (WSS, Wide Sense Stationary)

Mentre è molto difficile capire se un processo è stazionario in senso stretto (condizione


piuttosto forte), esistono due condizioni non troppo difficili da verificare che ci dicono
se un segnale è stazionario in senso lato (condizione un pelo più debole).
1) Il valor medio non deve dipendere dal tempo: E  X (t )  = E [ X ] ;
2) La funzione di autocorrelazione non dipende dal tempo: RX (t,τ ) = RX (τ ) .
Appurare che queste due condizioni sussistono non è complicato da verificare in
quanto esse si riferiscono a due quantità medie e non a comportamenti specifici nel
tempo. A causa di questa “gerarchia”, che si viene a formare fra i processi stazionari,
risulta infine che i processi stazionari in senso stretto sono anche stazionari in senso
lato, mentre non accade il viceversa.

Processi aleatori Una piccola considerazione: non esistono, in


realtà, processi che durano da sempre e
Stazionari in senso lato
dureranno per sempre. Non esistono, cioè,
Stazionari in senso stretto
funzioni definite “per ogni t”: dunque tutte le
funzioni a potenza finita – che teoricamente non
sono a durata limitata – sono astrazioni; allo
stesso modo anche i processi stazionari sono
astrazioni. I processi stazionari che ci interessano hanno realizzazioni a potenza finita:
se fossero ad energia finita, il segnale dovrebbe andare a zero all’infinito, ma questo
“cozza” con la stazionarietà (se le varie realizzazioni vanno a zero nello stesso
intervallo non può esserci stazionarietà!).

Proprietà della funzione di autocorrelazione per i processi WSS:


1) RX ( 0 ) = E  X 2 
Dimostrazione:
RX (t,τ ) = RX (τ ) ≜ E  X (t ) X (t − τ ) 
RX ( 0 ) ≜ E  X (t ) X (t − 0 )  = E  X 2 (t )  = E  X 2 
2) RX ( −τ ) = RX (τ )
Dimostrazione:
RX (t,τ ) = RX (τ ) ≜ E  X (t ) X (t − τ )  e RX (t, −τ ) = RX ( −τ ) ≜ E  X (t ) X (t + τ ) 
Se, come abbiamo posto per ipotesi, siamo nel caso WSS, la funzione di
autocorrelazione non dipenderà da t: possiamo quindi utilizzare un diabolico
trucco e aggiungere t0 nella prima relazione sopra scritta:
RX (t,τ ) = RX (τ ) ≜ E  X (t + t0 ) X (t + t0 − τ ) 
Ponendo t0 = τ
RX (τ ) = E  X (t + τ ) X (t + τ − τ )  = E  X (t + τ ) X (t ) 
la prima relazione diventa uguale alla seconda senza aver modificato i suoi
connotati statistici.
3) RX (τ ) ≤ RX ( 0 )
Dimostrazione:
essendo il quadrato di un binomio, la quantità
E ( X (t ) ± X (t − τ ) ) 
2

 
è sicuramente un numero maggiore di zero. Dunque possiamo scrivere:
0 ≤ E ( X (t ) ± X (t − τ ) ) 
2

 
Sviluppiamo quindi il binomio
0 ≤ E  X 2 (t ) + X 2 (t − τ ) ± 2 X (t ) X (t − τ ) 
e applichiamo la linearità del valor medio:
0≤ E  X 2 (t )  + E  X 2 (t − τ )  ± E 2 X (t ) X (t − τ ) 
   
= RX ( 0 ) per la proprietà 1 = RX ( 0 ) per la proprietà 1 = 2 RX (τ ) per definizione
e per il fatto che il processo e per il fatto che il processo
è WSS e non c'è dipendenza è WSS e non c'è dipendenza
dal tempo dal tempo

Sostituendo ciò che abbiamo ricavato:


0 ≤ 2RX ( 0 ) ± 2RX (τ )
RX ( 0 ) ≥ ∓ RX (τ )
Siccome il primo termine è sicuramente positivo (è pari al valor medio di X2)
possiamo scrivere:
RX ( 0 ) ≥ RX (τ )
NOTA: la disuguaglianza RX ( 0 ) ≥ ∓ RX (τ ) ci suggerisce che il grafico di RX (τ )
è simmetrico rispetto all’origine e ha un massimo nella stessa.
4) Se X (t ) e X (t − τ ) sono indipendenti, allora RX (τ ) = E 2 [ X ]
Dimostrazione:
Prendiamo un valore τ tale per cui X (t ) e X (t − τ ) sono indipendenti e
scriviamo la funzione di autocorrelazione, dopodiché applichiamo le proprietà
dei processi stazionari in senso lato. La dimostrazione è dunque brevissima:
RX (τ ) ≜ E  X (t ) X (t − τ )  = E  X (t )  E  X (t − τ )  = E 2 [ X ]
  
= E  X (t )  perché il
processo è WSS

NOTA: sempre nell’ipotesi che X (t ) e X (t − τ ) sono indipendenti, si osserva che


la funzione di autocovarianza statistica è nulla, in quanto:
CX (τ ) = RX (τ ) − E  X (t )  E  X (t − τ )  = RX (τ ) − E [ X ] E [ X ] = E 2 [ X ] − E 2 [ X ] = 0
   
=E2 [ X ] Sempre per l'ipotesi
di WSS

5. Ergodicità

Un processo aleatorio si dice ergodico se ciascuna realizzazione è caratteristica, con


probabilità 1, dell’intero processo; in altre parole, si ha ergodicità se i rilievi statistici
(verticali) fatti su un insieme qualunque di istanti di osservazione coincidono, con
probabilità 1, con i corrispondenti rilievi temporali fatti su una qualunque
realizzazione del processo.

NOTA: I processi ergodici sono un sottoinsieme dei processi stazionari in senso stretto,
quindi sono davvero pochi!
Un connotato importante che
caratterizza i processi
ergodici è il fatto che in una
singola realizzazione vi siano
tutte le informazioni che il
processo possiede al suo
interno: questo perché le
medie temporali (orizzontali)
coincidono esattamente con le
medie statistiche (verticali).
Come conseguenza di ciò:
1) Le varie realizzazioni
hanno tutte lo stesso valor
medio temporale, il quale
coincide col valor medio del
processo. Si ha dunque:
{ valor medio statistico } =
= { valor medio temporale }
E  X (t )  = E [ X ] = x (t ) =
T0
1
= lim
T0 →∞ 2T
0
∫ x ( t ) dt
−T0

2) Nella funzione RX (τ ) di autocorrelazione influisce soltanto la distanza relativa


fra gli istanti di osservazione e non l’istante preciso scelto (se il processo è ergodico, è
pure stazionario!). Inoltre, tale funzione di autocorrelazione coincide col
corrispondente rilievo fatto orizzontalmente:
{ autocorrelazione statistica } = { autocorrelazione temporale }
RX (τ ) = E  X (t ) − X (t − τ )  = x ( ) (t ) x ( ) (t − τ ) = Rx (τ )
i i

3) Una cosa simile a quella illustrata nel punto (2) accade anche per la funzione di
autocovarianza: anche questa ha una sua “controparte orizzontale” e nel caso
ergodico quest’ultima coincide con la già introdotta CX (τ ) . Infatti:
{ autocovarianza statistica } = { autocovarianza temporale }
 =E[ X ] =E[X ]

  
   
 
CX (τ ) = E  X (t ) − E  X (t )    X (t − τ ) − E  X (t − τ )    = E ( X (t ) − E [ X ]) ( X (t − τ ) − E [ X ])  =
 
 


 

= x (t ) x (t − τ ) −  x (t )  = Cx (τ )
2

 
=E 2 [X ]

4) La potenza dell’intero processo coincide con la potenza della generica realizzazione:


PX = E  X 2  = x 2 (t ) = Px = RX ( 0 )
Di conseguenza, il quadrato del valore efficace di ogni realizzazione corrisponde sia
alla potenza Px che alla potenza PX :
2
x eff = Px = PX
5) Per quanto riguarda la varianza (che è uguale per tutte le realizzazioni): a causa
della stazionarietà essa non dipende dal generico istante t in cui viene calcolata.
(
σ X2 = E  X 2  − E 2 [ X ] = x 2 (t ) − x (t ) )
2
6) Lo spettro di potenza del processo coincide con lo spettro di potenza di ogni
realizzazione.
GX ( f ) ≜ F {RX (τ )} = F {Rx (τ )} = Gx ( f )

Non è semplice fornire un esempio di processo ergodico; è invece molto più facile dare
un esempio di processo non ergodico. Il processo a realizzazioni costanti è fatto di n
realizzazioni, ognuna delle quali assume un (casuale) valore costante: sicuramente
questo processo è stazionario (posso calcolare valor medio, varianza, funzione di
autocorrelazione, etc… in qualunque punto, tanto il risultato non cambia) tuttavia non
è assolutamente ergodico; infatti, ogni realizzazione ha un valor medio diverso, un suo
spettro di potenza… e così via.
In cosa consiste la densità del prim’ordine di
un processo ergodico?
Possiamo fare due tipi di rilievi:
- verticale: consiste nell’andare ad
esaminare le varie realizzazioni in un
preciso istante di tempo e nel contare
quante di loro, in quel preciso istante,
hanno un valore contenuto all’interno
di un dato intervallo [a,b]. Da questo
esperimento si ricava:
= P {a < X (t ) < b}
nvolte
nrelizzazioni
In particolare, fissando un intervallo
molto piccolo possiamo ricavare
qualcosa di “imparentato” con la PDF:
 
P x < X (t1 ) < x+ dx  = p1 ( x ) dx
a b 
Quest’ultimo termine può essere a
b
sua volta integrato per ottenere: ∫ p ( x ) dx = P {a < X (t ) < b} .
a
1

NOTA: il processo, essendo ergodico e dunque stazionario, ha la proprietà di far


coincidere
p1 ( x1 ,t1 ) = p1 ( x1 )
- orizzontale: se il
segnale in questione è
ergodico, è possibile
ricavare la densità di
probabilità anche dalla
frazione di tempo in cui
un qualsiasi campione
x(t), al trascorrere di t ,
soddisfa la condizione
a < X (t ) < b .
Questo perché si ha che:
∑ ∆t k
k
= P {a < X (t1 ) < b}
T0
Per ergodicità, e dunque stazionarietà, rilievi verticali e orizzontali coincidono
perfettamente.

Problema: come facciamo a capire se un processo è ergodico? Anzitutto bisogna capire


se è stazionario. Dopodiché verifichiamo se sussiste una condizione sufficiente
piuttosto comoda, che è quella di memoria finita.
Un processo aleatorio ha memoria finita τ M se, osservato il processo fino a un generico
istante t1 , non è possibile fare alcuna previsione statistica sull’evoluzione del processo
in istanti maggiori di t = t1 + τ M . In pratica noi ci aspettiamo che, se un processo ha
memoria finita, l’andamento del segnale sia imprevedibile (e in un certo senso
“drasticamente diverso” rispetto al passato) dopo τ M secondi dall’ultima rilevazione
conosciuta. In tal caso si dice anche che “il processo si rinnova ogni τ M secondi”.
NOTA: se prendo in un processo aleatorio prendo due istanti molto diversi
X (t ) e X (t − τ )
allora questi saranno indipendenti per τ > τ M .
Dunque, se un p.a. è stazionario e ha memoria finita, allora esso sarà ergodico.

6. Processi aleatori gaussiani

X (t ) è un processo aleatorio gaussiano se le v.a. X (t1 ) , X (t2 ) , ..., X (tn ) sono


congiuntamente gaussiane (qualunque sia n e qualsiasi siano gli istanti).
In questo caso pn ( x1 ,t1 ; x 2 ,t2 ; ...; x n ,tn ) è una densità di probabilità gaussiana e,
precisamente, la probabilità congiunta di variabili gaussiane. Tale PDF ha la seguente
espressione (vedi anche capitolo1):
− ( x − µ )c ( x − µ )
1

( )
−1 T
1
f x1 , x2 ,..., x N = 2
e
( 2π )
n
det c
Dove:
- c è una matrice di covarianza con dimensione n × n contenente i termini

{c
i, j }
= cov ( Xi , X j ) = E  Xi X j  − E [ Xi ] E  X j  ;
- x = ( x1 , x2 , ..., x n ) (vettore delle variabili aleatorie);
- µ = ( µ1 , µ2 , ..., µn ) (vettore dei valori medi delle rispettive v.a.);
Se il processo aleatorio gaussiano è anche stazionario, allora si ha che i valori medi
sono tutti uguali:
E  X (t )  = E [ X ]
Questo influisce sulle quantità sopra descritte facendo diventare così i coefficienti
della matrice di covarianza:
 
 
ci, j = CX (t j − ti ) = RX (t j − ti ) − E  X  
2

  
 CX (τ ) = RX (τ ) − E  X  E  X  

Diamo ora alcune proprietà:


- se il processo aleatorio gaussiano è stazionario in senso stretto (SSS), possiamo
traslarlo quanto ci pare che, in ogni caso, c e µ non cambiano; ciò implica che le
densità di probabilità di ordine n non cambiano nel tempo, essendo determinate
da E [ X ] (invariante) e da RX (τ ) (che nel caso stazionario ed ergodico è pari a
E  X (t ) X (t − τ )  e dipende solo dalla distanza relativa dei due istanti);
- se le variabili aleatorie sono incorrelate allora si ha indipendenza statistica
(vale solo per i processi gaussiani!);
- la stazionarietà in senso lato implica anche stazionarietà in senso stretto (ma
solo per i processi gaussiani!);
- se il valor medio è nullo si ha che σ 2 = RX ( 0 ) ;
- la trasformazione LTI di un processo aleatorio gaussiano produce un altro
processo aleatorio gaussiano.

Importante è la seguente estensione del teorema del limite centrale: dati n processi
aleatori X1 (t ) , X 2 (t ) , ..., X n (t ) identicamente distribuiti e statisticamente
indipendenti, il processo
1 n
Y (t ) =
∑ X i (t )
n i =1
ha una descrizione statistica che, al crescere di n, tende a quella di un processo
aleatorio gaussiano (indipendentemente dalle descrizioni dei processi
X1 (t ) , X 2 (t ) , ..., X n (t ) )

7. Processi aleatori discreti nei valori

Anzitutto ricordiamo che un processo si dice discreto nei valori se, fissati gli istanti di
osservazione t1 , t2 , ..., tn , le v.a. X (t1 ) , X (t2 ) , ..., X (tn ) sono discrete e quindi descritte
dalla loro probabilità congiunta (probabilità di ordine n):
pn ( x1 ,t1 ; x 2 ,t2 ; ...; x n ,tn ) = P  X (t1 ) = x1 , X (t2 ) = x 2 , ..., X (tn ) = x n 
In tal caso le medie statistiche vanno riscritte con le opportune sostituzioni; ad
esempio, se X (t ) per ogni valore di t può assumere soltanto i valori x ( ) , x ( ) , ..., x ( )
1 2 L

allora possiamo ridefinire “in maniera discreta”:

( )
L
- il valor medio: E  X (t )  = ∑ x ( ) P1 x ( ) ,t ;
i i

i =1

( )
L 2
- il momento del second’ordine: E  X 2 (t )  = ∑  x ( )  P1 x ( ) ,t ;
i i
  i =1

- la funzione di autocorrelazione:
L L
R X (t ,τ ) = E  X (t ) X (t − τ )  = ∑ ∑ x ( )x ( )P  x ( i ) , t ; x (l ) , t − τ  .
i l

i =1 l =1
2  
La stazionarietà e l’ergodicità si introducono in maniera assolutamente analoga a
quanto visto per i p.a. continui nei valori.

8. Processi aleatori tempo-discreti

Tale tipo di processo è rappresentato da una successione di variabili aleatorie


{X n } = ..., X −1 , X 0 , X1 , ..., X n , ...
(se sono continue  processo continuo nei valori
se sono discrete  processo discreto nei valori)
e le realizzazioni sono successioni xn( ) . { } i
La descrizione statistica di questo tipo di processi aleatori è assolutamente analoga a
quella del caso tempo-continuo: bisogna però tenere presente che il tempo assume solo
certi valori (si può dire che procede “di quanto in quanto”). Possiamo dunque definire
(con riferimento a un p.a. suscettibile dei soli valori x ( ) , x ( ) , ..., x ( ) ):
1 2 L

{ } ( )
L L
- il valor medio: E [ X n ] = ∑ x ( ) P X n = x ( ) = ∑ x ( ) P1 x ( ) , n ;
i i i i

i =1 i =1

- il momento del second’ordine:

{ } ( )
L 2 L 2
E  X n2  = ∑  x ( )  P X n = x ( ) = ∑  x ( )  P1 x ( ) , n ;
i i i i

i =1
  i =1
 
- la funzione di autocorrelazione:
L L
RX (n, k ) = E [ X n X n −k ] = ∑ ∑ x ( )x ( )P  x (i ) , n ; x (l ) , n − k  .
i l

i =1 l =1
2  
I concetti di stazionarietà ed ergodicità possono essere introdotti analogamente ai casi
già considerati. In particolare:
- se il processo è WSS il valor medio non dipende dal tempo
E [ Xn ] = E [ X ]
e la funzione di autocorrelazione dipende solo dalla distanza relativa k fra i due
istanti considerati
RX ( n, k ) = RX ( k )
- la trasformata della funzione di autocorrelazione è:

T X ( f ) = FS {RX ( k )} = ∑ RX ( k ) ⋅ e −2π fkT
−∞

(sono state applicate le proprietà della trasformata di Fourier e in particolare


quella che fa corrispondere un fasore ad un ritardo)

9. Processi aleatori ciclostazionari e processi cicloergodici

Un processo aleatorio si dice ciclo stazionario se, per ogni t0 = kT (con k un numero
intero e T pari al periodo),
X (t ) e X (t − t0 ) = X (t − kT )
hanno la stessa descrizione statistica.
Ciò influisce, ovviamente, sulle densità di probabilità, che diventa periodica in t con
periodo T:
pn ( x1 ,t1 ; x 2 ,t2 ; ...; x n ,tn ) = pn ( x1 ,t1 + kT ; x2 ,t2 + kT ; ...; xn ,tn + kT )
Diventano periodici in t con periodo T anche:
- il valor medio: E  X (t ) 
- la funzione di autocorrelazione: RX (t,τ ) = E  X (t ) X (t − τ ) 
- la funzione di autocovarianza: CX (t,τ )

I processi cicloergodici sono un sottoinsieme dei processi ciclostazionari: per essi i


rilievi statistici fatti su un insieme di istanti di osservazione Θ danno risultati
coincidenti con probabilità 1 con quelli dei corrispondenti rilievi temporali fatti
considerando istanti che differiscono per multipli di T da Θ .
Dunque, in questo caso, le variazioni che vedo verticalmente (medie verticali) posso
vederle anche orizzontalmente nella singola realizzazione, spostandomi da quel punto
di T in T. Ad esempio il valor medio “verticale” E  X (t1 )  coincide, orizzontalmente, col
valor medio dei campioni presi sulla singola realizzazione ad ogni T. Un’altra
importante conseguenza è il fatto che, per un processo ciclo ergodico, qualunque media
statistica, mediata sul periodo T, coincide con la corrispondente media temporale
(fatta su tutto l’asse!). Infatti queste sono le espressioni de:
1
- il valor medio temporale: x (t ) = ∫ E  X (t )  dt ;
 T T  
temporale statistico

- la funzione di autocorrelazione temporale:


1
x (t ) x (t − τ ) = ∫ RX (t,τ ) dt = Rx (τ ) ;
TT   
statistica temporale

- lo spettro di potenza: Gx ( f ) = F {Rx (τ )}


- la funzione di autocovarianza temporale:
1
Cx (τ ) =  x (t ) − x (t )   x (t − τ ) − x (t )  = ∫ CX (t,τ ) dt
 T T 
temporale statistica

Come esempio prendiamo un


processo del tipo in figura: allo
scadere di ogni periodo T viene
“tirata a caso” la presenza o
meno di un bit (1 = arco di
sinusoide, 0 = nessuna
variazione). Tale processo non
è stazionario e neppure
ergodico (tant’è che i processi
possono tutti quanti essere 0
contemporaneamente): esso,
tuttavia, è ciclostazionario, in
quanto il valor medio letto
all’istante 1 è lo stesso di quello
letto all’istante 2 (vedi figura),
ed è pure cicloergodico, perché
tutte le realizzazioni hanno lo
stesso spettro di potenza. Le
medie verticali coincidono così
con le medie orizzontali e, conoscendo le peculiarità statistiche del processo su un
qualsiasi periodo T, conosco tutto.

10. Segnali PAM (Pulse Amplitude Modulation) aleatori

un

coefficiente

Sia s (i )
(t ) un segnale PAM generico: la sua espressione sarà s (i )
(t ) = ∑ an( ) g (t − nT )
i

Dunque, un segnale g(t) determinato e ad energia finita scelto opportunamente, viene


modulato di T in T da una serie di coefficienti an . { }
Immaginiamo ora che an( ) sia l’i-esima realizzazione di un processo aleatorio
i
{ An }
ergodico e, evidentemente, tempo-discreto. Premesso questo, possiamo dire che pure
s( ) (t ) è un’i-esima realizzazione di un processo aleatorio S(t):
i

S (t ) = ∑ An g (t − nT )
n

(come esempio si prenda quello illustrato nel paragrafo 9!)


Ebbene, il processo che abbiamo fra le mani non è stazionario (perché il valor medio
temporale dipende da t), ma è cicloergodico.
Com’è possibile calcolarne il valor medio?
E S (t )  = ∑ E [ An ] g (t − nT ) = E [ A] ∑ g (t − nT )
n 

per linearità processo ergodico implica 
n

del valor processo stazionario: il ripetizione periodica della
medio valor medio non dipende funzione g : quindi la funzione
dall'istante di calcolo complessiva è periodica in T

NOTA: il valor medio statistico è periodico in t con periodo T.


Cerchiamo ora lo spettro del segnale e, nel fare questo, utilizziamo la serie di Fourier
(abbiamo fra le mani un segnale reale periodico!) e un simpatico trucchetto: nella serie
di Fourier compare, all’interno dell’espressione dei coefficienti, una trasformata
SERIE DI FOURIER: x P (t ) = ∑ x (t − nT ) = ∑ cn e j 2π Tt con cn = X ( f ) = F {x (t )}
1
n n T
e noi faremo in modo che il segnale da trasformare sia quello della funzione g.
Riscriviamo dunque la formulazione del valor medio e mettiamo nella sua pancia la
serie di Fourier:
 n  j 2π n T E [ A ]
t t
1  n  j 2π n T
E S (t )  = E [ A ] ∑ g (t − nT ) = E [ A ] ∑ G e = ∑n  T 
G e
T n  T  T
n
  
1 F { g (t )}
∑ ( ) T∑ ( )
x t − nT = X f e j 2 π Tt

n n

Ecco che compare la funzione G!


Vogliamo ora trovare quest’ultima in maniera esplicita, in tre passi:
1) Troviamo la funzione di autocorrelazione statistica RΓ (t,τ ) = E Γ (t ) − Γ (t − τ )  .
2) Sfruttiamo la cicloergodicità e integriamo su un periodo, in modo da ottenere
1
RΓ (τ ) = ∫ RΓ (t,τ ) dt .
TT
3) Trasformiamo secondo Fourier per trovare l’espressione del nostro spettro di
potenza GX ( f ) = F  Rγ (τ )  .

PASSO 1

Prendiamo un processo aleatorio tempo-discreto a valor medio statistico nullo: per


ottenerlo prendiamo un processo qualsiasi di questo tipo (che ha dunque un valor
medio in generale diverso da 0) e – trucchetto! – togliamo da ogni elemento della
successione il valor medio stesso del processo in questione. Avremo una successione di
variabili aleatorie così definita:
{X n } = { An − E [ A ]} dove E [ X n ] = E  An − E [ A ] = E [ An ] − E [ A ] = 0

=E[ A]

Come mai abbiamo escogitato questo artifizio (cit.)? Il motivo sta nel fatto che gli An
(di cui sopra) sono, in realtà, i coefficienti di un processo PAM aleatorio formulato nel
seguente modo:
S (t ) = S (t ) − E S (t )  + E S (t )  = ∑ An g (t − nT ) − ∑ E [ A ] g (t − nT ) + E S (t )  =
 n n
trucco diabolico!

= ∑  An − E [ A ] g (t − nT ) + E S (t )  = ∑ X n g (t − nT ) + E S (t ) 


n     
i nuovi simboli X n 
n
determinato
PAM a valor medio nullo e periodico
che chiamiamo Γ (t )

Dunque, ricapitolando:
S (t ) = E S (t )  + Γ (t )
con S (t ) = ∑ An g (t − nT ) e Γ (t ) = ∑ X n g (t − nT )
n n

NOTA: per come abbiamo definito la situazione S (t ) è un segnale determinato


periodico, Γ (t ) è un processo cicloergodico a valor medio nullo, la cui generica
realizzazione è:
γ (t ) = ∑ xn g (t − nT )
n

Comunque sia, l’obiettivo di questo primo punto del problema è trovare la funzione di
autocorrelazione statistica RΓ (t,τ ) = E Γ (t ) − Γ (t − τ )  . Applichiamo dunque la

 
RΓ (t,τ ) = E  ∑ X n g (t − nT )∑ X m g (t − τ − mT ) = ∑∑ E [XnXm ] g (t − nT ) g (t − τ − mT ) =
n m  n m 
NOTA: somiglia alla funzione
di autocorrelazione del processo
tempo-discreto X n

definizione e infiliamoci dentro le espressioni appena trovate:


 
 
= ∑∑ E  X n X n−k  g (t − nT ) g (t − τ − ( n − k ) T )
n k  
n − k ≜m
 cambio 


di indice 

questa sì che è la funzione
di autocorrelazione statistica
di X n : essa, siccome il processo
è ergodico, dipende solo da k !

Dunque abbiamo ottenuto ciò che cercavamo, ovvero:


RΓ (t ,τ ) = ∑ ∑ R X ( k ) g (t − nT ) g (t − τ − ( n − k ) T )
n k

NOTA: tale funzione è periodica in t con periodo in T.

PASSO 2

Per prima cosa cerchiamo la funzione di autocorrelazione temporale della generica


realizzazione:
T T
2 2

∫ ∑ ∑ R ( k ) g (t − nT ) g (t − τ − ( n − k )T ) dt =
1 1
Rγ (τ ) = γ (t ) γ (t − τ ) = ∫ RΓ (t,τ ) dt = X
T −T
T −T n k
2 2
≜ξ
T


2
T −nT
2

∑k X ( )∑n ∫  t − nT  g (t − τ − ( n − k ) T ) dt = T
1 1
=
T
R k g ∑ R (k) ∑ ∫
k
X
n −T −nT
g (ξ ) g (ξ − τ − kT ) dξ =
−T
2   
2

equivale ad un unico integrale che va da −∞ a +∞


1 1
=
T
∑ RX ( k ) ∫ g (ξ ) g (ξ − τ + kT )
dξ =
T
(k ) R
∑ R (τ − kT )
X g
−∞
k
 k
è una è una funzione
integrale di autocorrelazione: successione del tempo

R g (ψ ) = ∫ g (ξ ) g (ξ −ψ ) dξ con ψ =τ − kT
−∞
Quest’ultima espressione dell’autocorrelazione temporale di un segnale PAM aleatorio
è convenzionalmente esprimibile anche mediante convoluzione ibrida:
Rγ (τ ) = {RX ( k )} ⊗ Rg (τ )
1
T

PASSO 3

Possiamo ora passare, finalmente, al calcolo della funzione spettro densità di potenza
della generica realizzazione:
∞ ∞
1
G ( f ) = F  Rγ (τ )  = ∫ Rγ (τ ) e − j 2 π f τ d τ = ∫ ∑ R X ( k ) R g (τ − kT ) e − j 2 π f τ d τ =
−∞ −∞
T k

= ∑ RX (k )
1
T g
1
∫ R (τ − kT ) e
dτ = F
T
− j2π fτ
{R (τ )} ⋅ e
g
− j 2 π fkT
∑ R (k )
X
−∞
k
 k

definizione di trasformata di Fourier


{ } { }
F R g (τ − kT ) ⇒ F R g (τ ) ⋅ e − j 2 π fkT

Per continuare coi calcoli servono due considerazioni:


- anzitutto ricordiamo che la funzione di autocorrelazione si può scrivere anche
come: Rg (τ ) ≜ g (τ ) ⊗ g ( −τ ) ;
- facciamo poi riferimento alle proprietà della trasformata di Fourier:
seconda proprietà: trasformata di segnale reale

F {Rg (τ )} = F { g (τ ) ⊗ g ( −τ )} = G ( f ) G ( − f ) = G ( f ) G * ( f ) = G ( f )
2


prima proprietà: da convoluzione a semplice prodotto

Dunque nell’espressione dello spettro di potenza (quella definitiva) compare:


G (f )
2

Gγ ( f ) = ∑ R (k ) ⋅ e
X
− j 2 π fkT

T k

Essa può essere riscritta mantenendo – e non sviluppando – la trasformata di Fourier


(di una successione numerica)
F  {R ( k )}
G ( f )
  G (f )
S  
2 X
2

Gγ ( f ) = ∑k R X ( k ) ⋅ e − j 2 π fkT
= F S {R X ( k )}
T T
La nostra lunga ricerca è finita!
Ora, volendo, possiamo sviluppare la sommatoria spezzandola in tre parti e applicando
la simmetria hermitiana propria dei segnali reali.

il segnale è reale! 
  
sfruttiamo la formula di Eulero
G( f ) G(f )  G(f )
2 2 2
∞  ∞ ∞
Gγ ( f ) = ∑ RX ( k ) ⋅ e − j2π fkT = Re  ∑ RX ( k ) ⋅ e− j2π fkT  = ∑ RX ( k ) ⋅ cos ( 2π fkT ) =
T k=−∞ T  
=−∞ T =−∞
k

k
 spezziamo in tre parti  spezziamo in tre parti



cambio di estremi ⇒ ∑ RX ( − k )⋅cos( 2π fkT ) 

  k =1 
G(f )
2
 −1 ∞ 
=  RX ( 0 ) + ∑ RX ( k ) ⋅ cos ( 2π fkT ) + ∑ RX ( k ) ⋅ cos ( 2π fkT )  =
T  k =−∞ k =1 
 
 
 perché siccome il segnale è reale
RX ( k ) = RX ( − k ) 

   
G(f )
2

 
= R
 X ( 0 ) + 2 ∑ RX ( k ) ⋅ cos ( 2π fkT ) 
T k =1
 
 
 

Facciamo ora un passo indietro ed esaminiamo cosa succede alla generica


realizzazione del processo:
RICAPITOLANDO (vedi sopra per un’esposizione più completa):
 S (t ) = Γ (t ) + E  S (t )  
 
 con S t = 
 () ∑ A n g (t − nT ) e Γ (t ) = ∑ X n g (t − nT ) 
n n

 n  j 2π n T E [ A ]
t t
1  n  j 2π n T
E  S (t )  = E [ A ] ∑ g (t − nT ) = E [ A ] ∑ G   e = ∑n G  T  e
T n T  T
n
  
1 F { g (t )}
∑ x ( t − nT ) =
T∑
X ( f ) e j 2 π Tt

n n

 n  j 2π n E [ A] t
generica realizzazione  s (t ) = γ (t ) + E S (t )  = γ (t ) + ∑ G e T
T n T 
Se di questa realizzazione cerchiamo la densità spettrale di potenza otteniamo:
componente a righe che scappa fuori da E S ( t ) 



  
modellato il fasore

  attraverso Dirac

G(f ) 
2 2
 E  A 
∞ 2
n  n
GS ( f ) =  RX ( 0 ) + 2∑ RX ( k ) ⋅ cos ( 2π fkT )  + 2 ∑ G  δ f − 
T 
  
k =1 T n  

T  T

componente continua (spettro distirbuito Gγ ( f ) ) t
2
E  A   n  j 2π n T
T ∑ G e
T 
n

OSSERVAZIONI:
- se E [ A ] = 0 lo spettro a righe scompare;
- la componente a righe scompare anche nel caso in cui, indipendentemente dal
n
valor medio, G è tale da far risultare G   sempre pari a zero;
T 
- ricordiamo che
= x n x n − k = Rx ( k )

  = E [ An − k ] 
RX ( k ) = E [ X n X n − k ]   
 
 = E  An − E [ A ] An − k − E [ A ]   = RA ( k ) − E 2 [ A ]
  
 
 
 
  = E [ An ]    
Dunque la funzione di autocorrelazione statistica non soltanto è pari alla
funzione di autocorrelazione temporale, ma coincide anche con una funzione di
autocovarianza delle A.

11. Qualche esempio di segnali PAM aleatori: codice bipolare puro

Diamo anzitutto lo schema sommario di quale sia il percorso intercorrente fra una
sorgente binaria e il segnale PAM completamente formato.

SORGENTE BINARIA
La sorgente binaria emette 1 bit ogni Tb secondi (tempo di bit):
da questo dato si ricava anche la bitrate, che è definita come Br = Tb−1 .
Un bit, in quanto bit, può assumere soltanto i valori {0,1}.
L’emissione della successione di bit {bn } è da considerarsi come una
realizzazione di {Bn } , che è un processo aleatorio,
senza memoria e stazionario (e dunque ergodico).


CODIFICATORE
Il codificatore è un componente che associa a un certo
numero di bit un simbolo appartenente a un preciso
alfabeto (finito). Riceve dunque in entrata una successione
di bit {bn } ed emette, in output, una successione di simboli
{an } . I simboli vengono rilasciati ogni T secondi (tempo di simbolo);
analogamente a prima, si definisce la symbol-rate come Bs = T −1 . Grazie
alla corrispondenza biunivoca fra i {bn } e gli {an } , possiamo dire che
pure il processo { An } è ergodico.


MODULATORE PAM
Il modulatore PAM possiede, nella pancia, un determinato impulso
g(t); riceve in ingresso i simboli generati dal codificatore e, in uscita,
rilascia ogni T secondi la funzione an g(t), ovvero l’impulso g(t) modulato
da un certo coefficiente an . La somma di tutti questi impulsi singolari
è la funzione s (t ) = ∑ a g (t − nT ) . NOTA: il processo S(t) è cicloergodico!
n
n

Esaminiamo ora alcune codifiche notevoli e, per cominciare,


bn an
analizziamo quella concernente il codice bipolare puro. Esso
0 1 utilizza i simboli binari {an } ∈ {−1,1} , i quali sono posti in
1 -1 corrispondenza biunivoca (cioè “in rapporto uno ad uno”, 1:1) con
la coppia {0,1}. Un esempio potrebbe essere quello mostrato in tabella (ma non è
l’unico, esistendo anche la versione duale con i simboli an invertiti). Per come abbiamo
definito questo processo il symbol-rate sarà uguale al bitrate, visto che il codificatore
emette un simbolo per ogni bit.
Entrando un pelo più nello specifico, esemplifichiamo supponendo che la sorgente sia
bilanciata, ovvero che l’uscita del bit 0 sia probabile come l’uscita del bit 1. Si ha,
ovvero:
1 1
P {Bn = 0} = p = P {Bn = 1} = 1 − p =
2 2
Ora che disponiamo di dati numerici possiamo calcolare:
P {Bn =1} P {Bn = 0}
1
- il valor medio E [ Bn ] : E [ Bn ] = 1 ⋅ 1 2 + 0 ⋅ 1 2 = ;
2
P { An = − 1} P { An = + 1}
= P {Bn =1}
= P {Bn = − 1}

- il valor medio E [ An ] : E [ An ] = − 1 ⋅ 1 2 + 1 ⋅ 1 2 = 0 (NOTA: il fatto di
avere un valor medio nullo potrebbe risultare un ottimo vantaggio da sfruttare!)
- la funzione di autocorrelazione dei simboli {an } , ovvero RA ( k ) (NOTA: essendo
nullo il valor medio, tale funzione coincide con l’autocovarianza, vedi presso
“OSSERVAZIONI”, paragrafo 10): RA ( k ) = RX ( k ) = E [ An An −k ] . Ora possiamo

il valor medio
è nullo!

 E  An2  =1⋅ 1 +1⋅1 = 1


 

  2
2

k=0
stiamo valutando → E [ An An ] = E  An2  = 1
il processo
discriminare due casi:  in due istanti coincidenti

k≠0
stiamo valutando → E [ An ] E [ An −k ] = 0
il processo 
 in due istanti differenti = 0
Dunque la funzione di autocorrelazione/autocovarianza è così fatta:

12. Qualche esempio di segnali PAM aleatori: codice bipolare alternato (AMI,
Alterned Marked Inversion)

Il codice bipolare alternato (o


“pseudo-ternario”) utilizza i
simboli {an } ∈ {−1,0,1} : il principio
di codifica consiste nell’associare
al bit bn = 0 il simbolo 0 e ai bit
bn = 1 alternativamente il simbolo
+1 e –1. Ancora una volta ad un
bit corrisponde un simbolo e
dunque la symbol-rate è uguale
alla bit-rate.
Passiamo ora al calcolo del valor
medio degli An :
1 1 1
E [ An ] = 0 ⋅ + 1 ⋅ + ( −1) ⋅ = 0
2 4 4
La peculiarità di questo codice è dunque che il valor medio dell’uscita è zero
indipendentemente dal bilanciamento dei bit d’ingresso.

13. Qualche esempio di segnali PAM aleatori: codice multilivello

Il codificatore multilivello non genera un simbolo ogni l bit: di conseguenza, la symbol


Br Br
rate è pari a = . Il numero dei livelli, che corrisponde all’ampiezza
l log 2 L
dell’alfabeto di simboli, è dunque: L = 2l  l = log 2 L
Infatti:
- se l = 1  alfabeto di 2 simboli
bn an
In questo caso, banalmente, il codice multilivello
0 +1
diventa pari al codice bipolare.
1 –1
- se l = 2  alfabeto di 4 simboli
bn an
Nel codice multilivello, come si nota, si generano
00 –3
simboli che sono numeri dispari; si osservi poi che,
01 –1 per quanto riguarda i bit bn , la codifica è quella del
11 +1 codice Gray (tra una riga e l’altra cambia soltanto un
01 +3 bit).

- se l = 3  alfabeto di 8 simboli
bn an
In questo esempio con tre livelli si vede ancora
000 –7
meglio che, formalmente, i simboli generati sono
001 –5 − ( L − 1) , ..., − 5, − 3, − 1, + 1, +3, +5, ..., ( L − 1)
011 –3
Anche qui si nota la codifica Gray (tra una codifica a
010 –1 quella successiva vi è la differenza di un solo bit).
110 +1 Ora troviamo il valor medio del processo:
1
111 +3 E [ A ] =  − ( L − 1 ) − ... − 3 − 1 + 1 + 3 + ... + ( L − 1 )  = 0
101 +5 L
E 100 +7
Essendo nullo questo valor medio, lo spettro di
potenza del processo non avrà la componente a righe

14. Il problema della


predizione

Il problema della predizione è


un problema di fondamentale
interesse nel campo delle
comunicazioni elettriche:
saper prevedere i valori che
potrebbero derivare da un
processo aleatorio è infatti di
grande importanza in sede di
progetto.
Immaginiamo di avere un processo aleatorio tempo-discreto {X n } : un interessante e
possibile metodo di predizione consiste nel prendere n valori passati del processo e
moltiplicarli per dei coefficienti (che “pesano” tali valori); i risultati di questo
procedimento vengono quindi sommati insieme e confluiscono in una stima X n (che è
quindi una combinazione lineare dei valori precedentemente pescati).

Come facciamo a capire se la stima è buona? Esiste anzitutto un indicatore chiamato


errore di stima, così definito:
en = X n − X n
poi, fortemente correlato ad esso, si definisce anche il mean square error (MSE), che è
formulato nel seguente modo:
MSE = J = E en2  = E ( X n − X n ) 
2

 
Per trovare i coefficienti che minimizzano l’errore, il componente chiamato MMSE
(minimal mean square error) predictor impone all’MSE la condizione di minimo
mediante la derivata parziale operata sui coefficienti:
∂J
=0
∂ai
Si può dimostrare che i coefficienti tirati fuori fissando questa condizione soddisfano
questo sistema di equazioni esposto in forma “matriciale”:
 RX (1 )   RX ( 0 ) ⋯ ⋯ RX ( N − 1 )   a1 
    
 RX ( 2 )  =  RX (1) ⋯ ⋯ ⋮   a2 
 ⋮   ⋮ ⋯ ⋯ ⋮  ⋮ 
    
 RX ( N )   RX ( N − 1) ⋯ ⋯ RX ( 0 )   an 
III – MODULAZIONI

1. Concetti preliminari

Un segnale si dice passa-basso se, nel dominio delle frequenze, le componenti


significative sono concentrate attorno allo zero. Un esempio di segnale passa-basso è il
segnale audio: le componenti significative si trovano infatti tra 20 e 20.000 Hz (questo
range è anche detto banda del segnale).
Un segnale viene invece classificato come passa-banda se le sue componenti
significative sono tutte concentrate alle frequenze alte; fra i segnali di questo tipo vi
sono quelli la cui banda B si dice relativamente stretta (per i quali si ha precisamente
che B << 1 , dove fCC è la frequenza centrale del segnale, ricavabile facendo la media
fCC
aritmetica fra gli estremi dell’intervallo di banda). Un esempio notevole di segnale
passa-banda è il segnale radio (v. oltre).

Una classificazione simile a quella appena fatta è riferibile anche ai sistemi LTI: un
sistema LTI si dice infatti passa-basso se la sua funzione di trasferimento H(f) è fatta
in modo tale da avere componenti significative intorno allo zero; altrimenti, un
sistema si dice passa-banda se la banda passante della H(f) è concentrata alle
frequenze alte.

Queste considerazioni sono di grande interesse per quanto riguarda i sistemi di


trasmissione delle informazioni:
- il cavo coassiale, quello del doppino telefonico, funziona come un sistema
passa-basso: i segnali a bassa frequenza, infatti, vi si propagano bene, mentre le
componenti ad alta frequenza si perdono per dispersione;
- il canale radio necessita invece di un segnale
Lunghezza d’onda
Frequenza passa-banda (il segnale radio).
(dimensione antenna)
30 Hz 10.000 Km La trasmissione avviene per mezzo di due antenne
300 Hz 1.000 Km (un’antenna trasmittente e un’antenna ricevente);
300 kHz 1 Km perché questo processo sia efficiente si devono avere
3 MHz 100 m
300 MHz 1m
antenne di dimensione geometrica non molto
3 GHz 10 cm diversa dalla lunghezza d’onda: va dunque da sé
30 GHz 1 cm che, esistendo la relazione
velocità
della luce

λ= , c
f0
e non potendosi costruire antenne di dimensioni chilometriche, si possano
trasmettere solo segnali passa-banda.

2. Modulazioni: principio e grandezze fisiche coinvolte

Le considerazioni appena fatte ci fanno apparire chiaro come sia di fondamentale


importanza trovare un modo per “spostare” la banda di un segnale lungo l’asse delle
frequenze. Con questa strategia risulta quindi possibile trasmettere segnali a bassa
frequenza, ad esempio, attraverso il mezzo radio (che è un canale implicitamente
passa-banda). Il percorso di un segnale è dunque schematicamente questo:

Sorgente analogica [segnale passa-basso x(t)]  blocco modulatore [trasforma il


segnale in s(t), passa-banda]  canale passa-banda  demodulatore [componente
duale del modulatore, che dà in uscita un segnale passa-basso x’(t), che si spera il più
possibile simile a x(t)]  destinatario.

Un po’ di terminologia:
- x(t) è detto segnale modulante;
- s(t) è l’oscillazione modulata.

Ovviamente, per la natura stessa del componente, un modulatore non può essere LTI:
dobbiamo sacrificare o la linearità o la tempo-invarianza per fare in modo che sia
possibile far nascere nuovi fasori (ovvero “traslare” in frequenza). Un sistema LTI,
invece, modifica soltanto ampiezza e fase di un segnale, non la locazione della sua
banda.

L’oscillazione modulata s(t) si ottiene generalmente con due ingredienti:


- il segnale modulante x(t);
- un riferimento alla f0 alla quale si vuole trasportare il segnale: tale
 frequenza 
  
riferimento può essere una portante sinusoidale V0 cos  2π f0 t + ϕ0  .
 
ampiezza  fase 
 iniziale 

Un segnale sinusoidale è intrinsecamente passa-banda, dunque è perfetto per i


nostri scopi! NOTA: la portante non veicola informazioni: dà solo indicazioni su
fase, modulo e frequenza “d’arrivo”. Una volta che si ha in mano la portante,
bisogna variarne i parametri in rapporto al segnale modulante: dunque questo
sarà l’aspetto della nostra oscillazione modulata
ampiezza
istantanea

s (t ) = V (t ) cos ( 2π f0t + ψ (t ) ) = V (t ) cos ϕ (t )

fase
istantanea

Si definiscono quindi le seguenti grandezze:


dϕ ( t )
- pulsazione istantanea: ω (t ) = = ϕɺ (t ) ;
dt
ω (t ) ϕɺ (t )
- frequenza istantanea: f (t ) = = ;
2π 2π
- deviazione di ampiezza: V (t ) − V0 ;
V (t ) − V0
- deviazione relativa di ampiezza: m (t ) = ;
V0
- deviazione di fase: α (t ) = ϕ (t ) − ( 2π f0t + ϕ0 ) = ψ (t ) − ϕ0 ;
αɺ (t )
- deviazione di frequenza: ∆f (t ) = f (t ) − f0 = da cui si può ricavare,

t
αɺ (t ) t
integrando entrambi i membri ∫ ∆f (ξ ) dξ = ∫ ⇒ α (t ) = 2π ∫ ∆f (ξ ) dξ + K
−∞
2π −∞

Con le nuove grandezze appena definite possiamo riscrivere l’oscillazione modulata:


V (t ) − V 0
m (t ) =
( 
V0 α t ) = ϕ (t ) − 2 π f0 t − ϕ 0
     
s (t ) = V 0 1 + m (t )  cos ( 2π f0t + α (t ) + ϕ 0 )
3. Modulazione in ampiezza (Amplitude Modulation, AM)

()V t ϕ (t )
 sensibilità del
modulatore:
   
 rende m( t )    
 adimensionale
s (t ) = V0 1 + ka x (t )  cos  2π f0t + α (t ) + ϕ0 

m (t ) = ka x (t )
con
 

   
α (t ) = 0  
m (t )   0 

Nella modulazione in
ampiezza il segnale di tipo
passa-basso fa da
l’inviluppo per l’oscillazione
modulata, che eredita dal
segnale portante (la
sinusoide) i punti di
intersezione con lo zero.
Dove il segnale modulante è
maggiore di zero,
l’oscillazione modulata sarà
più intensa della portante;
viceversa, nelle parti
corrispondenti ai valori in
cui il segnale x(t) diventa
negativo, la s(t) sarà una
versione attenuata della
s0(t).
Tale tipo di modulazione in
ampiezza nasconde l’insidia
della sovramodulazione:
essa avviene quando il
blocco modulatore è troppo
sensibile ( ka molto alto) oppure
quando il segnale passa-basso
x(t) è già intrinsecamente molto
“ampio”. In situazione di
sovramodulazione capita che
V(t) diventa negativo (e quindi
che –V(t) diventa positivo):
dunque le due “pareti”
dell’inviluppo si accavallano e il
segnale s(t) non è più un
rappresentante attendibile del
segnale modulante. Inoltre
abbiamo il fenomeno dell’inversione di fase (vedi disegno). Per evitare queste
spiacevolezze deve accadere che V (t ) ≥ 0 per ogni t. Dunque, osservando l’espressione
dell’oscillazione modulata, bisogna imporre:
V (t ) ϕ (t )
   
     
s (t ) = V0 1 + ka x (t )  cos  2π f0t + α (t ) + ϕ0   V0 1 + ka x (t )  ≥ 0

 
     

 
m (t )   0   m( t ) 
1 + ka x (t ) ≥ 0


m( t )

Ora introduciamo il concetto di indice di modulazione di ampiezza:


ma = max m (t ) = max ka x (t ) = ka max x (t )
Se il segnale ha una dinamica ben definita, ovvero se è chiaramente contenuto, nei
valori d’ampiezza, all’interno di un intervallo (che ora prendiamo per semplicità
simmetrico e pari a [–M, M]), possiamo allora formulare tale indice nel seguente modo:
ma = ka max x (t ) = ka M
Dunque 1 + ka x (t ) ≥ 0 sarà sicuramente vera se 1 + ka ( − M ) ≥ 0 (se l’ampiezza di s(t) è


m( t )

ancora maggiore di zero per l’oscillazione “negativa” più ampia, vuol dire che tutte gli
altri valori non sono pericolosi). Alla fine otteniamo un’importante condizione sulla
sensibilità del modulatore, che è la seguente:
1
1 + ka ( − M ) ≥ 0 ⇒ 1 ≥ ka M ⇒ ka ≤
M

4. Modulazione di fase (Phase Modulation, PM)

m (t ) = 0
ϕ (t )
 V (t ) 
α (t ) = 
s (t ) = V0 cos ( 2π f0t + kp x (t ) + ϕ0 )
kp x (t )
  con
 sensibilità del
modulatore:
 conferisce a α (t )
 dimensione [rad]

d
αɺ (t )
kp x (t ) k
NOTA: ∆f (t ) = f (t ) − f0 = = d t = p xɺ (t )
2π 2π 2π

Come si nota dalle


relazioni appena scritte,
l’oscillazione modulata
non varia più in ampiezza
(si vede anche dal disegno
che s(t) ha ampiezza
costante), bensì il suo
andamento si modella in
base all’entità della
derivata di x(t): dove il
segnale modulante ha
derivata positiva, s(t) ha
un andamento più
“rapido” (si nota che la
fase varia più velocemente
e la frequenza, di conseguenza, aumenta). Viceversa, dove la derivata è negativa, il
segnale s(t) si “spancia” e la sua frequenza cala.

È questo un primo esempio di modulazione d’angolo (il secondo esempio sarà quello
che si vedrà nel paragrafo 5): in questo contesto si parla quindi di indice di
modulazione angolare; esso è così definito:
mp = max α (t )
Nel caso particolare in cui il segnale modulante è una sinusoide (di frequenza fm ) si
introduce poi un indice più specifico, ovvero l’indice di modulazione di frequenza:
max ∆f (t )
mf =
fm

5. Modulazione di frequenza (Frequency Modulation, FM)

()
ϕ t
  
m (t ) = 0  
 V (t )
 
∆f (t ) =  t
kf x (t )
  con s (t ) = V0 cos  2π f0t + kf 2π ∫ ∆f (ξ ) dξ + ϕ0 
 sensibilità del  −∞

modulatore:
  

 conferisce a ∆f (t )
 α (t ) 
 dimensione [Hz]

Anche in tale modulazione


l’ampiezza dell’oscillazione
modulata è costante: quel
che varia è la frequenza di
s(t). Dove il segnale
modulante x(t) è maggiore
di zero la frequenza di s(t)
sarà maggiore della
frequenza della sinusoide
portante; d’altro canto,
dove x(t) è < 0, allora
l’oscillazione modulata
avrà una frequenza
inferiore a quella di s0(t).

Per quanto riguarda l’indice di modulazione angolare, consulta il paragrafo 4.

6. Modulazioni ibride (APM, Amplitude Phase Modulation)

Nelle cosiddette modulazioni ibride il segnale modulante modula


contemporaneamente in ampiezza V (t ) e fase ϕ (t ) . In base a questo principio, posso
“trasportare”, su una sola portante, due segnali: con uno dei due modulo la fase, con
l’altro modulo l’ampiezza. Dunque, operando nel seguente modo si ha che

s (t ) = V0 (1 + ka x1 (t ) ) cos ( 2π f0t + kp x 2 (t ) + ϕ0 )

7. Circuiti di modulazione e di demodulazione; esempio notevole:


demodulatore AM ad inviluppo

Il modulatore d’ampiezza ha, come


simbolo grafico, quello affianco; tale
componente riceve in ingresso il segnale
modulante e la portante: dopodiché li
compone e, dà in uscita, l’oscillazione
modulata (come si vede in figura).
Il modulatore di fase è disegnato in un
modo molto ma molto simile a quello
d’ampiezza, come si vede facilmente
nell’immagine accanto. Ancora una volta
si hanno in ingresso il segnale modulante
x(t) e la portante s0 (t ) e, in output,
l’oscillazione modulata per fase.

Per quanto riguarda il modulatore di


frequenza c’è da fare qualche
considerazione in più.
Anzitutto è necessario dire che
non serve una portante in
ingresso in quanto l’oscillatore
è già incorporato all’interno
del modulatore stesso (VCO:
Voltage Controlled Oscillator).
Inoltre, come componente, il
modulatore di frequenza ha la
peculiarità di sostituire quello
di fase se, in ingresso, gli
diamo in pasto il segnale
modulante derivato. In figura
si riporta come devono essere
collegati i vari componenti del circuito in questione e la dimostrazione rigorosa di come
sia possibile ottenere un segnale modulato in fase con un modulatore FM.

Per quanto riguarda i circuiti di demodulazione, non vi è quasi nessuna differenza nei
simboli grafici (si nota soltanto l’assenza della portante).

Per i circuiti di demodulazione si fa un distinguo fra:


- circuiti coerenti: sono quelli in grado di demodulare un segnale solo se conoscono
una replica della portante;
- circuiti non coerenti: non hanno bisogno di una replica locale della portante per
demodulare un segnale.
Fra i circuiti non coerenti
un demodulatore notevole
(del quale si dà lo schema
circuitale qui affianco) è
quello AM cosiddetto a
inviluppo.
Il principio di funzionamento di questo
circuitino è molto ingegnoso: per
comprenderlo, supponiamo che il diodo sia in
conduzione (con caduta di potenziale nulla ai
suoi capi). Inizialmente, visto il parallelo fra
i componenti, la tensione d’ingresso [data da
sAM (t ) ] sarà sicuramente uguale a quella
dell’uscita [il segnale V (t ) , che – come
vedremo – somiglia molto all’inviluppo
V (t ) = V0 (1 + ka x (t ) ) ]. Non appena il segnale
d’ingresso arriva su una cresta (un massimo
relativo) e comincia a diminuire, la tensione
d’uscita smetterà di essere uguale a quella
d’ingresso perché la presenza del
condensatore rallenta il processo con una
scarica (di tipo RC), più lenta dell’andamento decrescente di sAM (t ) . Dunque il diodo si
interdirà per poi riattivarsi [e ripristinare l’uguaglianza V (t ) = s (t ) ] non appena il
AM

l’oscillazione modulata sAM (t ) tornerà ad essere pari al valore della tensione d’uscita.
Si intuisce facilmente che è di fondamentale importanza dimensionare bene la costante
di tempo del circuito, in modo che la scarica abbia la giusta velocità e insegua
adeguatamente l’inviluppo.

8. Analisi spettrale del segnale AM

Prendiamo l’espressione di un segnale modulato AM e distribuiamo il prodotto:


ricompare la portante
  
sAM (t ) = V0 (1 + ka x (t ) ) cos ( 2π ft )  sAM (t ) = V0 cos ( 2π ft ) + kaV0 x (t ) cos ( 2π ft )
 

termine di modulazione a prodotto

Ora distinguiamo due casi:


1) segnale x(t) ad energia finita. Se il segnale è ad energia finita, sicuramente
ammette la trasformata di Fourier F  x (t )  = X ( f ) . Calcoliamola sfruttando la
linearità della trasformata e, quindi, separando la prima componente (portante)
dalla seconda (termine modulato a prodotto):
V V
Prima componente: F V0 cos ( 2π f0t )  = 0 δ ( f − f0 ) + 0 δ ( f + f0 ) (NOTA: è a righe)
2 2
kaV0 kV
Seconda componente: F kaV0 x (t ) cos ( 2π ft )  = X ( f − f0 ) + a 0 X ( f + f0 )
2 2
(NOTA: è continua)

Qui a fianco si vede


come le due
componenti
vengono graficate.
Come si nota, siamo davvero poco efficienti per quanto riguarda:
- occupazione di banda: il segnale modulato S(f) occupa infatti il doppio della
banda rispetto al segnale di partenza X(f);
- potenza: ne “sprechiamo” una parte per trasmettere la portante e molta anche
per trasmettere il segnale modulato (che, come dicevamo, ha una banda davvero
larga)
2) segnale x(t) a potenza finita. Anche il segnale modulato sarà a potenza
finita e possiamo, di quest’ultimo, trovare la densità spettrale di potenza:
V2 V2 k 2V 2 k 2V 2
GS ( f ) = 0 δ ( f − f0 ) + 0 δ ( f + f0 ) + a 0 Gx ( f − f0 ) + a 0 Gx ( f + f0 )
4 4 4 4
Come nel caso precedente, c’è una componente a righe e una componente continua
(il disegno è analogo a quello del caso precedente, con di GS(f) al posto S(f) e GX(f)
al posto di X ( f ) ) e pure in questo caso abbiamo degli inconvenienti, analoghi a
quelli esaminati poco fa.

9. Varianti (ibride) di modulazione AM: DSB-SC, SSB

Dal punto di vista della potenza trasmettere la portante è uno spreco: se però
disponiamo di un demodulatore coerente, è necessario trasmettere un residuo
(possibilmente molto debole) di portante, in modo che si possa eseguire la
demodulazione. Abbiamo però un’altra
possibilità: possiamo decidere di non
trasmettere la portante a patto di
poterla ricostruire – lato ricevente –
con un circuito apposito. A tal proposito
definiamo (con riferimento al disegno di
prima) la upper e la lower side band (v.
immagine).
Ora possiamo formulare un’espressione
alternativa per l’oscillazione modulata:
sAM (t ) = s0 (t ) + sUSB (t ) + sLSB (t ) ≡ sDSB (t )
   
portante segnale di segnale di segnale di
upper side band lower side band double side band

Esaminiamo ora da vicino tre varianti (ibride) per la modulazione in ampiezza:


- DSB – SC (Double Side Band Suppressed Carrier – portante soppressa): è
detta anche modulazione a prodotto, in quanto l’oscillazione modulata è così
strutturata
s (t ) = x (t ) cos ( 2π f0t ) (a meno di V0 ) sDSB −SC (t ) = s0 (t ) + sUSB (t ) + sLSB (t )
  
portante segnale di segnale di
upper side band lower side band

In effetti, il circuito modulatore è semplicissimo: esso è costituito da un


modulatore a prodotto che moltiplica x(t) (segnale modulante) per una sinusoide
a frequenza f0 generata da un oscillatore.
Lo spettro di potenza di s(t) (oscillazione modulata) è lo stesso di quello del caso
DSB, ma senza la riga della portante. Eccone infatti la formulazione:
1 1
GS ( f ) = GX ( f − f0 ) + GX ( f + f0 )
4 4
V02 V2
[NOTA: rispetto al caso DSB manca proprio il termine δ ( f − f0 ) + 0 δ ( f + f0 ) ]
4 4
Diamo ora uno sguardo al demodulatore:

Il demodulatore è coerente perché possiede una copia locale della portante, la


quale viene moltiplicata per s (t ) = x (t ) cos ( 2π f0t ) così che un termine di coseno
al quadrato: s (t ) cos ( 2π f0t ) = x (t ) cos2 ( 2π f0t ) .
1 + cos2α 1 + cos2α
Formula di bisezione: cos α = ± ⇒ cos2 α =
2 2
1 1  x (t ) x (t )
x (t ) cos2 ( 2π f0t ) = x (t )  + cos ( 2π ( 2 f0 ) t )  = + cos ( 2π ( 2 f0 ) t )
2 2   2 2
 

segnale in segnale modulato a prodotto


banda base che viene eliminato dal filtro
passa-basso a valle del circuito

Abbiamo dunque in uscita il segnale originario (con ampiezza dimezzata, ma


questo non è un problema, basta moltiplicare per 2 e il gioco è fatto!).
Problema: la copia locale della portante dev’essere perfettamente in fase con la
portante del segnale. Come evitare che ciò – per qualche motivo – non accada?
La soluzione sta nell’integrare, all’interno del demodulatore, un circuito non
lineare di carrier recovery (ricostruzione della portante), il quale riforma la
portante e la fa combaciare col segnale DSB-SC.

NOTA: potevamo, in alternativa, ragionare secondo Fourier.


Prendiamo l’oscillazione modulata
s (t ) = x (t ) cos ( 2π f0t )
Se la trasformiamo secondo Fourier abbiamo che:
F {s (t )} = F {x (t ) cos ( 2π f0t )} = X ( f − f0 ) + X ( f + f0 ) = S ( f )
1 1
2 2
Se vogliamo riottenere X(f) utilizziamo un piccolo trucchetto; prendiamo la S(f),
la trasliamo tutta di f0 e poi sommiamo quel che otteniamo con la stessa S(f)
traslata di − f0 : quindi, facciamo passare il tutto per il filtro passa-basso.
1 1 1 1
X ( f − f0 + f0 ) + X ( f + f0 + f0 ) + X ( f − f0 − f0 ) + X ( f + f0 − f0 ) =
2
 2
 2

 2


traslazione di + f0 traslazione di − f0

1 1 1 1
X (f ) + X ( f + 2 f0 ) + X ( f − 2 f0 ) + X ( f ) = X ( f ) Et voilà!
2 2  

2  

2
mangiato dal passa-basso mangiato dal passa-basso

Apriamo ora una piccola parentesi e vediamo cosa succede se, per qualche
motivo, non vi perfetta è sincronia fra la portante del modulatore e quella del
demodulatore e cioè se abbiamo
portante 1 (modulatore) → cos ( 2π f0t )
  
errore!

portante 2 (demodulatore) → 2cos  2π f0t − ∆ 


 
 
Se chiamiamo p(t) il segnale che esce dal modulatore a prodotto presente nel
blocco di demodulazione, allora si ha
p (t ) = 2x (t ) cos ( 2π f0t ) cos ( 2π f0t − ∆ ) = x (t ) cos ∆ + x (t ) cos ( 4π f0t − ∆ )
 
 

1 1 elliminato dal filtro passa-basso


cos α cos β = cos(α + β ) + cos(α − β )
2 2

Dunque il ricevitore ottiene una versione attenuata di x(t):


caso migliore, tutto resta com'è cos ∆ = 1

x (t ) cos ∆ = attenuazione 0 < cos ∆ < 1
caso peggiore, il segnale scompare cos ∆ = 0

VANTAGGI: non dobbiamo trasportare la portante assieme al segnale, dunque
risparmiamo in potenza.
SVANTAGGI: non abbiamo risparmi di banda.
- SSB (Single Side Band): è detta anche conversione di frequenza. Il principio di
questa modulazione ibrida è quello di “spedire” o solo la USB o solo la LSB, più
la portante:
 sUSB (t )
 
segnale di
 upper side band
sSSB (t ) = 
LSB (t )
 s 
 segnale di
 lower side band
Questo sarà dunque lo spettro di potenza del segnale trasmesso [quello ai lati: la
parte in banda passante si riferisce al segnale originario x(t)]:

Se prendiamo come esempio una modulazione SSB in cui si conserva e si


spedisce solo la USB, allora il modulatore (detto “convertitore di frequenza in
salita”, perché converte da frequenze basse a frequenze alte) è costituito dalla
serie di:
- un modulatore DSB-SC (a prodotto), che moltiplica il segnale modulante
x(t) per il termine cos ( 2π f0t ) ;
- un filtro passa-alto che elimina la componente LSB. NOTA: questo filtro
dev’essere piuttosto severo, in quanto il suo compito è eliminare la LSB
senza distorcere la USB. Il problema è che LSB e USB sono fra loro molto
ravvicinate! Per questo, come vedremo, si utilizza la VSB, preferendo
sacrificare un pochino più di banda alla possibilità di incorrere nel rischio
di una pericolosa distorsione.
Il demodulatore (detto “convertitore di frequenza in discesa”, perché converte da
frequenze alte a frequenze basse) è invece fatto così:
- un modulatore a prodotto che moltiplica il segnale modulante x(t) per il
termine cos ( 2π f0t ) in serie con…
- … un filtro passa-basso (che è poi il solito!).
Anche in questo caso, come in quello precedente, possiamo (con considerazioni
preliminari analoghe) ragionare secondo Fourier: se prendiamo la trasformata
dell’oscillazione modulata, la trasliamo di f0 e poi la sommiamo alla stessa
funzione traslata però di − f0 , otteniamo due USB “isolate” alle alte frequenze
(che vengono sgranocchiate dal filtro passa-basso) e la trasformata di X(t) in
banda-base (che invece sopravvive).
VANTAGGI: risparmiamo il 50% della banda rispetto a quella necessaria per
l’ordinaria modulazione AM!
SVANTAGGI: possibile distorsione dovuta al filtro passa-alto del modulatore.
- VSB (Vestigial Side Band): questa modulazione ha la strana particolarità di
essere “una SSB venuta male”. Viene adottata per i motivi espressi nel caso
precedente (quelli riguardanti i requisiti del filtro passa-alto) e per il fatto che è
difficile utilizzare altre modulazioni con i segnali in banda-base che contengono
anche la continua (frequenza f = 0), come ad esempio il segnale televisivo. Nella
VSB bisogna immaginare di ritagliare l’oscillazione modulata (e quindi lo
spettro del segnale “doppio” traslato a + f0 e − f0 ) con un filtro passa-alto (anche
non severo), ma senza la rigorosa simmetria che caratterizzava la LSB e la
USB. Qui, infatti, prendiamo “un po’ più di metà” delle frequenze della
componente positiva e negativa del segnale. Ad esempio, nel caso televisivo (5
MHz di banda, 10 MHz di occupazione) prendiamo, dai 10 MHz che si trovano
alla frequenza + f0 e dai 10 MHz a − f0 un po’ più di 5 MHz (precisamente 6,25
MHz da ambo le parti).
VANTAGGI: risparmiamo abbastanza banda rispetto al caso AM (anche se non
arriviamo all’eclatante 50% della SSB);
SVANTAGGI: possiamo modulare segnali in banda base senza problemi di filtri.

10. Modulazione QAM (Quadrature Amplitude Modulation)

Con la modulazione QAM trasmettiamo due segnali nella stessa banda: sembra
impossibile, ma non è magia nera! Vediamo come si opera: prendiamo due segnali
modulanti x1 (t ) e x 2 (t )
- il primo segnale [ x1 (t ) ] viene dato a un modulatore a prodotto, che lo
moltiplica per un termine cos ( 2π f0t ) ;
- il secondo segnale [ x 2 (t ) ] viene dato a un altro modulatore a prodotto, che lo

(
moltiplica per un termine cos 2π f0t + π
2 )= − sin ( 2π f0t ) , in quadratura rispetto a
cos ( 2π f0t ) (NOTA: il sfasatura di π 2 si crea utilizzando un opportuno blocco di
ritardo. I modulatori a prodotto di cui stiamo parlando usano infatti una sola
portante, la quale viene offerta una volta così com’è e la un’altra volta ritardata,
appunto, di π 2 . Se così non fosse potrebbe esserci serio pericolo di non ottenere
la corretta sfasatura a causa di mancato sincronismo fra i due oscillatori delle
portanti).
A questo punto sommiamo i due segnali per ottenere s(t), l’oscillazione modulata che
spediamo nel mezzo passa-banda.
(
s (t ) = x1 (t ) cos ( 2π f0t ) + x 2 (t ) cos 2π f0t + π
2 )
= x1 (t ) cos ( 2π f0t ) − x 2 (t ) sin ( 2π f0t )
Ora esaminiamo il demodulatore: esso porta il segnale s(t) a due modulatori a prodotto
con diversa portante…
- il primo dei due ha portante 2 cos ( 2π f0t ) e dà, in uscita, un segnale che
chiamiamo PI (t ) (I sta per “in fase”) e che ha la forma
PI (t ) =  x1 (t ) cos ( 2π f0t ) − x 2 (t ) sin ( 2π f0t )  2cos ( 2π f0t ) =
= 2x1 (t ) cos2 ( 2π f0t ) − x 2 (t ) 2sin ( 2π f0t ) cos ( 2π f0t ) =
 
 

trucchetto!! trucchetto!! → = sin ( 2⋅2π f0t )


1 1
= + cos( 2⋅2π f0t )
2 2

1 1 
= 2x1 (t )  + cos ( 2 ⋅ 2π f0t )  − x 2 (t ) sin ( 2 ⋅ 2π f0t ) =
2 2 
= x1 (t ) + x1 (t ) cos ( 2 ⋅ 2π f0t ) − x2 (t ) sin ( 2 ⋅ 2π f0t ) = x1 (t )
  

componenti ad alta frequenza mangiate dal filtro passa-basso

Come si specifica nel procedimento appena illustrato, quel che esce fuori è
soltanto il segnale (di partenza!) x1 (t ) , perché tutte le altre componenti vengono
eliminate da un filtro passa-basso che mettiamo a valle del modulatore a
prodotto;
- il secondo dei due ha portante −2sin ( 2π f0t ) e dà, in uscita, un segnale che
chiamiamo PQ (t ) (Q sta per “in quadratura”) e che ha la forma
PQ (t ) = −  x1 (t ) cos ( 2π f0t ) − x 2 (t ) sin ( 2π f0t )  2 sin ( 2π f0t ) =
= − x1 (t ) 2sin ( 2π f0t ) cos ( 2π f0t ) + 2x 2 (t ) sin 2 ( 2π f0t ) =
 
 

trucchetto!! → = sin ( 2⋅2π f0t ) trucchetto!!


1 1
= − cos( 2⋅2π f0t )
2 2

1 1 
= − x1 (t ) sin ( 2 ⋅ 2π f0t ) + 2x 2 (t )  − cos ( 2 ⋅ 2π f0t )  =
2 2 
= −x1 (t ) sin ( 2 ⋅ 2π f0t ) − x 2 (t ) cos ( 2 ⋅ 2π f0t ) + x 2 (t ) = x 2 (t )
  

debellati dal filtro passa-basso

Anche questa volta un filtro passa-basso all’uscita del modulatore in questione


elimina tutte le componenti ad alta frequenza e lascia intatto solo il segnale
x 2 (t ) . (NOTA: anche nel demodulatore la sfasatura di π 2 che vi è fra le
portanti dei modulatori a prodotto si crea utilizzando un opportuno blocco di
ritardo e un solo oscillatore. I modulatori a prodotto di cui stiamo parlando
usano infatti una sola portante, la quale viene offerta una volta così com’è e la
un’altra volta ritardata, appunto, di π 2 . Se così non fosse potrebbe esserci serio
pericolo di non ottenere la corretta sfasatura a causa di mancato sincronismo fra
i due oscillatori. Inoltre, si usa un circuito di carrier recovery per essere sicuri
che ci sia la corretta corrispondenza fra demodulatore e modulatore).
Dunque è proprio vero! In una sola banda convivono due segnali i quali, in frequenza,
sono sovrapposti in un intervallo di banda che è di 2 fm . Per capire meglio questa
affermazione trasformiamo l’oscillazione modulata e vediamo come è fatta nel dominio
delle frequenze:
{
S ( f ) = F x1 (t ) cos ( 2π f0t ) + x 2 (t ) cos 2π f0t + π ( 2 )} =
1 1 1 1 
= X1 ( f − f0 ) + X1 ( f + f0 ) + j  X 2 ( f − f0 ) + X 2 ( f + f0 ) 
2
 2
 

2


2
questa parte deriva da x1 (t ) cos( 2π f0t ) questa parte deriva da
(
x2 (t ) cos 2π f0t +π
2)= − x2 (t ) sin ( 2π f0t )

Qui si nota bene che X 2 ( f − f0 ) è sovrapposta a X1 ( f − f0 ) e che lo stesso accade fra


X 2 ( f + f0 ) e X1 ( f + f0 ) .

Piccola parentesi: cosa accade se, per qualche motivo, le oscillazioni dei modulatori a
prodotto non sono ben sincronizzate? Prendiamo ad esempio il demodulatore e
introduciamo un certo sfasamento ∆ fra le portanti

Calcoliamo PI (t ) [segnale in uscita del demodulatore a prodotto con portante


cos ( 2π f0t − ∆ ) ]:
PI (t ) = 2s (t ) cos ( 2π f0t − ∆ ) = 2  x1 (t ) cos ( 2π f0t ) − x 2 (t ) sin ( 2π f0t )  cos ( 2π f0t − ∆ ) =
= x1 (t ) cos ∆ − 2x2 (t ) sin ∆ + termini ad alta frequenza (eliminati dal passa-basso)
Come si vede dalla figura e dalla formulazione di PI (t ) , lo sfasamento è
pericolosissimo perché ha il doppio effetto di:
- attenuare il segnale utile [ovvero x1 (t ) presso PI (t ) e x 2 (t ) presso PQ (t ) ];
- amplificare il segnale sbagliato [ovvero x 2 (t ) ove sussiste PI (t ) e x1 (t ) in
luogo di PQ (t ) ].
Ancora una volta, un grande vantaggio (il risparmio di banda) ottenuto con tanta
fatica viene pagato a caro prezzo: un piccolo errore, infatti, finisce per avere un
grandissimo peso!
11. Spettro di potenza per modulazioni d’angolo (PM, FM): la banda di
Carson

Come già abbiamo visto per quanto riguarda le modulazioni d’angolo, questa è
l’espressione dell’oscillazione modulata:
s (t ) = V0 cos ( 2π f0t + α (t ) )
Purtroppo α (t ) incarna una relazione fortemente non lineare, che non ci permette di
trovare matematicamente l’espressione dello spettro di potenza, né nella maniera
usuale, né in nessun’altra. Esiste tuttavia una relazione “empirica” che riesce a darci,
a grandi linee, l’estensione della banda del segnale modulato ad angolo (banda di
Carson):
 deviazione
massima

 di
  
frequenza 
B = 2 ∆fmax + fm 

  
 =max ∆f (t ) 
 
In base alla modulazione scelta, la massima deviazione di frequenza avrà una diversa
espressione:
CASO FM: = kf M (M è la dinamica del segnale)
1
CASO PM: = kp max xɺ (t )

Comunque sia, pare evidente che un segnale modulato con modulazione d’angolo
occupa una banda molto superiore a quella del caso AM. Infatti
2 ( ∆fmax + fm ) = 2∆fmax + 2 fm > 2 fm
    
espressione della modulazione d'angolo mod. AM
banda di Carson

A titolo d’esempio, la ∆fmax di un segnale FM (del tipo che si riceve abitualmente con la
radiolina tascabile) è di 75 KHz, mentre la sua fm è di “soli” 15 KHz. Dunque un
segnale AM di equivalente frequenza occuperebbe 30 KHz contro i 180 KHz che si
hanno in modulazione di frequenza. Fatta questa considerazione si potrebbe pensare
che le modulazioni d’angolo siano svantaggiose in toto: in realtà esse hanno la
peculiarità di avere un inviluppo (cioè un’ampiezza) costante, particolare che facilita
molto la costruzione dei circuiti di modulazione/demodulazione e che rafforza la
resistenza ai disturbi. Le modulazioni d’ampiezza, che proprio nell’inviluppo portano
l’informazione, sono – sotto questo aspetto – maggiormente attaccabili.

Nonostante la forma dello spettro di potenza di un segnale modulato PM/FM sia


imprevedibile, si possono ancora una volta fare considerazioni qualitative ed empiriche
riguardo ad esso; se prendiamo, per semplicità, un segnale modulante di tipo
sinusoidale (che ha una trasformata a righe), avremo:
- nel caso AM: due righe per la portante (a frequenza + f0 e − f0 ) e quattro righe
(due nella parte positiva e due nella parte negativa) per il segnale modulato;
- nel caso d’angolo (FM/PM): tante righe attorno alle frequenze + f0 e − f0 , tutte
con passo fm .
12. FDM, Frequency Division Multiplexing (modulazione di segnali a
divisione di frequenza)

Si tratta di una tecnica che permette di inviare attraverso uno stesso mezzo passa-
banda più segnali passa-basso opportunamente modulati a diverse (e opportune)
frequenze f1 , f2 , …, fn . Dal punto di vista del ricevente, è possibile ottenere l’i-esimo
segnale passa-basso spedito sapendo a che frequenza quest’ultimo è stato lanciato e
utilizzando un opportuno demodulatore. Ecco lo schema di funzionamento
(nell’esempio i segnali coinvolti sono tre):

I tre segnali di partenza x1 (t ) , x 2 (t ) e x3 (t ) vengono modulati ognuno su una diversa


frequenza, con l’accortezza che le bande alle quali vengono traslati siano
sufficientemente lontane da evitare fatali sovrapposizioni. Le oscillazioni modulate
così ricavate vengono fatte passare attraverso un sommatore, che le unisce e le
prepara quindi per la trasmissione. All’arrivo, i filtri passa banda sagomano quelle che
erano le tre oscillazioni modulate di partenza, che vengono quindi demodulate una ad
una per restituire (se tutto è andato bene) x1 (t ) , x 2 (t ) e x3 (t ) “ritardati”. La
peculiarità della FDT sta nella possibilità di modulare con la tecnica che si ritiene più
opportuna, a patto di rispettare la condizione di non sovrapposizione: dunque
- nel caso AM la distanza fra le portanti dev’essere fi − fi +1 ≥ 2 fm (v. il paragrafo
sulla banda di Carson);
- nel caso SSB-SC (tale tecnica è stata usata per molti anni nel collegamento fra
centrali telefoniche) la distanza fra le portanti dev’essere fi − fi +1 ≥ fm .
Fra le caratteristiche della modulazione FDM vi è quella di poter considerare s(t) come
un segnale a sua volta modulante e, dunque, quella di poter effettuare FDM “doppie” o
a cascata. Per le fibre ottiche esiste una tecnica analoga a questa (WDM, Wavelength
Division Multiplexing).

13. Un esempio di FDM: segnale audio FM stereo

I parametri di questo tipo di segnale sono:


- banda fm : 15 KHz;
- deviazione massima di frequenza ∆fmax = 75 KHz.
La peculiarità del segnale stereo (a differenza del segnale mono, che è singolo) è quella
di veicolare al suo interno sia le informazioni audio destinate alla cassa destra
[segnale R (t ) ] che quelle della cassa sinistra [segnale L (t ) ]. Con l’avvento della
stereofonia, la trasmissione audio-radio si è allineata e standardizzata in questa
direzione: tuttavia, i programmi radio possono essere percepiti sia da un ricevitore
mono che da un ricevitore stereo con un piccolo accorgimento.
Infatti lato RX non si spediscono separatamente il segnale R (t ) e L (t ) – come si
potrebbe pensare – bensì:
L (t ) + R (t )
- il segnale media (quello che riceverà l’utente mono): m (t ) = ;
2
- il segnale differenza (la chiave per ricostruire il segnale destro e sinistro):
L (t ) − R (t )
d (t ) = .
2
Ecco qui di seguito lo schema della modulazione.

LATO TX:

Come si trasmette il segnale? A tutti gli effetti si utilizza una FDM, visto che il
segnale differenza e il segnale media non si sovrappongono, ma – anzi – sono separati
da una portante (a 19 KHz):
- il segnale media è passa-basso;
- il segnale differenza è modulato DSB-SC e centrato ad una frequenza doppia
rispetto alla portante (38 KHz).
I due segnali così ottenuti vengono sommati e quindi modulati in frequenza. Ora il
segnale è diventato passa-banda e può essere trasmesso nel mezzo radio.

LATO RX:

Lato ricevente il segnale viene anzitutto demodulato; dopodiché si cerca di separare la


parte che in trasmissione era passa-basso (il segnale media m(t), che è quello che
ricevono i possessori di apparato mono) da quella a 38 KHz: con un filtro passa-banda
strettissimo si ottiene la portante, la quale viene passata a un demodulatore a
prodotto, che a sua volta si occupa di elaborare e traslare alle frequenze originarie il
segnale d(t). A questo punto il ricevitore stereo può ottenere l’audio della cassa sinistra
sommando m(t) con d(t) e quello della cassa destra sottraendo d(t) da m(t).

14. Equivalente passa-basso di un’oscillazione modulata (inviluppo


complesso)

Se s(t)
s (t ) = V0 1 + m (t )  cos ( 2π f0t + α (t ) + ϕ0 )
è la generica espressione di un’oscillazione modulata, allora il suo equivalente passa-
basso è la funzione i(t)
{
s (t ) = Re i (t ) e j 2π f0t }
L’obiettivo di questo procedimento è quello di depurare il segnale dalla sua frequenza
di posizionamento f0 .
Esaminiamo da vicino i vari casi di modulazione:
- AM: in questo caso l’oscillazione modulata si esprime come
sAM (t ) = V0 1 + ka x (t )  cos ( 2π f0t + ϕ0 )
Dunque è facile ricavare l’equivalente passa basso, perché:
{
s (t ) = Re i (t ) e j 2π f0t }
 
 
s (t ) = Re V0 1 + ka x (t )  e jϕ0 e j 2π f0t 
  
equivalente passa-basso

(posto ϕ0 = 0 , V0 1 + ka x (t )  è una quantità reale e utilizzando Eulero si possono
sciogliere i termini esponenziali generando un termine coseno. Si noti che il
termine f0 non compare nell’equivalente passa-basso)
L’equivalente passa-basso, se la fase iniziale è nulla, non ha parte immaginaria
e, sul piano di Gauss, è individuato da un vettore che modifica la sua ampiezza
scorrendo sull’asse reale. Dunque, ricapitolando, le informazioni che si possono
ricavare dall’equivalente passa basso sono che:
- l’inviluppo non è costante (il vettore modifica la sua ampiezza);
- non vi è alcuna variazione di fase (il vettore sta sempre sull’asse reale).
- FM/PM: nelle modulazioni d’angolo l’oscillazione modulata si esprime così
sAM (t ) = V0 cos ( 2π f0t + α (t ) )
Possiamo quindi trovare anche qui l’equivalente passa-basso
{
s (t ) = Re i (t ) e j 2π f0t }
 
 j 2π f0t 
s (t ) = Re  V0 e
jα (t )

e 
equivalente 
 passa-basso 
t
dove α (t ) = kp x (t ) nel caso PM e α (t ) = 2π kf ∫ x ( ξ ) dξ .
−∞
L’equivalente passa-basso, questa volta, ha una parte immaginaria, che sarebbe
sin α (t ) , ma ha lunghezza costante. Siamo quindi di fronte a un vettore che
ruota attorno all’origine generando una circonferenza (con raggio ovviamente
costante  inviluppo costante); ovviamente questa volta la fase non sarà
costante, essendo pari a:
♦ α (t ) = kp x (t ) nel caso PM
t
♦ α (t ) = 2π kf ∫ x ( ξ ) dξ nel caso FM
−∞
- QAM: l’oscillazione modulata ha la seguente espressione
s (t ) = x1 (t ) cos ( 2π f0t ) − x2 (t ) sin ( 2π f0t )
L’equivalente passa-basso si ricava scrivendo la s(t) in tale forma:
 
 j 2π f0t 
s (t ) = Re   x1 (t ) + jx 2 (t )  e 
 
eqiuvalente passa-basso

π
e perché sin α = cos α + π , provare per credere!)
j
(NOTA: questo perché j = e 2
2
Il vettore che sul piano di Gauss individua l’equivalente passa-basso ha dunque
una parte reale pari ad x1 (t ) e una parte immaginaria pari a x 2 (t ) : siccome
entrambe queste funzioni possono variare, questa volta non avremo né fase né
ampiezza costanti (infatti tale modulazione è ibrida).
- modulazione a prodotto (DSB-SC): l’oscillazione modulata è
 
s (t ) = x (t ) cos ( 2π f0t ) = x (t ) cos  2π f0t + π ⋅ u ( − x (t ) ) 
  
 funzione gradino 

(NOTA: la seconda formulazione di s(t) è perfettamente equivalente alla prima)


In questa modulazione l’equivalente passa-basso è:
 
 j 2π f0t 
s (t ) = Re  x (t ) e 

eq. passa 
 basso 
Dunque, sul piano di Gauss, il relativo vettore si muove sull’asse reale
assumendo valori sia positivi che negativi (derivati dallo sfasamento di π che si
vede bene nella formulazione alternativa di cui sopra). Anche questa volta né
abbiamo inviluppo costante, né fase costante (indice che la modulazione è
ibrida).

Torniamo alla trattazione generale sull’equivalente passa-basso di segnale passa-


banda. Abbiamo detto che esso è una funzione i(t) tale per cui:
{
s (t ) = Re i (t ) e j 2π f0t }
Possiamo ora applicare una proprietà dei numeri complessi, la quale ci dice che:
z + z*
Re {z} =
2
E infatti:
i (t ) e j 2π f0t + i* (t ) e − j 2π f0t
{
s (t ) = Re i (t ) e } j 2π f0t
=
2
Volendo, ora possiamo trasformare secondo Fourier e applicare le proprietà di:
- linearità;
- trasformata del coniugato;
- moltiplicazione per un fasore.
Quel che otteniamo è:
 i (t ) e j 2π f0t + i* (t ) e − j 2π f0t  I ( f − f0 ) + I * ( − f − f0 )
F {s (t )} = F  =
 2  2
Da qui si evince un’altra proprietà importante dell’equivalente passa-basso: nel
dominio delle frequenze esso [cioè I ( f ) ] altro non è che la parte positiva della
F S ( f )  spostata verso lo zero (traslata di f0 e moltiplicata per 2).

15. Equivalente passa-basso e potenza

Possiamo ora fare qualche considerazione sulla potenza dell’inviluppo complesso


(sinonimo di equivalente passa-basso).
Partiamo dalla funzione di autocorrelazione di un’oscillazione modulata a potenza
finita:
Rs (τ ) = s (t ) s* (t − τ )
poi infiliamo dentro questa formula il fatto che, come abbiamo visto poco fa, possiamo
scrivere l’oscillazione modulata così:
i (t ) e j 2π f0t + i* (t ) e − j 2π f0t
s (t ) = Re i (t ) e j 2π f0t
= { 2
}
Si ottiene:
 i (t ) e j 2π f0t + i * (t ) e − j 2π f0t   i (t − τ ) e j 2π f0 (t −τ ) + i * (t − τ ) e − j 2π f0 (t −τ ) 
Rs (τ ) =    =
 2   2 
facciamo un bel respiro e sviluppiamo il prodotto …
i (t ) e j 2π f0t i (t − τ ) e 0 ( ) i (t ) e j 2π f0t i * (t − τ ) e
j 2 π f t −τ − j 2 π f0 (t −τ )

= + +
2 2 2 2

i * (t ) e − j 2π f0t i (t − τ ) e i * (t ) e − j 2π f0t i * (t − τ ) e
j 2 π f0 (t −τ ) − j 2 π f0 (t −τ )

+ + =
2 2 2 2
… notiamo, per fortuna, che qualcosa si semplifica …
( )
i (t ) i (t − τ ) e i (t ) i * (t − τ ) e
j 2 π f0t + j 2 π f0 ( t −τ ) j 2 π f0t − j 2 π f0 t −τ

= + +
4 4

( )
i * (t ) i ( t − τ ) e i * (t ) i * (t − τ ) e
− j 2 π f0t + j 2 π f0 t −τ − j 2 π f0t − j 2 π f0 (t −τ )

+ + =
4 4
… sfruttiamo la linearità del valor medio …
i (t ) i ( t − τ ) e i (t ) i* (t − τ ) e j2π f0τ i* (t ) i (t − τ ) e− j2π f0τ i* (t ) i* (t − τ ) e
j 2π f0t + j 2π f0 (t −τ ) − j 2π f0t − j 2π f0 (t −τ )

= + + +
4 4 4 4

Come si nota, i termini ad alta frequenza scompaiono perché, mediati, restituiscono


zero a causa del termine esponenziale. Quel che rimane è:
i (t ) i* (t − τ ) e j2π f0τ i* (t ) i (t − τ ) e− j2π f0τ
Rs ( f ) = +
4 4
Sviluppiamo ciò che abbiamo appena ottenuto:

costante  
costante
j 2π f0τ − j 2π f0τ
e e e j2π f0τ e− j2π f0τ *
Rs ( f ) = i (t ) i (t − τ ) +
*
i (t ) i (t − τ ) =
*
Ri (τ ) + Ri (τ )
4  4  4 4
Ri (τ ) = i (t )i* (t −τ ) Ri* (τ ) = i* (t )i(t −τ )

Ora che abbiamo una formulazione abbastanza semplice della funzione di


autocorrelazione del segnale s(t), possiamo trasformarla per trovare lo spettro di
potenza:
G ( f − f0 ) Gi ( − f − f0 )
Gs ( f ) = F {Rs ( f )} = i +
4 4
(NOTA: anche questa volta abbiamo utilizzato la linearità della trasformata di
Fourier, la proprietà di trasformata di coniugato e quella di moltiplicazione per un
fasore)
Da questa ultima equazione si evince che, anche per lo spettro di potenza, accade che
la trasformata dell’equivalente passa basso Gi ( f ) sia parte positiva della Gs ( f )
spostata verso lo zero (traslata di f0 e moltiplicata per 4).

16. Esempio notevole: segnale modulante sinusoidale

Prendiamo un generico segnale sinusoidale come, ad esempio:


x (t ) = M cos ( 2π fmt + ϕm )
Supponiamo di sottoporlo alle modulazioni AM, PM, FM e di voler ricavare l’indice di
modulazione “ad occhio” oppure ragionando sui dati delle rilevazioni sperimentali.
- Nel caso di modulazione AM possiamo riuscire nel nostro intento con discreta facilità.
L’oscillazione modulata, infatti, è
s (t ) = V0 (1 + m (t ) ) cos ( 2π f0t + ϕ0 )
(NOTA: non si faccia confusione; moduliamo un segnale sinusoidale con una portante
altrettanto sinusoidale ma, mentre la portante ha frequenza f0 , ampiezza V0 e fase
ϕ0 , il segnale modulante ha frequenza fm , ampiezza M e fase ϕm ).
In questa espressione m(t) è
m (t ) = ka x (t )
Inoltre, sappiamo che
ma = max m (t )
L’inviluppo dell’oscillazione modulata in ampiezza (inviluppo che ha la forma del
segnale modulante) avrà alcuni punti di minimo e di massimo, come si ha per
qualunque sinusoide. Questi punti (misurabili sperimentalmente) possono essere
espressi tramite l’indice di modulazione, visto che quest’ultimo rappresenta il massimo
valore che possiamo infilare dentro l’espressione dell’oscillazione modulata

qui!

s (t ) = V0 1 + m (t )  cos ( 2π f0t + ϕ0 ) :
 
  
V (t )

VMAX = max V (t ) = V0 (1 + ma )
VMIN = min V (t ) = V0 (1 − ma )
Se ora facciamo:
VMAX − VMIN = V0 (1 + ma ) + V0 (1 − ma ) = 2maV0
VMAX + VMIN = V0 (1 + ma ) − V0 (1 − ma ) = 2V0
Quindi, con qualche calcolo algebrico elementare
VMAX − VMIN 2maV0
= = ma
VMAX + VMIN 2V0
- nel caso PM ed FM la storia è un po’ più intricata. Prendiamo ancora il nostro
segnale modulante sinusoidale
x (t ) = M cos ( 2π fmt + ϕm )
ricordando che, per le modulazioni d’angolo, si ha
k p x ( t ) PM

α (t ) =  t

 2π k f ∫ x ( ξ ) dξ FM
 −∞

con l’x(t) sinusoidale queste ultime diventano


kp M cos ( 2π fmt + ϕm ) PM

α (t ) =  t
kf M
2π kf ∫ M cos ( 2π fmξ + ϕm ) dξ = sin ( 2π fmξ + ϕm ) FM
 −∞
fm
Possiamo ora dare una formulazione unitaria di queste due espressioni, espressione
valida, quindi, per le modulazioni d’angolo in generale:
α (t ) = mp sin ( 2π fmt + ψ )
dove
 π
mp = kp M ψ = ϕm + 2 PM
 
  π
cos α =sin  α + 
  2

m = kf M ψ = ϕ FM
 p fm
m

Ora possiamo scrivere così l’oscillazione modulata:


s (t ) = V0 cos ( 2π f0t + α (t ) ) = V0 cos ( 2π f0t + mp sin ( 2π fmt + ψ ) )
E ricavare l’equivalente passa-basso:
i (t ) = V0 e
jα (t ) jmp sin ( 2π fmt +ψ ) jmp sin Φ
= V0 e = V0 e
Come si vede, l’equivalente passa-basso si può considerare periodico rispetto alla
quantità 2π fmt + ψ = Φ con periodo 2π . Sorpresa: possiamo sviluppare il tutto in serie
di Fourier!
∞ 2πΦ ∞
i (t ) = V0 e p ( m )
jm sin 2π f t +ψ jn


= ∑
n =−∞
cn e 2π
= ∑ce
n =−∞
n
jnΦ

funzione di funzione del tempo

Ricordando come si esprimono i coefficienti dello sviluppo in serie di Fourier:


n +π +π
1 − j 2π t 1 1
cn ≜ ∫ x (t ) e T dt
jmp sin Φ − jnΦ jm sin Φ − jnΦ

TT
 cn ≜ ∫
2π −π
V0 e e d Φ = V0 ∫
2π −π
e p e dΦ
 
funzione di Bessel di ordine n
e argomento mp
( )
Jn m p

Dunque, dopo tanta fatica, arriviamo al risultato che ci interessava:


∞ ∞
i= ∑
n =−∞
cn e jnΦ = ∑ V J (m ) e
n =−∞
0 n p
jnΦ

{ }
s (t ) = Re i (t ) e j 2π f0t = V0 ∑ J (m ) cos ( 2π ( f
n =−∞
n p 0 + nfm ) t + nψ )

Le funzioni di Bessel, che non hanno forma chiusa, hanno le seguenti proprietà:
 J ( x ) = ( −1 ) n J ( x )
 −n n

∑ J n ( x ) = 1
2

n
(NOTA: la prima proprietà indica che, se l’indice della funzione di Bessel è pari, allora
anche la funzione stessa sarà pari; allo stesso modo, se l’indice è dispari, la funzione
sarà dispari)
Esse sono fatte così:

La J 0 ( x ) è quella che esprime la riga della componente continua (la frequenza f0 del
segnale modulato), la J1 ( x ) fornisce le righe alle frequenze f0 ± fm , la J 2 ( x ) le righe
alle frequenze f0 ± 2 fm etc…
Nel grafico vi è un valore piuttosto importante: quello in cui scompare la riga della
continua, ovvero il valore per il quale J 0 ( x ) = 0. Tale valore è x = 2,409. La cosa
interessante è che, in questo caso, “l’estensione” (anche se è difficile parlare di
estensione in tale contesto) che le righe occupano nello spettro delle frequenze è
effettivamente pari alla banda di Carson.
V- MODULAZIONI NUMERICHE

1. Modulazioni numeriche: introduzione

Fin’ora abbiamo esaminato il caso in cui un segnale analogico veniva preso ed


elaborato da un modulatore, secondo lo schema:

Segnale analogico  Modulatore  Oscillazione modulata analogica

Vogliamo ora estendere questo caso ai segnali PAM: lo schema, dunque, si allunga un
pochetto:

Segnale digitale  PAM  Segnale analogico  Modulatore  Oscillazione modulata analogica

Come si vede c’è sempre di mezzo un’oscillazione modulata analogica: i modulatori,


infatti, lavorano con portanti sinusoidali (analogiche) e segnali modulati a tutti gli
+∞
effetti analogici [la somma di impulsi x (t ) = ∑ a g (t − nT ) ].
n La differenza, questa
n =−∞

volta, sta nel fatto che questi ultimi derivano da segnali digitali e che, lato ricevente,
questi segnali potranno eventualmente essere demodulati e riconvertiti in segnali
digitali.

2. Modulazione OOK (On-Off Keying)

È il tipo più semplice di “modulazione a prodotto” di segnali numerici. In questa


modulazione i simboli an sono binari e l’oscillazione modulata assume la forma:
+∞
s (t ) = ∑ a g (t − nT ) ⋅ cos ( 2π f t )
n 0
n =−∞

Assumiamo, per ipotesi, che gli impulsi generati dal modulatore PAM siano
rettangolari e di tipo NRZ (ampiezza VM ), e che dunque abbiano la forma
t −T 
g (t ) = VM rect  2
 T 
 
NOTA:
- VM regola l’ampiezza della rect;
- sottrarre T/2 al numeratore serve per far partire la rect, che normalmente è
centrata nell’origine, dall’origine stessa;
- dividere per T serve ad “allungare” la rect, che generalmente ha durata
unitaria.

Dunque la OOK:
- in corrispondenza di an = 0 dà un contributo nullo sull’oscillazione modulata
s(t): si ha 0 ⋅ g (t − nT ) ⋅ cos ( 2π f0t ) = 0 ;
- in corrispondenza di an = 1 genera, sulla s(t), un treno sinusoidale di ampiezza
t −T 
VM : si ha 1 ⋅ g (t − nT ) ⋅ cos ( 2π f0t ) = 1 ⋅ rect  2  ⋅ V cos ( 2π f t ) .
M 0
 T 
 

3. Modulazione L-ASK (Amplitude Shift Key a L livelli)

Facciamo le stesse ipotesi di prima, ma questa volta gli an sono i simboli generati da
una codifica multilivello ad L livelli.
Si ricordi che, in questo caso:
- L = 2l è il numero di livelli;
- l = log 2 L sono i bit per ogni simbolo della nostra codifica;
- i simboli an sono suscettibili dei valori  ±1, ± 3,. .., ± ( L − 1)  , ciascuno dei
quali rappresenta una parola di l bit secondo un codice Gray;
- il tempo di simbolo è: T = log 2 L ⋅ Tb (con Tb tempo di simbolo);
Br
- la frequenza di simbolo è: Bs = .
log 2 L

In questo caso l’oscillazione modulata assume la forma:


+∞
s (t ) = ∑ a g (t − nT ) ⋅ cos ( 2π f t )
n 0
n =−∞

NOTA: qui è facilissimo accorgersi che l’equivalente passa basso del segnale è
+∞
i (t ) = ∑ a g (t − nT ) = x (t )
n
n =−∞

Dunque la modulazione L-ASK è a tutti gli effetti una modulazione d’ampiezza: la


sinusoide viene infatti modulata dall’ampiezza della rect (l’impulso g).
La costellazione di una modulazione L-ASK (ovvero lo schema, disegnato sul piano di
Gauss, dei possibili coefficienti assunti da i(t), rappresentati come dei punti) ha valori
tutti sull’asse reale, in corrispondenza delle ascisse ±VM , ± 3VM ,. .., ± ( L − 1 ) VM .

4. Modulazione M-QAM (Quadrature


Amplitude Modulation), detta anche
L2-QASK (Quadrature Amplitude
2
Shift Key a L livelli)

Abbiamo ancora una volta codici bipolari


o multilivello ma – come accadeva nella
modulazione QAM, la quale permetteva
grazie a due portanti in quadratura la
trasmissione di due segnali modulanti
sulla stessa banda di frequenze – abbiamo
due segnali, entrambi PAM e con lo stesso
numero di livelli e la stessa frequenza di
simbolo:
+∞ +∞
x1 (t ) = ∑ a1n g (t − nT ) x 2 (t ) = ∑ a g (t − nT )
2n
n =−∞ n =−∞

L’oscillazione modulata ha una forma un pelo più complicata rispetto ai casi


precedenti:
+∞ +∞
s (t ) = ∑ a1n g (t − nT ) cos ( 2π f0t ) − ∑ a g (t − nT ) sin ( 2π f t )
2n 0
n =−∞ n =−∞

Questa volta è più difficile verificarlo, ma l’equivalente passa-basso della s(t) è:


+∞
i (t ) = ∑ (a 1n + ja2n ) g (t − nT )
n =−∞

[l’unità immaginaria j fa “ruotare il piano di Gauss”


per il segnale x 2 (t ) , in quanto fa diventare
immaginario il coseno e reale il seno nella formula di
Eulero: in questo modo, estraendo la parte reale, il
seno sopravvive, ma col segno meno, come si vede
dalla formula di s(t)]

Come si nota, avendo per i(t) coefficienti che


dipendono da a1n + ja2n , i punti sulla costellazione
della modulazione QAM saranno L ⋅ L (cioè L relativi
agli a1n e altri L relativi a a2n ). In figura si riporta un
esempio di costellazione per la modulazione 16-QAM
(42 = 16 punti).

5. Modulazione L-PSK (Phase Shift Keying a L livelli)

Ancora una volta facciamo riferimento a un codice bipolare o multilivello: questa volta,
tuttavia, moduliamo in fase visto che l’oscillazione modulata ha la forma
s (t ) = V0 cos 2π f0t + α (t ) 
+∞  t − T − nT  +∞
In questa relazione α (t ) = kp x (t ) = kp ∑ an g (t − nT ) = kpVM ∑ an rect  2 .
 n =−∞ n =−∞  T 
PAM  
π π +∞  t − T − nT 
Assumiamo kp = , in modo che α (t ) = ∑ an rect  2  e dunque i
LVM L n =−∞  T 
 
possibili valori assunti si risultino uniformemente distribuiti sull’angolo giro.
L’equivalente passa-basso dell’oscillazione modulata è:
π
+∞  t −T −nT 
j  t − T − nT 
∑ an rect  2 
 +∞ π
i (t ) = V0 e
jα (t ) L n =−∞ T j an
= V0 e ∑
n =−∞
rect 

2
T
 


= V0 e L

 
La costellazione della modulazione PSK ha forma circolare con punti distribuiti
uniformemente (l’abbiamo imposto noi stessi poco fa).
NOTA: la 4-ASK coincide con la 4-QAM; allo stesso modo la 2-PSK coincide con la 2-
ASK.
6. Modulazioni L-FSK (Frequency Shift Keying a L livelli) L-CPFSK
(Continuous Phase Frequency Shift Keying a L livelli)

Facciamo ancora una volta riferimento ad un codice bipolare o multilivello, ma


consideriamo – in questo contesto – un’oscillazione modulata in frequenza
s (t ) = V0 cos 2π f0t + α (t ) 
+∞
Qui αɺ (t ) = 2π kf x (t ) = 2π kf ∑ an g (t − nT ) , dalla quale otteniamo, integrando,
 n =−∞
PAM
t +∞
α (t ) = 2π kf ∫ ∑ a g (ξ − nT ) dξ
n
−∞ n =−∞

Come si nota, la deviazione di fase α (t ) , a differenza dei casi fin’ora esaminati, ha un


andamento continuo nel tempo, con benefici sull’occupazione spettrale dell’oscillazione
modulata (NOTA: non si pensi però che lo spettro della FSK sia a righe! L’oscillazione
modulata non è affatto una sinusoide): questa peculiarità viene evidenziata con la
sigla CPFSK (Continuous Phase FSK).
Vogliamo ora capire quale sia l’entità della deviazione di frequenza ∆f (che è poi il
vero parametro che caratterizza questa modulazione):
= kf VM
+∞   t − nT − T 
∆f (t ) = ∑ an fd rect  2
n =−∞  T 
 
Questi sono dunque i valori rispetto ai quali ci si discosta dalla frequenza portante f0 ;
da ciò deduciamo che la frequenza istantanea può assumere solo le quantità:
f0 ± fd , f0 ± 3 fd , ..., f0 ± ( L − 1) fd

7. Potenze e spettri nelle modulazioni numeriche

Abbiamo visto nello scorso capitolo che lo spettro di potenza dell’oscillazione modulata
può essere espresso in questo modo:
1 1
Gs ( f ) = Gi ( f − f0 ) + Gi ( f + f0 )
4 4
Dunque possiamo scegliere di trovare Gi ( f ) invece che lanciarci a capicollo sulla
ricerca di Gs ( f ) , tanto il conoscere uno dei due spettri in questione significa conoscere
anche l’altro. L’equivalente passa-basso delle varie modulazioni ha la forma:
i (t ) = ∑ an g (t − nT )
n

Dove i simboli an possono essere reali (L-ASK) oppure complessi (M-QAM, L-PSK).
Diamo ora le espressioni dei relativi spettri di potenza Gi ( f ) delle modulazioni:
E an2 
G(f )
2
- L-ASK:
T 

trasformata
dell'impulso rect
= una sinc

E  µn 
2

- M-QAM:  G f 2
( )
T
2
V2   t 
- L-PSK: 0 F rect   
T   T 
Comune a queste tre espressioni è lo spettro di potenza normalizzato:
 
 
Gi ( f ) 2 f 
= sinc 
Gi ( 0 ) B 
 S 
 symbol 
 rate 
Dunque la
1 1
Gs ( f ) = Gi ( f − f0 ) + Gi ( f + f0 )
4 4
è fatta di due sinc (larghezza del lobo centrale: 2 BS ) a frequenza f0 e − f0 .
NOTA: esiste una relazione tra la symbol-rate di una codifica e il numero di punti
nella costellazione della modulazione
symbol bit-rate
rate 
 Br
BS =
log 2   M 
 numero 
 di punti 
Si noti che maggiore è il numero di punti e minore sarà la banda occupata dal segnale
(il denominatore diventa grande e la sinc più stretta perché BS cala). L’altra faccia
della medaglia è aumenta la difficoltà di ricezione a causa dei rumori.
VI - RADIODIFFUSIONE

1. Modulazione multiportante (MC, Multicarrier Modulation), modulazione


OFDM (Orthogonal Frequency Division Multiplex), broadcasting video (DVB,
Digital Video Broadcasting) e audio (DAB, Digital Audio Broadcasting)

Nel caso dei segnali numerici è di particolare interesse la trasmissione di segnale su


più portanti affiancate nel dominio della frequenza (MC): in questo caso da un flusso
solo si formano, grazie a un convertitore S/P, un insieme di flussi associati a frequenze
diverse (OFDM), le quali sono ortogonali fra di loro in un tempo di simbolo (cioè poste
fra loro ad una distanza pari al tempo di simbolo).
Due esempi notevoli dell’applicazione di tale principio sono
- la radiodiffusione numerica sonora:
- frequenza di cifra: 32 ∼ 192 Kbps (con frequenze doppie nel caso stereo);
- campionamento: 48 KHz (soddisfa Shannon);
- codifica: livello 2 di MPEG-1;
- numero di portanti: 1536;
- larghezza dei blocchi di frequenza: 1,536 MHz in VHF e UHF; ogni
blocco può contenere fino a 6 programmi radiofonici.
- la radiodiffusione numerica televisiva:
- frequenza di cifra: da 5 a 31,5 Mbps;
- codifica: MPEG-2 per il video, livello 2 di MPEG-1 per l’audio;
- numero di portanti: 2k (nelle reti convenzionali) oppure 8k (in reti
isofrequenziali);
- larghezza dei blocchi di frequenza: 8 MHz in VHF e UHF; ogni blocco
può contenere da 6 a 8 programmi video.

Bande di frequenza notevoli nello studio delle comunicazioni elettriche

NOTE: la banda N si estende da 0,3 ⋅10 N a 3 ⋅ 10 N ; lunghezza d’onda: λ = c f .


Numero Simbolo Intervallo frequenze Note
3 ULF 0,3 ⋅10 ∼ 3 ⋅10 Hz
3 3

4 VLF 0,3 ⋅104 ∼ 3 ⋅104 Hz


5 LF 0,3 ⋅105 ∼ 3 ⋅105 Hz Utilizzato per la trasmissione AM
6 MF 0,3 ⋅10 ∼ 3 ⋅10 Hz
6 6
Utilizzato per la trasmissione AM
7 HF 0,3 ⋅10 ∼ 3 ⋅ 10 Hz
7 7

In questa regione si trovano gli


intervalli di frequenza I, II (
8 VHF 0,3 ⋅108 ∼ 3 ⋅108 Hz radiodiffusione FM) e III utilizzati
convenzionalmente nella
radiodiffusione sonora e televisiva
In questa regione si trovano gli
intervalli di frequenza IV e V
utilizzati convenzionalmente nella
9 UHF 0,3 ⋅109 ∼ 3 ⋅109 Hz radiodiffusione sonora e televisiva.
Troviamo anche: bande L ed S per le
radiocomunicazioni spaziali; bande
GSM 900 e GSM 1800 per i sistemi
radiomobili GSM e di terza
generazione.
Bande C, Ku, K, Ka per le
10 SHF 0,3 ⋅1010 ∼ 3 ⋅1010 Hz
radiocomunicazioni spaziali.
11 EHF 0,3 ⋅1011 ∼ 3 ⋅1011 Hz
12 0,3 ⋅1012 ∼ 3 ⋅1012 Hz
13 0,3 ⋅1013 ∼ 3 ⋅1013 Hz
14 0,3 ⋅1014 ∼ 3 ⋅1014 Hz
15 0,3 ⋅1015 ∼ 3 ⋅1015 Hz

2. Politica del segnale televisivo

Il segnale televisivo, come abbiamo visto, viaggia a cavallo fra la VHF (I, II, III) e la
UHF (IV e V). Si ricordi che il segnale video analogico in B/N è un segnale in banda
base con banda 5 MHz e che tale segnale veicola le informazioni riguardanti il
parametro di luminanza (intensità di luce, cioè bianco). Supponiamo che, per la
trasmissione, tale segnale sia trasmesso tramite una portante a frequenza f0 e, fatta
questa ipotesi, esaminiamo come è trasmesso il segnale video analogico a colori:
- tra f0 − 1,25 MHz e f0 + 5 MHz si trova il segnale di luminanza che, come si
osserva, tiene 6,25 MHz (invece che 10 MHz) in virtù di una “economica”
modulazione VSB; tale segnale viene ricevuto sia da chi ha un televisore in B/N
sia dagli utenti in grado di ricevere le trasmissioni a colori;
- attorno a f0 + 4,43 MHz si osserva empiricamente che il segnale di luminanza
presenta, come in altre parti, “dei buchi” generati dalla periodicità dei frame; si
sceglie dunque di porre qui il segnale di crominanza, modulato QAM, il quale,
essendo meno massiccio di quello della luminanza, riesce a stare comodamente
in tale piccolo intervallo di banda; il segnale di crominanza è interpretato solo
dalla TV a colori: se si dispone di solo B/N, tale informazione non viene recepita
e rimane ignorata;
- alla frequenza f0 + 5,5 MHz si modula in FM il segnale audio (tiene circa 130
KHz).
Dunque in totale il segnale video (a colori e analogico) tiene attorno ai 6,75 ∼ 7 MHz
(e circa 8 MHz in UHF).

Cenni sulle politiche di trasmissione dei segnali radio

Come abbiamo visto esiste una legge fisica che indica come la lunghezza d’onda
dipenda dalla frequenza di trasmissione secondo la legge λ = c f . Se si vuole
trasmettere un segnale su un raggio molto ma molto ampio l’ideale è utilizzare
un’antenna molto grande e di notevole potenza in modo da sfruttare le basse frequenze
( onde molto lunghe). Il problema è che tali frequenze sono preziosissime, in quanto
sono in grado di coprire un’area così vasta da risultare occupate su tutto il globo.
Utilizzarle su scala locale sarebbe sprecato, così in quest’ultimo caso si preferisce
collegare fra loro tante stazioni a potenza minore, le quali trasmettono (“ripetono”) lo
stesso segnale su una frequenza più alta (e quindi su un raggio minore). Facendo
l’esempio audio, si sceglie quindi la modulazione AM (che tiene poca banda quindi è
economica) per le preziose frequenze basse e a più grande portata (da VHF in giù),
mentre si preferiscono la modulazione FM e una frequenza più alta per la
trasmissione locale.

3. Trasmissione radiomobile GSM (Global System for Mobile communication)

Nella trasmissione GSM trasmettiamo una segnale audio che in banda base occupa 4
KHz e che viene campionato a 8 KHz per soddisfare Shannon: la bitrate del segnale
digitale così ricavato è di circa 10 ∼ 20 Kbps (compressa dai 64 Kbps originale). Per la
trasmissione si utilizza una tecnica a di multiplazione a divisione temporale (TDM)
con 8 slot differenti, uno per ogni utente, i quali si ripetono periodicamente; la banda
totale utilizzata per 8 conversazioni tiene grosso modo 200 KHz, con differenzazione
tra banda di uplink (invio) e downlink (ricezione). Tale banda è, in realtà, tantissima
se consideriamo il numero di conversazioni telefoniche che si tengono
contemporaneamente in tutto il paese: sarebbe impensabile utilizzare, su tutto il
territorio nazionale, un range di frequenza per ogni conversazione, dunque si sfrutta il
principio del riuso di frequenza e quello della multiplazione statistica. Il primo si
realizza dal momento che esistono, su tutto il territorio, delle celle, ognuna di pochi
chilometri di raggio, le quali sono adeguatamente distanti fra loro in modo da evitare
interferenze. Due celle lontane possono usare per due conversazioni diverse la stessa
frequenza: in questo modo riusciamo ad evitare la necessità di una banda smisurata
per ospitare tutte quante le trasmissioni. Si è inoltre osservato che bastano
relativamente pochi canali per servire una vasta popolazione, dal momento che non
tutti gli utenti intraprendono una conversazione contemporaneamente.

4. Altri collegamenti “notevoli”

Fra i collegamenti notevoli ricordiamo il collegamento P-P, che è quello tra parabole
poste a non più di 50 Km l’un con l’altra: è infatti necessario che le due installazioni
siano reciprocamente in vista e la curvatura terrestre, a questo scopo, è certamente
d’ostacolo. La trasmissione avviene ad una banda molto elevata (circa 10 GHz) e
dunque altrettanto elevato sarà il bitrate.
Molto importante è anche l’uso delle bande ISM (Industrial Scientific and Medical),
per le quali non serve licenza: è quindi possibile trasmettervi liberamente, a patto di
rispettare alcuni vincoli riguardo lo spettro di potenza. Il problema sta nel fatto che
tali bande sono relativamente strette e che vi è poco spazio, dal momento che tutti si
lanciano ad utilizzare le frequenze di cui sopra. Il collegamento Bluetooth e quello WI-
FI rientrano in quest’ambito.

5. Trasmissione passa-banda (radio) di segnali analogici

Esistono due tipologie di sistemi di trasmissione radio del segnale analogico:

5.1 . Sistemi a modulazione/demodulazione diretta

Segnale analogico x(t) passa-basso



Modulatore che riceve la portante a radio-frequenza f0

HPA (High Power Amplifier), un amplificatore di potenza

Trasmissione con antenna

Mezzo radio

Antenna ricevente

Amplificatore a radio frequenza

Demodulatore

Segnale x r (t ) , versione quanto più possibile non distorta di x(t)

Questi circuiti hanno lo svantaggio di essere difficili da progettare, perché devono con
un’unica operazione modulare direttamente alla frequenza f0 e ciò può risultare
abbastanza problematico. Per questo esistono i cosiddetti sistemi a supereterodina.

5.2. Sistemi a supereterodina

Segnale analogico passa-basso x(t)



Modulatore a frequenza intermedia fI

Convertitore di frequenza fI  fm (up converter, o convertitore di frequenza in
salita)

HPA (High Power Amplifier), un amplificatore di potenza

Trasmissione con antenna

Mezzo radio

Antenna ricevente (*)

Amplificatore a radio-frequenza

Convertitore di frequenza fm  fI (down converter, o convertitore di frequenza
in discesa)

Demodulatore

Segnale x r (t ) , versione quanto più possibile non distorta di x(t)

NOTA: per le considerazioni che seguiranno si consulti il capitolo VII – Rumore.


Per quanto riguarda il sistema di trasmissione a supereterodina è possibile, per
l’analisi, utilizzare uno schema concettuale che rende facile la comprensione del
problema: abbiamo
1) un generatore di segnale eS (t ) , che “incarna” tutto ciò che c’è prima
dell’antenna ricevente (*), in serie con la resistenza interna R, la quale
si trova a temperatura TA (temperatura dell’antenna). Questa parte
del circuito scambia con quella successiva una potenza che
chiameremo PR ;
2) un quadripolo che schematizza tutta la circuiteria a IF/RF (frequenza
intermedia/radio frequenza) e cioè i componenti che nella catena di
trasmissione stanno dall’antenna ricevente (*) fino al demodulatore
escluso; tale quadripolo, che soddisfa le condizioni di non distorsione di
gruppo, lavorerà ad una propria banda B, avrà una cifra di rumore F e
una temperatura equivalente di rumore Tr = T0 ( F − 1 ) . A valle di
questa sezione si calcola, in genere, l’SNR (Signal to Noise ratio);
3) un demodulatore che porta il segnale in banda-base;
4) una resistenza R che rappresenta l’utilizzatore.
IPOTESI prese in considerazione:
- tutte le sezioni adattate;
- catena complessivamente non distorcente.

I punti 1) e 2) di tale schema possono essere equivalentemente rappresentati da:


1eq) un generatore di segnale eS (t ) , che “incarna” tutto ciò che c’è prima
dell’antenna ricevente (*), in serie con la resistenza interna R, la quale si
trova a temperatura TSIST , cioè la temperatura di sistema, calcolata così:
TSIST = TA + TR = TA + T0 ( F − 1 )
Utilizzando la formula di Friis possiamo dare un’altra espressione per
TSIST e cioè:
T0 ( FC − 1) T0 ( FIF − 1 )
TR = T0 ( FRF − 1) + +
GdRF GdRF GdC
( FRF , GRF = cifra di rumore / guadagno del ricevitore a radio-frequenza;
FC , GC = cifra di rumore / guadagno del down converter, FIF = cifra di
rumore dell’amplificatore a intermediate frequency). Come si nota, il
contributo maggiore sul rumore proviene sempre dal primo blocco della
cascata (che in questo caso è l’amplificatore a radio-frequenza). È dunque
opportuno che l’amplificatore a radio-frequenza sia un LNA (Low Noise
Amplifier).
2eq) un quadripolo ideale che schematizza tutta la circuiteria a IF/RF
(frequenza intermedia/radio frequenza) e cioè i componenti che nella
catena di trasmissione stanno dall’antenna ricevente (*) fino al
demodulatore escluso; tale quadripolo, che soddisfa le condizioni di non
distorsione di gruppo, lavorerà ad una propria banda B. A valle di questa
sezione si calcola, in genere, l’SNR (Signal to Noise ratio).
Nella risoluzione degli esercizi, ma anche concettualmente, è di grande utilità e
chiarezza disaccoppiare il rumore dai vari componenti e aggiungerlo “tutto in
una volta” a valle dell’antenna ricevente, caratterizzandolo come rumore
additivo gaussiano bianco ν (t ) (AWGN, Additive White Gaussian Noise). Lo
spettro di potenza di questo rumore sarà costante e pari a
N KTSIST
Gν ( f ) = 0 =
2 2
VII – RUMORE

Tutti i circuiti sono in generale sorgenti di fluttuazioni aleatorie nel tempo di tensioni
e/o correnti che si sovrappongono ai segnali stessi e che chiamiamo rumore. Le origini
di questo rumore sono riconducibili alle leggi che regolano il funzionamento
microscopico dei dispositivi, che sono di tipo statistico e non deterministico.

1. Le cause principali del rumore: effetto Johnson

Prendiamo un circuito semplicissimo, costituito da un resistore R e da un generatore


di tensione V0 . La corrente che circola nel circuito, secondo la legge di Ohm, sarebbe:
V0
I=
R
Invece, si osserva che così non accade. L’evidenza sperimentale (effetto Johnson) è che
la corrente in realtà “oscilla” lievemente attorno a un valore medio, che è
effettivamente quello della legge di Ohm. Si ha dunque:
V
i (t ) = 0
R
Mentre la corrente (istantanea) dipende dal tempo ed è pari a:
V
i ( t ) = 0 + δ i (t )
R
Allo stesso modo, se nel circuito caviamo il generatore di tensione, ci aspetteremmo di
misurare una differenza di potenziale nulla ai suoi capi; anche questa volta, invece,
l’esperienza ci contraddice: quel che si osserva è che vi sono delle leggerissime
fluttuazioni attorno al valore nullo di tensione. Tale fluttuazioni sono fonte di rumore e
il resistore si dice dunque rumoroso: attuando un artificio teorico tale componente può
essere sostituito con un generatore di tensione fluttuante (generatore di rumore) e con
un resistore cosiddetto non rumoroso. Se siamo più generali (in modo da poter
quantificare l’effetto Johnson anche con induttori e condensatori), e prendiamo in
considerazione un’impedenza Z, l’artificio di cui sopra consiste nel sostituire tale
impedenza (rumorosa) con il famoso generatore di tensione fluttuante più la parte
puramente resistiva R dell’impedenza e la parte puramente reattiva di quest’ultima
jX eq , entrambe non rumorose.
A cosa sono dovute le fluttuazioni? Il fatto è che il resistore è un conduttore e, in
quanto tale, possiede elettroni di conduzione che si muovono di agitazione termica
casuale e disordinata. A causa di questo movimento così caotico, sebbene mediamente
gli atomi e gli elettroni sono fermi, istantaneamente ciò non accade: tale fenomeno,
incontrollabile e assolutamente stocastico, dipende dalla temperatura – essendo
appunto dovuto ad agitazione termica – e, essendo a tutti gli effetti costituito dalla
somma di tantissimi processi indipendenti, è interpretabile come campione di un
processo aleatorio gaussiano ergodico a valor medio nullo e spettro bianco. Per
caratterizzare un processo gaussiano ergodico servono unicamente la funzione di
autocorrelazione o lo spettro di potenza: di quest’ultimo, in particolare, è stata data
un’espressione ricavata sperimentalmente
2Rh f
Ge ( f ) = h f
e kT − 1
In questa formula:
 R è il valore, in Ohm, della resistenza in questione;
 f è la frequenza alla quale stiamo lavorando;
 k è la costante di Boltzmann (1,38 ⋅10 −23 J/K );
 h è la costante di Planck ( 6,626 ⋅ 10−31 J/Hz );
 T è la temperatura del resistore, in gradi Kelvin.
Il grafico di questo spettro assume un valore costante (è bianco) per un range di
frequenze pari a [ −1011 , +1011 ] , dopodiché decade nel giro di poche unità logaritmiche.
Per capire quale sia questo valore costante facciamo un passaggio al limite:
2Rh f f →0
2Rh f 2R
 → = = 2RkT perché lim e x = 1 + x
hf
hf 1 x →0
e kT − 1 1+ −1
kT kT

limite notevole

Da cui:
Ge ( f ) = 2RkT GeMONO ( f ) = 4 RkT [V2 / Hz]
(formula di Nyquist)
hf
È per questo motivo che, se << 1, e ciò – sapendo che k = 2 ⋅ 1010 – avviene
kT h
proprio nel range di frequenze [ −10 , +10 ] , lo spettro assume valore costante.
11 11

Alla luce dei calcoli appena fatti, vogliamo ora dare un’espressione del rumore in
funzione di una qualsivoglia porzione di banda [±f, ±(f+B)] (dove essa è costante):
consideriamo dunque un resistore R a temperatura assoluta T. La potenza del rumore
nella banda B sarà:
Pe ,B ≜ eB2 (t ) = 2kTR ⋅ 2B = 4kTRB  V 2 
(nota: c’è 2B perché bisogna considerare sia la porzione positiva che quella negativa
delle frequenze)
Questo vuol dire che il valore efficace del segnale-rumore è:
eB ,eff ≜ 4kTRB  V 
Tipicamente la potenza di rumore è dell’ordine dei microVolt (esempio numerico con: R
= 1 kΩ, T = 290 K, B = 5 MHz  Risultato: 9 µV ): tale quantità potrebbe essere
rilevante se confrontata con segnali deboli, mentre è trascurabile con segnali
dell’ordine del Volt o milliVolt.

Alla luce dell’analisi appena fatta, possiamo dire che un qualsiasi resistore si comporta
come una sorgente calibrata di rumore.

1b. Adattamento in potenza: potenza disponibile

Se abbiamo un circuito costituito da due parti:


- una parte con un generatore di tensione eS (t ) dotato di resistenza
interna R;
- l’altra parte con un carico resistivo RC . A tale carico il generatore di
tensione cede una potenza PS .
Allora dicasi potenza disponibile della sorgente di segnale eS (t ) il valore
massimo di PS , cioè PS max . Si può dimostrare che, in questo semplice caso, il
massimo trasferimento di potenza si ha quando RC = R : allora si dice che il
carico è adattato alla sorgente. È facilissimo dimostrare che, se il carico è
e (t )
adattato alla sorgente, la differenza di potenziale ai capi di RC è S (metà
2
della forza elettromotrice viene dissipata nella resistenza interna R, l’altra metà
è destinata al carico resistivo): di conseguenza la potenza PS max sarà
V2 eS2 (t ) e
PS max ≜ = = S ,eff
R 4R 4R
Questo valore ha più significati:
- è la potenza disponibile della sorgente;
- è la massima potenza trasferibile a un carico;
- è la potenza assorbita da un carico adattato.

Nel caso generale, lavorando con le impedenze, e avendo un circuito siffatto:


- da una parte un generatore di tensione eS (t ) dotato di impedenza
interna Z;
- dall’altra un carico resistivo ZC . A tale carico il generatore di tensione
cede una potenza PS .
Allora l’impedenza di carico è adattata quando ZC = Z * .

1c. Guadagno disponibile di un apparato

Prendiamo un quadripolo generico Q:


- in “ingresso” poniamo un generatore di tensione eS (t ) dotato di
resistenza interna R. La potenza disponibile in entrata è quindi PS max ;
- in uscita sistemiamo un carico resistivo RC . Se ci poniamo in questa
parte del circuito e guardiamo verso la prima (cioè verso il quadripolo e il
generatore con resistenza), allora quest’ultima può essere vista (secondo
Thévenin) come la serie fra un generatore di f.e.m. eSU (t ) e la sua
resistenza interna RU (potenza disponibile PSU max ).
Allora il guadagno disponibile di un apparato è:
P
Gd = Gd ( f , R,Q ) = SU max
PS max
Se il quadripolo è adattato sia in ingresso che in uscita, il guadagno disponibile
coincide con quello effettivo, cioè con
P
G = SU
PS
 R = RI (resistenza d'ingresso)
L’adattamento in ingresso e in uscita si ha con:  .
 RC = RU (resistenza d'uscita)
Se poi, in particolare, R = RC si parla di livello di impedenza dell’apparato: tale
valore è quello che mi realizza l’adattamento in potenza.
Si po’ dimostrare che la coppia ( RI , RC ) che risolve il sistema sopra indicato
esiste sempre ed è unica.

OSSERVAZIONI:
- le considerazioni appena fatte sono valide se è costante la frequenza di
lavoro f [Hz];
- nella pratica si cercano di fare impedenze puramente resistive e
costanti, in modo da ottimizzare la situazione;
- per fare queste osservazioni è sufficiente che Q sia lineare.

Se abbiamo una serie di apparati in cascata (quadripoli Q1 , Q2 , ..., Qn con


guadagno rispettivamente pari a Gd1 , Gd 2 , ..., Gdn ), allora possiamo sostituire
tale struttura con un unico quadripolo con guadagno disponibile
n
Gd = ∏ Gdi
i =1

Anche in questo caso, il guadagno disponibile coincide col guadagno “vero” se


tutte le sezioni sono adattate.

Tornando alle nostre considerazioni sul rumore, consideriamo il solito semplicissimo


circuito formato da:
- una resistenza rumorosa, che è equivalente ad una resistenza ideale R in serie
con un generatore di f.e.m. fluttuante e (t ) ;
- un carico adattato (quindi con resistenza pari a R).
Con le stesse ipotesi che abbiamo fatto prima possiamo dire che:
e (t )
- la tensione ν (t ) ai capi del carico adattato è pari a (l’altra metà si è
2
dissipata sulla resistenza interna del generatore);
- lo spettro del monolatero del rumore è: GνMONO ( f ) = kTR  V .
2

 Hz 
Quale sarà la potenza disponibile del rumore dN in una banda di ampiezza
infinitesima [±f, ±(f+df)] (ovvero la potenza ceduta al carico dalla resistenza
rumorosa)? Per trovarla basta fare:
kTR df
dN = = kTdf [W]
R
Possiamo infatti definire la densità spettrale di potenza ceduta al carico in termini di
Watt:
dN kTdf kT  W 
GN ( f ) = = =   e GNMONO ( f ) = kT
2 ⋅ df 2 ⋅ df 2  Hz 
(NOTA: il 2 al denominatore deriva dal fatto che c’è sia la parte di banda positiva che
quella negativa)

2. Le cause principali del rumore: rumore granulare (shot noise)

Consideriamo un circuito costituito da un generatore di tensione costante V0 con in


serie un diodo a giunzione polarizzato nel senso della conduzione della tensione in
questione. Sperimentalmente si osserva che la corrente che scorre nel circuito è
lievemente fluttuante: l’espressione della corrente (che dunque è funzione del tempo)
risulta infatti essere
i (t ) = I 0 + δ i (t )

fluttuazione
aleatoria

Quel che osserviamo è detto rumore granulare: esso è legato al carattere discreto del
flusso di corrente del dispositivo, che non è prodotto dal moto di un fluido continuo, ma
da portatori elementari di carica; si dice in particolare che la corrente ha un carattere
granulare in quanto gli elettroni non attraversano la giunzione in modo lineare. La
componente fluttuante che ne deriva è sperimentalmente considerabile come un
processo aleatorio gaussiano ergodico e, indicando con τ K la durata
dell’attraversamento della giunzione da parte del k-esimo portatore di carica, la
formula di Schottky ci dà l’espressione dello spettro di potenza (costante e dunque
bianco):
1
Gδ i ( f ) = qI 0  A 
2
per f <<
 Hz 
 max τ K
Possiamo, anche per questo caso di studio, indicare un artificio teorico che permette di
sostituire a un diodo rumoroso un diodo non rumoroso posto in parallelo a un
generatore di corrente fluttuante δ i (t ) legata a I 0 .
NOTA: lo shot noise non si può ridurre abbassando la temperatura.

3. Le cause principali del rumore: rumore di ripartizione (partition noise)

Il rumore di ripartizione entra in gioco dei dispositivi tripolari (ad es. il BJT) ed è
causato da quella parte di tensione che fuoriesce dalla base del transistore.

4. Le cause principali del rumore: rumore rosa (flicker noise)

Questo tipo di rumore è dovuto ad irregolarità e microimperfezioni nella costruzione


dei resistori, i quali si ritrovano ad avere resistenza leggermente variabile. La densità
spettrale di questo tipo di rumore è quantificabile in
costante
G(f ) = α
f
(con α circa uguale a 1)

5. Temperatura equivalente di rumore per apparati lineari

Per introdurre il concetto di temperatura equivalente di rumore prendiamo in


considerazione un quadripolo Q. Tale apparato produrrà, al suo interno, del rumore
dovuto agli effetti già visti (shot noise, rumore termico, etc…): se quindi, lavorando in
una banda di frequenze infinitesima [ f , f + df ] prendiamo tale quadripolo rumoroso Q
(guadagno disponibile Gd , tutte le sezioni adattate) e
- poniamo da una parte (ingresso) una resistenza R a temperatura assoluta T0
(potenza entrante nell’apparato  dN i = kT0 df )
- colleghiamo agli altri due morsetti un carico adattato RC (potenza uscente
dall’apparato  dNU )
allora possiamo dividere la potenza dNU in due contributi:
dNU ( f ) = dNU′ ( f ) + dN A ( f )
   
potenza ceduta al contributo dovuto
carico se il quadripolo soltanto al rumore
non fosse rumoroso dell'apparato

Utilizziamo ora le relazioni studiate e il guadagno disponibile per esprimere in un


altro modo questi due apporti di rumore:
= KT0df = KTRGd df
  

dNU ( f ) = dN I ⋅ Gd + dN A ( f )
   
potenza ceduta al contributo dovuto
carico se il quadripolo soltanto al rumore
non fosse rumoroso dell'apparato

Come si vede, abbiamo espresso il rumore dovuto all’apparato come kTRGd df , dove
TR incarna un delta di temperatura con il quale si può “convertire” il rumore del
quadripolo, “trasferendo la colpa di tutto sull’effetto Johnson” (cit.). In sostanza,
aggiungendo questo TR alla temperatura del resistore R (che va a T0 + TR ), e
considerando il quadripolo come non rumoroso, la situazione rimane invariata.
Dunque
dNU ( f ) = kT0Gd df + kTRGddf = k (T0 + TR ) Gd df
   
potenza ceduta al contributo dovuto
carico se il quadripolo soltanto al rumore
non fosse rumoroso dell'apparato

da cui
dNU ( f )
= T0 + TR = temperatura equivalente di rumore dell’apparato
KGd df
Come si nota, tale temperatura equivalente Teq = T0 + TR è funzione:
- del quadripolo (e del suo guadagno);
- della frequenza di lavoro;
- della resistenza R (per via dell’adattamento).
Interessante osservazione: non dipende da T0 !

Com’è possibile misurare sperimentalmente la temperatura equivalente di rumore?


Si prende il solito trito e ritrtito apparato:
- quadripolo Q con guadagno disponibile Gd ;
- resistenza R a temperatura T ai morsetti d’ingresso;
- potenza complessiva di rumore di uscita pari a dNU .
Poi si cambia la temperatura per avere:
- resistenza R a temperatura T * ai morsetti d’ingresso;
- potenza complessiva di rumore di uscita pari a dNU* .
Nel primo caso la potenza complessiva di rumore in uscita sarà:
dNU = k (T + TR ) Gd df
Mentre, nel secondo caso:
(
dNU* = k T * + TR Gd df )
Facendo il rapporto otteniamo:
dNU k (T + TR ) Gd df T +T
= = * R =η
(
dNU k T + TR Gd df T + TR
* *
)
La temperatura equivalente di rumore è quindi esprimibile facilmente così:
T − ηT *
TR =
η −1

6. Cifra di rumore (NF, Noise Figure)

Consideriamo l’apparato visto nel paragrafo 5: un quadripolo rumoroso Q (guadagno


disponibile Gd , tutte le sezioni adattate) con
- da una parte (ingresso) una resistenza R a temperatura assoluta T0 (potenza
entrante nell’apparato  dN i = kT0 df )
- agli altri due morsetti un carico adattato RC (potenza uscente dall’apparato 
dNU ).
Come già abbiamo visto:
dNU ( f ) = dNU′ ( f ) + dN A ( f ) = kT0Gd df + kTRGddf = k (T0 + TR ) Gddf
       
potenza ceduta al contributo dovuto potenza ceduta al contributo dovuto
carico se il quadripolo soltanto al rumore carico se il quadripolo soltanto al rumore
non fosse rumoroso dell'apparato non fosse rumoroso dell'apparato

dNU
Definiamo allora cifra di rumore F ≜ ; tale quantità può essere anche espressa in
dNU′
funzione di T0 e TR :
dNU k (T0 + TR ) Gd df T0 + TR T
F ≜ = = =1+ R
dNU′ kT0Gd df T0 T0
Qui è evidente che:
- se TR T0 = 1 il quadripolo non è rumoroso;
- se TR T0 > 1 il quadripolo è rumoroso.

NOTE:
dNU
- la cifra di rumore è spesso espressa in dB: F[dB] = 10 log ;
dN ′ U

- la cifra di rumore dipende da:


- il quadripolo Q;
- la frequenza di lavoro f;
- la resistenza R generatrice di rumore termico;
- la temperatura assoluta T0 della resistenza R (se nulla si specifica, si
intende T0 = 290 K .
- se ho F posso trovare TR :
- TR = ( F − 1 ) T0 (con F in unità lineari).

Esaminiamo ora un caso particolare: prendiamo


- un attenuatore normale (cioè senza dispositivi a semiconduttore), ad esempio
un cavo, a temperatura assoluta TA e caratterizzato da parametro di
attenuazione A (si ricordi che A = G −1 ). Potenza uscente dall’apparato  dNU ;
- una resistenza R, anch’essa a temperatura TA , collegata all’attenuatore.
Allora, al solito, dNU = k (TA + TR ) Gd df .

1 A

Ora applichiamo Thévenin all’uscita e guardiamo verso l’apparato (attenuatore +


resistenza): quel che vediamo è un’unica resistenza RU a temperatura TA . La potenza
ceduta al carico dNU può ora essere espressa in un secondo modo:
dNU = kTA df
Ora uguagliamo le due quantità
1
k (TA + TR ) df = kTA df
A
(TA + TR ) = T
 TR = ( A − 1) TA
A
A
Come abbiamo detto, se abbiamo F possiamo trovare TR (e viceversa); dunque:
TR
=1+
( A − 1) TA
F =1+
T0 T0
Se poniamo TA = T0 (lavoriamo a temperatura ambiente):
F =A

7. Apparati rumorosi in cascata e formula di Friis

Prendiamo una serie di n apparati rumorosi in cascata, tutti vicendevolmente adattati


fra di loro: al primo ( Q1 , caratterizzato da temperatura TR1 , guadagno disponibile Gd1 ,
cifra di rumore F1 ) colleghiamo in entrata un resistore R; in uscita poniamo un
secondo quadripolo ( Q2 , caratterizzato da temperatura TR 2 , guadagno disponibile Gd 2 ,
cifra di rumore F2 ) e poi continuiamo a collegare in serie fino all’ultimo componente
( Qn , caratterizzato da temperatura TRn , guadagno disponibile Gdn , cifra di rumore
Fn ). Si ha che a tale cascata di quadripoli equivale un solo quadripolo Qeq (anch’esso
n
adattato), caratterizzato da temperatura TR , guadagno disponibile Gd = ∏ Gdi e cifra
i =1

di rumore F . Chiamiamo ancora una volta


dN A = kTRGd df
la potenza ceduta al carico e dovuta a tutti gli apparati.
In realtà, dN A è la somma di tanti contributi:
  
parte di rumore indotta dal primo quadripolo

  
parte di rumore indotta dal secondo quadripolo

dN A =  kTR1Gd1df  ⋅ Gd 2Gd 3 ⋅ ... ⋅ Gdn  +  kTR 2Gd 2df  ⋅ Gd 3Gd 4 ⋅ ... ⋅ Gdn  + ... +
          
contributo del primo ... che passa attraverso tutti contributo del secondo ... che passa attraverso tutti
quadripolo della serie... gli altri quadripoli della cascata quadripolo della serie... gli altri quadripoli della cascata
parte di rumore indotta
 
dall'ultimo
parte di rumore indotta dal penultimo quadripolo
  

quadripolo

+  kTR (n −1)Gd (n −1)df  ⋅ Gn +  kTRnGdn df  = kTRGd df


  ... che passa

attraverso
contributo del penultimo l'ultimo
quadripolo della serie...

Se ora dividiamo per k, df e per Gd = Gd1Gd 2Gd3 ⋅ ... ⋅ Gdn otteniamo che
TR 2 TR 3 TRn
TR = TR1 + + + ... +
Gd1 Gd1Gd 2 Gd1Gd 2Gd 3 ⋅ ... ⋅ Gd( n −1)
Tale equazione è detta formula di Friis e illustra come, nella sommatoria che
costituisce l’apporto totale di rumore, il contributo del blocco i-esimo venga attenuato
dal prodotto dei guadagni dei blocchi che lo precedono. Appare quindi evidente che i
blocchi più critici siano i primi della serie, quelli in testa alla cascata: si vuole che
questi abbiano un guadagno molto alto e una piccola cifra di rumore e, dunque, che
possano essere considerati come dei LNA (Low Noise Amplifier, amplificatori a basso
rumore).
T
Sostituendo alla formula di Friis la relazione F = 1 + R ⇒ TR = ( F − 1) T0 otteniamo:
T0
F − 1 F3 − 1 Fn − 1
F = F1 + 2 + + ... +
Gd1 Gd1Gd 2 Gd1Gd 2Gd3 ⋅ ... ⋅ Gd(n −1)

8. Temperatura equivalente di rumore della sorgente

Le antenne e più generalmente le sorgenti di informazione, come gli altri componenti


che abbiamo preso fin’ora in considerazione, non sfuggono al rumore: una sorgente non
può essere semplicemente schematizzata come un generatore di tensione/corrente
perché
- avrà una sua resistenza interna R (consideriamola non rumorosa);
- genererà rumore per effetto termico e per altre cause (quali quelle già trattate)
 generatore di rumore e (t ) ;
- sarà sorgente di potenza utile  generatore ideale di segnale eS (t ) .
Ponendo in serie queste tre entità ricaviamo una valida rappresentazione della nostra
sorgente e teniamo anche conto del rumore; possiamo quindi ridurre il numero di
questi componenti da tre a due con il solito escamotage, trasferendo, ovvero, tutta la
rumorosità sulla resistenza R (che consideriamo a temperatura più alta). Se il rumore
prodotto dalla sorgente e disponibile nella banda infinitesima di frequenza [ f , f + df ]
lo addossiamo tutto quanto all’effetto Johnson, allora possiamo esprimerlo come
dN S = kTS df . Dunque la temperatura equivalente di rumore della sorgente (detta
anche temperatura equivalente di rumore d’antenna) sarà
dN S
TS =
k df
Possiamo spingerci ancora più avanti e unificare il rumore d’antenna col rumore del
circuito a cui questa antenna è collegato (tipicamente il ricevitore, rappresentato come
un quadripolo Q, con sezioni tutte quante adattate). Prima di tutto trasferiamo tutta
la componente di disturbo come temperatura “virtuale” equivalente sulla resistenza R,
che sarà a temperatura:
TSIST = TS + TR
(temperatura di sistema)
La densità spettrale di rumore di questo rumoroso resistore sarà, come abbiamo già
visto:
 V2 
Ge ( f ) = 2kTSIST R  
 Hz 
Il passo successivo è quello di disaccoppiare il rumore dalla resistenza R e
considerarlo, a parte, come generatore.
Avremo quindi, collegati a un quadripolo Q non rumoroso:
- un rumore complessivo e (t ) (sotto forma di forza elettromotrice di rumore) che
tiene conto del rumore dell’antenna, della resistenza interna e dunque anche del
quadripolo (che ora è ideale);
- una resistenza R non rumorosa;
- la vera e propria sorgente di segnale utile eS (t ) .
Ai capi del quadripolo cui è collegata la serie di questi componenti avremo una caduta
di potenziale che sarà data dalla somma di due contributi:
e (t )
- per il segnale utile eS (t ) : s (t ) = S ;
2
e (t )
- per il rumore e (t ) : ν (t ) = (rumore additivo gaussiano bianco, AWGN)
2
1 kTSIST R  V 2  kTSIST  W 
 spettro di potenza Gν ( f ) = Ge ( f ) =  = ;
4 2  Hz  2  Hz 
W W
 in versione monolatera GνMONO ( f ) = kTSIST   = N0  .
 Hz   Hz 
NOTA: il fattore 1/2 deriva dal fatto che metà di queste tensioni sono cadute sulla
resistenza non rumorosa R.
Siccome il quadripolo è lineare possiamo dare, in uscita, sR (t ) e n (t ) . Ecco il percorso
completo:
- s(t) viene sommato al rumore ν (t ) (che dipende da TSIST ). Il tutto in un solo
passaggio;
- s (t ) + ν (t ) passa attraverso il quadripolo;
- in uscita abbiamo sR (t ) + n (t ) .
Come già detto si parla di AGN (Additive Gaussian Noise) e, più specificatamente, di
AWGN (Additive White Gaussian Noise).
VIII – LINEE DI TRASMISSIONE E
TRASMISSIONE ANALOGICA IN BANDA BASE

1. Generalità sulle linee di trasmissione

Per linea di trasmissione intendiamo generalmente una coppia di conduttori


tipicamente isolati. Una tratta di linea di trasmissione ha una certa impedenza;
consideriamo ad esempio una linea di lunghezza semi-infinita (oggetto
monodimensionale), collegata ad un generatore di onde sinusoidali: se fissiamo un
sistema di riferimento (semi-asse x) che ha per origine il generatore e che si estende
(infinitamente) nella direzione della linea di trasmissione, possiamo scegliere di porci
ad una determinata coordinata xɶ . Allora:
- se guardiamo nella direzione positiva dell’asse vedremo una certa impedenza
Z0 associata alla linea. Essendo la linea semi-infinita, tale impedenza sarà
sempre la stessa (ci si può spostare dove si vuole che, in ogni caso, si avranno
infiniti metri di linea da lì in poi). Per le linee ben costruite questa impedenza è
di tipo puramente resistivo ( Z0 = R [ Ω ] ): i valori tipici di tale impedenza sono
stati standardizzati e posti pari a 50 o 75 Ω;
- mentre (nell’origine) il generatore di tensione emetteva un segnale sinusoidale
del tipo
VM ( 0 ) cos ( 2π ft + ϕ ( 0 ) )
alla coordinata xɶ la tensione sarà
VM ( xɶ ) cos ( 2π ft + ϕ ( xɶ ) )

valore di picco
della sinusoide

Il valore di picco VM ( xɶ ) può essere calcolato in questo modo:


VM ( xɶ ) = VM ( 0 ) e −α xɶ
Come si vede il decadimento è di tipo esponenziale ed è regolato dal parametro
α = α (f )
(la dipendenza è secondo la f )
Il parametro α x è misurato spesso in unità logaritmiche:
V ( 0 ) 1 P ( 0 )  Neper 
- in Neper su unità di lunghezza: α x = ln M = ln ;
VM ( x ) 2 P ( x )  m 
VM ( 0 ) P ( 0 )  dB 
- in decibel: A = 20 log = 10 log .
VM ( x ) P ( x )  m 
- la potenza media che entra nella linea alla sezione xɶ è
VM2 ( xɶ )
P ( xɶ ) = [W]
2R
(NOTA: il fattore 1/2 deriva dal fatto che calcoliamo una potenza media.
C’è di mezzo un coseno e il valor medio del cos2 è proprio 1/2)
Per trovare la potenza entrante è possibile anche utilizzare la relazione
P ( xɶ ) = P0 ⋅10 −α xɶ
P (0) A[dB]

In questo caso il fattore di attenuazione α = α ( f ) è pari a α = = 10 10 .


P ( xɶ )
2. Effetto del rumore sui collegamenti nella trasmissione analogica in banda
base

La trasmissione avviene in questa sequenza (NOTA: per ora trascuriamo il rumore):


- SORGENTE ANALOGICA: che emette un segnale analogico x(t);
- TRASMETTITORE: il quale, appunto, spedisce il segnale analogico attraverso
il mezzo di propagazione. Immaginiamo che sia anche LTI con funzione di
trasferimento HT ( f ) ;
- MEZZO DI PROPAGAZIONE: è passa-basso (potrebbe essere anche la linea di
trasmissione di cui si parla nel paragrafo 1). Immaginiamo che sia anche LTI
con funzione di trasferimento H MP ( f ) ;
- RICEVITORE: prende in consegna il segnale, che si suppone non distorto e
dunque avente la forma
Ax (t − t0 )
Immaginiamo che il ricevitore sia anche LTI con funzione di trasferimento
HR ( f ) .
- DESTINATARIO.

Il segnale utile, in pratica, viaggia attraverso la cascata di:

trasmettitore + mezzo di propagazione + ricevitore


x(t)   v(t)
HT ( f ) H MP ( f ) HR ( f )

Volendo che si verifichi la relazione


v (t ) = Ax (t − t0 )
e che il segnale v(t) sia una versione non distorta di x(t), dobbiamo porre il vincolo
sull’ampiezza
HT ( f ) ⋅ H MP ( f ) ⋅ H R ( f ) = A
e fissare la condizione sulla linearità dell’argomento
arg ( HT ( f ) ⋅ H MP ( f ) ⋅ H R ( f ) ) = −2π ft0
Non è necessario che queste equazioni valgano per ogni f: è infatti sufficiente che siano
vere nella banda di lavoro f < fm . Per verificare tali condizioni di non distorsione
posso, ad esempio, agire sul ricevitore ed attribuire ad esso i vincoli di cui sopra,
modellando la sua funzione di trasferimento e rendendo il tutto complessivamente
non-distorcente:
A
HT ( f ) ⋅ H MP ( f ) ⋅ H R ( f ) = A  HR ( f ) =
HT ( f ) ⋅ H MP ( f )
arg ( HT ( f ) ⋅ HMP ( f ) ⋅ HR ( f ) ) = −2π ft0  arg ( HR ( f ) ) = −arg ( HT ( f ) ) − arg ( HMP ( f ) ) − 2π ft0
In queste due ultime relazioni scritte consiste la cosiddetta equalizzazione analogica.
Quel che salta subito all’occhio è che il ricevitore si configura come un componente
piuttosto semplice e comune e, cioè, come un filtro passa-basso (banda passante =
banda di lavoro). Ipotizziamo ora un modello possibile, all’interno di uno scenario
siffatto (componenti tutti lineari, sezioni tutte quante adattate alla medesima
resistenza R), e andiamo a specificare le grandezze numeriche che ci interessano:
- sorgente: a temperatura equivalente di rumore TSORG ;
- trasmettitore: HT ( f ) costante nella banda di lavoro e con valore HT 0 . Questo
blocco ha inoltre un guadagno GdT = HT 0 ( f )
2
e temperatura equivalente di
rumore TrT ;
- mezzo di propagazione: H MP ( f ) costante nella banda di lavoro e con valore
H MP 0 . Questo blocco ha inoltre un guadagno GdMP = H MP 0 ( f )
2
e temperatura
equivalente di rumore TrMP ;
- ricevitore: H R ( f ) costante nella banda di lavoro e con valore H R 0 . Questo
blocco ha inoltre un guadagno GdR = H R 0 ( f )
2
e temperatura equivalente di
rumore TrR ;
Fin’ora abbiamo ignorato gli effetti di rumore: ebbene, dove li collochiamo nella
cascata sopradescritta? Il disturbo che andiamo ad aggiungere è la somma di tanti
apporti generati da ogni componente (si noti infatti che ogni blocco ha la sua
temperatura equivalente di rumore); tuttavia, per semplicità, scegliamo un modello in
cui il rumore viene posto, una sola volta e tutto insieme, “a monte” del ricevitore
[rumore additivo ν (t ) ]. Questo perché in tal modo riusciamo ad incorporare in una
“virtuosa” formulazione di H R ( f ) sia la non distorsione (1° requisito) sia la parziale
eliminazione (tramite filtraggio) del rumore che si trova nelle frequenze che sappiamo
non essere di lavoro. Dunque
v (t ) = Ax (t − t0 ) + n (t )
 
versione non distorta rumore
del segnale utile

(NOTA: il rumore deve essere molto inferiore al segnale utile sr (t )  2° requisito)


Al fine di effettuare un corretto confronto fra potenza di rumore e potenza del segnale
(come potrei, sennò, confrontare fra loro due componenti aleatorie?), così da avere un
parametro che indichi la bontà di un certo collegamento, si introduce l’indicatore
rapporto segnale/rumore (SNR, signal to noise ratio), riferito al punto di vista
dell’utente finale:
sr2 (t )
SNR ≜ 2
n (t )
(NOTA: è un rapporto fra potenze – si tenga presente ciò nell’eventuale calcolo in dB;
l’SNR tiene conto di “quanto il segnale utile è più potente del rumore”: quindi più è
alto e meglio è! Una notazione alternativa per SNR è S/N)
Diamo, per completezza, i valori tipici di SNR per alcune applicazioni interessanti:
- telefonia ( 300 ∼ 3400 Hz ): 25-35 dB
- audio HI-FI ( 20 ∼ 15.000 Hz ): 60 dB
- video analogico (5 MHz): > 30 dB

Ricordiamoci ora delle condizioni di non distorsione per elaborare la relazione:


HT ( f ) ⋅ H MP ( f ) ⋅ H R ( f ) = A  v (t ) = Ax (t − t0 ) + n (t )
 
versione non distorta rumore

v (t ) = HT ( f ) ⋅ H MP ( f ) ⋅ H R ( f ) x (t − t0 ) + n (t )
 
versione non distorta rumore

Utilizzando le caratteristiche dei sistemi LTI possiamo poi dare una relazione fra lo
spettro di potenza del rumore ν (t ) (quello che entra prima del ricevitore) e fra
l’analogo spettro di n(t) (che è il rumore in uscita, ovvero ν (t ) passato attraverso il
ricevitore):
Gn ( f ) = Gν ( f ) HR ( f )
2


kTSIST R  V 2 
=  
2  Hz 

(NOTA: facciamo l’ipotesi che la temperatura di sistema TSIST non dipenda in maniera
significativa da f nella banda che ci interessa)
Ora è agevole capire a quanto è pari la potenza del rumore n(t): abbiamo infatti tutte
quantità costanti nell’intervallo di frequenze che ci interessa (k è la costante di
Boltzmann, per TSIST è stata poco fa fatta l’ipotesi che sia costante, R è la resistenza di
adattamento e dunque non cambia, H R ( f ) come si è già detto è costante e pari ad
H R 0 ).
+∞ +∞ +f
kTSIST R kTSIST R m

n (t ) = N = ∫ Gn ( f ) df = ∫ H R ( f ) df =
2
2
GdR ∫ 1 df = fmTSIST GdR kR
−∞ −∞
2   2 − fm
=GdR  
cambio di
estremi

Giunti a questo punto, per capire a quanto è pari l’SNR, ci manca solo la potenza del
segnale utile, ma a questo punto è facile perché:
sr (t ) = Ax (t − t0 ) = HT ( f ) ⋅ H MP ( f ) ⋅ H R ( f ) x (t − t0 )

versione non distorta

s (t ) = A x (t − t0 ) =  x 2 (t − t0 ) = S = HT ( f ) ⋅ H MP ( f ) ⋅ H R ( f ) x 2 (t − t0 ) =
2 2 2 2
r A2
costante

= GdT GdMP GdR x 2 (t − t0 )


Siamo dunque pronti e procediamo:
potenza media del
segnale utile in uscita
dalla sorgente  V 2 
 


s (t )
2
r GdT GdMP GdR x (t − t0 )
2
GdT GdMP x 2 (t − t0 ) 1
SNR ≜ = =
n2 (t ) fmTSIST GdR kR R
 fmTSIST k
potenza media del segnale utile in uscita
dal mezzo di propagazione  W 
chiamiamo questa quantità "potenza ricevuta"

Quanto vale TSIST ? Tale temperatura equivalente aggiunge rumore a monte del
ricevitore: per quantificarlo ragioniamo nel solito modo e consideriamo un apparato
fatto da
- un generatore di tensione in serie con la resistenza a temperatura TSORG ;
- un quadripolo (trasmettitore) con temperatura equivalente di rumore TrT ;
- un quadripolo (mezzo di propagazione) con temperatura equivalente di rumore
TrMP ;
- un quadripolo (ricevitore) con temperatura equivalente di rumore TrR .
Ponendoci nei pressi dell’ingresso del ricevitore e guardando a monte del circuito ci
accorgiamo che non siamo in un caso leggermente più complicato di quello “base”
(generatore + resistenza + un solo quadripolo); qui ci sono più quadripoli: nessun
problema, comunque, perché ci basta applicare Thévenin per trasformare tutto quello
che c’è prima del generatore in una serie
generatore + resistenza R a temperatura TS
Dunque ora TSIST = TS (ciò che c’è prima del ricevitore) + TrR (il ricevitore).

Per calcolare TS dobbiamo aprire una piccola parentesi. Supponiamo di avere:


- un generatore di segnale in serie con una resistenza R a temperatura
Tresist ; tutto ciò è collegato ad un quadripolo con temperatura di rumore
Tquad e guadagno disponibile Gd ;
Ora, come già abbiamo fatto altre volte nel capitolo VII, carichiamo sulle spalle
dell’effetto Johnson tutto il rumore che c’è (quadripolo + resistenza): ciò significa
far virtualmente innalzare la temperatura della resistenza R da Tresist a Tnew ,
con la possibilità, però, di eliminare il quadripolo.
Nel primo caso abbiamo che la quantità infinitesima di potenza di rumore dN u
additabile alle frequenze [ f , f + df ] è
dN u = k (Tresist + Tquad ) Gd df
Nel secondo caso, invece, si ha
dN u = kTnew df
Quindi, eguagliando :
kTnew df = k (Tresist + Tquad ) Gddf
Tnew = (Tresist + Tquad ) Gd

Torniamo al nostro problema: dobbiamo calcolare TS . Applichiamo due volte questa


regolina (nell’esempietto sopra avevamo solo un quadripolo, qui invece ne abbiamo
due):
PRIMA APPLICAZIONE (quadripolo coinvolto: trasmettitore):
regolina  Tnew = (Tresist + Tquad ) Gd TS = (TSORG + TrT ) GdT
SECONDA APPLICAZIONE (quadripoli coinvolti: trasmettitore e mezzo di
propagazione):
  nuova Tresist

 
regolina  Tnew = (Tresist + Tquad ) Gd TS = (TSORG + TrT ) GdT + TrMP  GdMP
 
 
Ora abbiamo tutto! La temperatura di rumore di sistema (complessiva, quella che
genera il rumore ν (t ) senza bisogno di nessun altro apporto)
TSIST = (TSORG + TrT ) GdT + TrMP  GdMP + TrR
COMMENTI e OSSERVAZIONI:
- Molto spesso avviene che TrR sia molto più grande di TS e che TSORG e TrT
siano trascurabili.
- La temperatura equivalente di rumore del sistema TSIST non dipende dal
guadagno del ricevitore, perché tanto quest’ultimo agisce allo stesso modo sia
sul segnale utile che sul rumore.
- Non serve avere un ricevitore con elevato guadagno; conta invece avere un
ricevitore con bassa rumorosità e quindi piccola cifra di rumore.
- In un collegamento radio accade che, con la distanza, aumenta l’attenuazione
che il mezzo di propagazione causa al segnale. Dunque maggiore sarà
l’attenuazione e minore sarà la potenza ricevuta, così come più piccolo sarà il
rapporto SNR. A volte, per fissare un requisito di qualità che permetta una
corretta ricezione, si definisce l’SNR minimo
S S
≥ =γ
N  N min
E dunque
Pr
sensibilità

≥ γ ⇒ Pr ≥ γ fmTSIST k = PR min
fmTSIST k
IX - TRASMISSIONE NUMERICA PASSA-BASSO

1. Lo schema

• SORGENTE: trattasi di una sorgente numerica, che dunque emette un


insieme di bit {bn } in sequenza;
• CODIFICATORE DI LINEA: traduce i bit in simboli. Ad un simbolo
possono essere associati uno (o più) bit, tenendo ben presente che la
funzione in grado di legare uno (o più) bn al simbolo an è biunivoca. Questo
componente ha una certa symbol rate BS (il che significa che emette un
simbolo ogni T secondi); da esso esce infine una sequenza di simboli {an } ;
• MODULATORE PAM: a partire da una funzione impulsiva di base g(t),
questo componente modula forma tale impulso in ampiezza sulla base della
sequenza di simboli {an } . Quel che esce da questo componente è una
funzione s(t);
• MEZZO DI PROPAGAZIONE: si comporta come un attenuatore ed è
assimilabile ad un sistema LTI con funzione di trasferimento H MP ( f ) ;
• AMPLIFICATORE/EQUALIZZATORE: rimuove tutte le componenti che si
trovano nella banda in cui sappiamo non esserci il segnale (dunque rimuove
il rumore in eccesso filtrando il segnale che riceve in ingresso e che è
appena giunto a destinazione) e amplifica ciò che ha nella propria banda-
passante (cioè il segnale utile, se tutto è andato bene). Dà in uscita una
funzione v (t ) ;
• CAMPIONATORE: esegue un campionamento con passo T (il tempo di
simbolo). Problema: dobbiamo fare in modo che il T del campionatore sia
esattamente pari al tempo di simbolo del codificatore di linea, altrimenti si
sballa tutta la catena. Per ottenere un sincronismo perfetto si utilizza un
circuitino chiamato estrattore di sincronismo di simbolo, il quale permette a
questo componente di scegliere gli istanti esatti tk = t0 + kT ; all’uscita del
campionatore abbiamo dunque una successione {v (tk )} ;
• DECISORE: fa una stima sui simboli {v (tk )} in modo da poter restituire la
sequenza {aˆ n } tanto più vicina a {an } ;
• DECODIFICATORE: trasforma {aˆ n } in bˆn { } compiendo l’operazione duale
rispetto al codificatore di linea;
• UTENTE: colui che (a meno di errori, che vogliamo siano il meno possibile)
{ }
riceve i bit bˆ e dunque l’informazione che proviene dalla sorgente.
n

2. Misurazione della qualità

La qualità dell’informazione (ricevuta da parte di un destinatario) è tanto maggiore


tanto più ricalca il segnale originale (appena uscito dalla sorgente).
Un modo per misurare la qualità è quello di ottenere il tasso di errore per bit (BER, Bit
Error Rate) il quale è definito in questo modo:
Ne bit errati
Teb ≅ =
N bit trasmessi
(quando N è molto grande)
I valori tipici che tale tasso assume dipendono dall’applicazione:
- trasmissione di voce convertita in digitale: 10−3 ;
- trasmissione di video compresso (MPEG): 10−6 (l’alta compressione sottintende
che i singoli bit sono importantissimi!);
- trasmissione di dati molto importanti (ad es. conto bancario): 10−12 .

Un’altra maniera per esprimere la qualità è quello di valutare se la consegna dei bit
avviene nei tempi giusti; se, al contrario, essi non arrivano al destinatario con una
tempistica esatta, quel che si verifica è il cosiddetto fenomeno di gitter.
Altrimenti si può valutare se sono rispettati i requisiti sul ritardo (delay), i quali
fondamentalmente dipendono dall’applicazione con la quale si ha a che fare.

Siccome nella pratica avviene spessissimo che il processo, in base al quale si genera un
errore nella trasmissione, sia ergodico, allora possiamo effettuare l’equivalenza

Tasso di errore per bit = Probabilità di errore per bit


(stima a posteriori) (stima a priori)
Teb = Peb
rilevazione orizzontale = rilevazione verticale

3. Il rumore e le sue conseguenze

Il problema del rumore e degli errori è di grande importanza: infatti, mentre il segnale
s(t) (quello che esce dal modulatore PAM) è molto “limpido” e regolare, il segnale v(t)
non è altrettanto chiaro a causa del rumore termico e dei contributi di rumore
apportati da circuiteria e mezzo di propagazione. In un modello interpretativo “a
soglia”, che vede il ricevitore scegliere tra un valore e un altro in base a se il segnale
sia sopra o sotto un determinato valore, potrebbero infatti esserci alcuni
fraintendimenti (ad es. uno “0” visto al posto di un “-1”).

Iniziamo dunque a scindere il problema nelle sue parti per vedere come porre rimedio
al rumore. Il segnale s(t) ha questa espressione
s (t ) = ∑ an g (t − nT )
n

in quanto nasce come somma di più impulsi modulati dai simboli an e traslati nel
tempo di T in T. Tale segnale entra nel mezzo di propagazione, che si comporta come
un sistema LTI con funzione di trasferimento H MP ( f ) . A valle di questo componente
simbolico compiamo un’astrazione e aggiungiamo, tutto in una volta, il rumore ν (t )
considerato come termico e come conseguenza di una temperatura di sistema TSIST .
Segnale e rumore entreranno quindi insieme nel secondo blocco astratto “ricevitore”
[funzione di trasferimento H R ( f ) ] che dà come uscita
v (t ) = sr (t ) + n (t )
Studiamo ora il solo segnale utile: se chiamiamo
• g(t) l’impulso utilizzato dal modulatore PAM;
• r(t) il singolo impulso passato attraverso H MP ( f ) e H R ( f ) ;
• g (t − nT ) l’impulso traslato;
• r (t − nT ) la risposta all’impulso traslato (formulata utilizzando le ipotesi di
linearità e tempo-invarianza)…
… allora potremo dire che la risposta sr (t ) al segnale s (t ) = ∑ an g (t − nT ) .
n

può essere espressa come combinazione lineare di impulsi tra loro distanti T, in questo
modo:
sr (t ) = ∑ anr (t − nT )
n

Per il principio di sovrapposizione degli effetti, il segnale utile che troviamo in fondo
all’intero blocco mezzo di propagazione-ricevitore è una combinazione lineare delle
tante risposte al sistema generate dalla sollecitazione degli impulsi del PAM.
Passiamo ora al rumore ν (t ) (che, come abbiamo detto, viene inserito dopo il mezzo di
propagazione). Esso dovrà attraversare il solo blocco-astratto ricevitore [funzione di
trasferimento H R ( f ) ], la cui uscita sarà in questo caso n(t). Detto questo, si può
esprimere una relazione tra lo spettro di potenza di ν (t ) e quello di n(t):
Gn ( f ) = Gν ( f ) H R ( f )
2

Se teniamo conto del fatto che ν (t ) è caratterizzabile come un processo aleatorio


ergodico a valor medio nullo, allora potremo dire che la sua potenza sarà:
+∞ +∞ +∞
kRTSIST
Pn = σ = ∫ Gn ( f ) df = ∫ Gν ( f ) H R ( f ) df = ∫ H R ( f ) df
2 2 2

−∞ −∞ −∞
2
(NOTA: abbiamo utilizzato la formula del rumore termico a temperatura TSIST )
Abbiamo quindi dato una caratterizzazione a segnale utile e rumore, che – ricordiamo
– viaggiano “uniti” in v(t) con questa espressione:
v (t ) = sr (t ) + n (t ) = ∑ anr (t − nT ) + n (t )
n

Come abbiamo spiegato nel paragrafo 1, questo segnale v(t) passa attraverso un
campionatore, il quale esegue un campionamento con passo T (il tempo di simbolo) in
modo da riottenere {an } . I simboli campionati (agli istanti tk ) sono in sequenza e
hanno questa espressione
v (tk ) = ∑ anr (t0 − ( n − k ) T ) + n (tk )
n

Tale campione è quello che verrà passato al decisore e quello sulla base del quale
dovremo valutare quale sarà effettivamente il k-simo simbolo.
Esistono, a tal proposito, due strategie di decisione:
- simbolo per simbolo (1 campione alla volta);
- stima di sequenza (si guardano più campioni alla volta prima di decidere).
Per ragioni di semplicità e brevità esamineremo soltanto il primo dei due casi.
Portiamo dunque fuori dall’ultima relazione scritta l’espressione concreta del generico
k-simo simbolo e noteremo che compaiono tre interessanti contributi!
v (tk ) = akr (t0 ) +

  ∑ a r (t − ( n − k ) T ) + n
n≠k
n 0 (t ) k
l'effettivo 

 rumore
k -simo simbolo un contributo che dipende da tutti
i simboli trante il k-esimo
(interferenza inter-simbolo, o ISI
Inter Symbol Interference )

Il primo contributo (come si può direttamente leggere sotto di esso) è quello del vero e
proprio k-simo simbolo. Esaminiamo ora meglio il secondo (interferenza ISI): anzitutto
è necessario specificare che non è detto che tale apporto (a tutti gli effetti disturbante e
quindi “rumoroso”) ci sia “per forza”. Esso c’è quando l’impulso-trasformato e modulato
akr (t0 ) è tanto “lungo”, nell’asse dei tempi, da interferire con quello immediatamente
successivo (e dunque, essendo tutti gli impulsi in sequenza, anche con quello
precedente). Dunque – ad esempio – il generico apporto akr (t0 ) viene “disturbato”
dalle code di:
... ak −2r (t0 − 2T ) , ak −1r (t0 − T ) , ak +1r (t0 + T ) , ak +2r (t0 + 2T ) ...
Il nostro obiettivo è ovviamente quello di eliminare l’interferenza ISI: si intende, da
come abbiamo esposto il problema, che la chiave di volta sta nel scegliere un impulso
g(t) [che diventa r(t) dopo essere passato da mezzo di propagazione e ricevitore] che
faccia al caso nostro. Intuitivamente si potrebbe pensare che sia sufficiente un vincolo
sulla durata dell’impulso in questione; in realtà – e qui sta la furbata – è sufficiente
che r(t) sia nullo agli istanti
..., t0 − 2T , t0 − T , t0 + T , t0 + 2T , ...
[NOTA: t0 è un istante di campionamento, in particolare è quello in cui è centrato
l’impulso r(t). Se r(t), ad esempio, è una sinc, in t0 tale funzione varrà 1]
Questo vincolo è davvero ingegnoso perché, se ripetiamo il ragionamento per l’impulso
successivo, esso – per rispettare le appena esposte condizioni di annullamento dell’ISI
– dovrà essere nullo agli istanti
..., t1 − 3T , t1 − 2T , t1 − T , t1 + T , t1 + 2T , ... "nuovo impulso"
↓ ↓ ↓ ↓
..., t0 − 2T , t0 − T , t0 + T , t0 + 2T , ... "vecchio impulso" r (t )
[NOTA: t1 è l’istante di campionamento in cui è centrato l’impulso successivo ad r(t)]
Come si vede, gli istanti in cui l’impulso successivo ad r(t) è nullo vanno a coincidere
esattamente con quelli in cui proprio r(t) era nullo e, guarda caso, essi sono gli istanti
in cui il campionatore va a fare le sue rilevazioni, aiutato dall’estrattore di sincronismo
di simbolo. Riassumendo, se in tali punti l’impulso è nullo, l’ISI si elimina perché
automaticamente (possiamo dire per costruzione) gli impulsi successivi e precedenti
(traslati di T) passeranno attraverso di essi.
Quindi, in notazione matematica, questi sono i vincoli su r(t):
r0 = r (t0 ) ≠ 0 in t = t0
r (t ) = 
0 in t = t0 + kT , ∀k ≠ 0
Centrando il tutto nello zero (per semplicità) si ha:
r = r ( 0 ) ≠ 0 in t = 0
rɶ (t ) =  0
0 in t = kT , ∀k ≠ 0
Come si traduce tale vincolo nel dominio delle frequenze? La trasformata della
successione dei punti di annullamento che ci interessano è:
FS {rɶ ( kT )} = r0 e − j⋅0 = r0
(trasformata di una successione)
[NOTA: rimane soltanto un valore perché gli altri sono tutti pari a zero e quindi
rimangono tali]
Ora incrociamo questa relazione con quella della trasformata di un segnale periodico
nel dominio dei tempi:
 n
FS {rɶ ( kT )} = ∑ Rɶ  f +  dove Rɶ ( f ) = F rɶ (t ) 
1
T n  T
Dunque possiamo creare la catena di uguaglianze
 n
FS {rɶ ( kT )} = r0 e j⋅0 = r0 = ∑ Rɶ  f + 
1
T n  T
Nel dominio delle frequenze, dunque, la condizione di annullamento dell’ISI (criterio di
Nyquist) è davvero singolare! Essa ci impone che, se ripetiamo periodicamente
1
l’impulso con passo BS = (la symbol-rate), si debba ottenere la costante
T
 n
∑n Rɶ  f + T  = r0T
Diamo ora l’esempio di qualche impulso che funziona bene a questo scopo:
- il più semplice impulso di questo tipo è certamente quello che, nel dominio
BS
delle frequenze, è rettangolare e di banda (intervallo di frequenze
2
 − BS , BS  ): se lo ripetiamo periodicamente per tutto l’asse delle frequenze
 2 2 
1
con passo BS = , tutti i blocchetti rettangolari – cioè i singoli impulsi –
T
appariranno come consecutivi, formando una retta orizzontale (costante).
NOTA: la retta orizzontale in questione è frutto di una “falsa consecutività”; ad ogni ripetizione,
infatti, il punto di congiunzione fra due impulsi (i quali appaiono perfettamente adesi) è in
realtà sede di un punto di discontinuità locale nella derivata prima.
Nel dominio del tempo, un impulso del genere è una sinc:
rɶ (t ) = r0 sinc (tBS )
Risulta facile verificare che rɶ (t ) rispetta le condizioni di annullamento dell’ISI
in quanto si annulla in …– 2T, – T, T, 2T…
- la famiglia di impulsi con un andamento anti-simmetrico rispetto alle rette
B
verticali f = ± S . Impulsi di questo tipo hanno una banda che può andare da
2
BS
a BS , dipendentemente da “quanto in fretta” la funzione decade a zero
2
nell’intervallo  S , BS  . Qualunque sia la forma di questi impulsi, se essi
B
 2 
rispettano l’anti-simmetria di cui sopra, allora sicuramente, qualora venissero
1
ripetuti periodicamente con passo BS = e sommati tutti insieme, andrebbero
T
ad affiancarsi e a sormontarsi fino a formare una costante. Un andamento
simile potrebbe quello di un impulso trapezoidale centrato nell’origine e con lati
B
obliqui antisimmetrici rispetto a f = ± S (decadimento lineare verso lo zero)
2
oppure quello di un impulso con andamento “a coseno rialzato” (decadimento
non lineare, bensì “smussato”, verso lo zero). In quest’ultimo caso si parla di
fattore di roll-off α (con 0 < α < 1 ): tale fattore indica in quale punto,
nell’intervallo  S , BS  , l’impulso degrada a zero. Tale punto è infatti al
B
 2 
B
valore di frequenza S (1 + α ) ; esaminiamo i casi limite:
2
B
- se α = 0 si torna nel caso di impulso rettangolare (rect con banda S )
2
visto poco fa;
- se α = 1 l’impulso somiglia più che altro a una gaussiana (derivata nulla
solo in 0 e fuori da [ − BS , BS ] ).
Le funzioni a coseno rialzato hanno il fondamentale vantaggio di non avere
discontinuità nella derivata prima e per questo sono molto usate.

Qualche osservazione:
- abbiamo detto che rɶ (t ) è la versione centrata nello zero di r (t ) . Sfruttando le
proprietà della trasformata di Fourier possiamo senz’altro dire che, nel dominio
delle frequenze, ciò comporti
R ( f ) e j 2π ft0 = Rɶ ( f ) ⇔ R ( f ) = Rɶ ( f ) e − j 2π ft0
- l’argomento di R ( f ) è lineare in f. Infatti, se Rɶ ( f ) è reale positiva, il suo
argomento è nullo e, dalle relazioni scritte sopra, si ha
R ( f ) = Rɶ ( f ) e − j 2π ft0 ⇒ arg R ( f ) = arg Rɶ ( f ) − arg e − j 2π ft0 = arg Rɶ ( f ) − 2π ft0 = −2π ft0
 
=0

4. Equalizzazione e progettazione del ricevitore

Rimaniamo nel caso numerico e consideriamo il seguente schema:


 impulso g(t), una rect [trasformata G(f), una sinc] entrante
- mezzo di propagazione con funzione di trasferimento H MP ( f ) ;
- ricevitore H R ( f ) ;
 segnale r(t) [trasformata R(f)] uscente

Quel che ci chiediamo è: come possiamo progettare correttamente il filtro di ricezione,


in modo che quel che ricavo al’uscita sia una versione non distorta di g(t)?
Teoricamente mi servirebbe una banda enorme: G(f) è infatti una sinc e ha tanti lobi
che si estendono parecchio in là sull’asse delle frequenze; prenderli tutti è impossibile.
In realtà questa preoccupazione è superflua perché la distorsione del canale si può
spesso ignorare, rendendo l’annullamento dell’ISI sufficiente ad evitare gli errori:
l’informazione non è, infatti, nella forma d’onda (come nel caso analogico). Qui stiamo
parlando di trasmissione numerica e quel che importa è che il ricevitore riconosca
correttamente i simboli.

Supponiamo che R(f) sia una funzione a coseno rialzato e che sia conforme al criterio di
Nyquist. Ricordandoci dello schema che abbiamo fatto sopra, possiamo applicare le
proprietà della funzione di trasferimento e dire che:
R ( f ) = G ( f ) H MP ( f ) H R ( f )
Dunque il ricevitore deve avere:
R(f )
HR ( f ) =
G ( f ) H MP ( f )
Ma questo che significa? Contestualizziamo con un esempio:
- mezzo di propagazione  H MP ( f ) = H MP 0 costante nella banda di lavoro;
- impulso g(t) di tipo NRZ (rettangolare);
R ( f ) (a coseno rialzato)
- dunque si ha H R ( f ) =
G(f ) H
 MP 0
una sinc

Proviamo a graficare!
Abbiamo graficato R(f) (a
coseno rialzato) e la
trasformata di g(t) – ovvero G(f)
– che è una sinc; quindi
abbiamo disegnato G −1 ( f ) e
moltiplicato quest’ultima per
R(f) [ H MP 0 è una costante
quindi la lasciamo stare]. Quel
che salta fuori è una funzione
che in maniera evidente
distorce. La cosa è davvero poco
intuitiva ma, per avere una
corretta interpretazione del
segnale numerico, il blocco
ricevitore deve distorcere il
segnale nella banda di lavoro
(ed avere funzione di
trasferimento identicamente
nulla al di fuori di essa, in
modo da eliminare i rumori
inutili). D’altronde, come già
abbiamo detto, qui non accade
che l’informazione stia nella
forma d’onda del segnale, caso
in cui diventa di magistrale
importanza la non distorsione a
tutti i livelli.

5. Probabilità di errore con ISI nulla

Se l’equalizzazione è stata fatta per il verso, il generico simbolo della sequenza {v (tk )}
avrà questa forma, determinata dalla presenza di un segnale utile e di un rumore
additivo gaussiano (a valor medio nullo e varianza σ 2 ):
r0 =r (t0 ) nk =n(tk )
 
v (tk ) = akr0 + nk
 
segnale utile rumore additivo
gaussiano: N 0, σ 2 ( )
Facciamo ora un esempio concreto: poniamo che i simboli ak siano quelli del codice
bipolare (e quindi +1 e –1, con sorgente bilanciata, il che significa Pr {ak = +1} =
= Pr {ak = −1} = 1 2 ) e che il decisore lavori simbolo per simbolo. Supponiamo poi, per
ipotesi, che r0 > 0 ; ebbene, se non ci fosse il rumore, avremmo che
r0 ( > 0 ) ← simbolo trasmesso: +1
vt ( k ) = 
−r0 ( < 0 ) ← simbolo trasmesso: − 1
Il decisore, in questo caso, avrebbe vita facilissima e ci beccherebbe sempre:
chiamando infatti aˆ k il simbolo che verrà stimato dal componente, si ha che
se v (tk ) > 0 allora aˆ k = +1
il decisore dice: 
se v (tk ) < 0 allora aˆ k = −1
ne consegue che  aˆ k = sign v (tk ) 
Ovviamente la realtà dei fatti non è così rosa e fiori. Il rumore, infatti, sporca la
chiarezza di v (tk ) in quanto aggiunge all’eventuale + r0 o – r0 una certa quantità nk ;
v (tk ) = ±r0 + nk
siccome però il rumore è gaussiano a valor medio nullo, possiamo asserire che il
possibile scarto dal valore + r0 o – r0 sia simmetrico (e cioè corrispondente ad un
intervallo centrato proprio in + r0 o – r0 ).
Chiamiamo ora Pe la probabilità di errore: essa sarà pari alla probabilità che il
simbolo stimato dal decisore sia diverso da quello trasmesso e cioè che
Pe = Pr {aˆ k ≠ ak }
Sfruttiamo il teorema della probabilità totale:
Pe = Pr {aˆ k ≠ ak } = Pe {a }
Pr {ak = +1} + Pe {a }
Pr {ak = −1}
k =+1 k =−1

la probabilità d’errore è cioè uguale alla probabilità che vi sia stato un errore con
simbolo trasmesso ak = +1 sommata alla probabilità che si sia verificata una non
corretta interpretazione nel caso ak = −1 .
Elaboriamo la nostra relazione:
Pe = Pe {a }
Pr {v (tk ) < 0 ak = +1} + Pe {a }
Pr {v (tk ) > 0 ak = −1}
k =+1 k =−1

Pe = Pe {a }
Pr {r0 + nk < 0 ak = +1} + Pe {a }
Pr {−r0 + nk > 0 ak = −1}
k =+1 k =−1

Pe = Pe {a }
Pr {nk < −r0 ak = +1} + Pe {a }
Pr {nk > r0 ak = −1}
k =+1 k =−1

Dunque, utilizzando la funzione erfc, possiamo dire che:


1 1  r  1 1  −r0  1 1  r0  1 1  +r0 
Pe = ⋅ erfc  0  + 2 ⋅ 2 erfc   = 2 ⋅ 2 erfc   + ⋅ erfc  =
2 2  2σ   2σ   2σ  2 2  2σ 
1  r  1 r02
= erfc  0  = erfc = Peb ≡ Teb
2  2σ  2 2σ 2
Tale espressione, grazie alle proprietà di ergodicità, caratterizza sia la probabilità che
si verifichi un errore nell’interpretazione del simbolo, sia la probabilità di errore per
bit, sia il tasso di errore di bit (identità di rilevazioni orizzontali e verticali).
r2
NOTA: la quantità 0 2 è, a tutti gli effetti, un rapporto S/N (più r0 è distante

dall’origine e più è difficile che il rumore sia così potente da risultare, in modulo, più
intenso di r0 ; d’altra parte, maggiore è la varianza e maggiormente si spancia la
gaussiana: conseguentemente, i valori assunti dal rumore potrebbero discostarsi di più
dal valore medio, che è zero e dunque è l’origine degli assi). Dunque posso decidere di
misurare questo SNR in decibel e di agire su di esso per avere una migliore
trasmissione. Infatti:
- aumentando r0 il segnale è più robusto;
- diminuendo σ 2 il rumore si attenua.
Se poi consideriamo il codice bipolare come caso “estremo” di codice multilivello (con l
= 2), possiamo asserire che sia possibile estendere le considerazioni fatte fin’ora per l
anche maggiori di 2. Non è un’estensione complicata ed è, anzi, abbastanza naturale:
se prima avevamo due punti d’interpretazione nell’asse delle v (tk ) (e cioè quello del
simbolo +1 e quello del simbolo − 1), ora ne avremmo 4 (oppure 8, o 16, etc…) tutti
equidistanti fra loro e con un proprio intervallino
in cui l’interpretazione è esatta. È intuitivo il fatto
che con un maggior numero di valori (e quindi
intervalli più stretti) diventa più facile, per un
rumore anche non troppo potente, sballare tutto.
Se riportiamo su un grafico cartesiano la
probabilità di errore in funzione del rapporto
segnale/rumore (v. figura a destra) notiamo
proprio che la BER (Bit Error Rate) aumenta con
l’aumentare del numero l di livelli. Ricordiamo
però che con un l maggiore si restringe la banda
che dobbiamo utilizzare per trasmettere il nostro segnale (e questo è indubbiamente
un vantaggio). Alla fine, come sempre, siamo alle prese con la scelta di un
compromesso che in questo caso è fra:
- quantità di banda occupata (l maggiore  B minore);
- possibilità di errore (l maggiore  BER maggiore).

6. Trasmissione su fibra ottica

Lo schema della trasmissione su fibra ottica è il seguente:


- SORGENTE BINARIA: emette bit {bn } ;
- CODIFICATORE: codifica i bit {bn } nei simboli {an } , che però sono ancora
binari an ∈ {0,1} ;
- FOTOEMETTITORE: è modulato OOK (On-Off Keying);
- FIBRA OTTICA: che è il mezzo di trasmissione; le fibre ottiche sono filamenti
di materiali vetrosi con un diametro dell’ordine della decina di micron formato
da materiale dielettrico, come la silice, opportunamente drogato in modo da
avere una variazione omogenea dell’indice di rifrazione rispetto al rivestimento
esterno tale da costringere un’onda elettromagnetica a propagarsi lungo la
tratta senza apprezzabile irradiazione all’esterno. Le fibre ottiche sono
normalmente disponibili sotto forma di cavi e sono dunque classificate come
guide d'onda dielettriche. Vengono comunemente impiegate nelle comunicazioni
anche su grandi distanze e nella fornitura di accessi di rete a larga banda (dai
10 Mbit/s al Tbit/s usando le più raffinate tecnologie WDM – Wavelength
Division Multiplexing);
- DIODO FOTORILEVATORE: traduce gli impulsi ottici in corrente;
- RIGENERATORE NUMERICO: ripristina, a meno di errori, i simboli
trasmessi (stima {aˆ n } );
- DECODIFICATORE: dai simboli {aˆ n } passa ai bit (stimati) bˆn ; { }
- UTENTE FINALE.

Le fibre ottiche presentano interessanti vantaggi:


- anzitutto disperdono pochissimo: il minor valore di attenuazione specifica
raggiungibile nella pratica è di circa 0,2 dB/Km (corrispondente alla lunghezza
d’onda λ = 1,55 µm  frequenza f = c = 3 ⋅ 10
8
−6 = 194 ⋅ 10
12
Hz ), mentre
λ 1,55 ⋅ 10
quello teorico è di 0,16 dB/Km (centinaia di unità logaritmiche inferiore a quello
dei conduttori ordinari: si noti che centinaia di unità logaritmiche è un’enormità
in unità lineari!!);
- utilizzando la WDM la quantità di dati trasmettibile con fibra ottica è
imbarazzantemente enorme: con 160 portanti a 4 Gbit/s si può realizzare una
capacità trasmissiva di circa 6 Tbit/s (giusto 1500 volte più veloce di una ADSL
a 4 Mega);
- non si necessita di rigeneratori intermedi, a meno di non voler superare le
centinaia di kilometri di lunghezza di linea; anche in questo caso, tuttavia,
esisterebbero amplificatori ottici (che non richiedono conversione dal dominio
ottico verso quello elettrico, né viceversa!) costituiti da spezzoni di fibra drogati
con erbio e muniti di un opportuno sistema di pompaggio (EDFA, Erbium Doped
Fibre Amplifier);
- posso sfruttare una banda di frequenze gigantesca: immaginiamo di prendere
sull’asse delle lunghezze d’onda λ un tratto infinitesimo ( dλ = 1 nm) di
possibili valori centrato su λ = 1,55 µm . Ad esso corrisponderebbero, in
frequenza:

c
f = ⇒ df =
d c ( )
λ dλ = c dλ  df = 125 GHz
λ dλ λ2
  
differenziamo!!

I segnali appartenenti a questo piccolissimo intervallo di lunghezza d’onda


potrebbero offrire una banda entro la quale ci starebbe 135 volte l’intero spettro
di frequenze usato per la radiodiffusione sonora e televisiva. Niente male, eh?