Sei sulla pagina 1di 90

I - TEORIA DELLA PROBABILIT

1. Variabili aleatorie discrete

X (notare la lettera maiuscola) si dice v.a. discreta se pu assumere un numero finito


di valori {x1 , x2 , ..., x n } (notare le lettere minuscole). Come esempio, una variabile
aleatoria di questo tipo potrebbe essere quella che conta il numero di clienti che
entrano in un supermercato in 10 minuti.
Per le variabili aleatorie discrete si pu esprimere una funzione chiamata
distribuzione di probabilit: questa funzione associa ad ogni valore assunto dalla v.a.
discreta la relativa probabilit di uscire. La probabilit che un certo valore x1 sia
lesito di un esperimento, modellato con una v.a. discreta, si definisce come
pi = PX { X = xi }
Per una v.a. discreta si definisce una funzione di distribuzione cumulativa (CDF,
cumulative distribution function): essa esprime la probabilit che la variabile aleatoria
in questione assuma valore pari o inferiore a quello di un certo esito
FX ( x ) = PX { X x}
Tale tipo di funzione non pu essere altro che crescente (anche se non strettamente,
perch pu rimanere zero in alcuni tratti).

Per le v.a. discrete si definiscono:


- il valor medio: E ( X ) = xi PX {X = xi } ;
i 
pi

- la varianza: 2 = var ( X ) = E ( X E ( X ) ) = E X 2 E 2 [ X ] ;
2


Dimostrazione:
E ( X E ( X ) ) = ( X E ( X )) (X )
+ E 2 ( X ) 2 XE ( X ) pi =
2 2
pi = 2
i i
( )
E X

( ) ( )
= X 2 pi 2E ( X ) Xpi + E 2 ( X ) pi = E X 2 2E 2 ( X ) + E 2 ( X ) = E X 2 E 2 ( X ) ;


i
  i 
i

( )
E X2 1

- la deviazione standard: = var ( x ) ;


- il momento di ordine n: E X n .

2. Variabili aleatorie continue

X (notare la lettera maiuscola) si dice v.a. continua se pu assumere un numero


infinito e non numerabile di valori .
Per questo tipo di variabili esiste una funzione densit di probabilit (PDF, probability
density function), che la controparte continua della funzione distribuzione di
probabilit delle v.a. discrete.
Per le v.a. continue non ha senso calcolare la probabilit che lesito di un esperimento
sia un valore reale preciso (i valori che la variabile pu assumere sono infiniti, e
dunque la probabilit che esca uno preciso di essi nulla); possiamo soltanto
calcolare la probabilit che la variabile aleatoria assuma valori compresi fra due
estremi reali a e b:
b
P {a X b} = fX ( x ) dx
a

Inoltre, abbiamo una CDF cos definita:


x
FX ( x ) = PX { X x} = f ( u ) du
X

che larea che sta sotto la curva PDF da al valore scelto x.


Per come stata definita, la CDF una primitiva della PDF (e, dunque, la PDF sar la
derivata della CDF); tale funzione di distribuzione cumulativa avr le seguenti
propriet:
- sempre maggiore o uguale a 0 (e inferiore o al limite uguale a 1);
- se integrata su tutto lasse reale d come risultato 1;
- non decrescente;
- vale 0 a meno infinito e 1 a pi infinito.

Per le v.a. continue si definiscono:


+
- il valor medio: E ( x ) = xf ( x ) dx ;
X

- la varianza: 2 = var ( X ) = E ( X E ( X ) ) = E X 2 E 2 [ X ] (per la dimostrazione


2


vedi il caso discreto);
- la deviazione standard: = var ( x ) ;
- il momento di ordine n: E X n ;
- il percentile: ln-simo percentile di una v.a. il valore (assunto dalla v.a. stessa)
per il quale la CDF vale n ;
100
- la mediana: il cinquantesimo percentile della v.a.;
- la moda: il valore pi probabile, quello cio che rende massima la
densit di probabilit; possono esserci pi valori di moda (se uno si parla di
distribuzione monomodale; se sono due di distribuzione bimodale, etc).

3. Estensione: 2 variabili aleatorie

Se abbiamo, ad esempio, due variabili aleatorie continue X e Y, possiamo definire la


densit di probabilit congiunta fX ,Y ( x , y ) : essa la funzione che esprime la seguente
probabilit fX ,Y ( x , y ) = P { X = x ,Y = y} . Ovviamente trattasi di una funzione a pi
variabili (reali), graficabile nel piano a tre dimensioni.
Se nel piano cartesiano in cui riportiamo i valori di X e Y tracciamo un insieme chiuso
A, allora la probabilit che le due variabili aleatorie assumano valori compresi in A
calcolabile mediante un integrale:
fX ,Y ( x , y ) dxdy = P {( X ,Y ) A}
A

Di conseguenza, se nel piano cartesiano di cui sopra ritagliamo un piccolo quadratino


infinitesimo di lati dy e dx, la probabilit che i valori assunti dalle variabili aleatorie
siano quelli compresi in tale francobollo infinitesimo sar rappresentata dal termine
che poco fa abbiamo trovato sotto lintegrale:
fX ,Y ( x , y ) dxdy = P {x X x + dx , y Y y + dy}
Possiamo sciogliere la dipendenza di tale funzione da una delle due variabili
aleatorie (o anche da entrambe) tramite un integrale su tutto lasse reale: cos facendo
otterremo unordinaria funzione a una variabile.
f ( x , y ) dy = P { X = x } = f ( x )

X ,Y X

f ( x , y ) dx = P {Y = y} = f ( y )

X ,Y Y

4. Estensione: n variabili aleatorie

la versione estesa ad libitum di ci che si visto finora; si pu definire:


- una funzione densit di probabilit per n variabili aleatorie:
fX1 , X 2 , ..., X n ( x1 , x 2 , ..., x n ) ;
- integrando questa funzione sullasse reale possiamo rimuovere la
dipendenza di tale funzione da una variabile (o da n, integrando in n ):


fX1 , X2 , ..., Xn ( x1 , x2 , ..., xn ) dxn = fX1 , X2 , ..., Xn1 ( x1 , x2 , ..., xn1 )
f X1 , X 2 , ..., X n ( x1 , x2 , ..., xn ) dx1dx 2 ...dx k = fX k +1 , X k + 2 , ..., X n ( x k +1 , x k +2 , ..., x n )
k

(con k < n)
fX1 , X2 , ..., Xn ( x1 , x2 , ..., xn ) dx1dx2 ...dxn = 1
n

Se vogliamo calcolare la probabilit che le n variabili aleatorie assumano valori


compresi in un insieme A (n-dimensionale), possiamo utilizzare lintegrale:
fX1 , X2 , ..., Xn ( x1 , x2 , ..., xn ) dx1dx2 ...dxn = P {( x1 , x2 , ..., xn ) A}
A

dove la quantit presente allinterno dellintegrale rappresenta una sorta di


francobollo n-dimensionale infinitesimo:
fX1 , X2 , ..., Xn ( x1 , x2 , ..., xn ) dx1dx2...dxn = P {x1 X x1 + dx1 , x2 X x2 + dx2 , ..., xn X xn + dxn }
Integrando (di volta in volta) questa quantit possiamo ricavare la probabilit in ogni
caso particolare che ci interessa.

5. Variabile aleatoria uniforme

La notazione per indicare una variabile aleatoria uniforme la seguente:


X U [ a, b]
Con questa notazione si indica che tra a e b vi lo stesso valore di densit di
probabilit. La relativa funzione sar dunque:
1
tra a e b (*)
fX ( x ) = b a
0 altrove
(*) Se si tiene presente che larea sotto la curva della funzione densit di probabilit devessere 1 e che tale funzione
devessere costante allora risulta evidente che larea sopra menzionata quella di un rettangolo di base b a (e
dunque (b a)1 dovr essere laltezza!)

Possiamo poi calcolare:


- il valor medio:
(b a )(b + a )

+
1 b2 a 2 b + a
b b
1 1
E ( x ) = xfX ( x ) dx = x
b a a
dx = x dx = =
a
ba ba 2 2
- la varianza:
(b + a ) = b 2

= var ( X ) = E ( X E ( X ) ) = E X 2 E2 [ X ] = x 2
2 1
2
dx
a
ba 4
(b a )( a2 + ab+b2 )
 
(b + a ) = (b a )
(b + a ) = a 2 + ab + b2 (b + a ) = (b a )
b 2 3 2 2 2
x3 1
=
3 a b a 4 3 (b a ) 4 3 4 12

6. Variabile aleatoria normale (gaussiana)

La notazione per indicare una variabile aleatoria Gaussiana (o normale) la seguente:


X N , 2
La densit di probabilit ha invece questo aspetto:

( x )2
1
fX ( x ) = con > 0 e 2 2

2
Questo termine, se integrato su tutto lasse reale, d come risultato 1.
La comodit di questo tipo di variabile sta nel fatto che, se ne diamo la definizione
come illustrato sopra, abbiamo gi, senza fare un calcolo:
- il valor medio: E (X ) = ;
- la varianza: var ( X ) = 2 .
La funzione CDF sar:
x x

( t )2
1
FX ( x ) = fX (t ) dt = e 2 2
dt
2

Allinterno di questa espressione presente lintegrale del termine e , che


2

risolvibile in campo complesso col teorema dei residui e che in campo reale non
computabile. Per questo motivo si usano tabelle speciali in cui sono riportati valori
approssimati di questa funzione.
Ora calcoliamo alcune funzioni strettamente legate alla distribuzione gaussiana:
x
2
- funzione errore: erf ( x ) t 2
e dt (NOTA: funzione dispari).
0

Come si osserva, questa funzione ricorda molto da vicino la gaussiana: se infatti



( x )2
1 1
prendiamo la fX ( x ) = e 2 2
, poniamo = 0 e 2 = otteniamo
2 2
1 1
fX ( x ) = ex = ex
2 2

1 2
2
e integriamo su tutto lasse reale, il risultato sar pari a 1. Si nota bene che per
x che tende ad infinito la funzione errore tende ad 1; inoltre possiamo
interpretare tale funzione come la probabilit che:
1
P ( X < x ) = erf ( x ) con X N 0,
2
La CDF della distribuzione normale si pu calcolare tramite la funzione errore:
1 1 x
FX ( x ) = + erf
2 2 2
Dimostrazione:
x

(t )2

(t )2 x

( t )2
1 1 1
FX (x ) = e 2 2
dt = e 2 2
dt + e 2 2
dt =
2 2 2
x


(t )2 x

(t )2 2
1 1 1 1
e e 2 e s ds =
2
= dt + 2 2 2 2
dt =  +
2
  2 cam bio di 2 2
variabile 
0
=1 2, per ch il valor m edio (t ) = s notare che dt = 2 ds
divide l'area sotto al grafico
della gaussiana in due parti 2
uguali e valenti 1/2
x

1 1 2 2 s2 1 1 x
= +
2 2 0
e ds = + erf
2 2
2
 
x
erf
2
+
2
- funzione errore complementare: erfc ( x ) 1 erf ( x ) = e
t2
dt .
x

Dimostrazione:
x
2
erfc ( x ) 1 erf ( x ) = 1 e
t2
dt =

+ x +
2 2 2
e t dt e
t 2
e
t 2
2
= dt = dt
0
  0 x
=1

Trovare la CDF della funzione gaussiana


tramite la funzione errore complementare
semplice, visto che gi conosciamo la
relativa relazione per la funzione errore:
1 1 x 1 1 x 1 x
FX ( x ) = + erf = + 1 erfc = 1 erfc
2 2 2 2 2 2 2 2

La funzione erfc(x) pu essere approssimata da:


1 x 2 1 43 x 2
- erfc ( x ) e + e per x > 0 (ottima approssimazione);
6 2
ex
2

- erfc ( x ) per x > 0 (approssimazione meno buona, ma comunque


x
abbastanza accettabile per x > 3,5).

NOTA: la funzione erfc(x) ha, come upper bound, funzioni come:


1 1 2
erfc ( x ) < e 2 x + e x < e x
2 2

2 2
NOTA (2): la funzione inversa di erfc(x) detta inverfc(x). Vale circa:
ln y
inverfc ( y ) ( dove y = erfc(x) )
1 + 0,6 ( ln y )
0,8

Tale relazione valida per y che vale qualche decina.


Se la funzione erfc(y) limitata da e x , allora inverfc(x) limitata da
2
ln y .
Dimostrazione:
y = erfc(x) e inverfc(y) = x
x2
y<e
ln y < ln e x
2

ln y > x 2
ln y > x = inverfc ( y ) con 0 < y < 1
+
1 2
1 x
- funzione Q: Q ( x )
t

2
e
x
2
dt =
2
erfc
2

Dimostrazione:
+
2
erfc ( k ) e
t 2
dt
k
+
x x 2
e
t 2
Se pongo k = : erfc dt
2 2 x
2
+ 2
d x 2 d
Cambio di variabile t =
2
 dt =
2
: erfc
2

e
t
2

2
+ 2
1 x 1 1
erfc 2 e 2
d = Q ( t )
2 2 2 2 t

7. Variabile aleatoria di Rayleigh

Una variabile aleatoria (continua) di


Rayleigh ha una PDF cos strutturata:
x x2
2

e
per x 0
X : fX ( x ) = 2
2

0 altrove

Come per le altre variabili aleatorie


lanciamoci nella ricerca di:
- valore atteso: E [ X ] = ;
2
Dimostrazione:

risoluzione per parti dell'integrale

+
+
x
x2 x 22 + x2
2
+
1
x2
2
E [X ] = x 2
dx = x e  1 e dx = 2 e dx =
2
e 2 2 2
2
2

0 d x

0 0
 dx  
x 2x 2
2 x2
x 2 2
2 0 2
e dx e dx

questo termine si annulla

(NOTA: comparsa una gaussiana a valore medio nullo e varianza 2 )


l'integrale copre
met dell'area che

sta sotto la curva

= 2 12 =
2
- momento del secondordine: E X 2 = 2 2
Dimostrazione:

risoluzione per parti dell'integrale

+
+
x
x2 x 22 + x2
2
+ x2
2
E X = x 2
dx = x e 2  2x e 2 dx = 2 xe 2 dx =
2 2 2 2
e
2

0 d x2

0 0
 dx 

x 2 x 2
x 2 2 x 2 2
2
e dx
0 2
e dx
 
questo termine si annulla
+
x2 x2
2
+
x
= 2 2
dx = 2 e 2 = 2 2
2 2 2
2
e
0 0

- varianza: var ( X ) = 2 = E X 2 E 2 [ X ] = 2 2 2 = 2 2
2 2

8. Variabile aleatoria di Rice

Una variabile aleatoria (continua) di Rice ha una PDF cos strutturata:


polinomio di Bessel

 
di ordine 0
x2 +2
x
con > 0 X : fX ( x ) = 2 e 2 2
x
I0 2 per x 0

0 altrove

x
Il termine I 0 2 , dove I0 sta ad indicare il Polinomio di Bessel di ordine zero, si

+ + x
1 x 1 cos
sviluppa cos: I 0 ( x )
x cos
e d .
2
e d I 0 2

2 2
Per la variabile aleatoria di Rice si ha che:


2 1
momento del secondordine  E X = 2 + = 1 +
2 2 2
K

fattore di Rice
k 2 ( 2 2 )
x
I0

2 
x +
2 2
x x2 +2 x
x 2 1 cos + cos
Infatti: E [ X 2 ] = x 2 2 e 2
1
e d dx = x e 2 2 2
d dx
2 3

2 2 2 0
0
 
fX ( x )

Cambio di variabile:
f ( x , y ) dxdy = f (1 (u,v ) ,2 (u,v ) ) J (u,v ) dudv
D 1 ( D )

1 1
1 v
Dove: ( x , y ) ( u,v ) , x = 1 ( u,v ) , y = 2 ( u,v ) , = , J ( u,v ) = det u
2 2 2

u v
Ora effettuiamo il cambio di variabile:
2 + 2 + 2 2
= x cos
( 2 + 2 ) 2 + 2 e
1 1
2
2 2
d d =
= x sin 2 2 +2


J ( , )

( ) +
2 2
( ) + 2
2

1 1
= 2
d d + 2 2
d d =
2 2 2
e e
2 2

2 2

( )2 2 ( )2 2
1 1
= d 2
d
e 2 2
+ e d 2 2
d = 2 2
2 2 2
e e
2 2
2 2
  
 

per parti ricorda un poco la gaussiana ricorda un poco la gaussiana per parti
= ( 2 + 2 ) 2
2
( )2 = 2 2
1 1
2 e 2 2 d = 1 2
2 e 2 2 d = 1 2 (varianza)

=
1
( 2 + 2 ) 2 2 +
1
2 2 2 = ( 2 + 2 ) + 2 = 2 2 + 2
2 2
2 2

9. Funzione di distribuzione cumulativa congiunta

La funzione di distribuzione cumulativa congiunta riguarda pi variabili aleatorie


continue: ponendo per esempio che le v.a. coinvolte siano 2 (X e Y), la funzione in
questione calcola la probabilit che lesito dellesperimento comporti, per X e Y, valori
inferiori o al limite uguali rispettivamente a x e y. Cerchiamo dunque:
FX ,Y ( x , y ) = P { X x ,Y y}
Ricordandoci poi (vedi paragrafo 3) della PDF di probabilit congiunta fX ,Y ( x , y )
formulata nel caso di due variabili aleatorie, si ha che essendo la funzione di
distribuzione cumulativa una primitiva della funzione densit di probabilit:
2
fX ,Y ( x , y ) = Fx , y ( x , y )
x y
Diamo ora qualche propriet della CDF per pi variabili continue (nel nostro caso 2,
ma il tutto si pu estendere!):
- FX ( x ) = FX ,Y ( x , ) ;
- FY ( y ) = FX ,Y ( , y ) ;

- fX ( x ) = f ( x , y ) dy = f ( x , y ) dy ;

X ,Y

X ,Y

- f ( x , y ) dxdy = 1 ;

X ,Y

- P {( x , y ) A } = f ( x , y ) dxdy ;
2
X ,Y
A
x y

- Fx , y ( x , y ) = f (u, z ) dudz .
X ,Y

10. Variabili aleatorie condizionate e relativa PDF. Indipendenza statistica.

Cercare la probabilit condizionata di due variabili aleatorie significa osservare cosa


succede ad una di esse sapendo cosa accade allaltra: due o pi variabili aleatorie
possono infatti essere luna con laltra dipendenti. In particolare, se esiste tale tipo di
dipendenza, si dice che la probabilit
P (X Y )
quella che si verifichi X sapendo che accaduto Y.
Possiamo cos definire (sempre nel caso di due v.a.) una PDF condizionata:
f ( x, y)
fX Y ( x Y = y ) = X ,Y
fY ( y )
Tale funzione esprime, sapendo che y ha assunto un determinato valore, la densit di
probabilit nei confronti di x. Ovviamente, se Y non possibile, non ci sar possibilit
che si verifichino sia X che Y: si ha infatti che
fX Y ( x y ) = 0 fY ( y ) = 0
Se X e Y sono statisticamente indipendenti, la distribuzione congiunta fX ,Y si pu
scrivere cos:
fX ,Y ( x , y ) = fX ( x ) fY ( y ) per ogni x e y
Oppure, equivalentemente:
fX Y ( x , y ) = fX ( x )
perch comunque lesito dellesperimento governato da X indipendente da quello
regolato dalla v.a. Y.

11. Funzioni a due variabili aleatorie: valor medio statistico, funzione di


correlazione, funzione di covarianza, coefficiente di correlazione,
incorrelazione fra le v.a., relazioni tra indipendenza e incorrelazione

Il valor medio statistico di una funzione (a due variabili aleatorie) il seguente:


E ( g ( X ,Y ) ) = fX ,Y ( x , y ) g ( x , y ) dxdy

La funzione di autocorrelazione cos definita:


corr ( X ,Y ) E [ XY ] = xy fX ,Y ( x , y ) dxdy

Invece, la funzione di covarianza :


cov ( X ,Y ) E ( X E ( X ) ) (Y E (Y ) )
Si pu dimostrare che cov ( X ,Y ) = corr ( X ,Y ) E [ X ] E [Y ] .
Dimostrazione:
Anzitutto, facciamo mente locale sullequazione che dobbiamo dimostrare:
cov ( X ,Y ) = corr ( X ,Y ) E [ X ] E [Y ]  E ( X E ( X ) ) (Y E (Y ) ) = E [ XY ] E [ X ] E [Y ]
Dopodich sviluppiamo il termine dentro la parentesi
E ( X E ( X ) ) (Y E (Y ) ) = E XY YE [ X ] XE [Y ] E [ X ] E [Y ]
e applichiamo la propriet di linearit del valor medio:

E XY YE [ X ] XE [Y ] + E [ X ] E [Y ] = E [ XY ] E Y E [ X ] E X E [Y ] + E E [ X ] E [Y ] =

costante

costante

costante

= E [ XY ] E [ X ] E [Y ] E [Y ] E [ X ] + E [ X ] E [Y ] = E [ XY ] E [Y ] E [ X ] .
  
costante costante costante

Nel caso particolare:


cov ( X , X ) = E ( X E ( X ) ) ( X E ( X ) ) = E ( X E ( X ) ) var ( X )
2


cov ( X ,Y )
Infine, definiamo il coefficiente di correlazione X ,Y : X ,Y = .
XY
Il coefficiente di correlazione d uninformazione sulla relazione di X e Y in termini
medi statistici; tale coefficiente pu assumere valori da -1 a +1 (compresi): nel caso
(ancora pi) particolare in cui il modulo di X ,Y 1, allora X e Y sono dipendenti. Un
altro caso limite interessante si ha quando X ,Y 0: allora in tal caso le due variabili X
e Y si dicono incorrelate. Ci comporta che:
- cov ( X ,Y ) = 0 ;
- E [ XY ] E [ X ] E [Y ] = 0 E [ XY ] = E [ X ] E [Y ] . Questultima affermazione ci
d una relazione tra indipendenza statistica (concetto forte) e incorrelazione
(concetto debole). Se infatti si ha
fX ,Y ( x , y ) = fX ( x ) fY ( y )
allora si ha pure
E [ XY ] = E [ X ] E [Y ]
Dimostrazione:
fX ,Y ( x , y ) se x e y

sono indipendenti

xy fX ,Y ( x , y ) dxdy = xy fX ( x ) fY ( y ) dxdy = xfX ( x ) dx yfY ( y ) dy = E [ X ] E [Y ]


        
E [ XY ] E[ X ] E [Y ]

Questo significa che indipendenza implica sicuramente incorrelazione. Tuttavia


il contrario non avviene necessariamente!

12. Variabili aleatorie congiuntamente gaussiane

Due variabili aleatorie X e Y si dicono congiuntamente gaussiane se


( x x ) + ( y y ) 2 ( x x )( y y )
2 2
1

1 ( )
2 1 2 x2 y2 x y
fX ,Y ( x , y ) = e

2 x y 1 2
E [ XY ] E [ X ] E [Y ]
con = (coefficiente di correlazione tra X e Y) , X N x , x2 e
x y
Y N y , y2 .
Si pu dimostrare che, come accade di norma per le variabili congiunte, anche per le
variabili aleatorie congiuntamente gaussiane si ha che:

fX ( x ) = fX ,Y ( x , y ) dy

E allo stesso modo valgono le relazioni illustrate nel paragrafo 9.

Ponendo il coefficiente di correlazione = 0, la PDF diventa:



( )
2
1 ( x x ) y y
2
+
1 2 x2 y2
fX ,Y ( x , y ) =

e
2 x y
In questo caso (e solo in questo caso) si verifica che lincorrelazione (facile da
verificare) implichi lindipendenza (difficile da verificare).

Se le variabili gaussiane sono N, allora la funzione di densit di probabilit sar:


( x )c ( x )
1

( )
1 T
1
f x1 , x2 ,..., x N =2
e
( 2 )
n
det c
{
Dove c una matrice di covarianza n n contenente i termini ci , j = cov ( X i , X j ) , }
x = ( x1 , x2 , ..., x n ) (vettore delle variabili aleatorie), = ( 1 , 2 , ..., n ) (vettore dei
valori medi delle rispettive v.a.).

Una propriet importante delle variabili gaussiane che una combinazione lineare
delle stesse produce ancora una variabile con distribuzione gaussiana: tale
affermazione enunciata in maniera rigorosa nel cosiddetto teorema del limite
centrale. Esso cos enunciato: X1 , X 2 , ..., X n siano v.a. indipendenti con valori medi
1 , 2 , ..., n e varianze 12 , 22 , ..., n2 . Allora la v.a.
1 n
( X i i )
Y =
n
i =1 i
sotto condizioni generali ha una distribuzione che, al crescere di n, tende a quella di
una gaussiana con valor medio nullo e varianza unitaria.
Nel caso particolare in cui X1 , X 2 , ..., X n sono variabili i.i.d. (indipendenti e
identicamente distribuite) , tutte con valore medio e varianza 2 , abbiamo invece:
1 n 2
Y = i n
n i =1
X N ,
n
II - PROCESSI ALEATORI
(random / stochastyc processes)

1. Definizione

Un processo aleatorio X(t) formato da un insieme di realizzazioni (o funzioni


campione, x ( i ) (t ) ) determinate e, nel nostro caso, reali.
Ognuna di queste realizzazioni ha una certa probabilit di verificarsi: se poi
verticalmente fisso un istante di osservazione uguale per tutte le nostre
realizzazioni, otterr un insieme di valori (uno per ogni realizzazione, dovuto
allintersezione tra listante di tempo t scelto e la realizzazione stessa) aleatorio; a
causa di ci posso dire che X (t1 ) , in realt, una variabile aleatoria.

Se ho a disposizione un processo aleatorio posso fare alcuni calcoli su di esso:


- medie orizzontali o temporali: sono medie a posteriori, formulabili - cio - una
volta osservata luscita del processo (e non prima di averla conosciuta tutta!).
Se, dunque, osservo una realizzazione a caso x ( ) (t ) posso:
i

T0
2
1
- calcolare il valor medio temporale: x (i )
(t ) = lim
T0 T x ( ) ( t ) dt ;
i

0 T
0
2

(t )
2
(i )
- calcolare la potenza media: x ;

- calcolare la funzione di autocorrelazione: Rx (i ) ( ) = x ( ) (t ) x ( ) (t ) ;


i i

- calcolare lo spettro di potenza: Gx (i ) ( f ) = F Rx (i ) ( ) . { }


- medie verticali: sono medie a priori; trattasi, precisamente, di quelle accennate
poco fa quando si parlava di rilevazioni fatte in un istante di osservazione
uguale per tutte quante le realizzazioni. Dei valori cos ricavati possiamo
calcolare valore medio, varianza, momento di n-simo grado etc.
Volendo, posso complicarmi la vita e scegliere pi punti di osservazione
t1 , t2 , ..., tn : otterr cos X (t1 ) , X (t2 ) , ..., X (tn ) , che posso studiare
separatamente oppure congiuntamente, calcolando la densit di probabilit
congiunta (di n-simo grado)
p ( x1 ,t1 ; x2 ,t2 ; ...; xn ,tn )
Moltiplicando questultimo termine per d x 1 d x 2 ...d x n ottengo la probabilit che
la prima variabile aleatoria sia nellintervallo infinitesimo [ x1 , x1 + dx1 ] , che la
seconda si trovi in [ x2 , x2 + dx2 ] e cos via. Dopodich per ogni variabile e per gli
intervalli che mi interessano posso fare, se vi necessit, le integrazioni come
illustrato nei casi precedenti.

poi necessario fare una distinzione fra:


- segnali tempo-continui: i segnali tempo continui possono assumere un valore
diverso ad ogni istante dellasse dei tempi;
- segnali tempo-discreti: i segnali tempo discreti vengono emessi ogni quanto di
tempo;
- segnali continui nei valori: tali segnali possono assumere uninfinit non
numerabile di valori;
- segnali discreti nei valori: c un numero finito di valori che i segnali possono
assumere.

2. Descrizione statistica di processi aleatori tempo-continui e continui nei


valori: autocorrelazione e autocovarianza statistica

Se abbiamo un processo
aleatorio tempo-continuo e
esaminiamo verticalmente le
varie realizzazioni in n istanti
di tempo t1 , t2 , ..., tn , ci che
otteniamo sono n variabili
aleatorie

X (t1 ) , X (t2 ) , ..., X (tn )

Una volta definite le grandezze


in gioco possiamo esprimere in
maniera rigorosa la densit di
probabilit (congiunta, di ordine n) legata al fatto che le varie realizzazioni, in
determinati istanti di tempo, assumano particolari valori:
pn ( x1 , t1 ; x 2 , t2 ; ...; xn , tn )
Come gi si detto nel capitolo 1, integrando la seguente quantit
pn ( x1 , t1 ; x 2 , t2 ; ...; xn , tn ) dx1dx 2 ...dx n
la quale esprime la probabilit che le variabili aleatorie in gioco assumano i seguenti
valori
P {x1 X (t1 ) x1 + dx1 , x 2 X (t2 ) x 2 + dx 2 , ..., x n X (tn ) x n + dx n }
possibile verificare che sussistono le propriet, anchesse gi viste:
- normalizzazione: pn ( x1 , t1 ; x 2 , t2 ; ...; x n , tn ) dx1dx 2 ...dx n = 1 ;
n
- eliminazione di una variabile:
pn ( x1 , t1 ; x2 , t2 ; ...; xn , tn ) dx1dx2 ...dxn = pn1 ( x1 , t1 ; x2 , t2 ; ...; xn1 , tn1 ) dx1dx2...dxn1 ;

- calcolo della probabilit riguardo un insieme di valori:
{ }
P ( X (t1 ) , X (t2 ) , ..., X (tn ) ) A Rn = pn ( x1 , t1 ; x2 , t2 ; ...; xn , tn ) dx1dx2 ...dxn .
A

Per le funzioni sovrascritte si definisce una funzione di autocorrelazione statistica:


RX (t, ) E ( X (t ) X (t ) ) = corr ( X (t ) X (t ) )
NOTA: tale definizione ricorda una formulazione analoga data nel caso non aleatorio
per funzioni determinate: Rx ( ) = x (t ) x (t ) . La funzione di autocorrelazione
statistica, tuttavia, dipende da due parametri (sia da t che da t ), mentre la Rx ( )
notare la x minuscola dipende solamente da .

Introduciamo poi la funzione di autocovarianza statistica:


C X (t , ) cov ( X (t ) X (t ) ) =E {( X (t ) E X (t ) ) ( X (t ) E X (t ) )} =
= ... = R X (t , ) E X (t ) E X (t )
 
E ( X (t ) X (t ) )

La funzione di autocorrelazione e la funzione di autocovarianza misurano la


somiglianza tra il processo osservato in un istante e lo stesso processo osservato in un
altro istante: pi valgono e maggiore sar la somiglianza in questione.

3. Processi aleatori stazionari in senso stretto (SSS, Strict Sense Stationary)

Due processi aleatori


X (t ) e X (t t0 )
si dicono stazionari in senso stretto se hanno la stessa descrizione statistica per ogni
t0 . Questo comporta che ad esempio, se traslo tutte le realizzazioni di una quantit t0,
non osservo differenze. Dal punto di vista statistico rimangono dunque invariate le
funzioni densit di probabilit, come si nota in questa uguaglianza:
pn ( x1 , t1 ; x 2 , t2 ; ...; x n , tn ) = pn ( x1 , t1 + z; x 2 , t2 + z; ...; x n , tn + z )
Come si vede, non conta dove gli istanti sono posizionati, ma conta soltanto la distanza
relativa fra di essi (la differenza). Posso quindi scrivere che:

p2 ( x1 , t1 ; x 2 , t2 ) = p2 x1 , x 2 ; t2 t1


( 4 parametri )  ( 3 parametri )
Conseguenza della stazionariet che posso svincolare dalla dipendenza rispetto al
tempo la densit di probabilit del primordine:
p1 ( x1 ,t1 ) = p1 ( x1 )
Inoltre, non c bisogno di specificare t nellespressione del valor medio, che pure lui a
tutti gli effetti non dipende dal tempo.
E X (t ) = E [ X ]
Fra le altre conseguenze della stazionariet in senso stretto:
- neanche la funzione di autocorrelazione non dipende dal tempo, perch la
stessa per tutti gli istanti di osservazioni che hanno la stessa distanza relativa:
RX (t, ) E ( X (t ) X (t ) ) = RX ( )
- la stessa identica cosa accade per la funzione di autocovarianza:
CX (t, ) cov ( X (t ) X (t ) ) = CX ( )

4. Processi aleatori stazionari in senso lato (WSS, Wide Sense Stationary)

Mentre molto difficile capire se un processo stazionario in senso stretto (condizione


piuttosto forte), esistono due condizioni non troppo difficili da verificare che ci dicono
se un segnale stazionario in senso lato (condizione un pelo pi debole).
1) Il valor medio non deve dipendere dal tempo: E X (t ) = E [ X ] ;
2) La funzione di autocorrelazione non dipende dal tempo: RX (t, ) = RX ( ) .
Appurare che queste due condizioni sussistono non complicato da verificare in
quanto esse si riferiscono a due quantit medie e non a comportamenti specifici nel
tempo. A causa di questa gerarchia, che si viene a formare fra i processi stazionari,
risulta infine che i processi stazionari in senso stretto sono anche stazionari in senso
lato, mentre non accade il viceversa.

Processi aleatori Una piccola considerazione: non esistono, in


realt, processi che durano da sempre e
Stazionari in senso lato
dureranno per sempre. Non esistono, cio,
Stazionari in senso stretto
funzioni definite per ogni t: dunque tutte le
funzioni a potenza finita che teoricamente non
sono a durata limitata sono astrazioni; allo
stesso modo anche i processi stazionari sono
astrazioni. I processi stazionari che ci interessano hanno realizzazioni a potenza finita:
se fossero ad energia finita, il segnale dovrebbe andare a zero allinfinito, ma questo
cozza con la stazionariet (se le varie realizzazioni vanno a zero nello stesso
intervallo non pu esserci stazionariet!).

Propriet della funzione di autocorrelazione per i processi WSS: Processi stazionari in senso lato

1) RX ( 0 ) = E X 2
Dimostrazione:
RX (t, ) = RX ( ) E X (t ) X (t )
RX ( 0 ) E X (t ) X (t 0 ) = E X 2 (t ) = E X 2
2) RX ( ) = RX ( )
Dimostrazione:
RX (t, ) = RX ( ) E X (t ) X (t ) e RX (t, ) = RX ( ) E X (t ) X (t + )
Se, come abbiamo posto per ipotesi, siamo nel caso WSS, la funzione di
autocorrelazione non dipender da t: possiamo quindi utilizzare un diabolico
trucco e aggiungere t0 nella prima relazione sopra scritta:
RX (t, ) = RX ( ) E X (t + t0 ) X (t + t0 )
Ponendo t0 =
RX ( ) = E X (t + ) X (t + ) = E X (t + ) X (t )
la prima relazione diventa uguale alla seconda senza aver modificato i suoi
connotati statistici.
3) RX ( ) RX ( 0 )
Dimostrazione:
essendo il quadrato di un binomio, la quantit
E ( X (t ) X (t ) )
2


sicuramente un numero maggiore di zero. Dunque possiamo scrivere:
0 E ( X (t ) X (t ) )
2


Sviluppiamo quindi il binomio
0 E X 2 (t ) + X 2 (t ) 2 X (t ) X (t )
e applichiamo la linearit del valor medio:
0 E X 2 (t ) + E X 2 (t ) E 2 X (t ) X (t )
   
= RX ( 0 ) per la propriet 1 = RX ( 0 ) per la propriet 1 = 2 RX ( ) per definizione
e per il fatto che il processo e per il fatto che il processo
WSS e non c' dipendenza WSS e non c' dipendenza
dal tempo dal tempo

Sostituendo ci che abbiamo ricavato:


0 2RX ( 0 ) 2RX ( )
RX ( 0 ) RX ( )
Siccome il primo termine sicuramente positivo ( pari al valor medio di X2)
possiamo scrivere:
RX ( 0 ) RX ( )
NOTA: la disuguaglianza RX ( 0 ) RX ( ) ci suggerisce che il grafico di RX ( )
simmetrico rispetto allorigine e ha un massimo nella stessa.
4) Se X (t ) e X (t ) sono indipendenti, allora RX ( ) = E 2 [ X ]
Dimostrazione:
Prendiamo un valore tale per cui X (t ) e X (t ) sono indipendenti e
scriviamo la funzione di autocorrelazione, dopodich applichiamo le propriet
dei processi stazionari in senso lato. La dimostrazione dunque brevissima:
RX ( ) E X (t ) X (t ) = E X (t ) E X (t ) = E 2 [ X ]
  
= E X (t ) perch il
processo WSS

NOTA: sempre nellipotesi che X (t ) e X (t ) sono indipendenti, si osserva che


la funzione di autocovarianza statistica nulla, in quanto:
CX ( ) = RX ( ) E X (t ) E X (t ) = RX ( ) E [ X ] E [ X ] = E 2 [ X ] E 2 [ X ] = 0
   
=E2 [ X ] Sempre per l'ipotesi
di WSS

5. Ergodicit

Un processo aleatorio si dice ergodico se ciascuna realizzazione caratteristica, con


probabilit 1, dellintero processo; in altre parole, si ha ergodicit se i rilievi statistici
(verticali) fatti su un insieme qualunque di istanti di osservazione coincidono, con
probabilit 1, con i corrispondenti rilievi temporali fatti su una qualunque
realizzazione del processo.

NOTA: I processi ergodici sono un sottoinsieme dei processi stazionari in senso stretto,
quindi sono davvero pochi!
Un connotato importante che
caratterizza i processi
ergodici il fatto che in una
singola realizzazione vi siano
tutte le informazioni che il
processo possiede al suo
interno: questo perch le
medie temporali (orizzontali)
coincidono esattamente con le
medie statistiche (verticali).
Come conseguenza di ci:
1) Le varie realizzazioni
hanno tutte lo stesso valor
medio temporale, il quale
coincide col valor medio del
processo. Si ha dunque:
{ valor medio statistico } =
= { valor medio temporale }
E X (t ) = E [ X ] = x (t ) =
T0
1
= lim
T0 2T
0
x ( t ) dt
T0

2) Nella funzione RX ( ) di autocorrelazione influisce soltanto la distanza relativa


fra gli istanti di osservazione e non listante preciso scelto (se il processo ergodico,
pure stazionario!). Inoltre, tale funzione di autocorrelazione coincide col
corrispondente rilievo fatto orizzontalmente:
{ autocorrelazione statistica } = { autocorrelazione temporale }
RX ( ) = E X (t ) X (t ) = x ( ) (t ) x ( ) (t ) = Rx ( )
i i

3) Una cosa simile a quella illustrata nel punto (2) accade anche per la funzione di
autocovarianza: anche questa ha una sua controparte orizzontale e nel caso
ergodico questultima coincide con la gi introdotta CX ( ) . Infatti:
{ autocovarianza statistica } = { autocovarianza temporale }
=E[ X ] =E[X ]

 
  

CX ( ) = E X (t ) E X (t ) X (t ) E X (t ) = E ( X (t ) E [ X ]) ( X (t ) E [ X ]) =




= x (t ) x (t ) x (t ) = Cx ( )
2

 
=E 2 [X ]

4) La potenza dellintero processo coincide con la potenza della generica realizzazione:


PX = E X 2 = x 2 (t ) = Px = RX ( 0 )
Di conseguenza, il quadrato del valore efficace di ogni realizzazione corrisponde sia
alla potenza Px che alla potenza PX :
2
x eff = Px = PX
5) Per quanto riguarda la varianza (che uguale per tutte le realizzazioni): a causa
della stazionariet essa non dipende dal generico istante t in cui viene calcolata.
(
X2 = E X 2 E 2 [ X ] = x 2 (t ) x (t ) )
2
6) Lo spettro di potenza del processo coincide con lo spettro di potenza di ogni
realizzazione.
GX ( f ) F {RX ( )} = F {Rx ( )} = Gx ( f )

Non semplice fornire un esempio di processo ergodico; invece molto pi facile dare
un esempio di processo non ergodico. Il processo a realizzazioni costanti fatto di n
realizzazioni, ognuna delle quali assume un (casuale) valore costante: sicuramente
questo processo stazionario (posso calcolare valor medio, varianza, funzione di
autocorrelazione, etc in qualunque punto, tanto il risultato non cambia) tuttavia non
assolutamente ergodico; infatti, ogni realizzazione ha un valor medio diverso, un suo
spettro di potenza e cos via.
In cosa consiste la densit del primordine di
un processo ergodico?
Possiamo fare due tipi di rilievi:
- verticale: consiste nellandare ad
esaminare le varie realizzazioni in un
preciso istante di tempo e nel contare
quante di loro, in quel preciso istante,
hanno un valore contenuto allinterno
di un dato intervallo [a,b]. Da questo
esperimento si ricava:
= P {a < X (t ) < b}
nvolte
nrelizzazioni
In particolare, fissando un intervallo
molto piccolo possiamo ricavare
qualcosa di imparentato con la PDF:

P x < X (t1 ) < x+ dx = p1 ( x ) dx
a b
Questultimo termine pu essere a
b
sua volta integrato per ottenere: p ( x ) dx = P {a < X (t ) < b} .
a
1

NOTA: il processo, essendo ergodico e dunque stazionario, ha la propriet di far


coincidere
p1 ( x1 ,t1 ) = p1 ( x1 )
- orizzontale: se il
segnale in questione
ergodico, possibile
ricavare la densit di
probabilit anche dalla
frazione di tempo in cui
un qualsiasi campione
x(t), al trascorrere di t ,
soddisfa la condizione
a < X (t ) < b .
Questo perch si ha che:
t k
k
= P {a < X (t1 ) < b}
T0
Per ergodicit, e dunque stazionariet, rilievi verticali e orizzontali coincidono
perfettamente.

Problema: come facciamo a capire se un processo ergodico? Anzitutto bisogna capire


se stazionario. Dopodich verifichiamo se sussiste una condizione sufficiente
piuttosto comoda, che quella di memoria finita.
Un processo aleatorio ha memoria finita M se, osservato il processo fino a un generico
istante t1 , non possibile fare alcuna previsione statistica sullevoluzione del processo
in istanti maggiori di t = t1 + M . In pratica noi ci aspettiamo che, se un processo ha
memoria finita, landamento del segnale sia imprevedibile (e in un certo senso
drasticamente diverso rispetto al passato) dopo M secondi dallultima rilevazione
conosciuta. In tal caso si dice anche che il processo si rinnova ogni M secondi.
NOTA: se prendo in un processo aleatorio prendo due istanti molto diversi
X (t ) e X (t )
allora questi saranno indipendenti per > M .
Dunque, se un p.a. stazionario e ha memoria finita, allora esso sar ergodico.

6. Processi aleatori gaussiani

X (t ) un processo aleatorio gaussiano se le v.a. X (t1 ) , X (t2 ) , ..., X (tn ) sono


congiuntamente gaussiane (qualunque sia n e qualsiasi siano gli istanti).
In questo caso pn ( x1 ,t1 ; x 2 ,t2 ; ...; x n ,tn ) una densit di probabilit gaussiana e,
precisamente, la probabilit congiunta di variabili gaussiane. Tale PDF ha la seguente
espressione (vedi anche capitolo1):
( x )c ( x )
1

( )
1 T
1
f x1 , x2 ,..., x N = 2
e
( 2 )
n
det c
Dove:
- c una matrice di covarianza con dimensione n n contenente i termini

{c
i, j }
= cov ( Xi , X j ) = E Xi X j E [ Xi ] E X j ;
- x = ( x1 , x2 , ..., x n ) (vettore delle variabili aleatorie);
- = ( 1 , 2 , ..., n ) (vettore dei valori medi delle rispettive v.a.);
Se il processo aleatorio gaussiano anche stazionario, allora si ha che i valori medi
sono tutti uguali:
E X (t ) = E [ X ]
Questo influisce sulle quantit sopra descritte facendo diventare cos i coefficienti
della matrice di covarianza:


ci, j = CX (t j ti ) = RX (t j ti ) E X
2


CX ( ) = RX ( ) E X E X

Diamo ora alcune propriet:


- se il processo aleatorio gaussiano stazionario in senso stretto (SSS), possiamo
traslarlo quanto ci pare che, in ogni caso, c e non cambiano; ci implica che le
densit di probabilit di ordine n non cambiano nel tempo, essendo determinate
da E [ X ] (invariante) e da RX ( ) (che nel caso stazionario ed ergodico pari a
E X (t ) X (t ) e dipende solo dalla distanza relativa dei due istanti);
- se le variabili aleatorie sono incorrelate allora si ha indipendenza statistica
(vale solo per i processi gaussiani!);
- la stazionariet in senso lato implica anche stazionariet in senso stretto (ma
solo per i processi gaussiani!);
- se il valor medio nullo si ha che 2 = RX ( 0 ) ;
- la trasformazione LTI di un processo aleatorio gaussiano produce un altro
processo aleatorio gaussiano.

Importante la seguente estensione del teorema del limite centrale: dati n processi
aleatori X1 (t ) , X 2 (t ) , ..., X n (t ) identicamente distribuiti e statisticamente
indipendenti, il processo
1 n
Y (t ) =
X i (t )
n i =1
ha una descrizione statistica che, al crescere di n, tende a quella di un processo
aleatorio gaussiano (indipendentemente dalle descrizioni dei processi
X1 (t ) , X 2 (t ) , ..., X n (t ) )

7. Processi aleatori discreti nei valori

Anzitutto ricordiamo che un processo si dice discreto nei valori se, fissati gli istanti di
osservazione t1 , t2 , ..., tn , le v.a. X (t1 ) , X (t2 ) , ..., X (tn ) sono discrete e quindi descritte
dalla loro probabilit congiunta (probabilit di ordine n):
pn ( x1 ,t1 ; x 2 ,t2 ; ...; x n ,tn ) = P X (t1 ) = x1 , X (t2 ) = x 2 , ..., X (tn ) = x n
In tal caso le medie statistiche vanno riscritte con le opportune sostituzioni; ad
esempio, se X (t ) per ogni valore di t pu assumere soltanto i valori x ( ) , x ( ) , ..., x ( )
1 2 L

allora possiamo ridefinire in maniera discreta:

( )
L
- il valor medio: E X (t ) = x ( ) P1 x ( ) ,t ;
i i

i =1

( )
L 2
- il momento del secondordine: E X 2 (t ) = x ( ) P1 x ( ) ,t ;
i i
i =1

- la funzione di autocorrelazione:
L L
R X (t , ) = E X (t ) X (t ) = x ( )x ( )P x ( i ) , t ; x (l ) , t .
i l

i =1 l =1
2
La stazionariet e lergodicit si introducono in maniera assolutamente analoga a
quanto visto per i p.a. continui nei valori.

8. Processi aleatori tempo-discreti

Tale tipo di processo rappresentato da una successione di variabili aleatorie


{X n } = ..., X 1 , X 0 , X1 , ..., X n , ...
(se sono continue  processo continuo nei valori
se sono discrete  processo discreto nei valori)
e le realizzazioni sono successioni xn( ) . { } i
La descrizione statistica di questo tipo di processi aleatori assolutamente analoga a
quella del caso tempo-continuo: bisogna per tenere presente che il tempo assume solo
certi valori (si pu dire che procede di quanto in quanto). Possiamo dunque definire
(con riferimento a un p.a. suscettibile dei soli valori x ( ) , x ( ) , ..., x ( ) ):
1 2 L

{ } ( )
L L
- il valor medio: E [ X n ] = x ( ) P X n = x ( ) = x ( ) P1 x ( ) , n ;
i i i i

i =1 i =1

- il momento del secondordine:

{ } ( )
L 2 L 2
E X n2 = x ( ) P X n = x ( ) = x ( ) P1 x ( ) , n ;
i i i i

i =1
i =1

- la funzione di autocorrelazione:
L L
RX (n, k ) = E [ X n X n k ] = x ( )x ( )P x (i ) , n ; x (l ) , n k .
i l

i =1 l =1
2
I concetti di stazionariet ed ergodicit possono essere introdotti analogamente ai casi
gi considerati. In particolare:
- se il processo WSS il valor medio non dipende dal tempo
E [ Xn ] = E [ X ]
e la funzione di autocorrelazione dipende solo dalla distanza relativa k fra i due
istanti considerati
RX ( n, k ) = RX ( k )
- la trasformata della funzione di autocorrelazione :

T X ( f ) = FS {RX ( k )} = RX ( k ) e 2 fkT

(sono state applicate le propriet della trasformata di Fourier e in particolare


quella che fa corrispondere un fasore ad un ritardo)

9. Processi aleatori ciclostazionari e processi cicloergodici

Un processo aleatorio si dice ciclo stazionario se, per ogni t0 = kT (con k un numero
intero e T pari al periodo),
X (t ) e X (t t0 ) = X (t kT )
hanno la stessa descrizione statistica.
Ci influisce, ovviamente, sulle densit di probabilit, che diventa periodica in t con
periodo T:
pn ( x1 ,t1 ; x 2 ,t2 ; ...; x n ,tn ) = pn ( x1 ,t1 + kT ; x2 ,t2 + kT ; ...; xn ,tn + kT )
Diventano periodici in t con periodo T anche:
- il valor medio: E X (t )
- la funzione di autocorrelazione: RX (t, ) = E X (t ) X (t )
- la funzione di autocovarianza: CX (t, )

I processi cicloergodici sono un sottoinsieme dei processi ciclostazionari: per essi i


rilievi statistici fatti su un insieme di istanti di osservazione danno risultati
coincidenti con probabilit 1 con quelli dei corrispondenti rilievi temporali fatti
considerando istanti che differiscono per multipli di T da .
Dunque, in questo caso, le variazioni che vedo verticalmente (medie verticali) posso
vederle anche orizzontalmente nella singola realizzazione, spostandomi da quel punto
di T in T. Ad esempio il valor medio verticale E X (t1 ) coincide, orizzontalmente, col
valor medio dei campioni presi sulla singola realizzazione ad ogni T. Unaltra
importante conseguenza il fatto che, per un processo ciclo ergodico, qualunque media
statistica, mediata sul periodo T, coincide con la corrispondente media temporale
(fatta su tutto lasse!). Infatti queste sono le espressioni de:
1
- il valor medio temporale: x (t ) = E X (t ) dt ;
 T T  
temporale statistico

- la funzione di autocorrelazione temporale:


1
x (t ) x (t ) = RX (t, ) dt = Rx ( ) ;
TT   
statistica temporale

- lo spettro di potenza: Gx ( f ) = F {Rx ( )}


- la funzione di autocovarianza temporale:
1
Cx ( ) = x (t ) x (t ) x (t ) x (t ) = CX (t, ) dt
 T T 
temporale statistica

Come esempio prendiamo un


processo del tipo in figura: allo
scadere di ogni periodo T viene
tirata a caso la presenza o
meno di un bit (1 = arco di
sinusoide, 0 = nessuna
variazione). Tale processo non
stazionario e neppure
ergodico (tant che i processi
possono tutti quanti essere 0
contemporaneamente): esso,
tuttavia, ciclostazionario, in
quanto il valor medio letto
allistante 1 lo stesso di quello
letto allistante 2 (vedi figura),
ed pure cicloergodico, perch
tutte le realizzazioni hanno lo
stesso spettro di potenza. Le
medie verticali coincidono cos
con le medie orizzontali e, conoscendo le peculiarit statistiche del processo su un
qualsiasi periodo T, conosco tutto.

10. Segnali PAM (Pulse Amplitude Modulation) aleatori

un

coefficiente

Sia s (i )
(t ) un segnale PAM generico: la sua espressione sar s (i )
(t ) = an( ) g (t nT )
i

Dunque, un segnale g(t) determinato e ad energia finita scelto opportunamente, viene


modulato di T in T da una serie di coefficienti an . { }
Immaginiamo ora che an( ) sia li-esima realizzazione di un processo aleatorio
i
{ An }
ergodico e, evidentemente, tempo-discreto. Premesso questo, possiamo dire che pure
s( ) (t ) uni-esima realizzazione di un processo aleatorio S(t):
i

S (t ) = An g (t nT )
n

(come esempio si prenda quello illustrato nel paragrafo 9!)


Ebbene, il processo che abbiamo fra le mani non stazionario (perch il valor medio
temporale dipende da t), ma cicloergodico.
Com possibile calcolarne il valor medio?
E S (t ) = E [ An ] g (t nT ) = E [ A] g (t nT )
n 

per linearit processo ergodico implica 
n

del valor processo stazionario: il ripetizione periodica della
medio valor medio non dipende funzione g : quindi la funzione
dall'istante di calcolo complessiva periodica in T

NOTA: il valor medio statistico periodico in t con periodo T.


Cerchiamo ora lo spettro del segnale e, nel fare questo, utilizziamo la serie di Fourier
(abbiamo fra le mani un segnale reale periodico!) e un simpatico trucchetto: nella serie
di Fourier compare, allinterno dellespressione dei coefficienti, una trasformata
SERIE DI FOURIER: x P (t ) = x (t nT ) = cn e j 2 Tt con cn = X ( f ) = F {x (t )}
1
n n T
e noi faremo in modo che il segnale da trasformare sia quello della funzione g.
Riscriviamo dunque la formulazione del valor medio e mettiamo nella sua pancia la
serie di Fourier:
n j 2 n T E [ A ]
t t
1 n j 2 n T
E S (t ) = E [ A ] g (t nT ) = E [ A ] G e = n T
G e
T n T T
n
  
1 F { g (t )}
( ) T ( )
x t nT = X f e j 2 Tt

n n

Ecco che compare la funzione G!


Vogliamo ora trovare questultima in maniera esplicita, in tre passi:
1) Troviamo la funzione di autocorrelazione statistica R (t, ) = E (t ) (t ) .
2) Sfruttiamo la cicloergodicit e integriamo su un periodo, in modo da ottenere
1
R ( ) = R (t, ) dt .
TT
3) Trasformiamo secondo Fourier per trovare lespressione del nostro spettro di
potenza GX ( f ) = F R ( ) .

PASSO 1

Prendiamo un processo aleatorio tempo-discreto a valor medio statistico nullo: per


ottenerlo prendiamo un processo qualsiasi di questo tipo (che ha dunque un valor
medio in generale diverso da 0) e trucchetto! togliamo da ogni elemento della
successione il valor medio stesso del processo in questione. Avremo una successione di
variabili aleatorie cos definita:
{X n } = { An E [ A ]} dove E [ X n ] = E An E [ A ] = E [ An ] E [ A ] = 0

=E[ A]

Come mai abbiamo escogitato questo artifizio (cit.)? Il motivo sta nel fatto che gli An
(di cui sopra) sono, in realt, i coefficienti di un processo PAM aleatorio formulato nel
seguente modo:
S (t ) = S (t ) E S (t ) + E S (t ) = An g (t nT ) E [ A ] g (t nT ) + E S (t ) =
 n n
trucco diabolico!

= An E [ A ] g (t nT ) + E S (t ) = X n g (t nT ) + E S (t )
n     
i nuovi simboli X n 
n
determinato
PAM a valor medio nullo e periodico
che chiamiamo (t )

Dunque, ricapitolando:
S (t ) = E S (t ) + (t )
con S (t ) = An g (t nT ) e (t ) = X n g (t nT )
n n

NOTA: per come abbiamo definito la situazione S (t ) un segnale determinato


periodico, (t ) un processo cicloergodico a valor medio nullo, la cui generica
realizzazione :
(t ) = xn g (t nT )
n

Comunque sia, lobiettivo di questo primo punto del problema trovare la funzione di
autocorrelazione statistica R (t, ) = E (t ) (t ) . Applichiamo dunque la


R (t, ) = E X n g (t nT ) X m g (t mT ) = E [XnXm ] g (t nT ) g (t mT ) =
n m n m 
NOTA: somiglia alla funzione
di autocorrelazione del processo
tempo-discreto X n

definizione e infiliamoci dentro le espressioni appena trovate:




= E X n X nk g (t nT ) g (t ( n k ) T )
n k 
n k m
cambio


di indice

questa s che la funzione
di autocorrelazione statistica
di X n : essa, siccome il processo
ergodico, dipende solo da k !

Dunque abbiamo ottenuto ci che cercavamo, ovvero:


R (t , ) = R X ( k ) g (t nT ) g (t ( n k ) T )
n k

NOTA: tale funzione periodica in t con periodo in T.

PASSO 2

Per prima cosa cerchiamo la funzione di autocorrelazione temporale della generica


realizzazione:
T T
2 2

R ( k ) g (t nT ) g (t ( n k )T ) dt =
1 1
R ( ) = (t ) (t ) = R (t, ) dt = X
T T
T T n k
2 2

T


2
T nT
2

k X ( )n t nT g (t ( n k ) T ) dt = T
1 1
=
T
R k g R (k)
k
X
n T nT
g ( ) g ( kT ) d =
T
2 
2

equivale ad un unico integrale che va da a +


1 1
=
T
RX ( k ) g ( ) g ( + kT )
d =
T
(k ) R
R ( kT )
X g

k
 k
una una funzione
integrale di autocorrelazione: successione del tempo

R g ( ) = g ( ) g ( ) d con = kT

Questultima espressione dellautocorrelazione temporale di un segnale PAM aleatorio
convenzionalmente esprimibile anche mediante convoluzione ibrida:
R ( ) = {RX ( k )} Rg ( )
1
T

PASSO 3

Possiamo ora passare, finalmente, al calcolo della funzione spettro densit di potenza
della generica realizzazione:

1
G ( f ) = F R ( ) = R ( ) e j 2 f d = R X ( k ) R g ( kT ) e j 2 f d =

T k

= RX (k )
1
T g
1
R ( kT ) e
d = F
T
j2 f
{R ( )} e
g
j 2 fkT
R (k )
X

k
 k

definizione di trasformata di Fourier


{ } { }
F R g ( kT ) F R g ( ) e j 2 fkT

Per continuare coi calcoli servono due considerazioni:


- anzitutto ricordiamo che la funzione di autocorrelazione si pu scrivere anche
come: Rg ( ) g ( ) g ( ) ;
- facciamo poi riferimento alle propriet della trasformata di Fourier:
seconda propriet: trasformata di segnale reale

F {Rg ( )} = F { g ( ) g ( )} = G ( f ) G ( f ) = G ( f ) G * ( f ) = G ( f )
2


prima propriet: da convoluzione a semplice prodotto

Dunque nellespressione dello spettro di potenza (quella definitiva) compare:


G (f )
2

G ( f ) = R (k ) e
X
j 2 fkT

T k

Essa pu essere riscritta mantenendo e non sviluppando la trasformata di Fourier


(di una successione numerica)
F {R ( k )}
G ( f )
  G (f )
S
2 X
2

G ( f ) = k R X ( k ) e j 2 fkT
= F S {R X ( k )}
T T
La nostra lunga ricerca finita!
Ora, volendo, possiamo sviluppare la sommatoria spezzandola in tre parti e applicando
la simmetria hermitiana propria dei segnali reali.

il segnale reale! 

sfruttiamo la formula di Eulero
G( f ) G(f ) G(f )
2 2 2

G ( f ) = RX ( k ) e j2 fkT = Re RX ( k ) e j2 fkT = RX ( k ) cos ( 2 fkT ) =
T k= T 
= T =
k

k
spezziamo in tre parti spezziamo in tre parti



cambio di estremi RX ( k )cos( 2 fkT )

  k =1
G(f )
2
1
= RX ( 0 ) + RX ( k ) cos ( 2 fkT ) + RX ( k ) cos ( 2 fkT ) =
T k = k =1


perch siccome il segnale reale
RX ( k ) = RX ( k )

  
G(f )
2


= R
X ( 0 ) + 2 RX ( k ) cos ( 2 fkT )
T k =1


Facciamo ora un passo indietro ed esaminiamo cosa succede alla generica


realizzazione del processo:
RICAPITOLANDO (vedi sopra per unesposizione pi completa):
S (t ) = (t ) + E S (t )

con S t =
() A n g (t nT ) e (t ) = X n g (t nT )
n n

n j 2 n T E [ A ]
t t
1 n j 2 n T
E S (t ) = E [ A ] g (t nT ) = E [ A ] G e = n G T e
T n T T
n
  
1 F { g (t )}
x ( t nT ) =
T
X ( f ) e j 2 Tt

n n

n j 2 n E [ A] t
generica realizzazione  s (t ) = (t ) + E S (t ) = (t ) + G e T
T n T
Se di questa realizzazione cerchiamo la densit spettrale di potenza otteniamo:
componente a righe che scappa fuori da E S ( t )



 
modellato il fasore

  attraverso Dirac

G(f )
2 2
E A
2
n n
GS ( f ) = RX ( 0 ) + 2 RX ( k ) cos ( 2 fkT ) + 2 G f
T
  
k =1 T n 

T T

componente continua (spettro distirbuito G ( f ) ) t
2
E A n j 2 n T
T G e
T
n

OSSERVAZIONI:
- se E [ A ] = 0 lo spettro a righe scompare;
- la componente a righe scompare anche nel caso in cui, indipendentemente dal
n
valor medio, G tale da far risultare G sempre pari a zero;
T
- ricordiamo che
= x n x n k = Rx ( k )

= E [ An k ]
RX ( k ) = E [ X n X n k ]

= E An E [ A ] An k E [ A ] = RA ( k ) E 2 [ A ]




= E [ An ]
Dunque la funzione di autocorrelazione statistica non soltanto pari alla
funzione di autocorrelazione temporale, ma coincide anche con una funzione di
autocovarianza delle A.

11. Qualche esempio di segnali PAM aleatori: codice bipolare puro

Diamo anzitutto lo schema sommario di quale sia il percorso intercorrente fra una
sorgente binaria e il segnale PAM completamente formato.

SORGENTE BINARIA
La sorgente binaria emette 1 bit ogni Tb secondi (tempo di bit):
da questo dato si ricava anche la bitrate, che definita come Br = Tb1 .
Un bit, in quanto bit, pu assumere soltanto i valori {0,1}.
Lemissione della successione di bit {bn } da considerarsi come una
realizzazione di {Bn } , che un processo aleatorio,
senza memoria e stazionario (e dunque ergodico).


CODIFICATORE
Il codificatore un componente che associa a un certo
numero di bit un simbolo appartenente a un preciso
alfabeto (finito). Riceve dunque in entrata una successione
di bit {bn } ed emette, in output, una successione di simboli
{an } . I simboli vengono rilasciati ogni T secondi (tempo di simbolo);
analogamente a prima, si definisce la symbol-rate come Bs = T 1 . Grazie
alla corrispondenza biunivoca fra i {bn } e gli {an } , possiamo dire che
pure il processo { An } ergodico.


MODULATORE PAM
Il modulatore PAM possiede, nella pancia, un determinato impulso
g(t); riceve in ingresso i simboli generati dal codificatore e, in uscita,
rilascia ogni T secondi la funzione an g(t), ovvero limpulso g(t) modulato
da un certo coefficiente an . La somma di tutti questi impulsi singolari
la funzione s (t ) = a g (t nT ) . NOTA: il processo S(t) cicloergodico!
n
n

Esaminiamo ora alcune codifiche notevoli e, per cominciare,


bn an
analizziamo quella concernente il codice bipolare puro. Esso
0 1 utilizza i simboli binari {an } {1,1} , i quali sono posti in
1 -1 corrispondenza biunivoca (cio in rapporto uno ad uno, 1:1) con
la coppia {0,1}. Un esempio potrebbe essere quello mostrato in tabella (ma non
lunico, esistendo anche la versione duale con i simboli an invertiti). Per come abbiamo
definito questo processo il symbol-rate sar uguale al bitrate, visto che il codificatore
emette un simbolo per ogni bit.
Entrando un pelo pi nello specifico, esemplifichiamo supponendo che la sorgente sia
bilanciata, ovvero che luscita del bit 0 sia probabile come luscita del bit 1. Si ha,
ovvero:
1 1
P {Bn = 0} = p = P {Bn = 1} = 1 p =
2 2
Ora che disponiamo di dati numerici possiamo calcolare:
P {Bn =1} P {Bn = 0}
1
- il valor medio E [ Bn ] : E [ Bn ] = 1 1 2 + 0 1 2 = ;
2
P { An = 1} P { An = + 1}
= P {Bn =1}
= P {Bn = 1}

- il valor medio E [ An ] : E [ An ] = 1 1 2 + 1 1 2 = 0 (NOTA: il fatto di
avere un valor medio nullo potrebbe risultare un ottimo vantaggio da sfruttare!)
- la funzione di autocorrelazione dei simboli {an } , ovvero RA ( k ) (NOTA: essendo
nullo il valor medio, tale funzione coincide con lautocovarianza, vedi presso
OSSERVAZIONI, paragrafo 10): RA ( k ) = RX ( k ) = E [ An An k ] . Ora possiamo

il valor medio
nullo!

E An2 =1 1 +11 = 1


  2
2

k=0
stiamo valutando E [ An An ] = E An2 = 1
il processo
discriminare due casi: in due istanti coincidenti

k0
stiamo valutando E [ An ] E [ An k ] = 0
il processo 
in due istanti differenti = 0
Dunque la funzione di autocorrelazione/autocovarianza cos fatta:

12. Qualche esempio di segnali PAM aleatori: codice bipolare alternato (AMI,
Alterned Marked Inversion)

Il codice bipolare alternato (o


pseudo-ternario) utilizza i
simboli {an } {1,0,1} : il principio
di codifica consiste nellassociare
al bit bn = 0 il simbolo 0 e ai bit
bn = 1 alternativamente il simbolo
+1 e 1. Ancora una volta ad un
bit corrisponde un simbolo e
dunque la symbol-rate uguale
alla bit-rate.
Passiamo ora al calcolo del valor
medio degli An :
1 1 1
E [ An ] = 0 + 1 + ( 1) = 0
2 4 4
La peculiarit di questo codice dunque che il valor medio delluscita zero
indipendentemente dal bilanciamento dei bit dingresso.

13. Qualche esempio di segnali PAM aleatori: codice multilivello

Il codificatore multilivello non genera un simbolo ogni l bit: di conseguenza, la symbol


Br Br
rate pari a = . Il numero dei livelli, che corrisponde allampiezza
l log 2 L
dellalfabeto di simboli, dunque: L = 2l  l = log 2 L
Infatti:
- se l = 1  alfabeto di 2 simboli
bn an
In questo caso, banalmente, il codice multilivello
0 +1
diventa pari al codice bipolare.
1 1
- se l = 2  alfabeto di 4 simboli
bn an
Nel codice multilivello, come si nota, si generano
00 3
simboli che sono numeri dispari; si osservi poi che,
01 1 per quanto riguarda i bit bn , la codifica quella del
11 +1 codice Gray (tra una riga e laltra cambia soltanto un
01 +3 bit).

- se l = 3  alfabeto di 8 simboli
bn an
In questo esempio con tre livelli si vede ancora
000 7
meglio che, formalmente, i simboli generati sono
001 5 ( L 1) , ..., 5, 3, 1, + 1, +3, +5, ..., ( L 1)
011 3
Anche qui si nota la codifica Gray (tra una codifica a
010 1 quella successiva vi la differenza di un solo bit).
110 +1 Ora troviamo il valor medio del processo:
1
111 +3 E [ A ] = ( L 1 ) ... 3 1 + 1 + 3 + ... + ( L 1 ) = 0
101 +5 L
E 100 +7
Essendo nullo questo valor medio, lo spettro di
potenza del processo non avr la componente a righe

14. Il problema della


predizione

Il problema della predizione


un problema di fondamentale
interesse nel campo delle
comunicazioni elettriche:
saper prevedere i valori che
potrebbero derivare da un
processo aleatorio infatti di
grande importanza in sede di
progetto.
Immaginiamo di avere un processo aleatorio tempo-discreto {X n } : un interessante e
possibile metodo di predizione consiste nel prendere n valori passati del processo e
moltiplicarli per dei coefficienti (che pesano tali valori); i risultati di questo
procedimento vengono quindi sommati insieme e confluiscono in una stima X n (che
quindi una combinazione lineare dei valori precedentemente pescati).

Come facciamo a capire se la stima buona? Esiste anzitutto un indicatore chiamato


errore di stima, cos definito:
en = X n X n
poi, fortemente correlato ad esso, si definisce anche il mean square error (MSE), che
formulato nel seguente modo:
MSE = J = E en2 = E ( X n X n )
2


Per trovare i coefficienti che minimizzano lerrore, il componente chiamato MMSE
(minimal mean square error) predictor impone allMSE la condizione di minimo
mediante la derivata parziale operata sui coefficienti:
J
=0
ai
Si pu dimostrare che i coefficienti tirati fuori fissando questa condizione soddisfano
questo sistema di equazioni esposto in forma matriciale:
RX (1 ) RX ( 0 ) RX ( N 1 ) a1

RX ( 2 ) = RX (1) a2


RX ( N ) RX ( N 1) RX ( 0 ) an
III MODULAZIONI

1. Concetti preliminari

Un segnale si dice passa-basso se, nel dominio delle frequenze, le componenti


significative sono concentrate attorno allo zero. Un esempio di segnale passa-basso il
segnale audio: le componenti significative si trovano infatti tra 20 e 20.000 Hz (questo
range anche detto banda del segnale).
Un segnale viene invece classificato come passa-banda se le sue componenti
significative sono tutte concentrate alle frequenze alte; fra i segnali di questo tipo vi
sono quelli la cui banda B si dice relativamente stretta (per i quali si ha precisamente
che B << 1 , dove fCC la frequenza centrale del segnale, ricavabile facendo la media
fCC
aritmetica fra gli estremi dellintervallo di banda). Un esempio notevole di segnale
passa-banda il segnale radio (v. oltre).

Una classificazione simile a quella appena fatta riferibile anche ai sistemi LTI: un
sistema LTI si dice infatti passa-basso se la sua funzione di trasferimento H(f) fatta
in modo tale da avere componenti significative intorno allo zero; altrimenti, un
sistema si dice passa-banda se la banda passante della H(f) concentrata alle
frequenze alte.

Queste considerazioni sono di grande interesse per quanto riguarda i sistemi di


trasmissione delle informazioni:
- il cavo coassiale, quello del doppino telefonico, funziona come un sistema
passa-basso: i segnali a bassa frequenza, infatti, vi si propagano bene, mentre le
componenti ad alta frequenza si perdono per dispersione;
- il canale radio necessita invece di un segnale
Lunghezza donda
Frequenza passa-banda (il segnale radio).
(dimensione antenna)
30 Hz 10.000 Km La trasmissione avviene per mezzo di due antenne
300 Hz 1.000 Km (unantenna trasmittente e unantenna ricevente);
300 kHz 1 Km perch questo processo sia efficiente si devono avere
3 MHz 100 m
300 MHz 1m
antenne di dimensione geometrica non molto
3 GHz 10 cm diversa dalla lunghezza donda: va dunque da s
30 GHz 1 cm che, esistendo la relazione
velocit
della luce

= , c
f0
e non potendosi costruire antenne di dimensioni chilometriche, si possano
trasmettere solo segnali passa-banda.

2. Modulazioni: principio e grandezze fisiche coinvolte

Le considerazioni appena fatte ci fanno apparire chiaro come sia di fondamentale


importanza trovare un modo per spostare la banda di un segnale lungo lasse delle
frequenze. Con questa strategia risulta quindi possibile trasmettere segnali a bassa
frequenza, ad esempio, attraverso il mezzo radio (che un canale implicitamente
passa-banda). Il percorso di un segnale dunque schematicamente questo:

Sorgente analogica [segnale passa-basso x(t)]  blocco modulatore [trasforma il


segnale in s(t), passa-banda]  canale passa-banda  demodulatore [componente
duale del modulatore, che d in uscita un segnale passa-basso x(t), che si spera il pi
possibile simile a x(t)]  destinatario.

Un po di terminologia:
- x(t) detto segnale modulante;
- s(t) loscillazione modulata.

Ovviamente, per la natura stessa del componente, un modulatore non pu essere LTI:
dobbiamo sacrificare o la linearit o la tempo-invarianza per fare in modo che sia
possibile far nascere nuovi fasori (ovvero traslare in frequenza). Un sistema LTI,
invece, modifica soltanto ampiezza e fase di un segnale, non la locazione della sua
banda.

Loscillazione modulata s(t) si ottiene generalmente con due ingredienti:


- il segnale modulante x(t);
- un riferimento alla f0 alla quale si vuole trasportare il segnale: tale
frequenza

riferimento pu essere una portante sinusoidale V0 cos 2 f0 t + 0 .
 
ampiezza fase
iniziale

Un segnale sinusoidale intrinsecamente passa-banda, dunque perfetto per i


nostri scopi! NOTA: la portante non veicola informazioni: d solo indicazioni su
fase, modulo e frequenza darrivo. Una volta che si ha in mano la portante,
bisogna variarne i parametri in rapporto al segnale modulante: dunque questo
sar laspetto della nostra oscillazione modulata
ampiezza
istantanea

s (t ) = V (t ) cos ( 2 f0t + (t ) ) = V (t ) cos (t )

fase
istantanea

Si definiscono quindi le seguenti grandezze:


d ( t )
- pulsazione istantanea: (t ) = = (t ) ;
dt
(t ) (t )
- frequenza istantanea: f (t ) = = ;
2 2
- deviazione di ampiezza: V (t ) V0 ;
V (t ) V0
- deviazione relativa di ampiezza: m (t ) = ;
V0
- deviazione di fase: (t ) = (t ) ( 2 f0t + 0 ) = (t ) 0 ;
(t )
- deviazione di frequenza: f (t ) = f (t ) f0 = da cui si pu ricavare,
2
t
(t ) t
integrando entrambi i membri f ( ) d = (t ) = 2 f ( ) d + K

2

Con le nuove grandezze appena definite possiamo riscrivere loscillazione modulata:


V (t ) V 0
m (t ) =
( 
V0 t ) = (t ) 2 f0 t 0
     
s (t ) = V 0 1 + m (t ) cos ( 2 f0t + (t ) + 0 )
3. Modulazione in ampiezza (Amplitude Modulation, AM)

()V t (t )
sensibilit del
modulatore:
   
rende m( t )
adimensionale
s (t ) = V0 1 + ka x (t ) cos 2 f0t + (t ) + 0

m (t ) = ka x (t )
con



(t ) = 0
m (t ) 0

Nella modulazione in
ampiezza il segnale di tipo
passa-basso fa da
linviluppo per loscillazione
modulata, che eredita dal
segnale portante (la
sinusoide) i punti di
intersezione con lo zero.
Dove il segnale modulante
maggiore di zero,
loscillazione modulata sar
pi intensa della portante;
viceversa, nelle parti
corrispondenti ai valori in
cui il segnale x(t) diventa
negativo, la s(t) sar una
versione attenuata della
s0(t).
Tale tipo di modulazione in
ampiezza nasconde linsidia
della sovramodulazione:
essa avviene quando il
blocco modulatore troppo
sensibile ( ka molto alto) oppure
quando il segnale passa-basso
x(t) gi intrinsecamente molto
ampio. In situazione di
sovramodulazione capita che
V(t) diventa negativo (e quindi
che V(t) diventa positivo):
dunque le due pareti
dellinviluppo si accavallano e il
segnale s(t) non pi un
rappresentante attendibile del
segnale modulante. Inoltre
abbiamo il fenomeno dellinversione di fase (vedi disegno). Per evitare queste
spiacevolezze deve accadere che V (t ) 0 per ogni t. Dunque, osservando lespressione
delloscillazione modulata, bisogna imporre:
V (t ) (t )
   

s (t ) = V0 1 + ka x (t ) cos 2 f0t + (t ) + 0  V0 1 + ka x (t ) 0


 


m (t ) 0 m( t )
1 + ka x (t ) 0


m( t )

Ora introduciamo il concetto di indice di modulazione di ampiezza:


ma = max m (t ) = max ka x (t ) = ka max x (t )
Se il segnale ha una dinamica ben definita, ovvero se chiaramente contenuto, nei
valori dampiezza, allinterno di un intervallo (che ora prendiamo per semplicit
simmetrico e pari a [M, M]), possiamo allora formulare tale indice nel seguente modo:
ma = ka max x (t ) = ka M
Dunque 1 + ka x (t ) 0 sar sicuramente vera se 1 + ka ( M ) 0 (se lampiezza di s(t)


m( t )

ancora maggiore di zero per loscillazione negativa pi ampia, vuol dire che tutte gli
altri valori non sono pericolosi). Alla fine otteniamo unimportante condizione sulla
sensibilit del modulatore, che la seguente:
1
1 + ka ( M ) 0 1 ka M ka
M

4. Modulazione di fase (Phase Modulation, PM)

m (t ) = 0
(t )
V (t ) 
(t ) = 
s (t ) = V0 cos ( 2 f0t + kp x (t ) + 0 )
kp x (t )
 con
sensibilit del
modulatore:
conferisce a (t )
dimensione [rad]

d
(t )
kp x (t ) k
NOTA: f (t ) = f (t ) f0 = = d t = p x (t )
2 2 2

Come si nota dalle


relazioni appena scritte,
loscillazione modulata
non varia pi in ampiezza
(si vede anche dal disegno
che s(t) ha ampiezza
costante), bens il suo
andamento si modella in
base allentit della
derivata di x(t): dove il
segnale modulante ha
derivata positiva, s(t) ha
un andamento pi
rapido (si nota che la
fase varia pi velocemente
e la frequenza, di conseguenza, aumenta). Viceversa, dove la derivata negativa, il
segnale s(t) si spancia e la sua frequenza cala.

questo un primo esempio di modulazione dangolo (il secondo esempio sar quello
che si vedr nel paragrafo 5): in questo contesto si parla quindi di indice di
modulazione angolare; esso cos definito:
mp = max (t )
Nel caso particolare in cui il segnale modulante una sinusoide (di frequenza fm ) si
introduce poi un indice pi specifico, ovvero lindice di modulazione di frequenza:
max f (t )
mf =
fm

5. Modulazione di frequenza (Frequency Modulation, FM)

()
t
  
m (t ) = 0
V (t )

f (t ) =  t
kf x (t )
 con s (t ) = V0 cos 2 f0t + kf 2 f ( ) d + 0
sensibilit del

modulatore:
 

conferisce a f (t )
(t )
dimensione [Hz]

Anche in tale modulazione


lampiezza delloscillazione
modulata costante: quel
che varia la frequenza di
s(t). Dove il segnale
modulante x(t) maggiore
di zero la frequenza di s(t)
sar maggiore della
frequenza della sinusoide
portante; daltro canto,
dove x(t) < 0, allora
loscillazione modulata
avr una frequenza
inferiore a quella di s0(t).

Per quanto riguarda lindice di modulazione angolare, consulta il paragrafo 4.

6. Modulazioni ibride (APM, Amplitude Phase Modulation)

Nelle cosiddette modulazioni ibride il segnale modulante modula


contemporaneamente in ampiezza V (t ) e fase (t ) . In base a questo principio, posso
trasportare, su una sola portante, due segnali: con uno dei due modulo la fase, con
laltro modulo lampiezza. Dunque, operando nel seguente modo si ha che

s (t ) = V0 (1 + ka x1 (t ) ) cos ( 2 f0t + kp x 2 (t ) + 0 )

7. Circuiti di modulazione e di demodulazione; esempio notevole:


demodulatore AM ad inviluppo

Il modulatore dampiezza ha, come


simbolo grafico, quello affianco; tale
componente riceve in ingresso il segnale
modulante e la portante: dopodich li
compone e, d in uscita, loscillazione
modulata (come si vede in figura).
Il modulatore di fase disegnato in un
modo molto ma molto simile a quello
dampiezza, come si vede facilmente
nellimmagine accanto. Ancora una volta
si hanno in ingresso il segnale modulante
x(t) e la portante s0 (t ) e, in output,
loscillazione modulata per fase.

Per quanto riguarda il modulatore di


frequenza c da fare qualche
considerazione in pi.
Anzitutto necessario dire che
non serve una portante in
ingresso in quanto loscillatore
gi incorporato allinterno
del modulatore stesso (VCO:
Voltage Controlled Oscillator).
Inoltre, come componente, il
modulatore di frequenza ha la
peculiarit di sostituire quello
di fase se, in ingresso, gli
diamo in pasto il segnale
modulante derivato. In figura
si riporta come devono essere
collegati i vari componenti del circuito in questione e la dimostrazione rigorosa di come
sia possibile ottenere un segnale modulato in fase con un modulatore FM.

Per quanto riguarda i circuiti di demodulazione, non vi quasi nessuna differenza nei
simboli grafici (si nota soltanto lassenza della portante).

Per i circuiti di demodulazione si fa un distinguo fra:


- circuiti coerenti: sono quelli in grado di demodulare un segnale solo se conoscono
una replica della portante;
- circuiti non coerenti: non hanno bisogno di una replica locale della portante per
demodulare un segnale.
Fra i circuiti non coerenti
un demodulatore notevole
(del quale si d lo schema
circuitale qui affianco)
quello AM cosiddetto a
inviluppo.
Il principio di funzionamento di questo
circuitino molto ingegnoso: per
comprenderlo, supponiamo che il diodo sia in
conduzione (con caduta di potenziale nulla ai
suoi capi). Inizialmente, visto il parallelo fra
i componenti, la tensione dingresso [data da
sAM (t ) ] sar sicuramente uguale a quella
delluscita [il segnale V (t ) , che come
vedremo somiglia molto allinviluppo
V (t ) = V0 (1 + ka x (t ) ) ]. Non appena il segnale
dingresso arriva su una cresta (un massimo
relativo) e comincia a diminuire, la tensione
duscita smetter di essere uguale a quella
dingresso perch la presenza del
condensatore rallenta il processo con una
scarica (di tipo RC), pi lenta dellandamento decrescente di sAM (t ) . Dunque il diodo si
interdir per poi riattivarsi [e ripristinare luguaglianza V (t ) = s (t ) ] non appena il
AM

loscillazione modulata sAM (t ) torner ad essere pari al valore della tensione duscita.
Si intuisce facilmente che di fondamentale importanza dimensionare bene la costante
di tempo del circuito, in modo che la scarica abbia la giusta velocit e insegua
adeguatamente linviluppo.

8. Analisi spettrale del segnale AM

Prendiamo lespressione di un segnale modulato AM e distribuiamo il prodotto:


ricompare la portante
  
sAM (t ) = V0 (1 + ka x (t ) ) cos ( 2 ft )  sAM (t ) = V0 cos ( 2 ft ) + kaV0 x (t ) cos ( 2 ft )
 

termine di modulazione a prodotto

Ora distinguiamo due casi:


1) segnale x(t) ad energia finita. Se il segnale ad energia finita, sicuramente
ammette la trasformata di Fourier F x (t ) = X ( f ) . Calcoliamola sfruttando la
linearit della trasformata e, quindi, separando la prima componente (portante)
dalla seconda (termine modulato a prodotto):
V V
Prima componente: F V0 cos ( 2 f0t ) = 0 ( f f0 ) + 0 ( f + f0 ) (NOTA: a righe)
2 2
kaV0 kV
Seconda componente: F kaV0 x (t ) cos ( 2 ft ) = X ( f f0 ) + a 0 X ( f + f0 )
2 2
(NOTA: continua)

Qui a fianco si vede


come le due
componenti
vengono graficate.
Come si nota, siamo davvero poco efficienti per quanto riguarda:
- occupazione di banda: il segnale modulato S(f) occupa infatti il doppio della
banda rispetto al segnale di partenza X(f);
- potenza: ne sprechiamo una parte per trasmettere la portante e molta anche
per trasmettere il segnale modulato (che, come dicevamo, ha una banda davvero
larga)
2) segnale x(t) a potenza finita. Anche il segnale modulato sar a potenza
finita e possiamo, di questultimo, trovare la densit spettrale di potenza:
V2 V2 k 2V 2 k 2V 2
GS ( f ) = 0 ( f f0 ) + 0 ( f + f0 ) + a 0 Gx ( f f0 ) + a 0 Gx ( f + f0 )
4 4 4 4
Come nel caso precedente, c una componente a righe e una componente continua
(il disegno analogo a quello del caso precedente, con di GS(f) al posto S(f) e GX(f)
al posto di X ( f ) ) e pure in questo caso abbiamo degli inconvenienti, analoghi a
quelli esaminati poco fa.

9. Varianti (ibride) di modulazione AM: DSB-SC, SSB

Dal punto di vista della potenza trasmettere la portante uno spreco: se per
disponiamo di un demodulatore coerente, necessario trasmettere un residuo
(possibilmente molto debole) di portante, in modo che si possa eseguire la
demodulazione. Abbiamo per unaltra
possibilit: possiamo decidere di non
trasmettere la portante a patto di
poterla ricostruire lato ricevente
con un circuito apposito. A tal proposito
definiamo (con riferimento al disegno di
prima) la upper e la lower side band (v.
immagine).
Ora possiamo formulare unespressione
alternativa per loscillazione modulata:
sAM (t ) = s0 (t ) + sUSB (t ) + sLSB (t ) sDSB (t )
   
portante segnale di segnale di segnale di
upper side band lower side band double side band

Esaminiamo ora da vicino tre varianti (ibride) per la modulazione in ampiezza:


- DSB SC (Double Side Band Suppressed Carrier portante soppressa):
detta anche modulazione a prodotto, in quanto loscillazione modulata cos
strutturata
s (t ) = x (t ) cos ( 2 f0t ) (a meno di V0 ) sDSB SC (t ) = s0 (t ) + sUSB (t ) + sLSB (t )
  
portante segnale di segnale di
upper side band lower side band

In effetti, il circuito modulatore semplicissimo: esso costituito da un


modulatore a prodotto che moltiplica x(t) (segnale modulante) per una sinusoide
a frequenza f0 generata da un oscillatore.
Lo spettro di potenza di s(t) (oscillazione modulata) lo stesso di quello del caso
DSB, ma senza la riga della portante. Eccone infatti la formulazione:
1 1
GS ( f ) = GX ( f f0 ) + GX ( f + f0 )
4 4
V02 V2
[NOTA: rispetto al caso DSB manca proprio il termine ( f f0 ) + 0 ( f + f0 ) ]
4 4
Diamo ora uno sguardo al demodulatore:

Il demodulatore coerente perch possiede una copia locale della portante, la


quale viene moltiplicata per s (t ) = x (t ) cos ( 2 f0t ) cos che un termine di coseno
al quadrato: s (t ) cos ( 2 f0t ) = x (t ) cos2 ( 2 f0t ) .
1 + cos2 1 + cos2
Formula di bisezione: cos = cos2 =
2 2
1 1 x (t ) x (t )
x (t ) cos2 ( 2 f0t ) = x (t ) + cos ( 2 ( 2 f0 ) t ) = + cos ( 2 ( 2 f0 ) t )
2 2  2 2
 

segnale in segnale modulato a prodotto


banda base che viene eliminato dal filtro
passa-basso a valle del circuito

Abbiamo dunque in uscita il segnale originario (con ampiezza dimezzata, ma


questo non un problema, basta moltiplicare per 2 e il gioco fatto!).
Problema: la copia locale della portante devessere perfettamente in fase con la
portante del segnale. Come evitare che ci per qualche motivo non accada?
La soluzione sta nellintegrare, allinterno del demodulatore, un circuito non
lineare di carrier recovery (ricostruzione della portante), il quale riforma la
portante e la fa combaciare col segnale DSB-SC.

NOTA: potevamo, in alternativa, ragionare secondo Fourier.


Prendiamo loscillazione modulata
s (t ) = x (t ) cos ( 2 f0t )
Se la trasformiamo secondo Fourier abbiamo che:
F {s (t )} = F {x (t ) cos ( 2 f0t )} = X ( f f0 ) + X ( f + f0 ) = S ( f )
1 1
2 2
Se vogliamo riottenere X(f) utilizziamo un piccolo trucchetto; prendiamo la S(f),
la trasliamo tutta di f0 e poi sommiamo quel che otteniamo con la stessa S(f)
traslata di f0 : quindi, facciamo passare il tutto per il filtro passa-basso.
1 1 1 1
X ( f f0 + f0 ) + X ( f + f0 + f0 ) + X ( f f0 f0 ) + X ( f + f0 f0 ) =
2
 2
 2

 2


traslazione di + f0 traslazione di f0

1 1 1 1
X (f ) + X ( f + 2 f0 ) + X ( f 2 f0 ) + X ( f ) = X ( f ) Et voil!
2 2  

2  

2
mangiato dal passa-basso mangiato dal passa-basso

Apriamo ora una piccola parentesi e vediamo cosa succede se, per qualche
motivo, non vi perfetta sincronia fra la portante del modulatore e quella del
demodulatore e cio se abbiamo
portante 1 (modulatore) cos ( 2 f0t )

errore!

portante 2 (demodulatore) 2cos 2 f0t




Se chiamiamo p(t) il segnale che esce dal modulatore a prodotto presente nel
blocco di demodulazione, allora si ha
p (t ) = 2x (t ) cos ( 2 f0t ) cos ( 2 f0t ) = x (t ) cos + x (t ) cos ( 4 f0t )
 
 

1 1 elliminato dal filtro passa-basso


cos cos = cos( + ) + cos( )
2 2

Dunque il ricevitore ottiene una versione attenuata di x(t):


caso migliore, tutto resta com' cos = 1

x (t ) cos = attenuazione 0 < cos < 1
caso peggiore, il segnale scompare cos = 0

VANTAGGI: non dobbiamo trasportare la portante assieme al segnale, dunque
risparmiamo in potenza.
SVANTAGGI: non abbiamo risparmi di banda.
- SSB (Single Side Band): detta anche conversione di frequenza. Il principio di
questa modulazione ibrida quello di spedire o solo la USB o solo la LSB, pi
la portante:
sUSB (t )

segnale di
upper side band
sSSB (t ) =
LSB (t )
s 
segnale di
lower side band
Questo sar dunque lo spettro di potenza del segnale trasmesso [quello ai lati: la
parte in banda passante si riferisce al segnale originario x(t)]:

Se prendiamo come esempio una modulazione SSB in cui si conserva e si


spedisce solo la USB, allora il modulatore (detto convertitore di frequenza in
salita, perch converte da frequenze basse a frequenze alte) costituito dalla
serie di:
- un modulatore DSB-SC (a prodotto), che moltiplica il segnale modulante
x(t) per il termine cos ( 2 f0t ) ;
- un filtro passa-alto che elimina la componente LSB. NOTA: questo filtro
devessere piuttosto severo, in quanto il suo compito eliminare la LSB
senza distorcere la USB. Il problema che LSB e USB sono fra loro molto
ravvicinate! Per questo, come vedremo, si utilizza la VSB, preferendo
sacrificare un pochino pi di banda alla possibilit di incorrere nel rischio
di una pericolosa distorsione.
Il demodulatore (detto convertitore di frequenza in discesa, perch converte da
frequenze alte a frequenze basse) invece fatto cos:
- un modulatore a prodotto che moltiplica il segnale modulante x(t) per il
termine cos ( 2 f0t ) in serie con
- un filtro passa-basso (che poi il solito!).
Anche in questo caso, come in quello precedente, possiamo (con considerazioni
preliminari analoghe) ragionare secondo Fourier: se prendiamo la trasformata
delloscillazione modulata, la trasliamo di f0 e poi la sommiamo alla stessa
funzione traslata per di f0 , otteniamo due USB isolate alle alte frequenze
(che vengono sgranocchiate dal filtro passa-basso) e la trasformata di X(t) in
banda-base (che invece sopravvive).
VANTAGGI: risparmiamo il 50% della banda rispetto a quella necessaria per
lordinaria modulazione AM!
SVANTAGGI: possibile distorsione dovuta al filtro passa-alto del modulatore.
- VSB (Vestigial Side Band): questa modulazione ha la strana particolarit di
essere una SSB venuta male. Viene adottata per i motivi espressi nel caso
precedente (quelli riguardanti i requisiti del filtro passa-alto) e per il fatto che
difficile utilizzare altre modulazioni con i segnali in banda-base che contengono
anche la continua (frequenza f = 0), come ad esempio il segnale televisivo. Nella
VSB bisogna immaginare di ritagliare loscillazione modulata (e quindi lo
spettro del segnale doppio traslato a + f0 e f0 ) con un filtro passa-alto (anche
non severo), ma senza la rigorosa simmetria che caratterizzava la LSB e la
USB. Qui, infatti, prendiamo un po pi di met delle frequenze della
componente positiva e negativa del segnale. Ad esempio, nel caso televisivo (5
MHz di banda, 10 MHz di occupazione) prendiamo, dai 10 MHz che si trovano
alla frequenza + f0 e dai 10 MHz a f0 un po pi di 5 MHz (precisamente 6,25
MHz da ambo le parti).
VANTAGGI: risparmiamo abbastanza banda rispetto al caso AM (anche se non
arriviamo alleclatante 50% della SSB);
SVANTAGGI: possiamo modulare segnali in banda base senza problemi di filtri.

10. Modulazione QAM (Quadrature Amplitude Modulation)

Con la modulazione QAM trasmettiamo due segnali nella stessa banda: sembra
impossibile, ma non magia nera! Vediamo come si opera: prendiamo due segnali
modulanti x1 (t ) e x 2 (t )
- il primo segnale [ x1 (t ) ] viene dato a un modulatore a prodotto, che lo
moltiplica per un termine cos ( 2 f0t ) ;
- il secondo segnale [ x 2 (t ) ] viene dato a un altro modulatore a prodotto, che lo

(
moltiplica per un termine cos 2 f0t +
2 )= sin ( 2 f0t ) , in quadratura rispetto a
cos ( 2 f0t ) (NOTA: il sfasatura di 2 si crea utilizzando un opportuno blocco di
ritardo. I modulatori a prodotto di cui stiamo parlando usano infatti una sola
portante, la quale viene offerta una volta cos com e la unaltra volta ritardata,
appunto, di 2 . Se cos non fosse potrebbe esserci serio pericolo di non ottenere
la corretta sfasatura a causa di mancato sincronismo fra i due oscillatori delle
portanti).
A questo punto sommiamo i due segnali per ottenere s(t), loscillazione modulata che
spediamo nel mezzo passa-banda.
(
s (t ) = x1 (t ) cos ( 2 f0t ) + x 2 (t ) cos 2 f0t +
2 )
= x1 (t ) cos ( 2 f0t ) x 2 (t ) sin ( 2 f0t )
Ora esaminiamo il demodulatore: esso porta il segnale s(t) a due modulatori a prodotto
con diversa portante
- il primo dei due ha portante 2 cos ( 2 f0t ) e d, in uscita, un segnale che
chiamiamo PI (t ) (I sta per in fase) e che ha la forma
PI (t ) = x1 (t ) cos ( 2 f0t ) x 2 (t ) sin ( 2 f0t ) 2cos ( 2 f0t ) =
= 2x1 (t ) cos2 ( 2 f0t ) x 2 (t ) 2sin ( 2 f0t ) cos ( 2 f0t ) =
 
 

trucchetto!! trucchetto!! = sin ( 22 f0t )


1 1
= + cos( 22 f0t )
2 2

1 1
= 2x1 (t ) + cos ( 2 2 f0t ) x 2 (t ) sin ( 2 2 f0t ) =
2 2
= x1 (t ) + x1 (t ) cos ( 2 2 f0t ) x2 (t ) sin ( 2 2 f0t ) = x1 (t )
  

componenti ad alta frequenza mangiate dal filtro passa-basso

Come si specifica nel procedimento appena illustrato, quel che esce fuori
soltanto il segnale (di partenza!) x1 (t ) , perch tutte le altre componenti vengono
eliminate da un filtro passa-basso che mettiamo a valle del modulatore a
prodotto;
- il secondo dei due ha portante 2sin ( 2 f0t ) e d, in uscita, un segnale che
chiamiamo PQ (t ) (Q sta per in quadratura) e che ha la forma
PQ (t ) = x1 (t ) cos ( 2 f0t ) x 2 (t ) sin ( 2 f0t ) 2 sin ( 2 f0t ) =
= x1 (t ) 2sin ( 2 f0t ) cos ( 2 f0t ) + 2x 2 (t ) sin 2 ( 2 f0t ) =
 
 

trucchetto!! = sin ( 22 f0t ) trucchetto!!


1 1
= cos( 22 f0t )
2 2

1 1
= x1 (t ) sin ( 2 2 f0t ) + 2x 2 (t ) cos ( 2 2 f0t ) =
2 2
= x1 (t ) sin ( 2 2 f0t ) x 2 (t ) cos ( 2 2 f0t ) + x 2 (t ) = x 2 (t )
  

debellati dal filtro passa-basso

Anche questa volta un filtro passa-basso alluscita del modulatore in questione


elimina tutte le componenti ad alta frequenza e lascia intatto solo il segnale
x 2 (t ) . (NOTA: anche nel demodulatore la sfasatura di 2 che vi fra le
portanti dei modulatori a prodotto si crea utilizzando un opportuno blocco di
ritardo e un solo oscillatore. I modulatori a prodotto di cui stiamo parlando
usano infatti una sola portante, la quale viene offerta una volta cos com e la
unaltra volta ritardata, appunto, di 2 . Se cos non fosse potrebbe esserci serio
pericolo di non ottenere la corretta sfasatura a causa di mancato sincronismo fra
i due oscillatori. Inoltre, si usa un circuito di carrier recovery per essere sicuri
che ci sia la corretta corrispondenza fra demodulatore e modulatore).
Dunque proprio vero! In una sola banda convivono due segnali i quali, in frequenza,
sono sovrapposti in un intervallo di banda che di 2 fm . Per capire meglio questa
affermazione trasformiamo loscillazione modulata e vediamo come fatta nel dominio
delle frequenze:
{
S ( f ) = F x1 (t ) cos ( 2 f0t ) + x 2 (t ) cos 2 f0t + ( 2 )} =
1 1 1 1
= X1 ( f f0 ) + X1 ( f + f0 ) + j X 2 ( f f0 ) + X 2 ( f + f0 )
2
 2
 

2


2
questa parte deriva da x1 (t ) cos( 2 f0t ) questa parte deriva da
(
x2 (t ) cos 2 f0t +
2)= x2 (t ) sin ( 2 f0t )

Qui si nota bene che X 2 ( f f0 ) sovrapposta a X1 ( f f0 ) e che lo stesso accade fra


X 2 ( f + f0 ) e X1 ( f + f0 ) .

Piccola parentesi: cosa accade se, per qualche motivo, le oscillazioni dei modulatori a
prodotto non sono ben sincronizzate? Prendiamo ad esempio il demodulatore e
introduciamo un certo sfasamento fra le portanti

Calcoliamo PI (t ) [segnale in uscita del demodulatore a prodotto con portante


cos ( 2 f0t ) ]:
PI (t ) = 2s (t ) cos ( 2 f0t ) = 2 x1 (t ) cos ( 2 f0t ) x 2 (t ) sin ( 2 f0t ) cos ( 2 f0t ) =
= x1 (t ) cos 2x2 (t ) sin + termini ad alta frequenza (eliminati dal passa-basso)
Come si vede dalla figura e dalla formulazione di PI (t ) , lo sfasamento
pericolosissimo perch ha il doppio effetto di:
- attenuare il segnale utile [ovvero x1 (t ) presso PI (t ) e x 2 (t ) presso PQ (t ) ];
- amplificare il segnale sbagliato [ovvero x 2 (t ) ove sussiste PI (t ) e x1 (t ) in
luogo di PQ (t ) ].
Ancora una volta, un grande vantaggio (il risparmio di banda) ottenuto con tanta
fatica viene pagato a caro prezzo: un piccolo errore, infatti, finisce per avere un
grandissimo peso!
11. Spettro di potenza per modulazioni dangolo (PM, FM): la banda di
Carson

Come gi abbiamo visto per quanto riguarda le modulazioni dangolo, questa


lespressione delloscillazione modulata:
s (t ) = V0 cos ( 2 f0t + (t ) )
Purtroppo (t ) incarna una relazione fortemente non lineare, che non ci permette di
trovare matematicamente lespressione dello spettro di potenza, n nella maniera
usuale, n in nessunaltra. Esiste tuttavia una relazione empirica che riesce a darci,
a grandi linee, lestensione della banda del segnale modulato ad angolo (banda di
Carson):
deviazione
massima

di
  
frequenza
B = 2 fmax + fm


=max f (t )

In base alla modulazione scelta, la massima deviazione di frequenza avr una diversa
espressione:
CASO FM: = kf M (M la dinamica del segnale)
1
CASO PM: = kp max x (t )
2

Comunque sia, pare evidente che un segnale modulato con modulazione dangolo
occupa una banda molto superiore a quella del caso AM. Infatti
2 ( fmax + fm ) = 2fmax + 2 fm > 2 fm
    
espressione della modulazione d'angolo mod. AM
banda di Carson

A titolo desempio, la fmax di un segnale FM (del tipo che si riceve abitualmente con la
radiolina tascabile) di 75 KHz, mentre la sua fm di soli 15 KHz. Dunque un
segnale AM di equivalente frequenza occuperebbe 30 KHz contro i 180 KHz che si
hanno in modulazione di frequenza. Fatta questa considerazione si potrebbe pensare
che le modulazioni dangolo siano svantaggiose in toto: in realt esse hanno la
peculiarit di avere un inviluppo (cio unampiezza) costante, particolare che facilita
molto la costruzione dei circuiti di modulazione/demodulazione e che rafforza la
resistenza ai disturbi. Le modulazioni dampiezza, che proprio nellinviluppo portano
linformazione, sono sotto questo aspetto maggiormente attaccabili.

Nonostante la forma dello spettro di potenza di un segnale modulato PM/FM sia


imprevedibile, si possono ancora una volta fare considerazioni qualitative ed empiriche
riguardo ad esso; se prendiamo, per semplicit, un segnale modulante di tipo
sinusoidale (che ha una trasformata a righe), avremo:
- nel caso AM: due righe per la portante (a frequenza + f0 e f0 ) e quattro righe
(due nella parte positiva e due nella parte negativa) per il segnale modulato;
- nel caso dangolo (FM/PM): tante righe attorno alle frequenze + f0 e f0 , tutte
con passo fm .
12. FDM, Frequency Division Multiplexing (modulazione di segnali a
divisione di frequenza)

Si tratta di una tecnica che permette di inviare attraverso uno stesso mezzo passa-
banda pi segnali passa-basso opportunamente modulati a diverse (e opportune)
frequenze f1 , f2 , , fn . Dal punto di vista del ricevente, possibile ottenere li-esimo
segnale passa-basso spedito sapendo a che frequenza questultimo stato lanciato e
utilizzando un opportuno demodulatore. Ecco lo schema di funzionamento
(nellesempio i segnali coinvolti sono tre):

I tre segnali di partenza x1 (t ) , x 2 (t ) e x3 (t ) vengono modulati ognuno su una diversa


frequenza, con laccortezza che le bande alle quali vengono traslati siano
sufficientemente lontane da evitare fatali sovrapposizioni. Le oscillazioni modulate
cos ricavate vengono fatte passare attraverso un sommatore, che le unisce e le
prepara quindi per la trasmissione. Allarrivo, i filtri passa banda sagomano quelle che
erano le tre oscillazioni modulate di partenza, che vengono quindi demodulate una ad
una per restituire (se tutto andato bene) x1 (t ) , x 2 (t ) e x3 (t ) ritardati. La
peculiarit della FDT sta nella possibilit di modulare con la tecnica che si ritiene pi
opportuna, a patto di rispettare la condizione di non sovrapposizione: dunque
- nel caso AM la distanza fra le portanti devessere fi fi +1 2 fm (v. il paragrafo
sulla banda di Carson);
- nel caso SSB-SC (tale tecnica stata usata per molti anni nel collegamento fra
centrali telefoniche) la distanza fra le portanti devessere fi fi +1 fm .
Fra le caratteristiche della modulazione FDM vi quella di poter considerare s(t) come
un segnale a sua volta modulante e, dunque, quella di poter effettuare FDM doppie o
a cascata. Per le fibre ottiche esiste una tecnica analoga a questa (WDM, Wavelength
Division Multiplexing).

13. Un esempio di FDM: segnale audio FM stereo

I parametri di questo tipo di segnale sono:


- banda fm : 15 KHz;
- deviazione massima di frequenza fmax = 75 KHz.
La peculiarit del segnale stereo (a differenza del segnale mono, che singolo) quella
di veicolare al suo interno sia le informazioni audio destinate alla cassa destra
[segnale R (t ) ] che quelle della cassa sinistra [segnale L (t ) ]. Con lavvento della
stereofonia, la trasmissione audio-radio si allineata e standardizzata in questa
direzione: tuttavia, i programmi radio possono essere percepiti sia da un ricevitore
mono che da un ricevitore stereo con un piccolo accorgimento.
Infatti lato RX non si spediscono separatamente il segnale R (t ) e L (t ) come si
potrebbe pensare bens:
L (t ) + R (t )
- il segnale media (quello che ricever lutente mono): m (t ) = ;
2
- il segnale differenza (la chiave per ricostruire il segnale destro e sinistro):
L (t ) R (t )
d (t ) = .
2
Ecco qui di seguito lo schema della modulazione.

LATO TX:

Come si trasmette il segnale? A tutti gli effetti si utilizza una FDM, visto che il
segnale differenza e il segnale media non si sovrappongono, ma anzi sono separati
da una portante (a 19 KHz):
- il segnale media passa-basso;
- il segnale differenza modulato DSB-SC e centrato ad una frequenza doppia
rispetto alla portante (38 KHz).
I due segnali cos ottenuti vengono sommati e quindi modulati in frequenza. Ora il
segnale diventato passa-banda e pu essere trasmesso nel mezzo radio.

LATO RX:

Lato ricevente il segnale viene anzitutto demodulato; dopodich si cerca di separare la


parte che in trasmissione era passa-basso (il segnale media m(t), che quello che
ricevono i possessori di apparato mono) da quella a 38 KHz: con un filtro passa-banda
strettissimo si ottiene la portante, la quale viene passata a un demodulatore a
prodotto, che a sua volta si occupa di elaborare e traslare alle frequenze originarie il
segnale d(t). A questo punto il ricevitore stereo pu ottenere laudio della cassa sinistra
sommando m(t) con d(t) e quello della cassa destra sottraendo d(t) da m(t).

14. Equivalente passa-basso di unoscillazione modulata (inviluppo


complesso)

Se s(t)
s (t ) = V0 1 + m (t ) cos ( 2 f0t + (t ) + 0 )
la generica espressione di unoscillazione modulata, allora il suo equivalente passa-
basso la funzione i(t)
{
s (t ) = Re i (t ) e j 2 f0t }
Lobiettivo di questo procedimento quello di depurare il segnale dalla sua frequenza
di posizionamento f0 .
Esaminiamo da vicino i vari casi di modulazione:
- AM: in questo caso loscillazione modulata si esprime come
sAM (t ) = V0 1 + ka x (t ) cos ( 2 f0t + 0 )
Dunque facile ricavare lequivalente passa basso, perch:
{
s (t ) = Re i (t ) e j 2 f0t }


s (t ) = Re V0 1 + ka x (t ) e j0 e j 2 f0t
 
equivalente passa-basso

(posto 0 = 0 , V0 1 + ka x (t ) una quantit reale e utilizzando Eulero si possono
sciogliere i termini esponenziali generando un termine coseno. Si noti che il
termine f0 non compare nellequivalente passa-basso)
Lequivalente passa-basso, se la fase iniziale nulla, non ha parte immaginaria
e, sul piano di Gauss, individuato da un vettore che modifica la sua ampiezza
scorrendo sullasse reale. Dunque, ricapitolando, le informazioni che si possono
ricavare dallequivalente passa basso sono che:
- linviluppo non costante (il vettore modifica la sua ampiezza);
- non vi alcuna variazione di fase (il vettore sta sempre sullasse reale).
- FM/PM: nelle modulazioni dangolo loscillazione modulata si esprime cos
sAM (t ) = V0 cos ( 2 f0t + (t ) )
Possiamo quindi trovare anche qui lequivalente passa-basso
{
s (t ) = Re i (t ) e j 2 f0t }

j 2 f0t
s (t ) = Re V0 e
j (t )

e
equivalente
passa-basso
t
dove (t ) = kp x (t ) nel caso PM e (t ) = 2 kf x ( ) d .

Lequivalente passa-basso, questa volta, ha una parte immaginaria, che sarebbe
sin (t ) , ma ha lunghezza costante. Siamo quindi di fronte a un vettore che
ruota attorno allorigine generando una circonferenza (con raggio ovviamente
costante  inviluppo costante); ovviamente questa volta la fase non sar
costante, essendo pari a:
(t ) = kp x (t ) nel caso PM
t
(t ) = 2 kf x ( ) d nel caso FM

- QAM: loscillazione modulata ha la seguente espressione
s (t ) = x1 (t ) cos ( 2 f0t ) x2 (t ) sin ( 2 f0t )
Lequivalente passa-basso si ricava scrivendo la s(t) in tale forma:

j 2 f0t
s (t ) = Re x1 (t ) + jx 2 (t ) e

eqiuvalente passa-basso


e perch sin = cos + , provare per credere!)
j
(NOTA: questo perch j = e 2
2
Il vettore che sul piano di Gauss individua lequivalente passa-basso ha dunque
una parte reale pari ad x1 (t ) e una parte immaginaria pari a x 2 (t ) : siccome
entrambe queste funzioni possono variare, questa volta non avremo n fase n
ampiezza costanti (infatti tale modulazione ibrida).
- modulazione a prodotto (DSB-SC): loscillazione modulata

s (t ) = x (t ) cos ( 2 f0t ) = x (t ) cos 2 f0t + u ( x (t ) )

funzione gradino

(NOTA: la seconda formulazione di s(t) perfettamente equivalente alla prima)


In questa modulazione lequivalente passa-basso :

j 2 f0t
s (t ) = Re x (t ) e

eq. passa
basso
Dunque, sul piano di Gauss, il relativo vettore si muove sullasse reale
assumendo valori sia positivi che negativi (derivati dallo sfasamento di che si
vede bene nella formulazione alternativa di cui sopra). Anche questa volta n
abbiamo inviluppo costante, n fase costante (indice che la modulazione
ibrida).

Torniamo alla trattazione generale sullequivalente passa-basso di segnale passa-


banda. Abbiamo detto che esso una funzione i(t) tale per cui:
{
s (t ) = Re i (t ) e j 2 f0t }
Possiamo ora applicare una propriet dei numeri complessi, la quale ci dice che:
z + z*
Re {z} =
2
E infatti:
i (t ) e j 2 f0t + i* (t ) e j 2 f0t
{
s (t ) = Re i (t ) e } j 2 f0t
=
2
Volendo, ora possiamo trasformare secondo Fourier e applicare le propriet di:
- linearit;
- trasformata del coniugato;
- moltiplicazione per un fasore.
Quel che otteniamo :
i (t ) e j 2 f0t + i* (t ) e j 2 f0t I ( f f0 ) + I * ( f f0 )
F {s (t )} = F =
2 2
Da qui si evince unaltra propriet importante dellequivalente passa-basso: nel
dominio delle frequenze esso [cio I ( f ) ] altro non che la parte positiva della
F S ( f ) spostata verso lo zero (traslata di f0 e moltiplicata per 2).

15. Equivalente passa-basso e potenza

Possiamo ora fare qualche considerazione sulla potenza dellinviluppo complesso


(sinonimo di equivalente passa-basso).
Partiamo dalla funzione di autocorrelazione di unoscillazione modulata a potenza
finita:
Rs ( ) = s (t ) s* (t )
poi infiliamo dentro questa formula il fatto che, come abbiamo visto poco fa, possiamo
scrivere loscillazione modulata cos:
i (t ) e j 2 f0t + i* (t ) e j 2 f0t
s (t ) = Re i (t ) e j 2 f0t
= { 2
}
Si ottiene:
i (t ) e j 2 f0t + i * (t ) e j 2 f0t i (t ) e j 2 f0 (t ) + i * (t ) e j 2 f0 (t )
Rs ( ) = =
2 2
facciamo un bel respiro e sviluppiamo il prodotto
i (t ) e j 2 f0t i (t ) e 0 ( ) i (t ) e j 2 f0t i * (t ) e
j 2 f t j 2 f0 (t )

= + +
2 2 2 2

i * (t ) e j 2 f0t i (t ) e i * (t ) e j 2 f0t i * (t ) e
j 2 f0 (t ) j 2 f0 (t )

+ + =
2 2 2 2
notiamo, per fortuna, che qualcosa si semplifica
( )
i (t ) i (t ) e i (t ) i * (t ) e
j 2 f0t + j 2 f0 ( t ) j 2 f0t j 2 f0 t

= + +
4 4

( )
i * (t ) i ( t ) e i * (t ) i * (t ) e
j 2 f0t + j 2 f0 t j 2 f0t j 2 f0 (t )

+ + =
4 4
sfruttiamo la linearit del valor medio
i (t ) i ( t ) e i (t ) i* (t ) e j2 f0 i* (t ) i (t ) e j2 f0 i* (t ) i* (t ) e
j 2 f0t + j 2 f0 (t ) j 2 f0t j 2 f0 (t )

= + + +
4 4 4 4

Come si nota, i termini ad alta frequenza scompaiono perch, mediati, restituiscono


zero a causa del termine esponenziale. Quel che rimane :
i (t ) i* (t ) e j2 f0 i* (t ) i (t ) e j2 f0
Rs ( f ) = +
4 4
Sviluppiamo ci che abbiamo appena ottenuto:

costante  
costante
j 2 f0 j 2 f0
e e e j2 f0 e j2 f0 *
Rs ( f ) = i (t ) i (t ) +
*
i (t ) i (t ) =
*
Ri ( ) + Ri ( )
4  4  4 4
Ri ( ) = i (t )i* (t ) Ri* ( ) = i* (t )i(t )

Ora che abbiamo una formulazione abbastanza semplice della funzione di


autocorrelazione del segnale s(t), possiamo trasformarla per trovare lo spettro di
potenza:
G ( f f0 ) Gi ( f f0 )
Gs ( f ) = F {Rs ( f )} = i +
4 4
(NOTA: anche questa volta abbiamo utilizzato la linearit della trasformata di
Fourier, la propriet di trasformata di coniugato e quella di moltiplicazione per un
fasore)
Da questa ultima equazione si evince che, anche per lo spettro di potenza, accade che
la trasformata dellequivalente passa basso Gi ( f ) sia parte positiva della Gs ( f )
spostata verso lo zero (traslata di f0 e moltiplicata per 4).

16. Esempio notevole: segnale modulante sinusoidale

Prendiamo un generico segnale sinusoidale come, ad esempio:


x (t ) = M cos ( 2 fmt + m )
Supponiamo di sottoporlo alle modulazioni AM, PM, FM e di voler ricavare lindice di
modulazione ad occhio oppure ragionando sui dati delle rilevazioni sperimentali.
- Nel caso di modulazione AM possiamo riuscire nel nostro intento con discreta facilit.
Loscillazione modulata, infatti,
s (t ) = V0 (1 + m (t ) ) cos ( 2 f0t + 0 )
(NOTA: non si faccia confusione; moduliamo un segnale sinusoidale con una portante
altrettanto sinusoidale ma, mentre la portante ha frequenza f0 , ampiezza V0 e fase
0 , il segnale modulante ha frequenza fm , ampiezza M e fase m ).
In questa espressione m(t)
m (t ) = ka x (t )
Inoltre, sappiamo che
ma = max m (t )
Linviluppo delloscillazione modulata in ampiezza (inviluppo che ha la forma del
segnale modulante) avr alcuni punti di minimo e di massimo, come si ha per
qualunque sinusoide. Questi punti (misurabili sperimentalmente) possono essere
espressi tramite lindice di modulazione, visto che questultimo rappresenta il massimo
valore che possiamo infilare dentro lespressione delloscillazione modulata

qui!

s (t ) = V0 1 + m (t ) cos ( 2 f0t + 0 ) :

 
V (t )

VMAX = max V (t ) = V0 (1 + ma )
VMIN = min V (t ) = V0 (1 ma )
Se ora facciamo:
VMAX VMIN = V0 (1 + ma ) + V0 (1 ma ) = 2maV0
VMAX + VMIN = V0 (1 + ma ) V0 (1 ma ) = 2V0
Quindi, con qualche calcolo algebrico elementare
VMAX VMIN 2maV0
= = ma
VMAX + VMIN 2V0
- nel caso PM ed FM la storia un po pi intricata. Prendiamo ancora il nostro
segnale modulante sinusoidale
x (t ) = M cos ( 2 fmt + m )
ricordando che, per le modulazioni dangolo, si ha
k p x ( t ) PM

(t ) = t

2 k f x ( ) d FM

con lx(t) sinusoidale queste ultime diventano


kp M cos ( 2 fmt + m ) PM

(t ) = t
kf M
2 kf M cos ( 2 fm + m ) d = sin ( 2 fm + m ) FM

fm
Possiamo ora dare una formulazione unitaria di queste due espressioni, espressione
valida, quindi, per le modulazioni dangolo in generale:
(t ) = mp sin ( 2 fmt + )
dove

mp = kp M = m + 2 PM


cos =sin +
2

m = kf M = FM
p fm
m

Ora possiamo scrivere cos loscillazione modulata:


s (t ) = V0 cos ( 2 f0t + (t ) ) = V0 cos ( 2 f0t + mp sin ( 2 fmt + ) )
E ricavare lequivalente passa-basso:
i (t ) = V0 e
j (t ) jmp sin ( 2 fmt + ) jmp sin
= V0 e = V0 e
Come si vede, lequivalente passa-basso si pu considerare periodico rispetto alla
quantit 2 fmt + = con periodo 2 . Sorpresa: possiamo sviluppare il tutto in serie
di Fourier!
2
i (t ) = V0 e p ( m )
jm sin 2 f t + jn


=
n =
cn e 2
= ce
n =
n
jn

funzione di funzione del tempo

Ricordando come si esprimono i coefficienti dello sviluppo in serie di Fourier:


n + +
1 j 2 t 1 1
cn x (t ) e T dt
jmp sin jn jm sin jn

TT
 cn
2
V0 e e d = V0
2
e p e d
 
funzione di Bessel di ordine n
e argomento mp
( )
Jn m p

Dunque, dopo tanta fatica, arriviamo al risultato che ci interessava:



i=
n =
cn e jn = V J (m ) e
n =
0 n p
jn

{ }
s (t ) = Re i (t ) e j 2 f0t = V0 J (m ) cos ( 2 ( f
n =
n p 0 + nfm ) t + n )

Le funzioni di Bessel, che non hanno forma chiusa, hanno le seguenti propriet:
J ( x ) = ( 1 ) n J ( x )
n n

J n ( x ) = 1
2

n
(NOTA: la prima propriet indica che, se lindice della funzione di Bessel pari, allora
anche la funzione stessa sar pari; allo stesso modo, se lindice dispari, la funzione
sar dispari)
Esse sono fatte cos:

La J 0 ( x ) quella che esprime la riga della componente continua (la frequenza f0 del
segnale modulato), la J1 ( x ) fornisce le righe alle frequenze f0 fm , la J 2 ( x ) le righe
alle frequenze f0 2 fm etc
Nel grafico vi un valore piuttosto importante: quello in cui scompare la riga della
continua, ovvero il valore per il quale J 0 ( x ) = 0. Tale valore x = 2,409. La cosa
interessante che, in questo caso, lestensione (anche se difficile parlare di
estensione in tale contesto) che le righe occupano nello spettro delle frequenze
effettivamente pari alla banda di Carson.
V- MODULAZIONI NUMERICHE

1. Modulazioni numeriche: introduzione

Finora abbiamo esaminato il caso in cui un segnale analogico veniva preso ed


elaborato da un modulatore, secondo lo schema:

Segnale analogico  Modulatore  Oscillazione modulata analogica

Vogliamo ora estendere questo caso ai segnali PAM: lo schema, dunque, si allunga un
pochetto:

Segnale digitale  PAM  Segnale analogico  Modulatore  Oscillazione modulata analogica

Come si vede c sempre di mezzo unoscillazione modulata analogica: i modulatori,


infatti, lavorano con portanti sinusoidali (analogiche) e segnali modulati a tutti gli
+
effetti analogici [la somma di impulsi x (t ) = a g (t nT ) ].
n La differenza, questa
n =

volta, sta nel fatto che questi ultimi derivano da segnali digitali e che, lato ricevente,
questi segnali potranno eventualmente essere demodulati e riconvertiti in segnali
digitali.

2. Modulazione OOK (On-Off Keying)

il tipo pi semplice di modulazione a prodotto di segnali numerici. In questa


modulazione i simboli an sono binari e loscillazione modulata assume la forma:
+
s (t ) = a g (t nT ) cos ( 2 f t )
n 0
n =

Assumiamo, per ipotesi, che gli impulsi generati dal modulatore PAM siano
rettangolari e di tipo NRZ (ampiezza VM ), e che dunque abbiano la forma
t T
g (t ) = VM rect 2
T

NOTA:
- VM regola lampiezza della rect;
- sottrarre T/2 al numeratore serve per far partire la rect, che normalmente
centrata nellorigine, dallorigine stessa;
- dividere per T serve ad allungare la rect, che generalmente ha durata
unitaria.

Dunque la OOK:
- in corrispondenza di an = 0 d un contributo nullo sulloscillazione modulata
s(t): si ha 0 g (t nT ) cos ( 2 f0t ) = 0 ;
- in corrispondenza di an = 1 genera, sulla s(t), un treno sinusoidale di ampiezza
t T
VM : si ha 1 g (t nT ) cos ( 2 f0t ) = 1 rect 2 V cos ( 2 f t ) .
M 0
T

3. Modulazione L-ASK (Amplitude Shift Key a L livelli)

Facciamo le stesse ipotesi di prima, ma questa volta gli an sono i simboli generati da
una codifica multilivello ad L livelli.
Si ricordi che, in questo caso:
- L = 2l il numero di livelli;
- l = log 2 L sono i bit per ogni simbolo della nostra codifica;
- i simboli an sono suscettibili dei valori 1, 3,. .., ( L 1) , ciascuno dei
quali rappresenta una parola di l bit secondo un codice Gray;
- il tempo di simbolo : T = log 2 L Tb (con Tb tempo di simbolo);
Br
- la frequenza di simbolo : Bs = .
log 2 L

In questo caso loscillazione modulata assume la forma:


+
s (t ) = a g (t nT ) cos ( 2 f t )
n 0
n =

NOTA: qui facilissimo accorgersi che lequivalente passa basso del segnale
+
i (t ) = a g (t nT ) = x (t )
n
n =

Dunque la modulazione L-ASK a tutti gli effetti una modulazione dampiezza: la


sinusoide viene infatti modulata dallampiezza della rect (limpulso g).
La costellazione di una modulazione L-ASK (ovvero lo schema, disegnato sul piano di
Gauss, dei possibili coefficienti assunti da i(t), rappresentati come dei punti) ha valori
tutti sullasse reale, in corrispondenza delle ascisse VM , 3VM ,. .., ( L 1 ) VM .

4. Modulazione M-QAM (Quadrature


Amplitude Modulation), detta anche
L2-QASK (Quadrature Amplitude
2
Shift Key a L livelli)

Abbiamo ancora una volta codici bipolari


o multilivello ma come accadeva nella
modulazione QAM, la quale permetteva
grazie a due portanti in quadratura la
trasmissione di due segnali modulanti
sulla stessa banda di frequenze abbiamo
due segnali, entrambi PAM e con lo stesso
numero di livelli e la stessa frequenza di
simbolo:
+ +
x1 (t ) = a1n g (t nT ) x 2 (t ) = a g (t nT )
2n
n = n =

Loscillazione modulata ha una forma un pelo pi complicata rispetto ai casi


precedenti:
+ +
s (t ) = a1n g (t nT ) cos ( 2 f0t ) a g (t nT ) sin ( 2 f t )
2n 0
n = n =

Questa volta pi difficile verificarlo, ma lequivalente passa-basso della s(t) :


+
i (t ) = (a 1n + ja2n ) g (t nT )
n =

[lunit immaginaria j fa ruotare il piano di Gauss


per il segnale x 2 (t ) , in quanto fa diventare
immaginario il coseno e reale il seno nella formula di
Eulero: in questo modo, estraendo la parte reale, il
seno sopravvive, ma col segno meno, come si vede
dalla formula di s(t)]

Come si nota, avendo per i(t) coefficienti che


dipendono da a1n + ja2n , i punti sulla costellazione
della modulazione QAM saranno L L (cio L relativi
agli a1n e altri L relativi a a2n ). In figura si riporta un
esempio di costellazione per la modulazione 16-QAM
(42 = 16 punti).

5. Modulazione L-PSK (Phase Shift Keying a L livelli)

Ancora una volta facciamo riferimento a un codice bipolare o multilivello: questa volta,
tuttavia, moduliamo in fase visto che loscillazione modulata ha la forma
s (t ) = V0 cos 2 f0t + (t )
+ t T nT +
In questa relazione (t ) = kp x (t ) = kp an g (t nT ) = kpVM an rect 2 .
 n = n = T
PAM
+ t T nT
Assumiamo kp = , in modo che (t ) = an rect 2 e dunque i
LVM L n = T

possibili valori assunti si risultino uniformemente distribuiti sullangolo giro.
Lequivalente passa-basso delloscillazione modulata :

+ t T nT
j t T nT
an rect 2
+
i (t ) = V0 e
j (t ) L n = T j an
= V0 e
n =
rect

2
T



= V0 e L


La costellazione della modulazione PSK ha forma circolare con punti distribuiti
uniformemente (labbiamo imposto noi stessi poco fa).
NOTA: la 4-ASK coincide con la 4-QAM; allo stesso modo la 2-PSK coincide con la 2-
ASK.
6. Modulazioni L-FSK (Frequency Shift Keying a L livelli) L-CPFSK
(Continuous Phase Frequency Shift Keying a L livelli)

Facciamo ancora una volta riferimento ad un codice bipolare o multilivello, ma


consideriamo in questo contesto unoscillazione modulata in frequenza
s (t ) = V0 cos 2 f0t + (t )
+
Qui (t ) = 2 kf x (t ) = 2 kf an g (t nT ) , dalla quale otteniamo, integrando,
 n =
PAM
t +
(t ) = 2 kf a g ( nT ) d
n
n =

Come si nota, la deviazione di fase (t ) , a differenza dei casi finora esaminati, ha un


andamento continuo nel tempo, con benefici sulloccupazione spettrale delloscillazione
modulata (NOTA: non si pensi per che lo spettro della FSK sia a righe! Loscillazione
modulata non affatto una sinusoide): questa peculiarit viene evidenziata con la
sigla CPFSK (Continuous Phase FSK).
Vogliamo ora capire quale sia lentit della deviazione di frequenza f (che poi il
vero parametro che caratterizza questa modulazione):
= kf VM
+  t nT T
f (t ) = an fd rect 2
n = T

Questi sono dunque i valori rispetto ai quali ci si discosta dalla frequenza portante f0 ;
da ci deduciamo che la frequenza istantanea pu assumere solo le quantit:
f0 fd , f0 3 fd , ..., f0 ( L 1) fd

7. Potenze e spettri nelle modulazioni numeriche

Abbiamo visto nello scorso capitolo che lo spettro di potenza delloscillazione modulata
pu essere espresso in questo modo:
1 1
Gs ( f ) = Gi ( f f0 ) + Gi ( f + f0 )
4 4
Dunque possiamo scegliere di trovare Gi ( f ) invece che lanciarci a capicollo sulla
ricerca di Gs ( f ) , tanto il conoscere uno dei due spettri in questione significa conoscere
anche laltro. Lequivalente passa-basso delle varie modulazioni ha la forma:
i (t ) = an g (t nT )
n

Dove i simboli an possono essere reali (L-ASK) oppure complessi (M-QAM, L-PSK).
Diamo ora le espressioni dei relativi spettri di potenza Gi ( f ) delle modulazioni:
E an2
G(f )
2
- L-ASK:
T 

trasformata
dell'impulso rect
= una sinc

E n
2

- M-QAM: G f 2
( )
T
2
V2 t
- L-PSK: 0 F rect
T T
Comune a queste tre espressioni lo spettro di potenza normalizzato:


Gi ( f ) 2 f
= sinc
Gi ( 0 ) B
S
symbol
rate
Dunque la
1 1
Gs ( f ) = Gi ( f f0 ) + Gi ( f + f0 )
4 4
fatta di due sinc (larghezza del lobo centrale: 2 BS ) a frequenza f0 e f0 .
NOTA: esiste una relazione tra la symbol-rate di una codifica e il numero di punti
nella costellazione della modulazione
symbol bit-rate
rate 
 Br
BS =
log 2  M
numero
di punti
Si noti che maggiore il numero di punti e minore sar la banda occupata dal segnale
(il denominatore diventa grande e la sinc pi stretta perch BS cala). Laltra faccia
della medaglia aumenta la difficolt di ricezione a causa dei rumori.
VI - RADIODIFFUSIONE

1. Modulazione multiportante (MC, Multicarrier Modulation), modulazione


OFDM (Orthogonal Frequency Division Multiplex), broadcasting video (DVB,
Digital Video Broadcasting) e audio (DAB, Digital Audio Broadcasting)

Nel caso dei segnali numerici di particolare interesse la trasmissione di segnale su


pi portanti affiancate nel dominio della frequenza (MC): in questo caso da un flusso
solo si formano, grazie a un convertitore S/P, un insieme di flussi associati a frequenze
diverse (OFDM), le quali sono ortogonali fra di loro in un tempo di simbolo (cio poste
fra loro ad una distanza pari al tempo di simbolo).
Due esempi notevoli dellapplicazione di tale principio sono
- la radiodiffusione numerica sonora:
- frequenza di cifra: 32 192 Kbps (con frequenze doppie nel caso stereo);
- campionamento: 48 KHz (soddisfa Shannon);
- codifica: livello 2 di MPEG-1;
- numero di portanti: 1536;
- larghezza dei blocchi di frequenza: 1,536 MHz in VHF e UHF; ogni
blocco pu contenere fino a 6 programmi radiofonici.
- la radiodiffusione numerica televisiva:
- frequenza di cifra: da 5 a 31,5 Mbps;
- codifica: MPEG-2 per il video, livello 2 di MPEG-1 per laudio;
- numero di portanti: 2k (nelle reti convenzionali) oppure 8k (in reti
isofrequenziali);
- larghezza dei blocchi di frequenza: 8 MHz in VHF e UHF; ogni blocco
pu contenere da 6 a 8 programmi video.

Bande di frequenza notevoli nello studio delle comunicazioni elettriche

NOTE: la banda N si estende da 0,3 10 N a 3 10 N ; lunghezza donda: = c f .


Numero Simbolo Intervallo frequenze Note
3 ULF 0,3 10 3 10 Hz
3 3

4 VLF 0,3 104 3 104 Hz


5 LF 0,3 105 3 105 Hz Utilizzato per la trasmissione AM
6 MF 0,3 10 3 10 Hz
6 6
Utilizzato per la trasmissione AM
7 HF 0,3 10 3 10 Hz
7 7

In questa regione si trovano gli


intervalli di frequenza I, II (
8 VHF 0,3 108 3 108 Hz radiodiffusione FM) e III utilizzati
convenzionalmente nella
radiodiffusione sonora e televisiva
In questa regione si trovano gli
intervalli di frequenza IV e V
utilizzati convenzionalmente nella
9 UHF 0,3 109 3 109 Hz radiodiffusione sonora e televisiva.
Troviamo anche: bande L ed S per le
radiocomunicazioni spaziali; bande
GSM 900 e GSM 1800 per i sistemi
radiomobili GSM e di terza
generazione.
Bande C, Ku, K, Ka per le
10 SHF 0,3 1010 3 1010 Hz
radiocomunicazioni spaziali.
11 EHF 0,3 1011 3 1011 Hz
12 0,3 1012 3 1012 Hz
13 0,3 1013 3 1013 Hz
14 0,3 1014 3 1014 Hz
15 0,3 1015 3 1015 Hz

2. Politica del segnale televisivo

Il segnale televisivo, come abbiamo visto, viaggia a cavallo fra la VHF (I, II, III) e la
UHF (IV e V). Si ricordi che il segnale video analogico in B/N un segnale in banda
base con banda 5 MHz e che tale segnale veicola le informazioni riguardanti il
parametro di luminanza (intensit di luce, cio bianco). Supponiamo che, per la
trasmissione, tale segnale sia trasmesso tramite una portante a frequenza f0 e, fatta
questa ipotesi, esaminiamo come trasmesso il segnale video analogico a colori:
- tra f0 1,25 MHz e f0 + 5 MHz si trova il segnale di luminanza che, come si
osserva, tiene 6,25 MHz (invece che 10 MHz) in virt di una economica
modulazione VSB; tale segnale viene ricevuto sia da chi ha un televisore in B/N
sia dagli utenti in grado di ricevere le trasmissioni a colori;
- attorno a f0 + 4,43 MHz si osserva empiricamente che il segnale di luminanza
presenta, come in altre parti, dei buchi generati dalla periodicit dei frame; si
sceglie dunque di porre qui il segnale di crominanza, modulato QAM, il quale,
essendo meno massiccio di quello della luminanza, riesce a stare comodamente
in tale piccolo intervallo di banda; il segnale di crominanza interpretato solo
dalla TV a colori: se si dispone di solo B/N, tale informazione non viene recepita
e rimane ignorata;
- alla frequenza f0 + 5,5 MHz si modula in FM il segnale audio (tiene circa 130
KHz).
Dunque in totale il segnale video (a colori e analogico) tiene attorno ai 6,75 7 MHz
(e circa 8 MHz in UHF).

Cenni sulle politiche di trasmissione dei segnali radio

Come abbiamo visto esiste una legge fisica che indica come la lunghezza donda
dipenda dalla frequenza di trasmissione secondo la legge = c f . Se si vuole
trasmettere un segnale su un raggio molto ma molto ampio lideale utilizzare
unantenna molto grande e di notevole potenza in modo da sfruttare le basse frequenze
( onde molto lunghe). Il problema che tali frequenze sono preziosissime, in quanto
sono in grado di coprire unarea cos vasta da risultare occupate su tutto il globo.
Utilizzarle su scala locale sarebbe sprecato, cos in questultimo caso si preferisce
collegare fra loro tante stazioni a potenza minore, le quali trasmettono (ripetono) lo
stesso segnale su una frequenza pi alta (e quindi su un raggio minore). Facendo
lesempio audio, si sceglie quindi la modulazione AM (che tiene poca banda quindi
economica) per le preziose frequenze basse e a pi grande portata (da VHF in gi),
mentre si preferiscono la modulazione FM e una frequenza pi alta per la
trasmissione locale.

3. Trasmissione radiomobile GSM (Global System for Mobile communication)

Nella trasmissione GSM trasmettiamo una segnale audio che in banda base occupa 4
KHz e che viene campionato a 8 KHz per soddisfare Shannon: la bitrate del segnale
digitale cos ricavato di circa 10 20 Kbps (compressa dai 64 Kbps originale). Per la
trasmissione si utilizza una tecnica a di multiplazione a divisione temporale (TDM)
con 8 slot differenti, uno per ogni utente, i quali si ripetono periodicamente; la banda
totale utilizzata per 8 conversazioni tiene grosso modo 200 KHz, con differenzazione
tra banda di uplink (invio) e downlink (ricezione). Tale banda , in realt, tantissima
se consideriamo il numero di conversazioni telefoniche che si tengono
contemporaneamente in tutto il paese: sarebbe impensabile utilizzare, su tutto il
territorio nazionale, un range di frequenza per ogni conversazione, dunque si sfrutta il
principio del riuso di frequenza e quello della multiplazione statistica. Il primo si
realizza dal momento che esistono, su tutto il territorio, delle celle, ognuna di pochi
chilometri di raggio, le quali sono adeguatamente distanti fra loro in modo da evitare
interferenze. Due celle lontane possono usare per due conversazioni diverse la stessa
frequenza: in questo modo riusciamo ad evitare la necessit di una banda smisurata
per ospitare tutte quante le trasmissioni. Si inoltre osservato che bastano
relativamente pochi canali per servire una vasta popolazione, dal momento che non
tutti gli utenti intraprendono una conversazione contemporaneamente.

4. Altri collegamenti notevoli

Fra i collegamenti notevoli ricordiamo il collegamento P-P, che quello tra parabole
poste a non pi di 50 Km lun con laltra: infatti necessario che le due installazioni
siano reciprocamente in vista e la curvatura terrestre, a questo scopo, certamente
dostacolo. La trasmissione avviene ad una banda molto elevata (circa 10 GHz) e
dunque altrettanto elevato sar il bitrate.
Molto importante anche luso delle bande ISM (Industrial Scientific and Medical),
per le quali non serve licenza: quindi possibile trasmettervi liberamente, a patto di
rispettare alcuni vincoli riguardo lo spettro di potenza. Il problema sta nel fatto che
tali bande sono relativamente strette e che vi poco spazio, dal momento che tutti si
lanciano ad utilizzare le frequenze di cui sopra. Il collegamento Bluetooth e quello WI-
FI rientrano in questambito.

5. Trasmissione passa-banda (radio) di segnali analogici

Esistono due tipologie di sistemi di trasmissione radio del segnale analogico:

5.1 . Sistemi a modulazione/demodulazione diretta

Segnale analogico x(t) passa-basso



Modulatore che riceve la portante a radio-frequenza f0

HPA (High Power Amplifier), un amplificatore di potenza

Trasmissione con antenna

Mezzo radio

Antenna ricevente

Amplificatore a radio frequenza

Demodulatore

Segnale x r (t ) , versione quanto pi possibile non distorta di x(t)

Questi circuiti hanno lo svantaggio di essere difficili da progettare, perch devono con
ununica operazione modulare direttamente alla frequenza f0 e ci pu risultare
abbastanza problematico. Per questo esistono i cosiddetti sistemi a supereterodina.

5.2. Sistemi a supereterodina

Segnale analogico passa-basso x(t)



Modulatore a frequenza intermedia fI

Convertitore di frequenza fI  fm (up converter, o convertitore di frequenza in
salita)

HPA (High Power Amplifier), un amplificatore di potenza

Trasmissione con antenna

Mezzo radio

Antenna ricevente (*)

Amplificatore a radio-frequenza

Convertitore di frequenza fm  fI (down converter, o convertitore di frequenza
in discesa)

Demodulatore

Segnale x r (t ) , versione quanto pi possibile non distorta di x(t)

NOTA: per le considerazioni che seguiranno si consulti il capitolo VII Rumore.


Per quanto riguarda il sistema di trasmissione a supereterodina possibile, per
lanalisi, utilizzare uno schema concettuale che rende facile la comprensione del
problema: abbiamo
1) un generatore di segnale eS (t ) , che incarna tutto ci che c prima
dellantenna ricevente (*), in serie con la resistenza interna R, la quale
si trova a temperatura TA (temperatura dellantenna). Questa parte
del circuito scambia con quella successiva una potenza che
chiameremo PR ;
2) un quadripolo che schematizza tutta la circuiteria a IF/RF (frequenza
intermedia/radio frequenza) e cio i componenti che nella catena di
trasmissione stanno dallantenna ricevente (*) fino al demodulatore
escluso; tale quadripolo, che soddisfa le condizioni di non distorsione di
gruppo, lavorer ad una propria banda B, avr una cifra di rumore F e
una temperatura equivalente di rumore Tr = T0 ( F 1 ) . A valle di
questa sezione si calcola, in genere, lSNR (Signal to Noise ratio);
3) un demodulatore che porta il segnale in banda-base;
4) una resistenza R che rappresenta lutilizzatore.
IPOTESI prese in considerazione:
- tutte le sezioni adattate;
- catena complessivamente non distorcente.

I punti 1) e 2) di tale schema possono essere equivalentemente rappresentati da:


1eq) un generatore di segnale eS (t ) , che incarna tutto ci che c prima
dellantenna ricevente (*), in serie con la resistenza interna R, la quale si
trova a temperatura TSIST , cio la temperatura di sistema, calcolata cos:
TSIST = TA + TR = TA + T0 ( F 1 )
Utilizzando la formula di Friis possiamo dare unaltra espressione per
TSIST e cio:
T0 ( FC 1) T0 ( FIF 1 )
TR = T0 ( FRF 1) + +
GdRF GdRF GdC
( FRF , GRF = cifra di rumore / guadagno del ricevitore a radio-frequenza;
FC , GC = cifra di rumore / guadagno del down converter, FIF = cifra di
rumore dellamplificatore a intermediate frequency). Come si nota, il
contributo maggiore sul rumore proviene sempre dal primo blocco della
cascata (che in questo caso lamplificatore a radio-frequenza). dunque
opportuno che lamplificatore a radio-frequenza sia un LNA (Low Noise
Amplifier).
2eq) un quadripolo ideale che schematizza tutta la circuiteria a IF/RF
(frequenza intermedia/radio frequenza) e cio i componenti che nella
catena di trasmissione stanno dallantenna ricevente (*) fino al
demodulatore escluso; tale quadripolo, che soddisfa le condizioni di non
distorsione di gruppo, lavorer ad una propria banda B. A valle di questa
sezione si calcola, in genere, lSNR (Signal to Noise ratio).
Nella risoluzione degli esercizi, ma anche concettualmente, di grande utilit e
chiarezza disaccoppiare il rumore dai vari componenti e aggiungerlo tutto in
una volta a valle dellantenna ricevente, caratterizzandolo come rumore
additivo gaussiano bianco (t ) (AWGN, Additive White Gaussian Noise). Lo
spettro di potenza di questo rumore sar costante e pari a
N KTSIST
G ( f ) = 0 =
2 2
VII RUMORE

Tutti i circuiti sono in generale sorgenti di fluttuazioni aleatorie nel tempo di tensioni
e/o correnti che si sovrappongono ai segnali stessi e che chiamiamo rumore. Le origini
di questo rumore sono riconducibili alle leggi che regolano il funzionamento
microscopico dei dispositivi, che sono di tipo statistico e non deterministico.

1. Le cause principali del rumore: effetto Johnson

Prendiamo un circuito semplicissimo, costituito da un resistore R e da un generatore


di tensione V0 . La corrente che circola nel circuito, secondo la legge di Ohm, sarebbe:
V0
I=
R
Invece, si osserva che cos non accade. Levidenza sperimentale (effetto Johnson) che
la corrente in realt oscilla lievemente attorno a un valore medio, che
effettivamente quello della legge di Ohm. Si ha dunque:
V
i (t ) = 0
R
Mentre la corrente (istantanea) dipende dal tempo ed pari a:
V
i ( t ) = 0 + i (t )
R
Allo stesso modo, se nel circuito caviamo il generatore di tensione, ci aspetteremmo di
misurare una differenza di potenziale nulla ai suoi capi; anche questa volta, invece,
lesperienza ci contraddice: quel che si osserva che vi sono delle leggerissime
fluttuazioni attorno al valore nullo di tensione. Tale fluttuazioni sono fonte di rumore e
il resistore si dice dunque rumoroso: attuando un artificio teorico tale componente pu
essere sostituito con un generatore di tensione fluttuante (generatore di rumore) e con
un resistore cosiddetto non rumoroso. Se siamo pi generali (in modo da poter
quantificare leffetto Johnson anche con induttori e condensatori), e prendiamo in
considerazione unimpedenza Z, lartificio di cui sopra consiste nel sostituire tale
impedenza (rumorosa) con il famoso generatore di tensione fluttuante pi la parte
puramente resistiva R dellimpedenza e la parte puramente reattiva di questultima
jX eq , entrambe non rumorose.
A cosa sono dovute le fluttuazioni? Il fatto che il resistore un conduttore e, in
quanto tale, possiede elettroni di conduzione che si muovono di agitazione termica
casuale e disordinata. A causa di questo movimento cos caotico, sebbene mediamente
gli atomi e gli elettroni sono fermi, istantaneamente ci non accade: tale fenomeno,
incontrollabile e assolutamente stocastico, dipende dalla temperatura essendo
appunto dovuto ad agitazione termica e, essendo a tutti gli effetti costituito dalla
somma di tantissimi processi indipendenti, interpretabile come campione di un
processo aleatorio gaussiano ergodico a valor medio nullo e spettro bianco. Per
caratterizzare un processo gaussiano ergodico servono unicamente la funzione di
autocorrelazione o lo spettro di potenza: di questultimo, in particolare, stata data
unespressione ricavata sperimentalmente
2Rh f
Ge ( f ) = h f
e kT 1
In questa formula:
 R il valore, in Ohm, della resistenza in questione;
 f la frequenza alla quale stiamo lavorando;
 k la costante di Boltzmann (1,38 10 23 J/K );
 h la costante di Planck ( 6,626 1031 J/Hz );
 T la temperatura del resistore, in gradi Kelvin.
Il grafico di questo spettro assume un valore costante ( bianco) per un range di
frequenze pari a [ 1011 , +1011 ] , dopodich decade nel giro di poche unit logaritmiche.
Per capire quale sia questo valore costante facciamo un passaggio al limite:
2Rh f f 0
2Rh f 2R
= = 2RkT perch lim e x = 1 + x
hf
hf 1 x 0
e kT 1 1+ 1
kT kT

limite notevole

Da cui:
Ge ( f ) = 2RkT GeMONO ( f ) = 4 RkT [V2 / Hz]
(formula di Nyquist)
hf
per questo motivo che, se << 1, e ci sapendo che k = 2 1010 avviene
kT h
proprio nel range di frequenze [ 10 , +10 ] , lo spettro assume valore costante.
11 11

Alla luce dei calcoli appena fatti, vogliamo ora dare unespressione del rumore in
funzione di una qualsivoglia porzione di banda [f, (f+B)] (dove essa costante):
consideriamo dunque un resistore R a temperatura assoluta T. La potenza del rumore
nella banda B sar:
Pe ,B eB2 (t ) = 2kTR 2B = 4kTRB V 2
(nota: c 2B perch bisogna considerare sia la porzione positiva che quella negativa
delle frequenze)
Questo vuol dire che il valore efficace del segnale-rumore :
eB ,eff 4kTRB V
Tipicamente la potenza di rumore dellordine dei microVolt (esempio numerico con: R
= 1 k, T = 290 K, B = 5 MHz  Risultato: 9 V ): tale quantit potrebbe essere
rilevante se confrontata con segnali deboli, mentre trascurabile con segnali
dellordine del Volt o milliVolt.

Alla luce dellanalisi appena fatta, possiamo dire che un qualsiasi resistore si comporta
come una sorgente calibrata di rumore.

1b. Adattamento in potenza: potenza disponibile

Se abbiamo un circuito costituito da due parti:


- una parte con un generatore di tensione eS (t ) dotato di resistenza
interna R;
- laltra parte con un carico resistivo RC . A tale carico il generatore di
tensione cede una potenza PS .
Allora dicasi potenza disponibile della sorgente di segnale eS (t ) il valore
massimo di PS , cio PS max . Si pu dimostrare che, in questo semplice caso, il
massimo trasferimento di potenza si ha quando RC = R : allora si dice che il
carico adattato alla sorgente. facilissimo dimostrare che, se il carico
e (t )
adattato alla sorgente, la differenza di potenziale ai capi di RC S (met
2
della forza elettromotrice viene dissipata nella resistenza interna R, laltra met
destinata al carico resistivo): di conseguenza la potenza PS max sar
V2 eS2 (t ) e
PS max = = S ,eff
R 4R 4R
Questo valore ha pi significati:
- la potenza disponibile della sorgente;
- la massima potenza trasferibile a un carico;
- la potenza assorbita da un carico adattato.

Nel caso generale, lavorando con le impedenze, e avendo un circuito siffatto:


- da una parte un generatore di tensione eS (t ) dotato di impedenza
interna Z;
- dallaltra un carico resistivo ZC . A tale carico il generatore di tensione
cede una potenza PS .
Allora limpedenza di carico adattata quando ZC = Z * .

1c. Guadagno disponibile di un apparato

Prendiamo un quadripolo generico Q:


- in ingresso poniamo un generatore di tensione eS (t ) dotato di
resistenza interna R. La potenza disponibile in entrata quindi PS max ;
- in uscita sistemiamo un carico resistivo RC . Se ci poniamo in questa
parte del circuito e guardiamo verso la prima (cio verso il quadripolo e il
generatore con resistenza), allora questultima pu essere vista (secondo
Thvenin) come la serie fra un generatore di f.e.m. eSU (t ) e la sua
resistenza interna RU (potenza disponibile PSU max ).
Allora il guadagno disponibile di un apparato :
P
Gd = Gd ( f , R,Q ) = SU max
PS max
Se il quadripolo adattato sia in ingresso che in uscita, il guadagno disponibile
coincide con quello effettivo, cio con
P
G = SU
PS
R = RI (resistenza d'ingresso)
Ladattamento in ingresso e in uscita si ha con: .
RC = RU (resistenza d'uscita)
Se poi, in particolare, R = RC si parla di livello di impedenza dellapparato: tale
valore quello che mi realizza ladattamento in potenza.
Si po dimostrare che la coppia ( RI , RC ) che risolve il sistema sopra indicato
esiste sempre ed unica.

OSSERVAZIONI:
- le considerazioni appena fatte sono valide se costante la frequenza di
lavoro f [Hz];
- nella pratica si cercano di fare impedenze puramente resistive e
costanti, in modo da ottimizzare la situazione;
- per fare queste osservazioni sufficiente che Q sia lineare.

Se abbiamo una serie di apparati in cascata (quadripoli Q1 , Q2 , ..., Qn con


guadagno rispettivamente pari a Gd1 , Gd 2 , ..., Gdn ), allora possiamo sostituire
tale struttura con un unico quadripolo con guadagno disponibile
n
Gd = Gdi
i =1

Anche in questo caso, il guadagno disponibile coincide col guadagno vero se


tutte le sezioni sono adattate.

Tornando alle nostre considerazioni sul rumore, consideriamo il solito semplicissimo


circuito formato da:
- una resistenza rumorosa, che equivalente ad una resistenza ideale R in serie
con un generatore di f.e.m. fluttuante e (t ) ;
- un carico adattato (quindi con resistenza pari a R).
Con le stesse ipotesi che abbiamo fatto prima possiamo dire che:
e (t )
- la tensione (t ) ai capi del carico adattato pari a (laltra met si
2
dissipata sulla resistenza interna del generatore);
- lo spettro del monolatero del rumore : GMONO ( f ) = kTR V .
2

Hz
Quale sar la potenza disponibile del rumore dN in una banda di ampiezza
infinitesima [f, (f+df)] (ovvero la potenza ceduta al carico dalla resistenza
rumorosa)? Per trovarla basta fare:
kTR df
dN = = kTdf [W]
R
Possiamo infatti definire la densit spettrale di potenza ceduta al carico in termini di
Watt:
dN kTdf kT W
GN ( f ) = = = e GNMONO ( f ) = kT
2 df 2 df 2 Hz
(NOTA: il 2 al denominatore deriva dal fatto che c sia la parte di banda positiva che
quella negativa)

2. Le cause principali del rumore: rumore granulare (shot noise)

Consideriamo un circuito costituito da un generatore di tensione costante V0 con in


serie un diodo a giunzione polarizzato nel senso della conduzione della tensione in
questione. Sperimentalmente si osserva che la corrente che scorre nel circuito
lievemente fluttuante: lespressione della corrente (che dunque funzione del tempo)
risulta infatti essere
i (t ) = I 0 + i (t )

fluttuazione
aleatoria

Quel che osserviamo detto rumore granulare: esso legato al carattere discreto del
flusso di corrente del dispositivo, che non prodotto dal moto di un fluido continuo, ma
da portatori elementari di carica; si dice in particolare che la corrente ha un carattere
granulare in quanto gli elettroni non attraversano la giunzione in modo lineare. La
componente fluttuante che ne deriva sperimentalmente considerabile come un
processo aleatorio gaussiano ergodico e, indicando con K la durata
dellattraversamento della giunzione da parte del k-esimo portatore di carica, la
formula di Schottky ci d lespressione dello spettro di potenza (costante e dunque
bianco):
1
G i ( f ) = qI 0 A
2
per f <<
Hz
max K
Possiamo, anche per questo caso di studio, indicare un artificio teorico che permette di
sostituire a un diodo rumoroso un diodo non rumoroso posto in parallelo a un
generatore di corrente fluttuante i (t ) legata a I 0 .
NOTA: lo shot noise non si pu ridurre abbassando la temperatura.

3. Le cause principali del rumore: rumore di ripartizione (partition noise)

Il rumore di ripartizione entra in gioco dei dispositivi tripolari (ad es. il BJT) ed
causato da quella parte di tensione che fuoriesce dalla base del transistore.

4. Le cause principali del rumore: rumore rosa (flicker noise)

Questo tipo di rumore dovuto ad irregolarit e microimperfezioni nella costruzione


dei resistori, i quali si ritrovano ad avere resistenza leggermente variabile. La densit
spettrale di questo tipo di rumore quantificabile in
costante
G(f ) =
f
(con circa uguale a 1)

5. Temperatura equivalente di rumore per apparati lineari

Per introdurre il concetto di temperatura equivalente di rumore prendiamo in


considerazione un quadripolo Q. Tale apparato produrr, al suo interno, del rumore
dovuto agli effetti gi visti (shot noise, rumore termico, etc): se quindi, lavorando in
una banda di frequenze infinitesima [ f , f + df ] prendiamo tale quadripolo rumoroso Q
(guadagno disponibile Gd , tutte le sezioni adattate) e
- poniamo da una parte (ingresso) una resistenza R a temperatura assoluta T0
(potenza entrante nellapparato  dN i = kT0 df )
- colleghiamo agli altri due morsetti un carico adattato RC (potenza uscente
dallapparato  dNU )
allora possiamo dividere la potenza dNU in due contributi:
dNU ( f ) = dNU ( f ) + dN A ( f )
   
potenza ceduta al contributo dovuto
carico se il quadripolo soltanto al rumore
non fosse rumoroso dell'apparato

Utilizziamo ora le relazioni studiate e il guadagno disponibile per esprimere in un


altro modo questi due apporti di rumore:
= KT0df = KTRGd df
  

dNU ( f ) = dN I Gd + dN A ( f )
   
potenza ceduta al contributo dovuto
carico se il quadripolo soltanto al rumore
non fosse rumoroso dell'apparato

Come si vede, abbiamo espresso il rumore dovuto allapparato come kTRGd df , dove
TR incarna un delta di temperatura con il quale si pu convertire il rumore del
quadripolo, trasferendo la colpa di tutto sulleffetto Johnson (cit.). In sostanza,
aggiungendo questo TR alla temperatura del resistore R (che va a T0 + TR ), e
considerando il quadripolo come non rumoroso, la situazione rimane invariata.
Dunque
dNU ( f ) = kT0Gd df + kTRGddf = k (T0 + TR ) Gd df
   
potenza ceduta al contributo dovuto
carico se il quadripolo soltanto al rumore
non fosse rumoroso dell'apparato

da cui
dNU ( f )
= T0 + TR = temperatura equivalente di rumore dellapparato
KGd df
Come si nota, tale temperatura equivalente Teq = T0 + TR funzione:
- del quadripolo (e del suo guadagno);
- della frequenza di lavoro;
- della resistenza R (per via delladattamento).
Interessante osservazione: non dipende da T0 !

Com possibile misurare sperimentalmente la temperatura equivalente di rumore?


Si prende il solito trito e ritrtito apparato:
- quadripolo Q con guadagno disponibile Gd ;
- resistenza R a temperatura T ai morsetti dingresso;
- potenza complessiva di rumore di uscita pari a dNU .
Poi si cambia la temperatura per avere:
- resistenza R a temperatura T * ai morsetti dingresso;
- potenza complessiva di rumore di uscita pari a dNU* .
Nel primo caso la potenza complessiva di rumore in uscita sar:
dNU = k (T + TR ) Gd df
Mentre, nel secondo caso:
(
dNU* = k T * + TR Gd df )
Facendo il rapporto otteniamo:
dNU k (T + TR ) Gd df T +T
= = * R =
(
dNU k T + TR Gd df T + TR
* *
)
La temperatura equivalente di rumore quindi esprimibile facilmente cos:
T T *
TR =
1

6. Cifra di rumore (NF, Noise Figure)

Consideriamo lapparato visto nel paragrafo 5: un quadripolo rumoroso Q (guadagno


disponibile Gd , tutte le sezioni adattate) con
- da una parte (ingresso) una resistenza R a temperatura assoluta T0 (potenza
entrante nellapparato  dN i = kT0 df )
- agli altri due morsetti un carico adattato RC (potenza uscente dallapparato 
dNU ).
Come gi abbiamo visto:
dNU ( f ) = dNU ( f ) + dN A ( f ) = kT0Gd df + kTRGddf = k (T0 + TR ) Gddf
       
potenza ceduta al contributo dovuto potenza ceduta al contributo dovuto
carico se il quadripolo soltanto al rumore carico se il quadripolo soltanto al rumore
non fosse rumoroso dell'apparato non fosse rumoroso dell'apparato

dNU
Definiamo allora cifra di rumore F ; tale quantit pu essere anche espressa in
dNU
funzione di T0 e TR :
dNU k (T0 + TR ) Gd df T0 + TR T
F = = =1+ R
dNU kT0Gd df T0 T0
Qui evidente che:
- se TR T0 = 1 il quadripolo non rumoroso;
- se TR T0 > 1 il quadripolo rumoroso.

NOTE:
dNU
- la cifra di rumore spesso espressa in dB: F[dB] = 10 log ;
dN U

- la cifra di rumore dipende da:


- il quadripolo Q;
- la frequenza di lavoro f;
- la resistenza R generatrice di rumore termico;
- la temperatura assoluta T0 della resistenza R (se nulla si specifica, si
intende T0 = 290 K .
- se ho F posso trovare TR :
- TR = ( F 1 ) T0 (con F in unit lineari).

Esaminiamo ora un caso particolare: prendiamo


- un attenuatore normale (cio senza dispositivi a semiconduttore), ad esempio
un cavo, a temperatura assoluta TA e caratterizzato da parametro di
attenuazione A (si ricordi che A = G 1 ). Potenza uscente dallapparato  dNU ;
- una resistenza R, anchessa a temperatura TA , collegata allattenuatore.
Allora, al solito, dNU = k (TA + TR ) Gd df .

1 A

Ora applichiamo Thvenin alluscita e guardiamo verso lapparato (attenuatore +


resistenza): quel che vediamo ununica resistenza RU a temperatura TA . La potenza
ceduta al carico dNU pu ora essere espressa in un secondo modo:
dNU = kTA df
Ora uguagliamo le due quantit
1
k (TA + TR ) df = kTA df
A
(TA + TR ) = T
 TR = ( A 1) TA
A
A
Come abbiamo detto, se abbiamo F possiamo trovare TR (e viceversa); dunque:
TR
=1+
( A 1) TA
F =1+
T0 T0
Se poniamo TA = T0 (lavoriamo a temperatura ambiente):
F =A

7. Apparati rumorosi in cascata e formula di Friis

Prendiamo una serie di n apparati rumorosi in cascata, tutti vicendevolmente adattati


fra di loro: al primo ( Q1 , caratterizzato da temperatura TR1 , guadagno disponibile Gd1 ,
cifra di rumore F1 ) colleghiamo in entrata un resistore R; in uscita poniamo un
secondo quadripolo ( Q2 , caratterizzato da temperatura TR 2 , guadagno disponibile Gd 2 ,
cifra di rumore F2 ) e poi continuiamo a collegare in serie fino allultimo componente
( Qn , caratterizzato da temperatura TRn , guadagno disponibile Gdn , cifra di rumore
Fn ). Si ha che a tale cascata di quadripoli equivale un solo quadripolo Qeq (anchesso
n
adattato), caratterizzato da temperatura TR , guadagno disponibile Gd = Gdi e cifra
i =1

di rumore F . Chiamiamo ancora una volta


dN A = kTRGd df
la potenza ceduta al carico e dovuta a tutti gli apparati.
In realt, dN A la somma di tanti contributi:
  
parte di rumore indotta dal primo quadripolo

  
parte di rumore indotta dal secondo quadripolo

dN A = kTR1Gd1df Gd 2Gd 3 ... Gdn + kTR 2Gd 2df Gd 3Gd 4 ... Gdn + ... +
          
contributo del primo ... che passa attraverso tutti contributo del secondo ... che passa attraverso tutti
quadripolo della serie... gli altri quadripoli della cascata quadripolo della serie... gli altri quadripoli della cascata
parte di rumore indotta
 
dall'ultimo
parte di rumore indotta dal penultimo quadripolo
  

quadripolo

+ kTR (n 1)Gd (n 1)df Gn + kTRnGdn df = kTRGd df


  ... che passa

attraverso
contributo del penultimo l'ultimo
quadripolo della serie...

Se ora dividiamo per k, df e per Gd = Gd1Gd 2Gd3 ... Gdn otteniamo che
TR 2 TR 3 TRn
TR = TR1 + + + ... +
Gd1 Gd1Gd 2 Gd1Gd 2Gd 3 ... Gd( n 1)
Tale equazione detta formula di Friis e illustra come, nella sommatoria che
costituisce lapporto totale di rumore, il contributo del blocco i-esimo venga attenuato
dal prodotto dei guadagni dei blocchi che lo precedono. Appare quindi evidente che i
blocchi pi critici siano i primi della serie, quelli in testa alla cascata: si vuole che
questi abbiano un guadagno molto alto e una piccola cifra di rumore e, dunque, che
possano essere considerati come dei LNA (Low Noise Amplifier, amplificatori a basso
rumore).
T
Sostituendo alla formula di Friis la relazione F = 1 + R TR = ( F 1) T0 otteniamo:
T0
F 1 F3 1 Fn 1
F = F1 + 2 + + ... +
Gd1 Gd1Gd 2 Gd1Gd 2Gd3 ... Gd(n 1)

8. Temperatura equivalente di rumore della sorgente

Le antenne e pi generalmente le sorgenti di informazione, come gli altri componenti


che abbiamo preso finora in considerazione, non sfuggono al rumore: una sorgente non
pu essere semplicemente schematizzata come un generatore di tensione/corrente
perch
- avr una sua resistenza interna R (consideriamola non rumorosa);
- generer rumore per effetto termico e per altre cause (quali quelle gi trattate)
 generatore di rumore e (t ) ;
- sar sorgente di potenza utile  generatore ideale di segnale eS (t ) .
Ponendo in serie queste tre entit ricaviamo una valida rappresentazione della nostra
sorgente e teniamo anche conto del rumore; possiamo quindi ridurre il numero di
questi componenti da tre a due con il solito escamotage, trasferendo, ovvero, tutta la
rumorosit sulla resistenza R (che consideriamo a temperatura pi alta). Se il rumore
prodotto dalla sorgente e disponibile nella banda infinitesima di frequenza [ f , f + df ]
lo addossiamo tutto quanto alleffetto Johnson, allora possiamo esprimerlo come
dN S = kTS df . Dunque la temperatura equivalente di rumore della sorgente (detta
anche temperatura equivalente di rumore dantenna) sar
dN S
TS =
k df
Possiamo spingerci ancora pi avanti e unificare il rumore dantenna col rumore del
circuito a cui questa antenna collegato (tipicamente il ricevitore, rappresentato come
un quadripolo Q, con sezioni tutte quante adattate). Prima di tutto trasferiamo tutta
la componente di disturbo come temperatura virtuale equivalente sulla resistenza R,
che sar a temperatura:
TSIST = TS + TR
(temperatura di sistema)
La densit spettrale di rumore di questo rumoroso resistore sar, come abbiamo gi
visto:
V2
Ge ( f ) = 2kTSIST R
Hz
Il passo successivo quello di disaccoppiare il rumore dalla resistenza R e
considerarlo, a parte, come generatore.
Avremo quindi, collegati a un quadripolo Q non rumoroso:
- un rumore complessivo e (t ) (sotto forma di forza elettromotrice di rumore) che
tiene conto del rumore dellantenna, della resistenza interna e dunque anche del
quadripolo (che ora ideale);
- una resistenza R non rumorosa;
- la vera e propria sorgente di segnale utile eS (t ) .
Ai capi del quadripolo cui collegata la serie di questi componenti avremo una caduta
di potenziale che sar data dalla somma di due contributi:
e (t )
- per il segnale utile eS (t ) : s (t ) = S ;
2
e (t )
- per il rumore e (t ) : (t ) = (rumore additivo gaussiano bianco, AWGN)
2
1 kTSIST R V 2 kTSIST W
 spettro di potenza G ( f ) = Ge ( f ) = = ;
4 2 Hz 2 Hz
W W
 in versione monolatera GMONO ( f ) = kTSIST = N0 .
Hz Hz
NOTA: il fattore 1/2 deriva dal fatto che met di queste tensioni sono cadute sulla
resistenza non rumorosa R.
Siccome il quadripolo lineare possiamo dare, in uscita, sR (t ) e n (t ) . Ecco il percorso
completo:
- s(t) viene sommato al rumore (t ) (che dipende da TSIST ). Il tutto in un solo
passaggio;
- s (t ) + (t ) passa attraverso il quadripolo;
- in uscita abbiamo sR (t ) + n (t ) .
Come gi detto si parla di AGN (Additive Gaussian Noise) e, pi specificatamente, di
AWGN (Additive White Gaussian Noise).
VIII LINEE DI TRASMISSIONE E
TRASMISSIONE ANALOGICA IN BANDA BASE

1. Generalit sulle linee di trasmissione

Per linea di trasmissione intendiamo generalmente una coppia di conduttori


tipicamente isolati. Una tratta di linea di trasmissione ha una certa impedenza;
consideriamo ad esempio una linea di lunghezza semi-infinita (oggetto
monodimensionale), collegata ad un generatore di onde sinusoidali: se fissiamo un
sistema di riferimento (semi-asse x) che ha per origine il generatore e che si estende
(infinitamente) nella direzione della linea di trasmissione, possiamo scegliere di porci
ad una determinata coordinata x . Allora:
- se guardiamo nella direzione positiva dellasse vedremo una certa impedenza
Z0 associata alla linea. Essendo la linea semi-infinita, tale impedenza sar
sempre la stessa (ci si pu spostare dove si vuole che, in ogni caso, si avranno
infiniti metri di linea da l in poi). Per le linee ben costruite questa impedenza
di tipo puramente resistivo ( Z0 = R [ ] ): i valori tipici di tale impedenza sono
stati standardizzati e posti pari a 50 o 75 ;
- mentre (nellorigine) il generatore di tensione emetteva un segnale sinusoidale
del tipo
VM ( 0 ) cos ( 2 ft + ( 0 ) )
alla coordinata x la tensione sar
VM ( x ) cos ( 2 ft + ( x ) )

valore di picco
della sinusoide

Il valore di picco VM ( x ) pu essere calcolato in questo modo:


VM ( x ) = VM ( 0 ) e x
Come si vede il decadimento di tipo esponenziale ed regolato dal parametro
= (f )
(la dipendenza secondo la f )
Il parametro x misurato spesso in unit logaritmiche:
V ( 0 ) 1 P ( 0 ) Neper
- in Neper su unit di lunghezza: x = ln M = ln ;
VM ( x ) 2 P ( x ) m
VM ( 0 ) P ( 0 ) dB
- in decibel: A = 20 log = 10 log .
VM ( x ) P ( x ) m
- la potenza media che entra nella linea alla sezione x
VM2 ( x )
P ( x ) = [W]
2R
(NOTA: il fattore 1/2 deriva dal fatto che calcoliamo una potenza media.
C di mezzo un coseno e il valor medio del cos2 proprio 1/2)
Per trovare la potenza entrante possibile anche utilizzare la relazione
P ( x ) = P0 10 x
P (0) A[dB]

In questo caso il fattore di attenuazione = ( f ) pari a = = 10 10 .


P ( x )
2. Effetto del rumore sui collegamenti nella trasmissione analogica in banda
base

La trasmissione avviene in questa sequenza (NOTA: per ora trascuriamo il rumore):


- SORGENTE ANALOGICA: che emette un segnale analogico x(t);
- TRASMETTITORE: il quale, appunto, spedisce il segnale analogico attraverso
il mezzo di propagazione. Immaginiamo che sia anche LTI con funzione di
trasferimento HT ( f ) ;
- MEZZO DI PROPAGAZIONE: passa-basso (potrebbe essere anche la linea di
trasmissione di cui si parla nel paragrafo 1). Immaginiamo che sia anche LTI
con funzione di trasferimento H MP ( f ) ;
- RICEVITORE: prende in consegna il segnale, che si suppone non distorto e
dunque avente la forma
Ax (t t0 )
Immaginiamo che il ricevitore sia anche LTI con funzione di trasferimento
HR ( f ) .
- DESTINATARIO.

Il segnale utile, in pratica, viaggia attraverso la cascata di:

trasmettitore + mezzo di propagazione + ricevitore


x(t)   v(t)
HT ( f ) H MP ( f ) HR ( f )

Volendo che si verifichi la relazione


v (t ) = Ax (t t0 )
e che il segnale v(t) sia una versione non distorta di x(t), dobbiamo porre il vincolo
sullampiezza
HT ( f ) H MP ( f ) H R ( f ) = A
e fissare la condizione sulla linearit dellargomento
arg ( HT ( f ) H MP ( f ) H R ( f ) ) = 2 ft0
Non necessario che queste equazioni valgano per ogni f: infatti sufficiente che siano
vere nella banda di lavoro f < fm . Per verificare tali condizioni di non distorsione
posso, ad esempio, agire sul ricevitore ed attribuire ad esso i vincoli di cui sopra,
modellando la sua funzione di trasferimento e rendendo il tutto complessivamente
non-distorcente:
A
HT ( f ) H MP ( f ) H R ( f ) = A  HR ( f ) =
HT ( f ) H MP ( f )
arg ( HT ( f ) HMP ( f ) HR ( f ) ) = 2 ft0  arg ( HR ( f ) ) = arg ( HT ( f ) ) arg ( HMP ( f ) ) 2 ft0
In queste due ultime relazioni scritte consiste la cosiddetta equalizzazione analogica.
Quel che salta subito allocchio che il ricevitore si configura come un componente
piuttosto semplice e comune e, cio, come un filtro passa-basso (banda passante =
banda di lavoro). Ipotizziamo ora un modello possibile, allinterno di uno scenario
siffatto (componenti tutti lineari, sezioni tutte quante adattate alla medesima
resistenza R), e andiamo a specificare le grandezze numeriche che ci interessano:
- sorgente: a temperatura equivalente di rumore TSORG ;
- trasmettitore: HT ( f ) costante nella banda di lavoro e con valore HT 0 . Questo
blocco ha inoltre un guadagno GdT = HT 0 ( f )
2
e temperatura equivalente di
rumore TrT ;
- mezzo di propagazione: H MP ( f ) costante nella banda di lavoro e con valore
H MP 0 . Questo blocco ha inoltre un guadagno GdMP = H MP 0 ( f )
2
e temperatura
equivalente di rumore TrMP ;
- ricevitore: H R ( f ) costante nella banda di lavoro e con valore H R 0 . Questo
blocco ha inoltre un guadagno GdR = H R 0 ( f )
2
e temperatura equivalente di
rumore TrR ;
Finora abbiamo ignorato gli effetti di rumore: ebbene, dove li collochiamo nella
cascata sopradescritta? Il disturbo che andiamo ad aggiungere la somma di tanti
apporti generati da ogni componente (si noti infatti che ogni blocco ha la sua
temperatura equivalente di rumore); tuttavia, per semplicit, scegliamo un modello in
cui il rumore viene posto, una sola volta e tutto insieme, a monte del ricevitore
[rumore additivo (t ) ]. Questo perch in tal modo riusciamo ad incorporare in una
virtuosa formulazione di H R ( f ) sia la non distorsione (1 requisito) sia la parziale
eliminazione (tramite filtraggio) del rumore che si trova nelle frequenze che sappiamo
non essere di lavoro. Dunque
v (t ) = Ax (t t0 ) + n (t )
 
versione non distorta rumore
del segnale utile

(NOTA: il rumore deve essere molto inferiore al segnale utile sr (t )  2 requisito)


Al fine di effettuare un corretto confronto fra potenza di rumore e potenza del segnale
(come potrei, senn, confrontare fra loro due componenti aleatorie?), cos da avere un
parametro che indichi la bont di un certo collegamento, si introduce lindicatore
rapporto segnale/rumore (SNR, signal to noise ratio), riferito al punto di vista
dellutente finale:
sr2 (t )
SNR 2
n (t )
(NOTA: un rapporto fra potenze si tenga presente ci nelleventuale calcolo in dB;
lSNR tiene conto di quanto il segnale utile pi potente del rumore: quindi pi
alto e meglio ! Una notazione alternativa per SNR S/N)
Diamo, per completezza, i valori tipici di SNR per alcune applicazioni interessanti:
- telefonia ( 300 3400 Hz ): 25-35 dB
- audio HI-FI ( 20 15.000 Hz ): 60 dB
- video analogico (5 MHz): > 30 dB

Ricordiamoci ora delle condizioni di non distorsione per elaborare la relazione:


HT ( f ) H MP ( f ) H R ( f ) = A  v (t ) = Ax (t t0 ) + n (t )
 
versione non distorta rumore

v (t ) = HT ( f ) H MP ( f ) H R ( f ) x (t t0 ) + n (t )
 
versione non distorta rumore

Utilizzando le caratteristiche dei sistemi LTI possiamo poi dare una relazione fra lo
spettro di potenza del rumore (t ) (quello che entra prima del ricevitore) e fra
lanalogo spettro di n(t) (che il rumore in uscita, ovvero (t ) passato attraverso il
ricevitore):
Gn ( f ) = G ( f ) HR ( f )
2


kTSIST R V 2
=
2 Hz

(NOTA: facciamo lipotesi che la temperatura di sistema TSIST non dipenda in maniera
significativa da f nella banda che ci interessa)
Ora agevole capire a quanto pari la potenza del rumore n(t): abbiamo infatti tutte
quantit costanti nellintervallo di frequenze che ci interessa (k la costante di
Boltzmann, per TSIST stata poco fa fatta lipotesi che sia costante, R la resistenza di
adattamento e dunque non cambia, H R ( f ) come si gi detto costante e pari ad
H R 0 ).
+ + +f
kTSIST R kTSIST R m

n (t ) = N = Gn ( f ) df = H R ( f ) df =
2
2
GdR 1 df = fmTSIST GdR kR

2   2 fm
=GdR  
cambio di
estremi

Giunti a questo punto, per capire a quanto pari lSNR, ci manca solo la potenza del
segnale utile, ma a questo punto facile perch:
sr (t ) = Ax (t t0 ) = HT ( f ) H MP ( f ) H R ( f ) x (t t0 )

versione non distorta

s (t ) = A x (t t0 ) =  x 2 (t t0 ) = S = HT ( f ) H MP ( f ) H R ( f ) x 2 (t t0 ) =
2 2 2 2
r A2
costante

= GdT GdMP GdR x 2 (t t0 )


Siamo dunque pronti e procediamo:
potenza media del
segnale utile in uscita
dalla sorgente V 2



s (t )
2
r GdT GdMP GdR x (t t0 )
2
GdT GdMP x 2 (t t0 ) 1
SNR = =
n2 (t ) fmTSIST GdR kR R
 fmTSIST k
potenza media del segnale utile in uscita
dal mezzo di propagazione W
chiamiamo questa quantit "potenza ricevuta"

Quanto vale TSIST ? Tale temperatura equivalente aggiunge rumore a monte del
ricevitore: per quantificarlo ragioniamo nel solito modo e consideriamo un apparato
fatto da
- un generatore di tensione in serie con la resistenza a temperatura TSORG ;
- un quadripolo (trasmettitore) con temperatura equivalente di rumore TrT ;
- un quadripolo (mezzo di propagazione) con temperatura equivalente di rumore
TrMP ;
- un quadripolo (ricevitore) con temperatura equivalente di rumore TrR .
Ponendoci nei pressi dellingresso del ricevitore e guardando a monte del circuito ci
accorgiamo che non siamo in un caso leggermente pi complicato di quello base
(generatore + resistenza + un solo quadripolo); qui ci sono pi quadripoli: nessun
problema, comunque, perch ci basta applicare Thvenin per trasformare tutto quello
che c prima del generatore in una serie
generatore + resistenza R a temperatura TS
Dunque ora TSIST = TS (ci che c prima del ricevitore) + TrR (il ricevitore).

Per calcolare TS dobbiamo aprire una piccola parentesi. Supponiamo di avere:


- un generatore di segnale in serie con una resistenza R a temperatura
Tresist ; tutto ci collegato ad un quadripolo con temperatura di rumore
Tquad e guadagno disponibile Gd ;
Ora, come gi abbiamo fatto altre volte nel capitolo VII, carichiamo sulle spalle
delleffetto Johnson tutto il rumore che c (quadripolo + resistenza): ci significa
far virtualmente innalzare la temperatura della resistenza R da Tresist a Tnew ,
con la possibilit, per, di eliminare il quadripolo.
Nel primo caso abbiamo che la quantit infinitesima di potenza di rumore dN u
additabile alle frequenze [ f , f + df ]
dN u = k (Tresist + Tquad ) Gd df
Nel secondo caso, invece, si ha
dN u = kTnew df
Quindi, eguagliando :
kTnew df = k (Tresist + Tquad ) Gddf
Tnew = (Tresist + Tquad ) Gd

Torniamo al nostro problema: dobbiamo calcolare TS . Applichiamo due volte questa


regolina (nellesempietto sopra avevamo solo un quadripolo, qui invece ne abbiamo
due):
PRIMA APPLICAZIONE (quadripolo coinvolto: trasmettitore):
regolina  Tnew = (Tresist + Tquad ) Gd TS = (TSORG + TrT ) GdT
SECONDA APPLICAZIONE (quadripoli coinvolti: trasmettitore e mezzo di
propagazione):
 nuova Tresist


regolina  Tnew = (Tresist + Tquad ) Gd TS = (TSORG + TrT ) GdT + TrMP GdMP


Ora abbiamo tutto! La temperatura di rumore di sistema (complessiva, quella che
genera il rumore (t ) senza bisogno di nessun altro apporto)
TSIST = (TSORG + TrT ) GdT + TrMP GdMP + TrR
COMMENTI e OSSERVAZIONI:
- Molto spesso avviene che TrR sia molto pi grande di TS e che TSORG e TrT
siano trascurabili.
- La temperatura equivalente di rumore del sistema TSIST non dipende dal
guadagno del ricevitore, perch tanto questultimo agisce allo stesso modo sia
sul segnale utile che sul rumore.
- Non serve avere un ricevitore con elevato guadagno; conta invece avere un
ricevitore con bassa rumorosit e quindi piccola cifra di rumore.
- In un collegamento radio accade che, con la distanza, aumenta lattenuazione
che il mezzo di propagazione causa al segnale. Dunque maggiore sar
lattenuazione e minore sar la potenza ricevuta, cos come pi piccolo sar il
rapporto SNR. A volte, per fissare un requisito di qualit che permetta una
corretta ricezione, si definisce lSNR minimo
S S
=
N N min
E dunque
Pr
sensibilit

Pr fmTSIST k = PR min
fmTSIST k
IX - TRASMISSIONE NUMERICA PASSA-BASSO

1. Lo schema

SORGENTE: trattasi di una sorgente numerica, che dunque emette un


insieme di bit {bn } in sequenza;
CODIFICATORE DI LINEA: traduce i bit in simboli. Ad un simbolo
possono essere associati uno (o pi) bit, tenendo ben presente che la
funzione in grado di legare uno (o pi) bn al simbolo an biunivoca. Questo
componente ha una certa symbol rate BS (il che significa che emette un
simbolo ogni T secondi); da esso esce infine una sequenza di simboli {an } ;
MODULATORE PAM: a partire da una funzione impulsiva di base g(t),
questo componente modula forma tale impulso in ampiezza sulla base della
sequenza di simboli {an } . Quel che esce da questo componente una
funzione s(t);
MEZZO DI PROPAGAZIONE: si comporta come un attenuatore ed
assimilabile ad un sistema LTI con funzione di trasferimento H MP ( f ) ;
AMPLIFICATORE/EQUALIZZATORE: rimuove tutte le componenti che si
trovano nella banda in cui sappiamo non esserci il segnale (dunque rimuove
il rumore in eccesso filtrando il segnale che riceve in ingresso e che
appena giunto a destinazione) e amplifica ci che ha nella propria banda-
passante (cio il segnale utile, se tutto andato bene). D in uscita una
funzione v (t ) ;
CAMPIONATORE: esegue un campionamento con passo T (il tempo di
simbolo). Problema: dobbiamo fare in modo che il T del campionatore sia
esattamente pari al tempo di simbolo del codificatore di linea, altrimenti si
sballa tutta la catena. Per ottenere un sincronismo perfetto si utilizza un
circuitino chiamato estrattore di sincronismo di simbolo, il quale permette a
questo componente di scegliere gli istanti esatti tk = t0 + kT ; alluscita del
campionatore abbiamo dunque una successione {v (tk )} ;
DECISORE: fa una stima sui simboli {v (tk )} in modo da poter restituire la
sequenza {a n } tanto pi vicina a {an } ;
DECODIFICATORE: trasforma {a n } in bn { } compiendo loperazione duale
rispetto al codificatore di linea;
UTENTE: colui che (a meno di errori, che vogliamo siano il meno possibile)
{ }
riceve i bit b e dunque linformazione che proviene dalla sorgente.
n

2. Misurazione della qualit

La qualit dellinformazione (ricevuta da parte di un destinatario) tanto maggiore


tanto pi ricalca il segnale originale (appena uscito dalla sorgente).
Un modo per misurare la qualit quello di ottenere il tasso di errore per bit (BER, Bit
Error Rate) il quale definito in questo modo:
Ne bit errati
Teb =
N bit trasmessi
(quando N molto grande)
I valori tipici che tale tasso assume dipendono dallapplicazione:
- trasmissione di voce convertita in digitale: 103 ;
- trasmissione di video compresso (MPEG): 106 (lalta compressione sottintende
che i singoli bit sono importantissimi!);
- trasmissione di dati molto importanti (ad es. conto bancario): 1012 .

Unaltra maniera per esprimere la qualit quello di valutare se la consegna dei bit
avviene nei tempi giusti; se, al contrario, essi non arrivano al destinatario con una
tempistica esatta, quel che si verifica il cosiddetto fenomeno di gitter.
Altrimenti si pu valutare se sono rispettati i requisiti sul ritardo (delay), i quali
fondamentalmente dipendono dallapplicazione con la quale si ha a che fare.

Siccome nella pratica avviene spessissimo che il processo, in base al quale si genera un
errore nella trasmissione, sia ergodico, allora possiamo effettuare lequivalenza

Tasso di errore per bit = Probabilit di errore per bit


(stima a posteriori) (stima a priori)
Teb = Peb
rilevazione orizzontale = rilevazione verticale

3. Il rumore e le sue conseguenze

Il problema del rumore e degli errori di grande importanza: infatti, mentre il segnale
s(t) (quello che esce dal modulatore PAM) molto limpido e regolare, il segnale v(t)
non altrettanto chiaro a causa del rumore termico e dei contributi di rumore
apportati da circuiteria e mezzo di propagazione. In un modello interpretativo a
soglia, che vede il ricevitore scegliere tra un valore e un altro in base a se il segnale
sia sopra o sotto un determinato valore, potrebbero infatti esserci alcuni
fraintendimenti (ad es. uno 0 visto al posto di un -1).

Iniziamo dunque a scindere il problema nelle sue parti per vedere come porre rimedio
al rumore. Il segnale s(t) ha questa espressione
s (t ) = an g (t nT )
n

in quanto nasce come somma di pi impulsi modulati dai simboli an e traslati nel
tempo di T in T. Tale segnale entra nel mezzo di propagazione, che si comporta come
un sistema LTI con funzione di trasferimento H MP ( f ) . A valle di questo componente
simbolico compiamo unastrazione e aggiungiamo, tutto in una volta, il rumore (t )
considerato come termico e come conseguenza di una temperatura di sistema TSIST .
Segnale e rumore entreranno quindi insieme nel secondo blocco astratto ricevitore
[funzione di trasferimento H R ( f ) ] che d come uscita
v (t ) = sr (t ) + n (t )
Studiamo ora il solo segnale utile: se chiamiamo
g(t) limpulso utilizzato dal modulatore PAM;
r(t) il singolo impulso passato attraverso H MP ( f ) e H R ( f ) ;
g (t nT ) limpulso traslato;
r (t nT ) la risposta allimpulso traslato (formulata utilizzando le ipotesi di
linearit e tempo-invarianza)
allora potremo dire che la risposta sr (t ) al segnale s (t ) = an g (t nT ) .
n

pu essere espressa come combinazione lineare di impulsi tra loro distanti T, in questo
modo:
sr (t ) = anr (t nT )
n

Per il principio di sovrapposizione degli effetti, il segnale utile che troviamo in fondo
allintero blocco mezzo di propagazione-ricevitore una combinazione lineare delle
tante risposte al sistema generate dalla sollecitazione degli impulsi del PAM.
Passiamo ora al rumore (t ) (che, come abbiamo detto, viene inserito dopo il mezzo di
propagazione). Esso dovr attraversare il solo blocco-astratto ricevitore [funzione di
trasferimento H R ( f ) ], la cui uscita sar in questo caso n(t). Detto questo, si pu
esprimere una relazione tra lo spettro di potenza di (t ) e quello di n(t):
Gn ( f ) = G ( f ) H R ( f )
2

Se teniamo conto del fatto che (t ) caratterizzabile come un processo aleatorio


ergodico a valor medio nullo, allora potremo dire che la sua potenza sar:
+ + +
kRTSIST
Pn = = Gn ( f ) df = G ( f ) H R ( f ) df = H R ( f ) df
2 2 2


2
(NOTA: abbiamo utilizzato la formula del rumore termico a temperatura TSIST )
Abbiamo quindi dato una caratterizzazione a segnale utile e rumore, che ricordiamo
viaggiano uniti in v(t) con questa espressione:
v (t ) = sr (t ) + n (t ) = anr (t nT ) + n (t )
n

Come abbiamo spiegato nel paragrafo 1, questo segnale v(t) passa attraverso un
campionatore, il quale esegue un campionamento con passo T (il tempo di simbolo) in
modo da riottenere {an } . I simboli campionati (agli istanti tk ) sono in sequenza e
hanno questa espressione
v (tk ) = anr (t0 ( n k ) T ) + n (tk )
n

Tale campione quello che verr passato al decisore e quello sulla base del quale
dovremo valutare quale sar effettivamente il k-simo simbolo.
Esistono, a tal proposito, due strategie di decisione:
- simbolo per simbolo (1 campione alla volta);
- stima di sequenza (si guardano pi campioni alla volta prima di decidere).
Per ragioni di semplicit e brevit esamineremo soltanto il primo dei due casi.
Portiamo dunque fuori dallultima relazione scritta lespressione concreta del generico
k-simo simbolo e noteremo che compaiono tre interessanti contributi!
v (tk ) = akr (t0 ) +

  a r (t ( n k ) T ) + n
nk
n 0 (t ) k
l'effettivo 

 rumore
k -simo simbolo un contributo che dipende da tutti
i simboli trante il k-esimo
(interferenza inter-simbolo, o ISI
Inter Symbol Interference )

Il primo contributo (come si pu direttamente leggere sotto di esso) quello del vero e
proprio k-simo simbolo. Esaminiamo ora meglio il secondo (interferenza ISI): anzitutto
necessario specificare che non detto che tale apporto (a tutti gli effetti disturbante e
quindi rumoroso) ci sia per forza. Esso c quando limpulso-trasformato e modulato
akr (t0 ) tanto lungo, nellasse dei tempi, da interferire con quello immediatamente
successivo (e dunque, essendo tutti gli impulsi in sequenza, anche con quello
precedente). Dunque ad esempio il generico apporto akr (t0 ) viene disturbato
dalle code di:
... ak 2r (t0 2T ) , ak 1r (t0 T ) , ak +1r (t0 + T ) , ak +2r (t0 + 2T ) ...
Il nostro obiettivo ovviamente quello di eliminare linterferenza ISI: si intende, da
come abbiamo esposto il problema, che la chiave di volta sta nel scegliere un impulso
g(t) [che diventa r(t) dopo essere passato da mezzo di propagazione e ricevitore] che
faccia al caso nostro. Intuitivamente si potrebbe pensare che sia sufficiente un vincolo
sulla durata dellimpulso in questione; in realt e qui sta la furbata sufficiente
che r(t) sia nullo agli istanti
..., t0 2T , t0 T , t0 + T , t0 + 2T , ...
[NOTA: t0 un istante di campionamento, in particolare quello in cui centrato
limpulso r(t). Se r(t), ad esempio, una sinc, in t0 tale funzione varr 1]
Questo vincolo davvero ingegnoso perch, se ripetiamo il ragionamento per limpulso
successivo, esso per rispettare le appena esposte condizioni di annullamento dellISI
dovr essere nullo agli istanti
..., t1 3T , t1 2T , t1 T , t1 + T , t1 + 2T , ... "nuovo impulso"

..., t0 2T , t0 T , t0 + T , t0 + 2T , ... "vecchio impulso" r (t )
[NOTA: t1 listante di campionamento in cui centrato limpulso successivo ad r(t)]
Come si vede, gli istanti in cui limpulso successivo ad r(t) nullo vanno a coincidere
esattamente con quelli in cui proprio r(t) era nullo e, guarda caso, essi sono gli istanti
in cui il campionatore va a fare le sue rilevazioni, aiutato dallestrattore di sincronismo
di simbolo. Riassumendo, se in tali punti limpulso nullo, lISI si elimina perch
automaticamente (possiamo dire per costruzione) gli impulsi successivi e precedenti
(traslati di T) passeranno attraverso di essi.
Quindi, in notazione matematica, questi sono i vincoli su r(t):
r0 = r (t0 ) 0 in t = t0
r (t ) =
0 in t = t0 + kT , k 0
Centrando il tutto nello zero (per semplicit) si ha:
r = r ( 0 ) 0 in t = 0
r (t ) = 0
0 in t = kT , k 0
Come si traduce tale vincolo nel dominio delle frequenze? La trasformata della
successione dei punti di annullamento che ci interessano :
FS {r ( kT )} = r0 e j0 = r0
(trasformata di una successione)
[NOTA: rimane soltanto un valore perch gli altri sono tutti pari a zero e quindi
rimangono tali]
Ora incrociamo questa relazione con quella della trasformata di un segnale periodico
nel dominio dei tempi:
n
FS {r ( kT )} = R f + dove R ( f ) = F r (t )
1
T n T
Dunque possiamo creare la catena di uguaglianze
n
FS {r ( kT )} = r0 e j0 = r0 = R f +
1
T n T
Nel dominio delle frequenze, dunque, la condizione di annullamento dellISI (criterio di
Nyquist) davvero singolare! Essa ci impone che, se ripetiamo periodicamente
1
limpulso con passo BS = (la symbol-rate), si debba ottenere la costante
T
n
n R f + T = r0T
Diamo ora lesempio di qualche impulso che funziona bene a questo scopo:
- il pi semplice impulso di questo tipo certamente quello che, nel dominio
BS
delle frequenze, rettangolare e di banda (intervallo di frequenze
2
BS , BS ): se lo ripetiamo periodicamente per tutto lasse delle frequenze
2 2
1
con passo BS = , tutti i blocchetti rettangolari cio i singoli impulsi
T
appariranno come consecutivi, formando una retta orizzontale (costante).
NOTA: la retta orizzontale in questione frutto di una falsa consecutivit; ad ogni ripetizione,
infatti, il punto di congiunzione fra due impulsi (i quali appaiono perfettamente adesi) in
realt sede di un punto di discontinuit locale nella derivata prima.
Nel dominio del tempo, un impulso del genere una sinc:
r (t ) = r0 sinc (tBS )
Risulta facile verificare che r (t ) rispetta le condizioni di annullamento dellISI
in quanto si annulla in 2T, T, T, 2T
- la famiglia di impulsi con un andamento anti-simmetrico rispetto alle rette
B
verticali f = S . Impulsi di questo tipo hanno una banda che pu andare da
2
BS
a BS , dipendentemente da quanto in fretta la funzione decade a zero
2
nellintervallo S , BS . Qualunque sia la forma di questi impulsi, se essi
B
2
rispettano lanti-simmetria di cui sopra, allora sicuramente, qualora venissero
1
ripetuti periodicamente con passo BS = e sommati tutti insieme, andrebbero
T
ad affiancarsi e a sormontarsi fino a formare una costante. Un andamento
simile potrebbe quello di un impulso trapezoidale centrato nellorigine e con lati
B
obliqui antisimmetrici rispetto a f = S (decadimento lineare verso lo zero)
2
oppure quello di un impulso con andamento a coseno rialzato (decadimento
non lineare, bens smussato, verso lo zero). In questultimo caso si parla di
fattore di roll-off (con 0 < < 1 ): tale fattore indica in quale punto,
nellintervallo S , BS , limpulso degrada a zero. Tale punto infatti al
B
2
B
valore di frequenza S (1 + ) ; esaminiamo i casi limite:
2
B
- se = 0 si torna nel caso di impulso rettangolare (rect con banda S )
2
visto poco fa;
- se = 1 limpulso somiglia pi che altro a una gaussiana (derivata nulla
solo in 0 e fuori da [ BS , BS ] ).
Le funzioni a coseno rialzato hanno il fondamentale vantaggio di non avere
discontinuit nella derivata prima e per questo sono molto usate.

Qualche osservazione:
- abbiamo detto che r (t ) la versione centrata nello zero di r (t ) . Sfruttando le
propriet della trasformata di Fourier possiamo senzaltro dire che, nel dominio
delle frequenze, ci comporti
R ( f ) e j 2 ft0 = R ( f ) R ( f ) = R ( f ) e j 2 ft0
- largomento di R ( f ) lineare in f. Infatti, se R ( f ) reale positiva, il suo
argomento nullo e, dalle relazioni scritte sopra, si ha
R ( f ) = R ( f ) e j 2 ft0 arg R ( f ) = arg R ( f ) arg e j 2 ft0 = arg R ( f ) 2 ft0 = 2 ft0
 
=0

4. Equalizzazione e progettazione del ricevitore

Rimaniamo nel caso numerico e consideriamo il seguente schema:


 impulso g(t), una rect [trasformata G(f), una sinc] entrante
- mezzo di propagazione con funzione di trasferimento H MP ( f ) ;
- ricevitore H R ( f ) ;
 segnale r(t) [trasformata R(f)] uscente

Quel che ci chiediamo : come possiamo progettare correttamente il filtro di ricezione,


in modo che quel che ricavo aluscita sia una versione non distorta di g(t)?
Teoricamente mi servirebbe una banda enorme: G(f) infatti una sinc e ha tanti lobi
che si estendono parecchio in l sullasse delle frequenze; prenderli tutti impossibile.
In realt questa preoccupazione superflua perch la distorsione del canale si pu
spesso ignorare, rendendo lannullamento dellISI sufficiente ad evitare gli errori:
linformazione non , infatti, nella forma donda (come nel caso analogico). Qui stiamo
parlando di trasmissione numerica e quel che importa che il ricevitore riconosca
correttamente i simboli.

Supponiamo che R(f) sia una funzione a coseno rialzato e che sia conforme al criterio di
Nyquist. Ricordandoci dello schema che abbiamo fatto sopra, possiamo applicare le
propriet della funzione di trasferimento e dire che:
R ( f ) = G ( f ) H MP ( f ) H R ( f )
Dunque il ricevitore deve avere:
R(f )
HR ( f ) =
G ( f ) H MP ( f )
Ma questo che significa? Contestualizziamo con un esempio:
- mezzo di propagazione  H MP ( f ) = H MP 0 costante nella banda di lavoro;
- impulso g(t) di tipo NRZ (rettangolare);
R ( f ) (a coseno rialzato)
- dunque si ha H R ( f ) =
G(f ) H
 MP 0
una sinc

Proviamo a graficare!
Abbiamo graficato R(f) (a
coseno rialzato) e la
trasformata di g(t) ovvero G(f)
che una sinc; quindi
abbiamo disegnato G 1 ( f ) e
moltiplicato questultima per
R(f) [ H MP 0 una costante
quindi la lasciamo stare]. Quel
che salta fuori una funzione
che in maniera evidente
distorce. La cosa davvero poco
intuitiva ma, per avere una
corretta interpretazione del
segnale numerico, il blocco
ricevitore deve distorcere il
segnale nella banda di lavoro
(ed avere funzione di
trasferimento identicamente
nulla al di fuori di essa, in
modo da eliminare i rumori
inutili). Daltronde, come gi
abbiamo detto, qui non accade
che linformazione stia nella
forma donda del segnale, caso
in cui diventa di magistrale
importanza la non distorsione a
tutti i livelli.

5. Probabilit di errore con ISI nulla

Se lequalizzazione stata fatta per il verso, il generico simbolo della sequenza {v (tk )}
avr questa forma, determinata dalla presenza di un segnale utile e di un rumore
additivo gaussiano (a valor medio nullo e varianza 2 ):
r0 =r (t0 ) nk =n(tk )
 
v (tk ) = akr0 + nk
 
segnale utile rumore additivo
gaussiano: N 0, 2 ( )
Facciamo ora un esempio concreto: poniamo che i simboli ak siano quelli del codice
bipolare (e quindi +1 e 1, con sorgente bilanciata, il che significa Pr {ak = +1} =
= Pr {ak = 1} = 1 2 ) e che il decisore lavori simbolo per simbolo. Supponiamo poi, per
ipotesi, che r0 > 0 ; ebbene, se non ci fosse il rumore, avremmo che
r0 ( > 0 ) simbolo trasmesso: +1
vt ( k ) =
r0 ( < 0 ) simbolo trasmesso: 1
Il decisore, in questo caso, avrebbe vita facilissima e ci beccherebbe sempre:
chiamando infatti a k il simbolo che verr stimato dal componente, si ha che
se v (tk ) > 0 allora a k = +1
il decisore dice:
se v (tk ) < 0 allora a k = 1
ne consegue che  a k = sign v (tk )
Ovviamente la realt dei fatti non cos rosa e fiori. Il rumore, infatti, sporca la
chiarezza di v (tk ) in quanto aggiunge alleventuale + r0 o r0 una certa quantit nk ;
v (tk ) = r0 + nk
siccome per il rumore gaussiano a valor medio nullo, possiamo asserire che il
possibile scarto dal valore + r0 o r0 sia simmetrico (e cio corrispondente ad un
intervallo centrato proprio in + r0 o r0 ).
Chiamiamo ora Pe la probabilit di errore: essa sar pari alla probabilit che il
simbolo stimato dal decisore sia diverso da quello trasmesso e cio che
Pe = Pr {a k ak }
Sfruttiamo il teorema della probabilit totale:
Pe = Pr {a k ak } = Pe {a }
Pr {ak = +1} + Pe {a }
Pr {ak = 1}
k =+1 k =1

la probabilit derrore cio uguale alla probabilit che vi sia stato un errore con
simbolo trasmesso ak = +1 sommata alla probabilit che si sia verificata una non
corretta interpretazione nel caso ak = 1 .
Elaboriamo la nostra relazione:
Pe = Pe {a }
Pr {v (tk ) < 0 ak = +1} + Pe {a }
Pr {v (tk ) > 0 ak = 1}
k =+1 k =1

Pe = Pe {a }
Pr {r0 + nk < 0 ak = +1} + Pe {a }
Pr {r0 + nk > 0 ak = 1}
k =+1 k =1

Pe = Pe {a }
Pr {nk < r0 ak = +1} + Pe {a }
Pr {nk > r0 ak = 1}
k =+1 k =1

Dunque, utilizzando la funzione erfc, possiamo dire che:


1 1 r 1 1 r0 1 1 r0 1 1 +r0
Pe = erfc 0 + 2 2 erfc = 2 2 erfc + erfc =
2 2 2 2 2 2 2 2
1 r 1 r02
= erfc 0 = erfc = Peb Teb
2 2 2 2 2
Tale espressione, grazie alle propriet di ergodicit, caratterizza sia la probabilit che
si verifichi un errore nellinterpretazione del simbolo, sia la probabilit di errore per
bit, sia il tasso di errore di bit (identit di rilevazioni orizzontali e verticali).
r2
NOTA: la quantit 0 2 , a tutti gli effetti, un rapporto S/N (pi r0 distante
2
dallorigine e pi difficile che il rumore sia cos potente da risultare, in modulo, pi
intenso di r0 ; daltra parte, maggiore la varianza e maggiormente si spancia la
gaussiana: conseguentemente, i valori assunti dal rumore potrebbero discostarsi di pi
dal valore medio, che zero e dunque lorigine degli assi). Dunque posso decidere di
misurare questo SNR in decibel e di agire su di esso per avere una migliore
trasmissione. Infatti:
- aumentando r0 il segnale pi robusto;
- diminuendo 2 il rumore si attenua.
Se poi consideriamo il codice bipolare come caso estremo di codice multilivello (con l
= 2), possiamo asserire che sia possibile estendere le considerazioni fatte finora per l
anche maggiori di 2. Non unestensione complicata ed , anzi, abbastanza naturale:
se prima avevamo due punti dinterpretazione nellasse delle v (tk ) (e cio quello del
simbolo +1 e quello del simbolo 1), ora ne avremmo 4 (oppure 8, o 16, etc) tutti
equidistanti fra loro e con un proprio intervallino
in cui linterpretazione esatta. intuitivo il fatto
che con un maggior numero di valori (e quindi
intervalli pi stretti) diventa pi facile, per un
rumore anche non troppo potente, sballare tutto.
Se riportiamo su un grafico cartesiano la
probabilit di errore in funzione del rapporto
segnale/rumore (v. figura a destra) notiamo
proprio che la BER (Bit Error Rate) aumenta con
laumentare del numero l di livelli. Ricordiamo
per che con un l maggiore si restringe la banda
che dobbiamo utilizzare per trasmettere il nostro segnale (e questo indubbiamente
un vantaggio). Alla fine, come sempre, siamo alle prese con la scelta di un
compromesso che in questo caso fra:
- quantit di banda occupata (l maggiore  B minore);
- possibilit di errore (l maggiore  BER maggiore).

6. Trasmissione su fibra ottica

Lo schema della trasmissione su fibra ottica il seguente:


- SORGENTE BINARIA: emette bit {bn } ;
- CODIFICATORE: codifica i bit {bn } nei simboli {an } , che per sono ancora
binari an {0,1} ;
- FOTOEMETTITORE: modulato OOK (On-Off Keying);
- FIBRA OTTICA: che il mezzo di trasmissione; le fibre ottiche sono filamenti
di materiali vetrosi con un diametro dellordine della decina di micron formato
da materiale dielettrico, come la silice, opportunamente drogato in modo da
avere una variazione omogenea dellindice di rifrazione rispetto al rivestimento
esterno tale da costringere unonda elettromagnetica a propagarsi lungo la
tratta senza apprezzabile irradiazione allesterno. Le fibre ottiche sono
normalmente disponibili sotto forma di cavi e sono dunque classificate come
guide d'onda dielettriche. Vengono comunemente impiegate nelle comunicazioni
anche su grandi distanze e nella fornitura di accessi di rete a larga banda (dai
10 Mbit/s al Tbit/s usando le pi raffinate tecnologie WDM Wavelength
Division Multiplexing);
- DIODO FOTORILEVATORE: traduce gli impulsi ottici in corrente;
- RIGENERATORE NUMERICO: ripristina, a meno di errori, i simboli
trasmessi (stima {a n } );
- DECODIFICATORE: dai simboli {a n } passa ai bit (stimati) bn ; { }
- UTENTE FINALE.

Le fibre ottiche presentano interessanti vantaggi:


- anzitutto disperdono pochissimo: il minor valore di attenuazione specifica
raggiungibile nella pratica di circa 0,2 dB/Km (corrispondente alla lunghezza
donda = 1,55 m  frequenza f = c = 3 10
8
6 = 194 10
12
Hz ), mentre
1,55 10
quello teorico di 0,16 dB/Km (centinaia di unit logaritmiche inferiore a quello
dei conduttori ordinari: si noti che centinaia di unit logaritmiche unenormit
in unit lineari!!);
- utilizzando la WDM la quantit di dati trasmettibile con fibra ottica
imbarazzantemente enorme: con 160 portanti a 4 Gbit/s si pu realizzare una
capacit trasmissiva di circa 6 Tbit/s (giusto 1500 volte pi veloce di una ADSL
a 4 Mega);
- non si necessita di rigeneratori intermedi, a meno di non voler superare le
centinaia di kilometri di lunghezza di linea; anche in questo caso, tuttavia,
esisterebbero amplificatori ottici (che non richiedono conversione dal dominio
ottico verso quello elettrico, n viceversa!) costituiti da spezzoni di fibra drogati
con erbio e muniti di un opportuno sistema di pompaggio (EDFA, Erbium Doped
Fibre Amplifier);
- posso sfruttare una banda di frequenze gigantesca: immaginiamo di prendere
sullasse delle lunghezze donda un tratto infinitesimo ( d = 1 nm) di
possibili valori centrato su = 1,55 m . Ad esso corrisponderebbero, in
frequenza:

c
f = df =
d c ( )
d = c d  df = 125 GHz
d 2
  
differenziamo!!

I segnali appartenenti a questo piccolissimo intervallo di lunghezza donda


potrebbero offrire una banda entro la quale ci starebbe 135 volte lintero spettro
di frequenze usato per la radiodiffusione sonora e televisiva. Niente male, eh?

Potrebbero piacerti anche