Esplora E-book
Categorie
Esplora Audiolibri
Categorie
Esplora Riviste
Categorie
Esplora Documenti
Categorie
Processi aleatori
E' importante distinguere tra i segnali cosiddetti certi e quelli aleatori. Un esempio di
segnale certo pu essere una cosinusoide di cui sia nota sia l'ampiezza che la fase,
mentre un segnale aleatorio (casuale) non noto con esattezza prima che questo venga
prodotto (ad esempio il rumore di un ruscello, o le notizie presenti in un telegiornale).
Anche nel caso in cui il segnale non noto a priori, e dunque impossibile calcolarne la
trasformata di Fourier in forma chiusa, si pu ugualmente giungere ad una
rappresentazione che caratterizzi le realizzazioni del processo nei termini della
distribuzione (statistica) in frequenza della potenza di segnale. Ci possibile
considerando la funzione di autocorrelazione, che esprime il grado di interdipendenza
statistica tra i valori assunti in istanti diversi dalle realizzazioni del processo, e che
costituisce un elemento unificante ai fini della stima spettrale dei segnali.
Consideriamo un processo casuale x(t): lautocorrelazione vale
Rx ( ) E[ x * (t ) x(t )] e per =0
1
x(t )dt
T T
T / 2
x lim
T / 2
1
Rx ( ) lim
x * (t ) x(t )dt
T T
T / 2
T / 2
1
x 2 (t )dt Px
T T
T / 2
Rx (0) lim
Rx (0)
( f )df Px
La densit spettrale di potenza per un processo casuale x(t) rappresenta quindi come
distribuita statisticamente la potenza alle varie frequenze.
Rumore bianco
S(f)=N0 f .
Dunque il suo spettro piatto (nella realt questo vale almeno in un vasto range di
frequenze):
Il nome bianco dipende dal fatto che in ottica il bianco la sovrapposizione di tutte le
frequenze della luce visibile.
Dal punto di vista statistico, il rumore bianco caratterizzato dall'avere valori istantanei del
tutto privi di correlazione.
Nell' ambito dell' elettronica e delle telecomunicazioni il canale AWGN rappresentativo
del fenomeno del rumore termico per il quale gli elettroni di un conduttore sono in continua
agitazione anche in assenza di forze esterne. Questo equivalente ad avere sul
conduttore un segnale di fondo incognito.
Tale segnale costituisce un rumore di disturbo per i segnali elettrici utili. L' agitazione
termica non deterministica, perci il segnale descritto come una variabile aleatoria con
distribuzione gaussiana, valor medio nullo e varianza che corrisponde alla potenza del
disturbo. Si chiama additivo in quanto si somma sempre ai segnali utili.
La funzione densit di probabilit f(z), espressa in probabilit per unit di ampiezza, dp/dz)
che il rumore sia compreso fra z e z+dz espressa dalla funzione di distribuzione
gaussiana
f ( z)
1
2
exp(
z2
)
2 2
dove z una variabile continua avente valor medio 0 e varianza 2 che come discende
dalla teoria dei processi aleatori descritta nel paragrafo precedente - rappresenta la
potenza di rumore PN. La distribuzione ha la consueta forma a campana.
Y=X+Z.
X costituito dalle forma donda che rappresentano i simboli della sequenza di ingresso.
Se si indica con xi la forma donda che rappresenta li-esimo simbolo di una sequenza di n
simboli, avremo che per n abbastanza grande la potenza massima P del segnale di
ingresso, espressa in energia per unit di tempo (watt) limita superiormente la media della
potenza delle singole forma donda:
1 n 2
xi P
n i 1
y=x+z
e quindi
1 n 2 1 n
z i ( yi xi ) 2 PN
n i 1
n i 1
ossia
(8.1)
||y-x||2nPN
1 n 2
yi P PN
n i 1
ossia
||y||2n(P+PN).
(8.2)
Lipersfera di raggio R cos definita centrata nellorigine dello spazio delle uscite visto
che con elevata probabilit ogni uscita gace al suo interno.
Analogamente al ragionamento fatto per il secondo teorema di Shannon, ci dobbiamo
chiedere:
quante n-ple x sono trasmissibili in modo che le loro ipersfere di uscita definite dalla (8.1)
non siano mai sovrapposte, ovvero siano tali che ogni uscita y appartenga ad una ed una
sola ipersfera (8.1) in modo da individuare uno ed un solo ingresso x in cui possa essere
univocamente decodificata ?
In altre parole, quante ipersfere (8.1) entrano senza sovrapporsi nellipersfera (8.2) ?
Come per il secondo teorema di Shannon, la risposta che il numero cercato il rapporto
fra (8.2) le (8.1).
Il volume di unipersfera in n dimensioni dato da
4
Vn=KnRn , Kn costante indipendente dal raggio Rn (per n= 3, K ).
3
r nPN
R n( P PN )
Nel caso pi generale, il numero massimo di messaggi o n-ple x che possono essere
trasmessi in modo affidabile, cio in modo da associare ogni uscita ad uno ed un solo
ingresso, :
K n( P PN )
M n
K n (nPN ) n / 2
n/2
(1 P / PN ) n / 2 .
Si ottiene che la massima velocit consentita, ovvero la capacit del canale AWGN
1
1
log M log(1 P / PN ) .
n
2
(8.3)
PN
N0
df N 0W .
2
1
P
log 1
2
N 0W
bit/campione trasmesso.
P
C* W log 1
bit/sec
N 0W
Dunque i fattori che determinano la capacit del canale AWGN sono la larghezza di banda
W, la densit spettrale di rumore N0 e la potenza del segnale P.
Tuttavia la potenza argomento del logaritmo e quindi lincremento di potenza produce
solo au lento aumento della capacit.
Invece laumento della larghezza di banda produce due effetti:
-
lim C* log e
P
P
1.44
N0
N0
(8.4)
Dunque si vede che anche un illimitato incremento della larghezza di banda non produce
un illimitato incremento della capacit del canale rumoroso.
R*
W
(8.4a)
r log(1
P
)
N 0W
(8.5)
Se poniamo
Eb
P
R*
rEb
)
N0
1.44
P
R* R *
R * N0
da cui
Eb
0.693
N0
Esistono altre due limitazioni notevoli, note in generale: una relativa allentropia di
sorgente
H(S)<C
laltra relativa alla funzione di distorsione
R(D)<C.
La Pulse Code Modulation (PCM) una tecnica basilare per la codifica in forma digitale
dei segnali analogici. E una tecnica importante in quanto consente la trasmissione in
forma digitale di segnali analogici.
campioni
xq(kTc) sono
discreti
nel
tempo
(campionamento) e
in
ampiezza
(quantizzazione).
Ovviamente, in generale, x(kTc) xq(kTc).
Infatti solo per caso uno dei Q livelli discreti sar perfettamente uguale al valore del
campione che si vuole quantizzare.
Tuttavia, xq(kTc) livello discreto (fra i Q livelli disponibili) pi vicino a x(kTc) . Si pu
scrivere allora che:
xq (kTc ) = x(kTc )+ k
dove k chiamato errore di quantizzazione.
Chiamato il passo di quantizzazione e supponendo che i livelli di quantizzazione siano
equispaziati fra loro proprio di , allora evidente che:
| k | / 2
Spesso sono preferibili livelli di quantizzazione non equispaziati. Qui ci Limitiamo al caso
equispaziato.
Lerrore di quantizzazione commesso nellassegnare un campione al livello pi vicino non
pu essere recuperato o compensato in ricezione, e caratterizzer irreversibilmente il
segnale.
Minore , minore sar lerrore di quantizzazione. Tuttavia, diminuendo (e mantenendo
uguale lintervallo di ampiezze coperto dai livelli di quantizzazione) aumenta il numero di
livelli Q.
CODIFICA M-aria
maggiore di logM(Q))
Il caso pi comune la codifica binaria in cui le 2 possibili cifre [0, 1] sono dette bit e per il
quale
Q=2n, n=log2(Q)
Nella pratica, il codificatore seguito da un blocco che mette in sequenza (in serie) le n
cifre poste in uscita dal codificatore in parallelo.
[cifre ]
[cifre ]
[camp]
n
fc
[sec]
[camp]
[sec]
Nel caso binario, r detta bit rate (misurata in bit/sec) e il tempo di cifra viene chiamato
tempo di bit.
Volendo diminuire lerrore di quantizzazione, si deve aumentare il numero di livelli (Q) con
un conseguente aumento del numero di cifre per campione (n) e della symbol rate (r).
Abbiamo visto le limitazioni esistenti per la trasmissione affidabile, che per non
comportano ancora lanalisi della probabilit di errore nel canale rumoroso (che noi
consideriamo essere lo AWGN).
Nel caso PCM si pu dimostrare che la probabilit derrore per bit Pb, con riferimento alla
funzione densit di probabilit ponendo in essa =1, vale
Pb
2 Eb
z2
2 exp( )dz
N0
2
x
(8.6)
come si deduce dalle formule ricavate nei primi paragrafi del capitolo.
Nel primo caso si incontrano i limiti fisici del trasmettitore, nel secondo si diminuisce la bit
rate.
La prima idea fu quindi quella di far tendere a zero la bit rate (come nel caso dei codici a
ripetizione). Ma la conoscenza del lavoro di Shannon ha portato ad ottenere risultati pi
interessanti attraeverso opportune codifiche di canale.
Se generalizziamo la (8.6) a sequenze di k bit, con un numero M di messaggi pari a 2k, si
trova che la probabilit di errore per la sequenza limitata da
Pe MQ 2d HM
Eb
N0
(8.7)
dove
Q 2 exp(
x
z2
)dz
2
La (8.7) molto importante perch sottolinea che per diminuire la probabilit di errore,
aumentare la distanza minima fra le sequenze equivale ad aumentare lenergia per bit
trasmesso.
Dunque ladozione della codifica di canale necessaria proprio perch consente di
aumentare la distanza minima fra le sequenze e di diminuire cos la probabilit di errore.
Si osserva per anche che la diminuzione della probabilit derrore si pu ottenere anche
con luso di M segnali ortogonali, ossia tali per cui il prodotto fra due segnali distinti si
annulli. Questo pu avvenire solo aumentando la larghezza di banda in modo
esponenziale.
La risposta affermativa: possibile studiare una codifica di canale incentrata sul criterio
seguito per la dimostrazione del secondo teorema di Shannon, ossia codificando i 2k
G d HM R
La distanza minima sempre1, mentre la bit rate tale per cui R<1: quindi G pu
risultare maggiore, minore o uguale ad 1.
In ogni caso, si pu dire che dati certi valori di k e di n, il codice ottimo quello che
fornisce la dHM maggiore.
Studiamo ora il legame fra codifica ed incremento di banda W. In assenza di codifica, ad
ogni impulso trasmesso corrisponde un bit, quindi la durata temporale di un bit
Tb
1
dove R* la bit rate in bit/sec.
R*
Una volta introdotta la codifica, nel tempo in cui vengono trasmessi k bit senza codifica ora
vengono trasmessi n bit, quindi in tempo dedicato ad un bit si ridotto del fattore k/n=R.
Questo corrisponde (v. 8.4a ) ad un allargamento della banda occupata pari ad n/k:
Wcod
n 1
Wnoncod k R
Ossia ora la banda cresce linearmente e non esponenzialmente come nel caso dei segnali
ortogonali.
Si dimostra anche che nel caso AWGN possibile trovare codici che al crescere di n, e
quindi di k, permettono una probabilit di errore che tende a zero a fronte di un mdesto
incremento della banda.
La ricerca di codici ottimi durata decenni ed ha portato allo sviluppo di due classi di
codici: i codici blocco (senza memoria) e i codici convoluzionali (con memoria).
Nei codici a blocco i k bit di informazione sono legati solo ad un blocco di n digit, nei
secondi i k bit influenza fino ad m blocchi consecutivi, ciascuno di n digit (m la memoria
del codice convoluzionale).
Abbiamo visto nei paragrafi dedicati alla codifica di sorgente che i messaggi venivano
associati a sequenze costituite dai simboli dellalfabeto di codice, dette parole di codice.
Analogamente per la codifica di canale: ciascuna delle 2k k-ple di informazione viene
trasformata in una delle 2n n-ple (nk), dove k=n corrisponde allassenza di codifica.