Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
3. TEORIA DELL’INFORMAZIONE
INTRODUZIONE
MISURA DI INFORMAZIONE
CODIFICA DI SORGENTE
1° TEOREMA DI SHANNON
Trasmissione Numerica Università di Trento
3. TEORIA DELL’INFORMAZIONE
DISUGUAGLIANZA DI KRAFT
CODICE DI SHANNON-FANO
CODICE DI HUFFMAN
CODIFICA DI CANALE
Trasmissione Numerica Università di Trento
3. TEORIA DELL’INFORMAZIONE
2° TEOREMA DI SHANNON
CANALI CONTINUI
LEGGE DI HARTLEY-SHANNON
Trasmissione Numerica Università di Trento
INTRODUZIONE
Trasmissione Numerica Università di Trento
INTRODUZIONE
Trasmissione Numerica Università di Trento
INTRODUZIONE
X={x1 , x2 , …, xM}
Trasmissione Numerica Università di Trento
INTRODUZIONE
Trasmissione Numerica Università di Trento
INTRODUZIONE
Trasmissione Numerica Università di Trento
INTRODUZIONE
CODIFICA DI SORGENTE
Trasmissione Numerica Università di Trento
INTRODUZIONE
CODIFICA DI CANALE
Trasmissione Numerica Università di Trento
INTRODUZIONE
Trasmissione Numerica Università di Trento
INTRODUZIONE
Trasmissione Numerica Università di Trento
P1,P2, … , PM PROBABILITA’
Trasmissione Numerica Università di Trento
MISURA DI INFORMAZIONE
Trasmissione Numerica Università di Trento
MISURA DI INFORMAZIONE
def
1
I i = − log b Pi = log b
Pi
I L
autoinformazione del messaggio xi
b base del logaritmo
Trasmissione Numerica Università di Trento
MISURA DI INFORMAZIONE:
PROPRIETA’
a) Ii ≥0 per 0≤ Pi ≤1
HYHQWR PROWR
SUREDELOH SRFD
b) Ii →0 per Pi → 1 LQIRUPD]LRQH
Trasmissione Numerica Università di Trento
MISURA DI INFORMAZIONE:
PROPRIETA’
d) Consideriamo due messaggi indipendenti xi, xj :
( )
I ij = − log b P xi , x j = − log b Pi Pj = − log b Pi − log b Pj = I i + I j
Trasmissione Numerica Università di Trento
MISURA DI INFORMAZIONE
I i = log 2
1
[bit ]
Pi
Per una sorgente binaria con simboli equiprobabili:
P(x1 ) = P(x2 ) =
1
I 1 = I 2 = log 2 2 = 1 [bit ]
2
Trasmissione Numerica Università di Trento
MISURA DI INFORMAZIONE:
NOTAZIONE
Trasmissione Numerica Università di Trento
Trasmissione Numerica Università di Trento
def M M
H (X ) = ∑ Pi I i = ∑ Pi log 2
1
[bit / simbolo]
i =1 i =1 Pi
Trasmissione Numerica Università di Trento
0 ≤ H (X ) ≤ log2 M = 1
Trasmissione Numerica Università di Trento
Ω (p)
IL MASSIMO DELL’ENTROPIA SI
VERIFICA NELLE CONDIZIONI DI
EQUIPROBABILITA’ (p=0.5) E VALE
log22=1 [bit/simbolo]
Trasmissione Numerica Università di Trento
ENTROPIA DI UNA
SORGENTE M-ARIA
0 ≤ H (X ) ≤ log2 M
Trasmissione Numerica Università di Trento
CODIFICA DI SORGENTE
nH (X )
R= = rH (X ) [bit / sec]
DURATA DELLA nr
SEQUENZA NEL TEMPO
SONO BIT DI
INFORMAZIONE
Trasmissione Numerica Università di Trento
CODIFICA DI SORGENTE
rb ≥ R [binit / sec]
SONO CIFRE DI UN
CODICE BINARIO
Trasmissione Numerica Università di Trento
CODIFICA DI SORGENTE
NOTAZIONE
Trasmissione Numerica Università di Trento
CODIFICA DI SORGENTE
Trasmissione Numerica Università di Trento
CODIFICA DI SORGENTE
OSSERVAZIONI
Trasmissione Numerica Università di Trento
CODIFICA DI SORGENTE
Trasmissione Numerica Università di Trento
CODIFICA DI SORGENTE
Information rate in
R = rH (X ) = rb
( p ) ≤ rb Bit rate in uscita dal
codificatore
ingresso al codificatore
R = rH (X ) R = rbΩ ( p )
Trasmissione Numerica Università di Trento
CODIFICA DI SORGENTE
rb
N=
r
Trasmissione Numerica Università di Trento
1° TEOREMA DI SHANNON
Trasmissione Numerica Università di Trento
EFFICIENZA DI UN CODICE
Trasmissione Numerica Università di Trento
EFFICIENZA DI UN CODICE
R H (X )
= ≤1
rb N
Trasmissione Numerica Università di Trento
CODICE UNIVOCAMENTE
DECIFRABILE
Trasmissione Numerica Università di Trento
CODICE UNIVOCAMENTE
DECIFRABILE ISTANTANEO
Trasmissione Numerica Università di Trento
DISUGUAGLIANZA DI
KRAFT-MCMILLAN
Data una sorgente discreta senza memoria che può emettere
uno tra M simboli, un codice binario ud che rappresenta tale
sorgente è sempre costituito da parole di codice aventi
lunghezze Ni che soddisfano la seguente
disuguaglianza di Kraft-McMillan:
M
K = ∑ 2 − Ni ≤ 1
i =1
Trasmissione Numerica Università di Trento
4
H (X ) = ∑ Pi log 2
1 1 1 1 1
= log 2 2 + log 2 4 + log 2 8 + log 2 8 = 1.75 [ bit / simbolo ]
i =1 Pi 2 4 8 8
Trasmissione Numerica Università di Trento
$
%
Trasmissione Numerica Università di Trento
Codice 2
N = 1.25 < H (X ) , N>1 → non è ud!
Trasmissione Numerica Università di Trento
1 i=1,2,…,M
Pi =
2 Ni Ni=LUNGHEZZA PAROLA i-ESIMA
Ni = − log2 Pi = Ii
Trasmissione Numerica Università di Trento
CODICE ASSOLUTAMENTE
OTTIMO
ESEMPIO
1 1 1 1
P1 = P2 = P3 = ... PM =
8 16 2 64
N1 = 3 N 2 = 4 N 3 = 1 ... N M = 6
CONCLUSIONE
La strategia da adottare per effettuare la codifica di sorgente
prevede di assegnare ai simboli che hanno probabilità più
alta parole di codice più corte rispetto a quelle dei simboli
con probabilità più bassa.
Trasmissione Numerica Università di Trento
CODICE DI SHANNON-FANO
STRATEGIA DI CODIFICA
Trasmissione Numerica Università di Trento
CODICE DI SHANNON-FANO
Trasmissione Numerica Università di Trento
CODICE DI SHANNON-FANO:
ESEMPIO
Trasmissione Numerica Università di Trento
CODICE DI SHANNON-FANO:
ESEMPIO
Se la symbol rate fosse r = 1000 [simboli/ sec] , la information
rate sarebbe pari a R = rH (X ) = 2150 [bit / sec] .
H (X ) 2.15
efficienza % = ⋅ 100 = ⋅ 100 = 98.6%
N 2.18
Trasmissione Numerica Università di Trento
CODICE DI SHANNON-FANO:
ESEMPIO
H (X ) 2.15
efficienza % = ⋅ 100 = ⋅ 100 = 71.6%
N 3
Trasmissione Numerica Università di Trento
CODICE DI HUFFMAN
Trasmissione Numerica Università di Trento
CONDIZIONI DI OTTIMALITÀ
DI UN CODICE
Si può dimostrare che affinché un codice ud istantaneo sia
ottimo devono essere verificate le seguenti condizioni:
Trasmissione Numerica Università di Trento
CODICE DI HUFFMAN
P1 ≥ P2 ≥ ... ≥ PM
Trasmissione Numerica Università di Trento
CODICE DI HUFFMAN
P’1 = P1 N’1
Trasmissione Numerica Università di Trento
CODICE DI HUFFMAN
NM = NM-1 = N’M-1+1
Trasmissione Numerica Università di Trento
CODICE DI HUFFMAN
N’1 N1
Le prime M-2 parole di
codice non cambiano Parola di codice
relativa al simbolo
xM-1
NM-2= N’M-2
N’M-2= N’M-1
0
Parola di codice relativa al
simbolo yM-1 1
Parola di codice
relativa al simbolo
xM
NM-1= NM = N’M-1 +1
Trasmissione Numerica Università di Trento
CODICE DI HUFFMAN
y1 0
y2
1
Trasmissione Numerica Università di Trento
P(A) = P1 = 0.4 P(B ) = P2 = 0.2 P(C ) = P3 = 0.2 P(D ) = P4 = 0.1 P(E ) = P5 = 0.1
Trasmissione Numerica Università di Trento
E 0.1
Raggruppiamo iterativamente i simboli meno probabili sino ad avere una sorgente binaria
Trasmissione Numerica Università di Trento
E (0.1) 0011
5
N= ∑ Pi N i = 0.4 ⋅ 1 + 0.2 ⋅ 2 + 0.2 ⋅ 3 + 0.1 ⋅ 4 + 0.1 ⋅ 4 = 2.2 [binit / simbolo]
i =1
Trasmissione Numerica Università di Trento
EFFICIENZA DI UN CODICE
UD ISTANTANEO
1 1
log 2 ≤ N i < log 2 + 1
Pi Pi
H ( X ) ≤ N < H (X ) + 1
Trasmissione Numerica Università di Trento
EFFICIENZA DI UN CODICE
UD ISTANTANEO
Trasmissione Numerica Università di Trento
H ( X ) ≤ N < H (X ) +
1
n
Trasmissione Numerica Università di Trento
OSSERVAZIONE
Nella pratica aumentare n (ovvero avvicinare N a H (X ) )
significa incrementare significativamente la complessità del
decodificatore ed introdurre un ritardo di trasmissione.
Trasmissione Numerica Università di Trento
SORGENTE DISCRETA
CON MEMORIA
Trasmissione Numerica Università di Trento
( ) ( )
P xi x ≠ P xi
Trasmissione Numerica Università di Trento
( ) (
P xi x = P xi x j )
dove xj è il simbolo emesso prima di xi .
Trasmissione Numerica Università di Trento
( ) ( )
M
H ( X )= ∑ P x j H X x j
j =1
Trasmissione Numerica Università di Trento
Trasmissione Numerica Università di Trento
CODIFICA PREDITTIVA
CODIFICA PREDITTIVA
Trasmissione Numerica Università di Trento
CODIFICA PREDITTIVA
P{ε (i ) = 0} = p con
1
p >>
2
CODIFICA RUN-LENGTH
ESEMPIO
«
« 0 0 1 0 0 0 0 0 0 0 0 0 0 0 1
Trasmissione Numerica Università di Trento
CODIFICA RUN-LENGTH
Trasmissione Numerica Università di Trento
CODIFICA RUN-LENGTH
n Parola di
codice
0 000 Rappresenta una situazione con un run
con n ≥ 7. In questa evenienza, il
1 001 codificatore deve attendere la parola di
codice successiva per ricostruire il run.
… …
2k-2=6 110
2k-1=7 111
CODIFICA RUN-LENGTH:
EFFICIENZA
La codifica risulta efficiente se in media le parole di
codice hanno meno bit dei run che rappresentano.
Trasmissione Numerica Università di Trento
Trasmissione Numerica Università di Trento
Trasmissione Numerica Università di Trento
Trasmissione Numerica Università di Trento
Il rumore e altre possibili distorsioni del canale alterano i simboli trasmessi, producendo
un alfabeto a destinazione Y che può essere diverso da quello di
ingresso X (K può essere diverso da M).
Trasmissione Numerica Università di Trento
Trasmissione Numerica Università di Trento
Trasmissione Numerica Università di Trento
y1 P(y1 / x2)
x1
P(y2 / x1)
y2
x2 P(y2 / x2)
y3 P(y3 / x1)
P(y3 / x2)
Trasmissione Numerica Università di Trento
P(y1 x1 ) P(y2 x1 ) P(yK x1 )
Matrice delle P(y x )
P=
1 2
probabilità di
transizione
P( y1 xM ) P(yK xM )
1
( ) ( )
H X y j = ∑ P xi y j log2
( )
xi∈X P xi y j
Trasmissione Numerica Università di Trento
1
( )( ) ( )
H (X Y ) = ∑ H X y j P y j = ∑ ∑ P xi , y j log2
( )
y j∈Y y j∈Y xi∈X P xi y j
Trasmissione Numerica Università di Trento
Trasmissione Numerica Università di Trento
( )
def
I xi ; y j = log2
(
P xi y j ) [bit]
P(xi )
Trasmissione Numerica Università di Trento
MISURA DI INFORMAZIONE
MUTUA: PROPRIETÀ
Trasmissione Numerica Università di Trento
MISURA DI INFORMAZIONE
MUTUA: PROPRIETÀ
3. L’informazione mutua media di un canale può essere espressa
come:
I (X ;Y ) = H (Y ) − H (Y X )
( )
H (Y ) = ∑ P y j log2
1
P yj( )
y j∈Y
H (Y X ) = ∑ ( )
∑ P xi , y j log 2
(
1
P y j xi )
xi∈X y j ∈Y
Trasmissione Numerica Università di Trento
MISURA DI INFORMAZIONE
MUTUA: PROPRIETÀ
I (X ;Y ) = H (X ) + H (Y ) − H (X ,Y )
H (X ,Y ) = ∑ ∑ ( )
P xi , y j log 2
(
1
P xi , y j )
xi∈X y j ∈Y
Trasmissione Numerica Università di Trento
oppure:
le probabilità congiunte P(xi,yj) , le probabilità condizionate
P(yi / xj) e le probabilità P(yi).
Trasmissione Numerica Università di Trento
( ) ( )
P xi , y j = P y j xi P(xi )
( )= ( ) ( )
∑ P(xi , y j )log2
P y j xi P y j xi
I (X ;Y ) = ∑ ∑ ∑ P y j xi P(xi )log2
xi∈X y j∈Y ( )
P yj xi∈X y j∈Y ∑ P(y j xi )P(xi )
xi∈X
( ) ( ) ( )
P y j = ∑ P xi , y j = ∑ P y j xi P(xi )
xi∈X xi∈X
Trasmissione Numerica Università di Trento
I (X ;Y ) = H (X )
Trasmissione Numerica Università di Trento
( )
P xi y j = P(xi ) ( )
I xi , y j = log2 1 = 0
I (X ;Y ) = 0
Trasmissione Numerica Università di Trento
P( y1 x2 ) = P( y2 x1 ) = α
P( y1 x1 ) = P( y2 x2 ) = 1 − α
Trasmissione Numerica Università di Trento
1-α
P(x1 ) = P1 = p x1 y1
α
α
P(x2 ) = P2 = 1 − p x2 y2
1- α
P( y1 x1 ) P( y2 x1 ) 1 − α α
P= =
P( y1 x2 ) P( y2 x2 ) α 1 − α
Trasmissione Numerica Università di Trento
H (Y ) = Ω [P(y1 )] = Ω (α + p − 2αp)
H (Y X ) = Ω (α )
Ω ( p ) = p log 2 + (1 − p )log 2
1 1
p 1− p
Trasmissione Numerica Università di Trento
I (X ;Y ) = H (Y ) − H (Y X ) = Ω (α + p − 2αp) − Ω (α )
I(X;Y)
α=0
1
0<α<1/2
0.5 p
Trasmissione Numerica Università di Trento
Trasmissione Numerica Università di Trento
C = s ⋅ CS [bit / sec]
Trasmissione Numerica Università di Trento
CAPACITÀ DI UN CANALE
DISCRETO SIMMETRICO
Trasmissione Numerica Università di Trento
Trasmissione Numerica Università di Trento
CAPACITÀ DI UN CANALE
DISCRETO SIMMETRICO
CS = max{H (Y ) − H (Y X )}= maxH (Y ) − ∑ P(xi )H (Y xi ) =
{P( x )} {P( x )}
i i
xi ∈X
= max H (Y ) − H (Y xi ) ∑ P(xi ) = max {H (Y ) − H (Y xi )}
{P(xi )} xi∈X {P(xi )}
È indipendente da xi
Trasmissione Numerica Università di Trento
CAPACITÀ DI UN CANALE
DISCRETO SIMMETRICO
Pertanto l’informazione mutua I(X;Y) è massima quando
H(Y) è massima. Ciò è verificato quando i simboli yj sono
equiprobabili.
Trasmissione Numerica Università di Trento
CAPACITÀ DI UN CANALE
DISCRETO SIMMETRICO
Trasmissione Numerica Università di Trento
ESEMPIO: CAPACITÀ DI UN
CANALE BINARIO SIMMETRICO
I (X ;Y ) = H (Y ) − H (Y X ) = Ω (α + p − 2αp) − Ω (α )
I(X;Y)
α=0
Per ogni α la curva che
1
0<α<1/2 descrive l’informazione
mutua ha un massimo per
p=0.5, ovvero per simboli
equiprobabili.
0.5 p
Trasmissione Numerica Università di Trento
ESEMPIO: CAPACITÀ DI UN
CANALE BINARIO SIMMETRICO
Cs = Ω (α + p − 2αp) − Ω (α ) = 1 − Ω (α )
CS
0.5 α
1
Trasmissione Numerica Università di Trento
ESEMPIO: CAPACITÀ DI UN
CANALE BINARIO SIMMETRICO
Trasmissione Numerica Università di Trento
CODIFICA DI CANALE
Trasmissione Numerica Università di Trento
CODIFICA DI CANALE
CODIFICA DI CANALE
Trasmissione Numerica Università di Trento
CODIFICA DI CANALE
OSSERVAZIONE
L’obiettivo della codifica di sorgente è quello di ridurre la
ridondanza per incrementare l’efficienza del sistema di
trasmissione.
Trasmissione Numerica Università di Trento
k n-k
Il numero di bit ridondanti è quindi pari a n-k. Tali bit
vengono scelti in modo da ottenere una protezione
dell’informazione dal rumore (vedi parte 4 del corso).
Trasmissione Numerica Università di Trento
Trasmissione Numerica Università di Trento
CODIFICA DI CANALE
Trasmissione Numerica Università di Trento
Trasmissione Numerica Università di Trento
2° TEOREMA DI SHANNON
Trasmissione Numerica Università di Trento
2° TEOREMA DI SHANNON:
OSSERVAZIONI
Il 2° Teorema di Shannon non fornisce dettagli sul sistema
di codifica necessario per ottenere probabilità d’errore
arbitrariamente piccola, ma afferma solo che, se R≤C, esso
esiste.
Trasmissione Numerica Università di Trento
Trasmissione Numerica Università di Trento
SORGENTI CONTINUE
Trasmissione Numerica Università di Trento
SORGENTI CONTINUE
Trasmissione Numerica Università di Trento
SORGENTI CONTINUE
OSSERVAZIONE
In realtà l’entropia assoluta associata ad una sorgente
continua è sempre ∞. Ciò è facilmente verificabile
applicando il concetto di limite alla definizione di entropia
per una sorgente discreta:
H ass (X ) = lim ∑ p X (xi )∆x log 2
1
=
∆x →0 i p X (xi )∆x
+∞
p X (x )log 2
1
= ∫ p X (x )
dx − lim log 2 ∆x
∆ x →0
−∞
CANALI CONTINUI
Trasmissione Numerica Università di Trento
CANALI CONTINUI
I (X ;Y ) = H (Y ) − H (Y X )
Trasmissione Numerica Università di Trento
CAPACITÀ DI UN
CANALE CONTINUO
Trasmissione Numerica Università di Trento
CAPACITÀ DI UN
CANALE CONTINUO
Trasmissione Numerica Università di Trento
Trasmissione Numerica Università di Trento
LEGGE DI HARTLEY-SHANNON
S
dove B è la banda del canale espressa in [Hz] e N è
il rapporto segnale-rumore a destinazione.
LEGGE DI HARTLEY-SHANNON:
DIMOSTRAZIONE
Trasmissione Numerica Università di Trento
LEGGE DI HARTLEY-SHANNON:
DIMOSTRAZIONE
Nell’ipotesi di rumore additivo indipendente si può scrivere:
pY ( y x ) = pY (x + n ) = pn ( y − x )
p X (x )
[ p X (x )
]
Cs = max H (Y ) − H (Y X ) = max{H (Y )}− log2 2π eN
1
2
Trasmissione Numerica Università di Trento
LEGGE DI HARTLEY-SHANNON:
DIMOSTRAZIONE
La potenza media del segnale in ricezione è data da:
S+N
Cs = log2 2π e (S + N ) − log2 2π e N = log2
1 1 1
2 2 2 N
S
C = B log2 1 +
N C.V.D.
Trasmissione Numerica Università di Trento
SISTEMA DI TELECOMUNICAZIONE
IDEALE
Trasmissione Numerica Università di Trento
SISTEMA DI TELECOMUNICAZIONE
IDEALE
S
C = B log 2 1 +
ηB
Trasmissione Numerica Università di Trento
SISTEMA DI TELECOMUNICAZIONE
IDEALE
B B
R
S
≥ 2 − 1
ηR R
Trasmissione Numerica Università di Trento
SISTEMA DI TELECOMUNICAZIONE
IDEALE
comunicazioni reali
R<C
R=C
B
<1
R R>C
SISTEMA DI TELECOMUNICAZIONE
IDEALE: OSSERVAZIONI
B
Se < 1 (compressione di banda) occorre aumentare
R
notevolmente la potenza del segnale al fine di trasmettere
in maniera affidabile.
B
Se >1(espansione di banda) si può effettuare una
R
trasmissione affidabile anche con basse potenze del
B
≈ 1.6 [dB] ).
S
segnale (per →∞ ,
R ηR
Trasmissione Numerica Università di Trento
SISTEMA DI TELECOMUNICAZIONE
IDEALE
Un canale ideale con larghezza di banda infinita ha
capacità C∞ finita data da:
S S ln(1 + λ ) S S
C∞ = lim B log 2 1 + = lim = ≅ 1. 44
B →∞
η B
B →∞ η λ
ln 2 η ln 2 η
λ=
S
→ 0 ln(1 + λ )
η B B →∞ → 1
λ λ →0
In pratica se:
B C ≅ C∞
> 10
R
Trasmissione Numerica Università di Trento
SISTEMA DI TELECOMUNICAZIONE
IDEALE
Trasmissione Numerica Università di Trento
SISTEMA DI TELECOMUNICAZIONE
IDEALE
ESEMPIO
Trasmissione Numerica Università di Trento
SISTEMA DI TELECOMUNICAZIONE
IDEALE
SOLUZIONE
Usando la relazione:
B B
R
S
≥ 2 − 1
ηR R
si ricava:
B B
R
S ≥ η R 2 − 1
R
−3
Poiché η B = 10 allora:
Trasmissione Numerica Università di Trento
Trasmissione Numerica Università di Trento
dove:
BT S
b= , γ = R
W ηW
Trasmissione Numerica Università di Trento
Trasmissione Numerica Università di Trento