Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Entropia de Boltzmann
S=k log W
Inscrio na lpide de
Boltzmann: S = k log W
Boltzman no especificou a
base do logaritmo.
Contudo a frmula
independe da base porque:
S = k log a W =
log b W
k
k
=
log b W =
log b a log b a
= k log b W
E
E
E
E
E
E
E
E
D
D
D
D
D
D
D
D
E
E
E
E
D
D
D
D
E
E
E
E
D
D
D
D
E
E
D
D
E
E
D
D
E
E
D
D
E
E
D
D
E
D
E
D
E
D
E
D
E
D
E
D
E
D
E
D
0
0
0
0
0
0
0
0
1
1
1
1
1
1
1
1
0
0
0
0
1
1
1
1
0
0
0
0
1
1
1
1
0
0
1
1
0
0
1
1
0
0
1
1
0
0
1
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
0
1
S3=kLog(6)
S4=kLog(4)
S2=kLog(4)
S1=kLog(1)
1/16
S5=kLog(1)
4/16
6/16
4/16
1/16
S = k log2W = 1 log216 = 4
E
E
E
E
E
E
E
E
D
D
D
D
D
D
D
D
E
E
E
E
D
D
D
D
E
E
E
E
D
D
D
D
E
E
D
D
E
E
D
D
E
E
D
D
E
E
D
D
E
D
E
D
E
D
E
D
E
D
E
D
E
D
E
D
0 0 0
0 0 1
0 1 0
0 1 1
1 0 0
1 0 1
Somente precisamos de 3
bits para nomear as 6
possveis combinaes
S = k log2W = 1 log26 =
log106 0,7782
=
= 2,585
log102 0,3010
Modelo completo
Entrada
(smbolos)
Codificador
de fonte
(Arrays
de bits)
Sada
Decodificador
de fonte
(Arrays
(smbolos)
de bits)
ys
ra t s
Ar bi
Canal
ruidoso
ys s
a
r it
Ar e b
d
Codificador
de canal
de
Modelo de sistema
que lida com informao
Smbolos de uma entrada so
codificados em bits,
Bits so enviados por um canal
at um receptor e
So decodificados em smbolos
(Ar
Compressor de rays
bits
)
Expansor
Decodificador
de canal
ys
a
r
(Ar bits)
de
Componentes
Fonte (entrada)
Experimento
Observao de aes
Representao de um objeto
Fonte
E mutuamente exclusivos
Fonte
Usar probabilidades
Estudar Teoria de Probabilidades no final dos slides
(Apndice)
Informao
Temos incerteza
Quanta?
Codificao Binria (0 e 1)
O Bit
Grau de imprevisibilidade
Bit a quantidade de informao necessria
para tomar uma deciso perante duas
opes igualmente provveis
Calcular grau de imprevisibilidade (em bits)
segundo a frmula de Boltzmann
S = k log(W)
W so possveis configuraes que toma um
determinado arranjo de particulas
k=1
Informao
Quantificando informao
52 possibilidades
Quantificando informao
Quantificando informao
2n possibilidades: n bits
Transmitindo informao
Transmisso de informao requer duas fases:
Fase setup:
Alice e Bob concordam sobre o que vo comunicar
e o que cada sequncia de bits significa
Transmitindo informao
Cdigo
Ex.: transmitir naipe de uma
carta de um baralho
00 Copas
01 Ouros
10 Espada
11 Paus
Transmitindo informao
Transmisso de informao requer duas fases:
Fase de comunicao:
Envio das sequncias de 0 e 1
Dos dados
Transmitindo informao
Resumindo
Exemplo
Sinais do truco
S=log2W
Se W o numero de diferentes mensagens
equiprovveis que precisamos transmitir, o cdigo mais
enxuto aquele que tem log2W bits.
No caso do truco, podemos transmitir a informao de
manilha (4 possibilidades) com 2 bits, sendo suficiente
usar os dois olhos
olhos fechados
olho esquerdo fechado
olho direito fechado
olhos arregalados
Exerccio
Informao
= - log2(p(Ai))
Exemplo
Um aluno escolhido
Exemplo
E se for homem?
Informao
Sinais no so equiprovveis!
No Truco, existem 40 cartas (incerteza inicial = log2(40) =
5,32 bits)
Probabilidade de uma determinada carta ser manilha =
4/40 = 10% (informao ganha = - log2(4/40) = 3,32 bits)
Probabilidade de uma determinada carta ser um Zap =
1/40 = 2,5% (informao ganha = - log2(1/40) = 5,32 bits =
incerteza inicial! temos certeza de qual a carta!)
Probabilidade de uma determinada carta ser um 3 = 4/40 =
10% (informao ganha = - log2(4/40) = 3,32 bits)
Probabilidade de uma determinada carta no ser boa (no
3 e nem manilha) = 32/40 = 80% (informao ganha = log2(32/40) = 0,32 bits)
1111111111
Ex: 0001000000
Neste caso, o nmero 1 possui -log2(1/10) de
informao ou:
log2(p) = -log2 (0,1) = log2 (10) = 3,3219 bits
Enquanto que o nmero 0 possui:
log2(p) = -log2 (0,9) = log2 (10/9) = 0,152bits
Informao
H = - p(Ai) log2(p(Ai))
Entropia de uma fonte (Entropia de Shannon)
Fundamental para caracterizar informaes de fontes
Informao
- log(0) = infinito
Embora tenha quantidade de informao infinita, a
probabilidade de ocorrncia zero
Ou seja: se P(X) = 0, ento H(X) = - 0 log(0)
- 0 log(0) indeterminado (0 multiplicado por infinito)
Mas H(X) = 0
X um evento inexistente
Informao
44
Propriedades da informao
Propriedades da informao
Propriedades da informao
Ex.: moeda
p(cara) + p(coroa) = 1
H = p(cara) log 2 ( p (cara)) p(coroa) log 2 ( p(coroa)) =
p(cara) log 2 ( p(cara)) ((1 p (cara)) log 2 (1 p(cara))
Quando ambas possibilidades tm a mesma probabilidade de acontecer,
p(cara) = p(coroa) = 0,5 e a entropia ou imprevisibilidade mxima, e igual
a 1 bit
Propriedades da informao
pi = 1 / n, i
1
1
H = pi log 2 pi = n log 2 = log 2 (n )
n
n
i=1
n
Exemplo
P(sol) = 1
H apenas um estado possvel: sol
No h informao em amanh
far sol no Saara
H = pi log 2 pi
Exemplo
Um bit resolve
51
H = pi log 2 pi = pi log 2 pi =
i =1
Exemplo
Dado: 6 estados
2 bits no so suficientes
3 bits: sobram 2 estados
53
H = pi log 2 pi = pi log 2 pi =
i =1
Informao transmitida, It
Hm
It
55
Informao transmitida It
It:
Informao transmitida
Hm a entropia (ou incerteza) final, depois da
mensagem m ter sido transmitida
Exemplo:
Exemplo:
Exemplo:
Entropia final: Hfinal = log2(15)
Informao: diferena de
entropias:
I = Hinicial Hfinal
I = log2(16) log2(15) =
= log2(16/15) = 0,09 bits
Aula de exerccios
Estudar e fazer os exerccios da Semana 4
Teoria da Informao
Apndice
Probabilidades
Ex.: caractersticas dos estudantes MIT
2007
Tipo/nmero
Calouros
482
596
1078
Graduao
1916
2316
4232
Ps-graduao
1916
4236
6152
Total estudantes
3832
6552
10384
Probabilidades
Ex.: caractersticas dos estudantes MIT
Mulheres
Homens
calouros
Graduao
Ps
Mulheres
Homens
Probabilidades
Probabilidades
Eventos
Eventos
Evento fundamental
Outros eventos:
Evento universal
Evento nulo
etc.
Eventos
Eventos
Resultados conhecidos
Resultados conhecidos
Resultados desconhecidos
Resultados desconhecidos
Valores = probabilidades
Axiomas da probabilidade:
Para qualquer evento A: 0 p(A) 1
Se um evento A ocorre somente em funo de outros eventos
mutuamente exclusivos Ai (porque, por exemplo, formam uma
partio): p(A) = p(Ai)
Para qualquer partio: p(Ai) = 1
(j que p(evento universal) = 1)
Eventos conjuntos
Eventos conjuntos
Independncia no usual
Teorema de
Bayes
Eventos conjuntos
Ex.:
Exemplo
Exemplo
Exemplo
p(G) = 0,59
Probabilidade conjunta p(H,G)?
Selecionado graduando, qual a probabilidade
condicional dele ser um homem?
p(H | G)?
Exemplo
p(H | G)
Exemplo
p(H, G)
Teorema de Bayes