Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Teoria elaborada pelos engenheiros/ matemáticos norte-americanos, Claude Shannon e Warren Weaver, entre
os anos de 1948 e 1949, no pós-guerra. Durante a segunda guerra mundial, as máquinas de comunicar foram
aperfeiçoadas, dando origem a informação enquanto símbolo calculável ou algo que poderia ser medido por
meio de expressões matemáticas.
Nascido em 30 de abril de 1916, no estado de Michigan, Estados Unidos, Claude Elwood Shannon foi um
matemático, engenheiro eletrônico e criptógrafo. Nos anos 1940, após já ter obtido certo conhecimento na
pesquisa científica acadêmica, Shannon se juntou a empresa Bell Labs, que até hoje atua no ramo de
telecomunicações (é uma subsidiária da Nokia). Na Bell Labs, Shannon conheceu Alan Turing, considerado
o “pai da comunicação”. Por causa da amizade com Turing, passou a se interessar pela relação entre sinal,
ruído e comunicação. Em 1948, a partir de pesquisas produzidas para a Bell Labs, Shannon publica no Bell
System Technical Journal, o artigo Teoria Matemática da Comunicação, que posteriormente, em 1949, viria
a ser tornar um livro, escrito em co-autoria com o matemático Warren Weaver.
Em síntese, Shannon entende que a comunicação é um processo que pode ser medido, calculado. Para
Shannon, o problema fundamental da comunicação é o de reproduzir num ponto, de forma exata ou
aproximada uma mensagem selecionada em outro ponto. Desse modo, para o autor, os aspectos semânticos
são menos relevantes do que os problemas técnicos.
Para Shannon, Informação é a medida de liberdade de escolha que se tem na seleção da mensagem. Ou seja,
quanto maior for a liberdade de escolha, maior será a incerteza de que a mensagem realmente seja
selecionada seja uma mensagem particular.
Sinal
Sinal Recebido
Questões a serem estudadas em um sistema de comunicação:
Quantidade de informação
Capacidade do canal de comunicação
Processo de codificação utilizado na transmissão
Efeitos do ruído
Entropia da Comunicação
C = Capacidade
H = Fonte de entropia (Número de mensagens possíveis da fonte)
Segundo Shannon, se a capacidade C do canal for igual ou maior do que H, a produção da fonte pode ser
transmitida pelo canal com tão pouco erro quanto se queira. Entretanto, se C for menor do que H, será
impossível criar códigos capazes de reduzir a frequência do erro. Por mais engenhoso que seja o processo de
codificação, pode ficar algum ruído depois que o sinal for recebido. Esse ruído, que o autor chama de
incerteza indesejável, vai ser sempre igual ou maior do que H – C.