Sei sulla pagina 1di 2

Goiânia, 16/04/2019

Teoria Matemática da Comunicação

Teoria elaborada pelos engenheiros/ matemáticos norte-americanos, Claude Shannon e Warren Weaver, entre
os anos de 1948 e 1949, no pós-guerra. Durante a segunda guerra mundial, as máquinas de comunicar foram
aperfeiçoadas, dando origem a informação enquanto símbolo calculável ou algo que poderia ser medido por
meio de expressões matemáticas.

Quem foi Shannon?

Nascido em 30 de abril de 1916, no estado de Michigan, Estados Unidos, Claude Elwood Shannon foi um
matemático, engenheiro eletrônico e criptógrafo. Nos anos 1940, após já ter obtido certo conhecimento na
pesquisa científica acadêmica, Shannon se juntou a empresa Bell Labs, que até hoje atua no ramo de
telecomunicações (é uma subsidiária da Nokia). Na Bell Labs, Shannon conheceu Alan Turing, considerado
o “pai da comunicação”. Por causa da amizade com Turing, passou a se interessar pela relação entre sinal,
ruído e comunicação. Em 1948, a partir de pesquisas produzidas para a Bell Labs, Shannon publica no Bell
System Technical Journal, o artigo Teoria Matemática da Comunicação, que posteriormente, em 1949, viria
a ser tornar um livro, escrito em co-autoria com o matemático Warren Weaver.

Qual o conceito de comunicação do autor?

Em síntese, Shannon entende que a comunicação é um processo que pode ser medido, calculado. Para
Shannon, o problema fundamental da comunicação é o de reproduzir num ponto, de forma exata ou
aproximada uma mensagem selecionada em outro ponto. Desse modo, para o autor, os aspectos semânticos
são menos relevantes do que os problemas técnicos.

Qual é o conceito de informação trazido pelo autor?

Para Shannon, Informação é a medida de liberdade de escolha que se tem na seleção da mensagem. Ou seja,
quanto maior for a liberdade de escolha, maior será a incerteza de que a mensagem realmente seja
selecionada seja uma mensagem particular.

Código, mensagem e sociedade

Níveis de problemas em comunicação:

1) Técnico: Os problemas técnicos se referem à precisão na transferência de informações do emissor para o


receptor. São inerentes a todos os meios de comunicação.

2) Semântico: Os problemas semânticos referem-se à forma como o receptor interpreta a mensagem, em


comparação com o significado pretendido pelo emissor. Exemplo: Em uma conversa, o receptor pode
simplesmente fingir que entendeu o que o receptor disse.

3) De influência: Problemas de influência ou eficácia referem-se ao êxito de, através do significado


transmitido ao receptor, provocar nele a conduta desejada pelo emissor.

Representação simbólica de um sistema de comunicação

Sinal

Fonte de informação → Transmissor → Canal → Receptor → Destino

Sinal Recebido
Questões a serem estudadas em um sistema de comunicação:

 Quantidade de informação
 Capacidade do canal de comunicação
 Processo de codificação utilizado na transmissão
 Efeitos do ruído

Entropia da Comunicação

O conceito de entropia vem lá da Física, especificamente da parte de termodinâmica. Na Física, a grandeza


Entropia (S), é a medida da desordem de um sistema. De acordo com a lei da termodinâmica, quanto maior a
desordem de um sistema, maior será a sua entropia. Weaver e Shannon associam esse conceito da Física à
Informação enquanto medida da liberdade de escolha existente durante o processo de seleção da mensagem.
Por exemplo, quanto maior for a quantidade de informação disponível durante a seleção da mensagem, maior
será a entropia. A capacidade de um canal de comunicação deve ser descrita em termos de quantidade de
informação que ele pode transmitir.

Teorema Central da Teoria Matemática da Comunicação

C = Capacidade
H = Fonte de entropia (Número de mensagens possíveis da fonte)

Segundo Shannon, se a capacidade C do canal for igual ou maior do que H, a produção da fonte pode ser
transmitida pelo canal com tão pouco erro quanto se queira. Entretanto, se C for menor do que H, será
impossível criar códigos capazes de reduzir a frequência do erro. Por mais engenhoso que seja o processo de
codificação, pode ficar algum ruído depois que o sinal for recebido. Esse ruído, que o autor chama de
incerteza indesejável, vai ser sempre igual ou maior do que H – C.

Potrebbero piacerti anche