Sei sulla pagina 1di 29

COMUNICAÇÕES DIGITAIS

AULA 1

Prof. Amilton Carlos Rattmann


CONVERSA INICIAL

As comunicações digitais desempenharam um papel fundamental no


processo da evolução digital nos últimos 50 anos, mais claramente observado
nas duas últimas décadas, nas quais se registrou uma expansão acelerada da
rede mundial de computadores (internet) em velocidade, quantidade de acessos
e funcionalidades, disponibilizando informações, virtualmente, em todos os
lugares do planeta. O emprego das técnicas digitais, aplicadas inicialmente na
transmissão de sinais digitais entre terminais remotos e enlaces de micro-ondas,
avançou em todas as formas de comunicação, desde a transmissão do comando
remoto de um portão de abertura automática, às comunicações via satélite, nas
redes cabeadas e sem fio, em redes de longa distância e redes pessoais, sendo
empregada em praticamente todos os meios de transmissões por fibras ópticas,
cabos coaxiais, pares metálicos e pelo ar.
Para estudar esse desafiador campo da engenharia, apresentaremos
alguns conceitos importantes nesta aula, começando pelos elementos básicos
do processo de comunicação digital até os conceitos de codificação de fonte e
canal.

TEMA 1 – OS MODELOS

Apresentaremos o modelo geral empregado no estudo das comunicações


e uma variação normalmente empregada nos estudos da comunicação digital.
Os modelos variam conforme a necessidade, mas geralmente apresentam três
elementos básicos: transmissor, canal e receptor. Nos modelos apresentados
neste tema, transmissor e receptor estão imersos ou ligados por um mesmo meio
no qual se formará o canal de comunicação. Estudaremos o modelo,
apresentado na Figura 1, e as funções de cada elemento.

1.1 O meio de comunicação

O meio de comunicação é de qualquer natureza, mas que seja capaz de


transportar um sinal adequado a ele, que pode se apresentar como o núcleo de
uma fibra óptica, que transporta pulsos de luz em um comprimento de onda
particular ou em vários comprimentos de onda simultaneamente; um caminho
metálico formado por um cabo de par trançado ou um cabo coaxial no qual sinais

2
elétricos, pulsados ou contínuos, são transportados; ou a água para um sinal de
sonar e o ar, ou o vazio, para sinais de rádio.

1.2 O transmissor

A função do transmissor é adequar o sinal, recebido da fonte de


informações, ao meio de comunicação de forma que atinta o receptor e seja
interpretado por este elemento. O sinal deve, na medida da necessidade, ser
robusto, eficiente e confiável, a fim de evitar ou minimizar alterações indesejáveis
proveniente da interferência de outras fontes transmissoras ou por fontes de
ruído presentes no meio, empregando a menor intensidade de energia possível.

1.3 O canal

O caminho físico limitado construído e organizado no meio de


comunicação entre o elemento transmissor e receptor, capaz de transportar o
sinal transmitido até o receptor, é denominado canal, que é projetado para
suportar a necessidade de comunicação entre os elementos e evitar (ou
contornar) possíveis distorções provenientes de múltiplos caminhos do sinal,
reflexões, atrasos seletivos em frequência e outras fontes, que geram cópias
distorcidas ou com variações temporais do próprio sinal, que interferem
construtiva ou destrutivamente, modificando o sinal original transmitido. O meio
pode impor variações permanentes ou temporárias que podem afetar a
funcionalidade do canal. As variações de temperatura ou a presença de
partículas de água suspensas no ar, a simples dobra em fibras ópticas ou
emendas e derivações em cabos metálicos podem gerar reflexões ou perdas
adicionais no meio, alterando as características originais do canal.

1.4 O receptor

O receptor processa o sinal recebido e recupera uma versão da


informação transmitida, nesse ponto denominada informação recebida, que é
direcionada ao destinatário da informação. É importante observar que o sinal
recebido sofre alterações ao longo da propagação no canal, entregando uma
cópia corrompida do sinal transmitido. É um sinal aproximado que, dependendo
da semelhança com o sinal transmitido original, pode permitir ou não a completa
recuperação da informação gerada pela fonte. Para permitir ou auxiliar na

3
recuperação da informação, o elemento receptor implementa técnicas de
detecção e correção de erros, que serão estudadas nas próximas aulas.

Figura 1 – Modelo clássico

Fonte: Haykin, 2008.

Um modelo mais apropriado para representar as comunicações digitais,


apresentado na Figura 2, se baseia no modelo clássico, mas recebe outros
elementos que auxiliam na separação das funções adicionais, necessárias nesta
forma de comunicação. A codificação de fonte ou codificação da mensagem
produz uma sequência binária a partir da mensagem da fonte antes de submetê-
la ao transmissor. O sinal recebido pelo receptor é submetido ao decodificador
de fonte antes de ser encaminhado ao destinatário da informação. O transmissor
e receptor transformam o canal analógico construído no meio de comunicação
em um canal digital (ou canal discreto), permitindo o funcionamento dos
elementos codificador e decodificador (CODEC). O transmissor recebe do
decodificador uma sequência binária de n unidades e produz um símbolo
correspondente a essa sequência. São necessários 2n símbolos para promover
a comunicação integral entre elementos. Os símbolos podem ser definidos por
características analógicas específicas como frequência, amplitude ou fase,
aplicados a um sinal portador pela variação destas características (variações na
frequência, amplitude ou na fase) ou composto por uma combinação das
variações destas características (variação na fase e amplitude simultaneamente,
por exemplo). A transmissão de símbolos subsequentemente forma o sinal
analógico transmitido pelo canal analógico até o receptor.

4
Figura 2 – Modelo simplificado para comunicação digital

Fonte: Godoy, 1991; Brandão, 2014)

TEMA 2 – EFEITOS DO CANAL


O canal, que estabelece o caminho físico e possibilita o estabelecimento
do enlace entre transmissor e receptor, não é ideal. Produz distorções, atrasos
e atenua o sinal propagado, entregando no receptor uma versão alterada do sinal
original. Veremos nesse tema as características e classificações do canal, suas
fontes de interferência, a origem do ruído intrínseco ao meio, as formas de
atenuação e como esses efeitos afetam o sinal.

2.1 O ruído

Uma das principais perturbações que afetam as comunicações de sinal


dentro do canal, principalmente a longa distância, é o ruído. Embora o ruído não
represente um problema na transmissão, por apresentar valores de potência
muito inferiores aos valores envolvidos nesta parte do sistema, na recepção, por
outro lado, apresenta valores de potência na ordem de grandeza do sinal
recebido, representando um desafio para o projeto dos sistemas receptores.
O ruído térmico é uma propriedade da matéria que se encontra acima da
temperatura 0°K. Acima do zero absoluto, toda a matéria possui vibração. Nos
materiais dielétricos, os elétrons necessitam de muita energia para se tornarem
livres, portanto permanecem ligados aos átomos mesmo com o aumento de
temperatura até valores considerados de temperaturas ambiente ou
operacionais. Nos metais, entretanto, a quantidade de elétrons livres aumenta
com o aumento da temperatura, formando nuvens eletrônicas que realizam
5
movimentos aleatórios no material. O deslocamento total da nuvem é zero,
produzindo consequentemente uma tensão média nula no material. Entretanto,
em análise instantânea, os deslocamentos de elétrons produzem correntes
estatísticas de baixa intensidade, com valor quadrático médio diferente de zero.
A tensão do ruído produzido de um componente passivo, como um resistor, em
uma determinada temperatura, pode ser calculada pela equação (1). Como a
tensão instantânea é um evento aleatório produzido por um grande número de
elétrons em movimento, pode ser modelada adequadamente por uma
distribuição normal (gaussiana), com média nula.
2𝜋 2 𝑘 2 𝑇 2 (1)
𝜗̅ 2 = 𝑅
3ℎ
Em que:
R: resistência em ohms (Ω)
k = 1,37 x 10-23 W.s.°K-1 (constante de Boltzmann)
h = 6,62 x 10-34 W.s2 (constante de Planck)
T: temperatura do resistor (°K)

Representando o ruído produzido no resistor por um equivalente


Thévenin, com resistência ideal de valor R, com fonte de tensão igual à tensão
do ruído e considerando condição máxima transferência de potência da fonte
para uma carga (mesmo valor que R), chegamos à relação kT/2. Por
contribuições da física quântica, a densidade espectral do ruído para frequências
até 1012 Hz pode ser considerada constante. Levando-se em conta que esse
valor de frequência está muito acima das bandas utilizadas em sistema de
comunicações, podemos considerar o ruído constante e, dessa forma, expressá-
lo pela parte mais à direita da relação (2). Como o ruído mantém a potência
constante para valores de frequência positivos e negativos ao longo de toda faixa
de frequência, é denominado ruído banco. Como a distribuição de amplitudes
obedece a uma distribuição normal de frequências, o ruído também é conhecido
como gaussiano.
𝑘𝑇 𝑁0 𝑊
𝑆𝑛 (𝑓) = ≡ [ ] −∞ < 𝑓 < ∞ (2)
2 2 𝐻𝑧
Em que:
N0: densidade do ruído
Sn(f): densidade espectral do ruído branco

6
Embora a modelagem de componentes eletrônicos seja mais complexa e
não diretamente dependente da temperatura, apresentam comportamento muito
semelhante ao do ruído branco observado no metal. Assim, amplificadores
adicionam ruído ao sinal recebido, produzidos nos elementos passivos e ativos
que compõe o dispositivo.
Como visto, o ruído mais comum é utilizado na modelagem de sistemas
de comunicação é conhecido como ruído branco, gaussiano e aditivo, ou AWGN
(do inglês: Additive White Gaussian Noise).
Citamos fontes de ruído e associamos esta produção aos corpos
aquecidos, que geram o denominado ruído térmico. Nesse sentido, apesar da
Terra apresentar temperaturas diferentes em sua superfície, podemos
estabelecer uma temperatura média irradiada a partir de sua superfície. Nessa
temperatura, a superfície da Terra produz um ruído intenso, também gaussiano,
branco e aditivo (AWGN), que deve ser tratado em sistemas de comunicação
que possuam antenas direcionadas para a Terra. Esta temperatura é designada
como T0 (referência para ruído de Terra), denominada genericamente de
temperatura equivalente de ruído e vale 290°K. A intensidade de ruído gerada
por fontes de ruído pode ser representada pela temperatura equivalente de ruído.
Normalmente não se utiliza a temperatura equivalente de ruído para se
determinar o ruído adicionado ao sinal pelos amplificadores. Como esses
dispositivos possuem uma banda relativamente estreita de operação, ficam
sensíveis aos ruídos nesta faixa de frequências e não a toda a largura de banda
de ruído. Nesse caso, o termo utilizado é a figura de ruído, sendo mais adequado
para a determinação da medida de ruído que o amplificador adiciona ao sinal,
sendo expresso na relação (3). Por essa relação, o amplificador que não
acrescenta ruído ao sinal de entrada possui valor da figura de ruído unitário. As
medidas da figura de ruído são expressas em dB, mas também é comum
encontrar seu valor representado em um equivalente da temperatura de ruído
(K), utilizados para expressar valores muito baixos de ruído como aqueles
encontrados na entrada dos receptores de satélites e em LNA ou LNB.
𝑆𝑛𝑜 (𝑓)
F= (3)
𝐺(𝑓)𝑆𝑛𝑖 (𝑓)
Em que:
F: figura de ruído
G(f): ganho de potência do dispositivo na frequência f

7
Sno(f): espectro de potência do ruído de saída
Sni(f): espectro de potência do ruído de entrada

Saiba mais
LNA (do inglês low noise amplifier): amplificador de baixo ruído aplicado
muito próximo da antena receptora, instalados comumente na própria antena
parabólica; LNB (do inglês low-noise block converter): amplificador e bloco
conversor de frequência, normalmente possui a antena receptora e fica instado
no ponto fica da antena parabólica.

A relação entre temperatura equivalente de ruído e figura de ruído pode


ser determinada com base no uso do modelo apresentado na Figura 3.
Aplicando-se os valores do modelo na relação (3), teremos (4) que expressar a
relação entre figura de ruído e temperatura equivalente de ruído no amplificador.

Figura 3 – Modelo para determinação da relação entre a figura de ruído e a


temperatura equivalente de ruído

Fonte: Haykin, 2008.

G(𝑘𝑇0 + 𝑘𝑇𝑒 ) 𝑇0 + 𝑇𝑒
F= =
𝐺𝑘𝑇0 𝑇0

𝑇𝑒 = (𝐹 − 1)𝑇0 (4)

Em que:
Te: Temperatura equivalente de ruído do equipamento
T0: Temperatura de referência (290°K)

2.2 O canal

O canal, como rapidamente abordado no tema anterior, é uma construção


organizada do meio de comunicação que permite que um sinal específico,

8
adequado ao meio, seja transportado entre os elementos transmissor e receptor.
O sinal proveniente do canal pode ser entendido como uma estimativa do sinal
que entra no canal, pois durante a propagação do sinal são somados a ele
interferências de outros sistemas e o ruído do meio. O próprio receptor introduz
ruído no sistema produzido pelos componentes internos. A qualidade dos
equipamentos, a definição e construção do canal e os esquemas de modulação
e codificação, interferem na qualidade e eficiência do sistema de comunicação
digital.
Os canais podem ser classificados com base nas propriedades da
resposta impulsiva. Podem ser uniformes (planos) no tempo, que significa que
são invariantes no tempo. Podem ser uniformes (planos) em frequência, nos
quais a resposta em frequência é aproximadamente uniforme sobre uma largura
de banda maior ou igual ao do sinal transmitido. Podem ser seletivos no domínio
do tempo, caso no qual o sinal recebido se apresenta mais intensos em alguns
momentos e menos intenso em outros, devido aos múltiplos percursos nos sinais
aéreos ou pelas reflexões de sinal, ou causadas pelo descasamento de
impedâncias e ramificações em cabos, ao longo do tempo, conforme
apresentado na Figura 4.
Na equação (5) é apresentada a função de impulso unitário na qual o
ganho complexo 𝑎̃𝑙 depende do tempo.

ℎ̃(𝑡, 𝜏) = 𝛼̃(𝑡)𝛿(𝜏) (5)

Os canais podem ser seletivos no domínio da frequência, quando


apresentam sinal mais intenso em determinadas frequências e menos intensos
em outras, causados por diferentes percursos dos sinais aéreos (livres ou
abertos) ou ainda por reflexões em meios confinados (cabos, guias e fibras
ópticas) que apresentam cópias do sinal original com fases e atrasos diferentes.

9
Figura 4 – Canal seletivo no domínio do tempo

Fonte: Haykin, 2008.

A equação (6) representa a resposta impulsiva do canal seletivo em


frequência, na qual o termo 𝜏𝑙 representa o atraso relativo do l-ésimo percurso
com seu respectivo ganho complexo 𝑎̃𝑙 , que são considerados constantes. A
equação (6) apresenta variação em frequência pelo atraso na resposta ao
impulso em cada percurso de sinal, apresentados na Figura 5, pelas dispersões
no atraso de cada símbolo no multipercurso.
𝐿

ℎ̃(𝑡, 𝜏) = ∑ 𝛼̃𝑙 𝛿(𝜏 − 𝜏𝑙 ) (6)


𝑙=1

Figura 5 – Canal seletivo no domínio da frequência

Fonte: Haykin, 2008.

10
Os canais genéricos não apresentam variação no domínio da frequência
ou no domínio do tempo e são considerados duplamente planos.
Além dos fenômenos que caracterizam o canal e os efeitos na distorção
do sinal, uma medida importante para comunicações digitais é a determinação
da capacidade de transmissão de um canal. A capacidade de um canal depende
da largura de banda disponível, da intensidade do sinal transmitido e da
intensidade do ruído presente do canal. Foi inicialmente estudado por Henry
Nyquit, em 1924, que estabeleceu a relação (7). Ralph Hartley, em 1928,
apresentou a capacidade de canal considerando certa quantidade de níveis
discretos, apresentada pela relação (8), que considera a possibilidade de se
admitir uma quantidade infinita de níveis de transmissão, que levaria a uma
capacidade também infinita na capacidade de canal. Entretanto, a presença do
ruído limita a quantidade de níveis possíveis.
𝐶1 = 2𝐵 (7)

𝐶2 = 2𝐵 𝑙𝑜𝑔2 𝑛 (8)

Em que:
C1: capacidade do canal em símbolos por segundo [sps] ou baud
C2: capacidade do canal em níveis discretos [bits/s]
B: largura de banda ou banda passante [Hz]

As relações (7) e (8) não consideram o efeito do ruído no canal, limitando


seu uso em canais sem ruído ou com ruído desprezível. Claude Shannon, em
1948, avançou nos estudos de Nyquist e apresentou uma relação que considera,
para efeito de capacidade de canal, a relação S/R (sinal-ruído). Quanto maior a
relação S/R maior a capacidade de canal.
𝐶 = 𝐵 𝑙𝑜𝑔2 (1 + 𝑆⁄𝑁) (9)

Ou C = B log 2 (1 + P⁄σ2 ) , em que: 𝜎 2 = 𝑁0 𝐵 𝑒 𝑆(𝑓) = 𝑁0 /2

2.3 Atenuação

Todo meio afeta o sinal, reduzindo sua intensidade à medida que este
permanece no meio. No ar (ou vácuo), o sinal se expande reduzindo a densidade
de potência. Em meios metálicos, o sinal se reduz por dissipação potência ou
por irradiação eletromagnética. Nos meios ópticos, o sinal se reduz pela
opacidade da fibra.

11
Conceitualmente, em sistemas irradiados, a potência do sinal transmitido
a partir de uma antena isotrópica é distribuída uniformemente ao longo de uma
superfície esférica. A densidade de potência [W/m 2] diminui com o aumento do
quadrado do raio da esfera, ou o quadrado da distância entre transmissor e
receptor, conforme apresentado na equação (10).
𝑃𝑇
Φ𝑅 = (10)
4𝜋𝑅 2
Baseando-se na definição da área efetiva de uma antena isotrópica,
observadas como pontos à medida que as antenas transmissoras e receptoras
se afastam, pela teoria eletromagnética, resultam na relação (11), na qual a área
efetiva de uma antena isotrópica depende apenas do comprimento de onda do
sinal transmitido.
𝜆2
𝐴𝐼𝑆𝑂 = (11)
4𝜋
Relacionando as equações (10) e (11) e as potências recebidas e
transmitidas, chegamos à perda do percurso (12), que estabelece uma medida
de atenuação do sinal de rádio que depende da distância e do comprimento de
onda do sinal transmitido.

4𝜋𝑅 2
𝐿𝑃 = ( ) (12)
𝜆
Existem outras implicações e análises para comunicações via sinais de
rádio, mas para os objetivos deste material os conceitos descritos acima
caracterizam bem a atenuação em comunicações sem fio.
A atenuação em meio metálico ocorre por efeito joule e por irradiação
eletromagnética, embora nesta última, com menor efeito no contexto desta aula.
A resistência do meio metálico é determinada pelo material do condutor e por
suas características físicas de seção transversal e comprimento do percurso
metálico. As relações (13) e (14), provenientes da física e vista na disciplina de
eletricidade, caracterizam o valor de uma resistência pelo material, pelas
características dimensionais do condutor e a determinação da variação desse
valor com a variação de temperatura, respectivamente. Portanto, a atenuação
no meio metálico depende do material dos condutores e das condições térmicas.
Normalmente a atenuação em condutores é expressa de forma distribuída
indicando perda por unidade de distância, por exemplo dB/km.

12
𝐿
𝑅=𝜌 (13)
𝐴
𝜌 − 𝜌0 = 𝜌0 𝛼(𝑇 −
(14)
𝑇0 )
Em que:
L = comprimento do condutor
A: área da seção transversal do condutor
ρ: resistividade em T
ρ0: resistividade em T0
α: coeficiente de temperatura de resistividade
T0: Temperatura de referência (290°K)
T: temperatura

Outro ponto importante que deve ser agregado é o efeito pelicular. Em


corrente contínua (CC), a densidade de corrente elétrica é uniforme em todo a
seção transversal do condutor. Entretanto, em corrente alternada (CA), a
densidade de corrente muda, deslocando o fluxo para mais próximo das
extremidades, desocupando o centro do condutor. Esse efeito é mais intenso
com o aumento da frequência do sinal transportado no condutor. Pela expressão
(15) se determina a profundidade de penetração em um condutor de determinado
material em determinada frequência.
1
𝛿= (15)
√𝜋𝑓𝜇𝜎
Quanto menor a profundidade de penetração, mais concentrado na
extremidade do condutor se encontra o fluxo de corrente, significando que a área
efetiva de corrente fica menor, pois o núcleo do condutor não é utilizado,
aumentando as perdas e a atenuação.
Na Figura 6 é apresentado o comportamento da profundidade de
penetração e a área efetiva na seção transversal de um condutor transportando
um sinal em frequências diferentes.
Na Figura 7 é apresentado o comportamento das perdas de cabos
coaxiais padronizados aplicados no transporte de sinais de televisão com o
aumento da frequência de operação, indicando as bandas e respectivos canais
em cada banda. Divisão do sinal luminoso por prismas, emendas e conexões
também contribuem para as perdas e figuram na atenuação total do caminho.

13
Figura 6 – Efeito pelicular

Figura 7 – Perdas com a frequência

Fonte: TV Coax, 2018.

Nas fibras ópticas, o sinal perde potência óptica ao longo do caminho.


Essa perda é maior com o aumento do comprimento de onda nas janelas ópticas
estabelecidas. Essas perdas são distribuídas por unidade de distância,
normalmente informadas em dB/km.
As fibras ópticas são longas estruturas cilíndricas, nas quais o
comprimento é muito maior que o diâmetro. Podem ser fabricadas de silício ou
polímeros com duas regiões com índices de refração diferentes, formando o

14
núcleo e a casca. Embora a luz possa ser propagada em várias direções dentro
do núcleo de uma fibra óptica, apenas algumas direções atenderão a condição
de atraso de fase para uma determinada dimensão núcleo, relação entre índices
de refração da casca e do núcleo e comprimento de onda, que são denominados
modos. Os modos de luz percorrem caminhos diferentes e chegam ao destino
com intensidades e atrasos diferentes produzindo alterações no sinal
transmitido. As fibras ópticas apresentam diferentes características na interface
entre núcleo óptico e casca protetora. As fibras ópticas multimodo (multimode,
no inglês) podem ser construídas com índice de grau, no qual a existe uma
variação abrupta do índice de refração entre casca e núcleo, que é responsável
por produzir múltiplas reflexões, em ângulos diferentes, dentro do núcleo das
fibras. Essas fibras são geralmente utilizadas em curtas distâncias, em torno de
300 m, uma vez que possuem elevada dispersão óptica. Já as fibras multimodo
de índice gradual alteram gradualmente o índice de reflexão entre o núcleo e a
casca, produzindo retorno suave e mais coerente do sinal, organizando a
chegada dos modos no destino. A fibra óptica com índice gradual possui uma
atenuação menor que a de índice degrau. As fibras índice gradual e índice
degrau empregam LEDs na produção de pulsos de luz. As fibras monomodo
(singlemode, no inglês) possuem um núcleo muito estreito permitindo
praticamente só um modo de luz. A fibra monomodo exige um melhor
acoplamento óptico nas conexões e fusões mais precisas. Utiliza laser na
geração de pulsos de luz, aplicado na transmissão de sinais ópticos. Apresenta
a baixa atenuação e pode atingir dezenas de quilômetro de distância sem a
necessidade de recuperação de sinal. A atenuação em cabos de fibra óptica são
normalmente indicados em dB/km para determinado comprimento de onda.

2.4 O atraso

O atraso é tempo necessário para que o sinal propague entre o


transmissor e o receptor ou entre quaisquer dois pontos específicos do canal.
Pode existir uma diferença no atraso entre vias do mesmo cabo e entre
frequências da mesma banda. O atraso de propagação em um cabo UTP cat5e,
por exemplo, é de aproximadamente de 500 ns, para percorrer um cabo de 100
m, cuja velocidade de propagação é da ordem 2.10 8 m/s. A diferença de atraso
entre pares do mesmo cabo Cat5e é da ordem de 50 ns.

15
O atraso de grupo é uma característica na qual os harmônicos sofrem
atrasos diferentes ao longo da propagação no canal, distorcendo o sinal. Se
k.cosw0t é um componente de excitação de um sinal, este componente com
atraso seria k.cosw0(t-t0) = k.cos(w0t-w0t0). O atraso de fase ocorre por frequência
e é dado por θ(w)=-w.t0(w), sendo definido pela relação (16) e, desta forma, o
atraso de grupo ou retardo de grupo dado pela relação (17).
𝛩(𝑤)
𝑡0 (𝑤) = (16)
𝑤
𝑑𝛩(𝑤)
𝐷(𝑤) = (17)
𝑑𝑤

TEMA 3 – SINAIS ANALÓGICOS E DIGITAIS

Os sinais analógicos são sensíveis ao processo de transmissão, pois


precisam guardar grande semelhança entre o sinal transmitido e recebido, sob o
risco de comprometer o emprego do sistema em determinado ambiente. A forma
do sinal é o parâmetro importante na transmissão analógica. Os sinais digitais
são menos sensíveis ao processo de transmissão, mas exigem recursos extras
para transformar os canais essencialmente analógicos, em canais discretos. O
parâmetro importante na transmissão digital é a informação, que pode ser
representada de muitas formas diferentes. Neste tema veremos mais
detalhadamente as características de cada tipo de sinal e a necessidade para a
adaptação do sinal digital ao meio analógico.

3.1 Sinal analógico

Em nossa percepção de mundo, observamos que todas as grandezas são


contínuas. Variações de temperatura, distâncias entre pontos, cores e
intensidade sonora, por exemplo, são contínuas. Sempre existe um valor
intermediário entre duas medidas, que pode ser tão preciso quanto queiramos,
ou possamos medir. A tradução dessas grandezas por dispositivos transdutores
produziu formas similares (análogas) dos comportamentos físicos em variações
de sinais elétricos. As técnicas evoluíram para a manipulação desses sinais,
permitindo a gravação, a reprodução e a transmissão de sinais analógicos. A
qualidade necessária na amplificação e atenuação dos sinais analógicos definiu
padrões e parâmetros de medições para comparação entre técnica (Figura 8).

16
Figura 8 – Amplificação analógica

Um disco de vinil (LP), uma fita K7 ou VHS e o sinal de TV analógica foram


grandes representantes dessa fase tecnológica, na qual as grandezas acústicas
e imagens e se tornavam sinais elétricos analógicos e eram manipulados dessa
forma. O termo analógico vem de análogo, ou seja, que guarda semelhança, e
se refere às variações elétricas equivalentes ao fenômeno físico observado. A
forma do sinal elétrico guarda o comportamento da grandeza física medida.
Portanto, garantir a transmissão da forma o mais inalteradamente possível desse
sinal é fundamental e o grande desafio dos sistemas analógicos.

3.2 Sinal digital

A evolução da informática suportada pelo desenvolvimento da eletrônica


digital e, posteriormente, microprocessadores, pavimentou um largo caminho
para a digitalização. Estudos como a teoria da informação, ruído, capacidade de
canal e teoria da amostragem estabeleceram a base teórica para possibilitar a
digitalização e transporte de informações, analógicas ou digitais, por canais
digitais, possibilitando economia e controle sobre a comunicações digitais. Na
transmissão digital, a informação ganha importância sobre a forma da
informação. A informação pode estar representada em níveis discretos de
tensão, nas trocas de fases de uma portadora senoidal, em pulsos
subsequentemente alternados ou em pulso de luz, armazenada em padrões
magnéticos de um disco rígido ou distribuída ao longo de estrutura com regiões
reflexivas e opacas de um disco óptico. O importante na transmissão digital é
transportar a informação independentemente da forma usada para isto.

17
3.3 Adaptação

O sinal digital não é diretamente transmitido em meio analógico, sem que


haja uma intensa distorção do sinal. O principal motivo está na próxima forma
sinal digital. Demonstra-se, matematicamente, que uma função impulso (pulso
quadrado de área 1 (um) e duração zero) produz uma resposta infinita no espaço
frequência com intensidade 1, constante, de -∞ a +∞, cuja manifestação gráfica
pode ser observada na Figura 9. Colocando de outra forma, a demonstração
matemática leva a imaginarmos que variações abruptas no tempo produzem
significativas manifestações em termos de frequências. Reforçando esse
raciocínio, a transformada de Fourier de um pulso retangular de duração 2T,
apresentada na Figura 10, esboça uma função sinc, que, embora amortecida,
tende a infinito. Observa-se ainda nessa figura que quanto menor o valor de T,
mais longo se torna o período de amortecimento do sinal sinc resultante, em π/T.
Trazendo para as comunicações digitais, observamos que a largura de banda
para a transmissão de sinais digitais necessitada de largura de banda suficiente
para que esse sinal não seja significativamente alterado, permitindo que o
sistema receptor consiga interpretá-lo.

Figura 9 – Resposta ao impulso

Fonte: Oppenheim, 2010.

18
Figura 10 – Transformada de Fourier de um pulso retangular

Fonte: Oppenheim, 2010.

A decomposição de um sinal digital em uma série de senos e cossenos,


obtida pelas séries de Fourier, apresenta uma sequência de harmônicos (sinal
cuja frequência é um múltiplo da frequência fundamental do sinal original) com
amplitudes diferentes, que somados, recuperam a forma original do sinal digital.
Como a série de Fourier tende a infinito, nos limitamos à quantidade de
harmônicos que representam operacionalmente o sinal, definida aqui como a
máxima distorção que permita a recuperação do sinal admitindo, dessa forma
impondo perdas em altas frequências representadas pelos harmônicos mais
distantes da frequência fundamental, como apresentado na Figura 11. A
eliminação de harmônicos representa o efeito do canal sobre o sinal digital.
Na Figura 11 (e), observa-se que a largura de banda necessária para
recuperar o sinal com o aspecto apresentada na figura, precisa ser oito vezes
maior que a frequência do sinal digital.

19
Figura 11 – Sinal digital e os harmônicos pela decomposição de Fourier

Fonte: Tanenbaum, 2003.

A adaptação do sinal digital ao canal analógico é realizada por modulação


ou codificação. Denomina-se modulação o processo pelo qual um sinal periódico
seno ou cosseno sofre alterações nos seus parâmetros (frequência, fase,
amplitude ou combinação destes) seguindo um sinal digital modulante. É
normalmente aplicada em canais estreitos. Denomina-se codificação de linha o
processo no qual a forma do sinal digital é modificada para melhorar a eficiência
espectral, que é definida pela razão taxa de bits transmitida e a banda necessária
20
para realizar a transmissão. Normalmente a codificação é aplicada em canais
largos.

TEMA 4 – A INFORMAÇÃO

Há quase 100 anos a informação passou a ser vista como um ente


estatístico, que poderia ser modificado para melhorar a eficiência na
transmissão, sem prejudicar sua inteligibilidade. Veremos neste tema que
Nyquist e Hartey, naquela época, estabelecem formas de estimar capacidade do
canal para o transporte de símbolos, que Shannon aprofundou os estudos
estabelecendo uma medida estatística para a quantidade informação e de como
estes estudos alteraram de forma significativa a eficiência na transmissão de
informações.

4.1 A Teoria da Informação

A teoria da informação é um ramo da probabilidade que aborda conceitos


estatísticos e matemáticos que envolvem a natureza da informação, de
ocorrência continua ou discreta, desenvolvida inicialmente para auxiliar a
engenharia a projetar sistema de comunicação mais eficientes.
Em 1948, Claude Shannon publicou o artigo “A Mathematical Theory of
Communication”, que estabeleceu as bases da teoria da informação, baseando-
se nas pesquisas de Nyquist e Hartley, mas estendendo o conceito para incluir
o efeito do ruído e a estatística de fonte de informações. No seu artigo, afirma
que “frequentemente as mensagens possuem significado, isto é, referem-se ou
estão relacionadas a algum sistema, a certas entidades físicas ou conceituais”
(Shannon, 1948), propondo que existe redundância no conjunto de símbolo
produzidos pelos geradores de informação. Afirma ainda que “os aspectos
semânticos da comunicação são irrelevantes para o problema da engenharia”,
propondo que a relação entre os símbolos em qualquer linguagem é irrelevante
para a resolver o problema fundamental da comunicação que é levar a
informação de um lado ao outro do sistema. Shannon desassociou o significado
das mensagens do problema de engenharia para transmitir a mensagem,
destacando que a mensagem real é aquela selecionada de um conjunto de
mensagens possíveis. Se a quantidade de mensagens for finita e estas
pertencerem a um conjunto no qual cada mensagem apresenta chance de

21
escolha específica, qualquer mensagem escolhida desse conjunto pode ser
considerada a medida da informação produzida nessa escolha.
Os conceitos da teoria da informação visam à codificação eficiente dos
símbolos de uma fonte de informações e sua transmissão por canal com ruído.
São aplicados em compactação, codificação e transmissão de informações em
sistemas de comunicação, nos estudos de criptografia e em mecanismos de
correção de erros.

4.2 Entropia

A entropia mede a quantidade de informação gerada por uma fonte. Por


definição, é a média das probabilidades de ocorrências de símbolos de um
alfabeto de uma fonte. Calculada pela relação (18), a entropia H(S) expressa
uma medida de incerteza na qual quanto mais provável a ocorrência de um
símbolo (sk), menor a entropia do símbolo, ou menor é a quantidade de
informação associada ao símbolo. Como a entropia está utilizando log2, sua
medida é dada em bits, embora possa ser utilizada bases logarítmicas diferentes,
como 3, 4, 5, 6, 7, 10, etc., apresentando o comprimento médio da informação
para tribits (ou trints), quadribits (ou quarts), etc.
𝐾−1
1
𝐻(𝑆) = ∑ 𝑝𝑘 log 2 ( ) [𝑏𝑖𝑡𝑠] (18)
𝑝𝑘
𝑘=0

A variação da entropia para uma distribuição de probabilidades de um


alfabeto é apresentada Figura 12, na qual são utilizados dois símbolos com
probabilidades p e q = (1-p), com entropia expressa como 𝐻 = −(𝑝 log 𝑝 +

𝑞 log 𝑞). Com base neste gráfico, as propriedades da entropia podem ser
descritas como:

1. Para um conjunto S de n elementos, n-1 elementos possuem


probabilidade nula de ocorrência P(S) = {1, 0, 0, ..., 0}, portanto não existe
incerteza e a entropia é H(S) = 0;
2. Para um conjunto S, no qual todos os elementos tenham a mesma
probabilidade P(S) = {1/n, 1/n, ..., 1/n} = 1, a entropia será máxima H(S) =
max;
3. Para um conjunto S com elementos com probabilidades diferentes P(S) =
{s1, s2, ..., sn} = 1, o valor da entropia será um valor entre zero e o max (ii).

22
Figura 12 – Entropia para dois símbolos com probabilidade p e q=(1-p)

Shannon, 1948.

Conclui-se que quanto mais equiprovável for o conjunto de símbolo


transmitidos, maior a quantidade de informação transmitida. Para outras
distribuições de probabilidade dos símbolos existe uma medida média ótima para
o tamanho do símbolo.

TEMA 5 – A CODIFICAÇÃO

Com base na teoria da informação, veremos neste tema os objetivos e as


vantagens da codificação de fonte e de canal, a aplicação da medida de entropia
para a redução da redundância da linguagem fonte e para a determinação do
comprimento médio de símbolo. Veremos também os objetivos para a
codificação do canal, os codificadores de bloco e os codificadores
convolucionais.

5.1 Codificação de fonte

A necessidade para a codificação da fonte geradora de informações


nasce de dois problemas fundamentais:

1. Eliminação da redundância da fonte;


2. Transmissão eficiente do sinal.

23
As fontes geralmente produzem informação com alguma redundância,
que segue uma ou mais regras da linguagem envolvida na comunicação. As
redundâncias podem ser caracteres específicos, pontuações, marcadores,
separadores, procedimentos, sequência de caracteres, ou seja, informações que
auxiliam, mas não fazem parte, necessariamente, da informação. Para
exemplificar esta redundância, vamos considerar o alfabeto S = {A, B, C, D}, com
símbolos equiprováveis. A entropia H(S) = 2 é máxima e os símbolos podem ser
representados por dibits, como {00, 01, 10, 11}, apresentando a máxima
eficiência na transmissão. Condição diferente seria para a distribuição dos
mesmos símbolos no alfabeto R = {A, B, C, D}, com probabilidades 0,5, 0,25,
0,125 e 0,125, respectivamente. A entropia H(R) = 1,75, indica que o
comprimento médio do símbolo é menor que do alfabeto S. Uma possível
codificação binária para os símbolos de S, o cálculo da entropia H(S) e a
contabilização de 10.000 símbolos (Sk) transmitidos são apresentados na Tabela
1. Note que são necessários 20.000 bits para a transmissão dos símbolos do
alfabeto S. É apresentada na Tabela 2 uma possível codificação binária para os
símbolos de R, baseada na entropia H(R) e a contabilização de 17.500 bits
transmitidos para uma quantidade de 10.000 símbolos R k.

Tabela 1 – Símbolos com distribuição equiprovável

Sk Pk 1/Pk log2(1/Pk) Pk.log2(1/Pk) Código nSk nbits


A 0,25 4 2 0,5 00 2500 5000
B 0,25 4 2 0,5 01 2500 5000
C 0,25 4 2 0,5 10 2500 5000
D 0,25 4 2 0,5 11 2500 5000
H(S) = 2 10000 10000 20000

Tabela 2 – Símbolos com distribuição não equiprovável

Rk Pk 1/Pk log2(1/Pk) Pk.log2(1/Pk) Código nRk nbits


A 0,5 2 1 0,5 1 5000 5000
B 0,25 4 2 0,5 01 2500 5000
C 0,125 8 3 0,375 001 1250 3750
D 0,125 8 3 0,375 000 1250 3750
H(R) = 1,75 10000 17500

Claramente, para a mesma quantidade de símbolos, houve uma redução


de 12,5% na quantidade de bits transmitidos em R. A codificação proposta para

24
R reduz a redundância e se iguala ao valor de H(R). Caso fosse utilizada a
mesma codificação de S para R, 20.000 seriam transmitidos, ocupando
desnecessariamente o canal. O termo log2(1/Pk) determina o comprimento do
símbolo baseado na sua probabilidade, independentemente do valor.
Podemos expressar a eficiência do código pela relação (19).
𝐻(𝑆)
𝜂= (19)
𝐿̅
Nas codificações dos dois conjuntos de símbolos S e R, a eficiência do
codificador foi máxima. Caso fosse utilizada a codificação de S em R, a eficiência
do codificador seria de 87,5%.

5.2 Codificação de canal

Em um sistema de comunicação, a presença de ruído produz erros na


sequência binária transportada entre os elementos nas extremidades do canal.
A intensidade dos efeitos do ruído depende do canal. Em um cabo telefônico, o
ruído produz erros com probabilidade na ordem de 10 -6 e pode chegar 10-1 para
uma rede sem fio, ambiente no qual as interferências são mais severas, ou seja,
um erro em cada dez bits transmitidos. A codificação de canal produz uma
sequência binária y, com base em uma sequência binária x produzida pela fonte,
mais adequada para minimizar os erros de bit dentro do canal. Uma codificação
eficiente de canal reduz significativamente a chance de erros ao longo da
transmissão. O codificador e o decodificador do canal são projetados para
agregar redundância controlada aos dados de fonte a fim de permitir a
recuperação da informação perdida nos casos de falhas na comunicação. O
codificador mapeia uma sequência (ou blocos) de k bits da fonte em uma nova
sequência (ou blocos) de n bits. Naturalmente, n > k, e a diferença m = n – k é a
redundância inserida pelo codificador. A relação k/n é denominada taxa de
código (20).
𝑘
𝑟= (20)
𝑛̅
Os codificadores de canal são classificados basicamente como códigos
de bloco e códigos convolucionais. A utilização de memória e a forma de
organização dos dados da fonte distinguem uma codificação da outra. Nos
códigos de blocos, designados por C(n, k), o codificador recebe uma sequência
de k bits da fonte e produz m bits de código algebricamente relacionados com a

25
sequência k, formando um bloco codificado de n = (k+m) bits. O codificador
produz uma taxa R0 superior à taxa de fonte RS, determinada pela relação (21).
O codificador pode ser construído por circuitos combinacionais, uma vez que o
processo codificação não possui memória de estado.
𝑛
𝑅0 = ( ) 𝑅𝑆 (21)
𝑘
Em que:
Rs: taxa de bits da fonte;
R0: taxa de dados do canal.

Os codificadores convolucionais realizam uma convolução discreta


contínua dos bits de entrada, gerando uma sequência também contínua de bits
na saída do codificador. Operam com memória, sendo especificados por uma
máquina de estados, produzindo uma saída atual que depende dos estados
anterior, conforme apresentado na Figura 13, exemplificando um codificador com
restrição k=3, multiplexando na saída o fluxo de dois polinômios geradores G(X)
e G(Y).

Figura 13 – Codificador convolucional com distância k=3 e polinômios geradores


G(X) = {1,1,1} e G(Y) = {1,0,1}

Fonte: Haykin, 2008.

Os decodificadores para códigos convolucionais geralmente utilizam o


decodificador de Viterbi.

FINALIZANDO

Nesta aula abordamos os principais conceitos e elementos para a


compreensão inicial da comunicação digital. Abordamos os elementos
transmissor e receptor imersos em um meio, no qual se estabelece um canal

26
analógico de comunicações. Vimos que o sinal transmitido é atenuado pelo meio,
sofre distorções seletivas em tempo e frequência e também sofre interferências
de outras fontes e do ruído AWGN presente no meio. Vimos as características
do canal, que são essencialmente analógicas, e sua transformação em canal
discreto, capaz de transportar informações digitais entre os elementos terminais
do canal. E, finalmente, abordamos a teoria da informação, que produziu uma
base matemática para suportar a evolução dos sistemas de comunicação digital
para um transporte eficiente e robusto de dados, por meio da codificação de fonte
e canal.

27
REFERÊNCIAS

BRANDÃO, J. C. Princípios de comunicações. Rio de Janeiro: Interciência;


PUC-Rio, 2014.

FURUKAWA E. Multilan Cat.5e U/UTP CM/CMR. Furukawa Eletric, 2018.


Disponível em: <https://www.furukawalatam.com/pt-br/catalogo-de-produtos-
detalhes/multilan-cat5e-uutp-cmcmr>. Acesso em: 1 maio 2019

GODOY JR., W. Esquemas de modulação codificada com códigos de bloco.


Curitiba, CEFET-PR, 1991.

HALLIDAY, D. Fundamentos de física 3: eletromagnetismo. Rio de Janeiro:


LTC, 1991.

HAYKIN, S. Sistemas modernos de comunicação wireless. Porto Alegre:


Bookman, 2008.

HAYT Jr, W. Eletromagnetismo. 3. ed. Rio de Janeiro: LTC, 1985.

OPPENHEIM, A. V. Sinais e sistemas. 2. ed. São Paulo: Pearson Prentice Hall,


2010.

PAVÃO, R. Teoria da informação. IB, 2011. Disponível em:


<http://www.ib.usp.br/~rpavao/Teoria_da_Informacao.pdf>. Acesso em: 1 maio
2019

SANTOS, J. C. PEA-5716 – Componentes e sistemas de comunicação e


sensoriamento a fibras ópticas. Guias ópticos e propagação em fibras ópticas.
Escola Politécnica da Univ. de São Paulo, Dep. de Eng. de Energia e
Automação Elétricas, 2016. Disponível em:
<https://edisciplinas.usp.br/pluginfile.php/2273336/mod_resource/content/1/PE
A-5716%20-%20Aula%2002%202016.pdf>. Acesso em 1 maio 2019

SHANNON, C. E. A mathematical theory of communication. The Bell System


Technical Journal, v. 27, 1948. Disponível em:
<https://www.qsl.net/n9zia/pdf/shannon1948.pdf>. Acesso em: 1 maio 2019.

OLIVEIRA, H. M. de. Engenharia de telecomunicações. Recife: HM, 2012.


Disponível em: <http://www2.ee.ufpe.br/codec/engenharia_telecomunicacoes.p
df>. Acesso em: 1 maio 2019.

TANENBAUM, A. S. Redes de computadores. Rio de Janeiro: Elsevier, 2003.

28
TV COAX Cable Systems and Signal Loss. Otadtv, 2018. Disponível em:
<http://otadtv.com/cables/index.html>. Acesso em: 1 maio 2019.

29

Potrebbero piacerti anche