Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
CCNA 200-120
Conteúdo
Capítulo 1 – Fundamentos de redes ............................................................................................. 8
MODELOS EM CAMADAS ............................................................................................................... 8
O MODELO OSI ........................................................................................................................... 9
BENEFÍCIOS DO MODELO OSI ...................................................................................................... 12
7 – CAMADA DE APLICAÇÃO: ................................................................................................... 13
6 – CAMADA DE APRESENTAÇÃO ............................................................................................. 14
5 – CAMADA DE SESSÃO ......................................................................................................... 15
4 – CAMADA DE TRANSPORTE ................................................................................................. 15
3 – CAMADA DE REDE ............................................................................................................. 24
2 – CAMADA DE E NLACE ......................................................................................................... 27
1 – CAMADA FÍSICA ................................................................................................................ 30
MODELO TCP/IP ....................................................................................................................... 32
Capítulo 2 – Endereçamento IPV4 .............................................................................................. 34
ESTRUTURA DO ENDEREÇAMENTO IPV4 ....................................................................................... 35
QUESTÃO IMPORTANTE – CONVERSÃO BINÁRIO PARA DECIMAL ....................................................... 37
MODELOS EM CAMADAS
O MODELO OSI
Seu poder de processamento ainda era bem inferior ao dos computadores de grande
porte da época, mas sua versatilidade aliada à escalibilidade proporcionada pelos
modelos desktop trouxeram uma nova era na informatização dos trabalhos dentro das
empresas.
Surgiram soluções arrojadas e caras para as primeiras redes entre os PC´s; e algumas
empresas na época até conseguiram alavancar seu desenvolvimento oferecendo este
tipo de solução, além do comércio e importação dos pequenos computadores.
As soluções apresentadas na época para interligação dos PC´s foram bem recebidas
pelo mercado, pois solucionavam o problema crônico das atualizações de dados. Já no
início da nova onda dos PC´s, era necessário gerar cópias de tudo o que era introduzido
no equipamento para agrupar ao produto de outros computadores. Se por um lado
eram úteis descentralizando o processamento dos dados, para aproveitar seu trabalho
era necessário integrar tudo num outro equipamento. Este centralizador poderia até
mesmo ser um mainframe ou mesmo outro PC que manteria uma centralização do que
era produzido nos outros equipamentos espalhados pela empresa. Começava a surgir
ali, o conceito dos primeiros servidores de banco de dados e outras informações.
Após coletar o trabalho de cada máquina com mídias utilizadas na época, tais como
disquetes e fitas, era necessário juntar tudo para gerar um produto final.
Normalmente, enfrentava-se problemas de atualização das informações, pois qualquer
input de dados feito nas maquinas e não passado ao centralizador, gerava problemas
de atualização nas bases de dados. Mesmo sincronizando as coletas por horários,
nunca se podia dizer que a base de dados central estava totalmente atualizada.
Dessa forma, qualquer solução que pudesse interligar os computadores PC era bem
vinda. E o que surgiu na época foram as soluções onde o fabricante ofertava desde a
placa de rede, passando por conectores e cabos, softwares e drivers. Tudo compunha
um único pacote, proprietário da solução. E não existia nenhum tipo de
interoperabilidade entre os fabricantes dessas soluções.
Ao comprar a rede de um fabricante, o cliente ficava preso a esse fabricante, pois tudo
que era necessário para ampliação da rede precisava vir dali.
Fica claro que essa situação trouxe problemas para quem precisava de uma rede na
época. Basta lembrarmos que os computadores PC avançavam e ocupavam cada mais
espaço nas empresas. Dessa forma, interligá-los em rede se tornava algo
imprescindível naquele momento.
Neste cenário de incertezas e temor comercial, a ISO, uma das principais organizações
internacionais atuante em desenvolvimento e publicação de padronizações
tecnológicas, apresentou ao mundo um modelo em camadas que descrevia em sete
módulos todo o processo de comunicação entre dois dispositivos em uma rede.
Tornou-s bastante claro para o mundo tecnológico que o fim das soluções
proprietárias havia chegado. O chamado Modelo OSI dividia a comunicação entre dois
dispositivos em 7 camadas, sendo que cada uma dessas camadas traz a descrição
completa de todos os procedimentos relacionados áquela fase da da comunicação.
Na parte mais alta encontra-se a parte lógica das comunicações, como aplicações e
protocolos e nas camadas mais baixas todo o conjunto de hardware envolvido no
processo.
Como cada fase da comunicação foi descrita nas camadas, podemos destacar
facilmente alguns benefícios trazidos por este modelo:
Aqui, traremos um breve conteúdo sobre cada uma das camadas, que deve ser
bastante considerado se a obtenção da certificação CCNA for um dos maiores
objetivos:
7 – CAMADA DE APLICAÇÃO:
Esta é a camada mais alta do Modelo e mais próxima do ser humano, operante do
sistema. Aqui residem os controles sobre os serviços mais básicos de comunicações
através de software. Os bancos de dados, os browsers, as aplicações específicas para
comunicações via e-mails ou outros. Nomes muito conhecidos nos ambientes de
redes, tais como FTP, Telnet, SMTP, SNMP são considerados aplicações completas e
fazem parte desta camada. Costuma-se ainda, separar as aplicações por funcionalidade
em uma rede. Os aplicativos diretos seriam aqueles cuja existência está relacionada
exclusivamente a uma rede de dados. Não teriam utilidade alguma se o computador
onde residem não possuisse uma conexão a uma rede. Neste momento, te desafiamos
um pouco a pensar e escrever abaixo o nome de softwares que se encaixam como
aplicativos diretos de rede. Pense em ao menos 3 deles:
a) _______________________________________
b) _______________________________________
c) _______________________________________
a) _______________________________________
b) _______________________________________
c) _______________________________________
6 – CAMADA DE APRESENTAÇÃO
Esta camada é responsável pela compatibilização entre os formatos dos dados. Tudo o
que envolve a sintaxe das informações está relacionada a esta camada. Existem 3
termos muito fortes aqui que são a Criptografia, Compactação e Sintaxe dos dados.
O formato que uma aplicação atribui a um arquivo, bem como os formatos das
informações existentes dentro dos arquivos está descrita e documentada nesta
camada. Em outros modelos de referência, é comum que esta camada esteja
totalmente integrada a camda de aplicações, pois suas tarefas são muito próximas.
Como um exemplo prático de dificuldades envolvendo esta camada, podemos citar o
exemplo de um arquivo gerado numa arquitetura de computadores diferente do
ambiente do PC. Ao tentarmos interpretá-lo em um computador PC, teremos
diferenças de códigos originais de formato do arquivo que não serão interpretadas no
PC. Aqui estamos tratando de diferenças, por exemplo entre os formatos ASCII e
5 – CAMADA DE SESSÃO
Nesta camada, os protocolos tratam do controle das sessões que são estabelecidas,
mantidas e terminadas entre as aplicações.
Mas vale lembrar que relacionado a certificação CCNA, apenas a funcionalidade básica
desta camada, que se resume ao controle das sessões entra aplicações é o mais
importante.
4 – CAMADA DE TRANSPORTE
Esta camada possui uma relevância maior que as superiores a ela no que diz respeito a
preparação para o CCNA.
Observe que o ponto A, para iniciar a comunicação envia uma primeira sequencia de
dados. Algo como no início de uma conversa telefônica sendo estabelecida entre você
e um amigo. Neste caso, o sincronization inicial (SYN) seria semelhante a “Bom dia,
podemos conversar?”. Na sequência, seu amigo responderia demonstrando que
recebeu a mensagem (ACK) e enviando a própria mensagem: “Bom dia, sim podemos”
(SYN+ACK). E por fim, quando você comunicasse a ele que recebeu a resposta com um
simples “ok”, (ACK) teríamos ai um ambiente propício para uma troca de informações
mais longa descrita a seguir.
Observe que neste ponto começa a transmissão das informações para as quais a
conexão foi estabelecida. O volume de informações que deve ser enviado é longo e
não poderá ser transmitido em um único envio. Uma das funções do controle da
conexão é validar os limites de envio para cada conjunto de informações. O ponto A
envia uma quantidade de informações que julga adequada para ser recebida pelo
ponto B (Dados, na figura). Em termos técnicos, dizemos que isso corresponde ao
tamanho de uma janela de comunicações, que por sua vez é composta por um certo
número de segmentos. O ponto B, por sua vez, precisa receber estas informações,
processá-las e enviar um OK (ACK) para que o ponto A continua a transmitir. Apenas
mediante a esta confirmação de recebimento, o ponto A dará prosseguimento à
transmissão.
Se pensarmos numa situação onde o ponto A tenha enviado uma janela contendo 5
segmentos, ele apenas enviará a sequência, que seria a proxima janela contendo os
segmentos seguintes (6 a 10) quando receber do ponto B a confirmação do que foi
enviado (ACK). Por motivos óbvios, a espera por esta confirmação não poderá ser
eterna. Ela tem seu tempo estabelecido também pelos parâmetros do protocolo TCP
para cada tipo de aplicação envolvida na comunicação. Se este tempo se esgotar, o
ponto A irá retransmitir as informações, reduzindo o tamanho da janela para 4
segmentos, por “julgar” que o destinatário pode não ter conseguido processar o
volume inicial de informações. Aqui temos 2 importantes processos da comunicação
TCP, que são a retransmissão e o controle de fluxo.
Uma outra possibilidade, seria que o ponto B enviasse um ACK de valor menor do que
o esperado pelo ponto A. Algo como ACK 5 ou ACK 4, demonstrando assim não ter
conseguido receber e processar todo o bloco de informações. Neste caso, teríamos
também uma situação de reenvio parcial da informação faltante ou ainda um reenvio
completo, com uma janela menor. É comum que o controle de fluxo estabelecido seja
chamado de “janelamento”.
Toda a comunicação é bidirecional, por isso, observe que a figura mostra também o
ponto B enviando dados e aguardando por ACK proveniente de A. Fato interessante
também, é que existem 2 negociações de tamanho de janela. A janela de comunicação
de A para B pode não ser a mesma do sentido inverso.
Ainda sobre o janelamento, vale destacar que ele pode ocorrer tanto para diminuir
como para aumentar o tamanho da janela de comunicação. Tudo dependerá do
produto das negociações que podem variar de acordo com a aplicação que está sendo
usada.
Se estendermos o exemplo, imaginando que seu amigo fosse um estrangeiro que está
aprendendo a falar português há pouco tempo, seria necessário que você controlasse
mais a transmissão das informações falando mais devagar e repetindo algumas vezes
certas frases para que ele compreendesse. Pense e responda...Numa situação como
esta, a que partes do processo TCP, sua conversa estaria relacionada?
R:
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
Voltando ao exemplo da ligação telefônica, você se despede do seu amigo mas não
desfaz a ligação imediatamente a isso. Você aguarda uma resposta dele e também
suas considerações finais sobre a conversa, que pode ser um simples “até logo”. Então
você confirma a ele que ouviu o que foi dito e então encerram a ligação.
O exemplo da ligação telefônica neste processo do TCP, tem por objetivo demonstrar
que na verdade a tecnologia é construída sob aspectos comuns da nossa vida. Em
_____________________________________________
_____________________________________________
Note também, que ambas as estruturas, possuem campos de 2 bytes (16 bits)
para identificação de source port e destination port.
UDP Header
Estes campos, por comportarem um espaço de até 16 bits, podem receber números
até o limite de 65536 (216). Normalmente, estas sequências são divididas da seguinte
forma:
Portas acima de 1023 – Utilizadas pelos sistemas operacionais como portas de origem
no estabelecimento das sessões de comunicação. Além disso, as portas de valores mais
altos, por vezes são ligadas a aplicações específicas. Por exemplo, o Packet Tracer tem
associado a ele a porta 38000 para estabelecer sessões multiuser entre máquinas
através de uma rede. Os games que funcionam em rede também possuem suas portas
específicas para comunicação.
Todas estas portas por vezes, precisam ser liberadas ou bloqueadas num firewall por
exemplo para que uma comunicação em rede seja permitida. Em outras palavras, estas
portas também estão associadas à segurança do ambiente de rede.
As portas altas, acima de 5000 por exemplo, costumam passar por atualizações ao
serem vinculadas a novas aplicações, games, etc. No link abaixo, é possível
acompanhar a lista completa das portas, atualizada:
http://www.iana.org/assignments/service-names-port-numbers/service-names-port-
numbers.xhtml
3 – CAMADA DE REDE
A camada de rede está fortemente associada ao mundo Cisco. Nesta camada são
tratados os processos relacionados a rotas, escolha e determinação de caminhos para
os pacotes. Também nesta camada estão os endereços lógicos (ip) e os protocolos de
roteamento, além do roteador.
_____________________________________________________________________________
_____________________________________________________________________________
_____________________________________________________________________________
_____________________________________________________________________________
Abaixo esá um exemplo visual de um cabeçalho IP, como chamamos a estrutura que
comporta as informações da camada de rede.
O TTL (Time to Live) é um campo de 8 bits que começa a trafegar na rede com seu
maior valor (255) e vai sendo decrementado por cada nó de rede que atravessa até ser
descartado quando atinge o valor 0. Isto constitui uma importante ferramenta para
evitar que pacotes “perdidos” em rede, formem loops e atrapalhem o funcionamento
da rede.
Observe também, a presença dos campos source address e destination address. Eles
possuem 32 bits (4 bytes) de comprimento e abrigam os endereços lógicos de origem e
2 – CAMADA DE ENLACE
A camada de enlace aparece como a interface principal entre os meios físicos e a parte
lógica da rede. Ela é responsável por receber os pacotes da camada de rede e
promover um novo encapsulamento dos mesmos em uma estrutura chamada quadro
(frame) que por sua vez, possui uma ligação direta com a tecnologia física utilizada na
transmissão. No passado, a camada de enlace foi dividida em 2 partes:
Por outro lado, a subcamada MAC, traz consigo a ligação mais direta com tecnologias
físicas, tais como ethernet e suas variações. Esta subcamada também está relacionada
ao endereço físico dos dispositivos de rede, conhecido como MAC address.
O endereço MAC funciona como uma identidade para que um dispositivo possa
acessar uma rede. Ele é gravado num chip do dispositivo (placa de rede, por exemplo)
e está presente na composição do encapsulamento das informações, exatamente na
camada de enlace.
Para que uma informação possa ser encaminhada de uma interface para outra dentro
da rede, o que chamamos de comutação, são sempre necessárias a presença dos
endereços MAC de origem e destino. As comutações ocorrem nos switches e também
nos roteadores.
Endereço de destino: Campo de 6 bytes (48 bits) que comporta o endereço MAC da
estação de destino do quadro.
Endereço de origem: Campo de 6 bytes (48 bits) que comporta o endereço MAC da
estação de origem do quadro.
Dados: Contém os dados a serem passados para a próxima camada. Seu tamanho
deve variar entre 46 e 1500 bytes. Se o quadro como um todo tiver menos de 64 bytes,
somados do endereço de destino até o FCS, este campo de dados pode sofrer um
preenchimento extra para que seja possível sua transmissão. A tarefa deste
preenchimento é parte integrante da tecnologia. Mas apenas ocorre quando o quadro
cumpre os padrões tecnológicos. Determinados erros podem fazer com que o quadro
seja encaminhado com tamanho menor do que esses 64 bytes descritos. Isto tornará o
quadro um elemento de descarte chamado “Runt”. Esse descarte pode ser feito por
um switch por exemplo. Uma situação prática de quando isso ocorre, diz respeito à
restos de colisão em redes onde ainda existam hubs presentes, ou mesmo de placas de
rede de má qualidade.
FCS: Frame Check Sequence, contém o CRC (Cyclic Redundancy Checking). O CRC é o
resultado de um cálculo feito pelo equipamento de origem da informação e colocado
neste campo. A cada passagem do quadro por outros dispositivos, é feita a conferência
deste cálculo e caso existam diferenças, fica claro que houve perda ou alteração das
informações transportadas. Esta situação, chamado de quadros com erros de CRC,
pode normalmente ser filtrada nas redes e utilizada como base para identificação de
problemas nas transmissões.
1 – CAMADA FÍSICA
A camada Física OSI fornece os requisitos para transportar pelo meio físico de rede os
bits que formam o quadro da camada de Enlace de Dados. Essa camada aceita um
quadro completo da camada de Enlace de Dados e o codifica como uma série de sinais
que serão transmitidos para o meio físico local. Os bits codificados que formam um
quadro são recebidos por um dispositivo final ou por um dispositivo intermediário.
A entrega de quadros pelo meio físico local exige os seguintes elementos da camada
Física:
• Os componentes físicos
• Codificação de dados
• Sinalização
A camada Física irá gerar os sinais elétricos, ópticos ou sem fio que representam o "1"
e "0" no meio físico. O método de representação de bits é chamado de método de
sinalização. Os padrões da camada Física devem definir que tipo de sinal representa o
"1" e o "0". Isso pode ser tão simples quanto uma alteração no nível de um sinal
elétrico ou de um pulso óptico ou um método de sinalização mais complexo.
MODELO TCP/IP
Além do modelo OSI, que serviu de referência para as redes locais, o modelo TCP/IP se
firmou como referência para as redes WAN. Uma das abordagens do CCNA é a relação
existente entre as camadas desses dois modelos.
Cada dispositivo de uma rede deve ter uma definição exclusiva. Na camada de rede, os
pacotes de comunicação precisam ser identificados com os endereços de origem e de
destino dos dois sistemas finais. Com o IPv4, isso significa que cada pacote tem um
endereço de origem de 32 bits e um endereço de destino de 32 bits no cabeçalho da
Camada 3.
Esses endereços são usados na rede de dados como padrões binários. Dentro dos
dispositivos, a lógica digital é aplicada à sua interpretação. Para nós, na rede humana,
uma string de 32 bits é difícil de interpretar e ainda mais difícil de lembrar. Portanto,
representamos endereços IPv4 usando o formato decimal pontuada.
Padrões binários que representam endereços IPv4 e são expressos como decimais com
pontos, separando-se cada byte do padrão binário, chamado de octeto, com um
ponto. É chamado de octeto por que cada número decimal representa um byte ou 8
bits.
Por exemplo, o endereço: 10101100000100000000010000010100 é expresso no
formato decimal com pontos como: 172.16.4.20.
Tenha em mente que os dispositivos usam lógica binária. O formato decimal com
pontos é usado para facilitar para as pessoas o uso e a memorização de endereços.
Forma binaria
Octeto
Por exemplo, se precisamos ter pelo menos 200 hosts em determinada rede,
precisaremos usar bits suficientes na porção de host para poder representar pelo
menos 200 combinações de bits distintas.
Para atribuir um endereço único a cada um dos 200 hosts, usaremos todo o último
octeto. Com 8 bits, pode-se conseguir um total de 256 combinações de bits diferentes.
Isso significa que os bits dos três primeiros octetos representariam a porção de rede.
Notação Posicional
Aprender a converter de binário para decimal exige endendimento da base
matemática de um sistema de numeração chamado notação posicional. Notação
posicional significa que um dígito representa valores diferentes dependendo da
posição que ocupa. Mais especificamente, o valor que o dígito representa é aquele
valor multiplicado pela potência da base, ou raiz, representada pela posição que o
dígito ocupa. Alguns exemplos vão ajudar a esclarecer como esse sistema funciona.
Para o número decimal 245, o valor que o 2 representa é 2*10^2 (2 vezes 10 na
potência 2). O 2 está no que costumamos chamar de posição das centenas. A notação
posicional se refere a essa posição como posição de base^2, porque a base, ou raiz, é
10 e a potência é 2.
1 1 1 1 1 1 1 1
128, 64, 32, 16, 8, 4, 2, 1
128 + 64 + 32 + 16 + 8 + 4 + 2 + 1 = 255
Um 0 em cada posição indica que o valor para aquela posição não é acrescentado ao
total. Um 0 em cada posição dá um total de 0.
128, 64, 32, 16, 8, 4, 2, 1
0+0+0+0+0+0+0+0=0
Note na figura que uma combinação diferente de uns e zeros resultará em um valor
decimal diferente.
Veja na figura abaixo os passos para converter um endereço binário para um endereço
decimal.
Um conjunto de exercícios será fornecido pelo instrutor para que você possa praticar
estas conversões,tanto do decimal para o binário como também ao contrário. Procure
fazer isso repetidamente, até adquirir prática que o permita fazer apenas
mentalmente, sem precisar utilizar tabelas ou anotações escritas. Isto abreviará seu
tempo de resposta para questões da certificação CCNA.
Não precisamos só ser capazes de converter de binário para decimal, mas também de
decimal para binário. Muitas vezes precisamos examinar um octeto individual de um
endereço apresentado em notação decimal com pontos. Isso acontece quando os bits
de rede e os bits de host dividem um octeto.
Como exemplo, se um host com o endereço 172.16.4.20 está usando 28 bits para o
endereço de rede, precisaríamos examinar o binário no último octeto para descobrir
que esse host está na rede 172.16.4.16. Esse processo de extrair o endereço de rede
do endereço de host será explicado mais adiante.
Abaixo mais uma demonstração gráfica para facilitar a compreensão das conversões:
Dentro do intervalo de endereço de cada rede IPv4, temos três tipos de endereço:
Endereço de broadcast - Endereço especial usado para enviar dados a todos os hosts
da rede
Prefixos de Rede
consiste em 32 bits, exatamente como o endereço, e usa 1s e 0s para indicar que bits
do endereço são bits de rede e que bits são bits de host.
172.16.20.0 /25
Endereços Decimal Representação binária
Rede 172.16.20.0 10101100 00010000 00010100 0 0000000
1º host válido 172.16.20.1 10101100 00010000 00010100 0 0000001
Broadcast 172.16.20.127 10101100 00010000 00010100 0 1111111
Último host válido 172.16.20.126 10101100 00010000 00010100 0 1111110
Experimente utilizar esta forma para testar outros valores. De qualquer forma, a
prática com estes cálculos deverá lhe proporcionar habilidade para resolver muito
rapidamente os endereços de redes e hosts, para que possa melhorar a performance
se desejar fazer a certificação.
Endereços Privados
Endereços Públicos
A vasta maioria dos endereços no intervalo de host unicast IPv4 são endereços
públicos. Esses endereços são projetados para serem usados nos hosts que são
acessíveis publicamente a partir da Internet. Mesmo nesses intervalos de endereços,
há muitos endereços que foram designados para outros fins especiais.
ENDEREÇAMENTO CLASSFULL
Historicamente, RFC1700 agrupava os intervalos unicast em tamanhos específicos
chamados endereços classe A, classe B e classe C. Também definia os endereços de
classe D (multicast) e classe E (experimental), como mencionado anteriormente.
Intervalos Classe A
Um intervalo de endereços classe A foi projetado para suportar redes extremamente
grandes, com mais de 16 milhões de endereços de host. Os endereços IPv4 classe A
usavam um prefixo /8 com o primeiro octeto para indicar os endereços da rede. Os
três octetos finais eram usados para endereços de host.
Intervalos Classe B
O espaço de endereços Classe B foi projetado para suportar as necessidades de redes
de tamanho moderado a muito grande com mais de 65.000 hosts. Um endereço IP
classe B usava os dois primeiros octetos para indicar o endereço de rede. Os outros
dois octetos especificavam os endereços de host. Como no caso da classe A, o espaço
para endereços das classes de endereços restantes precisava ser reservado também.
No caso de endereços classe B, os dois bits mais significativos do primeiro octeto eram
10. Isso restringia o intervalo de endereços para a classe B de 128.0.0.0 /16 a
191.255.0.0 /16. A Classe B tinha uma alocação de endereços ligeiramente mais
eficiente do que a da classe A porque dividia igualmente 25% do espaço total de
endereçamento IPv4 entre aproximadamente 16.000 redes.
Intervalos Classe C
Embora esse sistema classful tenha sido abandonado no fim do ano 1990, você verá
restos dele nas redes atuais. Por exemplo, quando você atribui um endereço IPv4 para
um computador, o sistema operacional examina o endereço sendo designado para
determinar se esse endereço é de classe A, classe B ou classe C. O sistema operacional
assume então o prefixo usado por aquela classe e faz a atribuição adequada da
máscara de sub-rede.
ENDEREÇAMENTO CLASSLESS
O sistema que usamos atualmente é chamado de endereçamento classless. Com o
sistema classless, intervalos de endereço adequados para o número de hosts são
designados para companhias ou organizações independentemente da classe unicast.
SUB-REDES E MÁSCARAS
Máscara de Sub-Rede - Definição da Rede e das Porções de Host
Como aprendemos antes, um endereço IPv4 tem uma porção de rede e uma porção de
host. Nós nos referimos ao tamanho do prefixo como o número de bits no endereço
que nos dá a porção de rede. O prefixo é um modo de definir a porção de rede e que é
legível para nós. A rede de dados também deve ter sua porção de rede dos endereços
definida.
Para definir as porções de rede e de host de um Endereço, os dispositivos usam um
padrão separador de 32 bits chamado de máscara de sub-rede. Expressamos a
máscara de sub-rede no mesmo formato decimal com pontos dos endereços IPv4. A
máscara de sub-rede é criada colocando-se o número binário1 em cada posição de bit
que representa a porção de rede e colocando o binário 0 em cada posição de bit que
representa a porção de
host.
Para o valor representado acima, temos o prefixo original da rede, no caso o /24, visto
que o primeiro octeto nos mostra que o endereço é um classe C. Por ser um classe C,
os 3 primeiros octetos são relacionados à rede. Por este motivo não serão modificados
dentro do endereço e nem da máscara que o acompanha.
Porém, para que possamos gerar sub-divisões neste endereço, podemos utilizar alguns
bits do campo de hosts (últimos 8 bits) para criar um terceiro campo que se juntará ao
prefixo original da rede na determinação do roteamento. Este terceiro campo está
destacado abaixo:
111 00000 3 bits dos hosts originais foram para o prefixo de roteamento.
A este campo, damos o nome de sub-rede. Ele dividirá o endereço ou bloco original,
em blocos menores, com menos hosts, mas muito úteis na organização das redes.
Estas redes menores que serão geradas, ajudarão a reduzir os broadcasts da rede e
também trarão um padrão organizacional com divisões que ampliarão inclusive a
segurança do ambiente.
Veja abaixo, os novos blocos de sub-redes que podemos utilizar com esta divisão
proposta:
E o campo de hosts, irá variar para cada uma das sub-redes representadas acima :
De 00000 a 11111, sendo que 00000 endereço de rede e 11111Broadcast
Os hosts válidos estarão entre 00001 a 11110.
192.168.50.178 / 27 (255.255.255.224)
192.168.50.178 11000000.10101000.00110010.10110010
255.255.255.224 11111111.11111111.11111111.11100000
Resultado 11000000.10101000.00110010.10100000
Observe que o AND lógico consiste apenas de uma multiplicação entre os bits do
endereço que temos com a máscara correspondente. Onde tivermos combinação de
bits em “1” o resultado será “1”. Qualquer outra situação trará um resultado de “0”
zero.
E o resultado desta operação sempre nos trará o endereço da rede onde o host se
encontra. No exemplo acima temos a rede 192.168.50.160. Neste caso, dizemos que o
host 192.168.50.178 /27, pertence a rede 192.168.50.160.
No exemplo acima, observamos que o endereço que originalmente era /24 passou a
ser /27 pois os 3 primeiros bits do octeto de host foram mudados para “1” binario.
A cada bit que mudamos de “0” para “1”, dobramos a quantidade de divisões (ou sub-
redes) possíveis. E como consequência reduzimos pela metade a quantidade de hosts
em cada uma.
Dessa forma, como podemos nos orientar sobre quantos bits “tomaremos
emprestados” do campo de host para criar sub-redes? Isto vai depender da
quantidade de sub-redes que precisamos. O que por sua vez, dependerá da
O uso de sub-rede permite criar múltiplas redes lógicas a partir de um único intervalo
de endereços. Visto que usamos um roteador para conectar essas redes, cada
interface no roteador deve ter uma identificação de rede distinta. Cada nó nesse link
está na mesma rede.
O número de hosts
Para calcular o número de hosts por rede, usamos a fórmula 2^n - 2 onde n = número
de bits que sobraram para host.
Aplicando a fórmula, (2^5 - 2 = 30) mostra que cada uma dessas sub-redes pode ter 30
hosts, ou 30 endereços válidos.
A seguir, considere uma rede que precisa de três sub-redes. Veja a figura.
2^2 = 4 sub-redes
O número de hosts
Para calcular o número de hosts, comece examinando o último octeto. Note estas sub-
redes.
Sub-rede 0: 0 = 00000000
Sub-rede 1: 64 = 01000000
Sub-rede 2: 128 = 10000000
Sub-rede 3: 192 = 11000000
2^3 = 8
Para obter pelo menos 6 sub-redes, pegue emprestados 3 bits de host. A máscara de
sub-rede 255.255.255.224 fornece três bits de rede adicionais.
O número de hosts
Para calcular o número de hosts, comece examinando o último octeto. Note estas sub-
redes.
0 = 00000000
32 = 00100000
64 = 01000000
96 = 01100000
128 = 10000000
160 = 10100000
192 = 11000000
224 = 11100000
Aplique a fórmula de cálculo de hosts:
2^5 - 2 = 30 hosts, ou 30 endereços válidos, por sub-rede.
Veja na figura o esquema de endereçamento dessas redes.
Mas, dentro de uma empresa, as situações costumam ser diferentes. As redes não
possuem o mesmo tamanho, nem a mesma quantidade de hosts. Cada rede, na
verdade, representa um setor ou departamento da empresa. E estes departamentos,
não são iguais. Além disso, os links de WAN muitas vezes requerem apenas 2
endereços, por serem ponto a ponto. E alocar uma sub-rede a eles que contenha 30
hosts, acaba por gerar um desperdício de endereços. Números que certamente farão
falta em outras partes da divisão.
Algumas redes, como os links WAN ponto-a-ponto, precisam de no máximo dois hosts.
Outras redes, como uma LAN de usuários num grande prédio ou departamento, talvez
acomodem centenas de hosts. Os administradores de rede precisam preparar um
esquema de endereçamento que acomode o número de hosts necessário para cada
rede. O número de hosts em cada divisão deve permitir o crescimento da rede quando
necessário.
Vamos a um exemplo:
Note que as quantidades de hosts necessárias a cada rede estão expressas na figura.
Seguindo a premissa detalhada acima, somaremos todos os hosts das redes
40+23+76+13+5+2 = 159.
Em seguida, vamos pensar em qual máscara poderia atender a 159 hosts, no mínimo.
Este raciocínio é exatamente invertido em relação ao processo de cálculo anterior
onde a preocupação era de descobrir quantos bits seriam necessários para criar uma
certa quantidade de sub-redes. Aqui estamos preocupados com a quantidade de hosts.
Por isso, vamos relembrar algo importante:
255 . 255 . 255 . 0 /24 8 bits em “0”, logo 2^8-2= 254 hosts
255 . 255 . 240 . 0 /20 12 bits em “0”, logo 2^12-2= 4094 hosts
255 . 255 . 255 .128 /25 7 bits em “0”, logo 2^7-2= 126 hosts
255 . 255 .0 . 0 /16 16 bits em “0”, logo 2^16-2=65534 hosts
Perceba que, quanto maior a quantidade de bits em “0” maior é o número de hosts
possíveis. Você consegue encontrar a máscara que procuramos entre as que estão
acima? Em termos numéricos, apenas uma delas não atende ao nosso requisito de 159
hosts. Mas não podemos escolher qualquer uma delas, apenas porque ultrapassam a
quantidade que precisamos. Temos que escolher a que esteja mais próxima da
quantidade necessária, ultrapassando. Em outras palavras, aquela que atenda a no
mínimo 159 hosts com o máximo de sub-redes possível.
255 . 255 . 255 . 0 /24 8 bits em “0”, logo 2^8-2= 254 hosts
Este bloco será nossa base para subdividirmos e preencher a cada uma das redes da
topologia apresentada acima.
1 1 0 0 0 0 0 0 6 bits para hosts nos permitem 2^6-2=62 hosts. Este é o valor mais
próximo de 40 hosts. A máscara será 255.255.255.192 ou /26.
1 1 1 0 0 0 0 0 5 bits para hosts nos permitem 2^5-2=30 hosts. Este é o valor mais
próximo de 23 hosts. A máscara será 255.255.255.224 /27.
Em seguida a sub-rede 4 com 13 hosts:
1 1 1 1 0 0 0 0 4 bits para hosts nos permitem 2^4-2=14 hosts. Este é o valor mais
próximo de 13 hosts. A máscara será 255.255.255.240 /28.
1 1 1 1 0 0 0 0 3 bits para hosts nos permitem 2^3-2=6 hosts. Este é o valor mais
próximo de 5 hosts. A máscara será 255.255.255.248 /29.
E por fim, a sub-rede 6 com apenas 2 hosts, por ser um link de WAN do tipo ponto a
ponto:
1 1 1 1 0 0 0 0 2 bits para hosts nos permitem 2^2-2=2 hosts. Este é o valor exato
para 2 hosts. A máscara será 255.255.255.252 /30. A partir daqui memorize que os
links de wan ponto a ponto sempre serão /30.
E vamos observar o trabalho completo com as máscaras? Veja...
As máscaras já dimensionam cada rede com seu tamanho mais adequado. Agora
podemos completar o endereçamento, partindo do nosso bloco inicial, maior, que já
está informado no canto superior esquerdo da topologia.
SUMARIZAÇÃO DE REDES
192.168.4.0 / 25
192.168.4.128 /26
192.168.4.192/27
192.168.4.224 /28
192.168.4.240 /29
192.168.4.248 /30
Todas esta redes menores, são referidas como sub redes utilizando o prefixo
192.168.4.X. Algo como se criássemos subconjuntos da rede 192.168.4.0. Embora sub
divididas, cada uma das redes funciona no ambiente real como uma rede isolada.
Mas observe abaixo uma diferença em relação ao que fizemos acima:
192.168.4.0 /24
192.168.5.0 /24
192.168.6.0 /24
192.168.7.0 /24
O que você enxerga? São 4 blocos de endereços com prefixos diferentes. No passado
diziamos se tratar de 4 redes classe C. Cada um delas poderia ser subdividida em
múltiplas e diferentes sub redes, da mesma forma que fizemos no exemplo anterior.
Mas, quando citamos o termo sumarização ou agregação de rotas, estamos nos
referidno a um endereço único que agrega ou reúne em si todas as redes
representadas acima. Costuma-se até utilizar o termo “super net” por se tratar de uma
reunião de redes.
Observe como ficaria no caso das redes do exemplo:
192.168.4.0 /24
Endereço
192.168.5.0 /24 Sumarizado
11000000.10101000.00000100.00000000
11000000.10101000.00000101.00000000
11000000.10101000.00000110.00000000
11000000.10101000.00000111.00000000
A sumarização busca os bits iguais entre os números. Note que são iguais até o 22º bit.
Isto indica que a máscara do endereço sumarizado será um /22. E valor resultante até
o 22º bit é 192.168.4.0.
Para isso ser verdade, é necessário observar bem os endereços envolvidos. Observe se
são contínuos, como no exemplo. E também se pode ser “encaixados” num dos valores
existentes para a máscara maior.
Abaixo alguns conjuntos de endereços foram colocados para que você pratique a
sumarização:
1)
192.168.8.0
Sumarizador
192.168.9.0
192.168.10.0 __________________________________
192.168.11.0
Demonstre abaixo pela comparação dos bits:
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
2)
192.168.8.0
Sumarizador
192.168.11.0
192.168.12.0 __________________________________
192.168.14.0
Demonstre abaixo pela comparação dos bits:
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
3)
172.16.8.0
Sumarizador
172.17.11.0
172.18.12.0 __________________________________
172.19.14.0
Demonstre abaixo pela comparação dos bits:
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
4)
192.168.18.10
Sumarizador
192.168.18.20
192.168.18.25 __________________________________
192.168.18.30
Demonstre abaixo pela comparação dos bits:
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
192.168.48.0 /20
Endereços de rede
Endereços de host
Classe do endereço_________
Problema 2
Qtde. de sub redes necessárias – 25
Classe do endereço_________
Problema 3
Qtde. de sub redes necessárias – 126
Classe do endereço_________
EXERCÍCIOS DE VLSM
Com base no bloco de endereço informado, determine as máscaras e sub redes para
cada localidade demonstrada na fiigura abaixo:
Anotações e cálculos:
Com base no bloco de endereço informado, determine as máscaras e sub redes para
cada localidade demonstrada na fiigura abaixo:
Anotações e cálculos
Com base no bloco de endereço informado, determine as máscaras e sub redes para
cada localidade demonstrada na fiigura abaixo:
Anotações e cálculos
Com base no bloco de endereço informado, determine as máscaras e sub redes para
cada localidade demonstrada na fiigura abaixo:
Cálculos:
Engenharia: 58 computadores
Montagem: 32 computadores
Administração: 30 computadores
Gerência: 9 computadores
Diretoria: 4 computadores
1 – Calcule os endereços IP dos intervalos de rede para cada uma das sub-redes acima;
2 – Informe o endereço de gateway, endereço de rede e endereço de broadcast para cada sub-
rede, seguindo as melhores práticas;
3 – Para cada uma das sub-redes informe o intervalo de endereços válidos para os hosts,
excluindo o endereço de gateway.
Engenharia: 64 computadores
Montagem: 16 computadores
Administração: 8 computadores
1 – Calcule os endereços IP dos intervalos de rede para cada uma das sub-redes acima;
3 – Para cada uma das sub-redes informe o intervalo de endereços válidos para os
hosts, excluindo o endereço de gateway.
Engenharia: 41 computadores
Montagem: 27 computadores
Administração: 12 computadores
Gerência: 7 computadores
Diretoria: 8 computadores
1 – Calcule os endereços IP dos intervalos de rede para cada uma das sub-redes acima;
2 – Informe o endereço de gateway, endereço de rede e endereço de broadcast para cada sub-
rede, seguindo as melhores práticas;
3 – Para cada uma das sub-redes informe o intervalo de endereços válidos para os hosts,
excluindo o endereço de gateway.
Capítulo 3 – IPV6
O ESGOTAMENTO DO IPV4
Classe B: definia os 2 bits mais significativo como 10, utilizava os 14 bits seguintes para
identificar a rede, e os 16 bits restantes para identificar o host. Esses endereços
utilizavam a faixa de 128.1.0.0até 191.254.0.0;
Classe C: definia os 3 bits mais significativo como 110, utilizava os 21 bits seguintes
para identificar a rede, e os 8 bits restantes para identificar o host. Esses
endereços utilizavam a faixa de 192.0.1.0até 223.255.254.0;
Outro fator que colaborava com o desperdício de endereços, era o fato de que
dezenas de faixas classe A foram atribuídas integralmente a grandes instituições como
IBM, AT&T, Xerox, HP, Apple, MIT, Ford, Departamento de Defesa Americano,
entre muitas outras, disponibilizando para cada uma 16.777.216 milhões de
endereços. Além disso, 35 faixas de endereços classe A foram reservadas para usos
específicos como multicast, loopbacke uso futuro.
● DHCP
Diante desse cenário, a IETF (Internet Engineering Task Force) passa a discutir
estratégias para solucionar a questão do esgotamento dos endereços IP e o
Definido na RFC 4632 (tornou obsoleta a RFC 1519), o CIDR tem como idéia
básica o fim do uso de classes de endereços, permitindo a alocação de
blocos de tamanho apropriado a real necessidade de cada rede; e a agregação
de rotas, reduzindo o tamanho da tabela de roteamento.
O DHCP tem sido muito utilizado por parte dos ISPs por permitir a atribuição de
endereços IP temporários a seus clientes conectados. Desta forma, torna-se
desnecessário obter um endereço para cada cliente, devendo-se apenas
designar endereços dinamicamente, através de seu servidor
DHCP. Este servidor terá uma lista de endereços IP disponíveis, e toda vez que
um novo cliente se conectar à rede, lhe será designado um desses endereço de
forma arbitrária, e no momento que o cliente se desconecta, o endereço é
devolvido.
NAT
Vantagens:
Reduz a necessidade de endereços públicos;
Facilita a numeração interna das redes;
Oculta a topologia das redes;
Só permite a entrada de pacotes gerado em resposta a
um pedido da rede.
Desvantagens:
Quebra o modelo fim-a-fim da Internet;
Dificulta o funcionamento de uma série de aplicações;
Não é escalável;
Aumento do processamento no dispositivo tradutor;
Falsa sensação de segurança;
Impossibilidade de se rastrear o caminho do pacote;
Impossibilita a utilização de algumas técnicas de
segurança como IPSec.
Embora estas soluções tenham diminuído a demanda por IPs, elas não foram
suficientes para resolver os problemas decorrentes do crescimento da Internet. A
adoção dessas técnicas reduziu em apenas 14% a quantidade de blocos de endereços
solicitados à IANA e a curva de crescimento da Internet continuava apresentando um
aumento exponencial.
Essas medidas, na verdade, serviram para que houvesse mais tempo para se
desenvolver uma nova versão do IP, que fosse baseada nos princípios que fizeram o
sucesso do IPv4, porém, que fosse capaz de suprir as falhas apresentadas por ele.
mais. Adiar por mais tempo a implantação do IPv6 pode trazer diversos prejuízos para
o desenvolvimento de toda a Internet.
Como vimos, existe hoje uma demanda muito grande por mais endereços IP, e mesmo
que a Internet continue funcionando sem novos endereços, ela terá muita dificuldade
para crescer. A cada dia surgem novas redes, graças a expansão das empresas e ao
surgimento de novos negócios; iniciativas de inclusão digital tem trazido muitos novos
usuários para a Internet; e o crescimento das redes 3G, e a utilização da Internet
em dispositivos eletrônicos e eletrodomésticos são exemplos de novas aplicações
que colaboram com seu crescimento.
O cabeçalho IPv4 é composto por 12 campos fixos, podendo conter ou não opções,
fazendo com que seu tamanho possa variar entre 20 e60 Bytes. Estes campos são
destinados transmitir informações sobre:
a versão do protocolo;
o tamanho do cabeçalho e dos dados;
a fragmentação;
o tipo de dados;
o tempo de vida do pacote;
o protocolo da camada seguinte (TCP, UDP, ICMP);
a integridade dos dados;
a origem e o destino do pacote.
Entre essas mudanças, destaca-se a remoção de seis campos do cabeçalho IPv4, visto
que suas funções não são mais necessárias ou são implementadas pelos cabeçalhos de
extensão.
Enquanto alguns campos foram removidos, outros tiveram seus nomes modificados no
no novo cabeçalho, observe:
E por fim, alguns campos foram mantidos, como é o caso de Versão e os de endereço
de origem e destino.
Próximo Cabeçalho(8 bits) - Identifica cabeçalho que se segue ao cabeçalho IPv6. Este
campo foi renomeado (no IPv4 chamava-se Protocolo) refletindo a nova organização
dos pacotes IPv6, pois agora este campo não contém apenas valores referentes a
outros protocolos, mas também indica os valores dos cabeçalhos de extensão.
Diferente do IPv4, que inclui no cabeçalho base todas as informações opcionais, o IPv6
trata essas informações através de cabeçalhos de extensão. Estes cabeçalhos
localizam-se entre o cabeçalho base e o cabeçalho da camada imediatamente
acima, não havendo nem quantidade, nem tamanho fixo para eles. Caso existam
múltiplos cabeçalhos de extensão no mesmo pacote, eles serão adicionados em série
formando uma “cadeia de cabeçalhos”.
Primeiramente é importante destacar que, para evitar que os nós existentes ao longo
do caminho do pacote tenham que percorrer toda a cadeia de cabeçalhos de
extensão para conhecer quais informações deverão tratar, estes cabeçalhos devem
ser enviados respeitando um determinada ordem. Geralmente, os cabeçalhos
importantes para todos os nós envolvidos no roteamento devem ser colocados em
primeiro lugar, cabeçalhos importantes apenas para o destinatário final são colocados
no final da cadeia. A vantagem desta seqüência é que o nó pode parar de processar
os cabeçalhos assim que encontrar algum cabeçalho de extensão dedicado ao
destino final, tendo certeza de que nãohá mais cabeçalhos importantes a seguir.
1. Hop-by-Hop Options
2. Routing
3. Fragmentation
4. Authentication Header
5. Encapsulating Security Payload
6. Destination Options
Também é vale observar, que se um pacote for enviado para um endereço multicast,
os cabeçalhos de extensão serão examinados por todos os nós do grupo.
ENDEREÇAMENTO IPV6
problema da escassez dos endereços IPv4, motivando a a criação de uma nova geração
do protocolo IP.
O IPv6 possui um espaço para endereçamento de 128 bits, sendo possível obter
340.282.366.920.938.463.463.374.607.431.768.211.456 endereços (2128). Este valor
representa aproximadamente 79 octilhões (7,9x1028) de vezes a quantidade de
endereços IPv4 e representa, também, mais de 56 octilhões (5,6x1028) de endereços
por ser humano na Terra, considerando-se a população estimada em 6 bilhões de
habitante
ESTRUTURA DO ENDEREÇO
• Formato hexadecimal de 128 bits (0-9, A-F)
• Utiliza os campos de número hexadecimais de 16 bits
separados por dois pontos (:)
• Cada 4 dígitos hexadecimais equivalem a 16 bits.
• Consiste em 8 sextetos/quartetos que equivalem a 16 bits
por sexteto.
2001:0DB8:0001:5270:0127:00AB:CAFE:0E1F /64
2001:0000::/23 – IANA
2001:0200::/23 – APNIC (Região Ásia/Pacífico)
2001:0400::/23 – ARIN (Região da América do Norte)
2001:0600::/23 – RIPE (Europa, Oriente Médio e Ásia Central)
2001:0DB8:0001:5270:0127:00AB:CAFE:0E1F /64
2001:DB8:1:5270:127:AB:CAFE:E1F /64
• Endereço multicast
• Endereço anycast
Endereço de loopback
Page 117
Certificação CCNA – Trainning Education Services
Capítulo 4 – Switching
SWITCHING NO CCNA
Este modelo de rede ethernet centralizada no hub, trazia como vantagens algumas
melhorias no padrão elétrico e de conectividade. Se um host fosse desconectado
fisicamente da rede os outros não sofreriam impacto como ocorria no modelo em
barramento. Também pesava o fato de que o cabo de par trançado era mais leve e de
fácil instalação e manutenção.
Fica claro que neste modelo de comunicação, os hosts na maior parte do tempo
recebem quadros que devem descartar. Isto, além de gerar um movimento intenso na
rede para um volume bem menor de comunicação efetiva, também ampliava muito as
possibilidades de erros. Erros, principalmente associados ao que chamamos de colisão,
pois ao mesmo tempo em que o hub não conseguia dar encaminhamento fim a fim
para as mensagens, ele também possuía barramento único compartilhado por todas as
estações. Internamente, o hub era semelhante ao backbone do cabo coaxial. E o
protocolo elétrico original da rede ethernet (CSMA/CD) antecipava a possibilidade de
múltiplos hosts tentarem transmitir ao mesmo tempo, ou ainda que isso ocorresse de
fato entre 2 ou mais computadores. A colisão, que era o encontro de 2 ou mais sinais
no meio físico (dentro do hub), ocorria repetidas vezes no ambiente de rede. Era
dissipada pelos mecanismos de controle como estava previsto, porém a tolerância ao
aumento na quantidade de hosts compartilhando o meio físico (hub) era moderada. O
hub era chamado de domínio de colisão, e quando esse domínio crescia demais, os
Pense e responda:
Como um domínio de colisão era ampliado? Quais ações provocavam este aumento?
_____________________________________________________________________________
_____________________________________________________________________________
_____________________________________________________________________________
_____________________________________________________________________________
Figura 1
Figura 2
Na figura 1, temos um domínio de colisão ampliado entre 2 hubs. Neste caso, todos
computadores existentes nos 2 segmentos compartilham um único meio físico e as
colisões ocorrem com mais frequência, prejudicando muito o desempenho da rede.
Na figura 2, a presença da bridge entre os hubs trouxe uma melhoria considerável para
a rede. A bridge tinha a capacidade de “aprender” os endereços MAC associados a
cada uma de suas 2 portas. Dessa maneira, o tráfego ficava isolado a um dos lados
quando origem e destino estavam desse mesmo lado. Isto evitava que colisões fossem
expandidas entre os 2 segmentos físicos da rede. Na figura 2 passamos a ter 2
domínios de colisão ao invés de um único como representado na figura 1. Neste
tempo, as redes começavam a mudar em termos de colisão e apresentar um aspecto
semelhante ao que temos atualmente.
Com o aumento no tamanho das redes e proporcional diminuição nos custos de portas
dos switches, esses equipamentos foram aparecendo nas redes, trazendo vantagens
sobre as bridges:
E toda essa evolução nas aplicações dos computadores, acarretaram também um peso
maior ao tráfego de dados que atravessava as redes. De forma que a evolução natural
das tecnologias, exterminou por completo a rede compartilhada com uso de hubs. E o
novo tempo trouxe um ambiente de rede como o demonstrado abaixo, na mais
abaixo:
Neste modelo, totalmente escalável, pelo fato de que o switch central normalmente
possui capacidades ampliadas para receber novos grupos, pode-se fazer uso de
recursos existentes em cada equipamento (switch) para melhoria da rede como um
todo. Esses recursos, que também começaram a surgir no princípio das redes
comutadas, vem se expandindo e estão diretamente associados ao poder de
gerenciamento agregado aos ativos da rede.
Este poder de gerenciamento dos dispositivos de rede, podem e devem ser explorados
ao máximo, para que se consiga organizar as redes da forma mais otimizada possível.
Nas redes comutadas atualmente, são utilizadas muitos modelos de switches. Dos mais
variados fabricantes . Se procurarmos em relação a preços, encontraremos produtos
que vão de simples 20 dólares até milhares e milhares de dólares. Alguns concorrendo
em preço até mesmo com um bom imóvel hoje em dia.
Observe na imagem seguinte que existe a semelhança com uma pirâmide, onde os
usuários da rede estão na base e o núcleo da rede no topo.
Apesar disso, vale lembrar que pelo fato de estarmos tratando de equipamentos onde
está presente o IOS Cisco, a grande maioria dos comandos existe em todas as
plataformas.
Após esta fase, o IOS, sistema operacional (proprietário Cisco) que normalmente se
encontra armazenado na memória flash é acionado, descompactado e carregado para
a memória RAM.
O prompt inicial, mostra o símbolo “>” a frente do nome padrão do equipamento. Este
símbolo identifica o modo inicial de utilização, chamado de modo usuário. No modo
usuário, não existem direitos administrativos para realização de configurações e nem
se pode visualizar aspecto estratégicos da configuração. As tarefas possíveis no modo
usuário são mais ligadas a um trabalho de help desk nível básico, onde se pode coletar
poucas e básicas informações.
Switch> enable
Switch> enable
Switch# configure terminal
Switch#(config)hostname Sw_1 Nome host ao equipamento
Sw_1#(config)
Switch> enable
Switch# configure terminal
Switch#(config) line console 0
Switch#(config) password @b&lh@35
Switch#(config) login
Os comandos acima definem a senha @b&lh@35 para ser utilizado nos acessos via
porta console ao equipamento.
Switch> enable
Switch# configure terminal
Switch#(config) line vty 0 15
Switch#(config) password t0rr&27
Switch#(config) login
Nos comandos anteriores são configurados 16 terminais para acesso via telnet ao
switch, utilizando a senha t0rr&27. O acesso telnet é uma da principais e mais
comumente utilizadas formas de acesso remoto a um equipamento via rede. O
gerenciamento remoto, dos dispositivos normalmente é feito desta forma. Para que
este acesso seja possível, além das configurações anteriores, também é necessário
atribuir um endereço ip ao switch.
Switch> enable
Switch# configure terminal
Switch#(config)interface vlan 1
Switch#(config-if) ip address 192.168.1.50 255.255.255.0
Switch#(config-if) no shutdown
E o acesso remoto para gerenciamento, poderá ser feito tanto por telnet como
também por interface gráfica. Para este último ítem pode ser necessário o acréscimo
de um comando que habilite o acesso por browser:
Dependendo da versão do IOS este comando pode até mesmo já estar habilitado
padronizadamente, apesar de ser considerado por muitos uma falha de segurança por
permitir um modelo de acesso ao dispositivo sem que isso tenha sido configurado
previamente por algum responsável pelo equipamento.
Tudo o que foi feito no switch até este momento, está em operação na memória RAM.
Memória volátil, que perderá todo este conteúdo se houver um desligamento ou
queda de energia no dispositivo. Precisamos “salvar” estas configurações na memória
fixa. Memória NVRAM, onde o conteúdo ficará gravado mesmo após algum
desligamento. O procedimento para isto é o seguinte:
Running-config - Nome pelo qual nos referimos à memória RAM no Cisco IOS.
Startup-config - Nome pelo qual nos referimos à memória NVRAM no Cisco IOS.
Os recursos de help existentes no IOS Cisco são contextualizados de acordo com cada
prompt onde estejamos trabalhando. Para se acionar o help basta digitar o ?. E
dependendo do prompt onde estivermos, receberemos informações sempre no
contexto daquele ambiente. As informações normalmente consistem do nome do
comando ou parâmetro do comando e logo à frente, um breve detalhamento da
funcionalidade. Vejamos alguns exemplos...
No modo usuário:
Switch#con?
configure connect
Switch#conf?
configure
Neste caso, se colocarmos um espaço entre o pedaço da palavra e o ?, teremos os
parâmetros subordinados ao comando escolhido:
Switch#conf ?
<cr>
Neste caso, como subcomando de “configure” temos “terminal”. E na frente da
palavra a descrição rápida da funcionalidade. A presença do “<cr>” logo abaixo, indica
que após a digitação da palavra “configure” poderíamos pressionar um “enter” que o
comando já entraria em operação. Esta operação poderia até mesmo ser a solicitação
de mais parâmetros.
CONFIGURAÇÕES DE INTERFACES
Switch(config)#interface gi1/1
Switch(config-if)#speed ?
10 Force 10 Mbps operation
100 Force 100 Mbps operation
1000 Force 1000 Mbps operation
auto Enable AUTO speed configuration
No exemplo acima, uma interface GigabitEthernet pode ser configurada com uma das
velocidades específicas ao invés de “auto” como é o seu padrão. Vale lembrar que para
um bom funcionamento desta alteração pode ser importante sincronizar a mudança
com o host também. Pode ser necessário configurar da mesma forma a placa de rede
do host para que não ocorram incompatibilidades. E uma boa dose de organização,
para que todas as novas conexões de host também passem por este ajuste.
Switch(config)#interface gi1/1
Switch(config-if)#duplex ?
auto Enable AUTO duplex configuration
full Force full duplex operation
half Force half-duplex operation
Você saberia apontar as diferenças entre o formato full-duplex e half-duplex? Escreva
abaixo:
Full-duplex:
_____________________________________________________________________________
_____________________________________________________________________________
Half-duplex:
_____________________________________________________________________________
_____________________________________________________________________________
Formato ACCESS, ou modo de acesso: Quando a interface está configurada para atuar
dentro de uma vlan específica. Normalmente para interfaces de conexão com hosts de
qualquer tipo.
Além desta preocupação, devemos ainda desabilitar todas as portas que não estiverem
sendo utilizadas e voltar a ativá-las apenas quando for necessário o seu uso:
Isto evita que acessos não autorizados sejam início para invasões e problemas de
segurança com a rede.
Seguindo pelo caminho das configurações básicas de interfaces do switch, temos ainda
algumas configurações importantes:
Note que cada um dos endereços MAC acima foi aprendido dinamicamente assim que
cada host gerou algum tipo de tráfego na interface onde está conectado. Este tipo de
“aprendizado” na tabela, tem um prazo de validade. O endereço permanece vinculado
à interface por exatos 300 segundos, caso não haja tráfego gerado pelo host. São
apenas 5 minutos de inatividade que podem manter um endereço vinculado a uma
interface do switch. No caso de servidores, impressoras e outros dispositivos que
necessitem fornecer algum tipo de serviço à rede, isso pode não ser adequado. Perdas
de conexão ou atrasos podem ocorrer nas respostas. É possível também vincular um
endereço MAC a uma interface de forma estática, definitiva. Isto pode ser feito apenas
por configuração direta, vinculando o MAC de forma estatica à interface, ou ainda
associando isso ao recurso de segurança denominado PORT-SECURITY. Neste caso,
além de vincular o endereço de forma fixa à interface, algumas ações podem ser
tomadas, caso exista uma tentativa de conectar outro host àquela interface. Vejamos
um exemplo...
Switch(config)#interface fa0/5
Switch(config-if)#shutdown
Switch(config-if)#switchport mode access
Switch(config-if)#switchport port-security
Switch(config-if)#switchport port-security maximum 1
Switch(config-if)#switchport port-security mac-address sticky
switchport port-security violation shutdown: Define a ação a ser tomada, caso ocorra
uma violação da política definida na porta. Como violação entenda-se apenas o fato de
ocorrer uma troca de hosts conectados a interface configurada do switch. Neste caso,
a porta será desabilitada, caso um outro host seja conectado a ela.
_____________________________________________________________________________
_____________________________________________________________________________
_____________________________________________________________________________
_____________________________________________________________________________
Note que o host agora tem seu endereço MAC vinculado de forma estática à interface
fa0/5. E se retirarmos a conexão do host_B e tentarmos conectar um outro, a porta
será desabilitada:
Para que a interface volte a funcionar corretamente, será necessário devolver o host
original vinculado pelo endereço MAC e após acessar a interface, devemos digitar o
comando shutdown e logo em seguida o no shutdown. Desta forma a situação de
“error-disabled” acionada pelo PORT-SECURITY será corrigida.
Note que o host_intruso não aparece com um endereço MAC aprendido pela interface.
De forma que seu tráfego não entra na rede devido à restrição de segurança. Por outro
lado, a interface fa0/5 do switch não entra em shutdown, não prejudicando o
funcionamento dos outros hosts autorizados a funcionarem na rede.
Switch(config)#interface fa0/5
Para efeitos de documentação pode-se também colocar banners de aviso que serão
visualizados por todos os acessos ao switch:
Switch(config)#banner motd #
Enter TEXT message. End with the character '#'.
Após o comando, coloca-se um caracter separador que poderia ser qualquer um. No
exemplo foi escolhido o “#” por ser um elemento que não costuma ser utilizado em
textos. Um enter após a colocação do caracter separador, traz a mensagem mostrada
logo abaixo da linha de comando e o cursor fica posicionado num espaço em branco
onde se pode colocar a mensagem. Após o término da digitação, encerra-se com o
caracter separador. A visualização da mensagem será feita por qualquer acesso, via
console, telnet, ssh, etc.
VLANS
O CCNA tem como objetivo preparar o profissional para isso. Todo o processo de uso
das vlans é cobrado na certificação.
Neste modelo de redes, existe uma divisão física muito forte entre os 3 segmentos.
Este modelo teve seu tempo em uma época onde cada grupo de rede era realmente
isolado e apenas precisava atravessar o backbone da rede em poucos momentos. Não
existia uma grande necessidade de comunicação entre os grupos. Praticamente tudo o
que era necessário a cada uma das salas representadas no desenho, poderia ser obtido
de alguma pasta do servidor local. Desta forma, o roteador tinha acesso aos 3 grupos
e cada um poderia chegar ao servidor principal. Eventuais necessidades de
comunicação entre os hosts das salas precisavam necessáriamente atravessar o
backbone da rede, passando pelo roteador. Este modelo de rede, em uma
determinada ocasião chegou a ser qualificado como 80/20. O significado disso era que
80% do tráfego de cada host era destinado a buscar algo em seu próprio grupo. E
apenas em 20% dos acessos, a busca era por algo que estivesse no backbone da rede.
A dinâmica das redes sofreu grandes mudanças com o avanço das aplicações e a
convergência dos recursos para as redes. De tal forma que o antigo 80/20 chegou
mesmo a se transformar num 20/80, invertendo completamente as necessidades de
acesso. Nas redes modernas a maior parte do tráfego é de backbone. E surgiu também
a necessidade de uma maior flexibilização dos hosts em rede. O conceito de
mobilidade, por exemplo, trouxe a figura do funcionário que apesar de estar ligado a
um determinado setor da empresa, se desloca constantemente pelos diversos
ambientes. Seu host agora pode ser um pequeno computador portátil ou algum outro
dispositivo que o conecta à rede. A mobilidade não existiria nos antigos conceitos de
rede física.
Um ambiente onde antes havia apenas uma divisão física, por andar, passa a ser
dividido por departamento com a chegada das vlans. E cada departamento pode
abranger hosts de andares distintos.
Uma visão técnica das divisões entre vlans acionadas pelos switches. Os quadros são
marcados com o número correspondente a cada vlan e encaminhados apenas à portas
pertencentes relacionadas a cada vlan. Os hosts pertencentes a cada vlan podem estar
em locais físicos distintos na empresa. Podem até mesmo estar distribuídos em locais
físicos distantes numa situação denominada “Lan to Lan” onde uma rede local pode se
estender por duas ou mais localidades.
IEEE 802.1Q – Padrão aberto mais popular nos ambientes em geral, pois permite a
distribuição das vlans através de switches de fabricantes diferentes. Nesta tecnologia,
a marcação do quadro ocorre através do acréscimo de uma TAG de 4 bytes adicionada
ao frame ethernet logo após o campo source address. Para isso, ocorre uma supressão
e recálculo do campo FCS que também ocupa 4 bytes. Em determinados momentos o
frame Ethernet pode ter 1522 bytes em função da TAG de vlan.
Um modelo de link entre 2 interfaces, onde o tráfego de todas as vlans, com seus
respectivos quadros marcados pode atravessar o mesmo canal para ter a acesso ao
switches em ambas as pontas. A figura abaixo ilustra as diferenças entre vlans
representadas por figuras geométricas e cores distintas. Observe que no link do meio
todo o tráfego compartilha o mesmo canal, representando o link de trunk. Já os links
posteriores representam canais exclusivos de cada vlan. Neste caso, dizemos que as
portas estão em modo de acesso em suas respectivas vlans.
CONFIGURAÇÕES DE VLANS:
Vamos agora observar como são realizadas as configurações das vlans e do link de
trunk. Procure praticar bastante os comandos que serão demonstrados aqui para que
adquira a prática necessária ao ambiente de trabalho com estes assuntos.
Você receberá exercícios onde poderá realizar esta configuração, mas também pode e
deve desenvolver suas próprias topologias. Um modelo interessante para auto
desenvolvimento, é você procurar entender como está distribuída a rede do seu local
de trabalho e tentar reproduzi-la (ou partes, caso seja muito extensa) na ferramenta
de laboratório.
Uma boa prática para começar a se desenvolver nestas configurações é ter o hábito de
desenhar o que se pretende construir e posteriormente documentar tudo o que foi
feito, seja em planilhas, ou arquivos de texto contendo as configurações dos
equipamentos, etc.
A documentação lhe permitirá expandir o projeto quando for necessário, com mais
facilidade e também resolver eventuais problemas que possam ocorrer.
SW_1:
SW_1(config)#vlan 10
SW_1(config-vlan)#name ADM
SW_1(config-vlan)#vlan 20
SW_1(config-vlan)#name RH
SW_1(config-vlan)#vlan 30
SW_1(config-vlan)#name Financeiro
SW_1(config)#interface gi1/1
SW_1(config-if)#switchport mode trunk
SW_2:
SW_2(config)#vlan 10
SW_2(config-vlan)#name ADM
SW_2(config-vlan)#vlan 20
SW_2(config-vlan)#name RH
SW_2(config-vlan)#vlan 30
SW_2(config-vlan)#name Financeiro
SW_2(config)#interface gi1/1
SW_2(config-if)#switchport mode trunk
No comando show interfaces trunk acima, repare que podemos visualizar o tipo de
marcação de quadros utilizada nesse trunk.
Mais a direita existe a informação sobre a vlan nativa em funcionamento neste link de
trunk. Mas o que é a vlan nativa?
Por padrão, a vlan nativa de um switch corresponde a vlan 1, a mesma utilizada para o
gerenciamento. Mas tudo isso pode ser modificado se desejarmos ou se for
necessário.
A vlan nativa tem a função principal de transportar quadros não marcados por vlan
para dentro de uma rede que possui vlans. Como exemplo, podemos citar uma rede
toda organizada por switches com vlans e trunks, onde exista a necessidade de
conectarmos um hub antigo ou um access point ou ainda qualquer outro dispositivo
que não realize marcação de quadros, ou em outras palavras não crie e não utilize
vlans.
E todo o tráfego que atravessar uma rede, sem possuir nenhuma marcação de vlan (ou
tagg) ao passar pelo link de trunk será direcionado para a vlan nativa que estiver
configurada neste trunk. É importante que a mesma vlan nativa esteja definida nas 2
pontas do trunk, caso contrário mensagens de erro serão disparadas pelo switches e o
tráfego não será encaminhado corretamente.
ETHERCHANNEL
Consiste da integração de 2 ou mais portas físicas do switch, criando uma porta lógica
que reúne toda a largura de banda somada dos links físicos.
Neste caso, a agregação dos links traria uma solução muito boa.
• EtherChannel permite que a Spannig Tree trate os dois links físicos como uma
porta lógica, fazendo com que ambas as portas possam operar em modo total
de forward
DETALHES DE IMPLEMENTAÇÃO:
• Podemos agregar múltiplas portas físicas Ethernet usando o comando chamado
channel-group. É criada uma interface única, chamada de port-channel, ou
canal de portas.
• Nos switches Cisco Catalyst podemos agrupar até oito portas 10/100 ao mesmo
tempo, criando um canal com largura de banda de 800 Mbps (o prospecto pode
exibir 1600 Mbps, uma vez que o pacote tem a operação full duplex). Também
é possível trabalhar com portas GigabitEthernet, apenas observando a
documentação de cada equipamento para trabalhar com as especificidades.
• O balanceamento padrão de carga pode ser alterado para ter como base:
• IP de destino
• IP de origem
• MAC de destino
• - Auto-desirable;
- Desirable-desirable;
- On-on.
- Active-Passive;
- Active-Active;
- On-on.
• O custo padrão para um link de 100 Mbps é 19, e se é criado um canal que
tenha apenas dois links de 100 Mbps o custo da spanning-tree será de 9.
• Um canal com seis ou mais portas físicas de 100 Mbps terão um custo STP de 5.
• Os custos STP para os canais de porta variam de acordo com quantas portas
são atribuídas ao pacote, e não quantos estão ativos no pacote.
EXEMPLO DE CONFIGURAÇÃO:
Configurações a seguir...
Todos esses comandos são úteis para descobrir e corrigir defeitos de operação do
EtherChannel. Ao solucionar problemas,sempre comece verificando se as portas físicas
possuem os mesmos parâmetros operacionais. Faça isso em ambas as extremidades
do EtherChannel.
Exercitar este recurso é a melhor de saber quando utilizá-lo e fazer isso de forma
eficiente.
A necessidade de redundância
Topologias redundantes são muito importantes em redes, pois:
Estes problemas, se não contornados de alguma forma, podem parar uma rede em
curto espaço de tempo.
Ao mesmo tempo que redes comutadas com switches podem fornecer benefícios
como redução do tamanho dos domínios de colisão; microssegmentação; operação
full-duplex e com tudo isso otimização no desempenho, a redundância, se não
gerenciada, pode provocar alguns efeitos colaterais inexistentes na época dos antigos
hubs.
A redundância, por sua vez, é necessária para proteger a rede contra perda de
conectividade relacionada a falha de dispositivos individuais.
Isso pode ser entendido como uma hora de inatividade, em média, a cada 4.000 dias,
ou aproximadamente 5,25 minutos de inatividade por ano.
Seu principal efeito colateral, são os loops de comutação nas topologias físicas, que
podem parar o funcionamento da rede. Mas em que circunstância os loops podem ser
formados? Observe a figura abaixo:
O quadro ethernet não possui em sua estrutura o TTL (Time to live) existente no
cabeçalho ip por exemplo. Este campo age como um contador que vai sendo
decrementado a cada passagem do pacote ip pelos dispositivos. Ao final ele
simplesmente deixa de existir na rede, evitando loops. Por não ter este campo em sua
estrutura, o quadro ethernet ao ser copiado múltiplas vezes, permanece circulando
pela rede ininterruptamente, contribuindo para a formação de loops de comutação.
O servidor principal, está fornecendo importantes aplicações para toda a rede. Numa
topologia redundante e funcional, a queda de qualquer um dos dispositivos não deve
interromper o acesso a ele. E a mudança para o novo caminho precisa ser rápida sob
pena de prejuízo ao trabalho com as aplicações.
Se o Host X enviar um broadcast, como uma solicitação ARP por exemplo, para o
endereço mac do roteador, o Switch A encaminhará o broadcast por todas as portas.
Para que os switches não precisem realizar trocas de tabelas CAM o tempo todo entre
si, visto que isso geraria boa parte dos problemas descritos anteriormente, existem
alguns processos semelhantes a eleições que ocorrem nos equipamentos.
Dessa forma, se este valor não for modificado, haverá uma igualdade entre todos os
equipamentos Cisco. Esta igualdade poderá ser desfeita a partir da comparação do
endereço MAC que será diferente entre cada equipamento.
O switch que apresentar o menor Bridge ID será eleito como root bridge. No caso de
empate do valor fixo, prevalecerá o menor endereço MAC.
Vale lembrar que aqui está descrito o processo automático de eleição. Mas, caso se
deseje, também é possível definir através de comandos qual dos switches será a root
bridge:
Note que o valor configurado é um múltiplo de 4096. Isto é uma regra para alterar as
prioridades. Mas, caso alguém tente alterar e digite qualquer valor, receberá uma boa
ajuda:
Na figura abaixo, observe que todos os switches possuem o mesmo valor fixo de
bridge id. Dessa forma, o Switch A, que possui o menor endereço MAC entre todos os
presentes na topologia será eleito a root bridge da topologia.
Cada switch (exceto o root bridge) fará uma eleição interna para determinar qual será
o melhor caminho para chegar até a root bridge. Isto será necessário pois a root bridge
detém consigo as informações de endereços MAC mais confiáveis para o
encaminhamento dos quadros. Cada switch conhece a root bridge pois essa
informação está “colada” nas BPDU´s que circulam na rede.
Informação:
DP – Designated Port
RP – Root Port
• Valores considerados:
o 1º - Menor custo de caminho (vide tabela abaixo)
o 2º - Menor custo de porta
10 mb 100
100 mb 19
1000 mb (1 gb) 4
Interface Custo
Fa0/1 128.1
Fa0/2 128.2
Fa0/3 128.3
Fa0/X 128.X
Caminho
____________________________
____________________________
____________________________
Caminho
____________________________
____________________________
____________________________
Root Ports são os melhores caminhos para a root bridge e designated ports são
possuem a funcionalidade principal de transmitir BPDU´s, seja para as root port ou
para as portas bloqueadas. Observe que na topologia todas as portas do switch eleito
como root bridge estão como designated ports. O root bridge não possui portas
bloqueadas. E também temos uma porta designated para cada segmento da rede,
normalmente em posição oposta a uma porta bloqueada no switch vizinho.
Esta talvez seja uma das parte principais do mecanismo Spanning Tree. É através do
bloqueio de algumas interfaces de caminhos redundantes, que se pode evitar os loops
de comutação causados pelas tempestades de broadcast e cópias contínuas dos
quadros, conforme explicado no início deste assunto. Este bloqueio evita a passagem
do tráfego comum dos dados de usuários, mas permite a passagem das BPDU´s que
continuarão a transportar informações da topologia lógica através da rede.
Um aspecto que influencia diretamente a escolha da root port por um switch, é o fato
de ter alguma interface diretamente conectada ao root bridge. Observe a figura abaixo
novamente:
Note que o switch D possui um caminho para a root bridge através de sua interface
com o switch B com um custo de 23 (4+19). Em termos de custo de caminho, este é
melhor do que o que foi escolhido, onde existe um link de 10 mb, determinando um
custo de 100.
Então por quê, neste caso, o caminho escolhido para a root bridge não foi o de menor
custo?
Isto ocorreu pelo fato de que existir um link direto para a root bridge. Todo link direto
para a root bridge é naturalmente escolhido como o root port.
Agora, pense um pouco e responda. Qual a lógica aparente por trás disso?
_____________________________________________________________________________
_____________________________________________________________________________
_____________________________________________________________________________
_____________________________________________________________________________
Até este ponto, tratamos da situação da escolha da root port baseada no custo do
caminho até a root bridge.
Na imagem acima, a interface fa0/7 do Switch F havia sido escolhida como root bridge
em função de seu menor custo em relação aos outros 2 caminhos. Porém ocorreu um
problema na rede que interrompeu fisicamente este link entre os switchs E e F.
Isto ocorre porque existe um empate no custo dos caminhos partindo das 2 portas. E o
segundo critério de análise é o custo da porta especificamente. Vamos relembrar os
custos de portas:
Interface Custo
Fa0/1 128.1
Fa0/2 128.2
Fa0/3 128.3
Fa0/X 128.X
Perceba que existe um valor de 128 associado a cada uma das portas. Dessa forma, a
de menor custo será sempre a interface de menor número. Mas, se quisermos
podemos modificar esse padrão de funcionamento para forçar uma porta a ser
escolhida como root. O comando para isso é o seguinte:
Switch_F(config)#int fa0/5
Repare também que a modificação que fizemos no custo da porta fa0/5 foi
relacionada apenas à instância de Spanning Tree relacionada à Vlan 1. E o normal é
sempre configurarmos aspectos do Spanning Tree relacionados a cada uma das vlans.
É preciso ter a noção de que devido a isso, o fluxo de tráfego na topologia pode ser
diferente para cada vlan existente. Como foi dito no princípio deste assunto, tratam-
se de topologias lógicas montadas sobre a estrutura física existente.
Tão logo a interface fa0/7 retorne ao seu funcionamento, uma nova eleição será feita e
ela voltará a ocupar o lugar de root port, pelo fato de possuir o caminho de menor
custo.
EXERCÍCIO SPANNING-TREE
Após todo o processo de convergência do Spanning Tree ter sido concluído vamos
utilizar um exercício onde será possível observar algumas práticas relacionadas ao
protocolo em questão.
Podemos perceber que este switch não corresponde à root bridge da topologia.
Observe que as primeiras informações trazem dados sobre a root bridge e o bloco mais
abaixo sobre o switch em que estamos, chamado de “bridge id”. Os endereços MAC de
ambos são diferentes. Um outro fato a se destacar também, é que na root bridge
todas as portas são designadas, o que não acontece neste equipamento que estamos
visualizando.
Você pode ainda visualizar o status das portas envolvidas no processo spanning-tree e
até identificar qual está bloqueada.
Se continuarmos nossa pesquisa em busca da root bridge, passaremos por diversos (ou
talvez todos) equipamentos.
Perceba que este switch da camada de distribuição indica o mesmo endereço MAC
para a root bridge desta topologia que já apareceu na saída do switch anterior que
visualizamos. E também, observe o fato de a porta fa0/5 deste equipamento ser a root
port. Isto projeta bem onde pode estar a root bridge procurada. Se olharmos a
topologia, veremos que esta interface aponta para um equipamento da camada de
acesso, posicionado praticamente no fim da topologia. Vale a pena dar uma olhada
nele:
Agora, temos fortes indícios para desconfiar que nossa busca terminou...E eles estão
todos grifados na saída do comando acima.
É claro que se tivermos uma documentação onde esteja registrado o endereço MAC de
cada switch, após o primeiro comando show spanning-tree emitido poderíamos ir
direto ao root bridge da rede.
Passo 2
Ter como root bridge um dos switches posicionados na camada de acesso, pode não
ser uma boa idéia.
_____________________________________________________________________________
_____________________________________________________________________________
_____________________________________________________________________________
_____________________________________________________________________________
De qualquer forma, neste segundo passo, vamos forçar a troca da root bridge para um
switch da camada de CORE.
O comando acima muda a prioridade deste switch do valor original de 32768 para
4096. Este é o principal valor envolvido na escolha da root bridge pelos switches. Logo
que este comando é executado, as BPDU´s que partem deste switch já informam aos
outros seu novo valor de prioridade. E em pouco tempo todos o reconhecem como a
nova root bridge da topologia, veja:
Passo 3
Uma boa prática para completar a configuração básica, seria configurar o 2º switch da
camada de core para ser uma root bridge de backup. Para isto basta definir para ele
uma prioridade menor do que o restante da rede, porém maior do que a do switch C1
que agora está como root bridge.
E o resultado:
O maior trabalho com relação a este protocolo não são de fato as configurações a
serem realizadas, mas bem mais as decisões a serem tomadas em relação aos root
bridges e root ports. Principalmente em ambientes de muitas vlans onde cada
instância de STP pode direcionar o tráfego da vlan para um caminho diferente das
outras.
CAPÍTULO 5 – ROTEAMENTO
ROTEAMENTO
O roteamento é o processo utilizado nas redes para encaminhar informações entre
computadores e redes distintos. Tendo como referencial o endereçamento hierárquico
(endereçamento lógico, ip) roteadores, servidores, switches L3 criam tabelas de
roteamento e por estas informações enviam os dados por suas interfaces.
A hierarquia existente nos endereços com suas máscaras, define redes e hosts
pertencentes a elas. O tráfego das informações entre estes grupos criados é conhecido
como roteamento. Ele envolve a presença de diversos processos, descritos a seguir.
O roteamento IP não garante uma entrega confiável nem estabelece uma conexão
antes da transmissão dos dados. Esta comunicação sem conexão e não confiável é
rápida e flexível, mas as camadas superiores precisam fornecer mecanismos para
garantir a entrega dos dados, se necessário.
O ROTEADOR
A figura central do processo de roteamento – O ROTEADOR
Perceba que no momento atual, os roteadores oferecem bem mais serviços para uma
rede do que o faziam há poucos anos atrás. Eles já invadiram o espaço das aplicações e
também dos servidores em termos de fornecimento de serviços.
• CPU
• RAM
• ROM
• Sistema operacional
Um roteador conecta várias redes. Isso significa que ele tem várias interfaces, cada
uma pertencente a uma rede IP diferente. Quando um roteador recebe um pacote IP
em uma interface, ele determina que interface usar para encaminhar o pacote para
seu destino. A interface que o roteador usa para encaminhar o pacote pode ser a rede
do destino final do pacote (a rede com o endereço IP de destino desse pacote) ou pode
ser uma rede conectada a outro roteador usado para alcançar a rede de destino.
Cada rede a qual um roteador se conecta costuma exigir uma interface separada. Essas
interfaces são usadas para conectar uma combinação de redes locais (LANs, Local Area
Networks) e redes remotas (WAN, Wide Area Networks). As redes locais costumam ser
redes Ethernet que contêm dispositivos como PCs, impressoras e servidores. As WANs
são usadas para conectar redes em uma área geográfica extensa. Por exemplo, uma
conexão WAN costuma ser usada para conectar uma rede local à rede do Provedor de
Internet (ISP, Internet Service Provider). Também é comum a utilização de redes WAN
para extensão geográfica de redes locais. São as chamadas redes lan-to-lan, bastante
utilizadas atualmente na interligação de sites das empresas.
O roteador usa sua tabela de roteamento para determinar o melhor caminho para
encaminhar o pacote. Quando o roteador recebe um pacote, ele examina seu
endereço IP de destino e procura a melhor correspondência com uma linha da tabela
de roteamento. A tabela de roteamento também inclui a interface a ser usada para
encaminhar o pacote. Quando uma correspondência é localizada, o roteador
encapsula o pacote IP no quadro de enlace da interface de saída, e o pacote é
encaminhado para seu destino.Um detalhe importante, é que ao examinar o pacote
recebido o roteador extrai dele o endereço da rede de destino. No primeiro momento,
o endereço do host específico não é importante. Você se lembra o nome do processo
que é utilizado para que ele identifica num dado endereço, qual a rede ao qual
pertence?
RAM
A RAM armazena as instruções e os dados que precisam ser executados pela CPU. A
RAM é usada para armazenar estes componentes:
RAM é uma memória volátil e perde seu conteúdo quando o roteador é desligado ou
reiniciado.
ROM
ROM é uma forma de armazenamento permanente. Os dispositivos Cisco usam a ROM
para armazenar:
As instruções de bootstrap
Software de diagnóstico básico
Versão redimensionada do IOS
A ROM usa firmware, que é o software incorporado ao circuito integrado. O firmware
é um tipo de software que normalmente não precisa ser modificado ou atualizado,
Memória flash
Flash é uma memória de computador não volátil que armazena as informações
eletricamente e sempre que necessário seu conteúdo pode ser apagado e regravado,
tal qual o Hard disk de um computador. A memória flash é usada como
armazenamento permanente para o sistema operacional, o Cisco IOS. Na maioria dos
modelos de roteadores Cisco, o IOS é armazenado permanentemente na flash e
copiado para a RAM durante o processo de inicialização, quando é executado pela
CPU. Físicamente, a memória flash consiste de placas SIMMs ou PCMCIA, que podem
ser ampliadas por upgrade, aumentando as capacidades do roteador.
A memória flash não perde seu conteúdo quando o roteador é desligado ou reiniciado.
NVRAM
A RAM Não Volátil (NVRAM, Nonvolatile RAM) não perde suas informações quando a
energia é desligada. Isso é o oposto ao que acontece na maioria das formas comuns de
RAM, como DRAM, que exige energia ininterrupta para manter suas informações. A
NVRAM é usada pelo Cisco IOS como armazenamento permanente para o arquivo de
configuração de inicialização (startup-config). Todas as alterações feitas na
Para salvar essas alterações caso o roteador seja reiniciado ou desligado, o running-
config deve ser copiado para a NVRAM, onde é armazenada como o arquivo startup-
config. A NVRAM manterá seu conteúdo, mesmo quando o roteador for recarregado
ou desligado.
ROM, RAM, NVRAM e memória flash são abordadas na seção a seguir, que apresenta o
IOS e o processo de inicialização. Elas também são abordadas mais detalhadamente
em um capítulo posterior referente ao gerenciamento do IOS.
TABELA DE ROTEAMENTO
Conforme já apresentado anteriormente, a principal função de um roteador é
encaminhar um pacote para sua rede de destino, que está representada no endereço
IP de destino do pacote. Para isso, um roteador precisa pesquisar as informações de
Repare que a tabela acima mostra que o R_central possui 3 redes diretamente
conectadas, em cada uma de suas interfaces GigabitEthernet. Temos a representação
de cada rede e também do endereço de host que representa a conexão desta
interface. Esta é uma particularidade do IOS a partir da versão 15.
Uma rede remota é uma rede que não está conectada diretamente ao roteador. Em
outras palavras, ela só pode ser alcançada enviando-se o pacote para outro roteador.
Pense um pouco e responda: Como podemos acrescentar uma rede 192.168.4.0 /24 à tabela
de roteamento do roteador R_central? Ela deve aparecer como rede diretamente conectada,
igual às outras que já estão lá.
_____________________________________________________________________________
_____________________________________________________________________________
_____________________________________________________________________________
_____________________________________________________________________________
_____________________________________________________________________________
_____________________________________________________________________________
_____________________________________________________________________________
TIPOS DE ROTEAMENTO
Como processos de roteamento, temos 3 formas em destaque no conteúdo do CCNA:
Padrão – Este formato indica basicamente ao roteador qual caminho deve seguir ao não
encontrar o destino para um determinada rede em sua tabela de roteamento.
ROTEAMENTO ESTÁTICO
Uma rota estática inclui o endereço de rede e a máscara de sub-rede da rede remota,
além do endereço IP do roteador do próximo salto ou o nome da interface de saída. As
rotas estáticas são denotadas com o código S na tabela de roteamento como mostrado
na próxima figura.
Para compor este desenho, converse com outros colegas para que a junção das idéias
posso facilitar o projeto.
• Vantagens
o Sem uso de CPU e memória do roteador
o Flexibilidade aos ambientes mistos (vário tipos de roteamento)
o Contingência aos protocolos dinâmicos
o Escalabilidade
• Desvantagens
o Maior trabalho de configuração
o Sem atualização automática (depende de gerenciamento do
administrador da rede)
Router A:
Router B:
Router C:
R1 192.168.10.0 /24
R2 192.168.20.0/24
R3 192.168.30.0/24
R4 192.168.40.0/24
R5 192.168.50.0/24
Router_A
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
Router_B
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
Router_C
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
Além das rotas de próximo salto e as diretamente conectadas, temos ainda as rotas
sumarizadas e as rotas flutuantes ou de contingência.
Rota flutuante
Imagine que o host_B precisa ter acesso aos recursos existentes na rede do Router_A.
E para isto, por se tratar de um ambiente pequeno, podemos configurar todo o
ambiente com rotas estáticas.
O caminho da rede B para a rede A está funcionando com uma rota estática passando
pelo roteador C, assim:
Como regra, podemos considerar que existe um 2o caminho para que o host B chegue
aos recursos da rede A. Apenas não podemos configurar ambos os caminhos com o
mesmo nível de grandeza ou preferência de roteamento. Na verdade, chamamos de
distância administrativa, o valor naturalmente associado a cada processo de
roteamento e que determina uma ordem de escolha entre estes processos. Para isto,
existe uma tabela com valores de 0 a 255 onde os processos de roteamento estão
listados cada qual com seu valor.
Abaixo temos um resumo desta tabela, constando os valores mais relevantes para este
curso.
Veja como :
Note que o caminho do próximo salto, faz referência à outra rede serial que temos
como alternativa. E o número 10 no final da rota mostra uma distância administrativa
maior que deixaria esta rota como backup da anterior. Esta segunda rota ficaria
contida apenas na configuração. Na tabel de roteamento estaria a rota principal. No
entanto, na ocorrência de qualquer problema em relação a rota principal, tal como
indisponibilidade da interface, a rota de backup permitiria a continuidade do tráfego.
Rota sumarizada
ROTEAMENTO DINÂMICO
As redes remotas também podem ser adicionadas à tabela de roteamento, usando um
protocolo de roteamento dinâmico, que a princípio pode ser entendido como um
algoritmo matemático complexo destinado cálculos de rotas com base em
determinadas métricas.
• Detecção de rede
• Atualização e manutenção das tabelas de roteamento
Detecção automática de rede
Protocolos de roteamento IP
Existem vários protocolos de roteamento dinâmico para IP. Aqui estão alguns dos mais
comuns:
IGP e EGP
Um sistema autônomo (AS, autonomous system) – também conhecido como um
domínio de roteamento - é um conjunto de roteadores sob a mesma administração.
Essa administração é tarefa das operadoras de telecom. Como a Internet é baseada no
IGP (Interior Gateway Protocol) são usados para roteamento de sistema intra-
autônomo - roteamento dentro de um sistema autônomo.
EGP (Exterior Gateway Protocol) são usados para roteamento de sistema inter-
autônomo - roteamento entre sistemas autônomos.
Obs: Para uma melhor compreensão deste conceito de sistema autônomo, imagine que
as nuvens, que representam as redes WAN são separadas por domínios
administrativos. Cada domínio administrativo recebe um número diferente para
identificação. Algo como o “CEP” de uma rua. Talvez seja interessante pensar no
número do sistema autônomo com um “CEP” da nuvem.
• Vetores de distância
• Link States
Vetor de distância significa que as rotas são anunciadas como vetores direcionais. A
distância é definida em termos de uma métrica como contagem de saltos e a direção é
dada simplesmente pelo roteador do próximo salto ou pela interface de saída. Os
protocolos do vetor de distância normalmente usam o algoritmo Bellman-Ford para
determinar a melhor rota.
Convergência:
É um estado de consistência entre todas as tabelas de roteamento existentes em
uma topologia. Haverá convergência na rede quando todos os roteadores tiverem
informações completas e precisas sobre ela. O tempo de convergência é o tempo
que os roteadores levam para compartilhar informações, calcular os melhores
caminhos e atualizar suas tabelas de roteamento. Para que uma rede seja
completamente operável, é necessário que haja convergência nela. Portanto, a
maioria das redes precisa chegar o mais rápido possível num estado de
convergência.
Métrica:
Para selecionar o melhor caminho, o protocolo de roteamento deve poder avaliar e
diferenciar os caminhos disponíveis. A métrica é usada para essa finalidade.
Métrica é um valor usado por protocolos de roteamento para atribuir custos com a
finalidade de alcançar redes remotas. A métrica é usada para determinar o melhor
caminho quando houver vários caminhos para a mesma rede remota.
Cada protocolo de roteamento usa sua própria métrica. Por exemplo, o RIP usa a
contagem de saltos, o EIGRP usa uma combinação de largura de banda e atraso e o
OSPF usa um valor de custo, muito relacionado a largura de banda. A contagem de
saltos é a métrica mais fácil de visualizar. A contagem de saltos se refere ao
número de roteadores que um pacote deve atravessar para alcançar a rede de
destino.
Se, por outro lado, a métrica considerada fosse largura de banda, muito
provavelmente o caminho considerado melhor para chegar de A a B seria
ADFEB.
Balanceamento de carga:
192.168.6.0
R_D#show ip route
Note ainda, que nas mesmas linha é possível enxergar o ip de próximo salto associado
à interface local por onde o pacote é encaminhado para chegar até a rede de destino.
O que estas linhas acima estão informando? Qual a diferença entre elas?
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
Loops de roteamento
1. Hold-down timers
2. Split horizon
3. Route poisoning ou poison reverse
2. O split horizon é outro método usado para impedir loops de roteamento causados
pela convergência muitas vezes lenta de um protocolo de roteamento. A regra do
split horizon diz que um roteador não deve anunciar uma rede através da interface
pela qual recebeu as informações desta mesma rede. O refluxo de uma informação
de roteamento precisa ser evitado para que não sejam propagadas informações
inconsistentes.
O split horizon pode ser desabilitado por um administrador. Em determinadas
condições, isso tem que ser feito para que o roteamento apropriado seja obtido.
Esta comunicação acontece através de roteamento que pode ser implementado por
switches L3 ou como é mais peculiar ao ambiente CCNA, por roteadores.
Este é um modelo de roteamento físico, onde o roteador possui uma interface padrão
Ethernet conectada a cada uma das vlans existentes. Os endereços ip destas interfaces
são os gateways para os computadores dentro de cada uma das vlans.
As vlans criadas nos switches não recebem endereço ip.. Os endereços estarão nos
hosts e também nas interfaces do roteador.
Numa rede não muito ampla, este modelo de roteamento pode se mostrar eficiente
com vantagens como a facilidade para implementação de lista de controle de acesso
para filtrar o tráfego entre as vlans.
Estas ACLs poderiam ser criadas no roteador e posicionadas em cada uma das
interfaces físicas na devida orientaçõa de entrada ou saída do tráfego.
de rede conectados a cada uma das VLANs podem comunicar-se com o roteador que
usa a interface física conectada à mesma VLAN. Nessa configuração, dispositivos de
rede podem usar o roteador como um gateway para acessar os dispositivos
conectados às outras VLANs.
Normalmente, dispositivos usam o gateway padrão como o destino para todo tráfego
que precise deixar a sub-rede local. O gateway padrão é a rota que o dispositivo usa
quando não tem nenhuma outra rota explicitamente definida até a rede de destino. A
interface do roteador na sub-rede local age como o gateway padrão para o dispositivo
remetente.
Quando o dispositivo de origem determina que o pacote deve viajar pela interface do
roteador local na VLAN conectada, o dispositivo de origem envia uma solicitação ARP
para determinar o endereço MAC da interface do roteador local. Quando o roteador
envia sua resposta ARP ao dispositivo de origem, o dispositivo de origem pode usar o
endereço MAC para terminar de estruturar o pacote antes de enviá-lo na rede como
tráfego unicast.
Roteador fixo
Dessa forma, a soliução denominada router on stick, onde uma subinterface lógica é
criada no roteador para cada vlan existente no switch, acaba sendo o modelo mais
interessante. Os detalhes de processo veremos a seguir.
Sw1
Subinterfaces são interfaces virtuais múltiplas, associadas a uma interface física. Elas
são configuradas em software, em um roteador configurado independentemente com
um endereço IP e uma atribuição de VLAN para operar em uma VLAN específica.
Configuração da subinterface
A configuração de subinterfaces de roteador é semelhante à configuração de
interfaces físicas, exceto que você precisa criar a subinterface e atribuí-la a uma VLAN.
Ao contrário de uma interface física comum, subinterfaces não são habilitadas com o
comando no shutdown no nível do modo de configuração de subinterface do software
IOS Cisco. Em vez disso, quando a interface física é habilitada com o comando no
shutdown, todas as subinterfaces configuradas são habilitadas. Da mesma forma, se a
interface física é desabilitada, todas as subinterfaces são desabilitadas.
Desempenho
Quando subinterfaces são usadas no roteamento entre VLANs, o tráfego que está
sendo roteado compete pela largura de banda na única interface física. Em uma rede
ocupada, isso pode causar um gargalo na comunicação. Para equilibrar a carga de
tráfego em uma interface física, subinterfaces são configuradas em interfaces físicas
múltiplas, o que resulta em menos contenção entre o tráfego de VLAN.
A conexão de interfaces físicas para o roteamento entre VLANs exige que as portas de
switch sejam configuradas como portas de acesso. Subinterfaces exigem que a porta
de switch seja configurada como uma porta de tronco para poder aceitar o tráfego
com etiqueta de VLAN no link de tronco. Usando subinterfaces, muitas VLANs podem
ser roteadas em um único link de tronco em lugar de uma única interface física para
cada VLAN.
Custo
switch adicionais na rede. Portas de switch são um recurso caro em switches de alto
desempenho.
Complexidade
Por outro lado, o uso de subinterfaces com uma porta de tronco resulta em uma
configuração de software mais complexa, o que pode ser difícil de solucionar. No
modelo de roteador fixo, apenas uma interface é usada para acomodar todas as
diferentes VLANs. Se uma VLAN está com dificuldade para rotear a outras VLANs, você
não pode simplesmente rastrear o cabo para saber se ele está conectado à porta
correta. É necessário verificar se a porta de switch está configurada para ser um tronco
e se a VLAN não está sendo filtrada em algum link de tronco antes de alcançar a
interface do roteador. Também é necessário verificar se a subinterface do roteador
está configurada para usar a ID de VLAN e o endereço IP corretos para a sub-rede
associada a essa VLAN.
Seria interessante que você realizasse outras práticas para se habituar a esta solução.
Exercício de configuração
Sw1
Gi0/1
Sw2
R1
Lista de comandos
R1
R1(config)#interface gi0/0
R1(config-if)#no shutdown
R1(config-if)#exit
R1(config)#interface gi0/0.10
R1(config-subif)#encapsulation dot1q 10
R1(config-subif)#ip address 172.17.10.1 255.255.255.0
R1(config-subif)#exit
R1(config)# interface gi0/0.20
R1(config-subif)#encapsulation dot1q 20
R1(config-subif)#ip address 172.17.20.1 255.255.255.0
R1(config-subif)#exit
R1(config)# interface gi0/0.30
R1(config-subif)#encapsulation dot1q 30
R1(config-subif)#ip address 172.17.30.1 255.255.255.0
SW1
SW1(config)#interface Gi0/1
SW1(config-if)#switchport mode trunk
Embora o EIGRP possa atuar como um protocolo de roteamento link-state, ele ainda é
um protocolo de roteamento do vetor de distância.
Porém, este termo é impreciso porque o EIGRP não é um híbrido entre os protocolos
de roteamento de vetor de distância e link-state – ele é somente um protocolo de
roteamento do vetor de distância. Portanto, a Cisco já não está utilizando este termo
para referir-se ao EIGRP.
O exclusivo protocolo RTP do EIGRP fornece uma entrega confiável e não confiável de
pacotes EIGRP. Além disso, o EIGRP estabelece relações com roteadores diretamente
conectados. São utilizadas relações de vizinhança para monitorar o status destes
vizinhos. O RTP e o monitoramento de adjacências de vizinhos atuam na definição das
Métrica EIGRP
Largura de banda
Atraso
Confiabilidade
Carga
MTU
Por padrão, somente a largura de banda e atraso são utilizados para calcular a métrica.
Os outros itens precisam ser configurados, caso necessário. E apenas devemos fazer
isso sob plena certeza para evitar inconsistências na rede.
O EIGRP não envia atualizações periódicas e as entradas de rota não expiram. Em vez
disso, o EIGRP utiliza um protocolo Hello para monitorar o status de conexão com seus
vizinhos. Somente alterações nas informações de roteamento, tais como um novo link
Antes dos pacotes EIGRP poderem ser trocados entre os roteadores, o EIGRP deve
primeiro detectar seus vizinhos. Os vizinhos são outros roteadores que executam o
EIGRP em redes compartilhadas diretamente conectadas.
O tempo de espera revela ao roteador o tempo máximo que ele deve esperar para
receber o próximo Hello antes de declarar o vizinho como inalcançável. Por padrão, o
tempo de espera é de três vezes o intervalo Hello ou 15 segundos na maioria das redes
e de 180 segundos em redes NBMA de baixa velocidade. Se o tempo de espera expirar,
o EIGRP declarará a rota como inativa e o DUAL procurará um novo caminho enviando
consultas.
Sobre as atualizações...
O FSM DUAL monitora todas as rotas, utiliza sua métrica para escolher caminhos
eficientes, sem loop e seleciona as rotas com o caminho de menor custo para inserir na
tabela de roteamento.
O EIGRP possui uma distância administrativa padrão de 90 para rotas internas e 170
para rotas externas, como as rotas padrão. Quando comparado a outros protocolos
IGP, o EIGRP é o preferido pelo IOS Cisco porque tem a distância administrativa mais
baixa. Existe ainda um terceiro valor de AD para rotas sumarizadas no EIGRP que é 5.
O EIGRP possui a capacidade de rotear vários protocolos diferentes inclusive IP, IPX e
AppleTalk utilizando o recurso (PDM, Protocol-Dependent Modules). Os PDMs são
responsáveis pelas tarefas de roteamento específicas para cada protocolo de camada
de rede. As funções dos protocolos são arquivos compactados que são abertos na
memória do roteador quando acionados.
Autenticação
Assim como outros protocolos de roteamento EIGRP também pode ser configurado
para autenticação. Criptografar e autenticar suas informações de roteamento é uma
prática recomendada atualmente para as trocas de informações entre roteadores por
questão de segurança das tabelas de roteamento. Esta prática assegura que os
roteadores somente aceitem informações de roteamento de outros que foram
configurados com a mesma senha ou informações de autenticação.
CONFIGURAÇÕES DO EIGRP
Nesta configuração apenas foi necessário informar o prefixo de classe da rede. Isto
funciona pelo fato que de o EIGRP “enxerga” e transporta a máscara de rede existente
em cada interface ativa. Desta forma, as distinções entre as sub-redes podem ser
observadas por ele.
Neste caso, cada uma das redes existentes é declarada no protocolo e fazemos uso da
máscara curinga, que corresponde uma máscara onde o espaço dos hosts está
preenchido com “1” binário e o espaço de roteamento (redes e sub redes) com “0”
binário. Neste modelo não é necessário desabilitar a sumarização automática.
R_Central(config)#show running-config
COMANDOS DE VERIFICAÇÃO
• SRTT (Smooth Round Trip Timer, Temporizador de ida e volta suave) e RTO
(Retransmit Interval, Intervalo de retransmissão) - Utilizado pelo RTP para
gerenciar pacotes de EIGRP confiáveis. O SRTT e RTO são discutidos mais a
fundo nos cursos CCNP.
• Q Cnt (Contagem de fila) - Sempre deve ser zero. Se for mais que zero, isso
significará que os pacotes de EIGRP estão esperando para serem enviados. A
contagem de fila é discutida mais a fundo nos cursos CCNP.
• Seq Num (Número de seqüência) - Utilizado para monitorar atualizações,
consultas e pacotes de resposta. Os números de seqüência são discutidos mais
a fundo nos cursos CCNP.
Utilize o comando show ip protocols para obter diversas informações a respeito dos
protocolos em operação, inclusive o EIGRP. Observe uma saída deste comando:
1. Cada roteador obtém informações sobre seus próprios links e suas próprias redes
diretamente conectadas. Isso é obtido pela detecção de uma interface no estado up
(ativo).
3. Cada roteador cria um pacote link-state (LSP) que contém o estado de cada link
diretamente conectado. Isso é feito com o registro de todas as informações
pertinentes sobre cada vizinho, inclusive a ID do vizinho, o tipo de link e a largura de
banda.
4. Cada roteador inunda o LSP para todos os vizinhos, que armazenam todos os LSPs
recebidos em um banco de dados. Esses vizinhos, por sua vez, inundam os LSPs para
todos os seus vizinhos até que todos os roteadores na área tenham recebido os LSPs.
Cada roteador armazena uma cópia de cada LSP recebido de seus vizinhos em um
banco de dados local.
5. Cada roteador usa o banco de dados para criar um mapa completo da topologia e
computa o melhor caminho para cada rede de destino. Como se tivesse um mapa de
Informações sobre o estado desses links são conhecidas como link-states. Essas
informações incluem:
Da mesma maneira que acontece com os pacotes Hello do EIGRP, quando dois
roteadores linkstate descobrem que são vizinhos, eles formam uma adjacência. Esses
pequenos pacotes Hello continuam sendo trocados entre dois vizinhos adjacentes, o
que funciona como uma função de manutenção de atividade (keepalive) para
monitorar o estado do vizinho. Se um roteador deixa de receber pacotes Hello de um
vizinho, esse vizinho é considerado inalcançável e a adjacência é interrompida.
Cada roteador cria um pacote link-state que contém o estado de cada link diretamente
conectado.
Uma vez que um roteador estabelece suas adjacências, ele pode criar seus pacotes
link-state que contêm as informações link-state sobre seus links. Uma versão
simplificada dos LSPs de R1 é seria:
Esses pacotes possuem uma série de detalhes não relevantes ao CCNA, porém o
conhecimento de sua existência é importante para servir de base a outros
conhecimentos importantes no nosso contexto.
Cada roteador inunda suas informações link-state em todos os outros roteadores link-
state na área de roteamento. Sempre que um roteador recebe um LSP de um vizinho,
ele imediatamente envia o LSP para todas as outras interfaces, exceto a interface que
recebeu o LSP. Esse processo cria um efeito de inundação de LSPs de todos os
roteadores ao longo da área de roteamento.
Os LSPs são inundados quase imediatamente após serem recebidos, sem qualquer
cálculo intermediário. Ao contrário de protocolos de roteamento do vetor de distância
que devem executar o algoritmo Bellman-Ford para processar atualizações de
roteamento antes de enviá-las a outros roteadores, os protocolos de roteamento link-
state calculam o algoritmo SPF depois de a inundação ser concluída. Como resultado,
os protocolos de roteamento link-state alcançam convergência muito mais
rapidamente que protocolos de roteamento do vetor de distância.
Os LSPs não precisam ser enviados periodicamente. Um LSP só precisa ser enviado
durante a primeira inicialização do roteador ou do processo de protocolo de
roteamento nesse roteador; ou ainda, sempre que houver uma mudança na topologia,
incluindo um link para cima ou para baixo, ou uma adjacência de vizinho que estiver
sendo estabelecida ou quebrada.
Além das informações link-state, outras informações são incluídas no LSP - como
números de seqüência e informações de idade - para ajudar a gerenciar o processo de
inundação. Essas informações são usadas por cada roteador para determinar se ele já
recebeu o LSP de outro roteador ou se o LSP tem informações mais novas que as
existentes no banco de dados link state. Esse processo permite que um roteador
mantenha apenas as informações mais atuais em seu banco de dados.
Cada roteador usa o banco de dados para criar um mapa completo da topologia e
computa o melhor caminho para cada rede de destino.
Depois que cada roteador propaga seus próprios LSPs usando o processo de inundação
link state, cada um tem ao menos um LSP recebido de todos os roteadores na área de
roteamento. Esses LSPs são armazenados no banco de dados . Agora, cada roteador na
área de roteamento pode usar o algoritmo SPF para criar as árvores SPF que você viu
anteriormente. O mapa da rede consiste da tabela de topologia e os melhores
caminhos calculados pelo algorítmo formam a conhecida tabela de roteamento.
Convergência rápida
Design hierárquico
Estabelecimento da vizinhança
Antes de um roteador OSPF poder enviar seus link-states a outros roteadores, ele
deverá determinar se existem outros vizinhos OSPF em algum de seus links. Na figura,
os roteadores OSPF estão enviando pacotes Hello em todas as interfaces habilitadas
por OSPF para determinar se existem vizinhos nesses links. As informações no OSPF
Hello incluem a ID do roteador OSPF que envia o pacote Hello (a ID do roteador é
discutida posteriormente no capítulo). Receber um pacote Hello de OSPF em uma
interface confirma para um roteador que há outro roteador OSPF neste link. O OSPF
estabelece então uma adjacência com o vizinho.
Antes de dois roteadores poderem formar uma adjacência de vizinho OSPF, eles
deverão concordar em três valores: Intervalo de hello, intervalo de dead e tipo de
rede. O intervalo de Hello de OSPF indica com que freqüência o roteador OSPF
transmite seus pacotes Hello. Por padrão, os pacotes Hello de OSPF são enviados a
cada 10 segundos em segmentos multiacesso e ponto-a-ponto e a cada 30 segundos
em segmentos de rede ponto-a-multiponto (NBMA)(Frame Relay, X.25, ATM).
Na maioria dos casos, os pacotes Hello de OSPF são enviados como multicast para um
endereço reservado para ALLSPFRouters em 224.0.0.5. Utilizar um endereço multicast
permite que um dispositivo ignore o pacote se sua interface não estiver habilitada para
Para reduzir a quantidade de tráfego OSPF nas redes multiacesso, o OSPF elege um
Roteador Designado (DR) e um Roteador Designado de Backup (BDR). O DR é
responsável por atualizar todos os outros roteadores OSPF (chamados de DROthers)
quando uma alteração ocorrer na rede multiacesso. O BDR monitora o DR e assume
como DR se o DR atual falhar.
As prioridades das interfaces, por padrão possuem o valor de 1. Esses valores podem
ser movidos entre 0 e 255. Um valor 0, força a interface a não participar da eleição.
Quanto maior o valor, mais preferência o roteador terá para ser eleito DR ou BDR na
rede à qual aquela interface esteja inserida.
A eleição do DR/BDR
O processo de eleição DR e BDR acontece assim que o primeiro roteador com uma
interface habilitada de OSPF está ativo na rede multiacesso. Isto pode acontecer
quando os roteadores forem ligados ou quando o comando network do OSPF para
aquela interface for configurado. O processo de eleição só leva alguns segundos. Se
todos os roteadores na rede multiacesso não terminarem de inicializar, é possível que
um roteador com uma ID de roteador inferior torne-se o DR. Este poderia ser um
roteador lower-end que levou menos tempo para inicializar.
Quando o DR é eleito, ele permanece como DR até que uma das condições seguintes
ocorra:
O DR falha.
O processo OSPF no DR falha.
OSPF MULTIÁREA
Aqui temos uma implementação OSPF Multiárea com 3 áreas, área 1, área 0 e área 51.
O resultado são tabelas de roteamento e menos LSAs. O SPF é executado somente
dentro de uma área se houver uma alteração na rede.
CONFIGURAÇÕES DO OSPF
Multiárea (OSPF v2)
Neste exemplo:
• O R1 está atribuído ao roteador com a ID 1.1.1.1. Este exemplo ativa o OSPF nas
duas interfaces LAN na área 1. A interface serial é configurada como parte da
área 0 do OSPF. Porque o R1 possui interfaces conectadas a duas áreas, é um
ABR.
• Observação: A configuração de máscara das redes, corresponde à máscara
curinga, semelhante ao visto no EIGRP. Basta invertes os binários da máscara
normal. Ou ainda, considerar que a somatória da máscara normal com a
curinga nos traria um valor de 255.255.255.255 em decimal.
A figura demonstra que resumir redes em um único endereço e máscara pode ser feito
em três etapas:
Pense e responda – Por quê foram gerados 2 resumos das rotas à esquerda?
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
• Dois métodos:
• default-information originate
• A palavra chave “always” permite que a rota padrão seja anunciada mesmo que
o roteador não tenha a rota padrão
Use o comando show ip protocols para verificar o status do OSPF. A saída do comando
revela que protocolos de roteamento estão configurados em um roteador. Também
inclui detalhes do protocolo de roteamento como a ID do roteador, o número de áreas
no roteador, e as redes incluídas na configuração do protocolo de roteamento.
• O comando mais comum usado para verificar uma configuração OSPF multiárea
é o comando show ip route . Adicionar o parâmetro ospf para exibir somente
exibir informações relacionadas ao OSPF.
• Esta figura exibe a tabela de roteamento do R1. Observe como as entradas O
IA na tabela de roteamento identificam as redes reconhecidas de outras
áreas. Especificamente, O representa rotas de “intra-área” OSPF,
e IA representa a inter-área, que significa que a rota foi originada em outra
área. A entrada [110/1295] na tabela de roteamento representa a distância
administrativa que é atribuída ao OSPF (110) e custo total das rotas (custo
de 1295).
Saída do comando OSPF show ip ospf database. Muito útil para resolução de
problemas em redes OSPF.
Page 272
Certificação CCNA – Trainning Education Services
CAPÍTULO 7 – HSRP
REDUNDÂNCIA DE ROTEAMENTO
Cada cliente recebe apenas um gateway padrão. Não há como configurar um gateway
secundário, mesmo que exista uma segunda rota para transportar pacotes para fora
do segmento local.
Ainda que o exemplo seja explicado nos roteadores, em redes modernas os roteadores
deveriam ser switches de camada 3. Esses são dispositivos de alto desempenho para o
roteamento, mas, em contraste com os roteadores, têm muitas interfaces.
Estas são as etapas que ocorrem quando um roteador ou um switch de camada 3 falha:
Terminologia HSRP
Terminologia HSRP
Roteador ativo: É o roteador que está encaminhando pacotes para o roteador virtual
• Roteador ativo:
• Responde às solicitações de gateway padrão ARP com o
endereço MAC do roteador virtual
• Apropria-se do encaminhamento de pacotes para o roteador
virtual
• Envia mensagens hello
• Conhece o endereço IP virtual do roteador
• Roteador em standby
• Ouve mensagens hello periódicas
• Apropria-se do encaminhamento de pacotes ativos se não
receber nenhuma mensagem do roteador ativo
HSRP
Grupo 1
Prioridade de 110 Prioridade de 90
do roteador A do roteador B
Em HSRPv1, o número de grupo pode ser qualquer valor entre 0 e 255, mas deve ser o
mesmo em ambos os roteadores vizinhos. Em HSRPv2, o número de grupo pode ser
qualquer valor entre 0 e 4095.
O endereço IP é o endereço IP do roteador virtual para o grupo HSRP. Ele deve ser
idêntico em todos os roteadores de um mesmo grupo HSRP.
Cada grupo de espera tem seus próprios ativos e roteadores standby. Um engenheiro
de rede pode atribuir um valor de prioridade a cada roteador de um grupo de espera,
controlando, dessa forma, a ordem na qual os roteadores ativos do grupo serão
selecionados. O valor padrão é 100, mas pode ser de 0 a 255.
Você pode usar o comando show standby brief para observar as configurações HSRP:
Suponha que, no exemplo da figura, o roteador à direita está configurado com uma
prioridade mais alta e, portanto, está controlando o tráfego para o núcleo. Assim que a
interface do roteador à direita falhar, o host não conseguirá acessar o núcleo da rede.
HSRP fará do roteador à esquerda o roteador ativo.
Na figura, dois roteadores capacitados com HSRP participam de duas VLANs separadas.
Executar o HSRP nos troncos permite que os usuários configurem a redundância entre
vários roteadores.
Ao configurar o HSRP nos troncos, você pode eliminar as situações nas quais um único
ponto de falha causa interrupções no tráfego. Esse recurso fornece certas melhorias na
resiliência da rede em geral ao fornecer recursos de balanceamento de carga e
redundância entre sub-redes e VLANs.
Balanceamento de carga
Ainda que HSRP e VRRP forneçam a resiliência do gateway, para os membros à espera
do grupo de redundância, a largura de banda de upstream não é usada enquanto o
dispositivo estiver em modo de espera.
Somente o roteador ativo em grupos HSRP e VRRP pode encaminhar o tráfego para o
endereço MAC virtual. Os recursos que estão associados ao roteador em standby não
são utilizados completamente. Você pode realizar certo balanceamento de carga com
esses protocolos, criando vários grupos e designando vários gateways padrão, mas tal
configuração criará sobrecarga administrativa.
GLBP é uma solução patenteada da Cisco para permitir a seleção automática e o uso
simultâneo de vários gateways disponíveis, além do failover automático entre eles.
Com o GLBP, você pode utilizar integralmente os recursos sem a carga administrativa
de configurar vários grupos e de gerenciar as configurações de vários gateways padrão.
Visualizando o balanceamento
R1#show glbp
FastEthernet0/0 - Group 1
State is Active
2 state changes, last state change 00:04:12
Virtual IP address is 192.168.2.100
<output omitted>
Active is local
Standby is 192.168.2.2, priority 100 (expires in
7,644 sec)
Priority 100 (default)
Weighting 100 (default 100), thresholds: lower 1,
upper 100
Load balancing: round-robin
Group members:
c000,0ce0,0000 (192.168.2.1) local
c001,0ce0,0000 (192.168.2.2)
<output omitted>
Para exibir informações do GLBP, use o comando show glbp no modo privilegiado.
O comando show glbp, neste exemplo abaixo, exibe informações sobre o status do
GLBP grupo 1
R1#show glbp
<output omitted>
There are 2 forwarders (1 active)
Forwarder 1
State is Active
1 state change, last state change 00:04:02
MAC address is 0007.b400.0101 (default)
Owner ID is c000.0ce0.0000
Redirection enabled
Preemption enabled, min delay 30 sec
Active is local, weighting 100
Forwarder 2
State is Listen
O termo orientado a conexão significa que os dois aplicativos que utilizam o TCP
devem estabelecer uma conexão TCP para que eles possam trocar dados. TCP é um
protocolo em full duplex, o que significa que cada conexão TCP dá suporte a um par de
fluxos de bytes, cada um com fluxo em uma direção. O TCP inclui um mecanismo de
controle de fluxo para cada fluxo de bytes que permite ao receptor limitar quantos
dados o remetente pode transmitir. O TCP também implementa um mecanismo de
controle de congestionamento.
• Endereço IP de origem
• Endereço IP de destino
• Tipo de mensagem ICMP
A ACL também pode extrair informações de camada superior e testá-las em relação às
suas regras. Entre as informações da camada superior estão:
Por exemplo, você poderia dizer, "Só permita acesso à Web para usuários da rede A.
Negue acesso à Web para usuários da rede B, mas permita a eles todos os demais
acessos".
Para esse cenário, o filtro de pacote observa todos os pacotes da seguinte forma:
• Se o pacote for um TCP SYN da rede A que utiliza a porta 80, ele terá permissão
para passar. Todos os demais acessos são negados para esses usuários.
• Se o pacote for um TCP SYN da rede B que utiliza a porta 80, ele será
bloqueado. No entanto, todos os demais acessos são permitidos.
Este é apenas um simples exemplo. Você pode configurar várias regras para ainda
permitir ou negar serviços a usuários específicos. Você também pode filtrar pacotes no
nível de porta utilizando uma ACL estendida, abordada na sequência deste material.
Na medida em que cada pacote passa por uma interface com uma ACL associada, a
ACL é verificada de cima para baixo, uma linha por vez, procurando um padrão
correspondente ao pacote de entrada. A ACL aplica uma ou mais políticas de
segurança corporativas, aplicando uma regra de permissão ou negação para
determinar o destino do pacote. As ACLs podem ser configuradas para controlar o
acesso a uma rede ou sub-rede.
Por padrão, um roteador não tem nenhuma ACL configurada e, por isso, não filtra o
tráfego. O tráfego que entra no roteador é roteado de acordo com a tabela de
roteamento. Se você não utilizar as ACLs no roteador, todos os pacotes que puderem
ser roteados pelo roteador passarão pelo roteador até o próximo segmento de rede.
1) Uma ACL por protocolo – para controlar o fluxo de tráfego em uma interface,
uma ACL deve ser definida para cada protocolo habilitado na interface.
2) Uma ACL por direção – as ACLs controlam o tráfego em uma direção por vez em
uma interface. Duas ACLs separadas devem ser criadas para controlar os
tráfegos de entrada e de saída.
3) Uma ACL por interface – as ACLs controlam o tráfego de uma interface, por
exemplo, Fast Ethernet 0/0.
Escrever ACLs pode ser uma tarefa desafiante e complexa. Não tanto pelas quantidade
de ACL´s possíveis, mas por sua lógica de configuração. Erros nestas configurações,
além não surtirem o efeito desejado ainda atrapalham o funcionamento da rede como
um todo.
ACL pode classificar o tráfego para habilitar o processamento por prioridades na linha.
Esse recurso é semelhante a ter uma passagem VIP para um show ou evento esportivo.
A passagem VIP oferece privilégios a convidados selecionados não oferecidos a
proprietários de entradas, como poder entrar em uma área restrita e ser escoltado até
seus assentos.
Uma instrução incluída no final abrange todos os pacotes para os quais as condições
não se mostraram verdadeiras. Essa condição de teste final corresponde a todos os
demais pacotes e resultados em uma instrução "negar". Em vez de continuar dentro ou
fora de uma interface, o roteador ignora todos esses pacotes restantes. Essa instrução
final costuma ser conhecida como "negar qualquer instrução implicitamente" ou
"negar todo o tráfego". Por conta dessa instrução, uma ACL deve ter pelo menos uma
instrução de permissão; do contrário, a ACL bloqueia todo o tráfego.
Podemos aplicar uma ACL a várias interfaces. No entanto, não se deve esquecer que
existem as limitações de uma por protocolo, por direção e interface.
Ao final de toda lista de acesso, há uma instrução implícita do critério "negar todo o
tráfego".
Ela também é conhecida às vezes como a instrução "deny any implícito". Por isso, se
não corresponder a nenhuma das entradas ACL, um pacote será bloqueado
automaticamente.
O "negar todo o tráfego" implícito é o comportamento padrão das ACLs, não podendo
ser alterado.
IMPORTANTE!
Existe uma advertência chave associada a esse comportamento "negar tudo": para a
maioria dos protocolos, se definir uma lista de acesso de entrada para a filtragem de
tráfego, você deverá incluir instruções de critérios da lista de acesso explícitas para
permitir atualizações de roteamento. Se não fizer, você poderá efetivamente perder a
comunicação com a interface quando as atualizações de roteamento forem
bloqueadas pela instrução implícita "negar todo o tráfego" ao final da lista de acesso.
ACLs padrão
O exemplo permite todo o tráfego da rede 192.168.30.0/24. Por conta da "negar tudo"
implícita ao final, todo os demais tráfegos são bloqueados com essa ACL. As ACLs
padrão são criadas no modo de configuração global. Se uma linha a mais for
acrescentada ao final da ACL, pode-se resolver a situação da negação implícita:
ACLs estendidas
As ACLs estendidas filtram pacotes IP com base em vários atributos, por exemplo, tipo
de protocolo, endereço IP de origem, endereço IP de destino, portas TCP e UDP de
origem, portas TCP e UDP de destino e informações do tipo de protocolo opcionais
para maior granularidade de controle. No exemplo abaixo, a ACL 103 permite tráfego
com origem na rede 192.168.30.0/24 para o host de destino 192.168.50.15 na porta 80
(HTTP).
Remark – Comentário que pode ser feito para cada linha de ACL, para efeito de
documentação das linhas.
Log – A presença deste ítem ao fim de cada linha, gera um log, ou um registro todas as
vezes que aquela linha for executada.
Protocol – As opções mais comuns, são TCP, UDP, IP e ICMP. No fim da linha da ACL
estendida, o parâmetro “eq” permit especificar por número de porta, qual aplicação
desejamos mencionar.
Além de criar as ACL´s, também é importante que elas sejam posicionadas nas
interfaces correspondentes para que sejam executadas.
Para ACL´s padrão deve ser o mais próximo possível da origem do tráfego a ser
filtrado.
Para ACL´s estendidas, a aplicação deve ser, quando possível, o mais próximo
possível da origem do tráfego a ser filtrado.
ACL´s Nomeadas
Você pode criar ACLs nomeadas tanto para as estendidas como para a padrão e
basicamente da mesma forma. Os comandos para criar uma ACL nomeada têm pouca
diferença para ACLs padrão e estendidas.
Começando no modo EXEC privilegiado, siga estas etapas para criar uma ACL estendida
utilizando nomes.
extended name para definir uma ACL estendida nomeada. Para uma ACL padrão
bastaria utilizar a palavra “standard” no lugar de “extended”
Etapa 3. Retornar ao modo EXEC privilegiado e verificar a sua ACL com o comando
show access-lists [number | name].
Você deve ter observado que todos os exemplos neste curso utilizam um número um
pouco restrito de endereços IP. Você também deve ter observado a semelhança entre
esses números e os números que você usou em uma rede pequena para exibir as
páginas de instalação da web de muitas marcas de impressoras, do DSL e de
roteadores a cabo, bem como de outros periféricos. Eles são endereços de internet
privados reservados retirados dos três blocos mostrados na figura. Esses endereços
podem ser usados somente em redes internas e privadas. A RFC 1918 especifica que os
endereços privados não devem ser roteados pela Internet. Os endereços privados são
descritos, às vezes, como " não roteáveis." Entretanto, os pacotes com endereços
privados podem ser roteados dentro de redes interconectadas privadas.
Entretanto, como não é possível rotear endereços privados pela Internet e como não
existem endereços públicos suficientes para permitir que as organizações forneçam
A NAT tem muitos usos, mas o principal é salvar os endereços IP, permitindo que as
redes usem os endereços IP privados. A NAT traduz endereços privados, não roteáveis
e internos em endereços públicos e externos. A NAT tem um benefício adicional de
proporcionar um nível maior de privacidade e segurança para uma rede porque ela
oculta endereços IP internos de redes externas.
Um dispositivo habilitado para NAT funciona normalmente na borda de uma rede stub.
Em nosso exemplo, o R2 é o roteador de borda. Uma rede stub é uma rede que tem
uma única conexão com sua rede vizinha. Como visto no ISP, o R2 forma uma rede
stub.
192.168.100.67 192.168.100.70
192.168.100.5 192.168.100.8
Cada um dos hosts da rede 192.168.100.X ao enviar pacotes ao ISP, fará isto através de
um dos endereços públicos da rede 200.104.116.0 /29.
R2
R2 consulta a sua tabela de NAT e verifica que esse era um endereço IP que foi
traduzido anteriormente. Portanto, ele traduz o endereço global interno para o
endereço local interno, e o pacote é encaminhado ao PC1 no endereço IP
192.168.100.67. Se ele não localizar um mapeamento, o pacote será descartado.
Tanto a NAT estática como a dinâmica exigem que endereços públicos suficientes
estejam disponíveis para atender ao número total de sessões de usuário simultâneas.
Isso é o que a maioria dos roteadores locais fazem. Seu ISP atribui um endereço a seu
Com a sobrecarga de NAT, vários endereços podem ser mapeados para um ou alguns
endereços porque cada endereço privado também é acompanhado por um número de
porta.
clientes utilizem um número de porta TCP diferente para cada sessão do cliente com
um servidor na Internet.
Quando uma resposta voltar do servidor, o número de porta de origem, que se torna o
número de porta de destino na viagem de retorno, determinará para qual cliente o
roteador irá rotear os pacotes. Ele também validará se os pacotes de entrada foram
solicitados, acrescentando um grau de segurança à sessão.
pacotes de entrada não poderão chegar ao seu destino. Alguns protocolos podem
acomodar uma instância de NAT entre os hosts participantes (FTP no modo passivo,
por exemplo), mas falham quando ambos os sistemas são separados da Internet pela
NAT.
CONFIGURANDO A NAT
NAT estática
Assim como a NAT estática, ela exige que a configuração identifique cada interface
como uma interface interna ou externa. Entretanto, em vez de criar um mapa estático
para um único endereço IP, utiliza-se um conjunto de endereços globais internos.
S0/1 S0/0
R2
Gi0/0
Basicamente, o que fazemos aqui é criar uma ACL que filtra os endereços internos que
poderão ser traduzidos, criar também um pool de endereços publicos no roteador que
serão utilizados para tradução e em seguida associar estas 2 informações. Repare que
os comando Ip nat inside e ip nat outside são colocados na interfaces sempre
orientando as partes internas e externas da rede.
Neste modelo de configuração temos um nat dinâmico, pois cada um dos endereços
internos, da rede 192.168.100.0 será traduzido para um dos públicos. O problema é
que neste caso, temos apenas 6 endereços públicos.
Pense e responda.. O que acontecerá quando o sétimo host interno fizer requisição de
saída?
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
Para que a configuração acima se torne um NAT com overload, o modelo mais
utilizado atualmente para conectividade com a Internet, bastaria acrescentarmos uma
palavra ao último comando. Observe:
A partir disto, teremos uma tradução diferente, onde cada um dos endereços internos
será traduzido para o primeiro endereço público da sequência. Haverá uma variação
nos números de portas lógica de origem da conexão. As portas geradas pelo sistema
operacional quando cada host solicita uma conexão, farão a diferença entre as
sessões.
Acompanhe atentamente uma demonstração prática disto, feita pelo instrutor e faça
anotações abaixo. Para o exame CCNA é muito importante que você saiba configurar o
NAT com overload.
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
Ele pode ser usado em linhas de par trançado, de fibra óptica e na transmissão via
satélite. O PPP fornece transporte em links ATM, Frame Relay, ISDN e ópticos. Em
redes modernas, a segurança é uma grande preocupação. O PPP permite autenticar
conexões usando o Protocolo de autenticação de senha (PAP, Password Authentication
Protocol ) ou o mais eficiente Protocolo avançado de autenticação de reconhecimento
(CHAP, Challenge Handshake Authentication Protocol).
RS-232 – grande parte das portas seriais em computadores pessoais é compatível com
os padrões RS-232C ou RS-422 e RS-423. São usados conectores de 9 e de 25 pinos.
Uma porta serial é uma interface de finalidade geral que pode ser usada por
praticamente qualquer tipo de dispositivo, inclusive modems, mouses e impressoras.
Muitos dispositivos de rede utilizam conectores RJ-45 que também são compatíveis
com o padrão RS-232. A figura mostra dois exemplos de conector RS-232.
O que é PPP?
ARQUITETURA PPP
Uma arquitetura de camadas é um modelo lógico, design ou plano que auxilia na
comunicação entre camadas de interconexão. A figura mapeia a arquitetura de
camadas do PPP em relação ao modelo Open System Interconnection (OSI). PPP e OSI
têm a mesma camada física, mas PPP distribui as funções de LCP e NCP de maneira
diferente.
Serial assíncrona
Serial síncrona
HSSI
ISDN
O PPP funciona em qualquer interface DTE/DCE (RS-232-C, RS-422, RS-423 ou V.35). O
único requisito absoluto imposto pelo PPP é um circuito bidirecional, dedicado ou
comutado, capaz de funcionar em modos seriais de bits assíncronos ou síncronos,
transparentes para quadros de camada de enlace PPP. O PPP não impõe nenhuma
restrição quanto à taxa de transmissão que não seja a imposta pela interface DTE/DCE
em particular sendo utilizada.
Grande parte do trabalho feito pelo PPP acontece nas camadas de enlace e de rede
pelo LCP e pelos NCPs. O LCP configura a conexão PPP e seus parâmetros, os NCPs
lidam com configurações de protocolo da camada superior e o LCP encerra a conexão
PPP.
O LCP é a parte funcional real do PPP. O LCP fica acima da camada física e tem uma
função de estabelecer, configurar e testar a conexão de enlace. O LCP estabelece o link
ponto-a-ponto. O LCP também negocia e configura opções de controle no vínculo
WAN, que são tratadas pelo NCPs.
Protocol), e o IPX utiliza o Protocolo de controle Novell IPX (IPXCP, IPX Control
Protocol).
O link continua configurado para comunicação até que os quadros LCP ou NCP
explícitos fechem o link ou até que ocorra algum evento externo (por exemplo, um
temporizador de inatividade expira ou um usuário intervém). O LCP pode encerrar o
link a qualquer momento. Isso costuma ser feito quando um dos roteadores solicita o
encerramento, mas pode acontecer por conta de um evento físico, como a perda de
uma operadora ou a expiração de um temporizador de período inativo.
Para definir o PPP como o método de encapsulamento utilizado por uma interface
serial ou ISDN, utilize o comando de configuração da interface encapsulation ppp. O
seguinte exemplo habilita o encapsulamento PPP na interface serial 0/0/0:
R3#configure terminal
R3(config-if)#encapsulation ppp
O comando encapsulation ppp não tem nenhum argumento, mas você deve primeiro
configurar o roteador com um protocolo de roteamento IP para utilizar o
encapsulamento PPP. Você deve se lembrar de que, se não configurar o PPP em um
roteador Cisco, o encapsulamento padrão das interfaces seriais é HDLC.
Exemplo 2: compressão
R3(config-if)#encapsulation ppp
O LCP fornece uma fase de determinação da qualidade do link opcional. Nessa fase, o
LCP testa o link para determinar se sua qualidade é suficiente para utilizar protocolos
da Camada 3. O comando ppp quality percentual assegura que o link atende ao
requisito de qualidade determinado por você; do contrário, o link é fechado.
R3(config-if)#encapsulation ppp
R3(config-if)#ppp quality 80
Quando você configura o HDLC, a saída do comando show interfaces serial deve
mostrar "encapsulation HDLC". Ao configurar o PPP, você pode verificar seus estados
LCP e NCP.
AUTENTICAÇÃO PPP
O PPP define um LCP extensível que permite a negociação de um protocolo de
autenticação para autenticar seu túnel antes de permitir os protocolos da camada de
rede transmitirem pelo link. A RFC 1334 define dois protocolos para autenticação.
A fase de autenticação de uma sessão PPP é opcional. Se for utilizado, você poderá
autenticar o túnel depois que o LCP estabelecer o link e escolher o protocolo de
autenticação. Se ele for utilizado, a autenticação ocorrerá antes da configuração do
protocolo da camada de rede.
PAP não é um protocolo de autenticação forte. Utilizando PAP, você envia senhas pelo
link em texto sem formatação, não havendo nenhuma proteção contra reprodução ou
ataques de tentativa e erro repetidos. O nó remoto está no controle da freqüência e
do timing das tentativas de login.
Uma grande base instalada de aplicativos clientes não compatíveis com CHAP
Incompatibilidades entre implementações de fornecedores diferentes do CHAP
Situações em que uma senha em texto simples deve ser disponibilizada para
simular um login no host remoto
Protocolo avançado de autenticação de reconhecimento (CHAP)
Depois que a autenticação é estabelecida com PAP, ela basicamente pára de funcionar.
Isso deixa a rede vulnerável a ataques. Diferentemente do PAP, que só autentica uma
vez, o CHAP realiza desafios periódicos para verificar se o nó remoto ainda tem um
valor de senha válido.
Depois que a fase de estabelecimento do link PPP é concluída, o roteador local envia
uma mensagem de desafio para o nó remoto.
S0/0/1
S0/0/0
Na situação de configuração acima, repare que as senhas nos dois lados são as
mesmas. Isso é necessário para o funcionamento da autenticação no PPP.
Outro ponto, é que o username criado de um lado precisa ser exatamente igual ao
sent-username no lado oposto. Neste caso, não existe a necessidade de um roteador
enviar exatamente o seu hostname para o vizinho. Qualquer parâmetro pode ser
enviado, desde que este mesmo nome esteja criado como usuário no outro roteador.
S0/0/1
S0/0/0
No caso do CHAP, os roteadores enviam seus próprios hostnames ao vizinho. Por este
motivo cada um precisa ter um usuário criado que corresponda a este nome enviado.
Para encerrarmos o assunto sobre o PPP, tenha em mente que uma grande
preocupação da Cisco é que os profissionais certificados possuam habilidade na
interligação de seus equipamentos com os de outros fabricantes, evitando
contratempos que poderiam refletir negativamente na imagem dos produtos dela. Por
este motivo o foco no PPP vem sendo renovado a cada versão do CCNA.
Frame Relay é um protocolo WAN de alto desempenho que funciona nas camadas
física e de enlace do modelo OSI.
Eric Scace, engenheiro da Sprint International, inventou o Frame Relay como uma
versão mais simples do protocolo X.25 para ser usado em interfaces de Rede digital de
serviços integrados (ISDN, Integrated Services Digital Network). Atualmente, ele
também é usado em diversas outras interfaces de rede. Na primeira vez que a Sprint
implementou o Frame Relay em sua rede pública, eles usaram switches StrataCom. A
aquisição da StrataCom pela Cisco em 1996 marcou sua entrada no mercado das
operadoras.
A rede Frame Relay gerencia a transmissão por um caminho alterado com frequência e
transparente para todos os usuários finais.
O Frame Relay tornou-se um dos protocolos WAN mais usados, principalmente porque
é barato em comparação com as linhas dedicadas. Além disso, configurar o
equipamento do usuário em uma rede Frame Relay é muito simples. As conexões
Frame Relay são criadas configurando-se roteadores CPE ou outros dispositivos para
que se comuniquem com um switch Frame Relay da operadora. A operadora configura
o switch Frame Relay, o que ajuda a manter as tarefas de configuração do usuário final
em um nível mínimo.
O Frame Relay tornou-se a tecnologia WAN mais usada no mundo. Grandes empresas,
governos, provedores de Internet e pequenas empresas usam o Frame Relay,
principalmente por causa de seu preço e flexibilidade. Como as organizações estão
crescendo e dependem cada vez mais do transporte de dados confiável, as soluções
O Frame Relay é uma opção mais econômica, pois com linhas dedicadas, os clientes
pagam por uma conexão fim-a-fim. Isso inclui o loop local e o link de rede. Com o
Frame Relay, os clientes pagam somente pelo loop local e pela largura de banda que
compram do provedor de rede. A distância entre os nós não é importante. Em um
modelo de linha dedicada, os clientes usam essas linhas fornecidas em incrementos de
64 kb/s. Os clientes de Frame Relay podem definir suas necessidades de circuito virtual
em uma granularidade muito maior, frequentemente em incrementos pequenos de
até 4 kb/s.
No Frame Relay, o fim de cada conexão tem um número para identificá-la. Esse
número é chamado de Identificador de conexão de enlace de dados (DLCI, Data Link
Connection Identifier). Qualquer estação pode conectar-se às demais. Para isso, basta
informar o endereço dessa estação e o número de DLCI da linha que precisa usar. Em
uma seção posterior, você aprenderá que, quando o Frame Relay é configurado, todos
os dados de todos os DLCIs configurados fluem pela mesma porta do roteador. Ficaria
O Frame Relay funciona entre o dispositivo de um usuário final, como uma bridge de
rede local ou um roteador, e uma rede. A própria rede pode usar qualquer método de
transmissão que seja compatível com a velocidade e a eficiência que os aplicativos
para Frame Relay exigem.
Algumas redes usam o próprio Frame Relay, mas outras usam comutação digital de
circuitos ou sistemas de transmissão de célula ATM.
Equipamentos de computação que não estejam em uma rede local também podem
enviar dados por uma rede Frame Relay. O equipamento de computação usa um
dispositivo de acesso Frame Relay (FRAD) como o DTE. Às vezes, o FRAD é chamado de
codificador/decodificador Frame Relay. Ele é também um dispositivo dedicado ou um
roteador configurado para suportar o Frame Relay. Está localizado nos equipamentos
do cliente e conecta-se a uma porta de switch da rede da operadora. A operadora, por
sua vez, interconecta os switches Frame Relay.
CIRCUITOS VIRTUAIS
A conexão por uma rede Frame Relay entre dois DTEs é chamada de circuito virtual
(VC). Os circuitos são virtuais porque não há conexão elétrica direta fim-a-fim. A
conexão é lógica, e os dados se movem fim-a-fim, sem um circuito elétrico direto. Com
os VCs, o Frame Relay compartilha a largura de banda entre vários usuários. Além
disso, os sites podem comunicar-se entre si sem usar várias linhas físicas dedicadas.
A medida que o quadro se move pela rede, o Frame Relay rotula cada VC com um DLCI.
O DLCI é armazenado no campo de endereço de todos os quadros transmitidos para
informar à rede como o quadro deverá ser roteado. A operadora de Frame Relay
atribui números de DLCI. Geralmente, os DLCIs de 0 a 15 e de 1008 a 1023 são
reservados para fins especiais. Portanto, as operadoras geralmente atribuem os DLCIs
do intervalo de 16 a 1007.
Vários VCs
esse processo funciona, será útil entender como ele se relaciona com as camadas
inferiores do modelo OSI.
Topologias Frame-Relay
Quando mais de dois locais forem conectados, você deverá considerar a topologia das
conexões entre eles. Uma topologia é o mapa ou o layout visual da rede Frame Relay. É
necessário considerar a topologia de várias perspectivas para entender a rede e o
equipamento usado para criá-la. Topologias completas para projeto, implementação,
operação e manutenção incluem mapas de visão geral, mapas de conexão lógica,
mapas funcionais e mapas de endereços que mostram o equipamento em detalhes e
os links de canal.
As redes Frame Relay econômicas vinculam dezenas ou até mesmo centenas de locais.
As conexões de uma empresa que possui 6 locais, utiliza uma conexão central
chamada de hub com cada um dos cinco locais remotos que atuam como spokes. Em
uma topologia estrela, o local do hub geralmente é escolhido pelo menor custo da
linha alugada. Ao implementar uma topologia estrela com Frame Relay, cada local
remoto tem um link de acesso à nuvem Frame Relay com um único VC.
Para que um roteador Cisco possa transmitir dados por Frame Relay, ele precisa saber
qual DLCI local mapeia para o endereço da Camada 3 do destino remoto. Os
roteadores Cisco suportam todos os protocolos da camada de rede sobre Frame Relay,
como IP, IPX e AppleTalk.
Inverse ARP
Mapeamento dinâmico
Uma saída do comando show frame-relay map demonstra que a interface está ativada
além de mostrar o endereço IP de destino e o DLCI da conexão local
Em roteadores Cisco, o ARP inverso é habilitado por padrão para todos os protocolos
habilitados na interface física. Pacotes de ARP inverso não são enviados para
protocolos que não estão habilitados na interface.
Quando a rede responder com FULL STATUS, ela incluirá informações de status sobre
DLCIs alocados para essa linha. O dispositivo final pode usar essas informações para
determinar se as conexões lógicas podem transmitir dados.
O comando show frame-relay lmi mostra o tipo de LMI usado pela interface Frame
Relay e os contadores da sequência de trocas de status de LMI, incluindo erros como
timeouts de LMI.
Há vários tipos de LMI, e elas são incompatíveis entre si. O tipo de LMI configurado no
roteador deve corresponder ao tipo usado pela operadora. Três tipos de LMIs são
suportados pelos roteadores Cisco:
Começou pelo software IOS Cisco versão 11.2, o recurso de autodetecção de LMI
padrão que detecta o tipo suportado pelo switch Frame Relay diretamente conectado.
Com base nas mensagens de status LMI que recebe do switch Frame Relay, o roteador
configura automaticamente sua interface com o tipo de LMI reconhecido pelo switch
Frame Relay.
O Frame Relay pode dividir uma interface física em várias interfaces virtuais chamadas
subinterfaces. Uma subinterface é simplesmente uma interface lógica associada
diretamente a uma interface física. Portanto, uma subinterface Frame Relay pode ser
configurada para cada um dos PVCs que entram em uma interface serial física.
TERMINOLOGIA ESSENCIAL
As operadoras criam redes Frame Relay usando switches muito grandes e muito
avançados, mas como cliente, seus dispositivos só visualizam a interface do switch do
Oversubscription
vários PVCs para um determinado local será mais alta do que a taxa da porta ou do
canal de acesso. Isso pode causar problemas de tráfego, como congestionamentos e
tráfego descartado.
Burst
Uma grande vantagem do Frame Relay é que a capacidade de rede que não estiver
sendo usada será disponibilizada ou compartilhada com todos os clientes, geralmente
sem nenhum custo adicional.
Usando o exemplo anterior, a figura mostra uma taxa de acesso na porta serial S0/0/0
do roteador R1 a 64 kb/s. Essa taxa é mais alta do que as CIRs combinadas dos dois
PVCs. Em circunstâncias normais, o dois PVCs não devem transmitir mais de 32 kb/s e
16 kb/s, respectivamente. Desde que a quantidade de dados que o dois PVCs estão
enviando não exceda sua CIR, os dados devem atravessar a rede.
Como os circuitos físicos da rede Frame Relay são compartilhados entre os assinantes,
frequentemente haverá largura de banda disponível em excesso. O Frame Relay pode
permitir que os clientes acessem dinamicamente essa largura de banda adicional e
"estourar" suas CIRs gratuitamente.
Vários termos são usados para descrever taxas de burst, inclusive a Taxa de
informações de burst comprometida (CBIR) e o tamanho do excesso de burst (BE).
A CBIR é uma taxa negociada acima da CIR, que o cliente pode usar para transmissão
para burst rápido. Ela permite que o tráfego estoure para velocidades mais altas,
conforme a largura de banda de rede disponível permite. No entanto, ele não pode
exceder a velocidade da porta do link. Mesmo que um dispositivo estoure até o limite
da CBIR, os dados poderão atravessar a rede. A duração de uma transmissão de burst
deve ser curta: menos de três ou quatro segundos. Se os bursts longos persistirem,
uma CIR mais alta deverá ser adquirida.
Por exemplo, o DLCI 102 tem uma CIR de 32 kb/s com uma CBIR adicional de 16 kb/s
para um total de até 48 kb/s. Os quadros enviados nesse nível são marcados como
Discard Eligible (DE) em seus cabeçalhos, indicando que eles podem ser descartados se
houver congestionamento ou se não houver capacidade suficiente na rede. Os quadros
da CIR negociada não são qualificados para descarte (DE = 0). Os quadros acima da CIR
têm o bit DE definido como 1, marcando-os como qualificados para serem
descartados, caso a rede fique congestionada.
BE é o termo usado para descrever a largura de banda disponível acima da CBIR até a
taxa de acesso do link. Ao contrário da CBIR, ele não é negociado. Os quadros podem
ser transmitidos nesse nível, mas provavelmente serão descartados.
O cabeçalho do quadro também contém um bit DE, que identifica o tráfego menos
importante que pode ser descartado durante períodos de congestionamento. Os
dispositivos DTE podem definir o valor do bit DE como 1 para indicar que o quadro tem
importância inferior à de outros quadros. Quando a rede fica congestionada, os
dispositivos DCE descartam os quadros com bit DE definido como 1 antes de descartar
os demais quadros. Isso reduz a probabilidade de descarte de dados essenciais durante
períodos de congestionamento.
EXERCÍCIOS DE CONFIGURAÇÃO
Abaixo são apresentadas 2 propostas de projetos de redes com Frame-relay, sendo
uma mais simples, ponto a ponto de apenas 2 locais.
Separe um tempo para realizar estas 2 tarefas, pois isto irá ampliar muito a sua
compreensão sobre o frame-relay e também sobre redes WAN.
Projeto 1:
Requisitos:
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
Projeto 2
Requisitos:
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
Questões CCNA
1) Observe a figura.:
Ambos os switchs estão usando uma configuração padrão. Quais os dois endereços de
destino que o host 4 usará para enviar dados para o host 1? (Escolha dois.)
A. o endereço IP do host 1
B. o endereço IP do host 4
R:_____________________________________________________________________
2.1) Quais links recebem o tráfego de todas as redes? Indique pelas letras.
R:___________________________________________________________
R:___________________________________________________________
b) agregation dot1q 3
d) encapsulation dot1q 3
e) router-encapsulation dot1q 3
R:____________________________________________________________
3) Quais dois valores são usados pelo Spanning Tree Protocol para eleger uma bridge
raiz?
A. Bridge ID
B. endereço IP
R:_____________________________________________________________________
R:_____________________________________________________________________
R:__________________________________________________________________
A. 192.168.194.160
B. 192.168.183.41
C. 192.168.159.2
D. 192.168.183.255
E. 192.168.179.4
F. 192.168.184.45
R:_____________________________________________________________________
E. O switch mantém uma tabela separada bridging table para cada VLAN.
R:_______________________________________________________________
R:_______________________________________________________________
( ) Falso
A. Com uma máscara de rede 255.255.255.128 associada aos hosts, cada interface
não requer um endereço IP.
B. Com uma máscara de rede 255.255.255.128 associada aos hosts, cada interface
exige um endereço IP com sub-redes distintas.
Comentários:
____________________________________________________________________
____________________________________________________________________
____________________________________________________________________
____________________________________________________________________
12) Quais descrições são corretas sobre as características do unicast IPv6? (Escolha
duas.)
A. endereços globais começam com 2000:: / 3.
R:__________________________________________________________________
R:_____________________________________________________________________
14) Observe a topologia e assinale o que está correto sobre as portas Spanning-Tree
nesta rede.
R:_______________________________________________________________
B. 2002:7654:A1AD:61:81AF:CCC1
C. FEC0:ABCD:WXYZ:0067::2A4
D. 2004:1:25A4:886F::1
R:_______________________________________________________________
B. 16
C. 8
D. 4
E. 32
R:_______________________________________________________________
R:_______________________________________________________________
18) Responda 2 questões de VLSM, observando a figura abaixo:
A. /25
B. /26
C. /27
D. /28
R:_______________________________________________________________
18.2) Que máscara vai colocar todos os hosts da rede B na mesma sub-rede
com a menor quantidade de endereços desperdiçados?
A. 255.255.255.0
B. 255.255.254.0
C. 255.255.252.0
D. 255.255.248.0
R:_______________________________________________________________
A. 510
B. 1024
C. 1022
D. 2048
E. 718
R:__________________________________________________________________
R:__________________________________________________________________
21) Qual termo está relacionado ao processo de encapsular pacotes IPv6 dentro de
IPv4 ?
A. tunneling
B. hashing
C. routing
D. NAT
E. pilha dupla
R:_____________________________________________________________
22) Hosts na mesma VLAN podem secomunicar uns com os outros, mas são incapazes
de se comunicar com hosts em VLANs diferentes. Qual alternativa apresenta a solução
mais adequada para esta comunicação na topologia abaixo?
R:______________________________________________________________
B. TFTP
C. TCP
D. udp
E. scp
R:_______________________________________________________________
24) O gateway padrão aplicado a um host por DHCP foi 192.168.5.33/28. Qual das
opções abaixo seria um endereço IP válido do host?
A. 192.168.5.55
B. 192.168.5.47
C. 192.168.5.40
D. 192.168.5.32
E. 192.168.5.14
R:__________________________________________________________________
25) Se o roteamento IP está ativado, que dois comandos definem o gateway de último
recurso para os pacotes ? (Escolha dois.)
A. ip default-gateway 0.0.0.0
C. ip default-network 0.0.0.0
R:__________________________________________________________________
A. enable cdp
B. cdp enable
C. cdp run
D. run cdp
E. no shutdown cdp
R:_________________________________________________________________
27) O usuário na estação de trabalho B relata que um servidor não pode ser
F. O host B e o Server A estão na mesma rede e não podem passar pelo roteador.
R:______________________________________________________________
Esta afirmação é:
( ) Verdadeira
( ) Falsa
29) O que acontecerá com o tráfego HTTP proveniente da Internet que e destinado
para 172.16.12.10 ao ser processado pela ACL abaixo?
C. Tráfego será descartado, por causa da implícita deny all no final da ACL.
R:__________________________________________________________________
D. Todo o tráfego superior ao CIR é marcado como bit como elegível para o
descarte (DE).
R:______________________________________________________________
31) Depois HostA efetuar pings para HostB, qual a entrada estará no cache ARP de
HostA para suportar esta transmissão?
R:__________________________________________________________________
A. atm-dxi
B. frame-relay
C. hdlc
D. lapb
E. ppp
R:_________________________________________________________________
33) Quais são algumas das vantagens de usar um roteador para segmentar a rede?
(Escolha duas.)
R:__________________________________________________________________
R:____________________________________________________________
R:______________________________________________________________
36) Quais itens são corretos sobre o protocolo de roteamento OSPF? (Escolha três.)
R:______________________________________________________________
37) Quais endereços de destino serão usados pelo Host A para enviar dados para o
host C?
A. o endereço IP do Switch 1
C. o endereço IP do Host C
R:_________________________________________________________________
A. Switching de pacotes
C. seleção de caminhos
R:__________________________________________________________________
A. Corp-1
B. Corp-2
C. Corp-3
D. Corp-4
E. Branch-1
F. Branch-2
R:_________________________________________________________________
40) Quais as afirmações verdadeiras sobre as sucessor routers EIGRP? (Escolha duas.)
R:______________________________________________________________
41) A rede mostrada no diagrama está com problemas de conectividade. Quais das
ações descritas nas alternativas seguintes irá corrigir os problemas?.
R:_________________________________________________________________
42) Um Catalyst 2960 precisa ser reconfigurada. Que medidas irão garantir que a
configuração antiga seja apagada? (Escolha três.)
B. Reiniciar o switch.
R:__________________________________________________________________
43) Host A envia ping para Host B. Quais endereços de origem (MAC e IP) contém o
quadro quando parte de R2 em destino ao host B?
A. abcd.abcd.a001
B. abcd.abcd.b002
C. abcd.abcd.c003
D. 10.2.0.15
E. 10.0.64.1
F. 10.0.128.15
R:_________________________________________________________________
44) Observe a topologia abaixo e escreva quais portas deverão ser configuradas em
mode de acesso e quais deverão estar em modo de trunk
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
_______________________________________________________________________
45) A empresa FMJ está preocupada com o acesso não autorizado ao servidor da folha
de pagamento. O Accounting1, CEO, Mgr1 e Mgr2 estações devem ser os únicos
computadores com acesso à folha de pagamento do servidor. Quais tecnologias devem
ser implementadas para evitar o acesso não autorizado ao servidor?
(Escolha duas)
A. access lists
C. STP
D. VLANs
E. VTP
F. wireless LANs
R:_______________________________________________________________
47) Quais comandos devem ser configuradas no switch 2960 e no roteador 2911 para
permitir a comunicação entre o host 1 e host 2?
R:________________________________________________________________
C. R2 irá obter atualizações OSPF de R1, mas não vai obter uma rota padrão de R1.
D. R2 não terá uma rota para a rede serial conectado diretamente, mas todas as
outras redes diretamente conectadas estarão presentes, assim como as duas redes
Ethernet ligado a R1.
R:__________________________________________________________________
A. As rotas OSPF
B. As rotas EIGRP
C. As rotas RIPv2
R:_________________________________________________________________
50) Qual duas afirmações são verdadeiras sobre EIGRP? (Escolha duas.)
D. Se o sucessor viável tem uma distância maior do que a rota anunciada sucessor,
torna-se a via principal.
R:__________________________________________________________________
R:__________________________________________________________________
R:__________________________________________________________________
A. Roteamento 4to6
B. Roteamento 6to4
C. Roteamento binário
D. Roteamento dual-stack
E. NextGen roteamento
R:_______________________________________________________________
54) Um administrador de rede quer tornar o Switch3 como bridge raiz. O que poderia
ser feito para garantir que ele seja o brigde raiz?
D. Configure o Endereço MAC em Switch3 para ser maior que o endereços MAC de
Switch1 e Switch2.
R:_________________________________________________________________
55) Os hosts na rede 192.168.2.0 não conseguem chegar aos hosts na rede
192.168.3.0. Com base na saída de RouterA, quais são os dois possíveis motivos para a
falha? (Escolha duas)
R:__________________________________________________________________
56) Um administrador de rede necessita permitir apenas uma conexão Telnet com um
roteador. A senha de Telnet devem ser criptografada. Qual o conjunto de comandos
irá realizar esta tarefa?
A. service password-encryption
access-listl permit 192.168.1.0.0.0.0.255
line vty 0 4
login
password cisco
access-class 1
C. service password-encryption
line vty 0
login
password cisco
D. service password-encryption
line vty 0 4
login
password cisco
R:________________________________________________________________
A. O número máximo de bytes que podem atravessar esta interface por segundo é
de 1500.
B. O tamanho do segmento mínimo que pode atravessaresta interface é de 1500
bytes.
C. O tamanho máximo do segmento que pode atravessaresta interface é de 1500
bytes.
R:__________________________________________________________________
E.Ambos os roteadores são Cisco e por isso devem ser encapsulados com HDLC.
R:__________________________________________________________________
D. A rede 172.16.3.0/29 usada nos links Frame Relay esta criando redes adjacentes
entre o R2 e sub-redes do roteador R3.
R:_________________________________________________________________
E. Prefixando o Endereço MAC com 0xF e inserindo 0xFafter cada um de seus três
primeiros bytes.
R:__________________________________________________________________
R:_________________________________________________________________
C 1 2 3
F
4
R:_________________________________________________________________
Data:
NOME:
CURSO:
INSTRUTOR:
COMENTÁRIOS
Espaço livre para comentários, críticas e sugestões sobre o treinamento realizado.
INDICAÇÕES
Indique 1 amigo e Ganhe Desconto no próximo treinamento.
REGULAR
SATISFATÓRIO
☺ ÓTIMO