Sei sulla pagina 1di 146

Prova Auditor Fiscal de Tecnologia da Informação – AFRF/2005

GESTÃO DE TECNOLOGIA

31- As fontes de alimentação são as responsáveis por fornecer energia elétrica a todos os componentes do
computador. Analise as seguintes afirmações relacionadas às fontes de alimentação e aos componentes
por ela alimentados em um computador:

I. As fontes de alimentação ATX possuem um recurso que permite o desligamento do


computador por software. Para isso, as fontes desse tipo contam com um sinal TTL
chamado Power Supply On (PS_ON).
II. As fontes de alimentação AT possuem um recurso denominado Wake-on-LAN, que permite
ligar ou desligar a fonte via placa de rede, e outro recurso denominado Wake-on-Modem,
que possibilita ligar ou desligar a fonte via modem.
II. O sinal Power Good, recurso existente já no padrão ATX e em algumas fontes AT, tem a
função de comunicar à máquina que a fonte está apresentando funcionamento correto. Se o
sinal Power Good não existir ou for interrompido, indicando que o dispositivo está operando
com voltagens alteradas, geralmente o computador será desligado. O Power Good é capaz
de impedir o funcionamento de chips enquanto não houver tensões aceitáveis.
IV. Para garantir o funcionamento em qualquer computador alguns conectores das fontes AT e
ATX são idênticos, por exemplo, o conector que alimenta a placa-mãe. Ambos possuem 20
vias e podem ser ligados a qualquer placa mãe, seja ela AT ou ATX.

Indique a opção que contenha todas as afirmações verdadeiras.

a) I e II
b) I e III
c) III e IV
d) II e III
e) II e IV

Comentários:

Gabarito B

Fontes de alimentação - Padrão AT e ATX

Partindo da afirmação do enunciado da questão, as fontes de alimentação são


equipamentos responsáveis por fornecer energia aos dispositivos do computador,
convertendo corrente alternada (AC, em inglês, Alternate Current) em corrente
contínua (DC, em inglês, Direct Current ou VDC, em inglês, Voltage Direct
Current), numa tensão apropriada para uso em aparelhos eletrônicos.

Os computadores usam um tipo de fonte conhecido como "Fonte Chaveada".


Trata-se de um padrão que faz uso de capacitores e indutores no processo de
conversão de energia. A vantagem disso é que há menos geração de calor, já que
um mecanismo da fonte simplesmente desativa o fluxo de energia ao invés de
dissipar um possível excesso. Além disso, há menor consumo, pois a fonte
consegue utilizar praticamente toda a energia que "entra" no dispositivo. Por se
tratar de um equipamento que gera campo eletromagnético, as fontes chaveadas
devem ser blindadas para evitar interferência em outros aparelhos e no próprio
computador.

As tensões fornecidas pelas fontes são dependentes do tipo de dispositivos. Por


isso, as fontes de alimentação fornecem, essencialmente, quatro tipos de tensão
(em Volts – V):

Tensão Dispositivos
5V Alimentação de chips, como processadores, chipsets e módulos
de memória.
-5V Aplicada em dispositivos periféricos, como mouse e teclado.
12V Usada em dispositivos com motores, como HDs e unidades de CD
ou DVD .
-12V Utilizada na alimentação de barramentos de comunicação, como o
antigo ISA (em inglês, Industry Standard Architecture).

Os valores da tabela anterior são usados no padrão de fonte conhecido como AT


(em inglês, Advanced Technology). No entanto, o padrão ATX (em inglês,
Advanced Technology Extended), quando lançado, apresentou mais uma tensão:
a de 3,3 V, que passou a ser usada por chips (principalmente pelo processador),
reduzindo o consumo de energia.

As fontes ATX também trouxeram um recurso que permite o desligamento do


computador por software. Para isso, as fontes desse tipo contam com um sinal
TTL (em inglês, Transistor-Transistor Logic) chamado Power Supply On (PS_ON).
Quando está ligada e em uso, a placa-mãe mantém o PS_ON em nível baixo,
como se o estive deixando em um estado considerado "desligado". Se a placa-
mãe estiver em desuso, ou seja, não estiver recebendo as tensões, deixa de gerar
o nível baixo e o PS_ON fica em nível alto. Esse sinal pode mudar seu nível
quando receber ordens de ativação ou desativação dos seguintes recursos:

• Soft On/Off - usado para ligar/desligar a fonte por software. É através


desse recurso que o Windows ou o Linux consegue desligar o computador sem
a necessidade do usuário apertar um botão do gabinete;
• Wake-on-LAN - permite ligar ou desligar a fonte por placa de rede;
• Wake-on-Modem - possibilita ligar ou desligar a fonte por modem.

O sinal PS_ON depende da existência de outro: o sinal 5VSB ou Standby. Como o


nome indica, esse sinal permite que determinados circuitos sejam alimentados
quando as tensões em corrente contínua estão suspensas, mantendo ativa
apenas a tensão de 5 V. Em outras palavras, esse recurso é o que permite ao
computador entrar em modo de descanso. É por isso que a placa de vídeo ou o
HD podem ser desativados e o computador permanecer ligado.
O sinal Power Good é uma proteção para o computador. Sua função é comunicar
à máquina que a fonte está apresentando funcionamento correto. Se o sinal Power
Good não existir ou for interrompido, geralmente o computador desliga
automaticamente. Isso ocorre porque a interrupção do sinal indica que o
dispositivo está operando com voltagens alteradas e isso pode danificar
permanentemente um componente do computador. O Power Good é capaz de
impedir o funcionamento de chips enquanto não houver tensões aceitáveis.

O Power Good é um recurso existente já no padrão AT. No caso do padrão ATX,


seu sinal recebe o nome de Power Good OK (PWR_OK) e sua existência indica a
disponibilização das tensões de 5 V e de 3,3 V.

A potência das fontes de alimentação é uma das principais especificações deste


componente, pois implica diretamente no consumo de energia elétrica pelo
computador. No Brasil, é muito comum encontrar fontes de 300 W (watts), no
entanto, dependendo de seu hardware, uma fonte mais potente pode ser
necessária. Para saber quando isso é aplicável, deve-se saber quanto consome
cada item de seu computador. A tabela abaixo mostra um valor estimado:

ITEM CONSUMO
Processadores topo de linha (como Pentium 4
60 W - 110 W
HT e Athlon 64)
Processadores econômicos (como Celeron e
30 W - 80 W
Duron)
Placa-mãe 20 W - 100 W
HDs e unidades de CD e DVD 25 W - 35 W
Placa de vídeo sem instruções em 3D 15 W - 25 W
Placa de vídeo com instruções em 3D 35 W - 110 W
Módulos de memória 2W - 10 W
Placas de expansão (placa de rede, placa de
5 W - 10 W
som, etc)
Cooler 5 W - 10 W
Teclado e mouse 1 W - 15 W

Esses valores podem variar, pois são valores estimados. Além disso, o consumo
de energia de determinados dispositivos pode depender do modelo e do
fabricante. O importante é analisar a quantidade de itens existentes em seu
computador e adquirir uma fonte que possa atender a essa configuração de
maneira estável. Por exemplo, para uma máquina com processador Athlon 64 FX,
com dois HDs, uma unidade de CD/DVD, placa de vídeo 3D, mouse óptico, entre
outros, uma fonte de 250 W não é recomendável.

Basta somar as taxas de consumo desses itens para notar:


Athlon 64 FX 100 W (valor estimado)
HD (por unidade) 25 W + 25 W (valor estimado)
Unidade de CD/DVD 25 W (valor estimado)
Placa de vídeo 3D 80 W (valor estimado)
Mouse óptico + teclado 10 W (valor estimado)
Total 265 W *

Em placas-mãe padrão AT, o conector possui 12 contatos, que recebem da fonte


tensões de 5 e 12 volts. No padrão ATX, esse conector possui 20 vias (há
modelos com 24 vias) e recebendo também a tensão de 3.3v.

Uma das vantagens é que nas placas ATX, as portas seriais e paralelas, assim
como conectores para o teclado, portas USB e PS/2, formam um painel na parte
traseira da placa, eliminando a tarefa de conectá-las à parte de trás do gabinete
através de cabos e minimizando problemas de mau contanto. Algumas placas com
som e rede onboard também trazem no painel os conectores para estes
periféricos.

Além do tamanho e da disposição mais prática dos encaixes das portas seriais,
paralelas, PS/2 e USB, outra grande diferença do padrão ATX sobre o antigo
padrão AT, é a fonte de alimentação. Enquanto no AT a fonte é “burra” limitando-
se a enviar corrente ou interromper o fornecimento quando o botão liga-desliga é
pressionado, no padrão ATX é utilizada uma fonte inteligente. A fonte ATX recebe
ordens diretamente da placa mãe, o que permite vários recursos novos, como a
possibilidade de desligar o micro diretamente pelo sistema operacional, sem a
necessidade de pressionar o botão liga-desliga, programar o micro para ligar ou
desligar sozinho em um horário pré-programado, entre outros.

O próprio funcionamento do botão liga-desliga num gabinete ATX também é


diferente. Primeiramente, o botão não é ligado na fonte, como no padrão AT, mas
sim ligado ao conector “ATX Power Switch”, um conector de dois pinos da placa
mãe, que fica próximo aos conectores para as luzes do painel do gabinete. O
comportamento do botão ao ser pressionado também é diferente. Estando o micro
ligado, apenas um toque no botão faz o micro entrar em modo suspend. Para
realmente cortar a eletricidade, é preciso manter o botão pressionado por mais de
4 segundos.

Com base nas informações relacionadas às fontes de alimentação e aos


componentes por ela alimentados em um computador, julga-se a veracidade de
cada um dos itens.

O item I está correto, pois as fontes de alimentação ATX possuem um recurso que
permite o desligamento do computador por software. Para isso, as fontes desse
tipo contam com um sinal TTL chamado de Power Supply On (PS_ON).
O item II está incorreto, pois as fontes de alimentação ATX, e não AT como afirma
o item, possuem um recurso denominado Wake-on-LAN, que permite ligar ou
desligar a fonte via placa de rede, e outro recurso denominado Wake-on-Modem,
que possibilita ligar ou desligar a fonte via modem.

O item III está correto, pois o sinal Power Good, recurso existente já no padrão
ATX e em algumas fontes AT, tem a função de comunicar à máquina que a fonte
está apresentando funcionamento correto. Se o sinal Power Good não existir ou
for interrompido, indicando que o dispositivo está operando com voltagens
alteradas, geralmente o computador será desligado. O Power Good é capaz de
impedir o funcionamento de chips enquanto não houver tensões aceitáveis.

O item IV está incorreto, pois uma das diferenças entre os padrões AT e ATX, diz
respeito ao conector da fonte de alimentação. Em placas mãe padrão AT, o
conector possui 12 contatos, que recebem da fonte tensões de 5 e 12 volts. Em
placas padrão ATX, o conector é um pouco diferente, possuindo 20 contatos e
recebendo também a tensão de 3.3v.

32- Analise as seguintes afirmações relacionadas aos componentes funcionais (hardware) de um computador:

I. Em uma placa-mãe, as entradas padrão PCI servem para se encaixar os cabos que ligam
unidades de CD/DVD. Esses cabos, chamados de flat cables, podem ser de 40 ou 80 vias.
Cada cabo pode suportar até duas unidades de CD/DVD.
II. O endereçamento consiste na capacidade do processador de acessar um número máximo
de células da memória. Para acessar uma célula, o processador precisa saber o endereço
dela. Cada célula armazena um byte. Assim, um processador com o barramento de dados
com 16 bits pode acessar duas células por vez.
III. O clock interno indica a freqüência na qual o processador trabalha. Portanto, num Pentium 4
de 2,6 GHz, “2,6 GHz” indica o clock interno, geralmente obtido por meio de um multiplicador
do clock externo. O clock externo é o que indica a freqüência de trabalho do barramento de
comunicação com a placa-mãe.
IV. O setor de BOOT de um HD contém um pequeno software chamado Post, que é
responsável por controlar uso do hardware do computador, manter as informações relativas
à hora e data e testar os componentes de hardware após o computador ser ligado.

Indique a opção que contenha todas as afirmações verdadeiras.

a) I e II
b) II e IV
c) III e IV
d) I e III
e) II e III

Comentários:

Gabarito E

Antes de analisar as afirmações das alternativas, é importante conhecer alguns


conceitos sobre os componentes funcionais (hardware) de um computador.
Padrão PCI e PCI Express

O padrão PCI surgiu no início da década de 1990 e por mais de 10 anos foi o
barramento mais utilizado para a conexão de dispositivos ao computador,
principalmente placas de vídeo, placas de som, placas de rede e modems. O
barramento PCI trabalha com 32 bits por vez, mas há alguns slots PCI com
funcionamento a 64 bits, o que permite atingir a velocidade de 132 MB por
segundo.

Como as aplicações em 3D exigiam taxas maiores, o barramento AGP foi inserido


no mercado, oferecendo taxas que vão de 266 MB por segundo (no padrão AGP
1X) a 2128 MB por segundo (no padrão AGP 8X). Praticamente todas as placas-
mãe com suporte a AGP só possuem um slot desse tipo, já que o mesmo é usado
exclusivamente por placas de vídeo.

O problema é que, mesmo oferecendo velocidades acima de 2 GB por segundo, o


slot AGP 8x não suportará aplicações que estão para surgir e que precisam de
taxas ainda maiores. Além disso, tais aplicações poderão ter outros requisitos que
o AGP não oferece. Ainda, é necessário considerar que, apesar do AGP ter
vantagens bastante razoáveis, seu uso é destinado apenas às aplicações de
vídeo. Acontece que som e rede, por exemplo, também evoluem.

Na busca de uma solução para esses problemas, a indústria de tecnologia


trabalha no desenvolvimento do barramento PCI Express, cujo nome inicial era
3GIO. Trata-se de um padrão que proporciona altas taxas de transferência de
dados entre o computador em si e um dispositivo, por exemplo, entre a placa-mãe
e uma placa de vídeo 3D.

A tecnologia PCI Express conta com um recurso que permite o uso de uma ou
mais conexões seriais, isto é, "caminhos" (também chamados de lanes) para
transferência de dados. Se um determinado dispositivo usa um caminho, então se
diz que este utiliza o barramento PCI Express 1X, se utiliza 4 conexões, sua
denominação é PCI Express 4X e assim por diante. Cada lane pode ser
bidirecional, ou seja, recebe e envia dados.

Cada conexão usada no PCI Express trabalha com 8 bits por vez, sendo 4 em
cada direção. A freqüência usada é de 2,5 GHz, mas esse valor pode variar.
Assim sendo, o PCI Express 1X consegue trabalhar com taxas de 250 MB por
segundo, um valor bem maior que os 132 MB do padrão PCI.

Atualmente, o padrão PCI Express trabalha com até 16X, o equivalente a 4000 MB
por segundo. Certamente, com o passar do tempo, esse limite aumentará. A
tabela abaixo mostra os valores das taxas do PCI Express comparadas às taxas
do padrão AGP:

AGP 1X: 266 MBps PCI Express 1X: 250 MBps


AGP 4X: 1064 MBps PCI Express 2X: 500 MBps
AGP 8X: 2128 MBps PCI Express 8X: 2000 MBps
PCI Express 16X: 4000 MBps

É importante lembrar que a versão de 64 bits do PCI, cujo slot era um pouco maior
que os slots de 32 bits, nunca chegou a ser popular. São raras as placas-mãe que
usam esse tipo. Isso porque os slots de 32 bits, além de mais baratos, tem taxas
de transferência suficientes para a maioria das aplicações. Teoricamente, a
velocidade do barramento PCI equivale à metade do valor do clock externo do
processador. Mas, sabe-se que esse valor também é sujeito às especificações do
chipset das placas-mãe.

Padrão IDE

A IDE (em inglês, Integrated Drive Electronic), Eletrônica de Integração de


Unidade, é um barramento de dados que serve para a conexão do disco rígido,
CD-ROM e outros dispositivos. Existem vários padrões de interfaces IDE, que vão
do antiquado Pio Mode 0, capaz de transmitir à "incrível" velocidade de 3.3 MB/s,
encontrado, por exemplo, em algumas placas de som ISA até o recente ATA 133,
capaz de transmitir a 133 MB/s.

Os HDs IDE são de longe os mais utilizados atualmente, já que todas as placas
mãe atuais trazem duas interfaces IDE integradas. Uma opção são os HDs SCSI,
que apesar de geralmente mais rápidos são muito mais caros e obrigam o usuário
a comprar uma interface SCSI externa.

As interfaces IDE utilizam um barramento de dados paralelo, em que vários bits de


dados são transmitidos de cada vez. Isso explica os cabos de 40 ou 80 vias que
são utilizados. Esses cabos, chamados de "flat cables", podem ser de 40 vias ou
80 vias, sendo este último mais eficiente. Cada cabo pode suportar até dois HDs
ou unidades de CD/DVD, totalizando até quatro dispositivos nas entradas IDE.

Os fabricantes estão popularizando as interfaces Serias ATA, maiores detalhes


serão abordados a seguir, em que é utilizado um barramento de dados serial, que
utiliza cabos com apenas 4 fios. Apesar disso, as interfaces Serial ATA são mais
rápidas que as interfaces IDE atuais além de mais baratas para os fabricantes.

ATA, ATAPI e EIDE

Os conectores na placa-mãe para a instalação de HDs são possíveis também


conectar drives de CD-ROM, DVD, disquete, etc. Estes dispositivos utilizam o
mesmo tipo de cabo utilizado na conexão do HD, o já conhecido flat cable de 40
ou 80 vias. Isso é possível graças ao padrão conhecido como ATAPI (em inglês,
AT Attachment Packet Interface). Na conexão de HDs usá-se uma interface
denominada ATA (AT Attachment). Vale citar que o próprio computador, através
de seu BIOS e/ou chipset da placa-mãe, reconhece quando utilizar a interface
ATA ou a interface ATAPI.

Já o padrão EIDE (em inglês, Enhanced Integrated Drive Eletronic), refere-se a


uma melhora na interface IDE, que consiste em um aumento na velocidade de
transferência de dados do HD e permite que num mesmo conector IDE seja
instalado dois dispositivos. Por exemplo, um HD e um drive de CD-ROM ou
simplesmente dois discos rígidos. A interface IDE vem integrada na placa-mãe
através do chipset. Ela é dividida em dois canais, sendo um principal e o outro
secundário. Com isso, é possível instalar até 4 dispositivos, pois cada IDE
disponível, suporta até dois drives. É importante frisar que a interface EIDE tem
um concorrente: o padrão SCSI, que é bem mais eficiente, porém muito mais caro.
Por esta razão, o padrão SCSI só é usado em aplicações que necessitam de alta
performance.

Tecnologia DMA

Antigamente, somente o processador podia acessar os dados diretamente da


memória. Com isso, se qualquer outro componente do computador precisasse de
algo na memória, teria que fazer este acesso por intermédio do processador. Com
os HDs não era diferente. Como conseqüência havia um desperdício dos recursos
de processamento. Então, foi criado um dispositivo chamado Controlador de DMA
(em inglês, Direct Memory Access). Desta forma, tornou-se possível o acesso
direto à memória pelo HD ou pelos dispositivos que usam a interface IDE, sem
necessidade de auxílio do processador.

A comunicação do computador com os HDs propriamente ditos, é feita por um


circuito conhecido como PIO (em inglês, Programmed I/O). A taxa de transferência
de dados do disco rígido para o computador depende do modo PIO utilizado. Veja
a tabela abaixo:

Modo PIO Taxa de transferência


Modo 1 5,2 MB/s
Modo 2 8,3 MB/s
Modo 3 11,1 MB/s
Modo 4 16,6 MB/s
Modo 5 22 MB/s

Tecnologia SATA

O padrão o SATA (Serial ATA) surgiu com a limitação do padrão IDE/ATA em


gerar mudanças mais profundas.

Assim, como o PCI Express, o SATA é um barramento serial, em que é


transmitido um único bit por vez em cada sentido. Isso elimina os problemas de
sincronização e interferência encontrados nas interfaces paralelas, permitindo que
sejam usadas freqüências mais altas.
O cabo SATA é bastante fino, contendo apenas 7 pinos, em que 4 são usados
para transmissão de dados e 3 são terras, que ajudam a minimizar as
interferências.

Os cabos SATA são bem mais práticos que os cabos IDE e não prejudicam o fluxo
de ar dentro do gabinete. Os cabos podem ter até um metro de comprimento e
cada porta SATA suporta um único dispositivo, ao contrário do padrão
master/slave do IDE/ATA. Por causa disso, é comum que as placas mãe ofereçam
pelo menos 2 portas SATA (ou mais).

O ganho de desempenho permitido pela maior freqüência de transmissão acaba


superando a perda por transmitir um único bit por vez, ao invés de 16 bits nas
transmissões paralelas. Isso, além de mais simples e barato, torna o padrão SATA
mais rápido.

Existem três padrões de controladoras SATA:

• SATA 150, também chamado de SATA 1.5 Gbit/s ou SATA 1500;


• SATA 300, também chamado de SATA 3.0 Gbit/s ou SATA 3000;
• SATA 600, também chamado de SATA 6.0 Gbit/s.

Como o SATA utiliza dois canais separados, um para enviar e outro para receber
dados, tem-se 150 ou 300 MB/s em cada sentido, e não 133 MB/s compartilhados,
como acontece nas interfaces ATA/133.

Os nomes SATA 300 e SATA 3000 indicam, respectivamente, a taxa de


transferência, em MB/s e a taxa bruta, em megabits. O SATA utiliza o sistema de
codificação 8B/10B, o mesmo utilizado pelo barramento PCI Express, em que são
adicionados 2 bits adicionais de sinalização para cada 8 bits de dados. Estes bits
adicionais substituem os sinais de sincronismo utilizados nas interfaces IDE/ATA,
simplificando bastante o design e melhorando a confiabilidade do barramento.
Desta forma, a controladora transmite 3000 megabits, devido à codificação,
correspondem a apenas 300 megabytes.

As controladoras SATA 300 são popularmente chamadas de SATA II de forma que


os dois termos acabaram virando sinônimos. Mas, originalmente, SATA II era o
nome da associação de fabricantes que desenvolveu os padrões SATA (entre eles
o SATA 300) e não o nome de um padrão específico. Da mesma forma, o padrão
de 600 MB/s chama-se SATA 600, e não SATA III ou SATA IV. Mesmo os próprios
fabricantes de HDs não costumam usar o termo SATA II, já que ele é
tecnicamente incorreto.

Adicionalmente, é importante saber que é possível instalar uma controladora


SATA em micros antigos usando o barramento PCI. Porém, uso deste barramento
limita a velocidade da controladora a 133 MB/s.

Existem ainda conversores, chamados de bridges, que permitem ligar um HD IDE


diretamente a uma porta SATA, mas eles são mais difíceis de encontrar e
geralmente mais caros que uma controladora SATA PCI:

Com o lançamento do SATA, os HDs e controladoras IDE/ATA passaram a ser


chamadas de PATA (em inglês, Parallel ATA), ressaltadas as devidas diferenças.

Clock interno e externo

Os termos de processadores K6 II de 500 MHz, Pentium III de 800 MHz, Athlon


XP de 2 GHz e outros são provenientes da informação do clock deles.

O clock é uma forma de indicar o número de instruções que podem ser


executadas a cada segundo (ciclo). Sua medição é feita em Hz (sendo que KHz
corresponde a mil ciclos, MHz corresponde a 1000 KHz e GHz corresponde a
1000 MHz). Assim, um processador Pentium II 800 MHz, indica que o mesmo
pode realizar 800 milhões de ciclos por segundo. Algumas instruções podem
precisar de vários ciclos para ser executadas, enquanto outras, um ciclo só. A
seguir, as diferenças entre clock interno e clock externo:

Clock interno: indica a freqüência na qual o processador trabalha. Portanto, num


Pentium 4 de 2,8 GHz, o "2,8 GHz" indica o clock interno. Este geralmente é
obtido através de um multiplicador do clock externo. Por exemplo, se o clock
externo for de 66 MHz, o multiplicador terá de ser de 3x para fazer com o que
processador funcione a 200 MHz (66 x 3).

Clock externo: também conhecido como FSB (em inglês, Front Side Bus), o clock
externo, por sua vez, é o que indica a freqüência de trabalho do barramento
(conhecido como barramento externo) de comunicação com a placa-mãe, na
verdade, chipset, memória, etc. Por exemplo, o processador AMD Sempron 2200+
trabalha com clock externo de 333 MHz.

Nos processadores da linha Athlon 64, a fabricante AMD passou a adotar a


tecnologia HyperTransport que, basicamente, usa dois barramentos para
comunicação externa: um para acesso à memória e outro para acesso ao chipset.
Na verdade, é este último que recebe o nome de HyperTransport. Até então, os
processadores usavam apenas o barramento externo para os dois tipos de
acesso. Com o HyperTransport, a AMD passou a indicar a velocidade de trabalho
deste ao invés do clock externo.

Um detalhe de extrema importância, é que esses ciclos de clock diferem de


fabricante para fabricante. Por isso, um Pentium 4 de 2.4 GHz (2400 MHz), não é
igual ao Athlon XP de 2.4 GHz. Este último, na verdade, trabalha a 2.0 GHz, mas
sua velocidade é semelhante ao de um Pentium 4 de 2.4 GHz. Por isso, a AMD
informa a velocidade que é semelhante ao do processador do fabricante
concorrente.

Sistema de inicialização ou Boot loader

Em computação, boot é o termo em inglês para o processo de inicialização do


computador que carrega o sistema operacional quando a máquina é ligada.

Muitos computadores podem executar apenas códigos existentes na memória de


trabalho (ROM ou RAM). Os sistemas operacionais modernos são normalmente
armazenados em disco rígido, CD-ROM ou em outros dispositivos de
armazenamento. Quando o computador é ligado, ele não tem um sistema
operacional na memória. Ele, hardware, não pode fazer as ações do sistema
operacional, como carregar um programa do disco. Desta forma, cria-se um
aparente insolúvel paradoxo: como fazer para carregar o sistema operacional na
memória, se é necessário um sistema operacional já carregado?

A solução para o paradoxo está na utilização de um pequeno e especial programa,


chamado sistema de inicialização, boot loader ou bootstrap. Este programa não
tem a completa funcionalidade de um sistema operacional, mas é especialmente
construído para que seja capaz de carregar um outro programa para permitir a
inicialização do sistema operacional. Freqüentemente, boot loaders de múltiplos
estágios é usado com vários pequenos programas que se complementam em
seqüência até que o último deles carrega o sistema operacional.

Os primeiros computadores programáveis tinham chaves no painel frontal para


permitir ao operador colocar o sistema de iniciação na memória antes de iniciar a
CPU. Este lia o sistema operacional de um meio de armazenamento externo como
uma fita de papel.

Nos computadores modernos o processo de inicialização começa com a execução


pela CPU de um programa contido na memória ROM (A BIOS do IBM PC) em um
endereço predefinido, a CPU é programada para executar este programa depois
de um reset automaticamente. Este programa contém funcionalidades
rudimentares para procurar por dispositivos que podem conter um sistema
operacional e que são, portanto, passíveis de participar de um boot. Definido o
dispositivo é carregado um pequeno programa de uma seção especial deste.

Em seguida, o pequeno programa normalmente não é o sistema operacional, mas


apenas um segundo estágio do sistema de inicialização, assim como o Lilo ou o
Grub do linux. Ele é capaz de carregar o sistema operacional apropriado, e
finalmente transferir a execução para ele. O sistema irá inicializar, e deve carregar
drivers de dispositivos e outros programas que são necessários para a operação
normal de um sistema operacional.

O processo de inicialização é considerado completo quando o computador está


pronto para ser operado pelo usuário. Computadores pessoais modernos
tipicamente levam cerca de um minuto para executar o processo de inicialização,
deste tempo cerca de 15 segundos são devidos a cada chamada do processo de
inicialização e o restante para carregar o sistema operacional. No entanto,
sistemas mais complexos como servidores podem levar vários minutos para
terminar o processo de inicialização e carregar todos os serviços. Para garantir
maior disponibilidade, este inicia certos serviços preferencialmente antes de
outros.

Muitos sistemas embarcados (em inglês, embedded systems) podem iniciar


instantaneamente, por exemplo, esperar um minuto para uma televisão ligar é
inaceitável. Assim, estes sistemas têm seu sistema operacional inteiro na ROM ou
na memória flash, podendo executá-lo diretamente.

Em computação, uma seqüência de inicialização compreende toda e qualquer


operação que um computador executa, após ter sido ligado, visando carregar o
sistema operacional.

Um dispositivo de inicialização da BIOS é qualquer dispositivo que deve ser


iniciado antes da carga do sistema operacional. Isto inclui os dispositivos de
entrada como o teclado, dispositivos de saída como o Monitor, e os dispositivos de
armazenamento como drive de disquete, disco rígido, CD-ROM, etc. Um caso
especial de dispositivo de iniciação é o que pode carregar o sistema operacional,
em antigas máquinas PC, o drive de disquete e o disco rígido.

Em uma BIOS moderna, o usuário pode selecionar vários dispositivos para fazer a
iniciação, por exemplo, disquete, Superdisk, Disco Rígido, SCSI, CDROM, Zip
drive, ou USB (USB-FDD, USB-ZIP, USB-CDROM, USB-HDD).

Por exemplo, pode-se instalar o Microsoft Windows XP no primeiro disco rígido e o


Linux no segundo. Alterando os parâmetros da BIOS, pode-se modificar qual
sistema operacional a carregar.

É oportuno falar sobre a seqüência de inicialização no PC (IBM-PC compatível).

Ao iniciar o processo de inicialização, a CPU do Computador Pessoal executa a


instrução localizada no registrador de memória FFFFFFFF0h da BIOS. Este
registrador de memória corresponde à última posição. Ele contém uma instrução
que faz com que a execução seja desviada para o local na BIOS em que começa
o programa inicial. Este programa executa um auto-teste (POST), que é um teste
para verificar o funcionamento de diversos dispositivos no computador. Então, a
BIOS busca em uma lista de dispositivos pré-configurados até encontrar um que
pode ser o dispositivo de iniciação. Se não encontra este dispositivo, um erro é
apresentado e o processo de iniciação termina. Se o dispositivo de iniciação é
encontrado, a BIOS carrega e executa o MBR (Registro mestre de iniciação). Em
muitos casos, o MBR verifica a tabela de partições em busca de uma partição
ativa. Se uma partição ativa é encontrada, o MBR carrega e executa o setor de
iniciação da partição. O setor de iniciação é específico do sistema operacional,
entretanto em muitos sistemas sua principal função é carregar e executar o kernel.

Com base nas informações relacionadas aos componentes funcionais de um


computador, julga-se a veracidade de cada um dos itens.

O item I está incorreto, pois o barramento PCI é mais utilizado para a conexão de
dispositivos ao computador, tais como: placas de vídeo, placas de som, placas de
rede e modems. Em uma placa-mãe, as entradas padrão PCI servem para se
encaixar os cabos que ligam unidades de CD/DVD. No entanto, as interfaces IDE
utilizam um barramento de dados paralelo através de cabos de 40 ou 80 vias.
Esses cabos, chamados de "flat cables", podem ser de 40 vias ou 80 vias, sendo
este último mais eficiente.

O item II está correto, pois o endereçamento consiste na capacidade do


processador de acessar um número máximo de células da memória. Para acessar
uma célula, o processador precisa saber o endereço dela. Cada célula armazena
um byte. Assim, um processador com o barramento de dados com 16 bits pode
acessar duas células por vez. Para maiores detalhes sobre endereçamento, bits
internos e externos, consultar questão 03 da prova SEFAZ/CE 2007.

O item III está correto, pois o clock interno indica a freqüência na qual o
processador trabalha. Portanto, num Pentium IV de 2,8 GHz, o "2,8 GHz" indica o
clock interno. Este geralmente é obtido através de um multiplicador do clock
externo. Por exemplo, se o clock externo for de 66 MHz, o multiplicador terá de ser
de 3x para fazer com o que processador funcione a 200 MHz (66 x 3). O clock
externo é o que indica a freqüência de trabalho do barramento de comunicação
com a placa-mãe.

O item IV está incorreto, pois ao iniciar o processo de inicialização, a CPU executa


a instrução localizada no registrador de memória FFFFFFFF0h da BIOS. Este
registrador de memória corresponde à última posição. Ele contém uma instrução
que faz com que a execução seja desviada para um local em que começa o
programa inicial. Este programa executa um auto-teste (POST), que é um teste
para verificar o funcionamento de diversos dispositivos no computador.

33- Analise as seguintes afirmações relacionadas à organização, à arquitetura e aos componentes funcionais
de computadores:

I. O termo SCSI (Small Computer System Interface) é usado para definir uma interface
paralela padrão de alta velocidade utilizada para conectar microcomputadores a dispositivos
periféricos, como discos rígidos e impressoras.
II. A IDE (Integrated Device Eletronics) é um tipo de interface de unidade de disco na qual os
circuitos eletrônicos do controlador residem na própria unidade, eliminando a necessidade
de uma placa adaptadora separada.
III. Um driver de rede é uma placa de circuito que fornece a interface física, isto é, um conector
e o hardware para permitir que um computador acesse uma rede.
IV. Usando conexão serial RS-232 é possível conectar e desconectar dispositivos sem desligar
ou reiniciar o computador. É possível usar uma única porta RS-232 para conectar vários
dispositivos periféricos, incluindo gravadoras de CD, joysticks, unidades de fita, teclados,
scanners e câmeras digitais.

Indique a opção que contenha todas as afirmações verdadeiras.

a) I e III
b) II e III
c) III e IV
d) I e II
e) II e IV

Comentários:

Gabarito D

Tecnologia SCSI

A tecnologia SCSI (em inglês, Small Computer System Interface) trata-se de uma
tecnologia criada para acelerar a taxa de transferência de dados entre dispositivos
de um computador, desde que tais periféricos sejam compatíveis com a
tecnologia. O padrão SCSI é muito utilizado para conexões de HD (disco rígido),
scanners, impressoras, CD-ROM ou qualquer outro dispositivo que necessite de
alta transferência de dados.

As vantagens do SCSI não se resumem apenas à questão da velocidade, mas


também da compatibilidade e estabilidade. Sendo o processador o dispositivo
mais rápido do computador, o uso do padrão SCSI permite que essa velocidade
seja aproveitada e assim, aumentá-se de forma considerável o desempenho do
computador. Isso deixa claro que o SCSI é aplicado principalmente em servidores
e em aplicações de missão crítica. Em gráficas, o uso de scanners poderosos
poderia ser inviável se o computador não conseguisse processar as imagens
rapidamente, devido à baixa taxa de transferência. O padrão SCSI consegue
resolver essa questão.

Se seu computador não possui interface SCSI, ainda assim é possível fazer uso
desta tecnologia. Basta instalar um adaptador (ou controlador) SCSI. Alguns
permitem de 7 a 15 conexões de dispositivos SCSI.
Para funcionar no computador, o SCSI precisa de um dispositivo conhecido como
"host adapter". Esse aparelho é quem realiza a conexão com o computador e
pode utilizar dois modos de transmissão: normal e diferenciado. O primeiro utiliza
apenas um condutor para transmitir o sinal, enquanto o segundo utiliza dois. No
modo diferenciado, um condutor transmite o sinal original e o outro transmite o
sinal inverso. Isso evita erros causados por interferência.

É possível conectar até 15 periféricos numa única implementação SCSI. Cada um


recebe um bit que o identifica (ID SCSI). No entanto, a comunicação somente é
possível entre dois dispositivos ao mesmo tempo. Isso porque é necessário que
um dispositivo inicie a comunicação (iniciador ou emissor) e outro a receba
(destinatário).

Determinados dispositivos só podem assumir uma tarefa ou outra (iniciador ou


destinatário). Outros podem assumir os dois. O dispositivo iniciador recebe esse
nome, pois é ele quem solicita o estabelecimento da comunicação com um
dispositivo, por exemplo, entre o computador e uma impressora. O iniciador pode
controlar o barramento, quanto à velocidade e modo de transmissão. Já o
destinatário pode pedir certas informações ao iniciador, tais como status, dados ou
comandos. Ainda é possível ao destinatário escolher outro iniciador.

É importante ressaltar que no barramento SCSI existem transmissões assíncronas


e síncronas. O primeiro permite ao iniciador enviar um comando e aguardar uma
resposta em todas as operações. O segundo funciona de maneira semelhante,
mas é capaz de enviar vários comandos antes mesmo de receber a resposta do
anterior. E estes comandos podem ser iguais. Por isso, o modo síncrono é
comumente usado quando à distância entre os dispositivos é grande. Este modo
surgiu no SCSI-2.

É possível encontrar adaptadores Wide SCSI e Narrow SCSI. Ambos permitem


uma velocidade maior no barramento (de 5 a 10 MHz). No entanto, o Wide SCSI
usa um cabo adicional de 16 ou 32 bits de largura para enviar dados, o que
permite o dobro ou quádruplo da velocidade, respectivamente. Já o Narrow SCSI
usa somente 8 bits de largura. A tabela a seguir mostra o comparativo entre esses
adaptadores:

Tipo de SCSI Wide SCSI ( MB/s) Narrow SCSI (MB/s)


SCSI-1 10 5
SCSI-2 20 10
Ultra-SCSI 40 20
Ultra-2 SCSI 80 40
Ultra-3 SCSI 160 80

Os cabos de dispositivos SCSI são cruciais para uma implementação nessa


tecnologia. É recomendável que seu tamanho não ultrapasse 15 cm. Do contrário,
a transmissão de dados pode ser severamente prejudicada. Existem vários tipos
de cabos para interfaces SCSI, sendo os mais comuns o ALT-1 e o ALT-2.

Existem vários tipos de conectores e, em todos eles, é necessária a existência de


terminadores, que são circuitos que garantem o envio e o recebido dos sinais de
dados. Existem, pelo menos, 7 (sete) tipos de terminadores, a serem vistos a
seguir:

Active: terminador que usa reguladores de tensão para reduzir os efeitos


provocados por flutuações elétricas, resultando em maior estabilidade na
comunicação SCSI e menor taxa de dados perdidos;

Active-negation: terminador que evita tensões muito altas nos terminadores


ativos, permitindo comutação dos dados;

Force Perfect Termination (FPT): utiliza a comutação de um diodo para


compensar as diferenças entre as impedâncias dos cabos SCSI e dos
dispositivos;

High Voltage Differential (HVD): um dos terminadores mais usados e que possui
especificações básicas. Opera a 5 V DC;

Low Voltage Differential (LVD): muito conhecido, esse tipo de terminador passou
a ser usado no SCSI-3. Permite menor consumo de energia (se comparado ao
HVD) e permite velocidades maiores. Opera em 3.3 V DC;

LVD/SE (LVD Single-Ended): LVD considerado universal, ou seja, multi-


compatível. Isso significa que este terminador pode assumir mais de uma
voltagem de operação. É um dos tipos mais comuns atualmente;

Passive: trata-se de um terminador com especificações básicas. É mais barato,


porém, mais propenso a perda de dados, devendo ser usado em aplicações
simples.

Placa de Rede

Uma placa de rede, também chamada adaptador de rede ou NIC, é um dispositivo


de hardware responsável pela comunicação entre os computadores em uma rede,
seja através de fios seja sem fios através com tecnologia wireless.

A placa de rede é o hardware que permite aos micros conversarem entre si. Sua
função é controlar todo o envio e recebimento de dados através da rede. Cada
arquitetura de rede exige um tipo específico de placa de rede. Logo, não seria
possível usar uma placa de rede Token Ring em uma rede Ethernet, pois ela
simplesmente não conseguiria comunicar-se com as demais. Além da arquitetura
usada, as placas de rede à venda no mercado diferenciam-se também pela taxa
de transmissão, cabos de rede suportados e barramento utilizado (On-Board, PCI,
ISA ou Externa via USB).
As placas de rede para computadores portáteis podem ser on-board ou por uma
placa PCMCIA. Quanto à taxa de transmissão, tem-se placas Ethernet de 10 Mbps
/ 100 Mbps (Fast-Ethernet) / 1000 Mbps (Giga-Ethernet) e placas Token Ring de 4
Mbps e 16 Mbps.

Deve-se utilizar cabos adequados à velocidade da placa de rede. Por exemplo:

• Para placas Ethernet de 10 Mbps, deve-se utilizar cabos de par trançado de


categoria 3 ou 5, ou cabos coaxiais.
• Para uma placas Ethernet de 100 Mbps o requisito mínimo de cabeamento
são cabos de par trançado blindados nível 5.
• Para redes Token Ring, os requisitos são cabos de par trançado categoria 2
ou 3 para placas de rede de 4 Mbps, e cabos de par trançado blindado
categoria 4 para placas de 16 Mbps.

Devido as exigência de uma topologia em estrela das redes Token Ring, nenhuma
placa de rede Token Ring suporta o uso de cabos coaxiais. Cabos diferentes
exigem encaixes diferentes na placa de rede.

O mais comum em placas Ethernet, é a existência de dois encaixes, uma para


cabos de par trançado e outro para cabos coaxiais. Muitas placas mais antigas,
também trazem encaixes para cabos coaxiais do tipo grosso (10Base5). Existem
disponível no mercado placas com encaixes para mais de um tipo de cabo,
conhecidas como placas combo. A existência de 2 ou 3 conectores serve apenas
para assegurar a compatibilidade da placa com vários cabos de rede diferentes.
Naturalmente, só poderá utilizar um conector de cada vez.

Figura AFRF/2005.3: Placa de rede com dois tipos de conectores (BNC e par-trançado).

Padrão USB

Idealizado em 1995 por um grupo de empresas de tecnologia, o padrão USB


(Barramento Serial Universal) permite que sejam conectados até 127
equipamentos em cada micro, já foram conectados 111 periféricos em uma
demonstração pública, com velocidades de transmissão de 1,5 Mbps ou 12 Mbps.
Tudo isso sem a necessidade de desligar o computador para fazer as ligações e
com reconhecimento automático dos aparelhos adicionados. É o chamado plug
and play.

A configuração do USB é automática, sendo desnecessária a preocupação com


drivers e programas ao acrescentar novos dispositivos. As controladoras USB
detectam automaticamente a conexão ou remoção de um periférico. Estas
também gerenciam e controlam o driver e a largura da banda exigida por cada
dispositivo, além também de definir a alimentação elétrica correta.

A proposta deste padrão é substituir a infinidade de conectores diferentes


empregados nos computadores atuais. Uma rápida observação de um PC típico
revela em média cinco encaixes diferentes, entre portas seriais, paralelas, saídas
para teclado, mouse, joystick e outros acessórios. Atualmente, o USB vem
substituindo todos estes.

O padrão USB pode ser utilizado na maior parte dos acessórios de média e baixa
velocidade. Dependendo modelo, os PC’s possuem pelo menos duas portas USB,
porém utilizando hubs é que se consegue atingir o número de 127 dispositivos
conectados. Existem hubs de diversas capacidades. Eles costumam ser ligados à
tomada para que possam fornecer energia elétrica para dispositivos de baixo
consumo. Alguns dispositivos de maior porte, como monitores, possuem hubs
embutidos, permitindo a ligação de outros periféricos a ele.

Uma aplicação interessante para o USB é a possibilidade de interligar


computadores para efetuar troca de arquivos com velocidade muito superior ao
Laplink tradicional.

Com base nas informações relacionadas à organização, à arquitetura e aos


componentes funcionais de computadores, julga-se a veracidade de cada um dos
itens.

O item I está correto, pois o termo SCSI (Small Computer System Interface) trata-
se de uma tecnologia criada para acelerar a taxa de transferência de dados entre
dispositivos de um computador, desde que tais periféricos sejam compatíveis com
a tecnologia. O padrão SCSI é muito utilizado para conexões de HD (disco rígido),
scanners, impressoras, CD-ROM ou qualquer outro dispositivo que necessite de
alta transferência de dados.

O item II está correto, pois a IDE (em inglês, Integrated Drive Electronic) é um
barramento de dados que serve para a conexão do disco rígido, CD-ROM e outros
dispositivos. E, atualmente, todas as placas mãe trazem duas interfaces IDE
integradas.

O item III está incorreto, pois o conceito não se refere a um driver de rede e sim a
uma placa de rede. Uma placa de rede é um dispositivo de hardware responsável
pela comunicação entre os computadores em uma rede, seja através de fios seja
sem fios através com tecnologia wireless. Sua função é controlar todo o envio e
recebimento de dados através da rede.

O item IV está incorreto, pois se refere ao padrão USB e não a conexão serial RS-
232. O padrão USB (Barramento Serial Universal), permite que sejam conectados
até 127 equipamentos em cada micro com velocidades de transmissão de 1,5
Mbps ou 12 Mbps. Tudo isso sem a necessidade de desligar o computador para
fazer as ligações e com reconhecimento automático dos aparelhos adicionados. É
o chamado plug and play. Desta forma, é possível usar uma única porta USB para
conectar vários dispositivos periféricos, incluindo gravadoras de CD, joysticks,
unidades de fita, teclados, scanners e câmeras digitais.

34- Com relação à arquitetura de computadores é correto afirmar que:

a) a arquitetura RISC especifica que o microprocessador possui poucas instruções, mas cada uma delas é
otimizada para que sejam executadas muito rapidamente, normalmente, dentro de um único ciclo de
relógio.
b) o BIOS é o circuito de apoio ao computador que gerencia praticamente todo o funcionamento da placa-
mãe (controle de memória cache, DRAM, controle do buffer de dados, interface com a CPU, etc.). Ele
é responsável pelas informações necessárias ao reconhecimento de hardware (armazenadas na sua
memória ROM).
c) usando-se um endereço de K bits pode-se endereçar no máximo K² (K x K) posições de memória ou
células de memória.
d) o chipset é um pequeno programa armazenado na memória ROM da placa-mãe. É responsável por
acordar computador, contar e verificar a memória RAM, inicializar dispositivos, e o principal, dar início
ao processo de boot.
e) os registradores são memórias ROM utilizadas para o armazenamento de dados.

Comentários:

Gabarito A

Arquitetura RISC

A arquitetura RISC (em inglês, Reduced Instruction Set Computer) é constituída


por um pequeno conjunto de instruções simples que são executadas diretamente
pelo hardware, sem a intervenção de um interpretador (microcódigo), ou seja, as
instruções são executadas em apenas uma microinstrução.

As máquinas RISC só se tornaram viáveis devido aos avanços de software no


aparecimento de compiladores otimizados.

Existe um conjunto de características que permite uma definição de arquitetura


básica RISC. São elas:

• o coração de todo computador é o datapath (ULA, registradores e os


barramentos que fazem sua conexão); uma das maiores características das
máquinas RISC é utilizar apenas uma instrução por ciclo do datapath (uma
instrução é similar a uma microinstrução);
• projeto carrega/armazena, ou seja, as referências à memória são feitas por
instruções especiais de load/store;
• inexistência de microcódigo; sendo assim, a complexidade está no
compilador;
• instruções de formato fixo, permitindo uso consistente do formato e
facilitando a decodificação de instruções por controle fixo, o que torna mais
rápido os dutos de controle;
• conjunto reduzido de instruções, facilitando a organização da UC de modo
que esta tenha uma interpretação simples e rápida;
• utilização de pipeline, uma técnica de dividir a execução de uma instrução
em fases ou estágios, abrindo espaço para execução simultânea de
múltiplas instruções; à medida que um estágio é concluído, a instrução vai
para a frente, no canal, e a instrução seguinte vai para aquele estágio;
como as instruções RISC são do mesmo tamanho, elas levam um ciclo
para completar cada estágio de pipeline. Por exemplo, se uma instrução
pode ser dividida em 4 fases, 4 instruções podem ser executadas
simultaneamente;
• utilização de múltiplos conjuntos de registradores.

A especificação de formatos e o número de instruções são os pontos mais


enfocados quando se fala de arquitetura RISC, mas uma generalização bem feita
da teoria RISC vai muita além, indicando uma predisposição para estabelecer
livremente compromissos de projeto através das fronteiras
arquitetura/implementação e tempo de compilação/tempo de execução, de modo a
maximizar o desempenho medido em algum contexto específico.

O principal objetivo de uma máquina RISC é executar uma instrução por ciclo;
como o acesso à memória utiliza mais ciclos, a solução foi criar um grande
número de registradores (overlapping register windows). Este número de
registradores tem grande impacto na performance das máquinas RISC, que só
são possíveis devidos sua simplicidade de projeto (inexistência de microcódigo).

Arquiteturas RISC x CISC

O ambiente de aplicação da máquina é muito importante na escolha do projeto a


ser adotado. Enquanto milhares de instruções por segundo podem ser uma
métrica útil em alguns ambientes de computadores, confiabilidade, disponibilidade
e tempo de resposta podem ser o ponto alto para outros. Instruções CISC são
fundamentais em supercomputadores vetoriais, que trabalham com muitas
operações numéricas, cujo desempenho em velocidade dificilmente poderá ser
atingido por máquinas de arquitetura RISC.

Apresenta-se neste momento os argumentos favoráveis às arquiteturas RISC, o


primeiro deles é que o projeto RISC é mais simples e seu conjunto pequeno de
instruções pode ser implementado mais rapidamente, implicando numa vantagem
de desempenho sobre máquinas complexas (os processadores CISC usam um
conjunto complexo e maior de instruções).

Além disso, os chips RISC normalmente usam menos que 128 instruções
comparados com 200 a 300 nos típicos chips CISC e produzem menos formatos
de instruções e modos de endereçamentos remotos que os chips CISC.

O conjunto complexo de instruções CISC produz operações internas lentas e faz


com que o chip decodifique instruções.

O tamanho fixo das instruções no RISC (geralmente 32 bits) produz melhor


alinhamento de instruções na memória, resultando em mais eficiência nas
operações e o conjunto de instruções RISC utiliza o recurso de pipeline (uma
instrução por ciclo), sendo mais eficiente que os processadores CISC.

Por outro lado, os processadores RISC, usando instruções mais simplificadas com
orientação de carrega/armazena, exigem maior memória de armazenamento para
seus programas em linguagem de máquina e apresentam também maior tráfego
de memória, ou seja, os programas baseados em RISC sempre requerem mais
instruções para completar uma tarefa.

Um dos propósitos das arquiteturas RISC é propiciar máquinas mais rápidas, mais
baratas e fáceis de projetar, mas tudo isso é muito discutível. A simplicidade e o
conjunto reduzido de instruções de filosofia RISC inicial se revelam insuficientes.
As máquinas ditas RISC têm um conjunto de instruções bastante grande. Um
projeto RISC, na prática, também não significa um processador simplificado. A
sofisticação da lógica de pipeline e paralelismo aumenta significativamente a
complexidade do projeto. Sendo assim, a linha divisória entre RISC e CISC está
perdendo a nitidez; as CPUs INTEL, do 486 em diante, já usam parte das técnicas
RISC, diminuindo o conjunto de instruções e aumentando o número de
registradores.

A simplificação das instruções é um grande mérito e tem influenciado as atuais


arquiteturas. Isso significa que os princípios RISC e CISC podem viver
harmoniosamente em um único projeto. As memórias cache maiores, que
diminuem a dependência dos acessos à memória, e uma melhoria na tecnologia
dos compiladores diminuem ainda mais as diferenças apregoadas entre as
máquinas RISC e CISC.

Para exemplificar esta tendência, desde da sexta geração (6ª geração), os


processadores da Intel utilizam uma arquitetura híbrida CISC/RISC. O
processador deve aceitar instruções CISC, também conhecidas como instruções
x86, já que todos os programas disponíveis hoje são escritos usando este tipo de
instruções. Um processador inteiramente RISC não poderia ser criado para ser
usado nos PCs porque ele não pode rodar programas que temos disponíveis hoje,
como Windows e Office.
Portanto, a solução usada por todos os processadores disponíveis no mercado
hoje, tanto da Intel quanto da AMD, é usar um decodificador CISC/RISC. O
processador trabalha internamente executando instruções RISC, mas aceita
apenas instruções CISC x86.

Instruções CISC x86 são conhecidas como “instruções”, enquanto que as


instruções RISC são conhecidas como “microinstruções” ou “µops”.

Essas microinstruções do RISC, no entanto, não podem ser acessadas


diretamente e, portanto, não podería criar programas baseados nessas instruções
e enviá-las para as unidades de execução passando por cima do decodificador de
instruções. Além disso, cada processador possui seu próprio conjunto de
instruções RISC, que não são divulgadas pelo fabricante e são incompatíveis com
as microinstruções de outros processadores. Por exemplo, as microinstruções do
Pentium III são diferentes das microinstruções do Pentium 4, que são diferentes
das microinstruções do Athlon 64.

Com base nas informações relacionadas à arquitetura de computadores, julga-se


a veracidade de cada uma das alternativas.

A alternativa (a) está correta, pois a arquitetura RISC (em inglês, Reduced
Instruction Set Computer) é constituída por um pequeno conjunto de instruções
simples que são executadas diretamente pelo hardware, sem a intervenção de um
interpretador (microcódigo), Uma das maiores características das máquinas RISC
é utilizar apenas uma instrução por ciclo de relógio (uma instrução é similar a uma
microinstrução).

Complementando a resposta, os argumentos favoráveis às arquiteturas RISC, é


que um projeto RISC é mais simples e seu conjunto pequeno de instruções pode
ser implementado mais rapidamente, implicando numa vantagem de desempenho
sobre máquinas complexas (os processadores CISC usam um conjunto complexo
e maior de instruções).

Além disso, os chips RISC normalmente usam menos que 128 instruções
comparados com 200 a 300 nos típicos chips CISC e produzem menos formatos
de instruções e modos de endereçamentos remotos que os chips CISC.

A alternativa (b) está incorreta, pois o BIOS não um circuito de apoio e sim o
primeiro programa executado pelo computador ao ser ligado. Sua função primária
é preparar a máquina para que o sistema operacional, que pode estar
armazenado em diversos tipos de dispositivos (discos rígidos, disquetes, CDs, etc)
possa ser executado. Como já comentado em outras questões, o BIOS é
armazenado num chip de memória ROM localizado na placa-mãe, chamado ROM
BIOS. O texto da alternativa se refere ao conceito de chipset.

A alternativa (c) está incorreta, pois se usando um endereço de m bits, pode-se


endereçar 2m posições de memória ou célula de memória. Célula é a menor
unidade endereçável de uma máquina. O tamanho de uma célula varia de cada
máquina. Para maiores detalhes sobre endereçamento, bits internos e externos,
consultar questão 03 da prova SEFAZ/CE 2007.

A alternativa (d) está incorreta, pois o chipset é um conjunto de circuitos de apoio


utilizados na placa-mãe. Ele é responsável entre outras coisas, de definir a
quantidade máxima de memória RAM de uma placa-mãe pode ter, o tipo de
memória a ser usada (SDRAM, DDR-SDRAM, Rambus, etc.), a freqüência
máxima das memórias e do processador e o padrão de discos rígidos aceitos
(UDMA/33, UDMA/66, etc.). O texto da alternativa se refere ao conceito de BIOS.

A alternativa (e) está incorreta, pois um registrador é um tipo de memória pequena


e rápida, contida na CPU, utilizada no armazenamento temporário durante o
processamento. O acesso entre a unidade central de processamento e o
registrador é mais rápido que o acesso à memória cache.

Este é utilizado na execução de programas de computadores, disponibilizando um


local para o acesso de dados freqüentemente utilizados. Nos computadores
modernos, quando da execução das instruções de um programa, os dados são
movidos da memória principal para os registros, as instruções são executadas
pelo processador, e finalmente, os dados são movidos de volta para a memória
principal.

35- Analise as seguintes afirmações relacionadas às características do sistema de arquivo NTFS:

I. O sistema de arquivos NTFS, utilizado por algumas versões antigas do Windows e pelas primeiras
versões do Linux, foi substituído por outros sistemas de arquivos mais modernos por possuir um limite
de armazenamento de 2 GBytes.
II. O sistema de arquivo NTFS permite o uso de arrays RAID.
III. Com o sistema de arquivos NTFS é possível ter um controle de acesso a arquivos com a possibilidade
do gerenciamento de usuários, incluindo suas permissões de acesso e escrita nesses arquivos.
IV. O sistema de arquivos NTFS é um sistema que funciona por meio de uma espécie de tabela que
contém indicações de onde estão as informações de cada arquivo. Não trabalha diretamente com cada
setor, mas sim com um grupo de setores. Esse grupo é chamado de cluster (ou unidade de alocação).
Se, por exemplo, um disco com setor de 512 bytes, tiver 5 KB de tamanho, ele terá 10 setores e 5
clusters, se cada cluster ocupar dois setores. Sendo assim, quando o NTFS precisar acessar um
determinado setor, primeiro ele descobre em qual cluster ele se encontra.

Indique a opção que contenha todas as afirmações verdadeiras.

a) I e II
b) II e IV
c) III e IV
d) I e III
e) II e III

Comentários:
Gabarito E

Desde a época do DOS, a Microsoft vinha utilizando o sistema de arquivos FAT,


que foi sofrendo variações ao longo do tempo, de acordo com o lançamento de
seus sistemas operacionais. No entanto, o FAT apresenta algumas limitações,
principalmente no quesito segurança. Por causa disso, a Microsoft lançou o
sistema de arquivos NTFS (em inglês, New Technology File System), usado
inicialmente em versões do Windows para servidores.

O sistema de arquivos FAT é aceitável e perfeitamente funcional para a maioria


dos usuários domésticos. Trata-se um sistema antigo, que mesmo com novas
versões, herdou a simplicidade da primeira versão. As limitações do FAT,
principalmente quanto à segurança, capacidade e confiança, fizeram-no um
sistema de arquivos inadequado para uso em servidores e aplicações críticas. A
Microsoft, estando ciente disso, decidiu desenvolver um sistema de arquivos que
se adequasse aos princípios de funcionamento do Windows NT e lançou o NTFS.
Entre os objetivos da idealização do NTFS estavam o fornecimento de um sistema
de arquivos flexível, adaptável, altamente seguro e confiável. Sem dúvida, tais
características fizeram do Windows NT um sistema operacional aceitável para as
aplicações cujo seu desenvolvimento foi planejado.

O NTFS foi desenvolvido e muitos até hoje pensam que ele é um sistema de
arquivos inteiramente desenvolvido pela Microsoft, o que não é verdade. Seu
projeto foi baseado nas análises das necessidades do novo sistema operacional,
mas seus conceitos funcionais foram "herdados" do sistema de arquivos HPFS
(em inglês, High Performance File System) do sistema operacional OS/2,
desenvolvido por um projeto realizado em conjunto entre a Microsoft e a IBM.

O NTFS possui características importantes, que o fez ser considerado um bom


sistema de arquivos. Entre essas qualidades estão: confiança, pois permite que o
sistema operacional se recupere de problemas sem perder informações, fazendo-
o ser tolerante a falhas; segurança, em que é possível ter um controle de acesso
preciso e ter aplicações que rodem em rede, fazendo com que seja possível o
gerenciamento de usuários, incluindo suas permissões de acesso e escrita de
dados; armazenamento, em que é possível trabalhar com uma grande quantidade
de dados, permitindo inclusive o uso de arrays RAID; rede, fazendo do sistema
plenamente funcional para o trabalho e o fluxo de dados em rede.

Há muitas outras características, que ficam mais ainda visíveis se comparadas ao


FAT. A Microsoft trabalha bastante para aperfeiçoar o NTFS, por isso, é de se
esperar que novas características sejam implementadas no sistema de arquivos,
de acordo com o lançamento de novas versões do Windows.

Assim como aconteceu com o FAT, o NTFS também tem versões, que foram
lançadas principalmente no surgimento de novos Windows. A cada versão,
correções de falhas são feitas, suportes a hardware são implementados e novas
características são dadas ao NTFS. A princípio houve o NTFS 1.0 usado no
Windows NT 3.1.

Com o lançamento do Windows NT 4, o NTFS ganhou a versão 1.1 (ou versão 4).
Esta versão também foi usada no Windows NT 3.51. O sucesso do Windows NT
foi tão grande que sua versão do NTFS virou referência em sistemas de arquivos.

A Microsoft não ficou parada e lançou a versão conhecida como NTFS 5.0 com o
lançamento do Windows 2000, substituto do Windows NT. Apesar da nova versão,
o NTFS 4 foi tão difundido que seu suporte a outro sistemas operacionais não
acabará tão cedo.

Esta nova versão do NTFS possui novas características importantes, além


daquelas herdadas da versão anterior. Essas mudanças foram essenciais para
fazer do Windows 2000 um sistema que fosse realmente adequado para substituir
o Windows NT. Só para servir de exemplo, o serviço Active Directory é um dos
chamativos do Windows 2000 e foi implementado graças a alterações no FTFS.
Entre os novos recursos do NTFS 5 estão: Reparse Points, em que os arquivos e
pastas dentro do sistema de arquivos podem ter ações associadas a eles, de
forma que operações particulares a estes arquivos possam ser executadas; novas
características de segurança, em que o mecanismo para gerenciamento da
segurança e de usuários, principalmente em relação a acesso e arquivos foram
melhorados; quotas de discos, em que o administrador do sistema pode
determinar o espaço em disco disponível a um usuário ou a um grupo de usuários;
diários de alterações, em que volumes podem ser ajustados para rastrear as
operações efetuadas nos arquivos e pastas; codificação, em que o sistema
permite que arquivos sejam codificados/decodificados automaticamente; suporte a
arquivos esparsos, em que é possível armazenar de forma eficiente arquivos
esparsos (que são arquivos grandes mas que possuem algumas estruturas vazias,
desperdiçando espaço em disco).

Com o lançamento do Windows Vista, Windows XP, Windows 2003 Server e


futuras versões, o NFTS vai ganhando melhoramentos e novas características,
mas certamente a versão 4 ainda será uma referência. Isso deixa claro que o
NFTS não deixará de ser usado tão cedo pela Microsoft.

Conforme as características herdadas do HPFS, o NTFS trabalha de uma forma


mais eficiente no gerenciamento do espaço de disco. Isso porque as informações
são armazenadas em uma base por setor do disco, em vez de utilizar clusters de
múltiplos setores. Essa forma de trabalho traz várias vantagens, como menor
necessidade de desfragmentação de disco e maior consistência de dados. Isso
porque essa arquitetura de dados por base em setor permite manter os dados
próximos, ou seja, não espalhados pelo disco. Até o gerenciamento de grandes
quantidades de dados é beneficiado por esta característica, já que como acontecia
com o FAT, trabalhar com clusters por setor, fazia do sistema de arquivos
dependente de um número pré-determinado de setores.

Com base nas informações relacionadas às características do sistema de arquivo


NTFS, julga-se a veracidade de cada um dos itens.

O item I está incorreto, pois o sistema de arquivos NTFS, utilizado pelas versões
novas do Windows, substituiu o sistema de arquivos FAT devido algumas
limitações, principalmente no quesito segurança. Por causa disso, a Microsoft o
lançou, usado inicialmente em versões do Windows para servidores. Com o
lançamento do Windows Vista, Windows XP, Windows 2003 Server e futuras
versões, o NFTS vem ganhando melhoramentos e novas características. Isso
deixa claro que o NFTS não deixará de ser usado tão cedo pela Microsoft.

O item II está correto, pois uma das características do sistema de arquivo NTFS é
quanto à capacidade de armazenamento, em que é possível trabalhar com uma
grande quantidade de dados, permitindo inclusive o uso de arrays RAID.

O item III está correto, pois uma das características do sistema de arquivo NTFS é
quanto ao aspecto de segurança, em que é possível ter um controle de acesso
preciso e ter aplicações que rodem em rede, fazendo com que seja possível o
gerenciamento de usuários, incluindo suas permissões de acesso e escrita de
dados.

O item IV está incorreto, pois, conforme as características herdadas do HPFS, o


NTFS trabalha de uma forma mais eficiente no gerenciamento do espaço de disco.
Isso porque as informações são armazenadas em uma base por setor do disco,
em vez de utilizar clusters de múltiplos setores. Essa forma de trabalho traz várias
vantagens, como menor necessidade de desfragmentação de disco e maior
consistência de dados. Isso porque essa arquitetura de dados por base em setor
permite manter os dados próximos, ou seja, não espalhados pelo disco. Até o
gerenciamento de grandes quantidades de dados é beneficiado por esta
característica, já que como acontecia com o FAT, trabalhar com clusters por setor,
fazia do sistema de arquivos dependente de um número pré-determinado de
setores.

36- Analise as seguintes afirmações relacionadas a definições, aplicativos, ferramentas e aplicativos


associados à Internet/Intranet:

I. Uma Intranet é uma rede de computadores corporativa que utiliza as mesmas tecnologias da Internet.
O TCP/IP é o protocolo de transmissão de dados de uma Intranet e nela podem-se encontrar vários
tipos de serviços de rede comuns à Internet, como o e-mail, por exemplo.
II. É possível usar o site de busca Google como dicionário. Para isso, basta digitar a palavra define: e, em
seguida, digitar o termo desejado. Por exemplo, para saber o significado de ROM deve-se digitar
define: ROM e teclar <Enter>.
III. A sigla HTTP é utilizada para definir uma linguagem de marcação utilizada para produzir páginas na
Internet. Esses códigos podem ser interpretados pelos browsers para exibir as páginas da World Wide
Web.
IV. Um servidor (programa) proxy (ou com capacidades de proxy) consiste em um serviço, onde são
armazenadas ligações entre endereço IPs e domínios. Quando se pede ao browser para chamar um
determinado domínio, automaticamente ele acessa ao servidor proxy configurado e encontra o
respectivo endereço IP da máquina que fornece o serviço requisitado e, assim, torna-se possível
utilizar determinados serviços usando nomes em vez de endereços IP.
Indique a opção que contenha todas as afirmações verdadeiras.

a) I e III
b) II e III
c) III e IV
d) I e II
e) II e IV

Comentários:

Gabarito D

Protocolo HTTP

HTTP é um protocolo, da camada de aplicação do modelo OSI, utilizado para


transferência de dados na rede mundial de computadores, a WEB (em inglês,
World Wide Web). Uma das características peculiares de HTTP é a composição
flexível do cabeçalho, composto por diversas linhas, o que permite sua utilização
como integrador de diversos formatos e não apenas de documentos HTML. Isto é,
este transfere dados de hipermídia (imagens, sons e textos) com estrutura
requisição-resposta.

Essa flexibilidade reflete-se também na maior complexidade desse protocolo. No


entanto, é possível estabelecer servidores HTTP operando com configurações
simplificadas, em que nem todos os serviços previstos no protocolo são
implementados.

Os principais serviços de HTTP incluem:

• GET: solicita ao servidor o envio de um recurso; é o serviço essencial para


o protocolo.
• HEAD: variante de GET que solicita ao servidor o envio apenas de
informações sobre o recurso.
• PUT: permite que o cliente autorizado armazene ou altere o conteúdo de
um recurso mantido pelo servidor.
• POST: permite que o cliente envie mensagens e conteúdo de formulários
para servidores que irão manipular a informação de maneira adequada.
• DELETE: permite que o cliente autorizado remova um recurso mantido pelo
servidor.

Linguagem HTML

A HTML (em inglês, HyperText Markup Language) é uma linguagem de marcação


utilizada para produzir páginas na Web. Documentos HTML podem ser
interpretados por navegadores (Browser). A tecnologia é fruto da união dos
padrões HyTime e SGML.
O HyTime é um padrão para a representação estruturada de hipermídia e
conteúdo baseado em tempo. Um documento é visto como um conjunto de
eventos concorrentes dependentes de tempo (como áudio, vídeo, etc.),
conectados por hiper-ligações. O padrão é independente de outros padrões de
processamento de texto em geral.

O SGML é um padrão de formatação de textos. Não foi desenvolvido para


hipertexto, mas tornou-se conveniente para transformar documentos em hiper-
objetos e para descrever as ligações.

Intranet Corporativa

A Intranet é uma rede de computadores interna baseada no protocolo TCP/IP que


se caracteriza pelo uso das tecnologias Word Wide Web no ambiente privativo da
empresa. Composta por um servidor Web corporativo, tornando-se disponíveis
para os usuários através de uma rede interna ou acesso discado privativo,
fornecendo assim uma variedade de informações por meio de um único front-end,
o navegador Web (browser).

Além de incorporar toda a tecnologia Internet, as Intranets podem utilizar a


estrutura de comunicação de dados da própria rede pública para se comunicar
com filiais ou com qualquer empresa conectada à grande rede.

Dentro dos limites da empresa, tudo o que circula em forma de papel pode ser
colocado na intranet de forma simples e objetiva: desde manuais e políticas de
procedimento até informações de marketing, catálogos de venda de produtos,
recursos humanos e catálogos telefônicos. Tudo baseado na estrutura de
Hipertexto (HTTP), interligados por links.

Um exemplo típico de aplicações de redes Intranets é o caso da empresa matriz


se conectar a suas filiais, fornecedores e clientes.

Um exemplo prático é o caso de vendedores externos que utilizam computadores


portáteis para visitarem seus clientes. Em muitos casos estes vendedores não
retornam a suas empresas. Conectam-se remotamente a suas empresas a partir
de linhas telefônicas de suas residências e acessam o banco de dados de suas
corporações. Normalmente, atualizam informações de estoques, posição de
vendas e troca de mensagens (e-mails). Por sua vez, os demais membros da
empresa podem acessar estes, e outros, dados de qualquer computador
conectado á Internet. Podendo realizar processos como se estivesse na própria
empresa.

Alguns benefícios da Intranet são:

• Controle e gerenciamento de informações e processos de qualquer


computador conectado à Internet (empresa, hotel, casa etc);
• Redução de custos de impressão, papel, distribuição de software, correio e
processamento de informações;
• Redução de despesas com telefonemas e pessoal no suporte telefônico;
• Maior facilidade e rapidez no acesso a localizações remotas:
o Incrementando o acesso a informações.
o Uma base de pesquisa mais compreensiva, facilidade de acesso a
funcionário, clientes e fornecedores.
o Aumento da precisão e redução de tempo no acesso à informação.
o Uma única interface amigável e consistente para aprender e usar
Informação e Treinamento imediato (Just in Time).
o As informações são visualizadas com clareza.
o Redução de tempo na pesquisa às informações. Compartilhamento e
reutilização de ferramentas e informação.
o Redução no tempo de configuração e atualização dos sistemas.
o Simplificação e/ou redução das licenças de softwares e outros.
o Redução de custos de suporte.
o Redução de redundância na criação e manutenção de apostilas e
manuais.
o Redução de custos de arquivamento.
o Compartilhamento de recursos e habilidades.

Algumas aplicações comuns para Intranet são:

• Correio eletrônico;
• Transferência de arquivos;
• Consulta a informações;
• Integração com aplicativos de Sistema de Gestão;
• Acesso a manuais de procedimento;
• Acesso a produtos e Informações;
• Acesso a informações de funcionários;
• Revisão e aprovação de documentos;
• Agenda, calendários, linhas de tempo;
• Acesso à banco de dados.

A intranet é usada em uma série de aplicações para vantagens estratégicas, a


saber:

• Substituição de papel nas comunicações de rotina;


• Para favorecer comunicação entre grupos de trabalho;
• Como interface (front-end) no acesso a aplicações cliente/servidor;
• Para distribuição de software interno.
Servidor Proxy

Um proxy é um software responsável por armazenar dados em forma de cache em


redes de computadores. São instalados em máquinas com configurações
superiores às dos clientes e com alta capacidade de armazenamento.

A idéia de PROXY surgiu da necessidade de conectar uma rede local à internet


através de um computador da rede que compartilha sua conexão com as demais
máquinas. Em outras palavras, se considerar que a rede local é uma rede interna
e a internet é uma rede externa, pode-se dizer que o proxy é que permite outras
máquinas terem acesso externo. Geralmente, máquinas da rede interna não
possuem endereços válidos na internet e, portanto, não têm uma conexão direta
com a internet. Assim, toda solicitação de conexão de uma máquina da rede local
para um host da internet é direcionada ao proxy, este, por sua vez, realiza o
contato com o host desejado, repassando a resposta à solicitação para a máquina
da rede local. Por este motivo, é utilizado o termo proxy para este tipo de serviço,
que significa etimologicamente procurador ou intermediário. É comum considerar o
proxy com conexão direta com a internet.

Uma aplicação popular de proxy é o caching web proxy, isto é, um web proxy
usado com cache. Este provê um cache de páginas da internet e arquivos
disponíveis em servidores remotos da internet, permitindo aos clientes de uma
rede local (LAN) acessá-los mais rapidamente e de forma viável.

Quando este recebe uma solicitação para obter um recurso da internet,


especificado por uma URL, um proxy que usa cache procura por resultados desta
URL no seu cache local. Se o recurso for encontrado, ele é retornado
imediatamente. Senão, ele carrega o recurso do servidor remoto, retornando-o ao
solicitador e armazena uma cópia deste no seu cache. O cache usa normalmente
um algoritmo de expiração para remover documentos do cache, de acordo com a
sua idade, tamanho e histórico de acesso. Dois algoritmos simples são o LRU (em
inglês, Least Recently Used) e o LFU (em inglês, Least Frequently Used). O LRU
remove os documentos existentes por muito tempo, enquanto o LFU remove
documentos menos populares.

Ainda uma outra característica de proxy é a transparência. Um proxy


transparente é um método para obrigar os usuário es de uma rede a utilizarem o
proxy. Além das características de caching dos proxies convencionais, estes
podem impor políticas de utilização ou recolher dados estatísticos, entre outras. A
transparência é conseguida, por exemplo, interceptando o tráfego HTTP e o
encaminhando para o proxy mediante a técnica ou variação de port forwarding.
Assim, independentemente das configurações explícita do usuário, a sua
utilização estará sempre condicionada às políticas de uso da rede. O RFC 3040
define este método como proxy interceptador.

Resumidamente, um servidor proxy é um computador intermediário que fica entre


o computador do usuário e a Internet. Pode ser utilizado para registrar o uso da
Internet e também para bloquear o acesso a um site da Web.

Estes servidores proxy funcionam como firewall e filtro de conteúdo quando


constituem um mecanismo de segurança implantado pelo provedor de Internet ou
pelos administradores da rede em um ambiente de intranet a fim de desativar o
acesso ou filtrar solicitações de conteúdo de determinados sites considerados
ofensivos ou prejudiciais para a rede e os usuários ou para melhorar o
desempenho da rede através do armazenam em cache de páginas da Web
acessadas por hosts da rede durante determinado período. Sempre que um host
solicita a mesma página da Web, o servidor proxy utiliza as informações
armazenadas em cache em vez de recuperá-las do provedor de conteúdo. Isso
proporciona acesso mais rápido às páginas da Web.

Servidor DNS

O sistema de nome de domínio (DNS, em inglês, Domain Name System) é


constituído por protocolos e serviços que permitem aos usuários utilizar nomes em
vez de endereços IP para consultar os sites web.

O DNS consiste num serviço, em que são armazenadas ligações entre endereço
IPs e domínios. Quando se pede ao seu navegador, cliente de email, cliente de
ftp, ou qualquer outro aplicativo para chamar um determinado domínio,
automaticamente ele acessa o servidor DNS configurado, e encontra o respectivo
endereço IP da máquina que fornece o serviço requisitado e, assim, torna-se
possível utilizar determinados serviços usando nomes em oposição a endereços
IP.

Por exemplo, se um endereço IP de um site FTP de dominio.br é 200.10.120.30, a


maior parte das pessoas liga-se a ele através de ftp.dominio.br e não através do
seu endereço IP.

Além de o domínio ser mais fácil de memorizar, também é mais flexível. Na


realidade o endereço numérico poderá alterar por diversas razões, enquanto o
domínio se mantém intacto, apenas irá mudar o IP da máquina para a qual o
domínio aponta.

Recursos Google

A quantidade de informações na Internet é tão grande e diversificada que é


praticamente impossível encontrar tudo o que se precisa sem o uso de um
mecanismo de busca. Existem ferramentas de busca muito boas na Internet, como
o Altavista, o AlltheWeb, o Yahoo e o MSN. No entanto, nenhum desses sites
consegue ter a amplitude do Google. Existem boas razões para isso.

O Google atualiza sua base de informações diariamente. Existe o crawler


Googlebot, um robô do Google que busca por novas informações em tudo o que
for site. Isso é um grande diferencial, pois, cerca de aproximadamente 4 dias
depois de uma matéria ser publicada em um site já é possível encontrá-la no
Google. Outros mecanismos de busca também possuem crawlers, mas eles não
são tão eficientes em termos de atualização e de classificação de informações.

Outra razão para o sucesso do Google é o sistema PageRank. Trata-se de um


algoritmo desenvolvido pelos próprios fundadores do Google - Larry Page e
Sergey Brin - na Universidade de Stanford, que atribui uma pontuação (um
PageRank) a páginas web, de acordo com a quantidade e a qualidade dos links
(externos ou internos) que apontem para ela. O PageRank é um dos fatores de
maior peso na definição do ordenamento das páginas apresentadas pela Google.

O Google disponibiliza ainda um recurso extremamente útil: a opção "Em cache".


O Google armazena quase todas as páginas rastreadas pelo Googlebot e permite
que esse conteúdo seja acessado mesmo quando o site original não está no ar.
Por exemplo, suponha que o usuário fez uma pesquisa e ao clicar em um link que
aparece na página de resultados constatará que aquela página não existe mais.
Se clicar em "Em cache", um link que fica junto a cada item disponibilizado na
página de resultados, o usuário acessará uma cópia daquela página que está
armazenada no Google.

O Google oferece, além de seu tradicional mecanismo de busca, vários outros


serviços, como o Google News, o Acadêmico, a Agenda, o Pack, o Textos e
Planilhas, o Picasa, o Orkut, o Froogle, o Gmail, o Google Talk, o Google Desktop,
o Google Earth, entre outros.

Para conhecer de algumas novidades que Google trabalha atualmente, basta


visitar o Google Labs.

Para exemplificar os recursos disponíveis pelo Google, mostram-se nas tabelas a


seguir algumas instruções de operações para realizar cálculos e conversões.
Fazer cálculos no Google é simples, basta digitar, por exemplo, 5 + 3, 15 * 3, 16 /
8 ou 8 − 6 e veja o que acontece. O Google consegue realizar desde operações
básicas até as mais complexas.
Operação Símbolo Exemplo
Soma + 5+3
Funções Trigonométricas sin, cos, tan sin(45 degrees)
Raiz Quadrada sqrt sqrt (90)
Logaritmo base 10 log log(100)
Fatorial ! 6!
Porcentagem % of 15% of 1000
Raiz N-ésima N th root of 4th root of 64

É possível criar uma equação. Por exemplo, sqrt(64 + 36) * log(100) / tan(45
degrees) + 1. O Google dará como resultado 21.

Conversão Símbolo Exemplo


Milhas para Quilometro miles in km 50 miles in km
Quilograma para Libra kg in lb 10 kg in lb
Centímetro para Pés cm in ft 30 cm in ft
Dólar para Real USD in Real. 2 USD in Real
Decimal para Romano in roman numerals 2004 in roman numerals
Horas para Minutos hours in minutes 9 hours in minutes
Dias para Horas days in hours 365 days in hours

Todos os casos são possíveis fazer as operações de modo contrário.

Além dessas opções básicas, existem alguns operadores avançados. O Google


faz um filtro de busca retirando informações pequenas, tais como: de(a,o), por ,
para, com. Dessa forma, não é totalmente necessário fazer o filtro manualmente,
porém a pesquisa pode se tornar um pouco mais rápida.

Função Exemplo Descrição


Pesquisa Exata "Concursos" Procura pela ocorrência EXATA
(com as palavras agrupadas) de
Concursos.
Filtrar Resultado Concursos -Públicos Filtra o resultado removendo
todos os que possuem Público
como resultado.
Curingas "RUP * metodologia" Troca o asterisco por uma
palavra ou frase desconhecida.
Procurar num Site CMM site:pt.wikipedia.org Procura pela palavra CMM no
site pt.wikipedia.org.
Buscar por tipo de Concursos filetype:PDF Procura a palavra Concursos em
arquivo arquivos com extensão PDF.
Combinar filetype:PDF Procura por arquivos de
Informações site:pt.wikipedia.org extensão PDF no site da
pt.wikipedia.org.
Buscando pelo URL inurl:concursos Procura concursos no URL do
site.
Buscando pelo Texto intext: concursos Procura pelo texto concursos no
conteúdo do site, o usuário pode
simplificar este uso digitando
somente concursos.
Buscando Conceitos define: informática Define a palavra informática.
Palavras Chaves keyword:wikipedia Procura na METATAG do site por
Wikipédia isto algumas vezes
podem ser mais funcional.
Cache Cache: www.google.com Vê a página www.google.com em
cache.
Título intitle:google wikipedia Procura páginas que tenham
google e/ou wikipedia no título da
página.

Com base nas informações relacionadas a definições, aplicativos, ferramentas e


aplicativos associados à Internet/Intranet, julga-se a veracidade de cada um dos
itens.

O item I está correto, pois a Intranet é uma rede de computadores interna baseada
no protocolo TCP/IP que se caracteriza pelo uso das tecnologias Word Wide Web
no ambiente privativo da empresa. Composta por um servidor WEB corporativo,
tornando-se disponíveis para os usuários através de uma rede interna ou acesso
discado privativo, fornecendo assim uma variedade de informações por meio de
um único front-end, o navegador Web (browser). Algumas aplicações comuns para
Intranet são: correio eletrônico, transferência de arquivos, acesso à banco de
dados, entre outros.

O item II está correto, pois o Google tem uma série de recursos interessantes. Um
deles é o recurso define. Ele serve como um dicionário. Basta o usuário digitar na
caixa de busca define: seguido da palavra que o usuário quer saber o significado.
Por exemplo, para saber o significado de ROM deve-se digitar define: ROM e
teclar <Enter>.

O item III está incorreto, pois o texto não se refere ao protocolo HTTP e sim a
HTML que é utilizada para definir uma linguagem de marcação utilizada para
produzir páginas na Internet. Esses códigos podem ser interpretados pelos
browsers para exibir as páginas da World Wide Web.

O item IV está incorreto, pois a definição não se refere ao servidor (programa)


proxy e sim ao conceito de servidor DNS que consiste em um serviço, em que são
armazenadas ligações entre endereço IPs e domínios. Quando se pede ao
browser para chamar um determinado domínio, automaticamente ele acessa ao
servidor proxy configurado e encontra o respectivo endereço IP da máquina que
fornece o serviço requisitado e, assim, torna-se possível utilizar determinados
serviços usando nomes em vez de endereços IP.

37- Nos sistemas operacionais, um processo é a forma de representar um programa em execução. É o


processo que utiliza os recursos do computador para a realização das tarefas para as quais a máquina é
destinada. Com relação aos processos do Linux, o comando:

a) kill -%CPU 15 4155 faz com que o Linux utilize até 15% da CPU para o processo 4155.
b) kill -SEGV 4155 faz com que o Linux informe a faixa de endereço que o processo 4155 está ocupando.
c) kill -CONT 4155 faz com que o processo 4155 volte a ser executado.
d) kill -ILL 4155 faz com que o Linux elimine o processo 4155.
e) kill -TERM 4155 faz com que o Linux informe o tempo que o processo 4155 está parado.

Comentários:

Gabarito C

Nos sistemas operacionais, um processo é a forma de representar um programa


em execução. É o processo que utiliza os recursos do computador - processador,
memória, etc - para a realização das tarefas para as quais a máquina é destinada.

O sistema operacional lida com uma infinidade de processos e, por isso, é


necessário ter meios que permitam controlá-los. Para isso, os processos contam
com um conjunto de características, dentre as quais:

• Proprietário do processo;
• Estado do processo (em espera, em execução, etc);
• Prioridade de execução;
• Recursos de memória.

O trabalho de gerenciamento de processos precisa contar com as informações


acima e com outras de igual importância para que as tarefas sejam executadas da
maneira mais eficiente. Um dos meios usados para isso é atribuir a cada processo
um PID.

Um PID (em inglês, Process Identifier) é um número de identificação que o


sistema dá a cada processo. Para cada novo processo, um novo número deve ser
atribuído, ou seja, não se pode ter um único PID para dois ou mais processos ao
mesmo tempo.

Os sistemas baseados em Unix precisam que um processo já existente se


duplique para que a cópia possa ser atribuída a uma tarefa nova. Quando isso
ocorre, o processo "copiado" recebe o nome de "processo pai", enquanto que o
novo é denominado "processo filho". É nesse ponto que o PPID (em inglês, Parent
Process Identifier) passa a ser usado: o PPID de um processo nada mais é do que
o PID de seu processo pai.

Conforme já mencionado, cada processo precisa de um proprietário, um usuário


que seja considerado seu dono. A partir daí, o sistema saberá, através das
permissões fornecidas pelo proprietário, quem pode e quem não pode executar o
processo em questão. Para lidar com os donos, o sistema usa os números UID e
GID.

O Linux gerencia os usuários e os grupos através de números conhecidos como


UID (em inglês, User Identifier) e GID (em inglês, Group Identifier). Como é
possível perceber, UID são números de usuários e GID são números de grupos.
Os nomes dos usuários e dos grupos servem apenas para facilitar o uso humano
do computador.

Cada usuário precisa pertencer a um ou mais grupos. Como cada processo ou


cada arquivo pertence a um usuário, logo, esse processo pertence ao grupo de
seu proprietário. Assim sendo, cada processo está associado a um UID e a um
GID.

Os números UID e GID variam de 0 a 65536. Dependendo do sistema, o valor


limite pode ser maior. No caso do usuário root, esses valores são sempre 0 (zero).
Assim, para fazer com que um usuário tenha os mesmos privilégios que o root, é
necessário que seu GID seja 0.

Os sinais são meios usados para que os processos possam se comunicar e para
que o sistema possa interferir em seu funcionamento. Por exemplo, se o usuário
executar o comando kill para interromper um processo, isso será feito por meio de
um sinal.

Quando um processo recebe um determinado sinal e conta com instruções sobre


o que fazer com ele, tal ação é colocada em prática. Se não houver instruções
pré-programadas, o próprio Linux pode executar a ação de acordo com suas
rotinas.

Entre os sinais existentes, tem-se os seguintes exemplos:

• STOP - esse sinal tem a função de interromper a execução de um processo


e só reativá-lo após o recebimento do sinal CONT;
• CONT - esse sinal tem a função de instruir a execução de um processo
após este ter sido interrompido;
• SEGV - esse sinal informa erros de endereços de memória;
• TERM - esse sinal tem a função de terminar completamente o processo, ou
seja, este deixa de existir após a finalização;
• ILL - esse sinal informa erros de instrução ilegal, por exemplo, quando
ocorre divisão por zero;
• KILL - esse sinal tem a função de "matar" um processo e é usado em
momentos de criticidade.

O kill também é um comando que o usuário pode usar para enviar qualquer sinal,
porém, se ele for usado de maneira isolada, ou seja, sem o parâmetro de um sinal,
o kill por padrão executa o sinal TERM.

A sintaxe para a utilização do comando kill é a seguinte:

kill -SINAL PID

Como exemplo, supõe-se que o usuário deseje interromper temporariamente a


execução do processo de PID 4220. Para isso, pode-se usar o seguinte comando:

kill -STOP 4220

Para que o processo 4220 volte a ser executado, basta usar o comando:

kill -CONT 4220

Se o sinal precisa ser enviado a todos os processos, pode-se usar o número -1 no


lugar do PID. Por exemplo:

kill -STOP -1

Usa-se kill -9 PID para matar um processo, pois o número nove representa o sinal
kill e este não pode ser ignorado. Dependendo da distribuição ou a versão do
kernel, a numeração para alguns sinais pode muda e esse uso ficar prejudicado.

Também é comum usar o kill da seguinte forma: kill -l PID. A opção "-l" (letra L
minúscula) é usada para listar os processos que aceitaram o kill.

É possível descubrir o PID de um processo a partir do seu nome do processo. A


sintaxe é:

killall -SINAL processo

Por exemplo:

killall -STOP gedit

Quando um processo é criado, isso não significa que ele será imediatamente
executado. Além disso, determinados processos podem ser temporariamente
paralisados para que o processador possa executar um processo prioritário. Isso
quer dizer que os processos, em certos momentos, podem estar em situações de
execução diferentes. O Linux trabalha, essencialmente, com quatro tipos de
situação, isto é, estados:
• Executável: o processo pode ser executado imediatamente;
• Dormente: o processo precisa aguardar alguma coisa para ser executado.
Só depois dessa "coisa" acontecer é que ele passa para o estado
executável;
• Zumbi: o processo é considerado "morto", mas, por alguma razão, ainda
existe;
• Parado: o processo está "congelado", ou seja, não pode ser executado.

Um processo pode ter prioridade em relação a outros em sua execução. Quando


um processo é gentil, significa que ele "oferece a gentileza" de permitir que um
processo com prioridade maior que a sua seja executado antes dele. Os níveis de
gentileza, também chamados de nice, são determinados através de números.
Quanto mais alto for o valor nice, mais gentil é o processo. Geralmente, o intervalo
de números usados no nice são os inteiros entre -19 e 19.

Embora determinar a prioridade de um processo não seja uma prática comum,


afinal, o próprio Linux faz muito bem essa tarefa, isso pode ser necessário em
alguma situação. Para isso, utiliza-se um comando que recebe o mesmo nome do
conceito: nice. A sintaxe é:

nice -n prioridade processo

Se um determinado processo está em execução, isso acontece com uma


prioridade já definida. Para alterar um processo nessa condição, usa-se o
comando renice, cuja sintaxe é:

renice prioridade opção processo/destino

As opções do renice são:

• -u : a alteração ocorrerá nos processos do usuário informado;


• -g : a alteração ocorrerá nos processos do grupo indicado;
• -p :a alteração ocorrerá no processo cujo PID for informado.

A verificação dos processos em execução pode ser feita através do comando ps


em linux.

O ps é um comando de extrema importância para o gerenciamento de processos.


Por ele, é possível saber quais os processos em execução atualmente, quais os
UIDs e PIDs correspondentes, entre outros.

Se somente ps for digitado na linha de comando, geralmente o sistema mostra


quais os processos do usuário. É preciso usar uma combinação de opções para
obter mais detalhes. As opções mais importantes são os seguintes:

• a: mostra todos os processos existentes;


• e: exibe as variáveis de ambiente relacionadas aos processos;
• f: exibe a árvore de execução dos processos;
• l: exibe mais campos no resultado;
• m: mostra a quantidade de memória ocupada por cada processo;
• u: exibe o nome do usuário que iniciou determinado processo e a hora em
que isso ocorreu;
• x: exibe os processos que não estão associados a terminais;
• w: se o resultado de processo não couber em uma linha, essa opção faz
com que o restante seja exibido na linha seguinte.

Pode-se combinar a instrução ps com as instruções aux e lax. A seguir, a


descrição dos campos que podem aparecer com a combinação lax:

• USER: nome do usuário dono do processo;


• UID: número de identificação do usuário dono do processo;
• PID: número de identificação do processo;
• PPID: número de identificação do processo pai;
• %CPU: porcentagem do processamento usado;
• %MEM: porcentagem da memória usada;
• VSZ: indica o tamanho virtual do processo;
• RSS (em inglês, Resident Set Size): indica a quantidade de memória
usada (em KB);
• TTY: indica o identificador do terminal do processo;
• START: hora em que o processo foi iniciado;
• TIME: tempo de processamento já consumido pelo processo;
• COMMAND: nome do comando que executa aquele processo;
• PRI: valor da prioridade do processo;
• NI: valor preciso da prioridade (geralmente igual aos valores de PRI);
• WCHAN: mostra a função do kernel onde o processo se encontra em modo
suspenso;
• STAT: indica o estado atual do processo, sendo representado por uma
letra: R - executável; D - em espera no disco; S - Suspenso; T -
interrompido; Z - Zumbi. Essas letras podem ser combinadas e ainda
acrescidas de: W - processo paginado em disco; < - processo com
prioridade maior que o convencional; N - processo com prioridade menor
que o convencional; L - processo com alguns recursos bloqueados no
kernel.

O comando ps trabalha como se tirasse uma fotografia da situação dos processos


naquele momento. O comando top, por sua vez, coleta as informações, mas as
atualiza regularmente. Geralmente essa atualização ocorre a cada 10 segundos.

A sintaxe do comando top é a seguinte:


top -opção

Entre as opções, tem-se as que se seguem:

• -d: atualiza o top após um determinado período de tempo (em segundos).


Para isso, informe a quantidade de segundos após a letra d. Por exemplo:
top -d 30;
• -c: exibe a linha de comando ao invés do nome do processo;
• -i: faz o top ignorar processos em estado zumbi;
• -s: executa o top em modo seguro.

Para ter ainda mais controle sobre os processos executados no Linux, pode-se
utilizar os seguintes comandos: jobs, fg e bg, fuser, pstree, nohup. Veja a
descrição a seguir:

JOBS - serve para visualizar os processos que estão parados ou executando em


segundo plano (background). Quando um processo está nessa condição, significa
sua execução é feita pelo kernel sem que esteja vinculada a um terminal. Em
outras palavras, um processo em segundo plano é aquele que é executado
enquanto o usuário faz outra coisa no sistema. Uma dica para saber se o processo
está em background é verificar a existência do caractere & no final da linha. Se o
processo estiver parado, geralmente a palavra "stopped" aparece na linha, do
contrário, a palavra "running" é exibida. A sintaxe do jobs é:

jobs -opção

As opções disponíveis são:

• -l: lista os processos através do PID;


• -r: lista apenas os processos em execução;
• -s: lista apenas os processos parados.

FG e BG: o fg é um comando que permite a um processo em segundo plano (ou


parado) passar para o primeiro (foreground), enquanto que o bg passa um
processo do primeiro plano para o segundo. Para usar o bg, deve-se paralisar o
processo. Isso pode ser feito pressionando-se as teclas Ctrl + Z no teclado. Em
seguida, digita-se o comando da seguinte forma:

bg +número

O número mencionado corresponde ao valor de ordem informado no início da


linha quando o comando jobs é usado. Quanto ao comando fg, a sintaxe é a
mesma:

fg +número
FUSER: o comando fuser mostra qual processo faz uso de um determinado
arquivo ou diretório. Sua sintaxe é:

fuser -opção caminho (do arquivo ou diretório)

Entre as opções, tem-se:

• -k: finaliza o processo que utiliza o arquivo/diretório em questão;


• -i: deve ser usada em conjunto com a opção k e serve para perguntar se a
finalização do processo deve ser feita;
• -u: mostra o proprietário do processo;
• -v: o resultado é mostrado em um padrão de exibição semelhante ao
comando ps.

PSTREE: esse comando mostra processos relacionados em formato de árvore.


Sua sintaxe é:

pstree -opção PID

Entre as opções, tem-se:

• -u: mostra o proprietário do processo;


• -p: exibe o PID após o nome do processo;
• -c: mostra a relação de processos ativos;
• -G: usa determinados caracteres para exibir o resultado em um formato
gráfico.

É importante lembrar que se r o comando pstree sozinho, ou melhor, o PID não for
informado, todos os processos serão listados.

NOHUP: o comando nohup possibilita ao processo ficar ativo mesmo quando o


usuário faz logout. É da natureza dos sistemas baseados em Unix interromper
processos caso seu proprietário não esteja mais ativo, por isso, o nohup pode ser
muito útil. Sua sintaxe é:

nohup comando

Com base nas informações relacionadas a processos do Linux, julga-se a


veracidade de cada uma das alternativas.

A alternativa (a) está incorreta, pois a opção %CPU é um dos campos que podem
aparecer com a combinação do ps com lax e não uma opção do comando kill.

A alternativa (b) está incorreta, pois a opção SEGV do comando kill serve para
informar erros de endereços de memória para o processo 4155.
A alternativa (c) está correta, pois o comando kill -CONT 4155 faz com que o
processo 4155 volte a ser executado. O sinal CONT tem a função de instruir a
execução de um processo após este ter sido interrompido.

A alternativa (d) está incorreta, pois a opção ILL do comando kill serve para
informar erros de instrução ilegal para o processo 4155, por exemplo, quando
ocorre divisão por zero.

A alternativa (e) está incorreta, pois a opção TERM do comando kill tem a função
de terminar completamente o processo 4155, ou seja, este deixa de existir após a
finalização.

38- O Samba é um “software servidor” que permite o gerenciamento e compartilhamento de recursos em rede.
Com o servidor Samba:

a) instalado no Sistema Operacional Windows 2000 é possível compartilhar arquivos e impressoras e


controlar o acesso a determinados recursos de rede.
b) é possível instalar como um de seus serviços o servidor Web IIS, permitindo que se disponibilizem
serviços adicionais como, por exemplo, FTP, WWW, SMTP e POP.
c) utilizado para resolver conflitos existentes entre diferentes versões do Windows, todo trabalho feito por
ele fica desprovido de segurança, uma vez que é inviável o gerenciamento de acesso aos recursos de
rede para máquinas utilizando Windows 9x e Me.
d) a configuração é feita em um único arquivo: o smb.ini. Esse arquivo geralmente fica localizado no
diretório de instalação do Windows ou no System 32 para algumas versões do Windows Server.
e) executando no Sistema Operacional Linux é possível compartilhar recursos que podem ser utilizados
pelas versões NT 4.0, 9x, Me, 2000, XP e Server 2003 do Windows.

Comentários:

Gabarito E

O Samba é um "software servidor" para Linux e outros sistemas baseados em


Unix que permite o gerenciamento e compartilhamento de recursos em redes
formadas por computadores com o Windows. Assim, é possível usar o Linux como
servidor de arquivos, servidor de impressão, entre outros, como se a rede
utilizasse servidores Windows (NT, 2000, XP, Server 2003).

O Samba é uma criação de Andrew Tridgell. De acordo com informações dadas


pelo próprio site oficial do software, Tridgell precisava montar um espaço em disco
em seu PC para um servidor Unix. Esse PC rodava o sistema operacional DOS e,
inicialmente, foi utilizado o sistema de arquivos NFS (em inglês, Network File
System) para o acesso. Porém, um aplicativo precisava de suporte ao protocolo
NetBIOS, não suportado pelo NFS. A solução encontrada por Tridgell não foi tão
simples: ele escreveu um sniffer, pequeno programa para captura de tráfego de
dados em rede, que permitisse analisar o tráfego de dados gerado pelo protocolo
NetBIOS, fez engenharia reversa no protocolo SMB (em inglês, Server Message
Block) e o implementou no Unix. Isso fez com que o servidor Unix aparecesse
como um servidor de arquivos Windows em seu PC com DOS.
Esse código foi disponibilizado publicamente por Tridgell em 1992. Porém, tempos
depois, o projeto foi posto de lado até que um determinado dia Tridgell decidiu
conectar o PC de sua esposa ao seu computador com Linux. Porém, não
encontrou nenhum meio melhor que seu código para fazer isso e assim o utilizou.

Através de contatos feitos por e-mail, Tridgell descobriu que as documentações


dos protocolos SMB e NetBIOS estavam atualizadas e assim voltou a dedicar-se
ao projeto. Porém, uma empresa entrou em contato com ele reivindicando os
direitos sobre o nome usado no software até então. Diante disso, Andrew Tridgell
teve a idéia de procurar em um dicionário uma palavra que tivesse as letras s, m e
b (de SMB) e acabou encontrando o termo "samba". A partir daí o projeto Samba
cresceu e hoje Andrew Tridgell conta com uma excelente equipe de
programadores e com milhares de usuários de sua solução espalhados pelo
mundo.

Com o servidor Samba, é possível compartilhar arquivos, compartilhar


impressoras e controlar o acesso a determinados recursos de rede com igual ou
superior eficiência que servidores baseados em sistemas operacionais da
Microsoft. Mas, neste caso, o sistema operacional utilizado é o Linux.

O Samba é compatível com praticamente qualquer versão do Windows, como NT


4.0, 9x, Me, 2000, XP e Server 2003, além de máquinas com o Linux, é claro.

Todo trabalho feito pelo Samba é provido de grande segurança, uma vez que há
grande rigor nos controles dos recursos oferecidos. Tanto é que existem empresas
que usam o Samba como solução para conflitos existentes entre diferentes
versões do Windows.

Como não poderia deixar de ser, o Samba também permite que sua configuração
seja feita por meio de computadores remotos. Para os casos mais críticos, o
administrador da rede pode até ser notificado de anormalidades por e-mail. Para
isso é necessário usar um script específico que busca informações nos arquivos
de log e cria um arquivo que pode ser enviado via e-mail.

Com base nas informações relacionadas ao servidor samba, julga-se a veracidade


de cada uma das alternativas.

A alternativa (a) está incorreta, pois o servidor samba é utilizado no Sistema


Operacional Linux e não instalado no Sistema Operacional Windows 2000, como
afirma o texto do item. É através do SAMBA que se faz o compartilhamento de
arquivos e impressoras e controla o acesso a determinados recursos de rede.

A alternativa (b) está incorreta, pois o servidor Web IIS é uma solução de servidor
Web da Microsoft para as versões do Sistema Operacional Windows e, como visto
item anterior, o samba é utilizado no Sistema Operacional Linux.

A alternativa (c) está incorreta, pois o Samba é compatível com praticamente


qualquer versão do Windows, como NT 4.0, 9x, Me, 2000, XP e Server 2003, além
de máquinas com o Linux. Todo trabalho feito pelo Samba é provido de grande
segurança, uma vez que há grande rigor nos controles dos recursos oferecidos.

A alternativa (d) está incorreta, pois a configuração é feita em um único arquivo do


Linux: o smb.conf. Por exemplo, para a distribuição Linux conhecida por UBUNTU,
o arquivo de configuração está localizado em /etc/samba/smb.conf.

A alternativa (e) está correta. Para frisar, o SAMBA é executado no Sistema


Operacional Linux e possibilita o compartilhamento de recursos que podem ser
utilizados pelas versões NT 4.0, 9x, Me, 2000, XP e Server 2003 do Windows.

39- Analise as seguintes afirmações relacionadas aos clusters:

I. Em um cluster de processamento paralelo, cada vez que este recebe uma tarefa para executar, já
previamente preparada para rodar em processamento paralelo, o cluster divide os pedaços da tarefa
para cada uma das máquinas realizar. Dessa forma, com várias máquinas trabalhando ao mesmo
tempo em uma única tarefa, o tempo necessário para executá-la torna-se consideravelmente menor.
II. Com o Windows Server 2003, Web Edition, combinando até 32 servidores, é possível montar clusters
de balanceamento de carga de rede para fornecerem desempenho e alta disponibilidade a serviços e
aplicativos baseados em TCP e UDP.
III. Cada rede que conecta os nós de um cluster deve ser configurada como sub-redes IP independentes.
Os números de sub-redes IP para as redes que conectam os nós de cluster devem ser
complementares. Se um nó de cluster possui vários adaptadores conectados à mesma rede de cluster,
todos os adaptadores serão utilizados pelo serviço cluster.
IV. O cluster de disponibilidade funciona como um gerenciador de tarefas. Todas as máquinas trabalham
em conjunto e a distribuição de tarefas é feita de tal forma que os processadores estão sempre
trabalhando com o máximo de disponibilidade.

Indique a opção que contenha todas as afirmações verdadeiras.

a) I e III
b) II e III
c) III e IV
d) I e II
e) II e IV

Comentários:

Gabarito D

Cluster

Cluster pode ser definido como um sistema em que dois ou mais computadores
trabalham de maneira conjunta para realizar processamento pesado. Em outras
palavras, os computadores dividem as tarefas de processamento e trabalham
como se fosse um único computador.

Cluster, também chamado de Clustering, tem o objetivo de fazer com que todo o
processamento da aplicação seja distribuído aos computadores. Com isso, é
possível realizar processamentos que até então somente computadores de alta
performance seriam capazes de fazer.

Cada computador de um cluster é denominado nó ou nodo. Todos devem ser


interconectados, de maneira a formarem uma rede, de qualquer topologia. Essa
rede precisa ser criada de uma forma que permita o acréscimo ou a retirada de um
nó, mas sem interromper o funcionamento do cluster. O sistema operacional
usado nos computadores deve ser de um mesmo tipo, ou seja, ou somente
Windows, ou somente Linux, ou somente BSD, etc. Isso devido às particularidades
de cada um dos sistemas operacionais que poderiam impedir o funcionamento do
cluster.

Independente do sistema operacional usado, é preciso usar um software que


permita a montagem do cluster em si. Esse software vai ser responsável, entre
outras coisas, pela distribuição do processamento. Esse é um ponto crucial na
montagem de um cluster. É preciso que o software trabalhe de forma que erros e
defeitos sejam detectados, oferecendo meios de providenciar reparos, mas sem
interromper as atividades do cluster. Obviamente, esse tipo de necessidade pode
ser controlada através de um equipamento específico, ou seja, não depende
apenas do software.

Para que exista, um cluster precisa de pelo menos dois computadores.


Evidentemente, quanto mais computadores existir no cluster, maiores serão os
custos de implementação e manutenção. Isso não se deve apenas ao preço dos
computadores, mas também pelos equipamentos (switches, cabos, hubs,
nobreaks, etc). Mas ainda assim, os custos costumam ser menores do que a
aquisição/manutenção de computadores poderosos e algumas vezes o
processamento é até mais eficiente (rápido).

Os clusters podem ser usados para uma infinidade de aplicações. Basicamente,


para qualquer uma que exija processamento pesado. Como exemplos de
aplicações, tem-se previsão meteorológica (previsão do tempo e condições
climáticas), simulações geotérmicas (ou seja, simulação de eventos no solo),
renderização de efeitos especiais (muito usado em filmes), simulações financeiras,
distribuição de carga, etc.

Basicamente, qualquer tipo de aplicação crítica, ou seja, aplicações que não


podem parar de funcionar ou não podem perder dados, tais como, os sistemas de
bancos, podem utilizar as tecnologias de cluster, desde que devidamente
configurados para não serem sujeitas à falhas graves. Assim, o cluster deve
contar com nobreaks ou geradores que garantam o funcionamento do sistema
mesmo nos casos de queda de energia, além de meios de manutenção e
detecção de falhas eficientes, como já citado.

O Cluster Beowulf, voltado à computação paralela, foi fundamentado em 1994,


pela NASA, com a finalidade de processar as informações espaciais que a
entidade recolhia. Desde então, grandes empresas e universidades vêm
construindo clusters deste tipo e com cada vez mais nós!

O que distingue o Cluster Beowulf dos outros tipos são as seguintes


características:
• A conexão dos nós pode ser feita por redes do tipo Ethernet (mais comum);
• Existe um servidor responsável por controlar todo o cluster, principalmente
quanto à distribuição de tarefas e processamento. Pode haver mais de um
servidor, dedicado a tarefas específicas, como monitoração de falhas. Este
servidor é chamado de Front-end;
• O sistema operacional é baseado em Linux, sendo necessário que ele
contenha todos os programas para cluster;
• Pode-se usar computadores comuns, inclusive modelos considerados
obsoletos;
• Não é necessário usar equipamentos próprios para clusters. Basta
equipamentos comuns a redes e os tradicionais PCs.

De maneira generalizada, o Cluster Beowulf permite a construção de sistemas de


processamento que podem alcançar altos valores de gigaflops, um gigaflop
equivale a um bilhão de instruções de ponto flutuante executadas por segundo.
Isso tudo com o uso de computadores comuns e de um sistema operacional com
código-fonte livre, ou seja, além de gratuito, pode ser melhorado para a sua
finalidade. Tais características fizeram do Cluster Beowulf um tema muito
explorado em universidades e claro, aplicado para vários fins.

Entre os requisitos para o sistema operacional de um Cluster Beowulf, estão a


necessidade de se ter bibliotecas para PVM (em inglês, Parallel Virtual Machine)
ou para MPI (em inglês, Message Passing Interface). Ambos os tipos são usados
para a troca de mensagens entre os nós do cluster. O MPI é mais avançado que o
PVM, pois pode trabalhar com mensagens para todos os computadores ou para
apenas um determinado grupo, por exemplo, quando somente este grupo vai
realizar determinada tarefa.

Além do Beowulf, existem vários outros tipos de cluster, para os mais diversos
fins. Os mais conhecidos são vistos a seguir:
Cluster para Alta Disponibilidade: esse tipo de cluster funciona como um
gerenciador de tarefas, ou seja, cada máquina trabalha sozinha, porém a
distribuição de tarefas é feita de tal forma que os processadores estão sempre
trabalhando na capacidade total. Nesse tipo de cluster é vital a implementação de
um sistema de filas com vários níveis de prioridades diferentes, em que o servidor
de filas irá gerenciar qual processador ficará com qual tarefa e o quanto de sua
capacidade será utilizado para cada tarefa. Esse tipo de cluster é ideal para
trabalhar com grandes quantidades de tarefas que exigem pequenas ou médias
capacidades de processamento.

Cluster para Balanceamento de Carga: Balanceamento de Carga se refere à


distribuição equilibrada de processamento aos nós do cluster. É muito usado na
Internet, em servidores de e-mail, comércio eletrônico e em sistemas de lojas.
Neste tipo de cluster, é necessário que haja monitoração constante da
comunicação e mecanismos de redundância. Caso contrário, qualquer falha pode
interromper o funcionamento do cluster.

Cluster Combo: este tipo combina as características dos clusters De Alta


Disponibilidade e de Balanceamento de Carga.

Processamento Distribuído ou Processamento Paralelo: este modelo de


cluster aumenta a disponibilidade e performance para as aplicações,
particularmente as grandes tarefas computacionais. Uma grande tarefa
computacional pode ser dividida em pequenas tarefas que são distribuídas ao
redor das estações (nodos), como se fosse um supercomputador massivamente
paralelo. É comum associar este tipo de cluster ao projeto Beowulf da NASA.
Estes clusters são usados para computação cientifica ou análises financeiras,
tarefas típicas para exigência de alto poder de processamento.

Cluster MOSIX (em inglês, Multicomputer Operating System for Unix): Trata-se de
um conjunto de ferramentas de cluster para Linux, voltado ao tipo Balanceamento
de Carga. Uma de suas principais características é a não necessidade de
aplicações e recursos de software voltados ao cluster, como acontece com o
Beowulf. O MOSIX é eficiente na tarefa de distribuição dinâmica de
processamento entre os computadores do cluster. Esse tipo, assim como o
Beowulf, é muito utilizado por universidades em pesquisas e projetos. Por ser
baseado em Linux, sua implementação é transparente, além de ser relativamente
fácil de instalar.

De maneira generalizada, O MOSIX é uma extensão para Linux (ou sistemas


baseados em Unix) de um sistema de cluster que trabalha como se fosse um
único supercomputador, por meio de conceitos de Distribuição de Processos e
Balanceamento de Carga.

A Microsoft não suporta a configuração de clusters de servidor e clusters com


Balanceamento de Carga em Rede no mesmo servidor.
Os clusters com Balanceamento de Carga em Rede proporcionam escalabilidade
e elevada disponibilidade para aplicações e serviços baseados em TCP e UDP,
combinando até 32 servidores com o Windows Server 2003 (Web Edition);
Windows Server 2003, Standard Edition; Windows Server 2003 (Enterprise
Edition); ou Windows Server 2003 (Datacenter Edition), num único cluster.
Utilizando este tipo de cluster para criar um grupo de computadores de cluster
duplicados ou idênticos, poderá melhorar a disponibilidade destes servidores:
Servidores Web e FTP, servidores ISA (para serviços de servidores proxy e
firewall), servidores VPN, servidores Windows Media, serviços de terminal na rede
da empresa.

O site da Microsoft apresenta algumas instruções para o planejando do hardware


de um sistema de rede.

Para implementar a infra-estrutura de uma rede corretamente é importante que o


cluster de servidor opere sem problemas. A seguir, algumas orientações para o
planejamento do seu hardware de rede:

• O hardware de rede deve ser selecionado no Catálogo do Windows.


• Os nós de um cluster devem ser conectados por duas ou mais redes locais
(LANs). Pelo menos duas redes são necessárias para evitar um único ponto
de falha. Um cluster de rede cujos nós estejam conectados por somente
uma rede não é uma configuração com suporte. Os adaptadores, cabos,
hubs e chaves de cada rede devem falhar independentemente. Isso
geralmente exige que os componentes de qualquer par de redes sejam
fisicamente independentes.
• Pelo menos duas redes devem ser configuradas para tratar Todas as
comunicações (rede mista) ou Apenas comunicações internas de cluster
(rede privada).
• Cada rede que conecta os nós de um cluster deve ser configurada como
uma única sub-rede IP. Os números de sub-rede IP para as redes que
conectam os nós de cluster devem ser diferentes. Se um nó de cluster
possui vários adaptadores conectados à mesma rede de cluster, somente
um adaptador será utilizado pelo serviço <b>Cluster</b>; os outros serão
ignorados. Vários adaptadores conectados em um nó da mesma rede não
fornecerão tolerância à falhas ou balanceamento de carga, por isso não são
recomendados.
• Não há suporte para o agrupamento de adaptadores de rede em todas as
redes de cluster simultaneamente. Pelo menos uma das redes de cluster
habilitada para comunicação interna entre os nós de cluster (geralmente
uma rede privada) não deve ser agrupada. É aceitável o uso do
agrupamento de adaptadores de rede em outras redes de cluster.
• Use uma VLAN (LAN virtual) para conectar os nós de um cluster, desde
que todos os nós os exibam como a mesma sub-rede IP. A latência de
comunicação unidirecional entre qualquer par de nós de cluster da VLAN
deve ser inferior a 0,5 segundo. A VLAN deve falhar independentemente de
todas as outras LANs ou VLANs usadas para conectar os nós de um
cluster. Novamente, isso em geral exige que a VLAN seja construída com
componentes fisicamente independentes de outras redes usadas no cluster.

Com base nas informações relacionadas aos clusters, julga-se a veracidade de


cada um dos itens.

O item I está correto, pois, em um cluster de processamento paralelo, uma grande


tarefa computacional pode ser dividida em pequenas tarefas que são distribuídas
ao redor das estações (nodos), como se fosse um supercomputador
massivamente paralelo. É comum associar este tipo de cluster ao projeto Beowulf
da NASA. Estes clusters são usados para computação cientifica ou análises
financeiras, tarefas típicas para exigência de alto poder de processamento.

O item II está correto, pois os clusters com Balanceamento de Carga em Rede


proporcionam escalabilidade e elevada disponibilidade para aplicações e serviços
baseados em TCP e UDP, combinando até 32 servidores com o Windows
Server 2003 (Web Edition); Windows Server 2003, Standard Edition; Windows
Server 2003 (Enterprise Edition); ou Windows Server 2003 (Datacenter Edition),
num único cluster.

O item III está incorreto, pois cada rede que conecta os nós de um cluster deve
ser configurada como uma única sub-rede IP e não como sub-redes IP
independentes. Os números de sub-rede IP para as redes que conectam os nós
de cluster devem ser diferentes. Se um nó de cluster possui vários adaptadores
conectados à mesma rede de cluster, somente um adaptador será utilizado pelo
serviço <b>Cluster</b>; os outros serão ignorados. Vários adaptadores
conectados em um nó da mesma rede não fornecerão tolerância à falhas ou
balanceamento de carga, por isso não são recomendados.

O item IV está incorreto, pois o cluster de disponibilidade funciona como um


gerenciador de tarefas, ou seja, cada máquina trabalha sozinha (e não em
conjunto como afirma a questão), porém a distribuição de tarefas é feita de tal
forma que os processadores estão sempre trabalhando na capacidade total.
Nesse tipo de cluster é vital a implementação de um sistema de filas com vários
níveis de prioridades diferentes, em que o servidor de filas irá gerenciar qual
processador ficará com qual tarefa e o quanto de sua capacidade será utilizado
para cada tarefa. Esse tipo de cluster é ideal para trabalhar com grandes
quantidades de tarefas que exigem pequenas ou médias capacidades de
processamento.

40- No Sistema Operacional Linux, quando se deseja remover trabalhos da fila de impressão, pode-se utilizar
o comando:

a) lprm.
b) find.
c) userdel -r nome_do_usuário, onde nome_do_usuário é a identificação do usuário proprietário do arquivo
a ser removido da fila de impressão.
d) wc -w arquivo, onde arquivo é o nome do arquivo a ser removido da fila de impressão.
e) clear –a –u, onde –a indica o nome do arquivo e –u o nome do usuário proprietário do arquivo a ser
removido da fila de impressão.

Comentários:

Gabarito A

Apresenta-se a seguir alguns comandos básicos do Linux com suas respectivas


explicações que podem ser cobradas em outras questões de concursos. Antes de
iniciar os comentários, é importante saber que qualquer comando seguido de
--help, mostra o HELP (arquivo de ajuda) do comando digitado pelo usuário.

Comando Explicação
ls Lista os arquivos e diretórios da pasta (DIR no DOS).
clear Limpa a tela (CLS no DOS).
cd ___ Entra em um diretório (igual ao DOS).
cd Vai direto para o diretório raiz do usuário conectado.
\ Abre uma linha de comando "livre", em que o usuário
pode digitar um comando extenso.
pwd Mostra o diretório inteiro que o usuário se encontra.
cat Igual ao TYPE no DOS.
df Mostra as partições usadas ou livres do HD.
more Lista o arquivo com pausa de linha em linha.
lpr Imprime o arquivo listado.
free Mostra a memória do computador (MEM no DOS).
shutdown Desliga o computador.
shutdown -r now Reinicia o computador.
shutdown -h now Desliga o computador quando aparecer escrito "system
halted" ou algo equivalente.
shutdown -r +N O sistema irá reiniciar daqui a N minutos
Reboot Reinicia o sistema instantaneamente, pouco
recomendável, preferível shutdown -r now.
startx Inicia o X-Windows (interface gráfica) do Linux.
kde Inicia a Interface gráfica K Desktop Enviroment.
mkdir Cria um diretório (MD no DOS).
rmdir Destrói um diretório VAZIO (RD no DOS).
rm Apaga um arquivo (DEL no DOS).
rm –r Apaga um diretório.
who Mostra quem está usando a máquina.
wc Conta a quantidade de bytes, palavras ou linhas.
wc -c arquivo Quantidade de bytes.
wc -w arquivo Quantidade de palavras.
wc -l arquivo Quantidade de linhas.
date Mostra data e hora.
telnet Inicia a TELNET.
m Abre o MINICOM e permite configurar o modem.
type Explica um determinado arquivo do sistema.
file Descreve um determinado arquivo.
find / -name ____ Procura arquivo "____".
useradd Cria uma nova conta usuário.
nome_do_usuário
passwd Cria ou modifica a senha do usuário.
nome_do_usuário
userdel -r Apaga um usuário.
nome_do_usuário
su Passa para o superusuário, o prompt mudará de $ para #.
sndconfig Permite configurar a placa de som.
TAR Arquivo para criar Backups.
TAR –c Criar Backups.
TAR –x Restaura Backups.
TAR –v Lista os arquivos.
TAR –t Lista os arquivos de backups.
write Escreve mensagens para outro usuário em rede.
mv Move arquivos.
linuxconf Configuração do Linux.
alias Possibilita a criação de comandos simples.
& Coloca o comando desejado em background.
ps Relata os processos em execução.
kill Encerra um ou mais processos em andamento.
history Mostra os comandos já digitados pelo usuário.
lpr Imprime um arquivo (exemplo: lpr arquivo).
lpq Mostra o status da fila de impressão.
lprm Remove trabalhos da fila de impressão.
mtools Permite o uso de ferramentas compatíveis com DOS.

Com base nas explicações sobre os comandos em Linux, julga-se a veracidade de


cada uma das alternativas.

A alternativa (a) está correta, pois o comando lprm remove trabalhos da fila de
impressão.

A alternativa (b) está incorreta, pois o comando find realiza a busca por arquivos.

A alternativa (c) está incorreta, pois o comando userdel -r nome_do_usuário, em


que nome_do_usuário é a identificação do usuário a ser removido.

A alternativa (d) está incorreta, pois o comando wc -w arquivo, em que arquivo é


o nome do arquivo a ser calculado a quantidade de bytes.

A alternativa (e) está incorreta, pois o comando clear limpa a tela. Este é
equivalente ao comando cls do DOS.
41- No Sistema Operacional Linux, para recuperar-se um BackUp criado com o comando TAR, deve-se
utilizar a opção:

a) TAR –file
b) TAR –c (Cria backups)
c) TAR –v (Lista cada arquivo)
d) TAR –x
e) TAR –history

Comentários:

Gabarito D

Com base nas informações sobre os comandos em Linux apresentados na


questão anterior, julga-se a veracidade de cada uma das alternativas.

A alternativa (a) está incorreta, pois a sintaxe do comando TAR é dada por tar
[parâmetros] [-f arquivo] [-C diretório] [arquivos...].

A alternativa (b) está incorreta, pois o comando TAR –c serve para criar backups e
não para recuperar um backup como exige o enunciado da questão.

A alternativa (c) está incorreta, pois o comando TAR –v serve para listar os
arquivos e não para recuperar um backup como solicita o enunciado da questão.

A alternativa (d) está correta, pois o comando TAR –x serve para restauração de
backups.

A alternativa (e) está incorreta, pois o comando TAR –history não existe.
42- Com relação aos comandos utilizados para organização e manipulação de diretórios e arquivos no
Sistema Operacional Linux, as permissões dos arquivos podem ser definidas com o uso do comando
chmod. Para um arquivo que inicialmente está com as permissões -rwxrwxrwx, é correto afirmar que, ao
se executar o comando chmod 755 nome_do_arquivo para o referido arquivo, as suas permissões:

a) serão mantidas como inicialmente, isto é, –rwxrwxrwx.


b) passam a ser --w-r-xr-x.
c) passam a ser -rwxr-xr-x.
d) passam a ser - - - - - w- - w-.
e) passam a ser -r-xr-xrwx.

Comentários:

Gabarito C

As permissões são um dos aspectos mais importantes do Linux, na verdade, em


qualquer sistema operacional baseado em Unix. Elas são usadas para vários fins,
mas servem principalmente para proteger o sistema e os arquivos dos usuários.
Manipular as permissões é algo muito interessante, tanto quanto complexo. Mas
tal complexidade não deve ser interpretada como dificuldade e sim como grande
variedade de configurações, o que permite criar vários tipos de proteção de
arquivos e diretórios.

Num ambiente Linux, somente o super-usuário (root) tem ações irrestritas no


sistema, justamente por ser o usuário responsável pela configuração,
administração e manutenção do sistema operacional. Cabe a ele, por exemplo,
determinar o que cada usuário pode executar, criar, modificar, etc. Naturalmente,
a forma usada para determinar o que o usuário pode fazer é a determinação de
permissões.

As permissões de arquivos e diretórios, através de strings, podem ser divididas em


quatro partes representando: tipo, proprietário, grupo e outras permissões. O
primeiro caractere da string indica o tipo de arquivo: se for "d" representa um
diretório, se for "-" equivale a um arquivo. Entretanto, outros caracteres podem
aparecer, já que existem outros tipos de arquivo no Linux, conforme mostra a
tabela a seguir:

Símbolo Representação
d Diretório
b Arquivo de bloco
c Arquivo especial de caractere
p Canal
s Socket
- Arquivo Normal

Uma string de permissão é representada por 9 caracteres. O primeiro, como dito


anteriormente, indica o tipo de arquivo. O restante é dividido em 3 grupos de 3,
cada um representado o proprietário, o grupo e todos os demais, respectivamente.
A partir do exemplo a seguir de uma string de permissão, pode-se classificar as
modalidades de permissão para cada representante.

-r-xrw-rwx ... 1 ivan ....... 160425 Dec .. 07 08:23... concursos.doc

Realizando a divisão de acordo com parágrafo anterior, tem-se:

- r-x rw- rwx


Tipo de Arquivo Permissões do Permissões do Permissões para os
proprietário grupo demais usuários

Observe que aparecem os caracteres (r, w, x, -) para definir as permissões. Isto


acontece devido aos três tipos básicos de permissões: leitura (r), gravação (w) e
execução (x).

A leitura permite aos usuários ler o conteúdo do arquivo, mas não alterá-lo. A
gravação permite aos usuários alterem o arquivo. A execução permite aos
usuários executar o arquivo, se o mesmo for executável. Mas acontece que as
permissões não funcionam isoladamente, ou seja, ou o usuário tem permissão de
leitura ou de gravação ou de execução. As permissões funcionam em conjunto.
Isso quer dizer que cada arquivo/diretório tem as 3 permissões, cabendo ao dono
determinar qual dessas permissões é habilitada para os usuários ou não. Pode ser
que uma determinada quantidade de usuários tenha permissão para alterar um
arquivo, mas outros não. Daí, a necessidade de se usar grupos. Neste caso, a
permissão de gravação desse arquivo será dada ao grupo e todo usuário membro
dele poderá alterar o arquivo.

É necessário ter um certo cuidado com as permissões. Por exemplo, do que


adianta o usuário ter permissão de gravação se ele não tem permissão de leitura
habilitada? Ele poderá ler o arquivo para poder modificá-lo? Não! De certo, isso
tem utilidade em arquivos de log. Fazendo associação com as letras r, w, x e o
caractere -, veja a seguir o significado de cada um:

Símbolo Significado
r Permissão de leitura (read).
w Permissão de gravação (write).
x Permissão de execução (execution).
- Permissão desabilitada.

As permissões devem aparecer na ordem leitura, escrita e execução (rwx). Sendo


assim, pode-se analisar e detalhar as permissões da string do exemplo anterior,
dividindo-a em 4 partes:

- r-x rw- rwx


Tipo de Arquivo Proprietário (u). Grupo (g) Demais usuários. (O)
Permissão leitura Permissão Permissão leitura,
e execução. leitura e escrita. escrita e execução.

A configurando de permissões no Linux é feito através do comando chmod (em


inglês, change mode). Um detalhe interessante deste comando é que o usuário
pode configurar permissões de duas maneiras: simbolicamente e numericamente.
Primeiramente, apresenta-se o método simbólico.

Para poder combinar os símbolos, usam-se os operadores: sinal de adição para


adicionar permissão, sinal de subtração para remover permissão e o sinal de
igualdade para definir permissão.

Para mostrar como essa combinação é feita, suponha que o usuário deseje
adicionar permissão de leitura no arquivo concursos.doc para um usuário. Então, o
comando a ser digitado seria:

chmod u+r concursos.doc

O "u" indica que a permissão será dada a um usuário, o sinal de adição (+) indica
que está sendo adicionada a permissão e "r" indica que a permissão que está
sendo dada é de leitura.

Caso o usuário quisesse dar permissões de leitura e escrita ao seu grupo, o


comando seria:

chmod g+rw concursos.doc

Agora, suponha que o arquivo concursos.doc deverá estar com todas as


permissões disponíveis para o grupo. Pode-se usar então:

chmod g=rwx concursos.doc

O uso do comando chmod com valores numéricos é bastante prático e muito


utilizado. Em vez de usar letras como símbolos para cada permissão, usam-se
números. Se determinada permissão é habilitada, atribui-se valor 1, caso
contrário, atribui-se valor 0. Sendo assim, a string de permissões r-xr----- na forma
numérica fica 101100000. Essa combinação de 1 e 0 é um número binário. Mas,
tem-se ainda que acrescentar a forma decimal (ou seja, números de 0 a 9). Para
isso, observe a tabela a seguir:

Binário
Permissão Símbolo Decimal
r w x
Desabilitada --- 0 0 0 0
Somente Execução --x 0 0 1 1
Somente Escrita -w- 0 1 0 2
Escrita e Execução -wx 0 1 1 3
Somente Leitura r-- 1 0 0 4
Leitura e Execução r-x 1 0 1 5
Leitura e Escrita rw- 1 1 0 6
Leitura, Escrita e Execução rwx 1 1 1 7

Para exemplificar, utiliza-se a permissão rw-, cujo valor em binário é 110, que por
sua vez, em decimal corresponde ao número 6. Então, em vez de usar rw- ou 110
para criar a permissão, simplesmente usa-se o número 6. Repare então que com
o método numérico, usa-se somente um dígito para representar uma permissão,
ao invés de três. Com isso a string de permissões r---w---x pode ser representada
por 421. Observe o exemplo a seguir:

chmod 600 concursos.doc

Este comando atribui as permissões rw------- ao arquivo concursos.doc, pois 6


equivale a rw- e 0 equivale a ---. Como zero aparece duas vezes, forma-se então o
valor 600. A tabela a seguir mostra as configurações de permissões mais usadas:

--------- 000
r-------- 400
r--r--r-- 444
rw------- 600
rw-r--r-- 644
rwx------ 700
rwxr-x--- 750
rwxr-xr-x 755
rwxrwxrwx 777

Com base nas informações sobre o comando chmod, julga-se a veracidade de


cada uma das alternativas.

A alternativa (a) está incorreta, pois a permissão –rwxrwxrwx é equivalente em


valores numéricos a 777.

- rwx rwx rwx


Tipo de Arquivo Proprietário (u). Grupo (g) Demais usuários. (O)
7 7 7

A alternativa (b) está incorreta, pois a permissão -w-r-xr-x é equivalente em


valores numéricos a 255.

- -w- r-x r-x


Tipo de Arquivo Proprietário (u). Grupo (g) Demais usuários. (O)
2 5 5

A alternativa (c) está correta, pois a permissão -rwxr-xr-x é equivalente em valores


numéricos a 755.

- rwx r-x r-x


Tipo de Arquivo Proprietário (u). Grupo (g) Demais usuários. (O)
7 5 5

A alternativa (d) está incorreta, pois a permissão - - - - w- - w- é equivalente em


valores numéricos a 022.

- --- - w- - w-
Tipo de Arquivo Proprietário (u). Grupo (g) Demais usuários. (O)
0 2 2

A alternativa (d) está incorreta, pois a permissão r-xr-xrwx é equivalente em


valores numéricos a 557.

- r-x r-x rwx


Tipo de Arquivo Proprietário (u). Grupo (g) Demais usuários. (O)
5 5 7

43- O QoS é um conjunto de requisitos de serviço a que a rede deve atender para assegurar um nível de
serviço adequado à transmissão de dados. Esses requisitos de serviço baseiam-se em padrões da
indústria para a funcionalidade do QoS, cujo objetivo é oferecer um serviço de:

a) tarefas agendadas, que são sempre executadas no contexto de uma conta específica e do conjunto de
permissões fornecidas pelo grupo ao qual ela pertence.
b) suporte à rede, que pode ser utilizado para executar várias tarefas de gerenciamento que ajudam o
sistema a voltar ao estado de funcionamento normal. Essas tarefas incluem: reiniciar ou desligar o
servidor; exibir uma lista de processos ativos no momento; finalizar processos; definir ou exibir o
endereço de protocolo da Internet (IP) do servidor; gerar um erro de parada para criar um arquivo de
despejo de memória; iniciar e acessar prompts de comando.
c) conexão fora de banda, que só fica disponível quando o servidor já foi inicializado e está funcionando
corretamente. A conexão em banda depende das unidades de rede do sistema operacional para
estabelecer conexões entre computadores.
d) suporte a redirecionamento de console dos Serviços de Gerenciamento de Emergência, que devem
incluir o carregador de instalação, a instalação em modo de texto, o console de recuperação, o
carregador, os Serviços de Instalação Remota (RIS) e mensagens de erro de parada.
e) entrega garantida para o tráfego de rede, como pacotes do protocolo IP (protocolo Internet).

Comentários:

Gabarito E

Visão geral sobre o QoS

Qualidade de Serviço (QoS) é um conjunto de requisitos de serviço a que a rede


deve atender para assegurar um nível de serviço adequado à transmissão de
dados. Esses requisitos de serviço baseiam-se em padrões da indústria para a
funcionalidade do QoS.
O QoS permite que os programas em tempo real façam o uso mais eficiente da
largura de banda da rede. Por assegurar algum nível de garantia para recursos de
rede suficientes, o QoS fornece às redes compartilhadas um nível de serviço
semelhante ao das redes privadas.

Uma garantia QoS indica um nível de serviço que possibilita a um programa


transmitir dados a uma taxa específica e entregá-los em um prazo específico.

O objetivo do QoS é oferecer um sistema de entrega garantido para o tráfego de


rede, como pacotes do protocolo IP (protocolo Internet).

No campo das telecomunicações e redes de computadores, o termo Qualidade de


Serviço (QoS) pode tender para duas interpretações relacionadas, mas distintas.

Em redes de comutação de circuitos, refere-se à probabilidade de sucesso em


estabelecer uma ligação a um destino. Em redes de comutação de pacotes
refere-se à garantia de largura de banda ou, como em muitos casos, é utilizada
informalmente para referir a probabilidade de um pacote circular entre dois pontos
de rede.

Com base nas informações sobre qualidade de serviço (QoS), julga-se a


veracidade de cada uma das alternativas.

a) tarefas agendadas, que são sempre executadas no contexto de uma conta


específica e do conjunto de permissões fornecidas pelo grupo ao qual ela
pertence.

A alternativa (a) está incorreta, pois as informações do item se referem às senhas


de alta segurança e aos procedimentos de segurança da informação. As tarefas
agendadas são sempre executadas no contexto de uma conta específica e do
conjunto de permissões fornecidas pelo grupo ao qual ela pertence. Para impedir
que um usuário mal-intencionado modifique uma tarefa agendada usando um
nome de conta e uma senha de outro usuário, force a utilização de senhas de alta
segurança.

A alternativa (b) está incorreta, pois se refere ao conceito de Console de


Administração Especial (SAC).

O Console de Administração Especial (SAC) é o principal ambiente de linha de


comando dos Serviços de Gerenciamento de Emergência hospedado por sistemas
operacionais Windows Server 2003. É um item separado do ambiente de linha de
comando e oferece recursos diferentes.

Como o SAC fica disponível logo no início do processo de inicialização, o usuário


poderá usá-lo para gerenciar o servidor durante a operação normal do sistema e a
inicialização da maioria dos componentes da família Windows Server 2003.
Poderá usá-lo também quando o sistema estiver em Modo de Segurança e
durante a Instalação em modo gráfico. Quando os Serviços de Gerenciamento de
Emergência estiverem habilitados, o SAC permanecerá ativo enquanto o kernel
estiver sendo executado.

O SAC fornece um conjunto de comandos que pode ser utilizado para executar
várias tarefas de gerenciamento que ajudam o sistema a voltar ao estado de
funcionamento normal. Essas tarefas incluem:

• reiniciar ou desligar o servidor;


• exibir uma lista de processos ativos no momento;
• finalizar processos;
• definir ou exibir o endereço de protocolo da Internet (IP) do servidor;
• gerar um erro de parada para criar um arquivo de despejo de memória;
• iniciar e acessar prompts de comando

A alternativa (c) está incorreta, pois se refere à conexão em banda das


ferramentas de gerenciamento em banda do Windows Server 2003.

Os sistemas operacionais Windows Server 2003 fornecem diversas ferramentas


em banda que podem ser usadas para gerenciar computadores remotamente.

Diferentemente da conexão fora de banda, a conexão em banda só fica


disponível quando o servidor já foi inicializado e está funcionando corretamente. A
conexão em banda depende das unidades de rede do sistema operacional para
estabelecer conexões entre computadores.

O dispositivo de hardware de gerenciamento remoto em banda mais comum é o


adaptador de rede. Os adaptadores de modems análogos e de redes digitais de
serviços integrados (ISDN) também são classificados como adaptadores de rede.

O usuário pode utilizar conexões de acesso remoto para gerenciar os servidores.


Esse tipo de conexão é obtido através da porta em banda que reside no servidor
de destino.

Utilize as seguintes ferramentas administrativas para executar tarefas de


gerenciamento remoto através de uma conexão em banda:

• MMC (em inglês, Console de Gerenciamento Microsoft);


• SMS (em inglês, Systems Management Server);
• Telnet ;
• Área de Trabalho Remota para Administração dos Serviços de Terminal;
• WMI (Instrumentação de Gerenciamento do Windows) ;
• Serviço de Comandos Remoto (Rcmd.exe e Rcmdsvc.exe).

Quando não conseguir gerenciar um servidor por meio de uma conexão em


banda, acesse o servidor por meio de uma conexão alternativa, mas confiável,
denominada conexão fora de banda. Uma conexão fora de banda não depende
de unidades de rede do sistema operacional e fica disponível mesmo que o
servidor não tenha sido carregado ou não esteja funcionando adequadamente.

A lista a seguir descreve situações nas quais o usuário não pode utilizar o
gerenciamento em banda e, portanto, poderá ser adequado utilizar o
gerenciamento fora de banda:

• O sistema está desligado. Como os Serviços de Gerenciamento de


Emergência não estão disponíveis, será necessário o uso de hardware
especial ou de firmware para gerenciar sistemas nessa situação.
• O sistema de entrada e saída básico (BIOS) está realizando o auto-teste
inicial (POST). Como os Serviços de Gerenciamento de Emergência não
estão disponíveis, será necessário o uso de hardware especial ou de
firmware para gerenciar sistemas nessa situação.
• O servidor não está funcionando adequadamente devido a um evento de
mensagem de parada.
• Não há recursos suficientes no servidor, o que faz o driver de rede ficar
muito lento ou incapaz de responder às solicitações.
• A pilha de rede está com defeito ou falhou.
• Um componente do sistema operacional que está sendo executado (como o
carregador ou o Console de Recuperação) não oferece suporte à
comunicação em banda.
• O servidor ainda não está completamente inicializado.

A alternativa (d) está incorreta, pois se refere aos componentes que oferecem
suporte a redirecionamento de console dos Serviços de gerenciamento de
emergência que são recursos padrão dos sistemas operacionais Windows Server
2003.

Além dos recursos já falados, existem os componentes dos serviços de


Gerenciamento de Emergência.

Os Serviços de Gerenciamento de Emergência consistem em componentes que


são recursos padrão dos sistemas operacionais Windows Server 2003 e aos quais
foi adicionada a funcionalidade de redirecionamento de console. Os Serviços de
gerenciamento de emergência também incluem dois consoles de gerenciamento
remoto exclusivos.

Os componentes que oferecem suporte a redirecionamento de console dos


Serviços de Gerenciamento de Emergência incluem o carregador de Instalação, a
Instalação em modo de texto, o Console de Recuperação, o carregador, os
Serviços de Instalação Remota (RIS) e mensagens de erro de Parada. Quando o
sistema operacional for configurado para executar os Serviços de Gerenciamento
de Emergência, esses componentes redirecionarão suas saídas para a porta de
gerenciamento fora de banda e para a placa de vídeo, se houver alguma
conectada. No entanto, os Serviços de gerenciamento de emergência ficam
disponíveis havendo ou não placa de vídeo. Todas as saídas dos Serviços de
gerenciamento de emergência ficam acessíveis através de um emulador de
terminal.

A alternativa (e) está correta, pois o principal objetivo do QoS é oferecer um


sistema de entrega garantido para o tráfego de rede, como pacotes do protocolo
IP (protocolo Internet).

44- Analise as seguintes afirmações relacionadas a redes de computadores:

I. VoIP é a capacidade de transmitir conversas por voz pela rede Ethernet local e até mesmo pela rede
remota. A voz compartilha o cabo Ethernet com os dados, dispensando a necessidade de um cabo de
telefone separado.
II. O DHCP é usado para proporcionar privacidade e segurança à conexão pela Internet. Ele oferece, de
forma eficiente, uma linha privada por meio de um serviço público. Sua principal utilização destina-se a
usuários individuais que se conectam de casa a um local central. Existem vários métodos de
configuração de uma conexão por DHCP, incluindo iniciar o processo em um computador cliente, caso
em que o roteador não tem conhecimento da conexão por DHCP. No entanto, o roteador também pode
ser configurado com conexões por DHCP roteador-a-roteador que não envolvem os usuários.
III. Os Uplinks são usados para conectar os switches de uma rede. Embora eles possam ser conectados
por conexões Ethernet comuns, switches de classes mais altas oferecem suporte a conexões com
velocidade mais alta, usando protocolos de entroncamento para a conexão switch-a-switch.
IV. O ISDN é usado nos roteadores conectados à Internet para converter um único endereço exclusivo da
Internet em vários endereços de rede privada. Ou seja, vários dispositivos podem compartilhar um
único endereço de Internet e, como os endereços privados não podem ser acessados diretamente a
partir de outro usuário da Internet, isso se torna uma medida de segurança. Ela pode estar disponível
em roteadores de pequenas empresas conectadas via Internet e também em locais maiores para o
roteador de limite.

Indique a opção que contenha todas as afirmações verdadeiras.

a) I e II
b) I e III
c) III e IV
d) II e III
e) II e IV

Comentários:

Gabarito B
Recursos comuns de switches e roteadores

A seguir estão os recursos mais comuns encontrados em switches e roteadores.


Cada recurso é explicado e avaliado.
Essa lista apresenta os recursos comuns desejáveis em switches e roteadores,
seguida pelos recursos individuais de cada switch ou roteador.

Escalabilidade

Expandir o número de portas Ethernet em geral é bastante útil, especialmente nos


switches em empresas grandes já que o número de usuários e servidores pode
aumentar. Não é recomendado instalar um switch que não comporte o
crescimento futuro, pois ele teria que ser descartado e substituído por outro. Os
switches tendem a apresentar:

• Configuração fixa com um número definido de portas Ethernet.


• Flexibilidade, se for possível incluir outras placas para disponibilizar mais
portas.
• Capacidade plena de atualização, geralmente com base em um chassis e
boa capacidade de expansão.

A expansão em roteadores também é desejável, mas o crescimento pode não ser


tão drástico como em um switch. O que freqüentemente muda nos roteadores são
as conexões de rede remota, seja porque a tecnologia da rede remota mudou, por
exemplo, de ISDN para ADSL, ou porque foram implementadas conexões de rede
remota adicionais.

Embora a capacidade de expansão seja desejável, ela acarreta um custo e, para


filiais, um switch/roteador de configuração fixa pode ser um produto mais
econômico.

Suporte a Ethernet de alta velocidade

A velocidade normal da Ethernet hoje é de 100 Mbps em vez dos 10 Mbps


originais. O custo da Gigabit Ethernet está caindo drasticamente, mas geralmente
seu uso está restrito a servidores e conexões de backbone entre switches, pois as
placas PCI ainda são caras. A Ethernet de 10 Gbps também está surgindo e, à
medida que o custo diminuir, provavelmente substituirá a Gigabit Ethernet nas
conexões de backbone mais importantes. Todos os switches e roteadores devem
oferecer suporte a Ethernet de 100 Mbps, mas normalmente apenas os modelos
de médio a grande porte suportam velocidades mais altas.

Resiliência

O que acontece quando um componente do switch ou do roteador falha? Toda a


unidade pára ou seu design é redundante para continuar funcionando? Switches e
roteadores de nível mais alto podem incluir componentes duplicados, como fontes
de alimentação, mecanismos e estruturas de switch, para que a falha não afete a
operação. Em um dispositivo grande com várias conexões, esse é um recurso
bastante desejável. No entanto, em um switch ou em um roteador menor, por
exemplo, em uma filial pequena, o custo extra não se justifica. Como alternativa, é
possível dois switches ou roteadores funcionarem paralelamente, um em operação
e outro em espera ativa, aguardando para assumir o controle se o principal falhar.

Capacidade de gerenciamento

Os switches começam a funcionar sem necessidade de qualquer configuração e


reconhecem a topologia da rede ouvindo as transmissões de quadros Ethernet e
deduzindo a localização da porta de cada dispositivo. Todos os switches
desempenham essa função, mas o acesso ao switch é desejável para qualquer
configuração e monitoramento adicional. Switches mais simples não oferecem
opções de configuração, mas à medida que o conjunto de recursos aumenta, a
configuração torna–se necessária para o melhor aproveitamento desses recursos.
Os roteadores sempre requerem configuração para definir os endereços das
portas IP e o método a ser usado para criar as tabelas de roteamento.

É necessário acesso remoto pela rede para configurar e gerenciar os dispositivos.


Isso pode reduzir consideravelmente os custos de gerenciamento, pois não será
necessário ir fisicamente até o dispositivo para corrigir problemas. Além disso, os
dispositivos podem ser monitorados pelo software de gerenciamento da rede,
reportando erros automaticamente.

VoIP (Voice over IP)

VoIP é a capacidade de transmitir conversas por voz pela rede Ethernet local e até
mesmo pela rede remota. A vantagem imediata é a diminuição no cabeamento,
pois a voz compartilha o cabo Ethernet com os dados em vez de precisar de um
cabo de telefone separado, mas a vantagem futura é o aumento na flexibilidade de
alocação de funcionários e equipamentos. O PABX tradicional legado geralmente
é substituído por um PABX IP que utiliza uma plataforma de computador padrão
em vez de um hardware proprietário.

Para um data center com uma rede telefônica existente, o VoIP pode não ser
necessário em curto prazo, mas sim no futuro, a medida que a empresa crescer
ou seus negócios aumentarem. Os switches e roteadores adequados para lidar
com VoIP devem ter estes dois recursos:

• Suporte a QoS (Qualidade do Serviço) do padrão IEEE 802.1p. Permite que


o switch dê prioridade ao tráfego entre dados e voz, de modo que o tráfego
de voz seja enviado antes do tráfego de dados.
• Suporte ao fornecimento de energia para telefones IP padrão IEEE 802.3af.
Permite que o switch forneça energia de baixa voltagem por cabos Ethernet
Categoria 5 UTP para ligar telefones IP.

Desempenho

Avaliar a capacidade de processamento ou o desempenho de um roteador ou de


um switch é mais difícil que avaliar um computador, no qual a capacidade da CPU
pode ser o ponto de partida. Geralmente, o roteador ou o switch baseia–se no
hardware proprietário do fabricante e, embora exista uma CPU, ela não fornece
uma indicação precisa da capacidade geral. O desempenho do switch é medido
em número de bits por segundo (bps) e pacotes por segundo (pps), enquanto o do
roteador normalmente é medido apenas em pps. Com freqüência, os fabricantes
de roteadores e switches não revelam o desempenho dos dispositivos. Além
disso, não existe um padrão de mercado para medir o desempenho, dificultando
qualquer comparação direta. Os fabricantes de roteadores pequenos também não
costumam revelar valores de desempenho.

Recursos específicos de switch

Os recursos desejáveis específicos dos switches são:

Protocolo de árvore estendida (em inglês, Spanning Tree Protocol)

É usado para calcular o melhor caminho entre os switches quando há vários deles
e diversos caminhos pela rede. Isso é necessário para evitar que os dados sejam
enviados pelo mesmo caminho ao mesmo tempo, resultando na duplicação de
dados. Em uma rede grande, é essencial que os switches ofereçam suporte a
esse protocolo, que geralmente não está disponível em switches pequenos.

Suporte a VLAN

As VLANs são usadas para segmentar a rede em grupos de computadores com


requisitos semelhantes de comunicação, reduzindo assim o tráfego da rede. Elas
podem ser usadas em redes de qualquer tamanho, mas são desejáveis
especialmente se houver alguns switches muito grandes instalados. Os switches
baratos freqüentemente não oferecem suporte a VLANs. Ele não é importante em
uma rede pequena, mas é essencial em redes grandes.

Conectividade do uplink

Os uplinks são usados para conectar os switches de uma rede. Embora eles
possam ser conectados por conexões Ethernet comuns, switches de classes mais
altas oferecem suporte a conexões com velocidade mais alta, usando protocolos
de entroncamento para a conexão switch–a–switch.

Consolidação

Incorporar outras funções a um switch pode reduzir custos e melhorar a


capacidade de gerenciamento. Por exemplo, switches baratos para escritórios
pequenos podem incluir também um roteador e um firewall, e até mesmo um
modem de banda larga. Além de reduzir custos, isso também simplifica o
gerenciamento, afinal existe somente uma unidade física. Switches mais caros
também podem incorporar um módulo roteador, conhecido como comutação de
camada 3, além de outras funções, como balanceamento de carga e firewall. Mais
uma vez, isso melhora a capacidade de gerenciamento da rede. Essa
consolidação deve ser avaliada cuidadosamente, pois pode resultar na redução da
resiliência, uma vez que uma falha geral da unidade interromperá todos os
serviços consolidados.

Recursos específicos de roteadores

Os recursos desejáveis específicos dos roteadores são:

Protocolos de roteamento

Para roteadores de campo, deve haver uma série de protocolos de roteamento


disponíveis e a escolha do roteador deve ser feita em conjunto com o design de
rede e a escolha do protocolo de roteamento. Os protocolos de roteamento padrão
mais comuns são RIP e OSPF, mas o RIP não é adequado para redes de grande
porte.

NAT (Conversão de Endereço de Rede)

A NAT é usada nos roteadores conectados à Internet para converter um único


endereço exclusivo da Internet em vários endereços de rede privada. Ou seja,
vários dispositivos podem compartilhar um único endereço de Internet e, como os
endereços privados não podem ser acessados diretamente a partir de outro
usuário da Internet, isso se torna uma medida de segurança. Ela pode estar
disponível em roteadores de pequenas empresas conectadas via Internet e
também em locais maiores para o roteador de limite.

DHCP (Dynamic Host Configuration Protocol)

É usado para emitir automaticamente endereços IP para computadores, assim não


é necessário configurar seus endereços manualmente. Isso simplifica a
configuração dos computadores, pois eles podem ser configurados para usar o
DHCP e selecionarão um endereço quando forem ligados e conectados à rede.
Ele também é útil para laptops usados em locais diferentes, pois eles receberão
automaticamente um endereço IP adequado a cada local. Em locais centrais, um
serviço DHCP será executado em um servidor, por exemplo, com o sistema
operacional Microsoft® Windows® 2000 ou Microsoft® Windows Server™ 2003,
mas em pequenas empresas talvez não haja um servidor, portanto, pode ser
necessário que o roteador emita os endereços DHCP.

Firewall
Os roteadores podem oferecer um recurso de firewall e ele é útil em qualquer
roteador conectado à Internet, como o roteador de uma filial ou o roteador de limite
em empresas maiores. Embora um roteador completo seja aconselhável em
empresas maiores, o roteador de limite está do lado de fora do firewall e precisa
proteger–se.

Em grandes empresas, dispositivos de rede duplicados podem ser instalados


como um esquema para evitar falhas, com um dispositivo operando como principal
e outro em espera ativa, que passa a ser ativo se o dispositivo principal falhar. O

VRRP (Protocolo de Redundância de Roteador Virtual)

VRRP é um protocolo executado na conexão entre os roteadores, assim cada


roteador sabe quando o outro está em operação e, quando a conexão falha, o
dispositivo ativo pode reagir.

VPN (Rede Virtual Privada)

É usada para proporcionar privacidade e segurança à conexão pela Internet. Ela


oferece de forma eficiente uma linha privada por meio de um serviço público e sua
principal utilização é feita para usuários individuais que se conectam de casa ou
em filiais que se conectam a um local central. Existem vários métodos de
configuração de uma conexão por VPN, incluindo iniciar o processo em um
computador cliente, caso em que o roteador não tem conhecimento da conexão
por VPN. No entanto, o roteador também pode ser configurado com conexões por
VPN diretas roteador a roteador que não envolvem os usuários, e isso pode ser
uma necessidade em pequenas filiais.

Com base nas informações relacionadas aos recursos encontrados em switches e


roteadores, julga-se a veracidade de cada um dos itens.

O item I está correto, pois se refere ao típico conceito de VoIP o qual é a


capacidade de transmitir conversas por voz pela rede Ethernet local e até mesmo
pela rede remota. A voz compartilha o cabo Ethernet com os dados, dispensando
a necessidade de um cabo de telefone separado.

O item II está incorreto, pois se refere ao conceito de VPN o qual é usada para
proporcionar privacidade e segurança à conexão pela Internet. Ela oferece de
forma eficiente uma linha privada por meio de um serviço público e sua principal
utilização é feita para usuários individuais que se conectam de casa ou em filiais
que se conectam a um local central.

Enquanto que DHCP é usado para emitir automaticamente endereços IP para


computadores, assim não é necessário configurar seus endereços manualmente.
Isso simplifica a configuração dos computadores, pois eles podem ser
configurados para usar o DHCP e selecionarão um endereço quando forem
ligados e conectados à rede. Ele também é útil para computadores portáteis
usados em locais diferentes, pois eles receberão automaticamente um endereço
IP adequado a cada local.

O item III está correto, pois refere ao típico conceito de Uplinks que são usados
para conectar os switches de uma rede. Embora eles possam ser conectados por
conexões Ethernet comuns, switches de classes mais altas oferecem suporte a
conexões com velocidade mais alta, usando protocolos de entroncamento para a
conexão switch-a-switch.

O item IV está incorreto, pois se refere ao conceito de NAT o qual é usado nos
roteadores conectados à Internet para converter um único endereço exclusivo da
Internet em vários endereços de rede privada. Ou seja, vários dispositivos podem
compartilhar um único endereço de Internet e, como os endereços privados não
podem ser acessados diretamente a partir de outro usuário da Internet, isso se
torna uma medida de segurança. Ela pode estar disponível em roteadores de
pequenas empresas conectadas via Internet e também em locais maiores para o
roteador de limite.

45- Analise as seguintes afirmações relacionadas a elementos de interconexão de redes de computadores:

I. Os Hubs são configurados automaticamente. Eles ouvem o tráfego de cada porta Ethernet e
descobrem a qual porta cada dispositivo está conectado. O Hub, então, envia o tráfego diretamente
para a porta de destino. A menos que os recursos adicionais precisem ser ativados, o Hub não requer
nenhuma configuração. O processo de comutação é realizado no hardware na velocidade da conexão,
sem nenhuma latência.
II. Os roteadores operam na camada 3 do modelo OSI. Eles conectam duas redes IP diferentes, que
podem ser redes locais ou remotas. O processo de roteamento baseia-se na análise do endereço IP de
destino dos dados de entrada e no envio dos dados por meio de uma porta de saída, de acordo com
uma tabela de roteamento. As tabelas de roteamento podem ser configuradas manualmente ou
descobertas com o uso de protocolos de roteamento.
III. Os switches são usados para conectar segmentos físicos de uma rede e permitir que os dados se
movimentem entre esses segmentos. Eles operam na camada 2 do modelo OSI e direcionam o tráfego
de acordo com o endereço da camada 2. Um exemplo é o endereço Ethernet MAC.
IV. O tráfego de rede inclui mensagens de difusão que são copiadas para cada segmento com um impacto
considerável em uma grande rede. Como a maioria dos usuários deseja comunicar-se com servidores
específicos, o tráfego de difusão poderia ser enviado apenas para o segmento desses servidores. Um
método para reduzir o tráfego de difusão é disponibilizar um switch para cada grupo e depois conectá-
los a um hub, pois o hub não transmite difusões.

Indique a opção que contenha todas as afirmações verdadeiras.

a) I e II
b) II e IV
c) III e IV
d) I e III
e) II e III

Comentários:

Gabarito E
Switches

Os switches são usados para conectar segmentos físicos de uma rede e permitir
que os dados se movimentem entre esses segmentos. Eles operam na camada 2
do modelo OSI e direcionam o tráfego de acordo com o endereço da camada 2.
Um exemplo é o endereço Ethernet MAC. Alguns switches também oferecem
outras funções, como VLANs e comutação de camada 3.

Os switches são configurados automaticamente. Eles ouvem o tráfego de cada


porta Ethernet e descobrem a qual porta cada dispositivo está conectado. O
switch, então, envia o tráfego diretamente para a porta de destino. A menos que
os recursos adicionais precisem ser ativados, o switch não requer nenhuma
configuração, o que é uma grande vantagem durante a instalação da rede. O
processo de comutação é realizado no hardware, na velocidade da conexão,
praticamente sem nenhuma latência.

Originalmente, os switches conectavam segmentos a vários dispositivos, mas,


como seu preço caiu, tornou–se normal conectar um único dispositivo a cada
porta. Isso é conhecido como Ethernet "comutada", e não "compartilhada". Com
apenas um dispositivo ativo por porta, não pode haver colisões, portanto, o
desempenho da rede é melhor e os dispositivos podem operar em duplex total
para atingir uma taxa de transferência mais alta.

O tráfego de rede inclui mensagens de difusão, e elas devem ser copiadas para
cada porta, com um impacto considerável em uma rede grande. Como a maioria
dos usuários quer comunicar–se com um grupo limitado de servidores e
associados, qualquer tráfego de difusão poderia ser enviado apenas dentro desse
grupo. Um método para reduzir o tráfego de difusão é disponibilizar um switch
para cada grupo e depois conectá–los a um roteador, pois o roteador não
transmite difusões. Outro método é usar VLANs no switch. A VLAN é um grupo de
dispositivos configurados para se comunicarem como se estivessem conectados
ao mesmo cabo, quando na verdade estão em vários segmentos físicos diferentes
da rede local. Uma difusão proveniente de um membro da VLAN chegará somente
a outros membros dessa mesma VLAN, reduzindo assim o alcance do tráfego de
difusão.

Roteadores

O roteadores operam na camada 3 do modelo OSI. Eles transmitem o tráfego


entre duas redes IP diferentes que podem ser redes locais ou remotas. O
processo de roteamento baseia–se na análise do endereço IP de destino dos
dados de entrada e no envio dos dados por meio de uma porta de saída, de
acordo com uma tabela de roteamento. As tabelas de roteamento podem ser
configuradas manualmente ou descobertas com o uso de protocolos de
roteamento, no entanto, diferentemente dos switches, os roteadores sempre
precisarão de alguma configuração.
Grandes switches também podem incluir um roteador, geralmente em uma placa
suplementar. Normalmente, é descrito como comutação de camada 3, mas sua
funcionalidade é igual ao roteamento.

Com base nas informações relacionadas a elementos de interconexão de redes de


computadores, julga-se a veracidade de cada um dos itens.

O item I está incorreto, pois se refere ao conceito de switches o qual são


configurados automaticamente. Eles ouvem o tráfego de cada porta Ethernet e
descobrem a qual porta cada dispositivo está conectado. O switch, então, envia o
tráfego diretamente para a porta de destino. A menos que os recursos adicionais
precisem ser ativados, o switch não requer nenhuma configuração, o que é uma
grande vantagem durante a instalação da rede. O processo de comutação é
realizado no hardware, na velocidade da conexão, praticamente sem nenhuma
latência.

Os hubs ou concentradores são aparelhos que interliga diversas máquinas


(computadores) que pode ligar externamente redes LAN, MAN e WAN. Eles têm o
mesmo domínio de broadcast e colisão.

O item II está correto, pois se refere ao conceito de roteadores o qual operam na


camada 3 do modelo OSI. Eles transmitem o tráfego entre duas redes IP
diferentes que podem ser redes locais ou remotas. O processo de roteamento
baseia–se na análise do endereço IP de destino dos dados de entrada e no envio
dos dados por meio de uma porta de saída, de acordo com uma tabela de
roteamento.

O item III está correto, pois os switches são usados para conectar segmentos
físicos de uma rede e permitir que os dados se movimentem entre esses
segmentos. Eles operam na camada 2 do modelo OSI e direcionam o tráfego de
acordo com o endereço da camada 2. Um exemplo é o endereço Ethernet MAC.

Switch ou Comutador é um equipamento usado para conectar e distribuir


comunicações entre uma linha tronco ou backbone, e nós individuais. Quando se
usa um hub, as estações de trabalho de comunicam pelo mesmo canal físico,
podendo ocorrer congestionamento e perda de tempo na retransmissão das
informações. O switch resolve este problema permitindo que cada equipamento se
comunique com velocidade máxima. Eles têm o mesmo domínio de broadcast e
diferente domínio de colisão.

O item IV está incorreto, pois trocou a palavra roteador por hub. A frase correta é:
O tráfego de rede inclui mensagens de difusão, e elas devem ser copiadas para
cada porta, com um impacto considerável em uma rede grande. Como a maioria
dos usuários quer comunicar–se com um grupo limitado de servidores e
associados, qualquer tráfego de difusão poderia ser enviado apenas dentro desse
grupo. Um método para reduzir o tráfego de difusão é disponibilizar um switch
para cada grupo e depois conectá–los a um roteador, pois o roteador não
transmite difusões.

Roteadores são equipamentos usados para fazer a comunicação entre diferentes


redes de computadores. Estes provêem a comunicação entre computadores
distantes entre si e até mesmo com protocolos de comunicação diferentes.
46-Para se manter uma rede segura algumas configurações básicas de segurança para os roteadores e
switches devem ser consideradas. Entre essas configurações mínimas de segurança pode-se citar:

a) a manutenção dos serviços bootps e finger sempre habilitados, mesmo quando não estiverem em uso.
b) a de roteamento dinâmico, evitando-se o uso que qualquer tipo de roteamento estático.
c) o bloqueio de protocolos e portas não usadas.
d) a manutenção do bloqueio ao Kerberos e/ou RADIUS no serviço de autenticação de usuários
administrativos.
e) a manutenção dos serviços IDS desabilitados para evitar ataque ativo.

Comentários:

Gabarito C

A seguir mostra-se um modelo de uma rede segura com configurações básicas de


segurança para os roteadores e switches.

Roteador

Componente Característica
Patches e atualizações O sistema operacional do roteador está corrigido com
software atualizado.
Protocolos • Os protocolos e as portas não usadas são
bloqueados.
• A filtragem de entrada e saída é implementada.
• O tráfego ICMP é analisado desde a rede interna.
• O traçado de rota está desabilitado.
• O tráfego de difusão direcionado não é
encaminhado.
• Pacotes de ping grandes são analisados.
• Pacotes RIP, se usados, são bloqueados no
roteador mais externo.
• O roteamento estático é usado.
Acesso administrativo • É aplicada uma diretriz rígida de senha
administrativa.
• Use um sistema de controle de acesso
administrativo.
• As interfaces de gerenciamento do roteador que
não estão em uso foram desabilitadas.
Componente Característica
• A administração com base na Web foi
desabilitada.
Serviços • Os serviços fora de uso foram desabilitados (por
exemplo, bootps e Finger).
Auditoria e log • O log é habilitado para todo o tráfego negado.
• Os logs são armazenados de maneira centralizada
e segura.
• É feita uma auditoria nos logs em busca de
padrões incomuns.
Detecção de invasão • Existe um IDS para identificar e notificar sobre um
ataque ativo.
Acesso físico. • Limite o acesso físico

Switch

Componente Característica
Patches e atualizações • Os patches de segurança mais recentes são
testados e instalados ou o risco das
vulnerabilidades conhecidas foi eliminado.
VLANs • Use VLANs e ACLs.
Desabilite portas sem • Desabilite portas Ethernet sem uso.
uso
Serviços • Os serviços fora de uso devem ser desabilitados.
Criptografia • O tráfego comutado é criptografado.
Sincronização do log • Os relógios de todos os dispositivos com recurso
de log foram sincronizados.
Acesso administrativo à • Kerberos ou RADIUS é usado para autenticar
rede usuários administrativos.
ACLs da rede • A rede é estruturada de modo que as ACLs
possam ser usadas em hosts e redes.

Com base nas informações sobre as configurações básicas de segurança para os


roteadores e switches para uma rede segura, julga-se a veracidade de cada uma
das alternativas.

A alternativa (a) está incorreta, pois os serviços fora de uso devem ser
desabilitados, por exemplo, serviços bootps e Finger.

A alternativa (b) está incorreta, pois os roteadores devem usar protocolos ou


algoritmos de roteamento estático.

A alternativa (c) está correta, pois os roteadores devem bloquear os protocolos e


as portas não usadas.
A alternativa (d) está incorreta, pois os roteadores ou switchs deve usar os
servidores Kerberos ou RADIUS para autenticar usuários administrativos.

A alternativa (e) está incorreta, pois os roteadores ou switchs deve instalar


componentes de detecção de invasão. Por exemplo, manter um serviço IDS
habilitado para identificar e notificar sobre um ataque ativo.

47- Ao usar o TCP/IP como protocolo de rede, é possível utilizar comandos básicos para descobrir problemas
de configuração ou comunicação. Com relação a esses comandos é correto afirmar que a execução de
um:

a) Tracert para o endereço IP 255.255.255.0 na porta 21 receberá como retorno o status da rede para as
comunicações estabelecidas pelo protocolo HTTP na porta 21.
b) IPCONFIG/ALL por um administrador da rede renova o endereço IP de todos os adaptadores com
endereços concedidos pelo servidor DHCP.
c) Telnet para o endereço IP 127.0.0.1 na porta 80 receberá como retorno o endereço IP do Gateway que
atende aos computadores da rede.
d) PING no endereço IP 255.255.255.255 retorna a tabela de rotas do computador na rede.
e) PING no endereço de auto-retorno (127.0.0.1) pode ser usado para verificar se o TCP/IP está
funcionando corretamente.

Comentários:

Gabarito E

Existem ferramentas capazes de fornecer informações para o usuário determinar a


causa de problemas de uma rede TCP/IP em versões Windows ou Linux. Neste
momento, faz-se uma abordagem sobre o ambiente Windows XP disponibilizada
pela própria Microsoft.

As ferramentas básicas são:

Diagnóstico de rede na Ajuda e suporte: Contém informações detalhadas sobre


a configuração da rede e os resultados dos testes automatizados.

Pasta Conexões de rede: Contém informações e configurações para todas as


conexões de rede no computador. Para localizar a pasta Conexões de rede, clique
em Iniciar, em Painel de controle e clique em Conexões de rede e Internet.

Comando IPConfig: Exibe os valores de configuração de rede atuais de TCP/IP,


atualiza ou libera concessões alocadas do protocolo DHCP e exibe, registra ou
libera nomes DNS.

Comando Ping: Envia mensagens de solicitação de eco ICMP para verificar se o


TCP/IP está configurado corretamente e se um host TCP/IP está disponível.

As ferramentas avançadas são:


Comando hostname: Exibe o nome do computador host.

Comando Nbtstat: Exibe o status do NetBIOS atual sobre conexões TCP/IP,


atualiza o cache de nome do NetBIOS e exibe a identificação do escopo e dos
nomes registrados.
Comando PathPing: Exibe um caminho para o host TCP/IP e as perdas de
pacote em cada roteador ao longo do caminho.

Comando Route: Exibe a tabela de roteamento IP e adiciona ou exclui rotas de


IP.

Comando Tracert: Exibe o caminho de um host TCP/IP.

Para solucionar problemas de conectividade TCP/IP manualmente, usa-se as


ferramentas básicas ou avançadas, vistas anteriormente, aplicando os métodos a
seguir na seqüência:

Método 1: Usar a ferramenta IPConfig para verificar a configuração

Para usar a ferramenta IPConfig para verificar a configuração de TCP/IP no


computador que está com problema, clique em Iniciar, em Executar e digite cmd.
Agora é possível usar o comando ipconfig para determinar as informações de
configuração do computador host, inclusive o endereço IP, a máscara de subrede
e o gateway padrão.

O parâmetro /all para IPConfig gera um relatório de configuração detalhado para


todas as interfaces, incluindo quaisquer adaptadores de acesso remoto. É possível
redirecionar o resultado do IPConfig para um arquivo de modo a colar esse
resultado em outros documentos. Para fazer isso, digite:

ipconfig > \nome da pasta\nome do arquivo

O resultado recebe o nome do arquivo especificado e é armazenado na pasta


especificada.

É possível revisar o resultado do IPConfig para identificar problemas existentes na


configuração de rede do computador. Por exemplo, se um computador for
configurado manualmente com um endereço IP que duplica um endereço IP
existente já detectado, a máscara de subrede aparecerá como 0.0.0.0.

Se o endereço IP local retornar como 169.254.y.z com uma máscara de subrede


de 255.255.0.0, o endereço IP terá sido atribuído pelo recurso APIPA (em inglês,
Automatic Private IP Addressing) do Windows XP Professional. Essa atribuição
significa que o TCP/IP está configurado para configuração automática, que
nenhum servidor DHCP foi encontrado e que nenhuma configuração alternativa
está especificada. Esta configuração não tem nenhum gateway padrão para a
interface.

Se o endereço IP local retornar como 0.0.0.0, a substituição do recurso DHCP


Media Sensing foi ativada porque o adaptador de rede detectou sua falta de
conexão com uma rede ou porque o TCP/IP detectou um endereço IP que duplica
um endereço IP configurado manualmente.

Caso nenhum problema seja identificado na configuração de TCP/IP, vá para o


método 2.

Método 2: Usar a ferramenta Ping para testar sua conectividade

Se nenhum problema for identificado na configuração do TCP/IP, verifique se o


computador pode se conectar a outros computadores host na rede TCP/IP. Para
fazer isso, use a ferramenta Ping.

A ferramenta Ping ajuda a verificar o nível de conectividade do IP. O comando


ping envia uma mensagem de solicitação de eco ICMP a um host de destino. Use
o Ping sempre que quiser verificar se um computador host pode enviar pacotes de
IP a um host de destino. Também é possível usar o Ping para isolar problemas de
hardware de rede e configurações incompatíveis.

Observação: Se o usuário executou o comando ipconfig /all e a configuração IP for


exibida, não será necessário aplicar o ping no endereço de auto-retorno e no seu
próprio endereço IP. O IPConfig já executou essas tarefas para exibir a
configuração. Ao solucionar problemas, verifique se existe uma rota entre o
computador local e um host de rede. Para fazer isso, use o seguinte comando:

ping Endereço IP

Observação: Endereço IP é o endereço IP do host de rede com o qual deseja se


conectar.

Para usar o comando ping, execute estas etapas:

1. Aplique o Ping no endereço de auto-retorno para verificar se o TCP/IP está


instalado e configurado corretamente no computador local. Para fazer isso,
digite o seguinte comando:

ping 127.0.0.1

Se o teste de auto-retorno falhar, a pilha do IP não estará respondendo. Este


problema pode ocorrer se uma ou mais das seguintes condições forem
verdadeiras:

• Os drivers TCP estão corrompidos.


• O adaptador de rede não está funcionando.
• Outro serviço está interferindo com o IP.

2. Aplique o Ping no endereço IP do computador local para verificar se o


computador foi adicionado corretamente à rede. Se a tabela de roteamento
estiver correta, este procedimento irá encaminhar o pacote ao endereço de
auto-retorno 127.0.0.1. Para fazer isso, digite o seguinte comando:

ping Endereço IP do host local

Se o teste de auto-retorno tiver êxito, mas não for possível aplicar o ping no
endereço IP local, pode existir um problema com a tabela de roteamento ou com o
driver do adaptador de rede.

3. Aplique o ping no endereço IP do gateway padrão para verificar se o gateway


padrão está funcionando e se é possível se comunicar com um host local na
rede local. Para fazer isso, digite o seguinte comando:

ping Endereço IP de gateway padrão

Se o ping falhar, pode existir um problema com o adaptador de rede, com o


dispositivo roteador ou gateway, com o cabeamento ou outro hardware de
conexão.

4. Aplique o ping no endereço IP de um host remoto para verificar se é possível


se comunicar por meio de um roteador. Para fazer isso, digite o seguinte
comando:

ping Endereço IP do host remoto

Se o ping falhar, o host remoto pode não estar respondendo ou pode existir um
problema com o hardware de rede entre computadores. Para ajustar um host
remoto que não responde, use o Ping novamente em um host remoto diferente.

5. Aplique o Ping no nome do host de um host remoto para verificar se é possível


corrigí-lo. Para fazer isso, digite o seguinte comando:

ping Nome do host do host remoto

O Ping usa a resolução de nome para corrigir um nome de computador em um


endereço IP. Por isso, se o usuário aplicar o ping com êxito em um endereço IP,
mas não for possível aplicar o ping em um nome de computador, existirá um
problema com a resolução de nome do host e não com a conectividade de rede.
Deve verificar se os endereços do servidor DNS estão configurados para o
computador, manualmente, nas propriedades de TCP/IP ou atribuídos
automaticamente. Se os endereços do servidor DNS estiverem listados ao digitar
o comando ipconfig /all, tente aplicar o ping nos endereços do servidor para
verificar se estes podem ser acessados.

Se não for possível aplicar o Ping com êxito em qualquer ponto, verifique as
seguintes configurações:

• Verifique se o endereço IP do computador local é válido e se está correto


na guia Geral na caixa de diálogo Propriedades do protocolo TCP/IP ou
quando for usado com a ferramenta Ipconfig.

• Verifique se um gateway padrão está configurado e se o link entre o host e


o gateway padrão está funcionando. Para a solução de problemas, verifique
se apenas um gateway padrão está configurado. Embora seja possível
configurar mais de um gateway padrão, os gateways após o primeiro são
usados apenas se a pilha do IP determinar que o gateway original não está
funcionando. O propósito da solução de problemas é determinar o status do
primeiro gateway configurado. Por isso, é possível excluir todos os outros
gateways para simplificar sua tarefa.

• Verifique se o IPSec não está ativado. Dependendo da diretiva IPSec, os


pacotes de Ping podem ser bloqueados ou necessitar de segurança. Para
obter informações adicionais sobre IPSec, vá para o método 7: Verificar o
IPSec.

Importante: Se o computador remoto no qual está sendo aplicando o ping estiver


em um link de alto atraso como, por exemplo, um link de satélite, a resposta
poderá demorar muito mais tempo. É possível usar o parâmetro -w (espera) para
especificar um período de limite de tempo mais longo que o limite de tempo
padrão de quatro segundos.

Método 3: Usar a ferramenta PathPing para verificar uma rota

Use a ferramenta PathPing para detectar perda de pacote em caminhos de saltos


múltiplos. Execute uma análise de PathPing para um host remoto para verificar se
os roteadores em direção ao destino estão operando corretamente. Para fazer
isso, digite o seguinte comando:

pathping Endereço IP do host remoto

Método 4: Usar a ferramenta Arp para esvaziar o cache ARP

Se for possível aplicar o ping no endereço de auto-retorno (127.0.0.1) e no seu


próprio endereço IP, mas não for possível aplicar o ping em outros endereços IP,
tente esvaziar o cache ARP (protocolo de resolução de endereço). Para exibir as
entradas do cache, digite qualquer um dos seguintes comandos:
arp –a

arp -g

Para excluir as entradas, digite o seguinte comando:

arp -d Endereço IP

Para liberar o cache ARP, digite o seguinte comando:

netsh interface ip delete arpcache

Método 5: Verificar o gateway padrão

O endereço do gateway deve estar na mesma rede que o host local. Caso
contrário, as mensagens partindo do computador host não poderão ser
encaminhadas para fora da rede local. Se o endereço do gateway estiver na
mesma rede que o host local, verifique se o endereço do gateway padrão está
correto. Verifique se o gateway padrão é um roteador e não apenas um host. E
verifique se o roteador está ativado para encaminhar datagramas IP.

Método 6: Usar a ferramenta Tracert ou a ferramenta Route para verificar as


comunicações

Se o gateway padrão responder corretamente, aplique o ping em um host remoto


para verificar se as comunicações de rede-para-rede estão operando
corretamente. Se as comunicações não estiverem operando corretamente, use a
ferramenta Tracert para rastrear o caminho para o destino. Para roteadores IP que
são computadores com Microsoft Windows 2000 ou Microsoft Windows NT 4.0,
use a ferramenta Route ou o snap-in de roteamento e acesso remoto para exibir a
tabela de roteamento de IP. Para outros roteadores IP, use a ferramenta ou
método apropriado apontado pelo fornecedor ou para examinar a tabela de
roteamento de IP.

Na maioria das vezes, as quatro mensagens de erro a seguir são exibidas ao usar
o Ping durante uma solução de problemas:

TTL expirou em trânsito: Esta mensagem de erro significa que o número de


pulos necessários excede a vida útil (TTL). Para aumentar a TTL, use o comando
ping-i. Um loop de roteamento pode existir. Use o comando Tracert para
determinar se roteadores configurados incorretamente causaram um loop de
roteamento.

Host de destino inacessível: Esta mensagem de erro significa que nenhuma rota
local ou remota existe para um host de destino no host remetente ou em um
roteador. Solucione os problemas do host local ou o da tabela de roteamento do
roteador.
A solicitação expirou: Essa mensagem de erro significa que as mensagens de
resposta de eco não foram recebidas no período limite designado. Por padrão, o
tempo limite designado é de quatro segundos. Use o comando ping -w para
aumentar o tempo limite.

A solicitação de ping não pôde encontrar o host: Esta mensagem de erro


significa que o nome do host de destino não pode ser resolvido. Verifique o nome
e a disponibilidade de servidores DNS ou WINS.

Método 7: Verificar o IPSec (em inglês, Internet Protocol security)

O IPSec pode aumentar a segurança em uma rede, mas alterar as configurações


de rede ou solucionar problemas é mais difícil. Algumas vezes, as diretivas IPSec
precisam de comunicação protegida em um computador com Windows XP
Professional. Esses requisitos podem dificultar a conexão com um host remoto. Se
o IPSec for implementado localmente, será possível desativar os serviço Serviços
IPSEC no snap-in dos Serviços.

Se as dificuldades desaparecerem ao parar os serviços IPSec, as diretivas IPSec


estarão bloqueando o tráfego ou exigindo segurança para o tráfego. O
administrador de segurança deve modificar a diretiva IPSec.

Método 8: Verificar a filtragem de pacote

Devido a erros na filtragem de pacotes, a resolução ou conectividade de


endereços pode não funcionar. Para determinar se a filtragem de pacotes é a
origem de um problema de rede, desative a filtragem de pacotes do TCP/IP. Para
fazer isso, execute estas etapas:

• Clique em Iniciar, em Painel de controle, em Conexões de rede e Internet e


clique em Conexões de rede.
• Clique com o botão direito do mouse na conexão de área local que deseja
modificar e clique em Propriedades.
• Na guia Geral, na lista Esta conexão utiliza os seguintes itens, clique em
Protocolo TCP/IP e clique em Propriedades.
• Clique em Avançado e clique na guia Opções.
• Na caixa de diálogo Configurações opcionais, clique em Filtragem de
TCP/IP e clique em Propriedades.
• Desmarque a caixa de seleção Ativar filtragem TCP/IP (todos os
adaptadores) e clique em OK.

Para aplicar o ping em um endereço, use seu nome de DNS, seu nome do
computador de NetBIOS ou seu endereço IP. Se o ping tiver êxito, as opções de
filtragem de pacote podem estar configuradas incorretamente ou muito restritas.

Por exemplo, a filtragem pode permitir que o computador atue como um servidor
da Web, mas para fazer isso à filtragem pode desativar ferramentas como a
administração remota. Para restaurar uma gama maior de opções de filtragem,
altere os valores permitidos para a porta TCP, para a porta UDP e para o
protocolo IP.

Método 9: Verificar a conexão para um servidor específico

Para determinar a causa de problemas de conectividade ao tentar se conectar a


um servidor específico por meio de conexões com base no NetBIOS, use o
comando nbtstat -n no servidor para determinar qual nome o servidor registrou na
rede.

O comando nbtstat -n output lista diversos nomes que o computador registrou. A


lista incluirá um nome semelhante ao nome do computador configurado na guia
Nome do computador em Sistema no Painel de controle. Se não incluir, tente
um dos outros nomes exclusivos exibidos pelo comando nbtstat.

A ferramenta Nbtstat também pode exibir também as entradas em cache para


computadores remotos a partir de entradas #PRE no arquivo Lmhosts ou a partir
de nomes resolvidos recentemente. Se o nome que os computadores remotos
estão usando para o servidor for o mesmo e os outros computadores estiverem
em uma subrede remota, verifique se os outros computadores têm o mapeamento
de nome-para-endereço do computador em seus arquivos Lmhosts ou nos
servidores WINS.

Método 10: Verificar as conexões remotas

Para determinar porque uma conexão TCP/IP para um computador remoto pára
de responder, use o comando netstat -a para mostrar o status de toda a atividade
das portas TCP e UDP no computador local.

Normalmente, uma boa conexão TCP mostra 0 bytes nas filas Enviado e
Recebido. Se os dados estiverem bloqueados na fila ou se o estado das filas for
irregular, pode haver falha na conexão. Se os dados não estiverem bloqueados e
o estado das filas for normal, o usuário estará enfrentando atraso de rede ou de
programa.

Método 11: Usar a ferramenta Route para examinar a tabela de roteamento

Para que dois hosts troquem datagramas IP, ambos os hosts devem ter uma rota
de um para o outro ou devem usar gateways padrão que possuam uma rota. Para
exibir a tabela de roteamento em um host com Windows XP, digite o seguinte
comando:
route print

Método 12: Usar a ferramenta Tracert para examinar caminhos

A Tracert envia mensagens de solicitação de eco ICMP com valores mais altos no
campo TTL do cabeçalho IP para determinar o caminho de um host para o outro
em uma rede. Então, ela analisa as mensagens ICMP retornadas. Com a Tracert,
é possível rastrear o caminho de roteador para roteador para até 30 saltos. Se um
roteador tiver falhado ou se o pacote for roteado em um loop, a Tracert revelará o
problema. Após encontrar o roteador com problema, será possível contatar o
administrador do roteador se o roteador for externo, ou poderá restaurar o
roteador para o status totalmente funcional se ele estiver sob seu controle.

Método 13: Solucionar problemas com gateways

Se a seguinte mensagem de erro for exibida durante a configuração, determine se


o gateway padrão está localizado na mesma rede lógica que o adaptador de rede
do computador:

• Seu gateway padrão não pertence a uma das interfaces configuradas:


Compare a parte de identificação de rede do endereço IP do gateway
padrão com as identificações de rede dos adaptadores de rede do
computador. Especificamente, verifique se a operação AND bit a bit do
endereço IP e a máscara de subrede é igual a operação AND bit a bit do
gateway padrão e máscara de subrede.

Por exemplo, um computador que possui um único adaptador de rede configurado


com um endereço IP de 190.20.30.140 e uma máscara de subrede de 255.255.0.0
deve usar um gateway padrão na forma 190.20.x.y. A identificação de rede para
essa interface IP é 190.20.0.0.

Com base nas informações sobre as ferramentas capazes de resolver problemas


de uma rede TCP/IP, julga-se a veracidade de cada uma das alternativas.

A alternativa (a) está incorreta, pois a porta para protocolo HTTP é 80. O comando
para ver status de uma porta é o netstat e não o tracert. O comando netstat -a
server para mostrar o status de toda a atividade das portas TCP e UDP no
computador local.

A alternativa (b) está incorreta, pois o parâmetro /all para IPConfig gera um
relatório de configuração detalhado para todas as interfaces, incluindo quaisquer
adaptadores de acesso remoto. No entanto, o parâmetro /renew para IPConfig
renova a configuração do DHCP para todos os adaptadores, se não for
especificado um adaptador, ou para um adaptador específico se o parâmetro
Adaptador estiver incluído. Este parâmetro está disponível apenas em
computadores com adaptadores configurados para obter automaticamente um
endereço IP.

A alternativa (c) está incorreta, pois a porta para protocolo Telnet é 23. Para o
diagnóstico em redes TCP/IP, aplica-se o Ping no endereço de auto-retorno (IP
127.0.0.1) para verificar se o TCP/IP está instalado e configurado corretamente no
computador local. Se este teste de auto-retorno falhar, a pilha do IP não estará
respondendo. Este problema pode ocorrer se uma ou mais das seguintes
condições forem verdadeiras: os drivers TCP estão corrompidos, o adaptador de
rede não está funcionando ou outro serviço está interferindo com o IP.

A alternativa (d) está incorreta, pois é o comando route que exibe a tabela de
roteamento IP e adiciona ou exclui rotas de IP.

A alternativa (e) está correta, pois, como comentado na alternativa (c), um PING
no endereço de auto-retorno (127.0.0.1) pode ser usado para verificar se o TCP/IP
está funcionando corretamente.

48- O servidor de e-mail utiliza protocolos especiais para entregar e enviar mensagens aos usuários de
correios eletrônicos. Com relação a esses protocolos é correto afirmar que o protocolo utilizado pelo
servidor para entregar uma mensagem recebida para seu destinatário é o:

a) SMTP.
b) POP3.
c) SNMP.
d) WWW.
e) FTP.

Comentários:

Gabarito B

SMTP

O SMTP (em inglês, Simple Mail Transfer Protocol) é o padrão para envio de email
através da internet. Este protocolo é relativamente simples, pois está baseado em
texto simples, em que um ou vários destinatários de uma mensagem são
especificados e para em seguida a mensagem ser transferida. É bastante fácil
testar um servidor SMTP usando o programa telnet. Este protocolo funciona sobre
a porta 25 numa rede TCP. A resolução DNS de um servidor SMTP de um dado
domínio é possibilitada pela entrada MX (em inglês, Mail eXchange).

A concepção inicial do SMTP, baseado apenas em texto ASCII, não é ideal para a
transferência de arquivos. Alguns padrões foram desenvolvidos para permitir a
transferência de arquivos em formato binário através de texto simples, como é o
caso do MIME. Atualmente usado em quase todos os servidores.

O SMTP é um protocolo apenas de envio, isto é, não permite que um usuário


descarregue as mensagens de um servidor. Para isso é necessário um cliente de
email com suporte ao POP3 ou IMAP.

Uma das limitações da especificação inicial do SMTP é não existir um método de


autenticação dos emissores. Para a realização desta funcionalidade foi adicionada
a extensão SMTP-AUTH.

Apesar disso, o spamming, envio em massa de mensagens não-solicitadas,


continuava a ser um problema. Alterar o SMTP extensivamente ou substituí-lo
completamente não se torna prático, devido à forte utilização do SMTP e aos
efeitos que poderiam advir. O Internet Mail 2000 é uma proposta nesse sentido.
É por esta razão que existem várias propostas para protocolos alternativos que
assistiriam a operação SMTP. Alguns grupos de pesquisa estão estudando várias
propostas para se suportar a autenticação do emissor de uma forma flexível, leve
e escalável. A proposta aparentemente mais sólida parece ser o protocolo Sender
Policy Framework.

POP3

O POP3 (em inglês, Post Office Protocol) é um protocolo utilizado no acesso


remoto a uma caixa de correio eletrônico. O POP3 está definido no RFC 1225 e
permite que todas as mensagens contidas numa caixa de correio eletrônico
possam ser transferidas seqüencialmente para um computador local. Desta forma,
o usuário pode ler as mensagens recebidas, apagá-las, responder-las, armazena-
las, etc.

O funcionamento do protocolo POP3 é dito off-line, uma vez que é o processo


suportado se baseia nas seguintes etapas:

• É estabelecida uma ligação TCP entre a aplicação cliente de e-mail (User


Agent - UA) e o servidor onde está a caixa de correio (Messsage Transfer
Agent - MTA)
• O usuário autentica-se;
• Todas as mensagens existentes na caixa de correio são transferidas
seqüencialmente para o computador local;
• As mensagens são apagadas da caixa de correio (opcionalmente, o
protocolo pode ser configurado para que as mensagens não sejam
apagadas da caixa de correio); Se esta opção não for utilizada, deve utilizar
sempre o mesmo computador para ler o correio eletrônico, para poder
manter um arquivo das suas mensagens.
• A ligação com o servidor é terminada;
• O usuário pode agora ler e processar as suas mensagens (off-line).

A característica off-line do protocolo POP3 é, particularmente, útil para usuários


que se ligam à Internet através de redes públicas comutadas, em que o custo da
ligação é proporcional ao tempo de ligação (por exemplo, a rede telefônica
convencional ou a rede RDIS). Com o POP3, a ligação apenas precisa estar ativa
durante a transferência das mensagens, e a leitura e o processamento das
mensagens podem ser realizadas em um outro momento, com a ligação inativa.

SNMP

O protocolo SNMP (em inglês, Simple Network Management Protocol) é um


protocolo de gerência típica de redes TCP/IP, implementada na camada de
aplicação, ela facilita o intercâmbio de informação entre os dispositivos de rede. O
SNMP possibilita aos administradores de rede gerenciar o desempenho da rede,
encontrar e resolver problemas. Além de planejar o crescimento da mesma.

O software de gerência de redes segue o modelo cliente-servidor convencional:


uma aplicação Servidora na máquina do gerente e uma aplicação cliente no
dispositivo de rede a ser analisado ou monitorado. Para evitar confusão com
outras aplicações de rede, os sistemas de gerência de redes evitam os termos
cliente e servidor. Em vez disso, usam agente e gerente, respectivamente.

Agente é um processo executado na máquina gerenciada, responsável pela


manutenção das informações de gerência da máquina.

Gerente é um programa executado em uma estação servidora que permite a


obtenção e o envio de informações de gerenciamento junto aos dispositivos
gerenciados mediante a comunicação com um ou mais agentes.

O programa gerente da rede é a entidade responsável pelo monitoramento e


controle dos sistemas de hardware e software que compõem a rede, e o seu
trabalho consiste em detectar e corrigir problemas causados pela ineficiência ou
impossibilidade na comunicação e eliminar as condições de repetição do
problema.

A gerência de uma rede pode não ser simples, dada sua heterogeneidade em
termos de hardware e software, e de componentes da rede, por vezes
incompatíveis. As falhas intermitentes, se não forem detectadas, podem afetar o
desempenho da rede. Um software de gerência de redes permite ao gestor
monitorar e controlar os seus componentes.

Uma rede gerenciada pelo protocolo SNMP é formada por três componentes
chaves:

• Dispositivos Gerenciados;
• Agentes;
• Sistemas de Gerenciamento de Redes – NMS (em inglês, Network-
Management Systems).

Um Dispositivo Gerenciado é um nó de rede que possui um agente SNMP


instalado e se encontra em uma rede gerenciada. Estes dispositivos coletam e
armazenam informações de gerenciamento e mantém estas informações
disponíveis para sistemas NMS através do protocolo SNMP. Dispositivos
gerenciados, também às vezes denominados de dispositivos de rede, podem ser
roteadores, servidores de acesso, impressoras, computadores, servidores de rede,
switches, dispositivos de armazenamento, dentre outros.

Um Agente é um módulo de software de gerenciamento de rede que fica


armazenado em um Dispositivo Gerenciado. Um agente tem o conhecimento das
informações de gerenciamento locais e traduzem estas informações para um
formato compatível com o protocolo SNMP.

Um sistema NMS é responsável pelas aplicações de monitoração e controle dos


Dispositivos Gerenciados. Normalmente é instalado em um ou mais servidores de
rede dedicada a estas operações de gerenciamento, que recebe informações
(pacotes SNMP) de todos os dispositivos gerenciados daquela rede.

O framework SNMP consiste em: Agentes Mestres (em inglês, Master Agents),
Sub-agentes (em inglês, Subagents) e Estações de Gerenciamento (Management
Stations).

O Agente Mestre em uma rede gerenciada é, na verdade, um software sendo


executado em um dispositivo com suporte a SNMP, por exemplo, um roteador,
que interage com uma estação de gerenciamento. É o equivalente a um servidor,
na comunicação cliente/servidor, ou a um daemon, sob o ponto de vista de
sistemas operacionais. Os subagentes são os responsáveis por passarem
informações específicas para o Masters Agent.

Os subagentes ou subagents são pequenos programas em execução no


dispositivo com suporte a SNMP, responsáveis pelo monitoramento de recursos
específicos naquele dispositivo, como por exemplo, o status de um link ethernet
em um roteador, ou a quantidade de espaço livre em um disco de um servidor.
Algumas características dos softwares subagentes são:

• Coletar informações de objetos gerenciados


• Configurar parâmetros destes objetos gerenciados
• Responder a solicitações do software de gerência da rede
• Gerar alarmes ou traps em determinadas situações

O Gerente da Rede ou Estação de Gerenciamento (em inglês, Management


Station) é o componente final da arquitetura de uma solução SNMP. Funciona
como um cliente em uma comunicação cliente/servidor. Realiza requisições de
informações aos dispositivos gerenciados, podendo ser temporárias ou através de
comandos a qualquer tempo. E ainda é o responsável por receber alarmes
gerados pelos agentes e gerar saídas para estes alarmes, tais como, alterar (SET)
o valor de um determinado parâmetro gerenciado no equipamento, enviar
mensagem para o celular do administrador da rede, dentre outras.

Redefinindo, tem-se que o SNMP é um protocolo padrão usado para gerência de


redes, determinando os formatos dos pedidos que o Gerente envia para o Agente
e os formatos das respostas que o agente retorna, assim como o significado exato
de cada pedido e resposta. Uma mensagem SNMP é codificada com um padrão
designado de ASN.1 (em inglês, Abstract Syntax Notation.1).

O ASN.1 serve para permitir a transferência de grandes inteiros, sem desperdiçar


espaço em cada transferência, usa uma combinação de tamanho e valor para
cada objeto a ser transferido.

O SNMP não define um grande número de comandos, em lugar disso define duas
operações básicas:

• Fetch: para obter um valor de um dispositivo


• Store: para colocar um valor num dispositivo

O comando que especifica uma operação de fetch ou store deve especificar o


nome do objeto, que é único.

Pode-se definir objetos. Existem quatro comandos específicos para unidades de


dados do protocolo (PDU):

• GET: usado para retirar um pedaço de informação de gerenciamento.


• GETNEXT: usado interativamente para retirar seqüências de informação de
gerenciamento.
• SET: usado para fazer uma mudança no subsistema gerido.
• TRAP: usado para reportar uma notificação ou para outros eventos
assíncronos sobre o subsistema gerido.

Todos os objetos acessados pelo SNMP devem ter nomes únicos definidos e
atribuídos. Além disso, o Gerente e o Agente devem acordar os nomes e
significados das operações fetch e store. O conjunto de todos os objetos SNMP é
coletivamente conhecido como MIB (em inglês, Management Information Base). O
standard SNMP não define o MIB, mas apenas o formato e o tipo de codificação
das mensagens. A especificação das variáveis MIB, assim como os significados
das operações fetch e store em cada variável são especificados por um padrão
próprio.

A definição dos objetos do MIB é feita com o esquema de nomes do ASN.1, o qual
atribui a cada objeto um prefixo longo que garante a unicidade do nome, a cada
nome é atribuído um número inteiro. Também, o SNMP não especifica um
conjunto de variáveis, e que a definição de objetos é independente do protocolo de
comunicação, permite criar novos conjuntos de variáveis MIB, definidos como
standards, para novos dispositivos ou novos protocolos. Por isso, foram criados
muitos conjuntos de variáveis MIB que correspondem a protocolos como UDP, IP,
ARP, assim como variáveis MIB para hardware de rede como Ethernet ou FDDI,
ou para dispositivos tais como bridges, switches ou impressoras.

Apresenta-se a seguir as diferenças fundamentais entre as três versões do


protocolo SNMP.

O SNMPv1 consiste de três documentos:

• RFC 1155 define o Structure of Management Information (SMI). Ou seja, os


mecanismos usados para descrever e nomear os objetos que serão
gerenciados.
• RFC 1212 define um mecanismo de descrição mais conciso, mas é
inteiramente consistente ao SMI.
• RFC 1157 define o Simple Network Management Protocol (SNMP).

Os dois primeiros documentos definem a linguagem de dados. O terceiro


documento define as operações do protocolo SNMPv1 utilizando protocol data
units (PDUs). Os operadores definidos no SNMPv1 são: get, get-next, get-
response, set-request e trap.

Muitos dos conceitos de segurança e administração encontrados no SNMPv3 são


encontrados no modelo do SNMPv1.

O SNMPv1 introduz o conceito serviço de autenticação suportando um ou mais


métodos. No SNMPv3 o conceito de autenticação foi expandido para incluir
serviços como privacidade.

O modelo SNMPv1 possui o controle de acesso baseado num conceito chamado


SNMP MIB view. O SNMPv3 especifica um conceito fundamentalmente similar
chamado view-based access control.

Apesar do SNMPv1 ter antecipado um serviço de autenticação suportando vários


métodos, não foi criado nenhum método além de uma simples autenticação
baseada em community strings. Essa foi a grande deficiência do SNMPv1. Como
o conceito de "segurança" pode ser interpretado de modo bastante diferente por
cada usuário, o serviço de autenticação do SNMPv1 ficou para ser definido em um
outro bloco o qual nunca foi posto em prática. O modelo SNMPv3 já possui uma
arquitetura para esse bloco.

O SNMPv2 está descrito nas RFCs: 1902, 1903,1904, 1905, 1906, and 1907. A
relação entre o SNMPv1 e o SNMPv2 está descrita no RFC 1908.

SNMPv2 possui algumas vantagens sobre o SNMPv1. São elas:

• Mais um tipo de dados: 64 bit counter;


• Melhora na eficiência e na performance: operador get-bulk;
• Notificação de evento confirmado: operador inform;
• Maior detalhamento dos erros;
• Modos facilitados de criação e eliminação de linhas na MIB ;
• Melhorias na definição da linguagem de dados.

Apesar do modelo SNMPv2 está descrito no RFCs 1902-1907, alguns objetivos


iniciais do projeto não foram implementados. Os objetivos não alcançados incluem
o fornecimento de segurança tais como:
• autenticação: identificação da origem, integridade da mensagem;
• privacidade: confidencialidade;
• autorização e controle de acesso.

Os RFCs do SNMPv3 foram produzidos pelo SNMPv3 Working Group da IETF


(em inglês, Internet Engineering Task Force). Esse grupo de trabalho se baseou
bastante nos documentos Draft Standard do SNMPv2. Como resultado o SNMPv3
é o SNMPv2 com blocos de segurança e administração.

O modelo SNMPv3 descrito nos RFCs 2570, 2571, 2572, 2573, 2574, and 2575,
relaciona as deficiências no SNMPv2 em relação a segurança e administração. A
co-existência do SNMPv1, SNMPv2 e SNMPv3 está descrita no RFC 2576.

Novas ferramentas foram adicionadas no SNMPv3. São elas:

• Segurança
o autenticação e privacidade;
o autorização e controle de acesso.
• Modelo administrativo
o nomeação das entidades;
o gerência das chaves;
o notificação dos destinos;
o relação dos proxys;
o configuração remota através de operadores SNMP.

WWW

A WWW (em inglês, World Wide Web) ou rede de alcance mundial é uma rede de
computadores na Internet que fornece informação em forma de hipermídia, como
vídeos, sons, hipertextos e figuras. Para ver a informação, pode-se usar um
software chamado navegador (browser) para descarregar informações (chamadas
"documentos" ou "páginas") de servidores de internet (ou "sites") e mostrá-los na
tela do usuário. O usuário pode se orientar pelos links na página para outros
documentos ou mesmo enviar informações ao servidor para interagir com ele. O
ato se orientar por links é comumente chamado de "navegar" ou "surfar" na Web.
A Web (substantivo próprio) é diferente de web (substantivo comum), já que a
Web engloba toda a Internet. Outras webs existem em redes privadas (restritas)
que podem ou não fazer parte da Internet.

A Web foi criada em um projeto no CERN em 1990 por Tim Berners-Lee que
construiu o sistema protótipo da World Wide Web. A intenção original do WWW foi
tornar mais fácil o compartilhamento de documentos de pesquisas entre os
colegas.

A funcionalidade da Web é baseada em três padrões:

• URL: especifica como cada página de informação recebe um "endereço"


único em que pode ser encontrada;
• HTTP: especifica como o navegador e servidor enviam informação um ao
outro (protocolo);
• HTML: um método de codificar a informação de modo que possa ser
exibida em uma grande quantidade de dispositivos. Berners-Lee hoje
encabeça o W3C (em inglês, World Wide Web Consortium), desenvolvendo
e mantendo estes padrões e outros de modo a permitir que os
computadores na Web armazenem e comuniquem todos os tipos de
informação efetivamente.

FTP

FTP (em inglês, File Transfer Protocol), é uma forma bastante rápida e versátil de
transferir arquivos, sendo uma das mais usadas na internet. Pode referir-se tanto
ao protocolo quanto ao programa que implementa este protocolo, neste caso,
tradicionalmente aparece em letras minúsculas, por influência do programa de
transferência de arquivos do Unix.

A transferência de dados em redes de computadores envolve normalmente


transferência de arquivos e acesso a sistemas de arquivos remotos. O FTP (RFC
959) é baseado no TCP, mas é anterior à pilha de protocolos TCP/IP, sendo
posteriormente adaptado para o TCP/IP. É o standard da pilha TCP/IP para
transferir arquivos, é um protocolo genérico independente de hardware e do
sistema operacional e transfere arquivos por livre arbítrio, tendo em conta
restrições de acesso e propriedades dos mesmos.

Com base nas informações sobre os protocolos SMTP, POP3, SNMP, WWW e
FTP, julga-se a veracidade de cada uma das alternativas.

A alternativa (a), (c), (d) e (e) estão incorretas, pois o enunciado da questão se
refere ao protocolo conhecido como POP3.

A alternativa (b) está correta, pois o POP3 é o protocolo utilizado pelo servidor de
email para entregar uma mensagem recebida para seu destinatário.
49- Analise as seguintes afirmações relacionadas a termos e definições relacionadas à Segurança da
Informação:

I. O Spoofing consiste em conceder acesso a uma pessoa, computador, processo ou dispositivo a


determinadas informações, serviços ou funcionalidades. A autorização depende da identidade da
pessoa, computador, processo ou dispositivo que solicitou o acesso, que é verificada pelo Spoofing.
II. Diretiva IPsec, também denominada síntese da mensagem, é o resultado de tamanho fixo obtido pela
aplicação de uma função matemática unilateral ou algoritmo de IPsec a uma quantidade arbitrária de
dados de entrada. Se houver uma alteração nos dados de entrada, o IPsec será alterado. Funções
Ipsec são escolhidas de forma que haja uma probabilidade extremamente baixa de duas entradas
produzirem o mesmo valor IPsec de saída. As Diretivas IPsec podem ser usadas em muitas
operações, inclusive autenticação e assinatura digital.
III. Não-repúdio é uma técnica usada para garantir que alguém que esteja executando uma ação em um
computador não possa negar falsamente que realizou tal ação. O não-repúdio oferece uma prova
suficientemente inegável de que o usuário ou dispositivo efetuou uma determinada ação, como
transferência de dinheiro, autorização de compra ou envio de uma mensagem.
IV. Autenticação é o processo de validação das credenciais de uma pessoa, processo computacional ou
dispositivo. A autenticação requer que a pessoa, o processo ou o dispositivo que fez a solicitação
forneça uma representação de credenciais que comprove sua identidade. Formas comuns de
credenciais são chaves privadas para certificados digitais, uma senha secreta para logon de usuários
ou computadores no domínio ou um objeto biológico, como as impressões digitais ou o exame da
retina de uma pessoa.

Indique a opção que contenha todas as afirmações verdadeiras.

a) III e IV
b) II e III
c) I e II
d) I e III
e) II e IV

Comentários:

Gabarito A

O gerenciamento de riscos de segurança identifica os ativos, suas respectivas


ameaças, as vulnerabilidades que essas ameaças podem explorar para afetar os
ativos, bem como os controles estabelecidos para ajudar a proteger os ativos.

Os controles, contramedidas ou salvaguardas, são meios organizacionais,


operacionais ou tecnológicos de gerenciamento de riscos. Os Proprietários da
atenuação, como o suporte da Equipe de gerenciamento de riscos de segurança,
identificam todos os controles potenciais, calculam o custo de implementação de
cada controle, determinam seus custos adicionais — como a inconveniência ao
usuário ou o custo de manutenção contínua do controle — e avaliam o grau de
redução de risco possível de cada controle.

Os controles organizacionais são procedimentos e processos que definem como


os funcionários da organização devem executar suas tarefas.
Os controles preventivos nesta categoria incluem:

Funções e responsabilidades precisas: Precisam ser definidas e documentadas


de forma precisa para que tanto a administração como os funcionários entendam
claramente de quem é a responsabilidade por garantir a implementação de um
nível de segurança adequado para os ativos de TI mais importantes.

Separação de tarefas e restrições de privilégios: Quando devidamente


implementados, esses controles garantem que os funcionários possuem acesso
aos sistemas de TI apenas no grau necessário para a realização de suas tarefas e
nada além disso.

Planos e procedimentos de segurança documentados: São desenvolvidos


para explicar como os controles foram implementados e como deve ser sua
manutenção.

Treinamento de segurança e campanhas constantes de conscientização:


Necessário para todos os membros da organização, permitindo que os usuários e
os membros da equipe de TI entendam suas responsabilidades e saibam como
utilizar modo adequado os recursos computacionais, protegendo assim os dados
da organização.

Sistemas e processos para fornecimento e cancelamento de usuários: Esses


controles são necessários para que os novos membros da organização possam
iniciar suas atividades rapidamente, enquanto que o pessoal que está deixando a
organização perde acesso imediatamente na sua saída. Os processos para o
fornecimento devem incluir também transferências de funcionários entre grupos da
empresa com privilégios e níveis de acesso diferentes. Por exemplo, considere
funcionários de um órgão governamental mudando de funções e classificações de
segurança de Confidencial para Super confidencial ou vice-versa.

Processos preestabelecidos para conceder acesso a contratados,


fornecedores, parceiros e clientes: Geralmente uma variação do uso do
fornecimento de acesso a usuários mencionado acima, mas com divergências em
alguns casos. O compartilhamento de diferentes conjuntos de dados com grupos
de usuários diversificados, sejam esses internos ou externos, pode ser um grande
desafio. Essas escolhas podem ser afetadas por requisitos legais e regulatórios
como, por exemplo, quando envolvem dados de saúde ou financeiros.

Os controles de detecção nesta categoria incluem:

• Aplicação contínua de programas de gerenciamento de riscos para avaliar e


controlar os riscos aos principais ativos comerciais.
• Análises contínuas dos controles para verificar sua eficácia.
• Auditorias periódicas nos sistemas para garantir que não foram
comprometidos ou configurados incorretamente.
• Investigação sobre o histórico pessoal e profissional dos futuros
funcionários. Recomenda-se que sejam implementadas investigações
adicionais sobre o histórico pessoal e profissional dos funcionários quando
estiverem sendo considerados para uma promoção a posições com nível de
acesso mais alto aos ativos de TI da organização.
• Estabelecimento de rodízio de tarefas, um modo bastante eficiente de
descobrir atividades mal intencionadas por parte de membros da equipe de
TI ou usuários com acesso a informações confidenciais.

Os controles de gerenciamento nesta categoria incluem:

• Planejamento de resposta a incidentes, oferecendo à organização a


capacidade de reagir rapidamente e recuperar-se de violações de
segurança, minimizando o impacto e impedindo o alastramento a outros
sistemas.
• Planejamento de continuidade dos negócios, permitindo que a organização
se recupere de eventos catastróficos que afetam uma grande parte da infra-
estrutura de TI.

Os controles operacionais definem como os funcionários da organização devem


tratar dados, software e hardware. Também incluem proteções ambientais e
físicas, conforme descrito a seguir.

Os controles preventivos nesta categoria incluem:

• Proteção das instalações computacionais através de meios físicos, como


porteiros, crachás e trancas eletrônicas, trancas biométricas e grades.
• Proteção física aos sistemas de usuários finais, incluindo dispositivos como
trancas e alarmes para computadores portáteis e criptografia de arquivos
armazenados em dispositivos portáteis.
• Alimentação de backup de emergência, o que pode proteger sistemas
elétricos sensíveis contra danos durante quedas de energia e blackouts.
Também ajudam a garantir que os aplicativos e os sistemas operacionais
sejam desligados de modo adequado a fim de preservar dados e
transações.
• Sistemas de proteção contra incêndio, como sistemas automáticos de
detecção de incêndio e extintores de incêndio, ferramentas essenciais para
proteger os ativos comerciais.
• Sistemas de controle de temperatura e umidade que prolongam o tempo de
vida útil de equipamentos elétricos sensíveis e ajudam a proteger os dados
neles armazenados.
• Controle de acesso à mídia e procedimentos de descarte para garantir que
apenas pessoal autorizado tenha acesso a informações confidenciais e que
as mídias usadas para armazenar tais dados serão inutilizadas através de
desmagnetização ou outros métodos antes do descarte.
• Sistemas de backup e possibilidade de armazenamento de backup externo
para facilitar a restauração de dados perdidos ou corrompidos. No caso de
um incidente catastrófico, a mídia de backup armazenada externamente
permite armazenar dados comerciais confidenciais em sistemas de
substituição.

Os controles de detecção e de recuperação nesta categoria incluem:

• Segurança física, defendendo a organização contra invasores que tentam


acessar suas instalações. Como exemplo, podemos citar sensores,
alarmes, câmeras e detectores de movimento.
• Segurança ambiental, protegendo a organização contra ameaças
ambientais como inundações e incêndios. Como exemplo, podemos citar
detectores de fumaça e fogo, alarmes, sensores e detectores de inundação.

Os controles tecnológicos variam muito em termos de complexidade. Incluem


planejamento arquitetônico, engenharia, hardware, software e firmware. São todos
os componentes tecnológicos usados para construir os sistemas de informação da
organização.

Os controles preventivos nesta categoria incluem:

Autenticação: O processo de validação de credenciais de uma pessoa, um


processo computacional ou um dispositivo. A autenticação requer que a pessoa, o
processo ou o dispositivo que fez a solicitação forneça uma credencial
comprovando sua identidade. As formas mais comuns de credenciais são
assinaturas digitais, cartões inteligentes, dados biométricos e uma combinação de
nomes de usuário e senhas.

Autorização: O processo de conceder acesso a uma pessoa, processo


computacional ou dispositivo a determinadas informações, serviços ou
funcionalidades. A autorização é derivada da identidade da pessoa, processo
computacional ou dispositivo que solicitou o acesso, sendo verificada através de
autenticação.

Não-repúdio: É uma técnica usada para garantir que alguém que esteja
executando uma ação em um computador não possa negar falsamente que
realizou tal ação. O não-repúdio oferece uma prova inegável de que o usuário
efetuou uma determinada ação, como transferência de dinheiro, autorização de
compra ou envio de uma mensagem.

Controle de acesso: O mecanismo para limitar o acesso a determinadas


informações com base na identidade do usuário e na participação em vários
grupos predefinidos. O controle de acesso pode ser obrigatório, condicional ou
baseado na função.
Comunicações protegidas: Esses controles usam criptografia para proteger a
integridade e a confidencialidade das informações transmitidas através de redes.

Os controles de detecção e de recuperação nesta categoria incluem:

Sistemas de auditoria: Permitem monitorar e acompanhar o comportamento


inesperado do sistema. É uma ferramenta essencial para a detecção, o
entendimento e a recuperação de violações de segurança.

Programas antivírus: Planejados para detectar e responder a softwares mal


intencionados, como vírus e worms. As respostas podem incluir o bloqueamento
do acesso do usuário aos sistemas ou arquivos infectados ou informar ao usuário
que sobre a detecção de um programa infectado.

Ferramentas de verificação de integridade do sistema: Permitem que a equipe


de TI determine se foram feitas alterações não autorizadas ao sistema. Por
exemplo, algumas ferramentas de verificação de integridade do sistema calculam
a soma de todos os arquivos presentes nos volumes de armazenamento do
sistema e guardam as informações no banco de dados de um outro computador.
Essa ferramenta permite realizar comparações confiáveis e automatizadas entre o
estado atual do sistema e sua correta configuração anterior.

Os controles de gerenciamento nesta categoria incluem:

• As ferramentas de administração de segurança que acompanham vários


sistemas operacionais e aplicativos comerciais, assim como produtos de
hardware e software voltados para a segurança. Essas ferramentas são
necessárias para realizar eficientemente a manutenção, o suporte e a
solução de problemas dos recursos de segurança desses produtos.
• Criptografia, a base de vários outros controles de segurança. A criação, o
armazenamento e a distribuição segura de chaves de criptografia
possibilitam tecnologias como redes virtuais privadas (VPNs), autenticação
de usuário segura e criptografia de dados em vários tipos de mídia de
armazenamento.
• Identificação, possibilitando identificar usuários e processos exclusivos.
Com essa capacidade, os sistemas podem incluir recursos como
responsabilidade e controle de acesso condicional, baseado na função e
obrigatório.
• Proteções inerentes ao sistema, que são os recursos desenvolvidos dentro
do sistema para proteger as informações nele processadas ou
armazenadas. Os recursos de proteção do sistema podem ser
demonstrados através de reutilização segura de objetos, suporte a memória
no-execute (NX) e separação de processo.

Com base nas informações relacionadas aos termos e definições relativas a


Segurança da Informação, julga-se a veracidade de cada um dos itens.

O item I está incorreto, pois se refere ao conceito de autorização em que consiste


em conceder acesso a uma pessoa, processo computacional ou dispositivo a
determinadas informações, serviços ou funcionalidades. A autorização é derivada
da identidade da pessoa, processo computacional ou dispositivo que solicitou o
acesso, sendo verificada através de autenticação.

Spoofing significa o ato de um invasor fazer-se passar por um endereço IP


legítimo em uma tentativa de interromper a comunicação ou interceptar dados.

O item II está incorreto, pois se refere ao termo de segurança conhecido como


Hash. Este é o resultado de tamanho fixo obtido pela aplicação de uma função
matemática unilateral (também denominada algoritmo de hash) a uma quantidade
arbitrária de dados de entrada. Se houver uma alteração nos dados de entrada, o
hash será alterado. Funções hash são escolhidas de forma que haja uma
probabilidade extremamente baixa de duas entradas produzirem o mesmo valor
hash de saída. O hash pode ser usado em muitas operações, inclusive
autenticação e assinatura digital. Também denominada síntese da mensagem.

Diretiva IPsec: É um grupo de regras de segurança para o processamento do


tráfego de rede na camada IP. Uma regra de segurança contém filtros de pacotes
associados a uma ação permitir, bloquear ou negociar. Quando a negociação é
necessária, a diretiva IPsec contém métodos de autenticação e de segurança para
negociar com o computador de mesmo nível.

O item III está correto, pois o não-repúdio é uma técnica usada para garantir que
alguém que esteja executando uma ação em um computador não possa negar
falsamente que realizou tal ação. O não-repúdio oferece uma prova
suficientemente inegável de que o usuário ou dispositivo efetuou uma determinada
ação, como transferência de dinheiro, autorização de compra ou envio de uma
mensagem.

O item IV está correto, pois a autenticação é o processo de validação das


credenciais de uma pessoa, processo computacional ou dispositivo. A
autenticação requer que a pessoa, o processo ou o dispositivo que fez a
solicitação forneça uma representação de credenciais que comprove sua
identidade. Formas comuns de credenciais são chaves privadas para certificados
digitais, uma senha secreta para logon de usuários ou computadores no domínio
ou um objeto biológico, como as impressões digitais ou o exame da retina de uma
pessoa.

50- Analise as seguintes afirmações relacionadas a conceitos básicos de criptografia e segurança da


informação:

I. Para encriptar um texto simples de 131 bytes com um algoritmo que usa blocos de 16 bytes, ao chegar
no nono bloco o algoritmo irá complementar a informação com mais 13 bytes extras para só então
encriptá-lo. No momento de decriptá-lo, esses 13 bytes extras devem ser identificados e ignorados.
II. Com o algoritmo RSA os dados encriptados pela chave pública podem ser decriptados apenas pela
chave privada equivalente.
III. Privacidade é o conceito que indica que ninguém pode invadir seus arquivos e ler os dados sigilosos,
enquanto integridade é um conceito relacionado à imposição legal que orienta e impele as pessoas a
honrar as suas palavras.
IV.Na criptografia de chave simétrica a chave que é utilizada para criptografar os dados é a mesma chave
que é utilizada para decriptá-los. A segurança nestes casos está no uso de dois algoritmos diferentes:
um para criptografar e outro para decriptar. Por exemplo, ao se usar o algoritmo DES (Digital
Encryption Standard) para criptografar deve-se, com a mesma chave, usar o algoritmo AES (Advanced
Encryption Standard) para decriptar.

Indique a opção que contenha todas as afirmações verdadeiras.

a) I e III
b) II e III
c) III e IV
d) I e II
e) II e IV

Comentários:

Gabarito D

Criptografia

A cifragem consiste na aplicação de um algoritmo aos dados para os tornarem


ilegíveis. Para recuperar dos dados originais será necessário conhecer o algoritmo
de decifragem.

As aplicações básicas da criptografia são a confidencialidade, garantir a leitura


dos dados por apenas quem autorizado, e a autenticação/integridade, (garantir a
correta origem e a não alteração dos dados entre processo de transferência entre
a origem e o destino). Existem ainda outras aplicações como, por exemplo, a
assinatura digital.

Na prática, juntamente com os algoritmos utilizam-se chaves, mesmo que os


algoritmos sejam conhecidos é necessária a chave correta. Logo, a segurança não
está relacionada ao conhecimento da implementação dos algoritmos e sim ao
conhecimento das chaves de criptografia.

Criptografia Simétrica

A criptografia simétrica, também conhecida por criptografia tradicional, utiliza uma


única chave que serve tanto para cifrar como para decifrar. A criptografia de chave
pública utiliza uma chave para cifrar e outra chave para decifrar.

Não existem mecanismos de cifragem/decifragem 100% eficazes, numa


abordagem puramente teórica é imediato que qualquer chave pode ser quebrada
pela força bruta. Suponha-se que dispõe de um exemplar de uma mesma
mensagem original e cifrada, e o algoritmo é conhecido, basta tentar com todas as
chaves possíveis até acertar.

A solução é entrar no domínio prático e atender às capacidades do equipamento


de processamento atual de modo a usar algoritmos e chaves que não possam ser
descobertas em tempo útil. O tempo necessário para quebrar uma chave pela
"força bruta" depende do número de chaves possíveis, número de bits da chave, e
do tempo de execução do algoritmo.

O grande problema desta abordagem é que a capacidade de processamento dos


equipamentos tem crescido dia-a-dia e existe a expectativa do mercado em
processadores baseados em métodos quânticos que comprometeria os atuais
algoritmos de criptografia simétrica.

DES (em inglês, Data Encryption Standard)

O DES é um mecanismo de cifragem tradicional, simétrico, desenvolvido nos anos


setenta, utiliza uma chave de 56 bits que é aplicada a blocos de dados com 64
bits, o objetivo destes algoritmos é que seja muito difícil calcular a chave K,
mesmo conhecendo o algoritmo DES, uma mensagem cifrada C e uma
mensagem original M: C = DES(K,M).

O algoritmo usado é algo complexo:

• A mensagem de 64 bits é dividida em duas partes de 32 bits cada.


• A chave de 56 bits é usada para gerar 16 chaves de 18 bits cada.
• É aplicado sucessivamente 16 vezes um algoritmo, usando as chaves
geradas.

Devido as suas características, pequenas alterações na mensagem original


provocam grandes alterações na mensagem cifrada, isto dificulta as tentativas de
conhecer a chave, mesmo que se possa cifrar aquilo que se pretende.

Note-se que as chaves DES têm 64 bits (8 octetos), mas o algoritmo obriga a que
cada octeto da chave seja impar, logo o bit menos significativo da cada octeto não
é usado porque tem valor fixo. Em termos reais tem-se por isso chaves com
apenas 56 bits. Existem hardwares capazes de implementar este algoritmo de
forma eficiente.

A aplicação de "força bruta" para descobrir a chave, obriga a aplicar o algoritmo


um máximo de 256 vezes, ou seja, cerca de 72 000 000 000 000 000 vezes.

Este número não é, contudo, demasiado tranqüilizante, este algoritmo é


implementado de forma mais eficiente em "hardware", para "quebrar" uma chave
DES usa-se um "chip" apropriado que pode ser montado de forma a trabalhar em
paralelo com outros semelhantes. O custo depende do tempo pretendido para
quebrar a chave, atualmente com alguns milhões de dólares pode-se montar uma
máquina capaz de descobrir chaves DES em aproximadamente 3 horas. O
documento conhecido como Efficient DES key search contém plano detalhado
para a implementação desse tipo de máquina.

Para fortalecer o DES seria necessário aumentar o número de bits da chave,


contudo o algoritmo exige um valor fixo de 56 bits, a aplicação sucessiva de duas
chaves não é solução, pois apenas duplica o número de aplicações do algoritmo
necessárias para quebrar a chave (técnica "meet-in-the middle"), corresponde por
isso a aumentar apenas um bit.

O triplo DES utiliza duas chaves, mas o algoritmo é aplicado três vezes segundo a
seguinte equação C = DES(K1, DES -1(K2,DES(K1,M))), em que DES-1 representa
o algoritmo inverso (decifragem). O triplo DES corresponde à utilização de uma
chave de 90 bits, tem ainda a vantagem de poder ser usado para DES simples,
basta que K1=K2.

Além da "força bruta", existem outras abordagem para descobrir chaves:

 Cripto-análise diferencial: para usar esta técnica é necessário que se


possa cifrar as mensagens pretendidas, em função de alterações nessas
mensagens e resultados na mensagem cifrada, no caso do DES simples é
possível reduzir as chaves a 247.

 Cripto-análise linear: tenta definir a chave por aproximação linear em


função da informação recolhida de pares (M,C), no caso do DES simples
reduz o número de chaves a 243.

Rivest Ciphers (RC2, RC4 e RC5)

Esta é uma sucessão de algoritmos bastante usados na atualidade que possuem


maior flexibilidade e possibilita maior segurança do que o DES simples. Todos são
algoritmos simétricos, a mesma chave é usada para cifrar e para decifrar.

Rivest Cipher 2 (RC2)

O RC2 caracteriza-se por blocos de entrada de 64 bits (8 bytes), contudo podem


ser usadas chaves com vários tamanhos, o tamanho mais comum, por ser
considerado seguro é de 128 bits (16 bytes).

Rivest Cipher 4 (RC4)

O RC4 não é uma técnica de blocos, trabalha em continuo com um fluxo de


entrada de bytes e saída de bytes cifrados ou decifrados conforme o caso. Esta é
uma técnica atualmente muito usada, por um lado porque funciona em fluxo
continuo e por outro lado porque é bastante rápida (cerca de 4 vezes mais rápida
do que o DES simples). Tal como o RC2 permite qualquer comprimento de chave,
usando-se normalmente 16 bytes (128 bits).

Rivest Cipher 5 (RC5)

Esta é novamente uma técnica de cifragem em bloco, o RC5 caracteriza-se por


uma grande flexibilidade e possibilidade de parametrização. Com o RC5 os blocos
de entrada podem ter qualquer dimensão pré-determinada, a chave também pode
ter qualquer comprimento, e também se pode pré-determinar o número de
iterações do algoritmo.

O RC5 é muito flexível, estando sujeito a uma série de parâmetros que devem ser
ajustados às necessidades particulares de cada caso. A mensagem original é
fornecida ao algoritmo sob a forma de dois blocos de w bits, correspondendo ao
alinhamento mais conveniente para o sistema em causa, os valores típicos para w
são: 16, 32 e 64. A mensagem cifrada possui forma idêntica.

Outro parâmetro importante é o número de aplicações do algoritmo (r), pode variar


de 1 a 255. Para aplicar r vezes o algoritmo, vai ser gerado a partir da chave uma
tabela com t = 2. (r+1) blocos de w bits.

A chave é especificada pelos parâmetros b e k, b especifica o número de bytes


(octetos) que constitui a chave e k é a chave propriamente dita.

É habitual usar a notação RC5-w/r/b para especificar uma implementação


particular RC5. Podemos dizer que o RC5-32/16/7 é equivalente ao DES. Os
valores mais usados são RC5-32/12/16 e RC5-32/16/8.

International Data Encryption Algorithm (IDEA)

É mais uma técnica de cifragem simétrica em bloco usada atualmente. Usa blocos
fixos com 64 bits (8 bytes) e usa chaves com 128 bits (16 bytes). Na atualidade é
considerada segura, mas ao contrário dos algoritmos RC usa chaves de
comprimento fixo que certamente vão comprometer o seu futuro.

BLOWFISH

É um algoritmo simétrico conhecido pela sua velocidade, sendo bastante mais


rápido do que o RC2 e o IDEA. Usa blocos fixos com 64 bits (8 bytes), mas as
chaves podem ter qualquer comprimento, 128 bits é frequentemente utilizado.

ARCFOUR

É um algoritmo considerado equivalente ao RC4, tal como o RC4 não usa blocos
de entrada, mas sim um fluxo contínuo de bytes e as chaves podem ter
comprimento variável, novamente 128 bits é o valor mais corrente na atualidade.
Aplicação das técnicas de cifragem em bloco

As técnicas de cifragem em bloco (Ex: DES, RC2, RC5, IDEA,...) podem ser
aplicadas de diversos modos a mensagens de comprimento diferente do tamanho
de bloco.

A técnica mais simples é conhecida por ECB (em inglês, Electronic Code Book),
consiste em dividir a mensagem em blocos de tamanho adequado, cifrar os blocos
em separado e concatenar os blocos cifrados na mesma ordem. O grande
inconveniente desta técnica é que blocos de mensagem original idênticos vão
produzir blocos cifrados idênticos, isso não é desejável.

A técnica CBC (em inglês, Cipher Block Chaining) evita este inconveniente, realiza
a operação xor entre o bloco a cifrar Mi e o bloco anteriormente cifrado Ci,
somente em seguida se aplica o algoritmo de cifragem:

Ci = cifragem (chave, Mi xor C(i-1))

Na decifragem, obtém-se Mi xor C(i-1), como xor-1 = xor, utiliza-se:

Mi = decifragem (chave, Ci) xor C(i-1)

Como para o primeiro bloco não existe mensagem anterior, utiliza-se um bloco
aleatório conhecido por IV (em inglês, Initialization Vector).

Esta técnica é pouco favorável sob o ponto de vista da propagação de erros, uma
vez que um erro na transmissão de um bloco cifrado Ci vai inutilizar tanto o bloco
Mi como o seguinte M(i+1).

Nas técnicas CFB (em inglês, Cipher FeedBack) e OFB (em inglês, Output
FeedBack), a mensagem não é diretamente cifrada, existe um vetor de inicial (IV)
ao qual é aplicado o algoritmo de cifragem, aplica-se então a operação xor entre o
vetor cifrado e a mensagem.
A operação xor entre o vetor cifrado e a mensagem é realizada do seguinte modo:

• Pegam-se nos n bits da esquerda do vetor cifrado e realiza-se a operação


xor com os n seguintes da mensagem.
• Realiza-se o "shift" para a esquerda de n bits do vetor cifrado.
• Injetam-se n bits no vetor original, realizando o "shift" para a esquerda.
• No caso do CFB, utilizam-se os n bits resultantes da operação xor.
• No caso do OFB, utilizam-se os n bits retirados do vetor cifrado.
• Quando esgotam os bits do vetor cifrado aplica-se novamente o algoritmo
de cifragem ao vetor original.

As figuras seguintes ilustram as duas técnicas: CFB (à esquerda) e OFB (à


direita):

Os valores mais comuns para n são 1, 8 ou 64. Devido ao seu funcionamento a


técnica OFB, também conhecida por OFM (em inglês, Output Feedback Mode)
apenas produz um bloco de mensagem errado quando ocorre um erro na
transmissão de um bloco cifrado.

Quando o comprimento da mensagem não é múltiplo do tamanho do bloco é


necessário recorrer a técnicas de enchimento (em inglês, padding), uma técnica
habitual é adicionar um bit 1 seguido dos bits 0 necessários.

Criptografia Assimétrica

A criptografia de chave pública ou criptografia assimétrica é um método de


criptografia que utiliza um par de chaves: uma chave pública e uma chave privada.
A chave pública é distribuída livremente para todos os correspondentes via e-mail
ou através de uma infra-estrutura de chaves, enquanto a chave privada deve ser
conhecida apenas pelo seu dono.

Em um algoritmo de criptografia assimétrica, uma mensagem cifrada com a chave


pública pode somente ser decifrada pela sua chave privada correspondente. Do
mesmo modo, uma mensagem cifrada com a chave privada pode somente ser
decifrada pela sua chave publica correspondente.

Os algoritmos de chave pública podem ser utilizados para autenticidade e


confidencialidade. Para confidencialidade, a chave pública é usada para cifrar
mensagens, com isso apenas o dono da chave privada pode decifra-la. Para
autenticidade, a chave privada é usada para cifrar mensagens, com isso garante-
se que apenas o dono da chave privada poderia ter cifrado a mensagem que foi
decifrada com a chave pública.

A descoberta deste novo paradigma em criptografia usando chave pública


representada pelo popular sistema de criptografia RSA causou uma nova onda de
interesse pela teoria de números e mais importante por processos
computacionais.

O RSA é um sistema de criptografia de chave pública tanto para cifrar quanto para
autenticação de dados, foi inventado em 1977 por Ron Rivest, Adi Shamir e
Leonard Adleman, pesquisadores do MIT. RSA é combinado com a função
hashing SHA1 (em inglês, secure hash algorithm) para cifrar a mensagem. A
principal vantagem da criptografia baseada em chave pública é a sua maior
segurança em relação à criptografia baseada em chave secreta. No sistema
baseado em chave pública as chaves privadas nunca precisam ser transmitidas ou
recebidas a ninguém. Num sistema de chave secreta, ao contrário, sempre existe
uma chance de que um intruso possa descobrir a chave secreta enquanto esta
está sendo transmitida. Outra vantagem do sistema baseado em chave pública é
que eles podem fornecer um método para assinaturas digitais, mas em contra
partida como desvantagens sempre existem citemos uma; a velocidade. O método
de chave pública é muito mais lento na cifragem do que o método de chave
secreta.

A utilização dos conceitos de criptografia assimétrica, em uma arquitetura


conhecida como infra-estrutura de chave pública, permitiu implementar os
mecanismos fundamentais e necessários para garantir a segurança das
informações veiculadas na internet, esses serviços são: Confidencialidade,
Integridade, Autenticação e Não-Repúdio.

Confidencialidade

A confidencialidade ou sigilo é garantido criptografando-se a informação com a


chave pública da pessoa a quem a informação é dirigida. Deste modo, somente
esta pessoa de posse da chave privada correspondente (o destinatário correto) é
que consegue descriptografar a informação.

Por exemplo: Imagine que A (emissor) deseja enviar uma informação (mensagem,
texto, dados, etc) secreta para B (receptor). A deve criptografar a informação
utilizando a chave pública de B. Deste modo quando B recebe a informação, o
mesmo pode descriptografar essa informação com a sua chave privada, e assim
obter acesso à informação original em formato legível.

Integridade e Autenticação
A credibilidade de um documento tradicional (documento papel) está ligada
essencialmente à sua originalidade. Dois aspectos devem ser observados; autoria
e integridade. O conceito de assinatura digital abrange estes dois aspectos,
garante de forma indubitável a autoria do documento e nos dá a certeza de que o
documento eletrônico não foi alterado, nem mesmo em uma vírgula.

Tecnicamente, uma assinatura digital é uma versão reduzida de um documento


eletrônico, criptografada com a chave privada do autor e anexada ao próprio
documento eletrônico.

A versão reduzida, conhecida como código do documento ou código Hash, é o


resultado de uma análise matemática realizada sobre o documento, única para
cada conteúdo original e gerada de forma que qualquer alteração efetuada sobre o
documento produzirá um código completamente diferente.

A assinatura digital é gerada pelo autor ao assinar (criptografar), o código do


documento com a sua chave privada. Deste modo, pode-se verificar a integridade
do documento assinado digitalmente, utilizando-se a chave pública do emissor e
tendo-se a certeza de quem foi que gerou o documento, visto que somente uma
chave privada específica poderia gerar aquela assinatura.

Se o objetivo é ainda garantir que ninguém tenha acesso ao conteúdo do


documento, a não ser o receptor desejado, deve-se aplicar também o
procedimento para obter a confidencialidade descrito anteriormente.

Não-Repúdio

Não-Repúdio, ou não recusa, é a garantia que o emissor de uma mensagem ou a


pessoa que executou determinada transação de forma eletrônica, não poderá
posteriormente negar sua autoria, visto que somente aquela chave privada poderia
ter gerado aquela assinatura digital. Deste modo, a menos de um uso indevido do
certificado digital, fato que não exime de responsabilidade, o autor não pode negar
a autoria da transação.

O mecanismo criado para usufruir os avanços da tecnologia de criptografia, em


particular da criptografia assimétrica, e capaz de transferir para a internet seus
benefícios de segurança e confiabilidade, foi o Certificado Digital.

O Certificado Digital é emitido por uma entidade confiável, denominada Autoridade


Certificadora, que se utilizando processos e critérios bem definidos e públicos,
regula a gestão do certificado através da emissão, revogação e renovação dos
mesmos por aprovação individual. Ao emitir um certificado digital, a autoridade
certificadora assina digitalmente o certificado tornando-o inviolável e ao mesmo
tempo factível de verificação quanto a sua integridade, validade, aplicabilidade e
identificação do portador.

O uso do certificado digital no desenvolvimento de sistemas voltados à rede


mundial de computadores permite incorporar a estes sistemas todas as
características -como: confidencialidade, integridade, autenticidade e não-repúdio,
necessárias e fundamentais a segurança e confiabilidade dos mesmos.

Programas de correio eletrônico e navegadores para internet, como o Microsoft


Internet Explorer, o Netscape Communicator, Firefox e outros, já incorporam
funcionalidades para uso de criptografia e certificado digital, realizando de forma
transparente ao usuário uma série de facilidades como verificação de integridade
e validação de certificados, encriptação e desencriptação de dados, entre outras.

Com base nas informações relacionadas a conceitos básicos de criptografia e


segurança da informação, julga-se a veracidade de cada um dos itens.

O item I está correto, pois as técnicas de cifragem em bloco, tais como: DES,
RC2, RC5, IDEA e outras, podem ser aplicadas de diversos modos a mensagens
de comprimento diferente do tamanho de bloco. Quando o comprimento da
mensagem não é múltiplo do tamanho do bloco é necessário recorrer a técnicas
de enchimento (em inglês, padding), uma técnica habitual é adicionar um bit 1
seguido dos bits 0 necessários. No momento de decriptá-la, os bits ou bytes
extras devem ser identificados e ignorados.

O item II está correto, pois o RSA é um sistema de criptografia de chave pública.


Em um algoritmo de chave pública, uma mensagem cifrada com a chave pública,
é decifrada somente com a chave privada correspondente.

O item III está incorreto, pois mistura os conceitos de confidencialidade e não-


repúdio. A confidencialidade ou sigilo é garantido criptografando-se a informação
com a chave pública da pessoa a quem a informação é dirigida. Deste modo,
somente esta pessoa de posse da chave privada correspondente é que consegue
descriptografar a informação. O não-repúdio é a garantia que o emissor de uma
mensagem ou a pessoa que executou determinada transação de forma eletrônica,
não poderá posteriormente negar sua autoria, visto que somente aquela chave
privada poderia ter gerado aquela assinatura digital.

O item IV está correto, pois a criptografia simétrica, também conhecida por


criptografia tradicional, utiliza uma única chave que serve tanto para cifrar como
para decifrar. A segurança não está relacionada ao conhecimento da
implementação dos algoritmos e sim ao conhecimento das chaves de criptografia.
Quando se usa a criptografia simétrica, escolhe-se uma técnica baseada em
cifragem em bloco, tais como: DES, RC2, RC5, IDEA e outras, ou uma técnica não
baseada em blocos, tais como: RC4 e ARCFOUR. Porém, usa-se o mesmo
algoritmo para criptografar e decriptar as mensagens.

51-Analise as seguintes afirmações relacionadas ao modelo de referência OSI para redes de computadores:

I. O nível de sessão fornece mecanismos que permitem estruturar os circuitos oferecidos pelo nível de
transporte, oferecendo serviços como gerenciamento de token, controle de diálogo e gerenciamento de
atividades.
II. O nível de Enlace de Dados tem como uma de suas funcionalidades detectar e, opcionalmente, corrigir
erros que eventualmente ocorram no nível de aplicação, convertendo assim um canal de comunicação
não confiável em um canal de comunicação confiável.
III. A finalidade do nível de apresentação é a de realizar transformações adequadas nos dados, antes de
seu envio ao nível de sessão. Essas transformações estão relacionadas basicamente com compressão
de texto, criptografia e conversão de padrões de terminais.
IV. Como o nível de rede já garante que o pacote chegue ao seu destino, o nível de transporte tem como
objetivo adicional estabelecer uma comunicação fim-a-fim entre a camada de transporte da origem e a
camada de transporte do destino.

Indique a opção que contenha todas as afirmações verdadeiras.

a) I e II
b) I e III
c) III e IV
d) II e III
e) II e IV

Comentários:

Gabarito B

Com o objetivo de facilitar o processo de padronização e obter interconectividade


entre máquinas de diferentes fabricantes, a Organização Internacional de
Normalização (ISO, em inglês, International Standards Organization), uma das
principais organizações no que se refere à elaboração de padrões de
comunicação de âmbito mundial, aprovou, no início da década de 1980, um
modelo de arquitetura para sistemas abertos, visando permitir a comunicação
entre máquinas heterogêneas e definindo diretivas genéricas para a construção de
redes de computadores independente da tecnologia de implementação.

Esse modelo foi denominado OSI (em inglês, Open Systems Interconnection),
servindo de base para a implementação de qualquer tipo de rede, seja de curta,
média ou longa distância.

Para atingir os objetivos de interoperabilidade, compatibilidade, portabilidade e


escalabilidade exigidos para a implementação de um sistema aberto são
necessárias algumas etapas obrigatórias que podem ser observadas na definição
do modelo OSI:

 Definição do modelo (padrão para arquitetura do sistema aberto) - O padrão


criado para o modelo OSI define exatamente o que cada camada deve
fazer, mas não define como isto será feito, ou seja, define os serviços que
cada camada deve prestar, mas não o protocolo que os realizará;

 Definição dos protocolos de cada camada – Definição dos padrões dos


componentes que fazem parte do modelo (padrões de interoperabilidade e
portabilidade), não só os relacionados à comunicação, mas também alguns
não relacionados como a estrutura de armazenamento de dados e outros;

 Seleção dos perfis funcionais – Etapa realizada pelos órgãos de


padronização de cada país que escolhem os padrões que lhes cabem,
baseados em condições tecnológicas, base instalada, visão futura, etc.

A arquitetura de uma rede é formada por camadas (ou níveis), interfaces e


protocolos. As camadas são processos, implementados por hardware ou software,
que se comunicam com o processo correspondente na outra máquina. Cada
camada oferece um conjunto de serviços ao nível superior, usando funções
realizadas no próprio nível e serviços disponíveis nos níveis inferiores.

Em uma estrutura baseada em camadas, os dados transferidos em uma


comunicação de um nível específico não são enviados diretamente ao processo
do mesmo nível em outra estação, mas descem, através da cada camada
adjacente da máquina transmissora até o nível inicial, em que é transmitido, para
depois subir através de cada nível adjacente da máquina receptora.

Os protocolos são conjuntos de regras e formatos que permitem a comunicação


entre as camadas nas diferentes máquinas. Em cada camada podem ser definidos
um ou mais protocolos. Já as interfaces representam o limite entre cada nível
adjacente em que uma camada compreende as informações vindas de outra
camada.

Figura 1 - Camadas, interfaces e protocolos.

Dentro dessa filosofia, o modelo OSI define uma arquitetura genérica de sete
camadas para o sistema computacional. Com exceção da camada mais alta, cada
camada é usuária dos serviços prestados pela camada imediatamente inferior (n-
1) e presta serviços para a camada imediatamente superior (n+1). Esta troca de
informações entre as camadas adjacentes ocorre por meio da troca de primitivas
de serviços (funções que um nível oferece ao nível imediatamente superior de
forma a prover a comunicação entre os mesmos) nas interfaces entre as camadas.

Apesar da divisão em sete níveis, pode-se considerar genericamente que as três


camadas mais baixas do modelo cuidam dos aspectos relacionados à transmissão
propriamente dita, a quarta camada lida com a comunicação fim-a-fim, enquanto
que as três camadas superiores se preocupam com os aspectos relacionados à
aplicação, já ao nível de usuário.

Uma maneira bastante simples de se enxergar a funcionalidade do modelo OSI é


imaginar que cada camada tem como função adicionar um cabeçalho aos dados
do usuário a serem transmitidos para outro sistema. Deste modo, a função de
cada camada do outro sistema é exatamente a inversa, ou seja, retirar os
cabeçalhos dos dados que chegam e entregá-los ao usuário em sua forma
original. As camadas do Modelo de Referência OSI são as seguintes:

Camada Física

Os protocolos deste nível são os que realizam a codificação/decodificação de


símbolos e caracteres em sinais elétricos lançados no meio físico, que fica logo
abaixo dessa camada.

O nível físico tem a função de transmitir uma seqüência de bits através de um


canal de comunicação. As funções típicas dos protocolos deste nível são fazer
com que um bit "1" transmitido por uma estação seja entendido pelo receptor
como bit "1" e não como bit "0". Assim, este nível trabalha basicamente com as
características mecânicas e elétricas do meio físico, como por exemplo:

 Número de volts que devem representar os níveis lógicos "1" e "0”;


 Velocidade máxima da transmissão;
 Transmissão simplex, half duplex ou full duplex;
 Número de pinos do conector e utilidade de cada um;
 Diâmetro dos condutores.

Camada de Enlace de Dados

O principal objetivo da camada de enlace é receber/transmitir uma seqüência de


bits do/para o nível físico e transformá-los em uma linha que esteja livre de erros
de transmissão, a fim de que essa informação seja utilizada pelo nível de rede. O
nível de enlace está dividido em dois subníveis.

 Subnível superior - controle lógico do enlace (LLC, em inglês, Logical Link


Control) - O protocolo LLC pode ser usado sobre todos os protocolos IEEE
do subnível MAC, como por exemplo, o IEEE 802.3 (Ethernet), IEEE 802.4
(Token Bus) e IEEE 802.5 (Token Ring). Ele oculta as diferenças entre os
protocolos do subnível MAC. Usa-se o LLC quando é necessário controle
de fluxo ou comunicação confiável;
 Subnível inferior – controle de acesso ao meio (MAC, em inglês, Medium
Access Control) possui alguns protocolos importantes, como o IEEE 802.3
(Ethernet), IEEE 802.4 (Token Bus) e IEEE 802.5 (Token Ring). O protocolo
de nível superior pode usar ou não o subnível LLC, dependendo da
confiabilidade esperada para esse nível.

Camada de Rede

A camada de rede tem a função de controlar a operação da rede de um modo


geral. Suas principais funções são o roteamento dos pacotes entre fonte e destino,
mesmo que estes tenham que passar por diversos nós intermediários durante o
percurso, o controle de congestionamento e a contabilização do número de
pacotes ou bytes utilizados pelo usuário, para fins de tarifação.

O principal aspecto que deve ser observado nessa camada é a execução do


roteamento dos pacotes entre fonte e destino, principalmente quando existem
caminhos diferentes para conectar entre si dois nós da rede. Em redes de longa
distância é comum que a mensagem chegue do nó fonte ao nó destino passando
por diversos nós intermediários no meio do caminho e é tarefa do nível de rede
escolher o melhor caminho para essa mensagem.

A escolha da melhor rota pode ser baseada em tabelas estáticas, que são
configuradas na criação da rede e são raramente modificadas; pode também ser
determinada no início de cada conversação, ou ser altamente dinâmica, sendo
determinada a cada novo pacote, a fim de refletir exatamente a carga da rede
naquele instante. Se muitos pacotes estão sendo transmitidos através dos
mesmos caminhos, eles vão diminuir o desempenho global da rede, formando
gargalos. O controle de tais congestionamentos também é tarefa da camada de
rede.

Camada de Transporte

A camada de transporte inclui funções relacionadas com conexões entre a


máquina fonte e máquina destino, segmentando os dados em unidades de
tamanho apropriado para utilização pelo nível de rede, seguindo ou não as
orientações do nível de sessão.

As principais funções do nível de transporte são a criar conexões para cada


requisição vinda do nível superior, multiplexar as várias requisições vindas da
camada superior em uma única conexão de rede, dividir as mensagens em
tamanhos menores, a fim de que possam ser tratadas pelo nível de rede e
estabelecer e terminar conexões através da rede.

Sob condições normais, o nível de transporte cria uma conexão distinta para cada
conexão de transporte requisitada pelo nível superior. Se a conexão de transporte
requisitada necessita uma alta taxa de transmissão de dados, este nível pode criar
múltiplas conexões de rede, dividindo os dados através da rede para aumentar a
velocidade de transmissão, conforme as indicações do nível de sessão. Por outro
lado, a camada de transporte pode multiplexar as várias conexões de transporte
na mesma conexão de rede, a fim de reduzir custos. Em ambos os casos, a
camada de transporte deixa essa multiplexação transparente ao nível superior.

Existem várias classes de serviço que podem ser oferecidas ao nível superior, e,
em última instância, aos usuários da rede. A mais popular é uma comunicação
através de um canal ponto-a-ponto livre de erros, que envia as mensagens
seqüencialmente, na mesma ordem que elas foram recebidas. Existem outras
classes permitidas, como o envio de mensagens isoladas, sem garantia sobre a
ordem da entrega, ou enviar mensagens para múltiplos destinos (mensagens
multicast).

O nível de transporte é o primeiro que trabalha com conexões lógicas fim a fim, ou
seja, um programa na máquina fonte conversa com um programa similar na
máquina destino, diferente dos níveis anteriores, que conversavam somente com
o nó vizinho. Vale ressaltar que a conexão criada pelo nível de transporte é uma
conexão lógica, e os dados são transmitidos somente pelo meio físicos, através da
camada física do modelo. Assim, os dados devem descer nível a nível até atingir o
nível 1, para então serem transmitidos à máquina remota.

As funções implementadas pela camada de transporte dependem da qualidade de


serviço desejada. Foram especificadas, então, cinco classes de protocolos
orientados à conexão:

 Classe 0: simples, sem nenhum mecanismo de detecção e recuperação de


erros;
 Classe 1: recuperação de erros básicos sinalizados pela rede;
 Classe 2: permite que várias conexões de transporte sejam multiplexadas
sobre uma única conexão de rede e implementa mecanismos de controle
de fluxo;
 Classe 3: recuperação de erros sinalizados pela rede e multiplexação de
várias conexões de transporte sobre uma conexão de rede;
 Classe 4: detecção e recuperação de erros e multiplexação de conexões de
transporte sobre uma única conexão de rede.

Camada de Sessão

A função da camada de sessão é administrar e sincronizar diálogos entre dois


processos de aplicação. Este nível oferece dois tipos principais de diálogo: half
duplex e full duplex.

O nível de sessão fornece mecanismos que permitem estruturar os circuitos


oferecidos para o nível de transporte. Neste nível ocorre a quebra de um pacote
com o posicionamento de uma marca lógica ao longo do diálogo. Esta marca tem
como finalidade identificar os blocos recebidos para que não ocorra uma recarga,
quando ocorrer erros na transmissão.
Uma sessão permite transporte de dados de uma maneira mais refinada que o
nível de transporte em determinadas aplicações. Uma sessão pode ser aberta
entre duas estações a fim de permitir a um usuário se logar em um sistema remoto
ou transferir um arquivo entre essas estações. Os protocolos desse nível tratam
de sincronizações (check points) na transferência de arquivos.

Camada de Apresentação

A função da camada de apresentação é assegurar que a informação seja


transmitida de tal forma que possa ser entendida e usada pelo receptor. Dessa
forma, este nível pode modificar a sintaxe da mensagem, mas preservando sua
semântica. Por exemplo, uma aplicação pode gerar uma mensagem em ASCII
mesmo que a estação interlocutora utilize outra forma de codificação (como
EBCDIC). A tradução entre os dois formatos é feita neste nível.

A camada de apresentação também é responsável por outros aspectos da


representação dos dados, como criptografia e compressão de dados.

Camada de Aplicação

A camada de aplicação é o nível que possui o maior número de protocolos


existentes, devido ao fato de estar mais perto do usuário e os usuários possuírem
necessidades diferentes.

Esta camada fornece ao usuário uma interface que permite acesso a diversos
serviços de aplicação, convertendo as diferenças entre diferentes fabricantes para
um denominador comum. Por exemplo, em uma transferência de arquivos entre
máquinas de diferentes fabricantes pode haver convenções de nomes diferentes
(DOS tem uma limitação de somente 8 caracteres para o nome de arquivo, UNIX
não), formas diferentes de representar as linhas, e assim por diante.

Transferir um arquivo entre os dois sistemas requer uma forma de trabalhar com
essas incompatibilidades, e essa é a função da camada de aplicação. O dado
entregue pelo usuário à camada de aplicação do sistema recebe a denominação
de SDU (em inglês, Service Data Unit). A camada de aplicação, então, junta a
SDU (no caso, os dados do usuário) um cabeçalho chamado PCI (em inglês,
Protocol Control Information).

O objeto resultante desta junção é chamado de PDU (em inglês, Protocol Data
Unit), que corresponde à unidade de dados especificada de um certo protocolo da
camada em questão.

A tabela seguinte resume as funções das diferentes camadas do modelo OSI:

CAMADA FUNÇÃO
Funções especializadas (transferência de arquivos, terminal
APLICAÇÃO
virtual, e-mail)
APRESENTAÇÃO Formatação de dados e conversão de caracteres e códigos
SESSÃO Negociação e estabelecimento de conexão com outro nó
TRANSPORTE Meios e métodos para a entrega de dados ponta-a-ponta
REDE Roteamento de pacotes através de uma ou várias redes
Detecção e correção de erros introduzidos pelo meio de
ENLACE
transmissão
FÍSICA Transmissão dos bits através do meio de transmissão

Com base nas informações relacionadas ao modelo de referência OSI para redes
de computadores, julga-se a veracidade de cada um dos itens.

O item I está correto, pois a camada de sessão fornece mecanismos que


permitem estruturar os circuitos oferecidos pelo nível de transporte, oferecendo
serviços como gerenciamento de token, controle de diálogo e gerenciamento de
atividades. Ou melhor, é responsável pela negociação e estabelecimento de
conexão com outro nó.

O item II está incorreto, pois a camada de Enlace de Dados tem a função de


receber/transmitir uma seqüência de bits do/para o nível físico e transformá-los em
uma linha que esteja livre de erros de transmissão, a fim de que essa informação
seja utilizada pelo nível de rede.

O item III está correto, pois a camada de apresentação tem a função de realizar
transformações adequadas nos dados, antes de seu envio ao nível de sessão.
Essas transformações estão relacionadas basicamente com compressão de texto,
criptografia e conversão de padrões de terminais.

O item IV está incorreto, pois a camada de rede não garante necessariamente que
um pacote chegue a seu destino, e pacotes podem ser perdidos ou mesmo chegar
fora da seqüência original de transmissão. A função básica desta camada é
aceitar os dados da camada de sessão, quebrá-los em partes menores se
necessário, passá-los à camada de rede e garantir que as partes cheguem em
ordem no destino. Isso tudo deve ser feito independentemente da tecnologia da
sub-rede usada. Desse modo, a camada de transporte isola as camadas
superiores das mudanças inevitáveis na tecnologia de hardware.

52- O firewall de perímetro existe para atender às necessidades de usuários que estão fora dos limites da
empresa. Entre as regras de configuração que devem ser atendidas, o firewall de perímetro deve:

a) liberar pacotes de entrada que declarem ter um endereço IP de origem na rede de perímetro ou na rede
interna.
b) liberar pacotes de saída que declarem ter um IP de origem externo (o tráfego deve ser originado
somente de hosts bastion).
c) negar todo o tráfego, a menos que ele seja explicitamente permitido.
d) bloquear, ao servidor DNS externo, consultas DNS baseadas em UDP e respostas dos servidores DNS
na Internet.
e) bloquear, ao servidor DNS externo, consultas DNS baseadas em TCP e respostas dos servidores DNS
na Internet.

Comentários:

Gabarito C

Um firewall é um mecanismo para controlar o fluxo do tráfego IP entre duas redes.


Os dispositivos de firewall costumam operar no L3 do modelo OSI, embora alguns
modelos também possam operar em níveis superiores.

Os firewalls normalmente oferecem os seguintes benefícios:

 Defesa dos servidores internos contra ataques à rede;


 Aplicação de diretivas para o uso e o acesso à rede;
 Monitoramento do tráfego e geração de alertas quando são detectados
modelos suspeitos;

É importante observar que os firewalls reduzem apenas alguns tipos de riscos de


segurança. Um firewall geralmente não evita o dano que pode ser causado a um
servidor com uma vulnerabilidade de software. Os firewalls devem ser
implementados como parte da ampla arquitetura de segurança de uma empresa.

Um firewall de perímetro existe para atender às necessidades de usuários que


estão fora dos limites da empresa. Os tipos de usuário são:

Confiáveis: Funcionários da empresa, como empregados internos, usuários


remotos ou usuários que trabalham em casa.

Parcialmente confiáveis: Parceiros comerciais da empresa em relação aos quais


existe um nível de confiança maior do que em usuários não confiáveis. No
entanto, ainda é um nível de confiança um pouco menor que o dos funcionários da
empresa.

Não confiáveis: Por exemplo, usuários do site público da empresa.

É importante considerar o fato de que os firewalls de perímetro estão


particularmente abertos ao ataque externo, porque o invasor precisa passar por
eles para entrar em sua rede. Por isso, eles passam a ser um alvo óbvio de
ataques.

Os firewalls usados como limite são as portas de uma empresa para o mundo
externo. Em muitas empresas de grande porte, a classe de firewall que costuma
ser implementada é a de hardware high-end ou de servidor, embora algumas
usem firewalls de roteador.
Na discussão sobre regras do firewall de perímetro, o termo bastion host significa
um servidor, localizado em sua rede de perímetro, que oferece serviços a usuários
internos e externos. Exemplos de bastion hosts incluem os servidores Web e os
servidores VPN.

Geralmente, um firewall de perímetro precisa das regras a seguir implementadas


por padrão ou por configuração:

 Negar todo o tráfego, a menos que ele seja explicitamente permitido.


 Bloquear pacotes de entrada que declarem ter um endereço IP de origem
na rede de perímetro ou na rede interna.
 Bloquear pacotes de saída que declarem ter um IP de origem externo (o
tráfego deve ser originado somente de hosts bastion).
 Permitir consultas DNS baseadas em UDP e respostas do DNS na Internet.
 Permitir consultas DNS baseadas em UDP e respostas dos servidores DNS
na Internet ao servidor DNS externo.
 Permitir que clientes baseados em UDP consultem o servidor DNS externo
e dêem uma resposta.
 Permitir consultas DNS baseadas em TCP e respostas dos servidores DNS
na Internet ao servidor DNS externo.
 Permitir e-mails de saída do bastion host SMTP de saída para a Internet.
 Permitir e-mails de entrada da Internet para o bastion host SMTP de
entrada.
 Permitir que o tráfego originado pelo proxy nos servidores proxy alcance a
Internet.
 Permitir que respostas proxy da Internet sejam direcionadas para
servidores proxy no perímetro.

Os requisitos do hardware para um firewall de perímetro são diferentes para


firewalls baseados em software e firewalls baseados em hardware, conforme
resumo abaixo:

Firewalls baseados em hardware: Esses dispositivos geralmente executam


código especializado em uma plataforma de hardware personalizada. Eles
costumam ser escalados (e avaliados) com base no número de conexões com as
quais eles podem manipular e na complexidade do software que será executado.

Firewalls baseados em software: Também são configurados com base no


número de conexões simultâneas e na complexidade do software de firewall.
Existem calculadoras que podem computar a velocidade do processador, o
tamanho da memória e o espaço em disco necessário para um servidor, com base
no número de conexões que contam com suporte. O usuário deve considerar
outros softwares que também podem estar sendo executados no servidor de
firewall, como software de balanceamento de carga e VPN. Além disso, considere
os métodos para aumentar firewall para cima e para os lados. Esses métodos
incluem o aumento da capacidade do sistema adicionando mais processadores,
memória e placas de rede, além do uso de vários sistemas e balanceamento de
carga para difundir a tarefa do firewall entre eles.

Com base nas informações sobre os firewalls de perímetro, julga-se a veracidade


de cada uma das alternativas.

A alternativa (a) está incorreta, pois um firewall de perímetro deve bloquear os


pacotes de entrada que declarem ter um endereço IP de origem na rede de
perímetro ou na rede interna.

A alternativa (b) está incorreta, pois um firewall de perímetro deve bloquear os


pacotes de saída que declarem ter um IP de origem externo (o tráfego deve ser
originado somente de hosts bastion).

A alternativa (c) está correta, pois um firewall de perímetro deve negar todo o
tráfego, a menos que ele seja explicitamente permitido.

A alternativa (d) está incorreta, pois um firewall de perímetro deve permitir, ao


servidor DNS externo, consultas DNS baseadas em UDP e respostas dos
servidores DNS na Internet.

A alternativa (e) está incorreta, pois um firewall de perímetro deve permitir, ao


servidor DNS externo, consultas DNS baseadas em TCP e respostas dos
servidores DNS na Internet.

53- Em relação a vírus de computador é correto afirmar que, entre as categorias de malware, o Cavalo de
Tróia é um programa que:

a) usa um código desenvolvido com a expressa intenção de se replicar. Um Cavalo de Tróia tenta se
alastrar de computador para computador incorporando-se a um programa hospedeiro. Ele pode
danificar o hardware, o software ou os dados. Quando o hospedeiro é executado, o código do Cavalo
de Tróia também é executado, infectando outros hospedeiros e, às vezes, entregando uma carga
adicional.
b) parece útil ou inofensivo, mas que contém códigos ocultos desenvolvidos para explorar ou danificar o
sistema no qual é executado. Os cavalos de tróia geralmente chegam aos usuários através de
mensagens de e-mail que disfarçam a finalidade e a função do programa. Um Cavalo de Tróia faz isso
entregando uma carga ou executando uma tarefa mal-intencionada quando é executado.
c) usa um código mal-intencionado auto-propagável que pode se distribuir automaticamente de um
computador para outro através das conexões de rede. Um Cavalo de Tróia pode desempenhar ações
nocivas, como consumir recursos da rede ou do sistema local, possivelmente causando um ataque de
negação de serviço.
d) pode ser executado e pode se alastrar sem a intervenção do usuário, enquanto alguns variantes desta
categoria de malware exigem que os usuários executem diretamente o código do Cavalo de Tróia para
que eles se alastrem. Os Cavalos de Tróia também podem entregar uma carga além de se replicarem.
e) não pode ser considerado um vírus ou um verme de computador porque tem a característica especial
de se propagar. Entretanto, um Cavalo de Tróia pode ser usado para copiar um vírus ou um verme em
um sistema-alvo como parte da carga do ataque, um processo conhecido como descarga. A intenção
típica de um Cavalo de Tróia é interromper o trabalho do usuário ou as operações normais do sistema.
Por exemplo, o Cavalo de Tróia pode fornecer uma porta dos fundos no sistema para que um hacker
roube dados ou altere as definições da configuração.

Comentários:

Gabarito B

O termo malware, uma abreviatura da expressão para software mal-intencionado


(em inglês, malicious software), como um substantivo coletivo para se referir a
vírus, vermes e cavalos de Tróia que executam deliberadamente ações mal-
intencionadas em um sistema de computador.

Então, o que é exatamente um vírus ou um verme de computador? Em que eles


diferem dos cavalos de Tróia? E os aplicativos antivírus são eficazes apenas
contra vermes e cavalos de Tróia ou apenas contra vírus?

Todas essas questões se originam do ambiente confuso e geralmente deturpado


relacionado aos códigos mal-intencionados. O número e a variedade significantes
de códigos mal-intencionados existentes tornam difícil fornecer uma definição
perfeita de cada categoria de malware.

Para uma discussão geral sobre antivírus, as seguintes definições simples de


categorias de malware se aplicam:

Cavalo de Tróia: Um programa que parece útil ou inofensivo, mas contém


códigos ocultos desenvolvidos para explorar ou danificar o sistema no qual é
executado. Os cavalos de Tróia geralmente chegam aos usuários através de
mensagens de email que disfarçam a finalidade e a função do programa. Também
chamado de código de Tróia. Um cavalo de Tróia faz isso entregando uma carga
ou executando uma tarefa mal-intencionada quando é executado.

Verme: Um verme usa um código mal-intencionado auto-propagável que pode se


distribuir automaticamente de um computador para outro através das conexões de
rede. Um verme pode desempenhar ações nocivas, como consumir recursos da
rede ou do sistema local, possivelmente causando um ataque de negação de
serviço. Alguns vermes podem ser executados e podem se alastrar sem a
intervenção do usuário, enquanto outros exigem que os usuários executem
diretamente o código dos vermes para que eles se alastrem. Os vermes também
podem entregar uma carga além de se replicarem.

Vírus: Um vírus usa um código desenvolvido com a expressa intenção de se


replicar. Um vírus tenta se alastrar de computador para computador se
incorporando a um programa hospedeiro. Ele pode danificar o hardware, o
software ou os dados. Quando o hospedeiro é executado, o código do vírus
também é executado, infectando outros hospedeiros e, às vezes, entregando uma
carga adicional.

A seguir explicações mais detalhadas sobre cada uma categoria de malware.

Nos parágrafos a seguir, explicações mais detalhadas de cada categoria de


malware para ajudar a esclarecer os seus elementos essenciais.

Cavalos de Tróia

Um cavalo de Tróia não é considerado um vírus ou um verme de computador


porque não se propaga. Entretanto, um vírus ou um verme pode ser usado para
copiar um cavalo de Tróia em um sistema-alvo como parte da carga do ataque,
um processo conhecido como descarga. A intenção típica de um cavalo de Tróia é
interromper o trabalho do usuário ou as operações normais do sistema. Por
exemplo, o cavalo de Tróia pode fornecer uma porta dos fundos no sistema para
que um hacker roube dados ou altere as definições da configuração.

Há outros dois termos, geralmente usados quando nos referimos aos cavalos de
Tróia ou às suas atividades, que são identificados e explicados a seguir:

Tróias de acesso remoto: Alguns cavalos de Tróia permitem que o hacker ou o


ladrão de dados controle remotamente um sistema. Esses programas são
chamados de Tróias de acesso remoto RATs (em inglês, Remote Access Trojans)
ou portas dos fundos. São exemplos de RATs: Back Orifice, Cafeene e SubSeven.

Rootkits: É um conjunto de programas de software que um hacker pode usar para


obter acesso remoto não autorizado a um computador e lançar outros ataques.
Esses programas podem usar várias técnicas diferentes, entre elas:
monitoramento dos toques das teclas, mudança dos arquivos de registro do
sistema ou de aplicativos existentes no sistema, criação de porta dos fundos no
sistema e começo de ataques a outros computadores da rede. Os rootkits
geralmente são organizados em um conjunto de ferramentas ajustadas para
atingir especificamente um determinado sistema operacional. Os primeiros rootkits
foram identificados no início dos anos 90, e nessa época, os sistemas
operacionais Sun e Linux eram os principais alvos. Atualmente, os rootkits estão
disponíveis para vários sistemas operacionais, inclusive para a plataforma
Microsoft Windows.

Vermes
Se o código mal-intencionado se replicar, não é um cavalo de Tróia. A próxima
questão que deve ser feita para definir melhor o malware é: O código pode se
replicar sem a necessidade de um portador? Ou seja, ele pode se replicar sem
precisar infectar um arquivo executável? Se a resposta é "Sim", o código é
considerado uma forma de verme.

A maioria dos vermes tenta se copiar em um computador hospedeiro e depois usa


os canais de comunicação do computador para se replicarem. Por exemplo, o
verme Sasser depende da vulnerabilidade de um serviço para primeiramente
infectar um sistema e, depois, usa a conexão de rede do sistema infectado para
tentar se replicar. Para evitar esta replicação é necessário habilitar firewalls no seu
ambiente para bloquear as portas da rede usadas pelos vermes.

Vírus

Se o código mal-intencionado anexa uma cópia dele mesmo a um arquivo, a um


documento ou ao setor de inicialização de uma unidade de disco para se replicar,
ele é considerado um vírus. Essa cópia pode ser uma cópia direta do vírus original
ou pode ser uma versão modificada do original. Como mencionado anteriormente,
um vírus geralmente terá uma carga que ele poderá descarregar em um
computador local, como um cavalo de Tróia, que depois executará uma ou mais
ações mal-intencionadas, como excluir dados do usuário. Entretanto, um vírus que
apenas se replica e não tem carga ainda é um problema de malware porque o
vírus pode, ele mesmo, adulterar dados, tomar recursos do sistema e consumir
largura de banda da rede enquanto se replica.

Com base nas informações sobre as categorias de malware, julga-se a veracidade


de cada uma das alternativas.

A alternativa (a) está incorreta, pois é um vírus que usa um código desenvolvido
com a expressa intenção de se replicar. Um vírus tenta se alastrar de computador
para computador se incorporando a um programa hospedeiro. Ele pode danificar o
hardware, o software ou os dados. Quando o hospedeiro é executado, o código do
vírus também é executado, infectando outros hospedeiros e, às vezes, entregando
uma carga adicional.

A alternativa (b) está correta, pois um cavalo de tróia parece útil ou inofensivo,
mas contém códigos ocultos desenvolvidos para explorar ou danificar o sistema no
qual é executado. Os cavalos de tróia geralmente chegam aos usuários através de
mensagens de e-mail que disfarçam a finalidade e a função do programa. Um
Cavalo de Tróia faz isso entregando uma carga ou executando uma tarefa mal-
intencionada quando é executado.

A alternativa (c) está incorreta, pois é um verme que usa um código mal-
intencionado auto-propagável que pode se distribuir automaticamente de um
computador para outro através das conexões de rede. Um verme pode
desempenhar ações nocivas, como consumir recursos da rede ou do sistema
local, possivelmente causando um ataque de negação de serviço.

A alternativa (d) está incorreta, pois alguns vermes, e não cavalos de tróia, podem
ser executados e podem se alastrar sem a intervenção do usuário, enquanto
outros exigem que os usuários executem diretamente o código dos vermes para
que eles se alastrem. Os vermes também podem entregar uma carga além de se
replicarem.

A alternativa (e) está incorreta, pois a ESAF trocou, no segundo período da


alternativa, os termos um vírus ou um verme por um cavalo de Tróia. A frase
correta seria: Um cavalo de Tróia não é considerado um vírus ou um verme de
computador porque não se propaga. Entretanto, um vírus ou um verme pode ser
usado para copiar um cavalo de Tróia em um sistema-alvo como parte da carga
do ataque, um processo conhecido como descarga. A intenção típica de um
cavalo de Tróia é interromper o trabalho do usuário ou as operações normais do
sistema. Por exemplo, o cavalo de Tróia pode fornecer uma porta dos fundos no
sistema para que um hacker roube dados ou altere as definições da configuração.

54- Com relação à segurança e a ataques em redes de computadores, pode-se observar que, depois que um
malware alcança uma máquina hospedeira, geralmente executará uma ação conhecida como carga. O
tipo de carga conhecido como “Porta dos fundos”:

a) é um tipo de carga de malware particularmente preocupante porque é normalmente desenvolvida para


roubar informações. Se uma carga puder comprometer a segurança de um computador hospedeiro, é
possível que ele desenvolva um mecanismo para passar informações para os responsáveis pelo
malware.
b) é um dos tipos de carga mais destrutivos, normalmente um código mal-intencionado que altera ou exclui
dados, tornando as informações no computador do usuário inúteis. O criador do malware tem duas
opções. A primeira é desenhar a carga para ser executada rapidamente. Embora potencialmente
desastroso para o computador infectado, esse planejamento de malware conduzirá a uma descoberta
mais rápida e, portanto, limitará a sua oportunidade de se replicar sem ser descoberto. A outra opção é
deixar a carga no sistema local na forma de um Cavalo de Tróia por um período para permitir que o
malware se propague antes da tentativa de entregar a sua carga, portanto, antes de alertar o usuário
sobre a sua presença.
c) permite acesso não-autorizado a um computador. Ele pode permitir acesso total, mas o acesso também
pode ser limitado, como a permissão de acesso ao FTP usando a porta 21 do computador. Se o
ataque visara autorizar o Telnet, um hacker pode usar o computador infectado como uma área de
concentração para ataques pela Telnet a outros computadores.
d) é um do tipo DoS, isto é, uma investida computadorizada feita por um invasor para sobrecarregar ou
parar os serviços de uma rede, como um servidor da WEB ou um servidor de arquivos.
e) é um ataque DDoS que visa a simplesmente tornar um serviço específico temporariamente indisponível.

Comentários:

Gabarito C

As diferentes características que cada categoria de malware pode apresentar


geralmente são muito parecidas. Por exemplo, um vírus e um verme podem usar a
rede como um mecanismo de transporte. Entretanto, o vírus procurará arquivos
para infectar enquanto o verme simplesmente tentará se replicar. A seguir, uma
abordagem sobre as características típicas dos malware.

Ambientes-alvo

Quando um malware tenta atacar um sistema hospedeiro, pode haver alguns


componentes específicos de que ele necessite antes que o ataque possa ser bem-
sucedido. Os seguintes são exemplos típicos do que o malware pode precisar
para atacar o hospedeiro:

Dispositivos: Alguns malware terão como alvo um tipo de dispositivo específico,


como um computador, um computador Apple Macintosh ou até mesmo um
assistente pessoal digital (PDA), embora deva se notar que os malware de PDA
atualmente são raros.

Sistemas operacionais: O malware pode precisar de um determinado sistema


operacional para entrar em operação. Por exemplo, o CIH ou vírus Chernobyl do
final dos anos 90 só podia atacar computadores que executavam Microsoft
Windows 95 ou Windows 98.

Aplicativos: O malware pode precisar de um determinado aplicativo para se


instalar no computador-alvo antes de poder entregar uma carga ou de se replicar.
Por exemplo, o vírus LFM.926 de 2002 podia atacar somente se arquivos
Shockwave Flash (.swf) pudessem ser executados no computador local.

Objetos portadores

Se o malware for um vírus, tentará atingir um objeto portador, também conhecido


como hospedeiro, para infectá-lo. O número e tipo de objetos portadores que são
alvos variam amplamente entre os malware, mas a seguinte lista fornece
exemplos dos portadores-alvo mais comuns:

Arquivos executáveis: Esse é o alvo do vírus "clássico" que é replicado se


anexando a um programa hospedeiro. Além dos arquivos executáveis típicos que
usam a extensão.exe, arquivos com as seguintes extensões também podem ser
usados com essa finalidade: .com, .sys, .dll, .ovl, .ocx e .prg.

Scripts: Os ataques que usam scripts como portadores têm como alvo arquivos
que usam a linguagem script, como Microsoft Visual Basic Script, JavaScript,
AppleScript ou Perl Script. As extensões dos arquivos desse tipo são: .vbs, .js,
.wsh e .prl.

Macros: Esses portadores são arquivos que suportam uma linguagem script de
macro de um aplicativo específico, como um processador de texto, uma planilha
eletrônica ou um aplicativo de banco de dados. Por exemplo, os vírus podem usar
as linguagens de macro no Microsoft Word e no Lotus Ami Pro para causar vários
efeitos, que podem variar de prejudiciais, como trocar palavras ou mudar as cores
em um documento, a mal-intencionados, como formatar o disco rígido do
computador.

Setor de inicialização: Também podem ser consideradas portadoras áreas


específicas dos discos do computador (discos rígidos e mídias removíveis
inicializáveis), como o registro mestre de inicialização (MBR) ou o registro de
inicialização do DOS porque são capazes de executar códigos mal-intencionados.
Quando um disco é infectado, a replicação será realizada, se ele for usado para
iniciar os sistemas de outros computadores.

Observação: Se o vírus visar infectar tanto arquivos quanto setores de


inicialização, ele pode ser chamado de vírus multiparte.

Mecanismos de transporte

Um ataque pode usar um ou muitos métodos diferentes para tentar se replicar


entre sistemas de computadores. Esta seção fornece informações sobre alguns
dos mecanismos de transporte mais comuns usados pelos malware.

Mídia removível: O meio original de transmissão de vírus e de outros malware e


provavelmente o mais prolífero, pelo menos até recentemente, é a transferência
de arquivos. Esse mecanismo começou com os disquetes, depois se mudou para
as redes e hoje encontrou novos meios como os dispositivos Universal Serial Bus
(USB) e o Firewire. A velocidade de infecção não é tão rápida como a do malware
de rede, mesmo assim a ameaça está sempre presente e é difícil ser erradicada
completamente por causa da necessidade da troca de dados entre sistemas.

Compartilhamentos de rede: Como os computadores têm um mecanismo que os


conecta entre si diretamente por uma rede, os criadores de malware foram
presenteados com outro mecanismo de transporte que tem o potencial de
ultrapassar a agilidade das mídias removíveis na propagação de códigos mal-
intencionados. Uma segurança insuficientemente implementada em
compartilhamentos de rede origina um ambiente em que um malware pode se
replicar em muitos computadores conectados à rede. Isso substituiu amplamente o
método manual que usava mídias removíveis.

Verificação de redes: Os criadores de malware usam esse mecanismo para


varrer redes em busca de computadores vulneráveis ou para atacar
aleatoriamente endereços IP. Por exemplo, o mecanismo pode enviar um pacote
de exploração usando uma porta de rede específica para diversos endereços IP
com o objetivo de encontrar um computador vulnerável ao ataque.

Redes de compartilhamento (P2P): Para ocorrer transferências de arquivos P2P,


um usuário deve primeiramente instalar um componente cliente do aplicativo P2P
que usará uma das portas da rede autorizada pelo firewall da organização, como a
porta 80. Os aplicativos usam essa porta para passar pelo firewall e transferir
arquivos diretamente entre computadores. Esses aplicativos estão imediatamente
disponíveis na Internet e fornecem um mecanismo de transporte que os criadores
de malware podem usar diretamente para ajudar na propagação de um arquivo
infectado para o disco rígido de um cliente.

Email: O email se tornou o mecanismo de transporte preferido de muitos ataques


de malware. A facilidade com que centenas de milhares de pessoas podem ser
alcançadas por email sem a necessidade de os perpetradores de malware saírem
dos seus computadores tornou esse um meio de transporte eficaz. Tem sido
relativamente simples enganar usuários para que abram anexos de email usando
técnicas da engenharia social. Por essa razão, muitas das invasões de malware
mais prolíferas usaram emails como mecanismo de transporte. Há dois tipos
básicos de malware que usam emails como transporte:

• Mensageiros: Esse tipo de malware se envia a um número limitado de


endereços de email, através do software de correio eletrônico instalado no
hospedeiro, por exemplo, Microsoft Outlook Express, ou através do seu
próprio mecanismo integrado Simple Mail Transfer Protocol (SMTP).
• Mensageiros em massa: Esse tipo de malware procura no computador
infectado endereços de email e depois faz o envio em massa dele mesmo a
esses endereços através do software de correio eletrônico instalado no
hospedeiro ou do seu próprio mecanismo integrado SMTP.

Exploração Remota: O malware pode tentar explorar uma vulnerabilidade


específica de um serviço ou de um aplicativo para se replicar. Esse
comportamento geralmente é observado em vermes; por exemplo, o verme
Slammer aproveitou uma vulnerabilidade do Microsoft SQL Server™ 2000. O
verme gerava um excesso de buffer que permitia que uma parte da memória do
sistema fosse sobrescrita com um código que podia ser executado na mesma
circunstância segura do serviço do SQL Server. Um excesso de buffer é uma
condição que causa o acréscimo de mais informações em um buffer do que ele
tenha sido projetado para suportar. Um invasor pode explorar essa vulnerabilidade
para tomar um sistema. A Microsoft identificou e corrigiu essa vulnerabilidade
meses antes do Slammer ser lançado, mas poucos sistemas foram atualizados e,
por isso, o verme pôde se propagar.

Cargas

Depois do malware alcançar a máquina hospedeira pelo transporte, geralmente


executará uma ação conhecida como carga, que pode ter diversas formas. Alguns
dos tipos de carga mais comuns são identificados nesta seção:

Porta dos fundos: Esse tipo de carga permite acesso não autorizado a um
computador. Ele pode permitir acesso total, mas o acesso também pode ser
limitado, como a permissão de acesso ao File Transfer Protocol (FTP) através da
porta 21 do computador. Se o ataque visar autorizar a Telnet, um hacker pode
usar o computador infectado como uma área de concentração para ataques pela
Telnet a outros computadores. Como mencionado anteriormente, uma Porta dos
fundos algumas vezes é chamada de Tróia de acesso remoto.

Alteração e exclusão de dados: Um dos mais destrutivos tipos de carga pode


ser um código mal-intencionado que altera ou exclui dados, tornando as
informações no computador do usuário inúteis. O criador do malware tem duas
opções. A primeira opção é desenhar a carga para ser executada rapidamente.
Embora potencialmente desastroso para o computador infectado, esse
planejamento de malware conduzirá a uma descoberta mais rápida e, portanto,
limitará a sua oportunidade de se replicar sem ser descoberto. A outra opção é
deixar a carga no sistema local na forma de um cavalo de Tróia por um período
para permitir que o malware se propague antes da tentativa de entregar a sua
carga, portanto, antes de alertar o usuário sobre a sua presença.

Roubo de informações: Um tipo de carga de malware particularmente


preocupante é aquela desenvolvida para roubar informações. Se uma carga puder
comprometer a segurança de um computador hospedeiro, é possível que ele
desenvolva um mecanismo para passar informações para os responsáveis do
malware. Isso pode acontecer de diversas maneiras; por exemplo, uma
transferência pode ser automatizada de forma que o malware simplesmente
capture arquivos ou informações locais, como as teclas que o usuário pressiona,
na esperança de obter nomes de usuário e senhas. Outro mecanismo é
proporcionar um ambiente no hospedeiro local que permita que o invasor controle
o hospedeiro remotamente ou obtenha diretamente acesso aos arquivos do
sistema.

Negação de serviços (DoS): Um dos tipos mais simples de carga que pode ser
desempenhado é o ataque de negação de serviços. O ataque DoS é uma
investida computadorizada feita por um invasor para sobrecarregar ou parar os
serviços de uma rede, como um servidor da web ou um servidor de arquivos. Os
ataques DoS visam simplesmente tornar um serviço específico temporariamente
inutilizável.

• Negação de serviços distribuídos (DDoS): Esses tipos de ataque


geralmente usam clientes infectados que em geral estão completamente
inconscientes do seu papel nesse ataque. Um ataque DDoS é um tipo de
ataque de negação de serviços em que um invasor usa um código mal-
intencionado instalado em vários computadores para atacar um único alvo.
Um invasor pode usar esse método para obter um efeito maior no alvo do
que aquele possível com um único computador de ataque. A semântica de
como um ataque acontece varia em cada ataque, mas geralmente envolve
enviar grande quantidade de dados a um hospedeiro ou a um site
específico, o que leva esse alvo a parar de responder, ou se tornar incapaz
de responder, ao tráfego autêntico. Isso inunda a largura de banda
disponível do site atacado e efetivamente faz que o site saia do ar.

Pode ser extremamente difícil se defender desse tipo de ataque porque os


hospedeiros responsáveis pelos ataques na verdade também são vítimas
inconscientes. Os ataques DDoS geralmente são dirigidos por bots, programas
que executam tarefas repetitivas, como os bots IRC (Internet Relay Chat)
Eggdrop, que um hacker pode usar para controlar os computadores “vítimas” pelo
canal IRC. Depois de os computadores estarem sob o controle do hacker, eles se
tornam zumbis que podem afetar um alvo, estando sob o comando de um invasor,
sem o conhecimento do proprietário do computador.

As propostas DoS e DDoS podem usar várias técnicas de ataques diferentes,


entre elas:

Paralisação de sistemas: Se um malware puder paralisar ou fazer o sistema


hospedeiro falhar, ele será capaz de interromper um ou mais serviços. Para atacar
o sistema hospedeiro, o malware precisa encontrar uma deficiência em um
aplicativo ou no sistema operacional que possa causar a paralisação do sistema.

Inundação da largura de banda: A maioria dos serviços fornecidos pela Internet


acontece através de conexões de rede com largura de banda limitada, que
conecta os serviços aos seus clientes. Se um criador de malware puder entregar
uma carga que ocupe a largura de banda com tráfego de rede falso, será possível
produzir um DoS simplesmente impedindo que os clientes possam se conectar
diretamente ao serviço.

DoS de rede: Esse tipo de carga tenta sobrecarregar os recursos disponíveis no


hospedeiro local. Recursos como as capacidades de microprocessadores e de
memória se sobrecarregaram com os ataques do SYN flood, em que um invasor
usava um programa para enviar um fluxo excessivo de solicitações TCP SYN para
ocupar a fila de conexões pendentes no servidor e negar o tráfego de rede
legítimo que chegava e partia do hospedeiro. Os ataques de email-bomba também
ocupam os recursos de armazenamento para criar um ataque de DoS em que
uma quantidade excessivamente grande de dados de email é enviada a um
endereço de email para tentar interromper o programa de correio eletrônico ou
para evitar que o destinatário receba mensagens legítimas.

Interrupção de serviços: Esse tipo de carga também pode causar DoS. Por
exemplo, se um ataque a um Domain Name System (DNS) desativa o serviço
DNS, a técnica do ataque DoS foi realizada. Entretanto, todos os outros serviços
do sistema podem permanecer inalterados.

Mecanismos de disparo

Os mecanismos de disparo são uma característica de malware que o software


mal-intencionado usa para iniciar a replicação ou a entrega da carga. Os
mecanismos de disparo incluem os seguintes:

Execução manual: Esse tipo de mecanismo de disparo é simplesmente a


execução do malware feita diretamente pela vítima.
• Engenharia social: O malware geralmente usa alguma forma de
engenharia social para ajudar a persuadir uma vítima a executar
manualmente o código mal-intencionado. A abordagem pode ser
relativamente simples, como aquelas usadas pelos vermes de
correspondências em massa, em que o elemento da engenharia social se
concentra em selecionar um texto para o campo de assunto da mensagem
de email que provavelmente fará a vítima abrir essa mensagem. Os
criadores de malware também podem usar falsificação de emails para
tentar persuadir a vítima a acreditar que um email foi enviado por uma fonte
confiável. A falsificação é o ato de personificar um site ou a transmissão de
dados para que pareçam genuínos. Por exemplo, o verme Dumaru original,
descoberto pela primeira vez em 2003, modificava o campo De: dos emails
para se declarar falsamente enviado por security@microsoft.com.

Execução semi-automática: Esse tipo de mecanismo de disparo inicialmente é


acionado por uma vítima e, desse ponto em diante, executado automaticamente.

Execução automática: Esse tipo de mecanismo de disparo não precisa


absolutamente da execução manual. O malware realiza o seu ataque sem a
necessidade de uma vítima executar o código mal-intencionado no computador-
alvo.

Bomba relógio: Esse tipo de mecanismo de disparo executa uma ação depois de
um certo período de tempo. Esse período pode ser um adiamento da primeira
execução da infecção ou uma data ou um intervalo de datas predeterminados. Por
exemplo, o verme MyDoom.B iniciaria as rotinas de sua carga contra o site
Microsoft.com no dia 3 de fevereiro de 2004 e contra o site do SCO Group no dia
1º de fevereiro de 2004. A sua replicação pararia no dia 1 de março de 2004,
embora o componente de porta dos fundos da bomba-relógio ainda ficasse ativo
depois desse período.

Condicional: Esse tipo de mecanismo de disparo usa algumas condições


predeterminadas para disparar a entrega de sua carga. Por exemplo, um arquivo
renomeado, um conjunto de toques de teclas ou um aplicativo de partida. O
malware que usa esse tipo de disparo às vezes é conhecido como bomba lógica.

Mecanismos de defesa

Muitos exemplos de malware usam algum tipo de mecanismo de defesa para


ajudar a reduzir a probabilidade de serem descobertos e removidos. A seguinte
lista fornece exemplos de algumas das técnicas usadas:

Armadura: Esse tipo de mecanismo de defesa emprega técnicas que tentam


despistar a análise do código mal-intencionado. Essas técnicas podem ser:
detectar quando um depurador está sendo executado e tentar evitar que ele
funcione bem ou adicionar uma grande quantidade de código sem sentido para
dificultar a determinação do objetivo do código mal-intencionado.

Camuflagem: O malware usa essa técnica para se esconder, interceptando


pedidos de informações e enviando dados falsos. Por exemplo, um vírus pode
armazenar uma imagem de um setor de inicialização desinfectado e exibi-la
sempre que for feita uma tentativa de exibir o setor de inicialização infectado. O
mais antigo vírus de computador, chamado “Brain”, usou essa técnica em 1986.

Criptografia: O malware que usa esse mecanismo de defesa criptografa a si e


também a sua carga e, às vezes, criptografa até mesmo outros dados do sistema,
para evitar a detecção ou a recuperação de dados. O malware criptografado
contém uma rotina de descriptografia estática, uma chave de criptografia e o
código mal-intencionado criptografado, que inclui uma rotina de criptografia.
Quando o malware é executado, ele usa a rotina e a chave de descriptografia para
decodificar o código mal-intencionado. Então, o malware cria uma cópia do seu
código e gera uma nova chave de criptografia. Ele usa essa chave e a sua rotina
de criptografia para criptografar a sua nova cópia, adicionando a nova chave com
a rotina de descriptografia à nova cópia. Diferentemente dos vírus polimórficos, o
malware de criptografia usa sempre as mesmas rotinas de descriptografia, então,
embora o valor da chave, e, portanto a assinatura do código mal-intencionado
criptografada, geralmente se altere em cada infecção, o software antivírus pode
procurar a rotina de descriptografia estática para detectar o malware que usa esse
mecanismo de defesa.

Oligomórfico: O malware que apresenta essa característica usa a criptografia


como um mecanismo de defesa para se defender e é capaz de alterar a rotina de
criptografia um número, geralmente pequeno, de vezes estabelecido. Por
exemplo, um vírus que pode gerar duas rotinas de descriptografia seria
classificado como oligomórfico.

Polimórfico: Esse tipo de malware usa a criptografia como um mecanismo de


defesa para se alterar e evitar ser detectado, geralmente ele criptografa o malware
propriamente dito com uma rotina de criptografia e depois fornece uma chave de
descriptografia diferente para cada mutação. Assim, o malware polimórfico usa um
número ilimitado de rotinas de criptografia para evitar ser detectado. À medida que
o malware se replica, uma parte do código de descriptografia é modificada.
Dependendo do código do malware específico, a carga ou outras ações
executadas pode ou não usar criptografia. Geralmente, há um dispositivo de
mutação, que é um componente autocontrolado do malware de criptografia que
gera rotinas de criptografia aleatórias. Então, o dispositivo e o malware são
criptografados, e a nova chave de descriptografia é encaminhada juntamente com
eles.

Com base nas informações sobre as diferentes características de cada uma das
categorias de malware, julga-se a veracidade de cada uma das alternativas.
A alternativa (a) está incorreta, pois se refere um tipo de carga de malware
chamada de roubo de informações que particularmente preocupante porque é
normalmente desenvolvida para roubar informações. Se uma carga puder
comprometer a segurança de um computador hospedeiro, é possível que ele
desenvolva um mecanismo para passar informações para os responsáveis pelo
malware.

A alternativa (b) está incorreta, pois se refere um tipo de carga de malware


chamada de alteração e exclusão de dados que é um dos tipos de carga mais
destrutivos, normalmente um código mal-intencionado que altera ou exclui dados,
tornando as informações no computador do usuário inúteis. O criador do malware
tem duas opções. A primeira é desenhar a carga para ser executada rapidamente.
Embora potencialmente desastroso para o computador infectado, esse
planejamento de malware conduzirá a uma descoberta mais rápida e, portanto,
limitará a sua oportunidade de se replicar sem ser descoberto. A outra opção é
deixar a carga no sistema local na forma de um Cavalo de Tróia por um período
para permitir que o malware se propague antes da tentativa de entregar a sua
carga, portanto, antes de alertar o usuário sobre a sua presença.

A alternativa (c) está correta, pois se refere um tipo de carga de malware chamada
de porta de fundos que permite acesso não-autorizado a um computador. Ele
pode permitir acesso total, mas o acesso também pode ser limitado, como a
permissão de acesso ao FTP usando a porta 21 do computador. Se o ataque
visara autorizar o Telnet, um hacker pode usar o computador infectado como uma
área de concentração para ataques pela Telnet a outros computadores.

A alternativa (d) está incorreta, pois se refere um tipo de carga de malware


chamada de negação de serviço (DoS) que é um do tipo DoS, isto é, uma
investida computadorizada feita por um invasor para sobrecarregar ou parar os
serviços de uma rede, como um servidor da WEB ou um servidor de arquivos.

A alternativa (e) está incorreta, pois um ataque DDoS é um tipo de ataque de


negação de serviços em que um invasor usa um código mal-intencionado
instalado em vários computadores para atacar um único alvo. Um invasor pode
usar esse método para obter um efeito maior no alvo do que aquele possível com
um único computador de ataque.

55- Alguns tipos de malware tentam atingir um objeto portador, também conhecido como hospedeiro, para
infectá-lo. O número e tipo de objetos portadores que são alvos variam com as características dos
malwares. Entre os portadores-alvo mais comuns, as macros:

a) são arquivos localizados em áreas específicas dos discos do computador (discos rígidos e mídias
removíveis inicializáveis), como o registro mestre de inicialização (MBR).
b) são arquivos que suportam linguagens como Microsoft Visual Basic® Script, JavaScript, AppleScript ou
PerlScript. As extensões dos arquivos desse tipo são: .vbs, .js, .wsh e .prl.
c) são o alvo do vírus “clássico” que é replicado anexando se a um programa hospedeiro. Além dos
arquivos típicos que usam a extensão das macros, arquivos com as seguintes extensões também
podem ser usados com essa finalidade: .com, .sys, .dll, .ovl, .ocx e .prg.
d) são arquivos que suportam uma linguagem script de macro de um aplicativo específico, como um
processador de texto, uma planilha eletrônica ou um aplicativo de banco de dados. Por exemplo, os
vírus podem usar as linguagens de macro no Microsoft Word para causar vários efeitos, que podem
variar de prejudiciais, como trocar palavras ou mudar as cores em um documento, a mal-
intencionados, como formatar o disco rígido do computador.
e) são arquivos localizados no registro de inicialização do DOS e são capazes de executar códigos mal-
intencionados. Quando o registro de um disco de inicialização é infectado, a replicação será efetivada
se ele for usado para iniciar os sistemas de outros computadores.

Comentários:

Gabarito D

Com base nas informações sobre as diferentes características de cada uma das
categorias de malware, apresentadas na questão anterior, julga-se a veracidade
de cada uma das alternativas.

A alternativa (a) está incorreta, pois se refere ao objeto portador conhecido como
Setor de inicialização que são arquivos localizados em áreas específicas dos
discos do computador (discos rígidos e mídias removíveis inicializáveis), como o
registro mestre de inicialização (MBR).

A alternativa (b) está incorreta, pois se refere ao objeto portador conhecido como
Scripts que são arquivos que suportam linguagens como Microsoft Visual Basic
Script, JavaScript, AppleScript ou PerlScript. As extensões dos arquivos desse tipo
são: .vbs, .js, .wsh e .prl.

A alternativa (c) está incorreta, pois se refere ao objeto portador conhecido como
Arquivos executáveis que são o alvo do vírus “clássico” que é replicado
anexando se a um programa hospedeiro. Além dos arquivos executáveis típicos
que usam a extensão .exe, arquivos com as seguintes extensões também podem
ser usados com essa finalidade: .com, .sys, .dll, .ovl, .ocx e .prg.

A alternativa (d) está correta, pois se refere ao objeto portador conhecido como
Macros que são arquivos que suportam uma linguagem script de macro de um
aplicativo específico, como um processador de texto, uma planilha eletrônica ou
um aplicativo de banco de dados. Por exemplo, os vírus podem usar as
linguagens de macro no Microsoft Word para causar vários efeitos, que podem
variar de prejudiciais, como trocar palavras ou mudar as cores em um documento,
a mal-intencionados, como formatar o disco rígido do computador.

A alternativa (e) está incorreta, pois se refere ao objeto portador conhecido como
Setor de inicialização que são arquivos localizados no registro de inicialização do
DOS e são capazes de executar códigos mal-intencionados. Quando o registro de
um disco de inicialização é infectado, a replicação será efetivada se ele for usado
para iniciar os sistemas de outros computadores.

56- Um planejamento detalhado é o ponto de partida para a eficácia de um plano de backup e recuperação.
Na implementação de uma solução eficaz de backup e recuperação, incluindo planos de prevenção de
desastres e planos de recuperação de desastres, o backup incremental é aquele que:

a) captura os dados que foram alterados desde o último backup total. Necessita-se de uma fita de backup
total e da fita incremental mais recente para executar uma restauração completa do sistema. Ele não
marca os arquivos como tendo sido submetidos a backup, ou seja, o atributo de arquivamento não é
desmarcado.
b) captura todos os dados, incluindo arquivos de todas as unidades de disco rígido. Cada arquivo é
marcado como tendo sido submetido a backup, ou seja, o atributo de arquivamento é desmarcado ou
redefinido. Uma fita atualizada de backup incremental pode ser usada para restaurar completamente
um servidor em um determinado momento.
c) mantém dados redundantes, pois os dados alterados e não alterados são copiados para fitas sempre
que um backup incremental é executado.
d) captura todos os dados que foram alterados desde o backup total ou incremental mais recente. Deve-se
usar uma fita de backup total (não importa há quanto tempo ela tenha sido criada) e todos os conjuntos
de backups incrementais subseqüentes para restaurar um servidor. Um backup incremental marca
todos os arquivos como tendo sido submetidos a backup, ou seja, o atributo de arquivamento é
desmarcado ou redefinido.
e) pode ser utilizado em conjunto com o backup diferencial. Uma restauração completa exige no máximo
dois conjuntos de fitas - a fita do último backup diferencial e a do último backup incremental.

Comentários:

Gabarito D

Tipos de backup

Vários tipos de backup podem ser usados para backups online e offline. O
contrato de nível de serviço, a janela de tempo de backup e os requisitos de
recuperação de um ambiente determinam que método ou combinação de métodos
é ideal para o ambiente.

Backups totais

Um backup total captura todos os dados, incluindo arquivos de todas as unidades


de disco rígido. Cada arquivo é marcado como tendo sido submetido a backup; ou
seja, o atributo de arquivamento é desmarcado ou redefinido. Uma fita atualizada
de backup total pode ser usada para restaurar um servidor completamente em um
determinado momento.

As vantagens dos backups totais são:

Cópia total dos dados: Um backup total significa que o usuário tem uma cópia
completa de todos os dados se for necessária uma recuperação do sistema.

Acesso rápido aos dados de backup: O usuário não precisa pesquisar em


várias fitas para localizar o arquivo que deseja restaurar, porque os backups totais
incluem todos os dados contidos nos discos rígidos em um determinado momento.

As desvantagens dos backups totais são:


Dados redundantes: Backups totais mantêm dados redundantes, porque os
dados alterados e não alterados são copiados para fitas sempre que um backup
total é executado.

Tempo: Backups totais levam mais tempo para serem executados e podem ser
muito demorados.

Backups incrementais

Um backup incremental captura todos os dados que foram alterados desde o


backup total ou incremental mais recente. O usuário deve usar uma fita de backup
total (não importa há quanto tempo ela tenha sido criada) e todos os conjuntos de
backups incrementais subseqüentes para restaurar um servidor. Um backup
incremental marca todos os arquivos como tendo sido submetidos a backup; ou
seja, o atributo de arquivamento é desmarcado ou redefinido.

As vantagens dos backups incrementais são:

Uso eficiente do tempo: O processo de backup leva menos tempo porque


apenas os dados que foram modificados ou criados desde o último backup total ou
incremental são copiados para a fita.

Uso eficiente da mídia de backup: O backup incremental usa menos fita porque
apenas os dados que foram modificados ou criados desde o último backup total ou
incremental são copiados para a fita.

As desvantagens dos backups incrementais são:

Restauração completa complexa: O usuário pode precisar restaurar os dados de


um conjunto incremental de várias fitas para obter uma restauração completa do
sistema.

Restaurações parciais demoradas: O usuário pode ter que pesquisar em várias


fitas para localizar os dados necessários para uma restauração parcial.

Backups diferenciais

Um backup diferencial captura os dados que foram alterados desde o último


backup total. O usuário precisa de uma fita de backup total e da fita diferencial
mais recente para executar uma restauração completa do sistema. Ele não marca
os arquivos como tendo sido submetidos a backup (ou seja, o atributo de
arquivamento não é desmarcado).

A vantagem dos backups diferenciais é que eles são mais rápidos do que os
backups incrementais, porque há menos fitas envolvidas. Uma restauração
completa exige no máximo dois conjuntos de fitas — a fita do último backup total e
a do último backup diferencial.
As desvantagens dos backups diferenciais são:

Backups mais demorados e maiores: Backups diferenciais exigem mais espaço


em fita e mais tempo do que backups incrementais porque quanto mais tempo
tiver se passado desde o backup total, mais dados haverá para copiar para a fita
diferencial.

Aumento do tempo de backup: A quantidade de dados dos quais é feito backup


aumenta a cada dia depois de um backup total.

Com base nas informações sobre um plano de backup e recuperação, julga-se a


veracidade de cada uma das alternativas.

A alternativa (a) está incorreta, pois a alternativa se refere ao backup diferencial


com suas devidas alterações. Este captura os dados que foram alterados desde o
último backup total. Necessita-se de uma fita de backup total e da fita diferencial
mais recente para executar uma restauração completa do sistema. Ele não marca
os arquivos como tendo sido submetidos a backup, ou seja, o atributo de
arquivamento não é desmarcado.

A alternativa (b) está incorreta, pois a alternativa se refere ao backup total com
suas devidas alterações. Este captura todos os dados, incluindo arquivos de todas
as unidades de disco rígido. Cada arquivo é marcado como tendo sido submetido
a backup, ou seja, o atributo de arquivamento é desmarcado ou redefinido. Uma
fita atualizada de backup total pode ser usada para restaurar completamente um
servidor em um determinado momento.

A alternativa (c) está incorreta, pois são os backups totais que mantêm dados
redundantes, porque os dados alterados e não alterados são copiados para fitas
sempre que um backup total é executado.

A alternativa (d) está correta, pois a alternativa se refere ao backup incremental.


Este captura todos os dados que foram alterados desde o backup total ou
incremental mais recente. Deve-se usar uma fita de backup total (não importa há
quanto tempo ela tenha sido criada) e todos os conjuntos de backups incrementais
subseqüentes para restaurar um servidor. Um backup incremental marca todos os
arquivos como tendo sido submetidos a backup, ou seja, o atributo de
arquivamento é desmarcado ou redefinido.

A alternativa (e) está incorreta, pois uma vantagem dos backups diferenciais é que
eles são mais rápidos do que os backups incrementais, porque há menos fitas
envolvidas. Uma restauração completa exige no máximo dois conjuntos de fitas —
a fita do último backup total e a do último backup diferencial.

57- As assinaturas digitais dependem de duas suposições fundamentais. A primeira determina que:
a) a chave privada seja segura e que apenas o proprietário da chave tenha acesso a ela. A segunda deve
garantir que a única maneira de produzir uma assinatura digital seja com a utilização da chave privada.
b) a chave pública seja segura e que apenas o proprietário da chave tenha acesso a ela. A segunda deve
garantir que a única maneira de produzir uma assinatura digital seja com a utilização da chave privada.
c) a chave pública seja segura e que apenas o proprietário da chave tenha acesso a ela. A segunda deve
garantir que a única maneira de produzir uma assinatura digital seja com a utilização da chave pública.
d) a chave privada seja segura e que apenas o proprietário da chave tenha acesso a ela. A segunda deve
garantir que a única maneira de produzir uma assinatura digital seja com a utilização da chave pública.
e) a chave privada seja segura e que apenas o proprietário da chave tenha acesso a ela. A segunda deve
garantir que a única maneira de se conferir uma assinatura digital seja por meio da composição das
chaves privada e pública.

Comentários:

Gabarito A

Uma assinatura digital é a melhor maneira de confirmar o conteúdo de uma


mensagem. Além disso, uma assinatura digital permite verificar se os dados não
foram alterados.

As assinaturas digitais são, na verdade, o resultado de uma complexa operação


matemática que trabalha com um conceito conhecido por criptografia assimétrica,
comentada em questão anterior. A operação matemática utiliza como variáveis o
documento a ser assinado e um segredo particular, que só o signatário eletrônico
possui: a chamada chave privada. Como somente o titular deve ter acesso à sua
chave privada, somente ele poderia ter calculado aquele resultado, que, por isso,
se supõe ser único e exclusivo, como uma assinatura.

Segundo as literaturas, as assinaturas digitais dependem de suas suposições


fundamentais: primeiro, que a chave privada seja segura e que apenas o
proprietário da chave tenha acesso a ela e segundo, que a única maneira de
produzir uma assinatura digital seja utilizando a chave privada.

Para conferir a assinatura digital, não é necessário ter conhecimento da chave


privada do signatário, preservando, assim, o segredo necessário para assinar.
Basta que se tenha acesso à chave pública que corresponde àquela chave
privada. A conferência da assinatura também é feita por operações matemáticas
que, a partir do documento, da chave pública e da assinatura, podem atestar que
tal assinatura foi produzida com a chave privada correspondente, sem a
necessidade de se ter acesso a essa chave privada. E, se o documento houver
sido adulterado, posteriormente ao lançamento da assinatura digital, o resultado
da operação matemática irá acusar esta desconformidade, invalidando a
assinatura.

Desta forma, se a conferência anunciar uma assinatura válida, isto significa que:

• a assinatura foi produzida com o uso da chave privada correspondente à


chave pública;
• o documento não foi modificado depois de produzida a assinatura.

Com base nos comentários sobre as assinaturas digitais, a alternativa correta é a


(a). As assinaturas digitais dependem de suas suposições fundamentais: primeiro,
que a chave privada seja segura e que apenas o proprietário da chave tenha
acesso a ela e segundo, que a única maneira de produzir uma assinatura digital
seja utilizando a chave privada.

As alternativas (b), (c), (d) e (e) estão incorretas, pois as mesmas introduzem
inverdades nas suposições fundamentas das assinaturas digitais. A principal
confusão está na troca da palavra chave privada por chave pública.

58- Na representação hexadecimal, considerando-se o valor =FED3 e aplicando-se a este um XOR com o
valor = FFFF, obtém-se como resultado, na mesma representação, o valor:

a) 012C
b) FFFF
c) FED3
d) 0000
e) C210

Comentários:

Gabarito A

O Sistema de Numeração Hexadecimal

O grande problema do sistema binário é sua verbosidade. Para representar o valor


decimal 202, de apenas três casas, precisamos de oito casas binárias. É óbvio
que com um conjunto de dez dígitos possíveis, o sistema decimal pode
representar números de uma forma muito mais compacta do que o sistema
binário, que possui um conjunto de apenas dois dígitos. Valores grandes precisam
de uma infinidade de casas binárias, tornando o número praticamente inutilizável.
Além disso, as conversões entre decimal e binário são um tanto trabalhoso.
Porém, o computador só trabalha em binário. Resolveu-se, então, partir para uma
solução radical: criar um sistema cuja base fosse a mesma do tipo mais usado nos
computadores. Os tipos mais utilizados são o byte e o word. Um byte possui oito
bits, então, foi criado um sistema octal. Um word possui 16 bits, então, foi criado o
sistema hexadecimal.

Os computadores evoluíram rapidamente para sistemas baseados em 16 bits e o


sistema hexadecimal ganhou força. Ele gera representações numéricas
compactas e as conversões entre hexadecimal e binário são simples. Como a
base de um número hexadecimal é 16, cada casa representa uma potência de 16.
Por exemplo, o número hexadecimal 1234h:

Dígito hexadecimal 1 2 3 4
Base 163 162 161 160

Reescrevendo o número em função do sistema hexadecimal, tem-se:

1234h = 1*163 + 2*162 + 3*161 + 4*161= 4096+512+48+4 = 4660 decimal

Cada dígito hexadecimal pode representar um dos dezesseis valores entre 0 e 15.
Como só existem dez dígitos decimais, foi preciso inventar seis dígitos adicionais.
Optou-se pelas letras de A a F. Alguns exemplos de números hexadecimais
seriam 1234, CADA, BEEF, 0FAB, FADA, FEFE, FAFA, etc. As expressões nas
questões e exemplos usam-se as seguintes convenções:

• Todos os valores numéricos, independentes da sua base, começam com


um dígito decimal.

• Todo o valor hexadecimal termina com a letra "h".


• Todos os valores binários terminam com a letra "b".
• Todos os valores decimais terminam com o sufixo "d".

São exemplos válidos: 1234h, 0CADAh, 0FADAh, 4660d, 101b. Observa-se que
os números hexadecimais são compactos e de fácil leitura. Além disso, as
conversões são fáceis. Veja a seguir a tabela com conversão de hexadecimal para
binário e vice versa:

Hexadecimal Binário
0 0000
1 0001
2 0010
3 0011
4 0100
5 0101
6 0110
7 0111
8 1000
9 1001
A 1010
B 1011
C 1100
D 1101
E 1110
F 1111

Para converter um número hexadecimal num número binário, substitui-se


simplesmente cada um dos dígitos hexadecimal pelos quatro bits do dígito binário
correspondente. Por exemplo, para converter 0ABCDh num valor binário:

Hexadecimal A B C D
Binário 1010 1011 1100 1101

Para converter um número binário em hexadecimal, o processo é tão fácil quanto


o anterior. A primeira providência é transformar o número de dígitos do valor
binário num múltiplo de quatro. Depois é só substituir. Veja o exemplo abaixo com
o binário 1011001010:

Binário 0010 1100 1010


Hexadecimal 2 C A

Operações aritméticas com números Binários e Hexadecimais

À primeira vista, as operações de soma, subtração, multiplicação e divisão, além


de outras, parecem muito fáceis de ser realizadas com números hexadecimais e
binários. Porém, o cérebro insiste em trabalhar com a base 10 devido todas as
operações do cotidiano usarem o sistema decimal. Veja alguns exemplos:

9h + 1h = ?

O usuário tende a responder 10h, o cérebro passou-lhe uma rasteira. A resposta


correta é 0Ah, que corresponde o número 10 em decimal. Veja outro exemplo:

10h - 1h = ?

Novamente, o usuário tende a responde 9h, deu outra rasteira. O correto é 0Fh,
uma vez que, no sistema decimal, 16 - 1 = 15.

Com o sistema binário a coisa fica um pouco pior, pois a possibilidade de erro já
começa ao se escrever seqüências muito longas de 0s e 1s. Para facilitar e evitar
erros, transformam-se os valores em decimal, efetua-se a operação e volta-se a
transformar o resultado para o sistema original.

Operações lógicas com bits

As principais operações lógicas são AND, OR, XOR e NOT.

Lógica AND

A operação lógica AND ou E é uma operação diádica, aceita exatamente dois


operandos, e seus operandos são dois bits. AND pode ser resumida na seguinte
tabela verdade, em que 0 representa falso e 1 representa verdadeiro:

B1 B2 AND(B1,B2)
0 0 0
0 1 0
1 0 0
1 1 1

Uma forma de guardar a operação lógica AND é compará-la com a multiplicação,


faça a multiplicação entre os bits B1 e B2 e o resultado é o mesmo. Em outras
palavras, na operação lógica AND, somente se os dois operandos forem 1 o
resultado é 1, caso contrário, o resultado é 0.

Um fato importante na operação lógica AND é que ela pode ser usada para forçar
um resultado zero. Se um dos operandos for 0, o resultado é sempre zero, não
importando o valor do outro operando. Na tabela anterior, por exemplo, a linha que
do operando 0, só possui 0s; e a coluna do operando 0, também só possui 0s. Por
outro lado, se um dos operandos for 1, o resultado é o outro operando.

Lógica OR

A operação lógica OR ou lógica OU também é uma operação diádica. OU pode


ser resumida na seguinte tabela verdade a seguir, em que 0 representa falso e 1
representa verdadeiro:

B1 B2 OR(B1,B2)
0 0 0
0 1 1
1 0 1
1 1 1

Em outras palavras, se um dos operandos for verdadeiro, o resultado é


verdadeiro; do contrário, o resultado é falso. Se um dos operandos for 1, o
resultado sempre será 1, não importando o valor do outro operando. Por outro
lado, se um dos operandos for 0, o resultado será igual ao outro operando. Estes
efeitos colaterais da operação lógica OR também são muito úteis e também serão
mais bem analisados logo adiante.

Lógica XOR

A tradução de XOR (exclusive OR) é OU exclusivo (ou excludente). Esta operação


lógica, como as outras, também é diádica. A tabela verdade da lógica XOR é a
seguinte:

B1 B2 XOR(B1,B2)
0 0 0
0 1 1
1 0 1
1 1 0

A operação XOR realiza um teste para igualdade entre duas variáveis lógicas. Ou
seja, se duas variáveis de entrada são iguais, a saída ou resultado da operação
XOR é 0. Se as entradas não são iguais, a saída é 1. Esta característica permite
inverter os valores numa seqüência de bits e é uma mão na roda.

Lógica NOT

A operação inversora, lógica NOT, realiza uma complementação direta de uma


entrada simples. Ou seja, uma entrada 1 produzirá uma saída 0. A tabela verdade
da lógica NOT é a seguinte:

B1 NOT(B1)
0 1
1 0

Operações lógicas com Números Binários e Strings de Bits

As funções lógicas funcionam apenas com operandos de bit único. Por exemplo, o
80x86 usa grupos de oito, dezesseis ou trinta e dois bits, é preciso ampliar a
definição destas funções para poder lidar com mais de dois bits. As funções
lógicas do 80x86 operam na base do bit a bit, ou seja, tratam os bits da posição 0,
depois os bits da posição 1 e assim sucessivamente. É como se fosse uma cadeia
de operações. Por exemplo, se quiser realizar uma operação AND com os
números binários 1011 0101 e 1110 1110, far-se-ia a operação coluna a coluna:

1011 0101
AND 1110 1110
1010 0100

Como resultado desta operação, ligam-se os bits em que ambos são 1. Os bits
restantes foram zerados. Se quiser garantir que os bits de 4 a 7 do primeiro
operando sejam zerados e que os bits 0 a 3 fiquem inalterados, basta fazer um
AND com 0000 1111. Observe:

1011 0101
AND 0000 1111
0000 0101

Se quiser inverter o quinto bit, basta fazer um XOR com 0010 0000. O bit ou os
bits que quiser inverter, manda-se ligado. Os bits zerados não alteram os bits do
primeiro operando. Assim, se quiser inverter os bits 0 a 3, basta fazer um XOR
com 0000 1111.

1011 0101
XOR 0000 1111
1011 1010

E o que acontece quando usa um OR com 0000 1111? Os bits 0 não alteram os
bits do primeiro operando e os bits 1 forçam os bits para 1. É um método
excelente para ligar bits na (ou nas) posições desejadas.

1011 0101
OR 0000 1111
1011 1111

Este método é conhecido como máscara. Através de uma máscara de AND é


possível zerar bits. Com uma máscara XOR é possível inverter bits e, através de
uma máscara OR é possível ligar bits. Basta conhecer as funções e saber lidar
com os bits. Quando se têm números hexadecimais, o melhor é transformá-los em
binário e depois aplicar as funções lógicas.

Com base nas informações sobre as operações lógicas com números os


hexadecimais e binários, faz-se à operação XOR entre FED3 e FFFF. Como visto
anteriormente, a máscara XOR é possível inverter bits, logo o valor FFFF inverte
os bits do valor FED3.

FED3h 1111 1110 1101 0011


FFFFh 1111 1111 1111 1111
XOR 0000 0001 0010 1100

Ou, simplesmente, 012C.

59-Analise as seguintes afirmações relacionadas à certificação digital, políticas de segurança e segurança na


Internet:

I. Um certificado de chave pública é um conjunto de dados à prova de falsificação que atesta a


associação de uma chave pública a um usuário final. Para fornecer essa associação, um conjunto de
terceiros confiáveis confirma a identidade do usuário. Os terceiros, chamados autoridades
certificadoras, emitem certificados para o usuário com o nome de usuário, a chave pública e outras
informações que o identificam.
II. Os protocolos de gerenciamento de certificação digital devem suportar o processo de atualização de
chaves onde todos os pares de chaves devem ser atualizados regularmente. Nesse processo, os pares
de chaves são substituídos, mas os certificados equivalentes são mantidos.
III. Uma Autoridade Registradora (Registration Authority –RA) pode servir de intermediária entre a CA
(Certificátion Authority) e seus usuários, ajudando as CAs em funções como “Aceitar e autorizar
solicitações para revogação de certificado”.
IV. Um recurso poderoso das hierarquias de certificado é que todas as partes devem confiar
automaticamente em todas as autoridades certificadoras.

Indique a opção que contenha todas as afirmações verdadeiras.

a) I e II
b) I e III
c) III e IV
d) II e III
e) II e IV

Comentários:

Gabarito B

CERTIFICADO DIGITAL

Numa comunicação, os intervenientes devem poder ter a certeza de que cada vez
que utilizam uma chave pública a entidade com quem pretendem trocar
informação possui a chave privada associada. Essa confiança assenta nos
certificados digitais.

Um certificado digital ou um certificado de chave pública é um conjunto de dados


que identifica uma entidade, seja ela uma empresa, uma pessoa ou um
computador e a respectiva chave pública.

Além da ligação entre a chave pública e o seu titular, o certificado digital fornece
também uma ligação indireta à correspondente chave privada, garantindo assim
autenticidade e não-repúdio na comunicação. Para assegurar a veracidade dos
dados contidos no certificado ele é assinado digitalmente por uma entidade em
quem todos confiam (TTP). O formato mais utilizado para certificados digitais é
definido pela norma X.509 da ITU (em inglês, International Telecommunications
Union).

Um certificado é constituído por:

• Versão do certificado – identifica a versão do certificado X.509;


• Número de série – identificador único do certificado emitido pela TTP;
• Algoritmo da assinatura – identificação dos algoritmos utilizados pela TTP
para a assinatura do certificado, por exemplo, o RSA como algoritmo de
cifragem e o MD5 como algoritmo de sumário;
• Emissor – identificação da TTP que emitiu e assinou o certificado;
• Período de validade do certificado – intervalo de tempo durante o qual a
TTP garante o conteúdo do certificado;
• Identificação do titular – nome da entidade (empresa ou particular) titular
(em casos especiais poderá ser anônimo) cuja chave pública o certificado
identifica;
• Chave pública – chave pública do titular do certificado e correspondente
algoritmo utilizado;
• Extensões – várias extensões ao certificado que permitem, entre outras
coisas, restringir as utilizações do par de chaves associado, por exemplo,
apenas para verificação de assinaturas digitais.

Embora um certificado tenha um período de validade predefinido, poderão surgir


situações que obriguem a revogar um certificado, nomeadamente se a chave
privada do titular for descoberta ou se algum dos dados identificativos do titular do
certificado for alterado. A informação sobre certificados revogados pode ser obtida
de duas maneiras: por CRL (em inglês, certificate revocation lists) ou por uma
consulta à TTP utilizando o OCSP (em inglês, online certificate status protocol). As
CRL são normalmente colocadas num local facilmente acessível, do conhecimento
geral e disponível ao público denominado repositório. Alguns exemplos de
repositório são:

• a diretoria X.500;
• os servidores de LDAP (em inglês, lightweight directory acess protocol).

COMO FUNCIONA A VERIFICAÇÃO DE UMA ASSINATURA DIGITAL?


A verificação de uma assinatura digital envolve os seguintes passos:

• O receptor do documento obtém o certificado digital do signatário;


• O receptor do documento obtém o certificado digital da TTP que assinou o
certificado do signatário. Em geral, o certificado da TTP está assinado pela
própria;
• O receptor valida a assinatura da TTP no certificado;
• O receptor obtém a chave pública do signatário a partir do seu certificado;
• O receptor valida a assinatura digital dos dados.

ENTIDADES CERTIFICADORAS

Uma entidade certificadora é responsável pela emissão e confirmação dos dados


presentes num certificado digital. Mais ainda, a confiança que as entidades
certificadoras oferecem é a base de um certificado digital. Existem vários fatores
que podem aumentar a confiança, nomeadamente a existência de:

1. Processos de verificação dos dados do certificado como, por exemplo,


verificação presencial, com documento de identificação, e-mail ou
procuração;
2. Entidades públicas como notários que possuem procedimentos
normalizados para efetuar as verificações referidas no item anterior.
Tradicionalmente, estas entidades gozam da confiança do grande público;
3. Empresas privadas que têm de respeitar normas de verificação e de
segurança aprovadas pela legislação como a publicação de CPS (em
inglês, Certification Practice Statements), nas quais publicitam as suas
normas de operação internas.

Em geral, a atividade de uma entidade certificadora é subdividida em duas


componentes, uma CA (em inglês, certification authority) e uma RA (em inglês,
registration authority).

Uma autoridade certificadora é uma entidade que cria ou fornece meios para a
criação e verificação de assinaturas digitais, emite e gere o ciclo de vida dos
certificados digitais e assegura a respectiva publicidade.

Uma autoridade registradora é uma entidade que presta os serviços relativos à


identificação/autenticação do detentor do certificado digital, à celebração de
contratos de emissão de certificado digital e à gestão de certificados digitais que
não se encontrem atribuídos em exclusivo a CA.

Normalmente, por razões de segurança como, por exemplo, a proteção da chave


privada, a CA não está acessível a partir do exterior e só a RA pode comunicar
com ela. Em algumas aplicações da Internet, como os browsers ou os leitores de
e-mail, os certificados das CA são obtidos automaticamente.

Cadeias de certificação

Na utilização de um serviço que exija o conhecimento de uma chave pública, é


necessário obter e validar o certificado que a contém.

A validação do certificado implica, por sua vez, o conhecimento da chave pública


da CA que o emitiu e, conseqüentemente, a obtenção e autenticação do seu
certificado. No entanto, um usuário pode não ter hipótese de validar diretamente o
certificado da CA, por exemplo, se obteve a sua chave pública de forma insegura.
Este problema pode ser resolvido se o certificado for assinado por outra CA cujo
certificado seja bem conhecido pelo usuário. Assim, forma-se uma cadeia de
certificação em que uma CA atesta a veracidade do certificado de outra e assim
sucessivamente. No topo encontra-se a root (raiz) CA, assim designada por agir
como raiz de confiança para todos os elementos que se encontram abaixo dela. A
Figura a seguir ilustra um exemplo de uma hierarquia de CA.
Considerando este exemplo, se o usuário C pretender verificar o certificado do
usuário A, apenas necessita seguir a cadeia até encontrar a CA intermediária X,
cujo certificado verificará o certificado desse usuário.

Com o objetivo de desenvolver um ambiente seguro na comunicação em rede


aberta, englobando todas as técnicas e todos os conceitos relacionados com a
criptografia assimétrica ou de chave pública, foram criadas infra-estruturas de
chave pública (PKI – public key infrastructures). As PKI reúnem um conjunto de
hardware, software, usuários, políticas e procedimentos necessários para criar,
gerir, armazenar, distribuir e revogar certificados de chave pública,
nomeadamente:

• Autoridades certificadoras e registradoras;


• Práticas consolidadas de certificação;
• cadeias de certificação;
• repositórios de certificados digitais;
• listas de certificados revogados;
• chaves públicas, privadas e secretas;
• algoritmos de cifra simétrica, assimétrica e de sumário.

MODELO BRASILEIRO

Através da Medida Provisória 2200-2, de 24 de agosto de 2001, foi criada a ICP-


Brasil, Infra-Estrutura de Chaves Pública Brasileira, e a Autoridade Certificadora
Raiz Brasileira, AC-Raiz, responsável pelo credenciamento das Autoridades
Certificadoras no Brasil, utilizando o modelo de raiz único como forma de
credenciamento, e definindo os padrões de segurança a serem seguidos pelas
AC, definindo as regras de identificação dos usuários e os tipos de certificado a
serem emitidos. Definiu também o processo de fiscalização e auditoria de todos os
envolvidos no processo, a ser realizado pelo ITI – Instituto Nacional de Tecnologia
da Informação, além de um Comitê Gestor responsável pela regulamentação da
ICP-Brasil. O trabalho conjunto destas duas entidades é garantir a segurança, a
interoperabilidade e, conseqüentemente, a confiança na ICP-Brasil.

Como define o site oficial do ICP-Brasil, este é um conjunto de técnicas, práticas e


procedimentos, a ser implementado pelas organizações governamentais e
privadas brasileiras com o objetivo de estabelecer os fundamentos técnicos e
metodológicos de um sistema de certificação digital baseado em chave pública.

Um esquema representativo da estrutura da ICP-Brasil seria o seguinte:


Como todas as AC seguem as rígidas regras de segurança estabelecidas, todos
os certificados emitidos pelas AC possuem as mesmas características básicas e
assim podem ser utilizados igualmente em qualquer aplicação de qualquer órgão
público ou empresa. A confiança no certificado de um usuário emitido por uma AC
da ICP-Brasil é garantida pelas entidades envolvidas no processo, seguindo a
cadeia de confiança desde a AC Raiz.

A AC Raiz é responsável por todos os aspectos relacionados com a emissão e o


gerenciamento de certificados digitais das AC licenciadas, de acordo com as
práticas e regras dispostas neste documento e na Declaração de Regras
Operacionais (DRO) da AC Raiz, incluindo:

• emissão de certificados;
• revogação de certificados;
• renovação de certificados;
• emissão de Lista de Certificados Revogados - LCR;
• publicação de LCR em diretório ou página Web;
• gerência de chaves criptográficas;
• publicação de DRO;
• fiscalizar o cumprimento desta política pelas AC.

Definida e estabelecida esta infra-estrutura composta pela AC Raiz, pelas AC


credenciadas e pelas entidades responsáveis pela identificação e aprovação dos
certificados dos usuários finais, denominadas Autoridades de Registro (AR), e
estando a mesma em pleno funcionamento, iniciou-se a ampliação da confiança
no uso da tecnologia de certificação digital em pelo menos duas outras frentes. A
primeira, por iniciativa do ITI, diz respeito à regulamentação para a homologação
dos dispositivos armazenadores de chaves criptográficas e certificados, os cartões
inteligentes (smartcards) e tokens. Desde janeiro de 2005 já existe um laboratório
capaz de avaliar se estes dispositivos seguem os requisitos mínimos de
segurança estabelecidos para eles. A princípio, esta homologação é opcional, mas
a tendência é que vá gradativamente se tornando um diferencial importante até
que se torne obrigatório. O objetivo desta iniciativa é assegurar que estes
dispositivos executem as funções de geração, armazenamento e utilização das
chaves criptográficas dos seus usuários com a maior segurança possível.

Com base nas informações relacionadas à certificação digital, julga-se a


veracidade de cada um dos itens.

O item I está correto, pois se refere à típica definição de um certificado digital ou


um certificado de chave pública que é um conjunto de dados que identifica uma
entidade, seja ela uma empresa, uma pessoa ou um computador e a respectiva
chave pública. Além da ligação entre a chave pública e o seu titular, o certificado
digital fornece também uma ligação indireta à correspondente chave privada,
garantindo assim autenticidade e não-repúdio na comunicação. Para isso, conta
com as autoridades certificadoras que emitem certificados para o usuário com o
nome dele, a chave pública e outras informações que o identificam.

O item II está incorreto, pois todo par de chaves precisa ser atualizado
regularmente, isto é, ser substituído por um novo par de chaves. Além de emitir
um novo certificado e não mantê-lo como afirma o item.

O item III está correto, pois uma autoridade registradora é uma entidade que
presta os serviços relativos à identificação/autenticação do detentor do certificado
digital, à celebração de contratos de emissão de certificado digital e à gestão de
certificados digitais que não se encontrem atribuídos em exclusivo a CA. Por
exemplo, as ARs podem ajudar CAs em funções como “Aceitar e autorizar
solicitações para revogação de certificado”.

O item IV está incorreto, pois se refere a uma infra-estrutura de chave pública.


Todos os certificados emitidos no Brasil têm sua garantia na AC-Raiz, ICP-Brasil.
AC-Raiz tem como objetivo o desenvolvimento de um ambiente seguro na
comunicação em rede aberta, englobando todas as técnicas e todos os conceitos
relacionados com a criptografia assimétrica ou de chave pública.

É importante frisar que uma AC-Raiz não vende certificados para pessoas e
instituições, apenas para Autoridades Certificadoras e é responsável por certificar-
se a Entidade é preparada para ser uma AC, e por auditar o processo.

60- Analise as seguintes afirmações relacionadas à definição, implantação e gestão de políticas de


segurança:

I. Uma das medidas que pode ser tomada para prevenir ser o intermediário de ataques do tipo Smurf é
configurar o roteador de modo a receber e deixar passar pacotes para endereços de broadcast por
meio de suas interfaces de rede.
II. O War dialer é uma ferramenta utilizada pelos hackers para fazer a varredura visando à identificação
de modems, que também pode ser utilizada por auditores para fazer auditoria de segurança de uma
organização. Como ferramenta de auditoria, algumas dessas ferramentas são capazes de detectar fax,
identificar conexões PPP e detectar modems não-autorizados em uso nas máquinas da organização.
III. A possibilidade de automatização de escolha de rota, isto é, roteamento dinâmico, pode ser utilizada
para permitir que os dados sejam transmitidos em rotas fisicamente variáveis, garantindo que
informações que necessitam de segurança extra sejam transportadas em rotas cujos canais de
comunicação forneçam os níveis apropriados de proteção.
IV. Na sua instalação e utilização padrão, o SNMP (Simple Network Management Protocol), utilizado para
gerenciamento de equipamentos de rede, permite falhas de segurança relacionadas ao vazamento de
informações sobre o sistema, tabelas de rotas, tabelas ARP e conexões UDP e TCP.

Indique a opção que contenha todas as afirmações verdadeiras.

a) I e II
b) II e III
c) II e IV
d) I e III
e) III e IV

Comentários:

Gabarito C

Smurf

Smurf é um simples ataque baseado em IP spoofing e Broadcast. Um único


pacote, conhecido como ICMP Echo Request, é enviado como um broadcast
direcionado para uma subrede na Internet. Todos os computadores naquela
subrede responderão para esse broadcast direcionado. Neste caso, o IP de
origem deste broadcast direcionado certamente será trocado, através da técnica
spoofing, pelo endereço IP da vitima escolhida pelo hacker. Dessa maneira,
quando os computadores que receberem o broadcast direcionado, responderão
com ICMP Echo Reply para o endereço IP spoofed contido naquele broadcast.
Dependendo do número de computadores naquela subrede: dezenas, centenas
ou até milhares de pacotes ICMP Echo Reply serão enviado para o endereço IP
da vitima fazendo com que a conexão seja bloqueada ou simplesmente tornando a
conexão lenta demais. Essa técnica pode ser aplicada em conjunto com vários
outros hackers para que o efeito seja ainda maior e duradouro. Para a vitima não
há muito que fazer a não ser contatar o responsável pela subrede que esta
servindo de amplificador de Smurf.
War Dialer

War Dialer, discador de guerra, também conhecido como demon-dialing ou carrier-


scanning. A guerra de discagem (war-dialing) ficou conhecida em 1983 através do
filme War Games. É o processo de discar para todos os números de uma série até
encontrar uma máquina que responda. Este é habitualmente utilizado contra um
PBX ou na descoberta de modems com objetivo malicioso ou ainda para procurar
máquinas ligadas a redes telefônicas ou redes wireless desprotegidas, como
Terminal Servers, BBSs ou sistemas de Correio de voz.

Como muitas corporações possuem computadores desktop com modems


instalados; Hackers podem discar para tentar uma conexão com o desktop e,
depois disso, com a corporação. De forma semelhante, muitas empresas possuem
servidores com modems instalados, os quais não são considerados como parte do
esquema geral de segurança. Uma vez que, hoje em dia, a maior preocupação é
com os ataques vindos pela Internet, a guerra de discagem representa um risco a
ser considerado na infraestrutura de segurança.

Com base nas informações relacionadas à definição, implantação e gestão de


políticas de segurança, julga-se a veracidade de cada um dos itens.

O item I está incorreto, pois um ataque smurf explora exatamente erros de


configuração em roteadores que permitem a passagem de pacotes ICMP ou UDP
direcionados a endereços de broadcast transformando redes em amplificadores
destes. Uma medida de segurança é configurar o roteador de modo a não deixar
passar pacotes para endereços de broadcast por meio de suas interfaces de rede.

O item II está correto, pois o War dialer é habitualmente utilizado contra um PBX.
Este é uma ferramenta utilizada pelos hackers para a descoberta de modems com
objetivo malicioso, que também pode ser utilizada por auditores para fazer
auditoria de segurança de uma organização. Como ferramenta de auditoria,
algumas dessas ferramentas são capazes de detectar fax, identificar conexões
PPP e detectar modems não-autorizados em uso nas máquinas da organização.
O item III está incorreto, pois se refere à tecnologia de assinatura digital e não ao
roteamento dinâmico. Um das características da assinatura digital é o Controle de
Roteamento. A possibilidade de controlar o roteamento, especificando rotas
preferenciais (ou obrigatórias) para a transferência de dados, pode ser utilizada
para garantir que os dados sejam transmitidos em rotas fisicamente seguras ou
para garantir que a informação sensível seja transportada em rotas cujos canais
de comunicação forneçam os níveis apropriados de proteção.

O item IV está correto, pois, como visto em questões anteriores, a principal


deficiência do protocolo SNMP é que tem algumas falhas de segurança, que
podem dar acesso a intrusos da rede a informações que transitam pela mesma.
Os intrusos também poderiam desligar alguns terminais. A solução para este
problema é simples. Por causa da expansibilidade do SNMP, as versões SNMPv2
e SNMPv3, somou alguns mecanismos de segurança que ajudam a combater os
três principais problemas de segurança: privacidade de dados, prevenir os
intrusos de ganhar acesso à informação levada pela rede; autenticação, impedir
os intrusos de enviar falsos dados pela rede; e controle de acesso, que restringe
acesso de variáveis particulares a certos usuários, removendo assim a
possibilidade de um usuário derrubar a rede acidentalmente.

Potrebbero piacerti anche