Sei sulla pagina 1di 252

Sensoriamento Remoto

Prof. Dr. Nilson C. Ferreira

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 1


Conteúdo
1. Fundamentos de sensoriamento remoto: Radiação Eletromagnética, Interação
da Energia Solar com a Superfície da Terra, Comportamento espectral de alvos.

2. Sensores e satélites: aéreo, orbital, passivo e ativo.

3. Interpretação de imagens de sensores remotos: Introdução, Elementos de


Interpretação de imagens, Composições Coloridas, Como selecionar imagens de
satélites.

4. Processamento de imagens de sensores remotos: Aquisição de imagem, Leitura


de imagem, Georreferenciamento, Realce de imagem, Introdução à
Classificação, Respostas Espectrais de objetos, Estimativa da Exatidão da
Classificação, Segmentação de Imagem, Classificação de Imagem, Edição
Matricial.

5. Aplicações de dados de sensores remotos: No Estudo de Fenômenos


Ambientais, No Estudo de Ambientes Naturais e Transformados, Exemplos de
aplicações temáticas.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 2


Método de Avaliação
Serão aplicadas 2 provas e trabalhos, sendo:

• Duas provas bimestrais peso 1

• Trabalhos práticos. Cada aluno deverá elaborar várias etapas do


processamento de imagens de satélite, sendo que cada aluno terá uma
área geográfica de elaboração do trabalho. Em cada trabalho deve ser
elaborado um relatório técnico, em formato padrão, que deverá ser
encaminhado ao professor via e-mail. Este trabalho terá peso 0.5  t1.

• Nota final: NF = (p1*1 + p2*1 + ptn*0.5) / (soma dos pesos).

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 3


Bibliografia
• Apostila  Notas de Aula;

• Livros:
– Liu, W. T. H. Aplicações de sensoriamento remoto. Campo Grande: Ed. Uniderp, 2007. 881
p.: il.
– Moreira, M. A. Fundamentos do sensoriamento remoto e metodologias de aplicação 3.
ed. atual. e ampl. - Viçosa, MG : Ed. UFV, 2005 320 p. : il.
– Florenzano, T. G. Imagens de satélite para estudos ambientais. São Paulo: Oficina de
Textos, 2002 97 p. : il.
– Novo, E. M. L. de M. Sensoriamento remoto: princípios e aplicações 3.ed. São Paulo : E.
Blucher, 2008.
– Ponzoni, F. J. Sensoriamento remoto no estudo da vegetação. São Paulo : Parêntese, 2007
– Jensen, J. R. Sensoriamento Remoto Do Ambiente, editora Parentese, 2009.
– Schowengerdt, R. A. Remote Sensing: Models and Methods for Image Processing 3a.
Edition. Tucson, Arizona. Elsevier. 2007.

• Artigos científicos.

• Internet.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 4


Programas Computacionais
• gvSIG;

• SPRING;

• TerraView;

• ILWIS;

• QGIS;

• ArcGIS;

• ENVI;

• Erdas Imagine;

• IDRISI;

• Outros.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 5


Fundamentos de
Sensoriamento Remoto

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 6


Definição de Sensoriamento Remoto
Sensoriamento remoto é definido como a ciência de
obter informações sobre a superfície terrestre sem
entrar em contato com a mesma. Isso é feito através
da recepção e registro da energia refletida ou
emitida e do seu processamento, análise e aplicação
da informação.

7
Fonte : CCRS

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 7


O Processo
O processo de sensoriamento remoto
envolve 7 etapas, sendo elas :
• Fonte de energia ou iluminação (A)
• Radiação e atmosfera (B)
• Interação com o alvo (C)
• Registro da energia pelo sensor (D)
• Transmissão, recepção e
processamento (E)
• Interpretação e análise (F)
• Aplicação (G)
Fonte : CCRS

O sensoriamento remoto envolve uma interação entre a radiação incidente e os alvos de


interesse.
Isto é exemplificado pelo uso de sistemas de imageamento onde sete elementos são
envolvidos.
Observe, porém que o sensoriamento remoto também envolve a captura de energia 8
8
emitida e o uso de sensores não imageadores.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 8


O Processo
Fonte de energia ou iluminação (A) - A primeira necessidade do sensoriamento
remoto é possuir uma fonte de energia que ilumina ou fornece energia
eletromagnética para os alvos de interesses.
Radiação e atmosfera (B) - Como a energia viaja da sua fonte para o alvo, ela irá
ter contato e interagir com a atmosfera. Esta interação pode ocorrer uma segunda
vez quando a energia viaja do alvo para o sensor.
Interação com o alvo (C) - Uma vez que a energia faz seu caminho para o alvo
através da atmosfera, ela interage com o alvo, conforme as propriedades do alvo e
a radiação.
Registro da energia pelo sensor (D) - Após a energia ter sido espalhada pelo alvo,
ou emitida pelo alvo, um sensor (remoto - não em contato físico com o alvo) coleta e
registra a radiação eletromagnética.
Transmissão, recepção e processamento (E) - A energia registrada pelo sensor
tem que ser transmitida, sempre na forma eletronica, para uma estação de
recepção e processamento na Terra, onde os dados são processados e uma imagem
é gerada (em papel ou meio digital)
Interpretação e análise (F) - A imagem processada é interpretada, visualmente
e/ou digitalmente ou eletronicamente, para extrair informações sobre os alvos que
foram iluminados.
Aplicação (G) - O último elemento do processo de sensoriamento remoto é a
aplicação da informação extraída das imagens para melhor entende-la, para revelar
9
9
alguma nova informação ou auxiliar na solução de algum problema particular.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 9


Radiação Solar
• A radiação solar é a fonte de
energia para todos os processos
físico-químicos e biológicos que
ocorrem na superfície terrestre.
• Para o Sensoriamento Remoto, a
energia solar é a base dos princípios
em que se fundamenta essa ciência.
• O Sol é uma estrela constituída por
uma massa gasosa, contendo cerca
de 71% de hidrogênio e 26% de
hélio.
• A temperatura superficial média do
Sol é de 6000 K; entretanto, por
causa da pressão exercida por sua
massa colossal, a temperatura no
seu núcleo é de 15.000.000 K . • Dependendo da experiência que
for conduzida, a radiação pode
• Por ser reação que ocorre no núcleo revelar uma natureza corpuscular,ou
do átomo de hidrogênio, ela é se comportar como uma onda
denominada radiação. eletromagnética

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 10


Radiação Solar
MODELO CORPUSCULAR
• Descartes (1637) defendeu a teoria de que a luz se comportava como um
projétil que se propagava a uma velocidade infinita. Afirmou ainda, que a
propagação da luz se dava por meio de impulsos, ou seja, a luz era uma
espécie de perturbação que se propagava no meio.
• Isaac Newton, em 1672, defendeu uma teoria onde se considerava a luz
como um feixe de partículas que eram emitidas por uma fonte, e que
estas atingiam o olho, e assim estimulavam a visão.

TEORIA ONDULATÓRIA
• Christian Huygens (1678) definiu a luz com um movimento ondulatório
semelhante a propagação do som, do tipo mecânico, que necessita de um
meio material para se propagar.
• Entre 1800 e 1820, Thomas Young e Augustin Fresnel realizaram
experiências provando que a luz apresenta um comportamento de onda. A
partir desse momento a teoria corpuscular de Newton foi abandonada.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 11


Conceito de Ondas
• Ondas são perturbações periódicas, ou oscilações de partículas ou do
espaço, por meio das quais muitas formas de energia se propagam a partir
de suas fontes.
• A onda possui uma frequência e um comprimento. A frequência
corresponde ao número de vezes que ela passa por um ponto do espaço em
determinado intervalo de tempo, ou seja, ao número de oscilações que ela
emite por unidade de tempo em relação a um ponto. O comprimento indica
a distancia entre dois pontos semelhantes de onda, dado em metros.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 12


Conceito de Ondas
• Devido a ordem de grandeza do comprimento de onda e da frequência, é
comum utilizar unidades submúltiplos do metro para comprimento de
onda:
• Micrometro: 1 μm = 10-6 m,
• Nanômetro: 1 nm = 10-9 m
• Para frequência utiliza-se múltiplas do Hertz :
• Quilohertz: 1 kHz = 103 Hz, megahertz: 1 mHz = 106 Hz) para
frequência.
ONDAS ELETROMAGNÉTICAS
• As ondas eletromagnéticas são do tipo transversal e não necessitam de
um meio de propagação, ou seja, propagam-se até mesmo no vácuo.
• A onda eletromagnética é produzida toda vez que uma carga elétrica é
acelerada ou freada, ou seja, quando uma carga elétrica fica em
movimento.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 13


Radiação Eletromagnética
A primeira necessidade do sensoriamento remoto é ter
uma fonte de energia para a fonte iluminada ( a menos que
a energia esteja sendo emitida pelo alvo). Esta energia
está na forma de radiação eletromagnética.

A radiação eletromagnética consiste de um campo elétrico


(E) que varia em magnitude em uma direção perpendicular
Fonte : CCRS em que a radiação está viajando, e um campo magnético
(M) orientado em ângulos retos com o campo elétrico.
Estes dois campos viajam na velocidade da luz (C).

Fonte : CCRS Duas características da radiação eletromagnética são


importantes: Comprimento de onda e frequência.

Comp. de onda : é a distância entre sucessivas cristas da


onda.

Frequência : Refere-se ao número de ciclos de uma onda


passando em um ponto fixo por unidade de tempo.
Frequência é medida em hertz (Hz).
Fonte : CCRS 14
14

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 14


RADIAÇÃO ELETROMAGNÉTICA
Como foi observado anteriormente, o primeiro requerimento para o
sensoriamento remoto é uma fonte de energia para iluminar os alvos ( a
menos que a energia esteja sendo emitida pelos alvos). Esta energia está na
forma de radiação eletromagnética.
A radiação eletromagnética consiste de um campo elétrico (E) que varia em
magnitude em uma direção perpendicular a direção na qual a radiação está
viajando, e um campo magnético (M) orientado em ângulos retos com o
ângulo elétrico. Esses dois campos viajam na velocidade da luz.
Duas características da radiação eletromagnética são particularmente
importantes para se entender o sensoriamento remoto. Elas são o
comprimento de onda e a frequência.
O comprimento de onda é o comprimento de um ciclo de onda, que pode ser
medido como a distância entre sucessivas cristas. O comprimento de onda é
geralmente representado pela letra grega lambda (λ).
Portanto, frequência e comprimento de onda são inversamente
proporcionais. Os curtos comprimentos de onda possuem uma alta
frequência e os longos comprimentos de onda possuem baixa frequência. O
entendimento das característica da radiação eletromagnética em termos de
15
comprimento de onda e frequência é crucial para entender a informação a
15

ser extraída de dados de sensoriamento remoto.


Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 15
ESPECTRO ELETROMAGNÉTICO

Fonte : CCRS

Fonte : CCRS

16
16
Fonte : CCRS

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 16


Espectro Eletromagnético
O espectro eletromagnético varia dos comprimentos de ondas curtas (incluindo
raios gama e raios x) até os comprimentos de ondas longas (incluindo
microondas e ondas de rádio). Dentro deste espectro, existem várias regiões
que são úteis para o sensoriamento remoto.
A luz que nossos olhos (nossos sensores remotos naturais) podem detectar é a
parte visível do espectro. É importante reconhecer que a parte visível do
espectro é muito pequena comparada como a amplitude de todo o espectro
eletromagnético. Existe uma grande quantidade de radiação que é “invisível”
para nossos olhos, mas pode ser detectado por outros instrumentos de
sensoriamento remoto. Os comprimentos de onda visível cobrem uma faixa que
vai aproximadamente de 0.4 µm até 0.7 µm. O maior comprimento de onda
visível é o vermelho e o menor é o violeta. Os comprimentos de onda comuns
dos quais nós percebemos como cores da porção visível do espectro estão
listadas a seguir. É importante observar que esta é a única porção do espectro
que podemos associar com o conceito de cores
• Violeta: 0.4 - 0.446 µm
• Azul: 0.446 - 0.500 µm
• Verde: 0.500 - 0.578 µm
• Amarelo: 0.578 - 0.592 µm
• Laranja: 0.592 - 0.620 µm 17
17
• Vermelho: 0.620 - 0.7 µm

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 17


Espectro Eletromagnético

Fonte : CCRS
Fonte : CCRS

18
18

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 18


Espectro Eletromagnético
A próxima porção do espectro de interesse do sensoriamento remoto é a
região do infravermelho que cobre as amplitudes dos comprimentos de onda
que variam de aproximadamente 0.7 um até 100 um (mais que 100 vezes a
amplitude da porção visível). A região do infravermelho pode ser dividida em
duas categorias baseadas em suas propriedades, o infravermelho refletido
e o infravermelho emitido ou termal. A radiação na região do infravermelho
refletido é utilizado pelo sensoriamento remoto de maneira muito similar
que a radiação na porção visível. O infravermelho refletido cobre
comprimentos de ondas que variam aproximadamente de 0.7 um até 3.0 um.
A região do infravermelho termal é um pouco diferente que as porções do
visível e do infravermelho refletido, uma vez que esta energia é
essencialmente a radiação que é emitida pela superfície terrestre na forma
de calor. O infravermelho termal cobre comprimentos de ondas que variam
de 3.0 um até 100 um.
A porção do espectro de mais recentemente explorada pelo sensoriamento
remoto é a região das microondas que variam de 1 mm até 1 metro. Esta
porção cobre os maiores comprimentos de ondas usados pelo sensoriamento
remoto. Os menores comprimentos de ondas possuem propriedades similares
que a região do infravermelho termal enquanto que os grandes
comprimentos de onda aproximam-se dos comprimentos de onda utilizados
19
19
em rádio difusão.
Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 19
Espectro Eletromagnético
A energia eletromagnética é normalmente dividida em regiões ou faixas
espectrais, em termos de freqüência, ou comprimentos de onda.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 20


Espectro Eletromagnético
Radiação Gama: é emitida por materiais radioativos
e, por possuir alta energia, tem aplicações em
medicina (radioterapia) e em processos industriais
(radiografia industrial).

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 21


Espectro Eletromagnético
Raio X: é produzido através do freamento de
elétrons de grande energia eletromagnética. Seu
médio poder de penetração o torna adequado para
uso médico (raio X) e industrial (técnicas de
controle industrial).

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 22


Espectro Eletromagnético
Ultravioleta (UV): é produzida em grande
quantidade pelo Sol, sendo emitida na faixa de
0,003 μm até aproximadamente 0,38 μm. Seu poder
de penetração a torna nociva aos seres vivos, porém
esta energia eletromagnética é praticamente toda
absorvida pela camada de ozônio atmosférico.
Entre 10 nm e 400 nm, o ultravioleta é utilizado na
detecção de minerais por luminescência e poluição
marinha.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 23


Espectro Eletromagnético
Visível (LUZ): é o conjunto de radiações
eletromagnéticas que podem ser detectadas pelo
sistema visual humano. A sensação de cor que é
produzida pela luz está associada a diferentes
comprimentos de ondas.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 24


Espectro Eletromagnético
Infravermelho (IV): é a região do espectro que se
estende de 0,7 a 1000 μm e costuma ser dividida em
três subregiões:
– IV próximo: 0,7 a 1,3 μm
– IV médio: 1,3 a 6 μm
– IV distante: 6 a 1000 μm
O infravermelho próximo é encontrado no fluxo
solar ou mesmo em fontes convencionais de
iluminação (lâmpadas incandescentes), enquanto as
energias eletromagnéticas correspondentes ao
intervalo espectral do infravermelho médio e
distante (também denominadas de radiação termal)
são provenientes da emissão eletromagnética de
objetos terrestres.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 25


Espectro Eletromagnético
Microondas: são radiações eletromagnéticas
produzidas por sistemas eletrônicos (osciladores) e
se estendem pela região do espectro de 1mm até
cerca de 1m, o que corresponde ao intervalo de
frequência de 300GHz a 300MHz. Os feixes de
microondas são emitidos e detectados pelos
sistemas de radar (radio detection and ranging).

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 26


Espectro Eletromagnético – Denominações
• Espectro óptico: refere-se à região do espectro eletromagnético que
compreende as energias que podem ser coletadas por sistemas ópticos
(ultravioleta, visível e infravermelho).

• Espectro solar: refere-se à região espectral que compreende os tipos de


energia emitidas pelo Sol. Cerca de 99% da energia solar que atinge a
Terra encontra-se concentrada na faixa de 0,28 a 4 μm.

• Espectro visível: refere-se ao conjunto das energias eletromagnéticas


percebido pelo sistema visual humano, também denominado de luz.

• Espectro termal: refere-se ao conjunto das energias eletromagnéticas


emitidas pelos objetos terrestres e encontra-se nos intervalos
espectrais correspondente ao infravermelho médio e distante.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 27


Conceitos Radiométricos
• Para que se possa compreender melhor como se viabiliza a aplicação das
técnicas de Sensoriamento Remoto, faz-se necessária a apresentação de
pelo menos quatro parâmetros radiométricos. O primeiro deles, refere-
se à Irradiância. Em termos bastante simplificados, a Irradiância
representa a intensidade do fluxo radiante, proveniente de todas as
direções, que atinge uma dada superfície.
• Vale salientar que neste fluxo radiante estão contidos todos os diversos
comprimentos de onda que são radiados pela fonte, segundo suas
próprias características.
• Assim que um determinado fluxo radiante atinge uma superfície, ele
sofre três fenômenos: reflexão, transmissão e absorção. Estes
fenômenos são dependentes das características físico-químicas do
próprio objeto, que definem as intensidades de reflexão, transmissão e
absorção da REM em cada comprimento de onda incidente no objeto.
• ε=α+ρ+τ
sendo:
ε = Irradiância;
α = absorção
ρ= reflexão
τ = transmissão
Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 28
Conceitos Radiométricos
• Imaginando então somente a porção refletida pelo
objeto, um novo fluxo será originado em sentido
contrário ao incidente, mas nas mesmas direções. A
intensidade deste fluxo pode também ser
quantificada e é expressa pela chamada Excitância.
• Parte deste fluxo refletido (Radiância) pelo objeto
pode ser coletado por um sensor localizado
remotamente. O termo “parte” refere-se a dois
aspectos: um de ordem geométrica e outro de
ordem espectral. O de ordem geométrica refere-se
por sua vez ao fato de que não há instrumentos
capazes de registrar a Excitância, uma vez que
seria necessário o desenvolvimento de um sensor
que envolvesse todo o objeto, o que comprometeria
a incidência da REM.
• Evidentemente poderiam ser desenvolvidos métodos
que permitissem sua estimativa, mas outra solução
foi adotada. Para melhor compreender esta solução,
a Figura ao lado apresenta um esquema da
trajetória da REM proveniente de um ponto da
superfície de um objeto fictício.
Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 29
Conceitos Radiométricos
• Nota-se portanto a existência de dois principais aspectos intrínsecos às
técnicas de sensoriamento remoto: o aspecto espacial e o aspecto
espectral. Estes aspectos são comumente denominados de domínios
espacial e espectral, respectivamente.
• O domínio espacial é expresso pela resolução espacial do sensor, a qual é
definida como a menor área da qual o sensor é capaz de registrar a
REM. O domínio espectral refere-se à largura da faixa espectral que
este mesmo sensor é sensível. Faixas mais largas conferem uma
resolução espectral menor ao sensor. Contrariamente, elementos de
resolução espacial menores, conferem aos sensores maiores resoluções
espaciais.
• Existe ainda um terceiro domínio que é o domínio temporal, o qual
refere-se ao período de tempo compreendido entre duas coletas de
dados sobre uma mesma superfície do terreno. Este domínio é expresso
pela resolução temporal da plataforma que sustenta o sensor, podendo
ser ela uma haste portátil, uma aeronave ou até mesmo um satélite. Diz-
se que um sensor possui maiores resoluções temporais, quanto menores
forem os períodos de tempo entre as coletas de dados.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 30


Conceitos Radiométricos
• Pelo já exposto, pode ser verificado que a Radiância é também
dependente da intensidade do fluxo radiante que atinge o objeto
(Irradiância). Quanto maior for essa intensidade, maior também será
aquela referente ao fluxo que deixa o objeto, e consequentemente,
maior será a Radiância. Para que se conheça as propriedades intrínsecas
dos objetos em termos de sua interação com a REM, faz-se necessária a
apresentação de mais um conceito importante que é o da Reflectância.
• A Reflectância representa uma relação entre a Radiância refletida de
um dado objeto pela Irradiância. Nota-se portanto que a Reflectância
expressa as propriedades intrínsecas dos objetos em refletir a REM
sobre eles incidente. Ela é expressa em percentagem, possuindo então
um caráter relativo.
• É através da Reflectância que são estudadas as características
intrínsecas dos objetos em refletir a REM incidente, pois ela é
dependente das suas propriedades físico-químicas.
• Este estudo é denominado de estudo do Comportamento espectral de
alvos, cujos principais aspectos serão apresentados oportunamente.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 31


INTERAÇÕES COM A ATMOSFERA

Fonte : CCRS

Espalhamento

Fonte : CCRS

Trajetória da R.E.M pela atmosfera


Fonte : CCRS

Absorção 32
32

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 32


INTERAÇÕES COM A ATMOSFERA
Antes da radiação usada por sensoriamento remoto atingir a superfície terrestre,
ele deve viajar pela atmosfera da Terra. Partículas e gases na atmosfera podem
afetar a trajetória da radiação. Estes efeitos são causados por mecanismos
denominados espalhamento e absorção.
O espalhamento ocorre quando partículas ou grandes moléculas de gases presentes
na atmosfera interagem com a radiação eletromagnética e a fazem se redirecionar
a partir da sua trajetória inicial. A quantidade do espalhamento depende de vários
fatores incluindo o comprimento de onda da radiação, a abundância de partículas ou
gases, e a distância que a radiação viaja pela atmosfera. Existem 3 tipos de
espalhamentos que serão vistos em seguida.
A absorção é outro mecanismo que altera a trajetória da radiação quando ela
interage com a atmosfera. Este fenômeno é causado por moléculas que presentes
na atmosfera, absorvem energia em vários comprimentos de onda. Ozônio, dióxido
de carbono e vapor d´agua são os principais constituintes da atmosfera que
absorvem a radiação.
O ozônio serve para absorver a radiação ultravioleta (prejudicial para a maioria dos
seres vivos). Sem esta camada de proteção na atmosfera, nossa pele queimaria
quando exposta a luz do sol.
Muitas vezes se ouve que o dióxido de carbono está relacionado com o efeito
estufa. Isto ocorre pois o dióxido de carbono tende a absorver as radiações da
33
33
porção do infravermelho distante do espectro (aquela área associada com o termal)
que serve para reter este calor na atmosfera.
Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 33
INTERAÇÕES COM A ATMOSFERA

Fonte : CCRS
Fonte : CCRS

Espalhamento Rayleigh
Espalhamento Mie
Espalhamento não seletivo

34
34

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 34


INTERAÇÕES COM A ATMOSFERA
O espalhamento Rayleigh ocorre quando as partículas presentes na atmosfera
são muito menores que comprimentos de onda da radiação. Moléculas de
nitrogênio ou oxigênio e pequenas partículas de poeira poder causar o
espalhamento Rayleigh. Este tipo de espalhamento afeta principalmente os
pequenos comprimentos de onda e ocorrem predominantemente no topo da
atmosfera. O fato do céu parecer “azul”durante o dia é devido a este fenômeno.
Como a luz do sol passa pela atmosfera, os pequenos comprimento de onda (isto
é o azul e o violeta) do espectro visível são espalhados mais que os
comprimentos de onda maiores da porção visível do espectro eletromagnético.
No nascente e poente do sol a luz viaja um caminho maior pela atmosfera
comparada com o meio dia e o espalhamento dos pequenos comprimentos de
onda é mais completo.
O espalhamento Mie ocorre quando as partículas presentes na atmosfera são
do exato tamanho do comprimento de onda da radiação. Poeira, fumaça e vapor
d´agua são as causas comuns do espalhamento Mie, que tende afetar os longos
comprimentos de onda. O espalhamento Mie ocorre nas porções mais baixas da
atmosfera onde as grandes partículas são abundantes.
O espalhamento não-seletivo ocorre quando as partículas presentes na
atmosfera são muito maiores que o comprimento de onda da radiação. Gotas
d´agua e grandes partículas de poeira podem causar este tipo de espalhamento.
O espalhamento não-seletivo possui este nome pelo fato de todos os
comprimentos de ondas serem igualmente espalhados. Este tipo de
espalhamento é causado por nevoeiro e nuvens, e causa o aparecimento da 35cor
35
branca pois as luzes verde, vermelho e azul são espalhadas em quantidades
aproximadamente iguais.
Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 35
INTERAÇÕES COM A ATMOSFERA
O espalhamento Rayleigh é produzido, essencialmente, por moléculas de gases
constituintes da atmosfera.
As moléculas dos gases presentes na atmosfera terrestre (N2 ou O2 e pequenas
partículas de poeira) espalham mais eficientemente a energia eletromagnética
de menores comprimentos de ondas. Por exemplo, a luz azul é espalhada em
cerca de 5,5 vezes mais do que a luz vermelha porque tem comprimento de onda
menor que esta.
Porque o céu é azul durante o dia e vermelho no pôr-do-sol?

36
36

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 36


INTERAÇÕES COM A ATMOSFERA
O espalhamento Mie ocorre quando os diâmetros das partículas na atmosfera
são da mesma ordem ou próximos ao tamanho do comprimento de onda da
radiação. Poeira, fumaça e vapor d’água são as causas comuns do espalhamento
Mie que tende afetar os longos comprimentos de onda. O espalhamento Mie
ocorre nas porções mais baixas da atmosfera onde as grandes partículas são
abundantes.
Quando o tamanho das partículas na atmosfera deixa de ter influencia no
espalhamento este é denominado não-seletivo, isto é, ele vai se tornando
independente do comprimento de onda a medida que aumenta o tamanho das
partículas. Gotas d’água e grandes partículas de poeira podem causar este tipo
de espalhamento.
Este tipo de espalhamento é causado por nevoeiro e nuvens, e causa o
aparecimento da cor branca pois as luzes verde, vermelho e azul são espalhadas
em quantidades aproximadamente iguais.

37
37

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 37


INTERAÇÕES COM A ATMOSFERA
A absorção é um fenômeno termodinâmico que resulta na perda efetiva de
energia para os constituintes atmosféricos, ocorrendo de forma seletiva em
comprimentos de onda específicos, mas abrangendo todo o espectro óptico.
Consequentemente, esse processo irá influenciar todos os sensores cujas
bandas estejam abrangendo os comprimentos de absorção dos constituintes
atmosféricos.
O efeito é mais evidente nos sensores hiperespectrais porque esses abrangem
regiões espectrais de forte absorção, as quais são geralmente desprezadas nos
sensores multiespectrais, cujas bandas são posicionadas apenas nas “janelas
espectrais atmosféricas”. Essas janelas são regiões com pouca absorção dos
gases atmosféricos. Várias janelas existem na região de 0,4 – 2,5 mm, bons
exemplos são as estreitas regiões espectrais em volta de 0,85mm, 1,05mm e
1,25mm.

Janelas de absorção

38
38

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 38


INTERAÇÕES COM A ATMOSFERA
Os principais gases absorvedores da radiação eletromagnética são
vapor d’água (H2O), oxigênio (O2), ozônio (O3) e gás carbônico (CO2).
Os gases CO, CH4, NO e N2O ocorrem em pequenas quantidades e
também exibem espectros de absorção.
Cerca de 70% da energia solar está concentrada na faixa espectral
compreendida entre 0,3 e 0,7 μm e como a atmosfera absorve
muito pouco nesta região, grande parte da energia solar atinge a
superfície da Terra.
Também existem regiões no espectro eletromagnético para os quais
a atmosfera é opaca (absorve toda a energia eletromagnética).
Existem regiões do espectro eletromagnético onde a atmosfera
quase não afeta a energia eletromagnética, isto é, a atmosfera é
transparente à energia eletromagnética proveniente do Sol ou da
superfície terrestre. Estas regiões são conhecidas como janelas
atmosféricas. Nestas regiões são colocados os detectores de
energia eletromagnética, e portanto onde é realizado o
sensoriamento remoto dos objetos terrestres.
39
39

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 39


INTERAÇÕES COM A ATMOSFERA
Janelas atmosféricas

Fonte : CCRS

Somente 50% da radiação que deixa o


Sol chega na Terra.
40
40

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 40


INTERAÇÕES COM A ATMOSFERA
Como pôde ser observado anteriormente, a atmosfera exerce uma grande
influência sobre a energia eletromagnética, porém algumas áreas do
espectro não são severamente influenciadas pela absorção atmosférica e
portanto, são úteis para os sensores remotos, essas áreas são chamadas
de janelas atmosféricas. Comparando as características das duas fontes
de energia/radiação mais comuns ( o sol e a Terra) com as janelas
atmosféricas disponíveis para nós, podemos definir aqueles comprimentos
de ondas que podem ser usados mais efetivamente pelo sensoriamento
remoto. A porção visível do espectro, para a qual o olho humano é mais
sensível, corresponde ao pico de energia do sol e ao pico da janela
atmosférica. Observe também que o calor da energia emitida pela Terra
corresponde a janela de aproximadamente 10 um na porção do
infravermelho termal da porção do espectro, enquanto a grande janela em
comprimentos de ondas além de 1 mm está associada com a região das
microondas.
Agora que entendemos como a energia eletromagnética faz sua jornada
de sua fonte até a superfície (e como foi visto é uma viagem difícil)
examinaremos a seguir o que acontece com a radiação quando ela chaga
até a superfície terrestre. 41
41

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 41


INTERAÇÕES COM A ATMOSFERA

42
42

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 42


Interações com o Alvo

Fonte : CCRS
Fonte : CCRS

Fonte : CCRS
Fonte : CCRS
43
43

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 43


Interações com o Alvo
A radiação que não é absorvida ou espalhada na atmosfera pode atingir e interagir com
a superfície terrestre. Existem três formas de interação que podem ocorrer onde a
energia atinge, ou é incidente na superfície da Terra. Elas são : absorção (A),
transmissão (T) e reflexão (R). A energia irá interagir com a superfície em uma ou
mais dessas três formas de interação. As proporções de cada interação dependerá do
comprimento de onda da energia e das condições e características do material presente
na superfície terrestre.
A absorção (A) ocorre quando a radiação é absorvida pelo alvo enquanto a transmissão
(T) ocorre quando a radição passa através do alvo. A reflexão (R) ocorre quando a
radiação realiza uma “colisão” com o alvo e é redirecionada. Em sensoriamento remoto,
o objetivo é medir a radiação refletida pelos alvos. Será visto dois tipos de reflexão,
que representa os dois lados extremos dos modos com que a energia é refletida pelos
alvos : a reflexão especular e a reflexão difusa.
Quando um superfície é suave obtém se a reflexão especular ou (mirror-like) onde toda
(ou a maioria) da energia é direcionada a partir da superfície em uma única direção. A
reflexão difusa ocorre quando a superfície é rugosa e a energia é refletida em todas as
direções. Se um alvo possui reflexão especular ou difusa ou alguma coisa entre essas
reflexões, depende da rugosidade da superfície e do comprimento de onda da radiação
recebida. Se os comprimentos de ondas são menores que as variações da superfície, a
reflexão difusa dominará. Por exemplo, uma superfície composta por areia fina
apareceria suave para longos comprimentos de ondas (microondas) mas apareceria
rugosa para comprimentos de ondas da faixa visível do espectro. 44
44

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 44


Interações com o Alvo
Tipos de reflexão

Especular, na qual Lambertiana,


radiação incidente Radiação incidente
é refletida na no qual é igualmente
frente. espalhados em todas
as direções para
cima.

Refletor de canto, Volume


que atua como um espalhamento, em
espelho vertical, que (neste exemplo)
especialmente em galhos e folhas
comprimentos de produzem dispersão
onda das primária e
microondas. secundária.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 45


Interações com o Alvo
 Os objetos da superfície terrestre como a vegetação, a água e o solo
refletem, absorvem e transmitem radiação eletromagnética em
diferentes proporções;
 Esse comportamento espectral das diversas substâncias é denominado
assinatura espectral e é utilizado em Sensoriamento Remoto para
distinguir diversos materiais entre si.

Ei(λ) = ER(λ) + EA(λ) + ET(λ)


Ei(λ) = Energia incidente

ER(λ) = Energia Refletida

EA(λ) = Energia Absorvida ET(λ) = Energia Transmitida

Interação básica da energia eletromagnética com uma feição da superfície terrestre.


(Fonte: Lillesand e Keifer, 1995)

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 46


Interações com o Alvo
Folhas
clorofila reflete comprimentos de onda
verde.
folhas sadias reflete infravermelho
próximo
Fonte : CCRS

Água
Reflete os curtos comprimentos de onda.
Sedimentos em suspensão (S) podem
refletir longos comprimentos de onda
Fonte : CCRS Presença de algas pode refletir o verde
47
47

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 47


Interações com o Alvo
Os objetos interagem de maneira diferenciada espectralmente com a energia
eletromagnética incidente, pois os objetos apresentam diferentes propriedades
físico-químicas e biológicas. Estas diferentes interações é que possibilitam a
distinção e o reconhecimento dos diversos objetos terrestres sensoriados
remotamente, pois são reconhecidos devido a variação da porcentagem de
energia refletida em cada comprimento de onda.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 48


Interações com o Alvo
O conhecimento do comportamento espectral dos objetos terrestres é
importante para a escolha da região do espectro sobre a qual pretende-se
adquirir dados para determinada aplicação. As características básicas
observadas no comportamento espectral destes objetos são:
• A vegetação sadia apresenta alta absorção da energia eletromagnética na
região do espectro visível, que é capturada pela clorofila para a realização
da fotossíntese. Dentro do espectro visível a absorção é mais fraca na
região que caracteriza a coloração da vegetação. A alta reflectância no
infravermelho próximo (até 1,3 μm) é devido a estrutura celular, sendo
que a partir deste comprimento de onda é o conteúdo de água na
vegetação quem modula as bandas de absorção presentes no
comportamento espectral desta.
• O comportamento espectral de rochas é resultante dos espectros
individuais dos minerais que as compõem. Os minerais apresentam
características decorrentes de suas bandas de absorção. Portanto a
absorção é o principal fator que controla o comportamento espectral das
rochas.
• O comportamento espectral dos solos é também dominado pelas bandas de
absorção de seus constituintes. As combinações e arranjos dos materiais
constituintes dos solos é que define o seu comportamento espectral,
sendo que os principais fatores são a constituição mineral, a matéria
49
49
orgânica, a umidade e a granulometria (textura e estrutura) deste.
Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 49
Interações com o Alvo
• A água pode-se apresentar na natureza em três estados físicos, os quais
apresentam comportamento espectral totalmente distintos. O
comportamento espectral da água líquida pura apresenta baixa
reflectância (menor do que 10%) na faixa compreendida entre 0,38 e
0,7μm e máxima absorção acima de 0,7μm. O comportamento espectral de
corpos d’água é modulado principalmente pelos processos de absorção e
espalhamento produzidos por materiais dissolvidos e em suspensão neles,
pois é verificado que a presença de matéria orgânica dissolvida em corpos
d’água desloca o máximo de reflectância espectral para o verde-amarelo,
enquanto que a presença de matéria inorgânica em suspensão resulta num
deslocamento em direção ao vermelho.
• O comportamento espectral de nuvens apresenta elevada reflectância
(em torno de 70%), em todo o espectro óptico com destacadas bandas de
absorção em 1, 1,3 e 2 μm.

50
50

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 50


Interações com o Alvo - Vegetação

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 51


Interações com o Alvo – Água e Área Urbana

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 52


Interações com o Alvo – Solos

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 53


Sensores e Satélites

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 54


Sensores Remotos
• 1858 o Corpo de Engenharia da França utilizou fotografias tomadas a
partir de balões para o mapeamento topográfico.
• 1909, os irmãos Wright tomaram fotografias aéreas a partir de avião
sobre o território italiano.
• 1930, as fotografias aéreas coloridas se tornaram disponíveis.
• 2a Guerra, começaram estudos sobre o processo de interação da radiação
no infravermelho com os objetos com a finalidade de detecção de
camuflagem.
• 1956 foram iniciadas as primeiras aplicações sistemáticas de fotografias
aéreas para o mapeamento de formações vegetais nos Estados Unidos

55
55

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 55


Sensores Remotos
• 1958, no Brasil foram obtidas as primeiras fotografias aéreas na escala
1:25 000 com o propósito de levantar as características da Bacia Terciária
do Vale do Rio Paraíba.
• 1960, termo sensoriamento remoto apareceu pela primeira vez na
literatura científica.
• Na década de 1960 os sistemas radares no sensoriamento remoto se
tornaram operacionais.
• A partir de 1970 teve início o Projeto Radar na Amazônia (RADAM) que
permitiu o levantamento de 8,5 milhões de Km2 do território nacional até o
fim da década de 1980. Esse levantamento foi feito pelo sistema GEMS
(Goodyear Eletronic Mapping System) operando na banda X
(Trevett,1986).
• A década de 1960 também assistiu ao advento dos sistemas orbitais de
sensoriamento remoto, com fins de meteorologia.
• Na década de 1970 é lançado o primeiro satélite experimental de
levantamento de recursos terrestres (Earth Resources Technology
Satellite), posteriormente esse satélite passou a se chamar Landsat, e
atualmente está na sua 7ª edição.
• Em 1978 é lançado o primeiro sistema orbital de radar, o SeaSat, para
monitorar os oceanos. Posteriormente, foram lançados o soviético Almaz 56
56
(1990), o europeu ERS-1 (1991), o japonês JERS-1 (1992) e o canadense
RADARSAT (1995).
Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 56
Sensores Remotos
• Atualmente existe um grande número de satélites de sensoriamento remoto.
Missão Lançamento País
ADEOS-2 2000 Japão
ALOS 2002 Japão
ARIES 2001 Austrália
CBERS-1 1999 China/Brasil
CBERS-2 2001 China/Brasil
EOS-AM1 1999 USA
EOS-PM1 2000 USA
EO-1 2000 USA
EROS-A2 2001 Israel
ERS-2 1995 ESA
Envisat 2001 ESA
Ikonos-2 1999 USA
IRS-P5 2002 Índia
IRS-P6 2001 Índia
KITSAT-3 1999 Coréia
Landsat-5 1984 USA
Landsat-7 1999 USA
LightSar 2002 USA
QuickBird-1 2000 USA
QuickBird-2 2001 USA
Radarsat-1 1995 Canadá
Radarsat-2 2001 Canadá
Spot-2 1990 França
Spot-4 1998 França 57
57
Spot-5 2002 França
OrbView-3 2000 USA
•OrbView-4 2001 USA Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 57
Sensores Remotos

• Um satélite para ser lançado necessita de


um VLS (Veículo Lançador de Satélites).
• Em um único satélite ou aeronave, podem
haver vários sensores em operação, com é o
caso do satélite Terra/NASA e a aeronave 58
58
R99B/SIPAM .

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 58


Sensores Remotos

Satélite Terra, que leva a bordo cinco sensores: CERES, MOPITT,


MIRS, MODIS e ASTER.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 59


Sensores Remotos

Lançamento do satélite CBERS 2. Em órbita em 13 minutos.


Altitude 778 km.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 60


Sensores Remotos
O satélite, normalmente é composto por três grandes partes: 1) a plataforma, que
contém todos os equipamentos para o funcionamento do satélite; 2) o painel solar, para o
suprimento de sua energia; e 3) a carga útil, os equipamentos (antenas, sensores,
transmissores). As formas mais comuns de satélite (plataforma) são
em cubo e em cilindro. O tamanho varia de 1 metro a 5 metros de comprimento e o peso,
de 500 quilos a 3.000 quilos.

O satélite CBERS (China-Brazil Earth Resources Satellite), desenvolvido pela


parceria entre Brasil e China, com destaque para os seus principais componentes.
Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 61
Sensores Remotos - Órbitas

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 62


Sensores Remotos - Órbitas
• Uma órbita é considerada geoestacionária quando esta órbita é circular e
se processa exatamente sobre o equador da Terra, nos pontos de latitude
zero e a sua rotação acompanha exatamente a rotação da Terra. Desta
forma , para um observador que estiver situado sobre a superfície, “verá
“que um satélite pertencente a uma órbita geoestacionária, permanece
sempre na mesma posição.

• Um satélite em órbita polar passa sobre (ou quase sobre) ambos os pólos
do planeta (ou outro corpo celestial) em cada uma de suas revoluções. Dessa
forma, essa órbita tem uma inclinação igual ou próxima a 90º em relação ao
equador. Como o satélite tem o plano orbital fixo e perpendicular a rotação
do planeta, ele vai passar sobre uma região com longitude diferente a cada
uma de suas órbitas. As órbitas consecutivas polares são ascendentes e
descendentes, pois o satélite viaja em direção ao Pólo Norte num lado da
Terra e em seguida em direção ao Pólo Sul do outro, até recobrir toda a
superfície do planeta. No caso de órbitas heliosíncrona ou sol-sincrona,
satélite passa sobre cada área da Terra num mesmo horário do dia.

• A largura da órbita é a porção que o sensor a bordo do satélite “vê” (ou


gera a imagem) da superfície do terreno no seu trajeto ao redor da Terra.
A largura varia de dezenas, centenas e milhares de quilômetros.
Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 63
Sensores Remotos
Os sensores cobrem
faixas de imageamento
da Terra, cuja largura
depende do ângulo de
visada do sensor, (em
inglês FOV - Field of
View). O sensor
Thematic Mapper (TM)
do satélite LANDSAT
cobre uma faixa de 185
km, o sensor Charge
Coppled Device (CCD)
do satélite SPOT cobre
uma faixa de 60 km, o
sensor. Estas faixas
são dispostas ao longo
da órbita e são
varridas, pelo sensor,
em linhas transversais
ao sentido da órbita.
Na varredura das
linhas, dois processos
64
64
são utilizados:

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 64


Sensores Remotos
a) Varredura por espelho, que se baseia no princípio da técnica de
imageamento de scanners multispectrais lineares. A REM refletida da
superfície dos objetos / alvos incide sobre um espelho móvel de face plana,
montado com um ângulo de 45º sobre um eixo mecânico que imprime um
movimento oscilatório ao espelho, de tal forma que a superfície do terreno é
varrida em linhas perpendiculares à direção de deslocamento do satélite,
permitindo o imageamento seqüencial de linhas da superfície do terreno. A REM
refletida no espelho é direcionada para o interior do sensor onde é processada
para dar origem às imagens. O sensor TM utiliza este processo;

b) Imageamento por matriz de detectores, ao invés do espelho, uma matriz de


detectores cobre toda a largura da faixa de imageamento. Os detectores são
dispostos em linhas que formam a matriz. O sensor CCD (SPOT) utiliza este
processo.
Em ambos processos a REM é decomposta em faixas denominadas bandas
espectrais e as linhas são fracionadas em pequenas parcelas quadradas da
superfície terrestre, denominadas pixel.

Nestes dois casos anteriormente descritos, os sensores dependem da REM


produzida pelo Sol e refletida pelos alvos na superfície terrestre. Estes
sensores são portanto passivos, no entanto, existem sensores capazes de
65
65
produzir sua própria REM, sendo portanto denominados de sensores ativos.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 65


Sensores Remotos

66
66

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 66


Sensores Ativos e Passivos
Radiação Refletida
e/ou Emitida

Fluxo de Radiação Emitido

Fonte de Radiação

Sensor Passivo
Fonte : CCRS

Fluxo de Radiação Fonte : CCRS


Refletido
Sensor Ativo

67
Laser Scanner
67

Sensor Ativo
Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 67
Sensores Ativos e Passivos
Em muitas partes deste capítulo, o sol foi citado como sendo uma fonte de
energia ou radiação. O sol é uma fonte muito consistente de energia para o
sensoriamento remoto. A energia do sol é refletida (como é no caso de
comprimentos de ondas visíveis), ou é absorvida e então re-emitida (como é
o caso de comprimentos de ondas termais). Os sistemas sensores que
medem a energia naturalmente disponível são chamados de sensores
passivos. Os sensores passivos dependem que ocorra a iluminação da
superfície da Terra pelo sol, porém é possível capturar durante a noite, a
energia naturalmente emitida pela Terra (infravermelho termal), desde que
exista quantidade suficiente de energia para ser gravada.
Os sensores ativos, por outro lado, possuem sua própria fonte de radiação
eletromagnética para iluminação. O sensor emite radiação que é direcionada
para o alvo que se deseja investigar. A radiação refletida pelo alvo é
detectada e medida pelo sensor. As vantagens destes tipos de sensores
incluem a capacidade de obter medida a qualquer momento, sem necessitar
do sol. Os sensores ativos podem ser utilizados para examinar
comprimentos de ondas que não são suficientemente fornecidos pelo sol,
como as microondas. Porém, os sensores ativos necessitam gerar uma
grande quantidade de energia para iluminar adequadamente os alvos.
68
68

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 68


Sensores Não Imageadores
Radiômetros utilizados em campo

Radiômetros e
espectrometros são
sensores não-
imageadores. São
utilizados no estudo
do comportamento
dos alvos.

69
69

Esquema deAmbiental
Eng. um espectrômetro
– Prof. Dr. Nilson C. Ferreira 69
Sensores Ativos e Passivos
Radiômetros
Sensores Magnéticos
Não-Imageadores
Espectrometros
Thermopoint
Não-Varredura

Imageadores Monocromáticos
Passivos Multiespectrais

Câmeras de TV
Varredura Scanners CCD´s
Eletro-ópticos mecânicos
Sensores

Radiômetros de microondas
Não-Varredura Laser
Altímetros de microondas
Ativos

Radar de Abertura Real (RAR)


Varredura
Radar de Abertura Sintética (SAR)

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 70


Sensores Ativos e Passivos
Resoluções de imagens de sensores passivos
Resolução Espectral
Resolução Espacial

Resolução Radiométrica

Resolução Temporal

Imageamento em 24 horas

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 71


Sensores Ativos e Passivos
A decisão do tipo de imagem à ser utilizada em alguma aplicação específica,
é necessário o conhecimento detalhado dos objetivos que se deseja
alcançar e também as características das imagens produzidas pelo sensor.
Em aplicações em que o tempo é importante, por exemplo, se o objetivo for
o de mapear rápida e sistematicamente alterações na superfície do tempo,
ao longo do tempo, provavelmente, o mais desejado sejam imagens de
sensores com alta resolução temporal.
Quando se deseja realizar mapeamento com grande detalhamento e
acurácia espacial, provavelmente imagens de sensores com alta resolução
espacial sejam mais indicadas. Imagens de alta resolução espacial devem
também ter alta resolução radiométrica, pois imagens com baixa resolução
radiométrica podem ter a qualidade espacial degradada.
Em aplicações onde o objetivo é distinguir vários tipos de objetos da
superfície terrestre e ainda, avaliar suas qualidades fisico-quimico e
biológicas, os sensores de alta resolução espectral são mais indicados.
Outro fator importante são os custos das imagens, atualmente é possível
encontrar grande quantidade de imagens distribuídas gratuitamente na
Internet, sendo que o INPE no Brasil, possui uma das melhores políticas de
distribuição gratuita de imagens de sensoriamento remoto em nível mundial.
72
72
As imagens de alta resolução espacial e espectral ainda apresentam custos
de aquisição, que podem ser altos conforme a área a ser imageada.
Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 72
Características das Imagens

Foto aérea Pixel

Fonte : CCRS
Fonte : CCRS

Imagem Preto e Branco Imagem Colorida

Fonte : CCRS Fonte : CCRS 73


73

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 73


Características das Imagens
A energia eletromagnética pode ser detectada fotograficamente ou
eletronicamente. O processo fotográfico usa reações químicas sobre a superfície
de um filme foto-sensível para detectar e gravar as variações de energia. É
importante a distinção entre os temas imagens e fotografias em sensoriamento
remoto. Imagem refere a qualquer representação pictórica, sem levar em
consideração os comprimentos de ondas e quais os dispositivos de sensoriamento
remoto utilizados para detectar e armazenar a energia eletromagnética. Uma
fotografia se refere especificamente a imagens que foram detectadas e gravadas
utilizando-se filmes fotográficos. As fotos são normalmente produzidas por
comprimentos de ondas que variam de 0.3 µm até 0.9 µm. Baseado nestas
definições é possível dizer que todas as fotografias são imagens, mas nem todas
imagens são fotografias. Portanto, a menos que estamos falando especificamente
sobre imagens registradas fotograficamente, devemos utilizar o termo imagem.
Uma fotografia pode também ser representada e exibida em um formato digital
subdividindo a imagem em pequenos pedaços denominado picture elements ou
pixels, e representando o brilho de cada pixel com um valor numérico ou número
digital. O computador pode então exibir cada valor digital com diferentes níveis de
brilhos.
Nós podemos ver os objetos coloridos porque nossos olhos detectam todos os
comprimentos de ondas visíveis e nosso cérebro processa a informação em cores
separadas. Você pode imaginar como veriamos a mundo se nós somente pudessemos
ver em uma estreita faixa de comprimentos de ondas ou cores? É exatamente
desta forma que os sensores trabalham. A informação de uma estreita faixa do
espectro é captura e armazenada em um canal ou banda. Então combinamos74 e
exibimos os canais digitalmente usando as três cores primárias (Azul, Verde e
Vermelho) e assim temos uma imagem colorida.
Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 74
Resolução Espacial e Escala
Fonte : CCRS

IFOV - A menor parte do FOV


IFOV - Determina a resolução
Fonte : CCRS espacial da imagem

Intantaneous Field of
View - IFOV Fonte : CCRS

Imagem de Baixa Resolução


Espacial
Escala de menor detalhe

Imagem de Alta Resolução


Espacial
Escala de maior detalhe
75

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 75


Resolução Espacial e Escala
Para alguns instrumentos de S. R., a distância entre o alvo e a plataforma, determina o detalhe da
informação obtida e a área total imageada pelo sensor. Sensores em plataformas distantes de
seus alvos, tipicamente imageam uma grande área, mas não podem fornecer grandes detalhes.
Compare o que um astronauta em uma nave espacial observa da Terra e o que podemos ver de um
avião. O astronauta pode ver uma grande área ou todo um país, mas não pode distinguir casas
individuais. Voando sobre uma cidade, podemos ver casas individuais e também carros, mas vemos
uma área muito menor que a área que o astronauta visualiza. Esta diferença similar existe entre
fotos aéreas e imagens de satélite.
O detalhe compreensível em uma imagem depende da resolução espacial do sensor e se refere ao
tamanho da menor feição possível que pode ser detectada. A resolução espacial dos sensores
passivos depende primeiramente do seu IFOV - Instantaneus Field of View. O IFOV é o cone
angular de visibilidade do sensor (A) e determina a área na superfície terrestre que é observada
em uma dada altitude em um momento particular no tempo (B). O tamanho da área visualizada é
determinado multiplicando o IFOV pela distância entre o terreno e o sensor (C). Esta área no
terreno é denominada resolução da célula e determina a resolução espacial máxima do sensor.
Para objetos homogêneos serem detectados, seu tamanho geralmente deve ser igual ou maior que
a resolução da célula. Se o objeto é menor que a resolução da célula, ele pode não ser detectável
pois o brilho médio de todos os objetos na célula de resolução serão registrados. Porém, pequenos
objetos podem algumas vezes ser detectados se suas reflectâncias dominarem em uma célula de
resolução particular.
Imagens onde somente grandes objetos são visíveis são chamadas de imagens de baixa resolução.
Em imagens de alta resolução, pequenos objetos podem ser detectados. Sensores militares por
exemplo, são projetados para visualizar o maior detalhe possível, e portanto possuem alta
resolução. Satélites comerciais fornecem imagens com resoluções que variam de alguns metros até
vários quilômetros.
A razão da distância em uma imagem ou mapa, em relação ao terreno é chamada de escala. Se um
mapa tem a escala 1:100000, um objeto de 1 cm de comprimento no mapa é um objeto de 100000 76
cm (1km) no terreno. Mapas ou imagens com pequenas razões (mapa-terreno) são referenciados
como mapas de pequenas escala ( ex: 1:100000) e aqueles com grandes razões (ex: 1:5000) são
chamados de grandes escalas.
Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 76
Características de Alguns Sensores Passivos

77
77

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 77


Os Satélites do Programa Landsat

Landsat 8
2013

O Programa Landsat iniciou nos Estados Unidos, vinculado com a corrida espacial.
As missões Apolo induziram o programa Landsat, pois durante os testes do
programa Apolo, foram tomadas várias fotografias da superfície terrestre.
Em 1965, a NASA começou investigações metodológicas de sensoriamento remoto
da Terra usando instrumentos implantados em aviões. Em 1966, o USGS estimulou
o governo americano em avançar com o seu próprio programa de observação da
Terra por satélite.
Finalmente, em 1970 a NASA teve permissão para construir um satélite.
Surpreendentemente, em apenas dois anos, Landsat 1 foi lançado, anunciando uma
nova era de sensoriamento remoto da terra do espaço. 78
78
Desde então, os satélites do Programa Landsat se tornaram uma referência
na história do Sensoriamento Remoto.
Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 78
Os Satélites do Programa Landsat
Satélite Sensores Res. Espacial (m) Altitude (km) Res. Temporal (dias)
Landsat 1 RBV e MSS 80 e 80 917 18
Landsat 2 RBV e MSS 80 e 80 917 18
Landsat 3 RBV e MSS 40 e 80 917 18
240 (termal)
Landsat 4 * MSS e TM 80 e 30 705 16
120 (termal)
Landsat 5 MSS e TM 80 e 30 705 16
120 (termal)
Landsat 6 ** ETM 15 (Pancromática) 705 16
30 (Multiespectral)
Landsat 7 *** ETM+ 15 (Pancromática)
30 (Multiespectral) 705 16
60 (termal)
*  A transmissão do sensor TM falhou em agosto de 1993
**  O lançamento do satélite não ocorreu devido a problemas com o VLS
***  O sensor ETM+ em maio de 2003
RBV  Return Beam Vidicon
MSS  Multiespectral Scanner System 79
79
TM  Thematic Mapper
ETM  Enhanced Thematic Mapper
Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 79
Os Sensores dos Satélites Landsat
Satélite Sensor Banda Res. Satélite Sensor Banda Res.

0.48 – 0.57 Green 80 0.50 - 0.60 Green 82


LANDSAT 1 e 2 RBV 0.58 – 0.68 Red 80 LANDSAT 4 e 5 MSS 0.60 – 0.70 Red 82
0.70 – 0.83 NIR 80 0.70-0.80 NIR 82
0.80 -1.10 MIR 82
0.50 – 0.60 Green 79
MSS 0.60 – 0.70 Red 79 TM 0.45 – 0.52 Blue 30
0.70 – 0.80 NIR 79 0.52 – 0.60 Green 30
0.80 – 1.1 MIR 79 0.63 – 0.69 Red 30
0.76 – 0.90 NIR 30
1.55 – 1.75 MIR 30
10.4 – 12.5 TIR 120
2.08 – 2.35 MIR 30
RBV 0.505 - 0.75 Red/NIR 40 0.45 – 0.52 Blue 30
LANDSAT 3 MSS 0.50 - 0.60 Green 79 LANDSAT 7 ETM+ 0.52 – 0.60 Green 30
0.60 – 0.70 Red 79 0.63 – 0.69 Red 30
0.70-0.80 NIR 79 0.76 – 0.90 NIR 30
0.80 -1.10 MIR 79 1.55 – 1.75 MIR 30
10.4 – 12.6 TIR 240 10.4 – 12.5 TIR 60
2.08 – 2.35 MIR 30
PAN 0.50 – 0.90 15

NIR  Infravermelho próximo (Near Infrared)


MIR  Infravermelho médio
PAN  Pancromático
TIR  Infravermelho termal
80
80
Cada cena Landsat MSS ou TM tem 185 km por 185 km

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 80


As Bandas do Sensor TM  Landsat 5
Banda 1 (0,450 - 0,520 цm) Azul
Útil para mapeamento de águas costeiras,
diferenciação entre solo e vegetação,
mapeamento de florestas e detecção de feições
culturais (mancha urbana, rodovias, etc.).

Banda 2 (0,520 - 0,600 цm) Verde


Apresenta grande sensibilidade à presença de
sedimentos em suspensão, possibilitando sua
análise em termos de quantidade e qualidade.
Corresponde à reflectância da vegetação verde
e sadia. Também é útil para identificação de
feições culturais.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 81


As Bandas do Sensor TM  Landsat 5
Banda 3 (0,630 - 0,690 цm) Vermelho
Útil para discriminação entre espécies de
plantas e delinear solo e feições culturais.
Permite um bom contraste entre áreas
ocupadas com vegetação e aquelas sem
vegetação. Apresenta bom contraste entre
diferentes tipos de cobertura vegetal. Permite
o mapeamento da drenagem. É a banda mais
utilizada para delimitar a mancha urbana,
identificar áreas agrícolas e mapear
desmatamentos.

Banda 4 (0,760 - 0,900 цm) Infravermelho


próximo
Permite estimar a quantidade de biomassa de
vegetação. É útil para identificação de culturas
agrícolas, enfatizando a diferenciação
solo/agricultura e água/solo. Apresenta
sensibilidade à morfologia do terreno,
permitindo a obtenção de informações sobre
Geomorfologia, Solos e Geologia. Serve para
separar e mapear áreas ocupadas com pinus e
eucalipto, áreas queimadas e desmatadas.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 82


As Bandas do Sensor TM  Landsat 5
Banda 5 (1,550 - 1,750 цm) Infravermelho
médio
Apresenta sensibilidade ao teor de umidade das
plantas, servindo para observar o stress hídrico
da vegetação. Esta banda sofre perturbações
em caso de ocorrer excesso de chuva antes da
obtenção da cena pelo satélite. Pode ser usada
para discriminação entre nuvens, neve e gelo.
Banda 6 (10,40 - 12,50 цm) Infravermelho
termal
Apresenta sensibilidade nos fenômenos
relativos aos contrastes térmicos, servindo
para detectar propriedades termais de rochas,
solos, vegetação e água. Útil para avaliações de
stress em plantas, intensidade de calor,
aplicações de inseticida e estudos de atividade
geotermal.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 83


As Bandas do Sensor TM  Landsat 5
Banda 7 (2,080 - 2,350 цm) Infravermelho
médio
Apresenta sensibilidade à morfologia do
terreno, permitindo obter informações sobre
Geomorfologia, Solos e Geologia. Útil para a
discriminação de tipos de rochas e estudo de
solos, como também para estudar o conteúdo
da umidade e da vegetação do solo.

Banda 8 (0,53 – 0.90 цm) Pancromática


A banda pancromática cobre os comprimentos
de onda da banda 2, banda 3 e banda 4. Sua
alta resolução espacial, com pixels de 15
metros, é de interesse para as análises com
maior detalhamento espacial e geométrico

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 84


Os Satélites SPOT
Spot 5
2002 - ...
Spot 3 Spot 4
1993 - 1997 1998 - ...

Spot 2
Spot 1 1990 - ...
1986 - 1990
1985

1990

1995

2000

2005

2010
SPOT (Satellite Pour l'Observation de la Terre) é um satélite com sensor óptico que
produz imagens em alta-resolução. É controlado pela empresa Spot Image, que fica
em Toulouse, França. Foi iniciado pelo CNES (Centre national d'études spatiales - a
agência espacial francesa) em 1970 e desenvolvido em associação com o SSTC
(Serviços técnicos, culturais e científicos da Bélgica) e o Conselho Nacional Sueco
(SNSB). Foi projetado para aprimorar o conhecimento e gerenciamento da Terra, ao
explorar seus recursos, detectando e prevendo fenômenos climatológicos, e
monitorando atividades humanas e fenômenos naturais.. Os satélites foram lançando
com um foguete da ESA, Ariane 2, 3 e 4.
A órbita SPOT é polar, circular e hélio-síncrona. A inclinação do plano orbital,
combinado com a rotação da Terra em torno do seu eixo polar permite ao satélite
voar sobre qualquer ponto do planeta em 26 dias. A sua órbita tem uma altitude de
822 km e inclinação de 98.7º. 85
Eng. Ambiental – Prof. Dr. Nilson C. Ferreira
Os Satélites SPOT
Satélite Sensor Banda Res. Satélite Sensor Banda Res.

0.50 – 0.59 Green 20 0.50 – 0.59 Green 20


SPOT 1 e 2 HRV 0.61 – 0.68 Red 20 SPOT 4 HRVIR 0.61 – 0.68 Red 20
0.79 – 0.89 NIR 20 0.79 – 0.89 NIR 20
0.51 – 0.73 PAN 10 1.58 – 1.73 MIR 20
0.59 - 0.75 (B2)* 10
0.50-0.59 Green 10
SPOT 5 HRS 0.61-0.68 Red 10
0.78-0.89 NIR 10
1.58-1.75 SWIR 20
0.48-0.71 PAN 5

Integração de 2 PAN´s 2.5

NIR  Infravermelho próximo (Near Infrared)


MIR  Infravermelho médio
PAN  Pancromático
SWIR  Ondas curtas de infravermelho
HRV  Visible High-Resolution
HRVIR  Visible & Infrared High-Resolution
HRS  High-Resolution Stereoscopic
* A banda pancromática (0,51 – 0,73 m) existente nos satélites Spot 1 e 2 foi
substituída no Spot 4 pela banda B2 (0,59 – 0,75 m), ou seja, a faixa do espectro
correspondente ao azul foi reduzida, pois sofria muita interferência atmosférica
86
86
Cada cena SPOT tem 60 km por 60 km.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 86


Imagens Adquiridas pelo Satélite SPOT

Imagem Multiespectral com resolução Imagem Pancromática com resolução


espacial de 20 metros espacial de 10 metros

Imagem com resolução


espacial de 2,5 metros

87

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 87


As Bandas do Sensores a bordo do SPOT
MODO PANCROMÁTICO:
PAN (0,510 – 0,730 цm)
Esse modo espectral produz imagens com uma única banda espectral que é restituída
sempre em preto e branco, privilegia a fineza geométrica da imagem e permite
discriminar detalhes de 10 X 10 metros.

MODO MULTIESPECTRAL
XS1 (0,500-0,590 цm) Verde
Apresenta sensibilidade à presença de sedimentos em suspensão, possui boa
penetração em corpos de água.
XS2 (0,610-0,680 цm) Vermelho
Apresenta bom contraste entre as áreas ocupadas com vegetação e aquelas sem
vegetação (ex.: solo exposto, estradas e áreas urbanas). Permite a análise da
variação litológica e o mapeamento da drenagem. É a banda mais utilizada para
delimitação da mancha urbana e identificação de novos loteamentos. Permite ainda a
identificação de áreas agrícolas.
XS3 (0,790-0,890 цm) Infravermelho Próximo
Utilizada no mapeamento da rede de drenagem. A vegetação verde, densa e
uniforme, reflete muita energia nesta banda, aparecendo bem claras nas imagens.
Apresenta sensibilidade à rugosidade da copa das florestas (dossel florestal) e à
morfologia do terreno, permitindo a obtenção de informações sobre Geomorfologia,
Solos e geologia. Permite a visualização de áreas ocupadas com macrófitas (exemplo :
aguapé) e também a identificação de áreas agrícolas.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 88


Os Satélites do Programa CBERS

CBERS 2B
2007 - 2010
CBERS 1 CBERS 2
1999 - 2003 2003 - 2009
1999

2005

2010
O Programa CBERS nasceu de uma parceria inédita entre Brasil e China no setor técnico-
científico espacial. O Programa contemplou num primeiro momento apenas dois satélites de
sensoriamento remoto, CBERS-1 e 2.
Devido o sucesso dos satélites, ambos os governos decidiram expandir o acordo e incluir outros
três satélites da mesma categoria, os satélites CBERS-2B e os CBERS-3 e 4, como uma segunda
etapa da parceria sino-brasileira. O CBERS-3 tem seu lançamento previsto para fins de 2011.
A família de satélites de sensoriamento remoto CBERS trouxe significativos avanços científicos
ao Brasil. Essa significância é atestada pelos mais de 35.000 usuários de mais de 2.000
instituições cadastrados como usuários ativos do CBERS, e também nas mais de 500.000 imagens
do CBERS distribuídas à razão aproximada de 250 por dia.
Suas imagens são usadas em importantes campos, como o controle do desmatamento e queimadas
na Amazônia Legal, o monitoramento de recursos hídricos, áreas agrícolas, crescimento urbano,
ocupação do solo, em educação e em inúmeras outras aplicações.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 89


Os Satélites CBERS
Satélite Sensor Banda Res. Satélite Sensor Banda Res.

WFI 0,63 - 0,69 Red 260 WFI 0,63 - 0,69 Red 260
0,77 - 0,89 NIR 260 0,77 - 0,89 NIR 260

0,51 - 0,73 PAN 20 0,51 - 0,73 PAN 20


0,45 - 0,52 Blue 20 0,45 - 0,52 Blue 20
CBERS 1 e 2 CCD 0,52 - 0,59 Green 20 CBERS 2B CCD 0,52 - 0,59 Green 20
0,63 - 0,69 Red 20 0,63 - 0,69 Red 20
0,77 - 0,89 NIR 20 0,77 - 0,89 NIR 20

0,50 - 1,10 PAN 80 0,50 - 1,10 PAN 80


IRMSS 1,55 - 1,75 MIR 80 IRMSS 1,55 - 1,75 MIR 80
2,08 - 2,35 MIR 80 2,08 - 2,35 MIR 80
10,40 - 12,50 TIR 80 10,40 - 12,50 TIR 80

HRC 0,50 - 0,80 PAN 2,7

WFI  Wide Field Imager, largura da faixa imageada 890 km.


CCD  High Resolution CCD Camera , largura da faixa imageada 113 km.
IRMSS  Infrared Multispectral Scanner, largura da faixa imageada 120 km.
HRC  High Resolution Camera , largura da faixa imageada 27 km.

Altitude da órbita hélio-síncrona: 778 km.


Resolução temporal do CBERS é de 26 dias.

90
90

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 90


Imagens Adquiridas pelos Sensores do CBERS

Imagem WFI Imagem IRMSS Imagem CCD

91
Imagem CCD Imagem HRC Fusão de imagens CCD comHRC

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 91


Aplicações da Câmera CCD/CBERS
A Câmera Imageadora de Alta Resolução (CCD), por possuir resolução espacial – 20
metros, presta-se à observação de fenômenos ou objetos cujo detalhamento seja
importante. Por possuir um campo de visada de 120 km, auxilia nos estudos municipais
ou regionais.
Destacam-se como aplicações potenciais da CCD:
Vegetação: identificação de áreas de florestas, alterações florestais em parques,
reservas, florestas nativas ou implantadas, sinais de queimadas recentes.
Agricultura: identificação de campos agrícolas, quantificação de áreas,
monitoramento do desenvolvimento e da expansão agrícola, quantificação de pivôs
centrais, auxílio em previsão de safras, fiscalizações diversas.
Meio ambiente: identificação de anomalias antrópicas ao longo de cursos d´água,
reservatórios, florestas, cercanias urbanas, estradas; análise de eventos episódicos
naturais compatíveis com a resolução da Câmera, mapeamento de uso do solo,
expansões urbanas.
Água: identificação de limites continente-água, estudos e gerenciamento costeiros,
monitoramento de reservatórios.
Cartografia: dada a sua característica de permitir visadas laterais de até 32º a
leste e a oeste, em pequenos passos, possibilita a obtenção de pares estereoscópicos
e a conseqüente análise cartográfica. Essa característica também permite a
obtenção de imagens de uma certa área no terreno em intervalos mais curtos, o que é
útil para efeitos de monitoramento de fenômenos dinâmicos.
Geologia e solos: apoio a levantamentos de solos e geológicos.
Educação: geração de material de apoio a atividades educacionais em geografia,
meio ambiente, e outras disciplinas.
Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 92
Aplicações do IRMSS, WFI e HRC/CBERS
O IRMSS (Imageador por Varredura de Média Resolução), possui aplicações iguais a
da CCD, com as devidas adaptações. Outras aplicações são:
•Análise de fenômenos que apresentem alterações de temperatura da
superfície.
•Geração de mosaicos estaduais.
•Geração de cartas-imagens.

O WFI (Imageador de Amplo Campo de Visada) pode imagear grandes extensões


territoriais, de 890 km. Essa característica torna o WFI muito interessante para
observar fenômenos cuja magnitude ou interesse seja nas escalas macro-regionais ou
estaduais. Em função dessa ampla cobertura espacial, sua resolução temporal
também tem um ganho - podem ser geradas imagens de uma dada região com menos
de cinco dias de intervalo. Entre as aplicações, podem ser mencionadas:
•Geração de mosaicos nacionais ou estaduais.
•Monitoramento da vegetação.
•Monitoramento de fenômenos dinâmicos, como safras agrícolas e queimadas.
•Sistema de alerta, em que a imagem WFI serve como indicativo para a
aquisição de imagens de mais alta resolução da CCD ou do IRMSS.
A HRC (Câmera Pancromática de Alta Resolução) pode imagear com altíssima
resolução. Com esta câmera não será possível ter estereoscopia. Entre as aplicações,
podem ser mencionadas:
•Mapeamentos detalhados.
•Geração de produtos para fins de planejamento local ou municipal.
•Aplicações urbanas e de inteligência.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 93


Os Satélites de Alta Resolução Espacial

Worldview 2
Quickbird 2009 - ...
IKONOS 2 2001 - ... Worldview 1
1999 - ... 2007 - ...
Geoeye
2008 - ...
1999

2010
Atualmente, existem vários satélites equipados com sensores de alta resolução espacial. Algumas
dessas imagens estão disponíveis em visualizadores tais como o Google Earth.
O Ikonos-2 produz imagens através de um telescópio cuja distância focal é de 10 metros,
desenvolvido pela Kodak, possuem resolução espacial de 1 metro. Aquisição das imagens resolução
radiométrica de 11 bits (2048 níveis de cinza) aumenta o poder de contraste e de discriminação
das imagens, inclusive nas áreas de sombra
O Quick Bird, desenvolvido pela empresa americana DigitalGlobe e lançado em 18 de outubro de
2001, é o satélite comercial com imageador de maior resolução espacial: 61 cm para banda
pancromática e 2,4 m para as multiespectrais.
O satélite GeoEye-1 produz imagens com 41 cm de resolução espacial no pancromático e 1,6
metros no multiespectral.
Os satélites Worldview 1 e 2 são gerenciados pela empresa DigitalGlobe e produzem imagens
resolução espacial de 50 cm e 46 cm respectivamente.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 94


Os Satélites de Alta Resolução Espacial
Satélite Banda Res. Res. Satélite Banda Res. Res.
Esp. Temp. Esp. Temp.
0.45 – 0.90 PAN 1m 2.9 0.445 - 0.90 PAN 0.61 m

IKONOS 2 0.45 – 0.52 Blue 4m QuickBird 0.45 - 0.52 Blue 2.40 m 1 a 3,5
0.52 – 0.60 Green 4m 1.5 0.52 - 0.60 Green 2.40 m dias
0.63 – 0.69 Red 4m 0.63 - 0.69 Red 2.40 m
0.76 – 0.90 NIR 4m 0.76 - 0.90 NIR 2.40 m
WorldView 1 0.40 – 0.90 PAN 0.50 m 1.7 0.45 - 0.80 PAN 0.46 m

0.40 - 0.45 Coastal 1.84 m


0.45 - 0.80 PAN 0.41 m 3 dias 0.45 - 0.51 Blue 1.84 m
0.51 - 0.58 Green 1.84 m 1 dia
GeoEye 0.45 - 0.51 Blue 1.65 m WorldView 2 0.63 - 0.69 Red 1.84 m
0.51 - 0.58 Green 1.65 m 3 0.705 - 0.745 Red-Edge 1.84 m
0.655 - 0.69 Red 1.65 m dias 0.585 - 0.625 Yellow 1.84 m
0.78 - 0.92 NIR 1.65 m 0.77 - 0.895 NIR 1.84 m
0.86 - 1.040 MIR 1.84 m

• As imagens do Ikonos 2 tem resolução radiométrica de 11 bits e tamanho de cena de 11


km por 11 km.

• As imagens dos satélites Worldview 1 e 2 tem resolução radiométrica de 11 bits e


tamanhos de cena de 17,6 km por 17,6 km e 16,4 km por 16,4 km respectivamente.

• As imagens GeoEye tem resolução radiométrica de 11 bits e tamanho de cena de 15,2 por
15,2 km. 95
95

• As imagens QuickBird tem resolução radiométrica de 11 bits e tamanho de cena de 16,5


por 16,5 km. 95
Eng. Ambiental – Prof. Dr. Nilson C. Ferreira
Os Satélites de Alta Resolução Espacial

Worldview 1 Worldview 2 Quickbird

Ikonos GeoEye ALOS 96


96
Fusão AVNIR-2 e Prism

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 96


Aplicações das Imagens de Alta Resolução Espacial
As imagens de alta resolução espacial possuem grande qualidade geométrica, que
viabiliza a extração de informações quantitativas com alta acurácia. Para isso, os
sensores possuem capacidade de visualização de pares estereoscópicos, o que
possibilita a extração de informações de relevo, além de promover a correção de
distorções geométricas das imagens.
As imagens de alta resolução espacial geralmente tem altos custos de aquisição, e
são aplicadas em:
•Mapeamentos detalhados.
•Geração de produtos para fins de planejamento local ou municipal.
•Aplicações urbanas e de inteligência.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 97


Sensores Hiperespectrais

HYMAP
Australia

AVIRIS/NASA E0-1 Hyperion


Aerotransportado NASA/JPL
1998

2010
A resolução espectral é muito importante na identificação de alvos na superfície terrestre, bem
como no estudo das características fisico-químicas e biológicas de tais alvos. Existem vários
sensores de alta resolução espectral projetados para serem utilizados a bordo de aeronaves,
entre eles está o AVIRIS (Airborne Visible and Infrared Imaging Spectrometer), construido
pelo Jet Propulsion Laboratory da NASA e o Hymap, construído na Austrália pela empresa
Integrated Spectronics.
Está disponível também o Hyperion, um sensor de alta resolução espectral instalado a bordo do
satélite EO-1 (Earth Observing-1).
Atualmente, a utilização de imagens de alta resolução é bastante restrita, devido aos custos
envolvidos na aquisição das mesmas. A alta tecnologia envolvida na construção dos sensores, ainda
torna a construção de tais sensores uma atividade extremamente onerosa, mas no futuro
provavelmente este cenário mudará.
Devido aos altos custos, a utilização desses sensores é realizada após detalhados planejamentos
de missões bem justificadas.
Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 98
Sensores Hiperespectrais
Sensor Banda Resolução
Espacial
0.41 - 0.70 (31 bandas)
AVIRIS 0.68 - 1.27 (63 bandas) 20 metros a 65000 pés
224 bandas 1.25 - 1.86 (63 bandas) de altitude
1.84 - 2.45 (63 bandas)
Hymap 0.45 – 0.89 (32 bandas)
126 bandas 0.89 – 1.35 (32 bandas)
1.40 – 1.80 (32 bandas) 5 a 10 metros
1.95 – 2.48 (32 bandas)
0.40 – 2.50 (220 bandas)
Hyperion
220 bandas Tamanho da imagem 30 metros
7,5 km por 100 km

• Como uma imagem hiperespectral possui centenas de bandas, elas são


tratadas como um “cubo” de imagens, onde as coordenadas X e Y estão
no domínio espacial e as coordenada (λ) está no domínio espectral.
• As inúmeras bandas espectrais possíbilitam a produção de assinaturas
espectrais, dos elementos da paisagem, com grande precisão, o que
torna possível o desenvolvimento de um grande conjunto de aplicações
técnicas e científicas.

99
99

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 99


Sensores Hiperespectrais

100
100

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 100


Sensores Hiperespectrais
O potencial de aplicação das imagens hiperespectrais é muito grande, tanto na área
científica quanto nas áreas sociais, econômicas, ambientais e institucionais. Abaixo
seguem algumas aplicações:
• Vegetação (espécies, propriedades químicas e biológicas, agricultura, etc.);
• Recursos hídricos (análises qualitativas e quantitativas da água);
• Materiais produzidos pelo ser humano;
• Gelo e neve;
• Acidentes (contaminações, poluições);
• Atmosfera (absorção, espalhamento, etc.);
• Rochas e solos (minerais, detecção, etc.);
• Queimadas (celulose, temperatura, etc.)

Imagem Hyperion

101
101
Imagem Hymap
Imagem AVIRIS
Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 101
Os Sensores Ativos

ALOS/Palsar
ERS Radarsat SAR/SIPAM 2006
1991 1995 2003
1990

1995

2000

2005

2010
Os sensores ativos que atuam na região de microondas do espectro eletromagnético são
denominados de radares (RADAR: Radio Detection And Ranging - Detecção e Telemetria pelo
Rádio).
Por serem sensores ativos os radares podem ser utilizados sem a necessidade de luz solar, tendo
portanto a capacidade de produzir imagens durante o período noturno. As microondas são longas e
tem grande capacidade de transmissão, portanto sofre pouquíssima influência atmosférica e pode
penetrar na vegetação e também nos solos.
Os radares aerotransportados são bastante utilizados no mapeamento. No Brasil, durante a
década de 1970 os radares foram amplamente utilizados durante o projeto RADAM-Brasil, que
mapeou a vegetação, os solos, a geologia, a geomorfologia e outros temas de todo o território
nacional.
Atualmente, estão disponíveis vários satélites dotados de radares, que vem sendo utilizados em
inúmeras aplicações em todas as partes do mundo.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 102


Os Satélites de Alta Resolução Espacial
Satélite Banda Res. Res. Satélite Banda Res. Res.
Esp. Temp. Esp. Temp.
ERS C 5,6 cm 30 m 3 a 35 RADARSAT C 5,6 cm
dias
Modo FINE 8 24 dias
Modo STANDARD 30
Modo WIDE 30
Scan SAR Narrow 50
Modo Scan SAR Wide 100
Modo Extended High 25
Modo Extended Low 35
ALOS/PALSAR L 1270MHz 12,5 m 46 dias SAR/SIPAM X 3 cm 3 a 18 m Sob
23,6 cm L 23 cm demanda

• Conforme o modo de imageamento, o sensor e a plataforma (orbital ou aérea), as imagens


de radar podem cobrir áreas de dezenas até centenas de quilômetros.
• Enquanto os sensores óticos trabalham com a REM que é refletida ou emitida pelos alvos
devido suas características fisico, química e biológica, os radares trabalham com a REM
que é retroespalhada pelo alvo, devido suas características geométricas conforme o
comprimento de onda emitido pelo radar.
• Os podem emitir pulsos no sentido horizontal e vertical, que são denominados de
polarizações. No caso de polarização horizontal, todos os alvos que estiverem no sentido
horizontal apresentarão maiores retroespalhamentos e vice-versa.
• Os radares também são largamente utilizados no mapeamento do relevo.
• Outro emprego das imagens de radares é no monitoramento de derramamento de
103
103
petróleo nos mares e oceanos.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 103


Os Satélites de Alta Resolução Espacial

Imagem Radarsat de SRTM – Shuttle Radar Topography Modelo Digital de


Derrame de Petróleo Mission Terreno (SRTM)

104
104
Imagem JERS da Região Imagem SAR/SIPAM
de Manaus - AM
Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 104
Os Satélites com Sensores de Res. Esp. Moderada

ENVISAT/MERIS
CBERS/WFI 2002 - ...
TERRA AQUA NOAA-17
1999 - 2009
1999 - ... 2002 - ... 2002 - ...

2005
1999

Os sensores de resolução espacial moderada (centenas de metros), vem sendo amplamente


utilizados em diversas aplicações onde principalmente se necessita de alta resolução temporal,
pois em geral, os sensores de resolução espacial moderada, possuem alta resolução temporal,
podem gerar imagens de todo o planeta em períodos de tempo menores que 24 horas.
Os satélites Terra e Aqua, possuem vários sensores de resolução espacial moderada, tais como o
CERES (Clouds and the Earth's Radiant Energy System), o MISR (Multi-angle Imaging
SpectroRadiometer), o MODIS (Moderate-resolution Imaging Spectroradiometer), o MOPITT
(Measurements of Pollution in the Troposphere), o AIRS (Atmospheric Infrared Sounder), o
AMSR-E (Advanced Microwave Scanning Radiometer-EOS), o AMSU-A (Advanced Microwave
Sounding Unit) e o HSB (Humidity Sounder for Brazil). A bordo do satélite CBERS, tem o sensor
WFI (Imageador de Amplo Campo de Visada). A bordo do NOAA, tem-se o sensor AVHRR
(Advanced Very High Resolution Radiometer). Finalmente, a bordo do satélite ENVISAT, tem-se o
sensor MERIS (Medium Resolution Imaging Spectrometer). Existem mais sensores em operação e
planejados de resolução espacial moderada.
Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 105
Os Satélites com Sensores de Res. Esp. Moderada
Satélite Sensor Banda Res. Objetivos
Esp.
CERES 0,3 - 5 10 km medir tanto a reflexão solar quando a emissão de radiação da
8 - 12 Terra no topo da Atmosfera para a superfície terrestre.
Terra e Aqua
36 bandas 250 m Temperatura da superfície (solo e oceano) e detecção de
distribuídas entre 500 m incêndio; Cor do oceano (sedimento, fitoplâncton); Mapas da
MODIS 0.4 – 14.4 1000 m vegetação global e detecção de mudanças; Características da
nuvem;e Concentrações de aerossóis.

0,58 - 0,68 (Red) Estimativas de fitomassa; análise da cobertura vegetal;


NOAA AVHRR 0,72 - 1,10 (NIR) monitoramento de queimadas e meteorologia e
3,55 - 3,93 (MIR) 1100 m agrometeorologia
10,30 - 11,30 (TIR)
11,30 - 12,50 (TIR)
15 bandas Cor dos oceanos devido à concentração de clorofila e
distribuídas entre 1150 m sedimentos em suspensão; obtenção de parâmetros sobre as
ENVISAT MERIS 0,39 – 1.040 nuvens (principalmente altura e coluna de vapo); determinação
de carga de aerosóis sobre os continentes e o status da
vegetação e sua distribuição (biomassa, índices de vegetação).

• Acima, tem-se as decrições dos sensores CERES, MODIS, AVHRR e MERIS. Mais
detalhamentos e descrições dos outros sensores podem ser encontrados na Internet.
• No Brasil, os dados dos sensores AVHRR e MODIS são utilizados no monitoramento de
desmatamentos e queimadas.
106
• As imagens de resolução espacial moderada são utilizadas no mapeamento de grandes
106
áreas.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 106


Os Satélites com Sensores de Res. Esp. Moderada

Imagem MERIS Mapeamento temporal da vegetação do Cerrado


utilizando MODIS

107
107

Imagem NOAA/AVHRR 107


Eng. Ambiental – Prof. Dr. Nilson C. Ferreira
As Imagens Digitais
Os sensores remotos coletam e dividem a radiação eletromagnética em
bandas, depois eles transmitem os dados para as estações em Terra, que
processam esses dados e distribuem as imagens em meio digital. Desta
forma, é muito importante conhecer alguns conceitos a respeito de dados
digitais, para que as mesmas sejam corretamente processadas em
programas computacionais.
- Bit (simplificação para dígito binário, “BInary digiT” em inglês) é a
menor unidade de medida de transmissão de dados usada na Computação e
na Teoria da Informação. Um bit tem um único valor, 0 ou 1, ou verdadeiro
ou falso, ou neste contexto quaisquer dois valores mutuamente exclusivos.
A matemática binária foi descrita inicialmente por George Boole, e por este
motivo é chamada de Álgebra Booleana.
Embora os computadores tenham instruções (ou comandos) que possam
testar e manipular bits, geralmente são idealizados para armazenar
instruções em múltiplos de bits, chamados bytes. No princípio, byte tinha
tamanho variável mas atualmente tem oito bits. Bytes de oito bits também
são chamados de octetos. Existem também termos para referir-se a
múltiplos de bits usando padrões prefixados, como kilobit (Kb), megabit
(Mb) e gigabit (Gb). É importante notar que a notação para bit utiliza um
"b“ minúsculo, em oposição à notação para byte que utiliza um "B" maiúsculo
(KB, MB, GB).

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 108


As Imagens Digitais
Fisicamente, o valor de um bit é, de uma maneira geral, armazenado como
uma carga elétrica acima ou abaixo de um nível padrão em um único
capacitor dentro de um dispositivo de memória. Mas, bits podem ser
representados fisicamente por vários meios. Os meios e técnicas
comumente usados são: Pela eletricidade, como já citado, por via da luz (em
fibras ópticas, ou em leitores e gravadores de discos ópticos por exemplo),
por via de ondas eletromagnéticas (rede wireless), ou também, por via de
polarização magnética (discos rígidos).
Telecomunicações ou volume de tráfego em redes de computadores são
geralmente descritos em termos de bits por segundo. Por exemplo, “um
modem de 56 kbps é capaz de transferir dados a 56 kilobits em um único
segundo” (o que equivale a 6,8 kilobytes, 6,8 kB, com B maiúsculo para
mostrar que estamos nos referindo a bytes e não a bits. Ethernet
transfere dados a velocidades que variam de 10 megabits por segundo a 1
gigabit por segundo (de 1,19 a 119 megabytes por segundo). No Sistema
Internacional (SI), os prefixos kilo-, mega-, etc às vezes têm o significado
modificado quando aplicados a bits e bytes (até bits toleram calculos
decimais pois é pontual ou é 0 ou é 1, já bytes não pois se fala dos dados
agrupados).

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 109


As Imagens Digitais
Um byte é um dos tipos de dados integrais em computação. É usado com
frequência para especificar o tamanho ou quantidade da memória ou da
capacidade de armazenamento de um computador, independentemente do
tipo de dados lá armazenados. A quantidade padronizada de byte foi
definido como sendo de 8 bits.
Para os computadores, representar o número 256 (decimal), 8 números
binários são suficientes. Por isso, os bytes possuem 8 bits. Basta fazer os
cálculos. Como um bit representa dois valores (1 ou 0) e um byte representa
8 bits, basta fazer 2 (do bit) elevado a 8 (do byte) que é igual a 256, ou
seja 28 = 256.
A importância do byte na informática deriva do fato do código ASCII
haver adotado números de oito bits, além de razões meramente
construtivas ou operacionais. Por exemplo: os códigos enviados à
impressoras para controlar a impressão têm oito bits, os valores trocados
pelos modems entre computadores também, os valores de pixel de uma
imagem CBERS tem 8 bits, assim como diversas outras operações
elementares de intercâmbio de informações. Além disso, memórias
costumam ser organizadas de tal forma que as operações de leitura e
escrita são feitas com quantidades de um byte ou de um múltiplo de bytes
(oito, dezesseis, trinta e dois, sessenta e quatro ou cento e vinte e oito
bits – o que corresponde a um, dois, quatro, oito e dezesseis bytes,
respectivamente).
Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 110
As Imagens Digitais
Para a comunicação entre o ser humano e a máquina, são necessárias
inúmeras conversões entre dados binários e dados decimais. Assim, para
converter um número binário em decimal, utiliza-se o método polinomial,
onde interpreta-se o número como um polinômio na aritmética da base
destino. Por exemplo:

1001012 = 1*25 + 0*24 + 0*23 + 1*22 + 0*21 + 1*20 = 3710

Para converter um número decimal em binário, utiliza-se o método das


divisões, onde determinam-se os algarismos de menor peso (mais a direita)
tomando-se o resto da divisão do número pela base destino. Repete-se o
método sobre o quociente obtido até que este seja zero. Por exemplo, a
conversão de 46 na base 10 para a base binária:

46/2 = 23, resto: 0


23/2 = 11, resto: 1
11/2 = 5, resto: 1
5/2 = 2, resto: 1
2/2 = 1, resto: 0
1/2 = 0, resto: 1
Assim, 4610 = 1011102

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 111


As Imagens Digitais
Medidas utilizadas em computação
Byte (B) Exabyte (EB)
1 Byte = 8 bits (23 bits). 1 024 PB
Quilobyte (kB) 1 048 576 TB
1 024 (210) Bytes 1 073 741 824 GB
8 192 Bits 1 099 511 627 776 MB
Megabyte (MB) 1 125 899 906 842 624 kB
1 024 kB 1 152 921 504 606 846 976 (260) Bytes
1 048 576 (220) Bytes 9 223 372 036 854 775 808 Bits
8 388 608 Bits Zettabyte (ZB)
Gigabyte (GB) 1 024 EB
1 024 MB 1 048 576 PB
1 048 576 kB 1 073 741 824 TB
1 073 741 824 (230) Bytes 1 099 511 627 776 GB
8 589 934 592 Bits 1 125 899 906 842 624 MB
Terabyte (TB) 1 152 921 504 606 846 976 kB
1 024 GB 1 180 591 620 717 411 303 424 (270) Bytes
1 048 576 MB 9 444 732 965 739 290 427 392 Bits
1 073 741 824 kB Yottabyte (YT)
1 099 511 627 776 (240) Bytes 1 024 ZB
8 796 093 022 208 Bits 1 048 576 EB
Petabyte (PB) 1 073 741 824 PB
1 024 TB 1 099 511 627 776 TB
1 048 576 GB 1 125 899 906 842 624 GB
1 073 741 824 MB 1 152 921 504 606 846 976 MB
1 099 511 627 776 kB 1 180 591 620 717 411 303 424 kB
1 125 899 906 842 624 (250) Bytes 1 208 925 819 614 629 174 706 176 (280) Bytes
9 007 199 254 740 992 Bits 9 671 406 556 917 033 397 649 408 Bits
Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 112
As Imagens Digitais
Alguns tipos de dados utilizados em computação

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 113


As Imagens Digitais
As imagens digitais podem estar organizadas em várias
bandas, sendo que cada banda pode ser um arquivo de
dados de valores para uma porção específica do espectro
eletromagnético de luz refletida ou calor emitido (azul,
verde, vermelho, infravermelho, termal, etc.).
Os arquivos matriciais podem ser
estruturados de três formas distintas,
sendo elas: Banda Sequencial (BSQ),
Banda Intervalada por Linha (BIL) ou
Banda Intervalada por Pixel (BIP). Nestes
três casos, o cabeçalho da imagem
também contém o número de bandas da
imagem, além é claro, do esquema de
armazenamento (BSQ, BIL ou BIP), em
seguida estão armazenados os valores das
células de cada banda.
Na figura ao lado, é possível observar os
esquemas de armazenamento de dados em
estrutura matricial em múltiplas camadas
ou bandas (A) Esquema de armazenamento
em Banda Sequencial (BSQ), (B) Esquema
de armazenamento em Banda Intervalada
por Linha (BIL) e (C) Esquema de
armazenamento em Banda Intervalada por
Pixel (BIP). 114
Eng. Ambiental – Prof. Dr. Nilson C. Ferreira
As Imagens Digitais
A quantidade de memória necessária para armazenar uma imagem, pode ser calculada
pela equação abaixo:

memor = x * y * b * n [1]
sendo: memor (quantidade de memória em bytes); x o número de colunas; y o número
de linhas; b o número de bytes por pixel e n o número de bandas.

Atualmente, existem inúmeros formatos para armazenamento de imagens digitais.


Abaixo, estão listados os principais formatos.
• JPEG - Joint Photographic Experts Group. É o formato mais utilizado e
conhecido atualmente. Formato muito utilizado na Internet e nos programas de
processamento de imagens, por ter uma compactação excelente, e por suportar até
16.777.216 cores distintas.
•TIFF - Tagged Image File Format. É um formato de arquivo que praticamente
todos os programas de processamento de imagens. Foi desenvolvido em 1986 pela
Aldus e pela Microsoft numa tentativa de criar um padrão para imagens geradas por
equipamentos digital. O TIFF é capaz de armazenar imagens true color (24 ou 32
bits). O TIFF permite que imagens sejam compactadas.
• IMG. É um formato utilizado pelo programa de processamento de imagens ERDAS-
IMAGINE e que pode ser utilizado em outros programas computacionais tais como o
ArcGIS.
• MrSID. É um formato de armazenamento de imagens de alta compactação, sendo
possível chegar ao nível de compactação de 50:1.
• ECW - Enhanced Compression Wavelet. Outro formato de armazenamento de
imagens de alta compactação.
Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 115
Aquisição de Imagens de
Satélite

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 116


Aquisição de Imagens de Satélite
• Imagens de satélite com resolução espacial maior ou igual a 15
metros podem ser adquiridas gratuitamente na Internet, de forma
simples e rápida. No entanto, devido ao tamanho dos arquivos
dessas imagens, é sempre importante contar com uma conexão
rápida.
• Eis alguns sites que disponibilizam imagens gratuitamente;
– http://www.dgi.inpe.br/CDSR/ (Catálogo de imagens do INPE,
imagens dos satélites CBERS2: Sensores CCD, IRM, WFI;
CBERS 2B: Sensores CCD, HRC e WFI; LANDSAT 1, 2, 3, 5 e 7:
Sensores MSS, TM e ETM);
– http://glcfapp.umiacs.umd.edu:8080/esdi/index.jsp
(Universidade de Maryland, satélites Landsat: Sensores MSS,
TM e ETM; satélites Terra e Aqua: Sensores MODIS e ASTER;
Satélite NOAA: Sensor AVHRR; Modelos digitais de Elevação
SRTM);
– http://earthexplorer.usgs.gov/ Dados Landsat, Hyperion,
SRTM, MODIS, NASA, erc.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 117


Catálogo do INPE

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 118


Catálogo do INPE

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 119


Catálogo do INPE

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 120


Catálogo do INPE

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 121


Catálogo do INPE

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 122


Catálogo do INPE

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 123


Catálogo do INPE

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 124


Novo Catálogo do INPE

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 125


Universidade de Maryland

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 126


Universidade de Maryland

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 127


Universidade de Maryland

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 128


Universidade de Maryland

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 129


Universidade de Maryland

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 130


Universidade de Maryland

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 131


EarthExplorer

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 132


EarthExplorer

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 133


EarthExplorer

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 134


Interpretação de imagens
de sensores remotos

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 135


Interpretação de Imagens
• As imagens de satélite e a fotografias aéreas
registram uma versão da realidade detalhada,
porém muito reduzida;
• Examinar a Terra de uma perspectiva aérea ou
orbital, torna possível identificar objetos, padrões
e fazer relações sobre a paisagem, que talvez
nunca poderiam ser completamente compreendidas
a partir de uma perspectiva terrestre.
• As imagens aérea e orbitais fornecem
informações espaciais que não seriam possíveis de
serem adquiridas e percebidas de qualquer outra
forma.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 136


Interpretação de Imagens
• O termo interpretação visual é usado para designar um procedimento empregado
para identificar (dizer o que é) qualquer coisa apenas visão. Por exemplo, numa
fotografia de um evento qualquer, é possível identificar pessoas e objetos. O que se
está fazendo é uma interpretação visual.

• Quando um objeto ou fenômeno que não conhecemos, é apresentado a nós para


identificá-lo, simplesmente dizemos, QUE NÃO SABEMOS O QUE É !!!

• Por outro lado, quando se trata de imagens de satélite (dados orbitais), a primeira
vista parece muito difícil identificar os elementos que estão nelas, porque não existe
um “pacote” de informações armazenado em nossos cérebro, sobre cada coisa que
existe na imagem. Entretanto, quando se começa a analisar detalhadamente as
feições (elementos) existentes nas imagens, através de associações de formas,
posição, tamanho, cor e/ou tonalidade, etc. com elementos que conhecemos no
cotidiano, a identificação se torna bastante viável.

• O processo de interpretação desses produtos necessita que seja exercitado “com


cuidado” pois o ser humano está acostumado a ver o mundo a partir de uma visão
terrestre e não de uma visão aérea;

• Da mesma forma, não estamos acostumados a olhar e interpretar grandes extensões


de terra (< 1 km2 !).

• Desta forma, uma análise regional de dados de sensoriamento remoto, oblíquos ou


verticais, requer treino e prática.
Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 137
Interpretação de Imagens
• Sabemos, a partir das nossos experiências, que é importante não apenas saber o
tamanho e forma de um objeto mas também sua altura, profundidade e volume, os
quais nos permitem fazer um bom diagnóstico do meio;
• Fotografias, ou imagens 3D => permitem esta compreensão e facilitam o processo de
extração da informação;
• Um fotografia ou imagem capta da superfície da Terra um único momento no espaço
e no tempo, que não se repete => assim, as fotografias e imagens são valiosos
documentos históricos;
• Conjuntos de fotografias/imagens obtidas em épocas distintas permitem a
Detecção de mudanças => dinâmica espacial e temporal fornecendo subsídios para
análises;
• O conhecimento da dinâmica espacial e temporal de fenômenos permitem-nos
desenvolver modelos sobre o que aconteceu e o que acontecerá;
• A interpretação de imagens de sensoriamento remoto permite chegar a estes
conhecimentos.
• Para compreender todos estes pontos, é comum utilizar-se de métodos, ou princípios
de interpretação de imagens que foram desenvolvidos a partir de experiências
empíricas por mais de 150 anos;
• O mais fundamental destes princípios são os elementos de interpretação de imagens
que são rotineiramente utilizados no processo de fotointerpretação;
• Os elementos incluem: localização, tamanho, forma, sombra, tom e cor, textura,
padrão, altura, profundidade e sítio, situação e associação.
Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 138
Interpretação de Imagens
Localização
A localização de um objeto em uma
imagem pode auxiliar na identificação do
mesmo. Por exemplo, áreas irrigadas
sempre ficam nas proximidades de redes
de drenagem.
Muitas vezes, é necessário medir a
distância de um objeto até outro, ou ainda,
saber a localização geográfica do objeto.
Para a plena utilização da variável
localização, é muito importante que a
imagem esteja georreferenciada, ou seja, Pivôs de irrigação próximos
tenha uma relação espacial formalmente da rede de drenagem
estabelecida com a superfície terrestre.
Desta forma, é possível medir as minimizar as dúvidas acerca do objeto
coordenadas, distâncias, áreas e ângulos existente na imagem.
dos objetos existentes na imagem. Mais adiante, neste capítulo, será
A imagem georreferenciada viabiliza visto como é realizado o
também a investigação de campo, para georreferenciamento de imagens.
eliminar dúvidas de interpretação, pois
basta medir as coordenadas do objeto na
imagem e, com a ajuda de um receptor de
sinais GPS, navegar até o local do objeto
na superfície terrestre, para eliminar ou Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 139
Interpretação de Imagens
Tamanho
O tamanho do objeto é outra
característica muito importante para
auxiliar na interpretação.
• Um exemplo muito comum, em que
utilizamos o tamanho como critério de
diferenciação de duas feições nas imagens
de satélites, são as áreas plantadas com
cana-de-açúcar e com reflorestamento
Cana-de-açúcar
num relevo plano. Nesta situação, tanto a
cana-de-açúcar quanto o reflorestamento
são plantados em talhões com formato
retangulares.
• Porém, os talhões de cana-de-açúcar,
apesar de retangulares, não têm tamanhos
definidos, isto é, alguns são grandes
outros são pequenos.
No entanto, nas áreas reflorestadas os
talhões têm tamanhos muito parecido uns
com os outros e de áreas padronizadas, ou
seja, em torno de 6 ha cada um.
Eucalipto
Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 140
Interpretação de Imagens
Tamanho
• O tamanho de um objeto é uma das características mais distinguíveis e também importante
elemento de interpretação;
• Medindo-se o tamanho de objetos conhecidos (carro, estrada etc) pode-se saber o tamanho de
objetos desconhecidos;
• É um importante parâmetro, associado à escala de trabalho, para se definir o que deve ser
interpretado;

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 141


Interpretação de Imagens
Forma
• A forma que um objeto apresenta na superfície da Terra é uma característica
muito importante para auxiliar o analista na sua identificação, quando observado
numa fotografia ou numa imagem de satélite. Entretanto, deve-se ter em mente que
só a forma, muitas vezes, não é suficiente para identificá-lo.
• Permite associar à origem do objeto: formas construídas pelo ser humano ou da
natureza;
• Tudo que existe sobre a superfície da Terra tem formas mais ou menos definidas.
Por exemplo, áreas cultivadas, quando observadas de cima, elas apresentam formas
mais ou menos retangulares ou quadradas. Áreas irrigadas pelo processo denominado
de aspersão e com pivô central, quando vistas de cima, têm formas circulares bem
definidas.
• Constitui as características geométricas de um objeto;
• Pode ser: linear, curvilínea, circular, elíptica, radial, quadrada, retangular,
triangular, hexagonal, pentagonal, estrela, amorfa etc;
• Os rios e córregos são sinuosos (formas curvas). Se o rio for largo nós vamos
enxergar além da sinuosidade a lâmina d’água e, na maioria das vezes, entre duas
fileiras de árvores (mata de galeria). No entanto, os riachos, ribeirões, córregos o
que veremos é apenas a fileira de mata de galeria, indicando que sob elas existe
água.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 142


Interpretação de Imagens
Forma

Rede de Drenagem

Desmatamentos na forma de
“espinha de peixe” - Acre
Formas retangulares
de áreas agrícolas nos EUA Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 143
Interpretação de Imagens
Forma
As cidades, quando vistas do alto, apresentam formas de um reticulado, formado pelas
suas avenidas e ruas. Existem muitos outros objetos que podem ser facilmente
identificados pela sua forma.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 144


Interpretação de Imagens
Sombra
• É uma silhueta causada pela iluminação solar de um
lado;
• Algumas vezes a sombra pode ser a única pista
para se identificar um objeto, dar informações
sobre altura, permite orientar a imagem, ter noção
de relevo (altura);
• A sombra é um atributo importante, que ajuda a
identificar diferentes alvos nas imagens de
satélite. Por exemplo, se queremos separar, nas
imagens de satélites, áreas ocupadas com
reflorestamento e com mata natural, um dos
atributos da fotointerpretação que utilizamos é o
efeito do sombreamento.
• Quando observarmos a mata natural veremos que
onde há sombra a cor fica mais escura. Isto provoca
em nosso cérebro uma sensação de rugosidade
fazendo com que a área de mata natural apresente
com um aspecto rugoso. Deste modo, podemos
diferenciar as duas florestas apesar de serem,
ambas constituídas por árvores de grande porte.
• Apesar da sombra ser útil na identificação de
determinados alvos, quando nós estamos fazendo a
interpretação visual de imagens de satélite, às
vezes, ela pode ser muito prejudicial, quando o
sombreamento é provocado pelo relevo ou por
presença de nuvens no local de estudo. Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 145
Interpretação de Imagens
Sombra

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 146


Interpretação de Imagens
Tom e Cor
• Reflete a quantidade de energia refletida pelo alvo;
• Tons de cinza: branco, cinza claro, cinza médio, cinza escuro ou preto;
• Cor: RGB (processo aditivo e subtrativo de cores);
• Os diferentes alvos sobre a superfície terrestre refletem a energia solar de
maneira diferenciada. Por exemplo, um telhado de alumínio pode ser visto de longe,
porque ele reflete muita energia que chega até ele.
• Por outro lado, um pano preto reflete muito pouca luz por que ele absorve muito.
Assim, se nós observarmos a natureza perceberemos que cada alvo reflete de uma
maneira diferente do outro.
• Para representar todas as diferentes quantidades de energias refletidas pelos
alvos da superfície da Terra foi estabelecido valores que variam de Zero (muito
escuro) a 255 (muito claro). Assim, cada número representa uma quantidade de
cinza. É muito comum dizermos “tonalidade alta ou baixa” para referir a um objeto
bastante claro ou escuro.
• A cor é muito empregada no lugar da tonalidade, porque nossos olhos estão mais
habituados a enxergar coisas coloridas do que tons de cinza.
• As bandas individuais de uma imagem de satélite são compostas de pixels que
contém o quanto foi refletido pela área imageada (IFOV). Locais que refletem mais
tem tonalidades altas (cinza-claro, branco) e locais que refletem menos, possuem
tonalidades baixas (cinza-escuro, preto).
• Os sistemas computacionais possibilitam combinar até três bandas de uma imagem
de satélite para formar uma composição colorida.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 147


Interpretação de Imagens
Tom e Cor
• A composição colorida é feita especificando uma cor (azul, verde ou vermelha) para
cada uma das bandas. Apesar de alguns sensores possuírem centenas de bandas, é
possível exibir apenas composições de três bandas.
• Em uma imagem com resolução radiométrica de 8 bits, cada banda possui 28 = 256
tons de cinza. A combinação de três bandas resultará em um imagem colorida de
2563 = 16777216 de cores.

255

255

0 255

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 148


Interpretação de Imagens
Tom e Cor

bandas TM-2 (verde), TM-3 (vermelho) e TM-4


(infravermelho próximo)
Imagem em composição colorida utilizando as bandas
TM-1 (azul), TM-2 (verde) e TM-3 (vermelho) do sensor
ETM+ do satélite Landsat-7

bandas TM-3
(vermelho), TM-4
(infravermelho
próximo) e TM-5
(infravermelho
Composição colorida Landsat: Encontro das águas médio)
dos rios Solimões (azul claro) e Negro (preto)
formando o rio Amazonas. Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 149
Interpretação de Imagens
Textura
• É o arranjo característico da repetição de tons e cores em uma imagem;
• Pode ser: suave, “aveludada”, intermediária, rugosa, fina, grosseira;
• A textura é função da escala. Um objeto pode apresentar uma textura lisa na
escala 1:100.000 e textura rugosa, na escala 1:25.000;
• Também é função da habilidade do intérprete.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 150


Interpretação de Imagens
Padrão
• É o arranjo espacial de objetos na paisagem. Os objetos podem ser arranjados
aleatoriamente ou sistematicamente;
• O padrão é uma característica muito importante utilizada na interpretação visual
de imagens de satélites. Em áreas vegetadas, um padrão bastante típico que serve
para diferenciar áreas plantadas com cana-de-açúcar com áreas de pastagem é a
presença de carreadores.
• Outro padrão bastante característico é o da drenagem ( os rios e córregos
existentes na área imageada).
• Os tipos de canais correspondem ao modo de se padronizar o arranjo espacial que o
leito apresenta ao longo do rio.
• Não há uma classificação minuciosa dos tipos de canais: a) meandrante; b)
anastomosado; e c) retilíneo. Alguns autores ainda consideram: deltaico, ramificado,
reticulado e irregular.
• Essa geometria resulta do ajuste do canal a sua seção transversal e reflete o
relacionamento entre as variáveis descargas líquida, carga sedimentar, declive,
largura e profundidade do canal, velocidade do fluxo e rugosidade do leito.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 151


Interpretação de Imagens
Padrão – Canais Retilíneos
• Os exemplos de canais retos são pouco frequentes, representando trechos de
canais curtos, à exceção daqueles controlados por linhas tectônicas (linhas de falhas,
diáclases ou fraturas).
• A condição básica para a existência de um canal reto está associada a um leito
rochoso homogêneo que oferece igualdade de resistência à atuação das águas.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 152


Interpretação de Imagens
Padrão – Canais Anastomosados
• O termo anastomose foi aplicado aos rios, pela 1a vez, por Jakson (1834) e a 1a
descrição desse padrão foi realizada por Peale (1879), ao observar a maneira como
os tributários se confluíam com o rio Verde, nos Estados Unidos.
• Esses canais se caracterizam por apresentar grande volume de carga de fundo que
ocasionam sucessivas ramificações, ou múltiplos canais que se subdividem e se
reencontram, separados por ilhas assimétricas e barras arenosas.
• As ilhas são fixas ao fundo do leito mas as barras arenosas são bancos de detritos
móveis carregados pelos cursos de água e ficam submersos durante as cheias.
• As variações do fluxo fluvial, que podem levar ao estabelecimento do padrão
anastomosado, espelham as condições climáticas locais, a natureza do substrato, a
cobertura vegetal (ausente ou rarefeita) e o gradiente.
• As precipitações concentradas e os longos períodos de estiagem (clima árido ou
semi-árido) e as pesadas nevascas e os degelos rápidos oferecem as melhores
condições de clima local para o assentamento da drenagem anastomosada.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 153


Interpretação de Imagens
Padrão – Canais Meândricos
• São encontrados com frequência nas áreas úmidas cobertas por vegetação ciliar;
• Descrevem curvas sinuosas e semelhantes entre si, possuem um único canal que
transborda suas águas na época das cheias e são distintos dos outros padrões pelo
valor do índice de sinuosidade igual ou inferior a 1,5.
• Essas formas meandrantes representam um estado de estabilidade do canal. No
entanto, este estado de equilíbrio, representado na formação dos meandros, poderá
ser alterado pela ocorrência de um distúrbio na região, como a atuação do homem
(plantio em áreas próximas aos meandros).

O valor igual ou superior a 1,5


para o índice de sinuosidade,
que representa a relação
entre o comprimento do canal
e a distância do eixo do vale,
define o padrão meândrico de
canal.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 154


Interpretação de Imagens
Padrão – Canais Meândricos
• A parte da planície ocupada pelos meandros atuais e paleoformas é denominada
faixa de meandros.
• Colo de meandro é o esporão ou pedúnculo que separa os dois braços de meandro;
quando as margens côncavas adjacentes sofrem intensa ação erosiva, essa zona pode
ser estrangulada pela formação e desenvolvimento de bancos sedimentares (dique),
desligando, assim, parte do curso que dará origem ao meandro abandonado.
• Uma vez isolado, este meandro poderá formar lagoas ou pântanos.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 155


Interpretação de Imagens
Padrão – Canais Meândricos
• Podem ser artificiais (agricultura)ou naturais (padrão de drenagem);
• É um diagnóstico de muitas feições;
• Pode ser: randômica, sistemática, circular, centrípeta, oval, curvilínea, linear,
radial, retangular, hexagonal, pentagonal, octagonal etc.
Exemplo...

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 156


Interpretação de Imagens Digitais

Interpretação
Digital
Interpretação
Analógica

Atualmente, estão disponíveis vários


programas computacionais capazes de
carregar e exibir imagens. Esses
programas podem ser utilizados na
Até a década de 1980, as imagens eram interpretação de imagens, utilizando
interpretadas em mesas de luz. As ferramentas de edição vetorial. Esses
imagens eram analógicas e utilizava-se programas ajudam na visualização das
plásticos ou papéis translúcidos sobre a imagens com zoom, deslocamentos e
imagem durante a interpretação para se afastamentos. Além disso, esses
desenhar as feições de interesse. programas podem realçar feições da
Utilizava-se lápis, borracha e lupas imagem. O resultado dessa interpretação
durante a interpretação. O resultado da é um arquivo digital.
interpretação também era um produto
analógico. 157
Eng. Ambiental – Prof. Dr. Nilson C. Ferreira
Interpretação de Imagens Digitais
• Baixo custo: Computadores simples, programas computacionais livres,
necessidade de pouco espaço físico;
• Programas computacionais que facilitam a visualização de imagens, aproxima,
afasta e desloca a imagem pela tela do computador;
• É possível alterar a composição colorida da imagem a qualquer momento a fim de
realçar algum detalhe de interesse;
• É possível utilizar ferramentas de processamento digital de imagens para realçar
a imagem a fim de melhorar a visualização da mesma. Ex: contraste, brilho,
manipulação de histograma, etc.;
• É possível realizar mensurações sobre a imagem, tais como comprimentos, áreas
e localizações (coordenadas);
• É possível visualizar a imagem juntamente com outros dados (mapas, imagens
antigas ou mais novas, fotografias aéreas, etc.);
• Durante a interpretação realiza-se uma edição de dados vetoriais, sendo possível
utilizar ferramentas para apagar, copiar, rotacionar, aproximar e deslocar
elementos gráficos;
• É possível associar atributos descritivos aos elementos gráficos resultantes da
interpretação (ex: pode-se associar à uma linha representando um rio, o nome, tipo
e comprimento do rio;
• O arquivo digital resultante da interpretação pode ser utilizado em programas
computacionais de SIG. Pode ser integrado com outros dados em análises
complexas.
Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 158
Interpretação de Imagens Digitais
• Etapas da Interpretação.
A primeira etapa consiste na aquisição das imagens à serem
interpretadas. Previamente, é necessário definir os objetivos
da interpretação para então, escolher o sensor corretamente.
Para várias aplicações, existem imagens disponíveis
gratuitamente na Internet, para outras é necessário comprar
imagens comercializadas por empresas especializadas. Durante
o processo de aquisição, é necessário verificar a data da
imagem, obstruções por cobertura de nuvens e sombras, as
bandas necessárias para interpretação, as características do
sensor.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 159


Interpretação de Imagens Digitais
• Conversão e Ajustes da Imagem
•Após da aquisição das imagens, muitas vezes é necessário realizar conversões de
formatos de arquivos e realizar alguns ajustes iniciais para melhorar a visualização
da mesma.
•As conversões e ajustes à serem realizadas na imagem, depende do programa
computacional à ser utilizado na interpretação da imagem. Muitas vezes, as imagens
são adquiridas em um determinado formato, mas é possível que o programa que se
está utilizando não reconhece o formato da imagem, então é necessário realizar
conversões de formatos de arquivos, utilizando outro programa computacional.
•Será utilizado como exemplo, uma imagem CCD/CBERS 2B adquirida no catálogo de
imagens no INPE. Será utilizado também o programa computacional gvSIG 1.10 para
a interpretação da imagem.
• As imagens CCD/CBERS 2B adquiridas no catálogo de imagens, é um conjunto de
arquivos, onde cada banda espectral é uma banda. No exemplo que será tratado
neste capítulo, foi adquirida a imagem CCD/CBERS 2B da órbita ponto 116/117 do dia
18/08/2009. Os arquivos da imagem foram:
• CBERS_2B_CCD2XS_20090818_161_117_L2_BAND1.tif  0,45 - 0,52 µm (azul)
• CBERS_2B_CCD1XS_20090818_161_117_L2_BAND2.tif  0,52 - 0,59 µm (verde)
• CBERS_2B_CCD1XS_20090818_161_117_L2_BAND3.tif  0,63 - 0,69 µm (vermelho)
• CBERS_2B_CCD1XS_20090818_161_117_L2_BAND4.tif  0,77 - 0,89 µm (infr. próximo)

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 160


Interpretação de Imagens Digitais
• Conversão e Ajustes da Imagem
• Como a banda 1 (azul) é fortemente influenciada pela atmosfera, serão utilizadas
apenas as bandas 2 (verde), 3 (vermelho) e 4 (infravermelho próximo).
• O gvSIG reconhece arquivos de formato TIF, mas as bandas estão separadas por
arquivos, então é necessário montar a composição colorida com as bandas 2, 3 e 4.
• Inicialmente, adiciona-se a banda 2 em uma View, depois acessa-se as propriedades
da banda (botão direito do mouse), na caixa de diálogo das propriedades acessa-se a
aba de bandas e adiciona-se as outras bandas da imagem. Logo abaixo, associa-se as
bandas nas cores desejadas. No exemplo banda 2 (red), banda 4 (verde) e banda 3
(green).

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 161


Interpretação de Imagens Digitais
• Conversão e Ajustes da Imagem
• Em seguida, acessa-se a aba Enhancement para melhorar a exibição da imagem. No
quadro Enhancement, ative as opções Activate, Remove extremes e Tail trimming
(%) e deslize o ponteiro abaixo até ver que a exibição da imagem melhorou.
Finalmente, clique em Accept.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 162


Interpretação de Imagens Digitais
• Conversão e Ajustes da Imagem
• Agora é necessário gravar a imagem (composição colorida), para isso é necessário
acessar a ferramenta de filtragem de imagens. Na caixa de diálogo somente ative a
função Create file e depois clique em Apply para criar um novo arquivo. Neste
exemplo, o arquivo terá o nome de composicao_ccd_234.tif

Acessa a ferramenta
de filtros.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 163


Interpretação de Imagens Digitais
• Georreferenciamento
• Na maioria das vezes, o posicionamento das imagens de sensoriamento remoto não está
de acordo com a geografia do local imageado e, portanto se as imagens forem integradas
com mapas ou outras imagens, sem as devidas correções de posicionamento geográfico, as
informações extraídas da imagem estarão também incorretas.
• Desta forma, é necessário realizar o georreferenciamento (ou registro) da imagem,
tomando como base um mapa, ou outra imagem já georreferenciada, ou ainda, coordenadas
de pontos coletadas em campo.
• A imagem à ser georreferenciada pode possuir coordenadas (geográficas ou de alguma
projeção cartográfica) aproximadas, ou ainda possuir apenas coordenadas no sistema de
imagem, ou seja, cada pixel tendo coordenadas apenas o seu número de linha e seu número
de coluna.
• O georreferenciamento é o processo de tornar as coordenadas de uma imagem iguais (ou
semelhantes) as coordenadas de outra imagem, ou de um mapa, ou de pontos mensurados
em campo. Por exemplo, se a imagem A não está georreferenciada e necessita ser utilizada
com a imagem B (que está georreferenciada), então a imagem A deve ser georreferenciada
com a imagem B.
Coluna

Latitude
Linha

Longitude

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 164


Interpretação de Imagens Digitais
• Georreferenciamento
• Existem vários motivos para georreferenciar imagens:
• Comparações de cena com cena para aplicações de comparação individual de
pixels, tais como detecção de mudanças da paisagem, ou mapeamento de inércia
termal (comparação entre imagens de dia e de noite);
• Desenvolvimento de bases de dados para SIG, para posteriores análises
geográficas;
• Identificação de amostras de treinamento com mapas para posterior
classificação;
• Criação de mapas precisos;
• Integração de uma imagem com outros dados (vetoriais ou matriciais);
• Comparação de imagens que são originalmente de escalas distintas;
• Realização de mensurações precisas de distâncias e áreas;
• Concatenação (mosaicos) de imagens;
• Realização de qualquer outra análise que necessita de localizações geográficas
precisas;
• Para o georreferenciamento é necessário inicialmente definir uma quantidade
mínima de pontos de controle, para então ser calculada uma matriz de
transformação, que então possibilita o cálculo do erro médio quadrático da
transformação. Após a análise do erro médio quadrático, o usuário decide se realiza
a gravação do georreferenciamento da imagem.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 165


Interpretação de Imagens Digitais
• Georreferenciamento
• Pontos de controle são os pixels em uma imagem para o qual as coordenadas
geográficas ou de “mundo” são conhecidas. Os pontos de controle possuem então dois
pares de coordenadas X, Y:
•Coordenadas de imagens  usualmente as coordenadas dos pixels da imagem
que está sendo georreferenciada;
• Coordenadas de mundo  as coordenadas obtidas em mapa, em uma imagem
georreferenciada, ou em campo.
• De posse dos pontos de controle, o programa computacional realiza então uma
transformação de coordenadas planas, ou seja os pixels que possuem originalmente
coordenadas de imagem (linha, coluna) passam a possuir coordenadas de mundo
(latitude e longitude), por exemplo.
• Pode-se dividir as transformações de coordenadas planas em dois grupos. O
primeiro grupo é o das transformações geométricas e o segundo, o das
transformações polinomiais. Os dois grupos são resolvidos utilizando técnicas de
ajustamento de observações.
•A transformação de coordenadas estabelece uma relação funcional entre elementos
geométricos de dois espaços. Esta relação funcional se traduz em parâmetros que
explicitam os movimentos e transformações a que os objetos devem ser submetidos
para migrarem de um espaço para outro. Assim, o método de ajustamento mais
adequado é o método paramétrico e este por sua vez baseia-se no método dos
mínimos quadrados (MMQ), dos quais se apresenta um resumo a seguir.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 166


Interpretação de Imagens Digitais
• Georreferenciamento
• Sejam:
Lb : vetor (nx1) dos valores observados;
La : vetor (nx1) dos valores observados ajustados;
V : vetor (nx1) dos resíduos;
Xo : vetor (ux1) dos parâmetros aproximados;
X : vetor (ux1) de correção aos parâmetros aproximados e
Xa : vetor (ux1) dos parâmetros ajustados.

Logo
La = Lb + V (01)

Xa = Xo + X (02)

• O modelo matemático do método paramétrico é o seguinte:

La = F(Xa) (03)

• Substituindo o primeiro membro da (03) pela (01) e o segundo membro da (03) e


linearizando o resultado pela fórmula de Taylor, tem-se:

(04)

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 167


Interpretação de Imagens Digitais
• Georreferenciamento
• A matriz das derivadas parciais é designada matriz A :

(05)

• Fazendo-se :

F(Xo) = Lo (06)

• Obtém-se o modelo matemático linearizado do método paramétrico:

V(nxl) = A(nxu) X(uxl) + L(nxl) (07)

• A matriz A é formada derivando-se as equações de observação em relação a seus


parâmetros. Logo a sua dimensão é (n) equações por (u) parâmetros, apresentando-se
da seguinte forma:

(08)

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 168


Interpretação de Imagens Digitais
• Georreferenciamento
• Minimizando a forma quadrática fundamental, ou seja, aplicando o método dos
mínimos quadrados, obtém-se a seguinte como solução para correção aos parâmetros:

X = - (ATPA)-1 (ATPL) (09)

Fazendo:
N = ATPA (10)
e

U = ATPL (11)
resulta :
N*X+U=0 (12)

Assim, a solução para correção aos parâmetros é dado pelo vetor X :

X = -N-1 * U (13)

e cujas componentes convertem os parâmetros aproximados em ajustados.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 169


Interpretação de Imagens Digitais
• Georreferenciamento
• Em relação as transformações geométricas, será detalhada a transformação afim,
no entanto, existe também a transformação projetiva e a transformação isogonal (ou
de similaridade).
• A transformação afim pode ser escrita da seguinte maneira:
X = a0 + a1*C + a2*L (14)
Y = b0 + b1*C + b2*L (15)
ou então, da forma matricial:
X a1 a2 C a0
= * L + b (16)
Y b1 b2 0

sendo:
X e Y  coordenadas de “mundo” (mapa, imagem georreferenciada, pontos de GPS);
L e C  coordenadas de imagem, e
a0 ... b2  parâmetros da transformação de coordenadas.

• A transformação afim possui seis parâmetros, assim ela aplica duas transformações
de escala (uma na direção X e outra na direção Y), uma rotação, duas translações
(uma na direção X e outra na direção Y), e uma transformação de não ortogonalidade.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 170


Interpretação de Imagens Digitais
• Georreferenciamento
• Para a obtenção dos parâmetros de transformação, pelo método dos mínimos
quadrados, são necessários no mínimo quatro pontos para obter superabundância de
valores.
• Esses irão gerar ao todo seis equações, o que faz com que o sistema tenha
redundância de observações, pois a transformação afim possui quatro incógnitas.
• Para a determinação das quatro incógnitas, utiliza-se o método dos mínimos
quadrados.
• Assim, a matriz A possui a seguinte forma:
C1 L1 1 0 0 0
0 0 0 C1 L1 1
C2 L2 1 0 0 0
A = 0 0 0 C2 L2 1 (17)

Cn Ln 1 0 0 0
0 0 0 Cn Ln 1

Sendo:
C, L são as coordenadas dos pontos no sistema de coordenadas de imagem, e
n é o número de pontos de controle.

• A matriz variância-covariância das observações é a matriz identidade, supondo que


todas as observações são realizadas com a mesma precisão.
Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 171
Interpretação de Imagens Digitais
• Georreferenciamento
• O vetor L possui a seguinte forma:
X1
Y1
L = X2 (18)
Y2

Xn
Yn

Sendo:

X, Y as coordenadas dos pontos conhecidos no sistema destino.

• Assim, aplicando estas matrizes na equação (09), obtém-se os parâmetros para


realizar a transformação afim de todos os pontos dos objetos no sistema L, C para o
sistema X, Y.

• Os programas computacionais de processamento de imagens também utilizam


polinômios para realizar o georreferenciamento de imagens. A escolha arbitrária de
polinômios apresenta inconvenientes, como a correlação de parâmetros, dificuldades
para obter precisão em polinômios de graus elevados e dificuldade quanto à
confiabilidade dos resultados.
Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 172
Interpretação de Imagens Digitais
• Georreferenciamento
• Um polinômio bivariado em x e y é definido analiticamente da seguinte forma:
X = ao + a1C + a2L + a3C2 + a4CL + a5L2 + . . . . (19)
Y = bo + b1C + b2L + b3C2 + b4CL + b5L2 + . . . . (20)
onde:
ao... an, bo...bn, são parâmetros ou coeficientes do polinômio, e
X, Y, C, L coordenadas de pontos no sistema origem e destino respectivamente.
• O número de parâmetros de um polinômio é função do grau do mesmo e pode ser
calculado através da seguinte expressão:
np = (t + 2) * (t + 1) / 2 (21)
onde:
np é o número de parâmetros e
t é o grau do polinômio.
O número mínimo de pontos para obter redundância de observações pode ser
determinado da seguinte maneira:
npt = np + 1 (22)

onde:
npt é o número mínimo de pontos e
np o número de parâmetros.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 173


Interpretação de Imagens Digitais
• Georreferenciamento
• Um polinômio de grau 2 possui a seguinte forma:
X = ao + a1C + a2L + a3C2 + a4CL + a5L2 (23)
Y = bo + b1C + b2L + b3C2 + b4CL + b5L2 (24)

• O número de parâmetros de cada um dos polinômios das equações (23) e (24) é igual
a 6 (doze no total), enquanto o número mínimo de pontos necessários para atingir
redundância de observações é igual a sete.
•O polinômio de grau 3 por sua vez é expresso da seguinte forma :

X = ao + a1C + a2L + a3C2 + a4CL + a5L2 + a6C3 + a7C2L + a8CL2 + a9L3 (25)
Y = bo + b1C + b2L + b3C2 + b4CL + b5L2 + b6C3 + b7C2L + b8CL2 + b9L3 (26)

• Os polinômios de grau 3 das equações (25) e (26) possuem no total vinte


parâmetros e o número de pontos necessários para obter observações redundantes,
viabilizando a aplicação do método dos mínimos quadrados, é igual a onze.
• A matriz das derivadas parciais dos polinômios de grau 2 e grau 3 são obtidas
derivando suas equações com relação aos seus parâmetros.
• As transformações polinomiais devem ser empregadas somente em casos especiais
•onde há muitas distorções a serem corrigidos.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 174


Interpretação de Imagens Digitais
• Georreferenciamento
• Para o georreferenciamento no gvSIG, inicialmente se deve ter uma View com dados
cartográficos ou com um imagem já georreferenciada. Em seguida se deve clicar no ícone de
georreferenciamento. Em seguida em aberta uma caixa de diálogo onde o usuário define a
View onde estão os dados geográficos e depois seleciona a imagem que deve ser
georreferenciada. Ao aceitar os dados de entrada, o gvSIG abre as janelas com dados
geográficos e com a imagem a ser georreferenciada.
• Depois o usuário utiliza as ferramentas do ambiente de georreferenciamento para inserir
os pontos de controle.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 175


Interpretação de Imagens Digitais
• Projeções Cartográficas
• Ao georreferenciar uma imagem, utiliza-se pontos de controle extraídos de bases
cartográficas (mapas), de imagens previamente georreferenciadas, ou de pontos coletados
em campo com receptores GNSS. Desta forma, é importante o conhecimento a respeito de
Cartografia.

RELAÇÕES ESPACIAIS
 FORMA / DIREÇÃO
ÁREA
DISTÂNCIA

 ESFERA (GLOBO)  PLANO (MAPA)


TRIDIMENSIONAL BIDIMENSIONAL

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 176


Interpretação de Imagens Digitais
• Projeções Cartográficas
 Posições geográficas podem ser referidas a partir de uma superfície
esférica. Porém, para criar uma base de dados e apresentar mapas que
estejam corretamente georreferenciados e em uma unidade de medida
comum (centímetros, metros), uma representação planar deve ser
construída.
 Um globo é uma representação tridimensional do dado geográfico. Esta
representação é mais realística que um mapa planar pois o globo mantém as
propriedades espaciais (área, forma, direção e distância).
 Um mapa é uma representação bidimensional da superfície curva da Terra.
Para expressar um espaço tridimensional em um mapa bidimensional é
necessário projetar as coordenadas de um espaço tridimensional para um
espaço bidimensional (plano).
 Os mapas planos são mais utilizados que o globo, por uma série de motivos
tais como facilidade de uso, facilidade no armazenamento, facilidade no seu
deslocamento, facilidade em representar a superfície terrestre em grandes
escalas, etc.
 As feições geográficas são representadas em uma superfície plana,
conseqüentemente, sempre ocorrem distorções de uma ou mais
propriedades espaciais. O método utilizado para projetar coordenadas da
superfície esférica para a superfície plana determina que propriedades são
preservadas e que propriedades são distorcidas.
Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 177
Interpretação de Imagens Digitais
• Projeções Cartográficas
 SISTEMA DE COORDENADAS
CARTESIANAS

Meridianos = Longitude (λ)


Paralelos = Latitude (ϕ)

 SISTEMA DE COORDENADAS
ESFÉRICAS Origem

λ- λ+
ϕ+ ϕ+ No Equador :
1º (arco de um grau) = 60’ ≅ 111 km
λ- λ+ 1’ (arco de um minuto) = 60” ≅ 1852m ≅ milha náutica
1” (arco de um segundo) ≅ 31m.
ϕ- ϕ- 0.1” (arco de um décimo de segundo) ≅ 3m.

34o30’00” é igual a 34.5o.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 178


Interpretação de Imagens Digitais
• Projeções Cartográficas
 Um sistema de coordenadas geográficas é um sistema de referência usado para
posicionar e medir feições geográficas.
 O sistema de coordenadas esféricas é baseada em uma esfera tridimensional. As
posições do mundo real são medidas em graus de longitude e latitude. Os valores
podem ser positivos e negativos dependendo do seu quadrante.
- Como unidade de medida, cada grau é composto de 60 minutos e cada minuto é
composto de 60 segundos.
- As medidas são em graus minutos e segundos (DMS) ou em graus decimais (DD).
Por exemplo, 34o30’00” é igual a 34.5o.
- Os valores de longitude variam de 0o até 180o no hemisfério leste, começando no
meridiano de Greenwich, Inglaterra.No hemisfério oeste, a longitude varia de 0o
até
-180o iniciando também no meridiano de Greenwich.
- Os valores de latitude variam de 0o até 90o no hemisfério norte, indo do equador
até o pólo norte. No hemisfério sul, a latitude varia de 0o até -90o indo do equador
até o pólo sul.

 O sistema de coordenadas cartesianas é baseada na superfície plana. Posições do


mundo real são medidas usando coordenadas x e y a partir de um ponto origem.
- A conversão de coordenadas esféricas para coordenadas planas causa a distorção
de uma ou mais propriedades espaciais.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 179


Interpretação de Imagens Digitais
• Projeções Cartográficas

. Datum
Superfície Física Terrestre

Elipsóide
Geóide

Semi- eixo menor (b)

Semi- eixo maior (a)

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 180


Interpretação de Imagens Digitais
• Projeções Cartográficas
 A geodésia, é uma ciência que se dedica ao estudo das formas e das
dimensões da Terra. Para fazer isto, a geodésia divide a Terra em três
superfícies, a superfície física terrestre, o geóide e o elipsóide.

 A superfície física terrestre, é uma superfície extremamente difícil de


se modelar matematicamente, pois ela possui uma quantidade infinita de
reentrâncias e saliências e um modelo matemático para modelar esta
superfície é atualmente inconcebível.

 O geóide é uma superfície que possui uma propriedade especial. No


geóide o valor da aceleração da gravidade é igual em todos os pontos (o
que não acontece na superfície física). Porém o geóide é tão difícil de
modelar geometricamente quanto a superfície física terrestre, pois
também possui uma quantidade infinita de reentrâncias e saliências.

 O elipsóide, foi a única maneira de se representar geometricamente a


Terra. Ele é uma figura geométrica tridimensional que é definido por um
semi-eixo maior (a) e um semi-eixo menor (b), os geodesistas definem o
elipsóide pelo semi-eixo maior (a) e o achatamento f.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 181


Interpretação de Imagens Digitais
• Projeções Cartográficas
 Alguns Elipsóides:
 Hayford (1924) ou Internacional 1924  Utilizado em vários países e
também no Brasil;
 Clarke 1866, utilizado no EUA;
 UGGI 1967, utilizado por vários países e também no Brasil;
 GRS 1980, utilizado pelo GPS e por vários países;
 Krasovsky 1940, utilizado na Russia e países vizinhos;

 Alguns Data utilizados no Brasil:


 Córrego Alegre (elipsóide Hayford 1924);
 South American Datum 1969 – SAD69 (elipsóide UGGI 1967);
 SIRGAS 2000 (elipsóide GRS 1980);
 WGS 1984 (elipsóide GRS 1980) utilizado pelo GPS.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 182


Interpretação de Imagens Digitais
• Projeções Cartográficas

Projeção Cartográfica Projeção Cartográfica Projeção Cartográfica


Cilíndrica Cônica Plana

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 183


Interpretação de Imagens Digitais
• Projeções Cartográficas

 Imagine um grande pedaço de papel (a superfície de projeção) colocado


em contato com o globo e uma fonte de luz brilhando no centro do globo.
Os raios projetam as feições da Terra a partir da esfera sobre a
superfície plana do papel.
- As projeções são representações planas da Terra desenhadas sobre o
papel ou exibidas sobre a tela do computador. Em outras palavras, elas
expressam uma superfície tridimensional em uma superfície
bidimensional.

 As superfícies de projeção são o cone, o cilindro e o plano. Os mapas


construídos a partir do cone, do cilindro e do plano, são denominadas
respectivamente como cônicas, cilíndricas e planas.

 As propriedades espaciais de forma, área, distância e direção são


preservadas ou distorcidas diferentemente sobre mapas baseados em
superfície de projeção ou outros parâmetros de projeção.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 184


Interpretação de Imagens Digitais
• Projeções Cartográficas

Projeção cilíndrica Projeção cilíndrica Projeção cilíndrica


normal transversa oblíqua

Gnomônica Estereográfica Ortográfica

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 185


Interpretação de Imagens Digitais
• Projeções Cartográficas

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 186


Interpretação de Imagens Digitais
• Projeções Cartográficas

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 187


Interpretação de Imagens Digitais
• Projeções Cartográficas

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 188


Interpretação de Imagens Digitais
• Projeções Cartográficas

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 189


Interpretação de Imagens Digitais
• Projeções Cartográficas

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 190


Interpretação de Imagens Digitais
• Projeções Cartográficas

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 191


Interpretação de Imagens Digitais
• Projeções Cartográficas – Projeção UTM
Cálculo do fuso UTM :
Fuso = INT [(180 - longitude)/6 + 1]

Projeção UTM- Cilindro


transverso
e secante ao elipsóide

Meridiano central
E = 500000

Equador N = 10000000
- 500000 + 500000

Fusos de 6o em 6o, garantem uma distorção mínima no mapeamento.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 192


Interpretação de Imagens Digitais
• Projeções Cartográficas
 A projeção UTM talvez seja a projeção mais utilizada no mundo. Isto ocorre
devido a muitos fatores, entre eles a facilidade na interpolação de coordenadas,
medida de distâncias, cálculo de ângulos e cálculo de áreas.
 A contagem dos fusos da projeção UTM se inicia no anti-meridiano ao meridiano
de Greenwich, portanto no meridiano de 180o. A coordenada no equador vale
10.000.000 de metros e a coordenada no meridiano central vale 500.000 metros.
 A direita do meridiano central, as coordenadas E (longitude, X) são somadas a
500.000 e a esquerda, as coordenadas são subtraídas de 500.000. No hemisfério
sul, as coordenadas N (latitude, Y) são subtraídas de 10.000.000 e no hemisfério
norte são somadas a 0.
 Apesar de ser utilizada mundialmente, a projeção UTM tem seus problemas. O
problema maior é que ela divide o globo em fusos de 6o de longitude, ou seja se
necessitarmos mapear uma região que se distribua no sentido leste-oeste e esta
extensão ultrapasse 6o, a projeção UTM não pode mais ser utilizada.
 A projeção UTM é utilizada no mapeamento de áreas com pouca extensão no
sentido leste-oeste (menos que 6o de longitude).
 No Brasil, os mapas construídos em escalas 1:250000 e maiores (por IBGE e
DSG), se encontram em projeção UTM. No mapeamento municipal também é
utilizada a projeção UTM.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 193


Interpretação de Imagens Digitais
• Projeções Cartográficas

Fonte: Santos (1989)

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 194


Interpretação de Imagens Digitais
• Projeções Cartográficas
 Para mapear todo a área continental brasileira com a projeção UTM,
faz-se necessário considerar oito fusos. No caso do município de
Goiânia, sua localização geográfica coincide com o fuso 22, cujo
meridiano central é 51º.

 Não existe uma projeção cartográfica que serve para todas as


aplicações. Para cada tipo de aplicação existe uma projeção cartográfica
mais adequada.

 A grande maioria dos software de geoprocessamento possuem


ferramentas para transformação de projeções cartográficas e trazem
em média a possibilidade de alterar 30 a 40 projeções.

 Para se escolher a projeção mais adequada a uma determinada aplicação,


o usuário deve ler as características da projeções, as restrições de uso
e as aplicações mais indicadas. Geralmente vários software trazem na
Ajuda esses detalhes sobre cada projeção.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 195


Interpretação de Imagens Digitais
• Projeções Cartográficas
 Projeções Cartográficas Utilizadas no Brasil:
 Mapa do Brasil – Projeção Policônica;

 Mapas Estaduais – Projeção Cônica Conforme de Lambert ou Cônica


Equivalente de Albers;

 Mapas Temáticos 1:1000.000 projeto RADAM-Brasil – Projeção


Cônica Conforme de Lambert;

 Mapas municipais em escala 1:25.000 e maiores – Projeção Universal


Tranversa de Mercator (UTM).

 Mapeamento Sistemático do Brasil – Escalas 1:250.000 a 1:25.000 –


Projeção Universal Transversa de Mercator (UTM)

 Cartas de Navegação – Projeção de Mercator.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 196


Interpretação de Imagens Digitais
• Projeções Cartográficas
 Selecione as propriedades da Vista
 Especifique os parâmetros da projeção

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 197


Interpretação de Imagens Digitais
• Projeções Cartográficas
 O usuário deve especificar a projeção cartográfica e/ou o sistema de
referência que a Vista irá considerar para exibir dados geográficos.

 Ao adicionar dados geográficos, faz-se necessário também especificar a


projeção cartográfica e/ou o sistema de referência do dado. Desta
forma, podemos ter dados em diferentes projeções cartográficos e/ou
sistema de referências, completamente integrados em uma Vista com
uma outra projeção cartográfica e/ou sistema de referência
especificado.

 Ao definir a projeção cartográfica da Vista, é importante também


considerar as unidades de medidas corretas, desta forma, no Brasil,
utiliza-se o sistema métrico para dados em projeções cartográficas e
ângulos para sistema de coordenadas geográficas ou geodésicas.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 198


Interpretação de Imagens Digitais
• Projeções Cartográficas

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 199


Interpretação de Imagens Digitais
• Projeções Cartográficas
 No gvSIG tem-se disponível o Geoprocess Toolbox, que permite o acesso
do usuário a várias ferramentas de geoprocessamento, entre elas a
ferramenta de projeção cartográfica (Reproject).

 Uma vez que se tenha dados adicionados em uma Vista que esteja com a
projeção cartográfica corretamente especificada, é possível produzir
dados, a partir dos dados adicionados na Vista, que estejam em
projeções cartográficas diferente dos dados iniciais.

 Ao acessar a ferramenta Reproject, o usuário deve selecionar o dado que


deseja projetar, em seguida o usuário deve especificar a projeção
cartográfica ou sistema de referência de saída, além do nome do dado a
ser produzido. O gvSIG realizará uma cópia do dado inicial, mas com
projeção cartográfica distinta do dado inicial.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 200


Interpretação de Imagens Digitais
• Realce
• Visa melhorar a qualidade da imagem, permitindo uma melhor discriminação dos
objetos presentes na imagem. As técnicas de realce mais comuns são:
• Composição colorida;
• Realce de contraste;
• Filtragem;
• Operação Aritmética;
• Transformação IHS;
• Fusão de Imagens; e
• Componentes principais

• As técnicas de realce fazem parte de um grande


conjunto de ferramentas de processamento digital
de imagens (PDI).

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 201


Interpretação de Imagens Digitais
• Composição Colorida
• As bandas das imagens são exibidas individualmente em níveis de cinza, cuja
quantidade de níveis são determinadas em função da resolução radiométrica: 8 bits;
10 bits; 11 bits; 16 bits.

• As imagens coloridas são obtidas a partir da combinação das bandas 3 a 3, como por
exemplo, banda 1, banda 2 e banda 3, ou, banda 2, banda 3 e banda 4. Para cada
banda é atribuída uma cor: azul, verde e vermelho.

• Ao projetar e sobrepor essas imagens, através de filtros coloridos, azul, verde e


vermelho (cores primárias) é possível gerar imagens coloridas;

• Os monitores dos computadores possuem 3 canais (RGB) e, na montagem da


composição colorida, cada banda fica associada a um canal. Os monitores reservam 8
bits para cada canal, e a combinação desses três canais é
capaz de produzir uma imagem de 8 x 3 = 24 bits, ou seja
uma imagem 224 bits = 16777216 cores, conforme se pode
observar na figura ao lado.
• A cor de um objeto vai depender da quantidade de
energia por ele refletida, da mistura das cores e
da associação das cores com as imagens.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 202


Interpretação de Imagens Digitais
• Composição Colorida
• Se um objeto é claro somente em uma das bandas originais, na imagem colorida ele
é representado pela cor que foi associada à essa banda original

•Se um objeto aparece claro em duas das bandas originais sua cor na imagem colorida
vai ser a resultante da mistura entre as duas cores que forem associadas às bandas
originais

•Se a imagem colorida apresenta cores dos alvos diferente do que a visão humana
capta (ex: vegetação vermelha ou azul), essa composição é denominada de falsa cor.

•Imagens em falsa cor são primariamente feitas para facilitar e revelar dados que
não poderiam ser obtidos imagens em verdadeira cor

• A partir de três bandas na região do visível (azul, verde e vermelho), por exemplo, é
possível gerar uma imagem colorida natural (cor verdadeira), desde que elas sejam
associadas às respectivas cores:

•Banda 1 – faixa da luz azul do espectro visível associamos a cor azul


•Banda 2 – faixa da luz verde do espectro visível associamos a cor verde
•Banda 3 – faixa da cor vermelha do espectro visível associamos a cor vermelha

• Durante o processo de interpretação de imagens, o usuário pode alterar a


composição colorida das imagens a fim de melhorar a visualização das mesmas.
Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 203
Interpretação de Imagens Digitais
• Composição Colorida Imagem Landsat-TM

Banda 3

Banda 4

Banda 5
Composição Colorida 543 (RGB)

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 204


Interpretação de Imagens Digitais
• Composição Colorida Imagem Landsat-TM

Banda 3

Banda 4

Banda 5
Composição Colorida 345 (BRG)
Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 205
Interpretação de Imagens Digitais
• Composição Colorida Imagem Landsat-TM

Banda 1

Banda 2

Banda 3

Composição Colorida 321 (RGB)


Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 206
Interpretação de Imagens Digitais
• Realce de Contraste
• O realce de contraste, é realizado por meio da manipulação do histograma da
imagem.

• O histograma é uma das formas mais comuns de se representar a distribuição dos


níveis de cinza (NC) de uma imagem.

•O histograma fornece a informação de quantos pixels na imagem possuem um


determinado NC. Outra característica é que o histograma não apresenta nenhuma
informação espacial da imagem, e sim uma função de probabilidade de encontrar um
NC referente a um objeto qualquer da imagem. Normalmente, tem-se no eixo X a
distribuição dos NCs e no eixo Y a freqüência em que ocorrem (veja figura abaixo).

•Um histograma descreve a distribuição


estatística dos níveis de cinza em termos do
número de amostras ("pixels") com cada nível, e
esta distribuição pode também ser dada em
termos da percentagem do número total de
"pixels" na imagem. Pode ser estabelecida uma
analogia entre o histograma de uma imagem e a
função densidade de probabilidade, que é um
modelo matemático da distribuição de tons de
cinza de uma classe de imagens.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 207


Interpretação de Imagens Digitais
• Realce de Contraste
• Os histogramas podem ser uni-dimensionais (como na figura anterior), isto é, para
apenas uma imagem (banda), ou multi-dimensionais quando representa a distribuição
de duas ou mais bandas, sendo o de duas dimensões o mais simples. Um histograma de
duas bandas, ou diagrama de espalhamento (scattergram) como é mais conhecido,
permite analisar visualmente o grau de correlação entre duas bandas e decidir sobre
o tipo de técnica de aumento de contraste deve ser aplicado em imagens multi-
espectrais.

• A forma do histograma fornece informações importantes como a intensidade


média e espalhamento dos valores de NC, sendo este último a medida de contraste
da imagem. Quanto maior o espalhamento ao longo do eixo dos NCs, maior o
contraste da imagem. A figura a seguir ilustra esta distribuição dos NCs.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 208


Interpretação de Imagens Digitais
• Realce de Contraste
•Para aumentar o contraste de uma imagem, deseja-se expandir o intervalo original
de níveis de cinza da imagem original, utilizando-se uma função que consiste em
mapear as variações dentro do intervalo original de tons de cinza, para um outro
intervalo desejado. Este mapeamento é uma operação pontual que utiliza uma função
matemática denominada transformação radiométrica, que considera apenas o NCs
originais de cada pixel para calcular o novo valor na imagem de saída.

•A figura a seguir exemplifica um realce de contraste, onde alguns níveis de cinza


situados entre 0 e a serão mapeados para 0, e aqueles entre b e N-1, serão
saturados em N-1. Após a transformação radiométrica, teremos um histograma da
imagem de saída com freqüências em 0 e N-1, que representarão uma distribuição
maior dos NCs em relação ao intervalo original.

Duas imagens da banda 5 do Landsat 5,


a da esquerda apresenta a banda
original e da direita a imagem realçada
por uma modificação do histograma.
Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 209
Interpretação de Imagens Digitais
• Realce de Contraste
• A manipulação do contraste consiste numa transferência radiométrica em cada
"pixel", com o objetivo de aumentar a discriminação visual entre os objetos
presentes na imagem.

• Importante:
1- Não existe uma regra que melhor se aplique ao realce de contraste de uma imagem,
pois depende das características da mesma, tais como; época de aquisição, ângulo de
iluminação, altura do sensor e bandas.

2- Devem estar bem claros os motivos pelos quais deseja-se aplicar um aumento ou
mesmo uma redução de contraste em uma imagem, antes mesmo de fazê-lo, uma vez
que esse processamento pode afetar o resultado de operações subsequentes.

3- Ao executar um realce de contraste como uma etapa de pré-processamento, deve-


se atentar para o fato de que parte da informação pode ser perdida, dependendo da
forma como é feito o aumento de contraste (veja sobre efeito do overflow mais a
frente na operação de Min/Max).

4- Um aumento de contraste nunca irá revelar uma informação nova, que não esteja
já contida na imagem original. O contraste apenas apresentará a mesma informação
dos dados brutos, porém de uma forma mais clara ao usuário.

• Existem várias abordagens na manipulação de histogramas: Mínimo/Máximo;


Linear; Raiz Quadrada; Quadrado; Logaritmo; Negativo; Equalização de
Histograma; Fatiamento e Edição.
Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 210
Interpretação de Imagens Digitais
• Realce de Contraste
• O aumento de contraste por uma
• A manipulação de histograma pela transformação linear é a forma mais
opção MinMax é idêntica a manipulação simples das opções. A função de
de uma curva linear como será transferência é uma reta e apenas dois
apresentado a seguir. A diferença está parâmetros são controlados: a inclinação da
no momento em que é feita a escolha da reta e o ponto de intersecção com o eixo X.
opção. A inclinação controla a quantidade de
• Como pode-se observar na figura, aumento de contraste e o ponto de
assim que é feita a opção, o sistema intersecção com o eixo X controla a
calcula o valor de nível de cinza mínimo e intensidade média da imagem final.
máximo que é ocupado pela imagem
original. De posse desses valores é •A função de mapeamento linear pode ser
aplicada uma transformação linear onde representada por: Y = AX + B
a base da reta é posicionada no valor
mínimo e o topo da reta no valor máximo.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 211


Interpretação de Imagens Digitais
• Realce de Contraste
• Utiliza-se a transformação quadrado
Utiliza-se a opção de transformação
quando se deseja aumentar o contraste
por raiz quadrada para aumentar o
contraste das regiões escuras da
de feições claras (altos níveis de cinza
imagem original. A função de da imagem). Observe na figura abaixo
transformação é representada pela que o aumento de contraste é maior a
curva, como mostra a figura abaixo. partir da média do histograma, mesmo
Observe que a inclinação da curva é havendo um deslocamento geral para a
tanto maior quanto menores os valores região de níveis mais escuros.
de níveis de cinza. •A função de transformação é dada pela
Pode ser expresso pela função: Y = A X equação: Y = AX 2
onde:
A = fator de ajuste para os níveis de
saída ficarem entre 0 e 255.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 212


Interpretação de Imagens Digitais
• Realce de Contraste
•A transformação negativa é uma
A transformação logarítmica de função de mapeamento linear inversa, ou
valores de níveis de cinza é útil para seja, o contraste ocorre de modo que as
aumento de contraste em feições áreas escuras (baixos valores de nível de
escuras (valores de cinza baixos). cinza) tornam-se claras (altos valores de
Equivale a uma curva logarítmica como nível de cinza) e vice-versa. A figura a
mostrado na figura a seguir. seguir mostra sua representação.
A função de transformação é A função de transformação negativa é
expressa pela equação: expressa por: Y = -(AX + B)
Y = A log (X + 1)

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 213


Interpretação de Imagens Digitais
• Realce de Contraste
•A equalização de histogramas é uma maneira de manipulação de histograma que
reduz automaticamente o contraste em áreas muito claras ou muito escuras, numa
imagem. Expande também os níveis de cinza ao longo de todo intervalo. Consiste em
uma transformação não-linear que considera a distribuição acumulativa da imagem
original, para gerar uma imagem resultante, cujo histograma será aproximadamente
uniforme. Parte-se do princípio que o contraste de uma imagem seria otimizado se
todos os 256 possíveis níveis de intensidade fossem igualmente utilizados ou, em
outras palavras, todas as barras verticais que compõem o histograma fossem da
mesma altura. Como isso não é possível, uma aproximação é conseguida ao se espalhar
os picos do histograma da imagem.
• A equação para a equalização do histograma
é dada por:

faxi × 255
Y=
popt
onde :
faxi = frequência acumulada para o nível de
cinza xi, e
popt = população total (número total de
"pixels")

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 214


Interpretação de Imagens Digitais
• Realce de Contraste • No caso de edição do realce de
•A opção fatia (ou fatiamento de contraste, o usuário interage com a
níveis de cinza) é uma forma de função de transformação radiométrica,
aumento de contraste cuja operação sendo possível então a aplicação de uma
consiste simplesmente em realçar os tabela de transformação radiométrica
pixels cujas intensidades situam-se definida pelo usuário. O seu objetivo é
dentro de um intervalo específico (a salientar um aspecto específico da
fatia), isto é, entre um máximo e um imagem que o usuário deseja analisar.
mínimo. Consiste na divisão do
intervalo total de níveis de cinza de
determinadas fatias (ou classes de
cores).

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 215


Interpretação de Imagens Digitais
• Realce de Contraste
• A manipulação de histograma pode ocasionar perda de informação por “overflow”.

• Um “overflow” ocorre quando muitos pixels de níveis de cinza diferentes são


transformados em um único nível, isto é, quando a inclinação da reta de
transferência é exagerada. Observe na figura abaixo, onde a seta de “overflow”
está indicando, significa perda de informação, uma vez que pixels de colunas
vizinhas do histograma de entrada, que originalmente podiam ser diferenciados com
base no seu nível de cinza, serão fundidos numa só coluna e passarão a ter o mesmo
nível de cinza (0 para o caso da figura abaixo)

• A ocorrência de “overflow” é muitas


vezes desejada, uma vez que o usuário
sabe em que intervalo de níveis de
cinza está o que deseja realçar. Pois
caso contrário estará definitivamente
perdendo a informação quando salvar a
imagem realçada.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 216


Interpretação de Imagens Digitais
• Realce de Contraste
• Para manipular histogramas no gvSIG, o usuário deve acessar a ferramenta
Radiometric Enhancement. Depois disso, uma caixa de diálogo é aberta para a
manipulação de histogramas, conforme mostra a figura abaixo.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 217


Interpretação de Imagens Digitais
• Filtragem
• As técnicas de filtragem são transformações da imagem "pixel" a "pixel", que não
dependem apenas do nível de cinza de um determinado "pixel", mas também do valor dos
níveis de cinza dos "pixels" vizinhos, na imagem original.

• O processo de filtragem é feito utilizando-se matrizes denominadas máscaras que são


aplicadas sobre a imagem. Exemplo: à imagem original de dimensão de 512 linhas por 512
colunas de valores numéricos, aplica-se uma máscara matricial de 3 linhas por 3 colunas; à
cada valor da matriz 3x3 da máscara corresponde um peso. A aplicação da máscara com
centro na posição (i,j), sendo i o número de uma dada linha e j o número de uma dada
coluna sobre a imagem, consiste na substituição do valor do "pixel" na posição (i,j) por um
novo valor, o qual depende dos valores dos "pixels" vizinhos e dos pesos da máscara.

• A imagem resultante da aplicação


de um filtro é uma nova imagem com
a eliminação das linhas e colunas
iniciais e finais da imagem original.
Os filtros espaciais podem ser
classificados em passa-baixa, passa-
alta. Os dois primeiros são os mais
utilizados em processamento de
imagens. O filtro passa-baixa é mais
utilizado em processamentos
específicos, principalmente para
remover ruídos sistemáticos.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 218


Interpretação de Imagens Digitais
• Filtragem
• O filtros servem para suavizar ou realçar detalhes da imagem, ou ainda, minimizar
efeitos de ruído. Os filtros mais comuns são o passa-baixa e passa-alta.
•Passa-Baixa
•O efeito visual de um filtro passa-baixa é o de suavização da imagem e a redução
do número de níveis de cinza da cena. As altas freqüências, que correspondem às
transições abruptas são atenuadas. A suavização tende a minimizar ruídos e
apresenta o efeito de borramento da imagem. Exemplo de filtros 3x3 e 5x5.

• Outros tipos de filtro passa-baixa, conhecidos como


filtros de média ponderada, são usados quando os
pesos são definidos em função de sua distância do
peso central. Filtros desse tipo de dimensão 3x3 são:

• Duas cenas, onde a da esquerda é a


imagem original e a da direita corresponde à
mesma imagem, porém, resultante da
aplicação de um filtro passa-baixa , 7x7.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 219


Interpretação de Imagens Digitais
• Filtragem
Passa-Alta
• A filtragem passa-alta tende a realçar os detalhes, produzindo uma "agudização"
(“sharpening”) da imagem, isto é, as transições entre regiões diferentes tornam-se
mais nítidas. Exemplos: limites de um campo de cultivo, lineamento geológico etc.
• Estes filtros podem ser usados para realçar certas características presentes na
imagem, tais como bordas, linhas curvas ou manchas. O efeito indesejado é o de
enfatizar um ruído, porventura existente na imagem.
• No caso de filtragem passa-alta, alguns exemplos podem ser observados abaixo:

• A imagem da esquerda é a
imagem original e a da direita
corresponde à mesma imagem
após a filtragem passa-alta.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 220


Interpretação de Imagens Digitais
• Filtragem
Filtros de Detecção de Bordas
• A detecção de características, tais como bordas, linhas, curvas e manchas, pode
ser feita com filtros tais como de Roberts e Sobel.
• O operador de Roberts é bastante simples, e como resultado de sua aplicação,
obtém-se uma imagem com altos valores de nível de cinza, em regiões de limites bem
definidos e valores baixos em regiões de limites suaves, sendo "0" (zero) para
regiões de nível de cinza constante. O operador consiste na seguinte função:
a b
(a') = (a - d)2 + (c - b)2
c d
onde:
a' - é o nível de cinza correspondente à localização "a", a ser substituído;
a, b, c, d - são as localizações cujos valores serão computados para a operação.

• O operador gradiente de Sobel tem a propriedade de realçar linhas verticais e


horizontais mais escuras que o fundo, sem realçar pontos isolados. Consiste na
aplicação de duas máscaras, descritas a seguir, que compõem um resultado único:

• A máscara (a) detecta as variações no sentido


horizontal e a máscara (b), no sentido vertical. O
resultado desta aplicação, em cada "pixel", é
dado por:

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 221


Interpretação de Imagens Digitais
• Filtragem
Filtros de Detecção de Bordas
• As figuras mostram duas
cenas, onde a da esquerda é a
imagem original e a da direita
corresponde à mesma imagem,
porém com aplicação de um
filtro de realce de Sobel.

Além dos filtros anteriormente descritos, ainda existem os filtros estatísticos:


• Filtro de Mediana: Suaviza a imagem sem diminuir sua resolução (borrar). Os
pontos da vizinhança de (x,y), dentro de uma janela da imagem, são ordenados e
tomado como novo valor para (x,y) o valor mediano desta ordenação.
• Filtro de Ordem: Os pontos da vizinhança de (x,y), dentro de uma janela da
imagem, são ordenados e tomado como novo valor para (x,y) o valor máximo ou o valor
de uma ordem qualquer desta ordenação.
• Filtro de Moda: Os pontos da vizinhança de (x,y), dentro de uma janela da imagem,
são ordenados e tomado como novo valor para (x,y) o valor mais frequente da
vizinhança. Elimina ruídos pontuais, sem alterar muito as informações da imagem.
• Filtro de Média: É calculada a média entre os valores dentre de uma janela da
imagem. O filtro de média suaviza a imagem, é um filtro passa-baixa.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 222


Interpretação de Imagens Digitais
• Filtragem no gvSIG

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 223


Interpretação de Imagens Digitais
• Filtragem no gvSIG
• Na ferramenta de filtragem do gvSIG, além dos filtros pré-definidos, que estão
categorizados o usuário pode construir e aplicar seus filtros, utilizando a ferramenta
“Custom”, disponível na categoria “Spatial Functions”.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 224


Interpretação de Imagens Digitais
• Operações Matemáticas entre Bandas
• As imagens digitais são formadas por arranjos de bandas espectrais,
estruturadas na forma de matrizes compostas por números. Desta forma, é
possível realizar operações matemáticas sobre os pixels de uma ou de mais
bandas.

• O gvSIG e vários programas de processamento de imagens possibilitam a


utilização de funções tais como (seno, cosseno, tangente, logaritmo,
absoluto, raiz quadrada, etc.), assim como operações aritméticas (soma,
subtração, multiplicação, divisão), operações lógicas (maior, menor, maior ou
igual, menor ou igual, diferente, igual), operações de concatenação (and, or).

• Nestas operações utiliza-se valores constantes e/ou uma ou duas bandas de


uma mesma área geográfica, previamente georreferenciadas. Realiza-se a
operação "pixel" a "pixel", através de uma regra matemática definida, tendo
como resultado uma banda representando a combinação das bandas originais.

•De maneira geral, utiliza-se a operação de adição para realçar similaridade


entre bandas ou diferentes imagens e, a subtração, a multiplicação e divisão,
para realçar diferenças espectrais.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 225


Interpretação de Imagens Digitais
• Operações Matemáticas entre Bandas – Subtração de imagens
• Utiliza-se a subtração de imagens ou de bandas de uma mesma imagem
para realçar diferenças espectrais no espaço e/ou no tempo. Esta operação
constitui uma relação linear.

• Conhecendo-se as curvas de comportamento espectral dos alvos de


interesse e o intervalo espectral das bandas dos sensores, é possível
definir quais bandas serão utilizadas para realçar as diferenças espectrais
através da subtração de bandas.

• Exemplos de aplicação da subtração de bandas:


- identificação de diferentes tipos de cobertura vegetal;
- identificação de minerais formados por óxido de ferro;
- detecção do padrão de mudança de cobertura, como uso do solo,
expansão urbana, desmatamento.

• Quando, na imagem, a média e desvio padrão dos histogramas a serem


subtraídos não coincidirem, aconselha-se a equalização de sua média e do
desvio padrão, antes da subtração, através de um aumento de contraste
adequado em ambas imagens. Caso não seja adotado este procedimento, o
resultado da subtração entre as imagens não corresponderá à diferença
real entre elas.
Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 226
Interpretação de Imagens Digitais
• Operações Matemáticas entre Bandas – Divisão entre imagens
• A operação de divisão de imagens consiste numa operação não-linear. É
utilizada para realçar as diferenças espectrais de um par de bandas,
caracterizando determinadas feições da curva de assinatura espectral de
alguns alvos.

• Esta operação é limitada em bandas que apresentam ruídos, pois estes


serão realçados. A presença do espalhamento atmosférico, seletivo em
relação às bandas espectrais, interfere na razão de bandas, resultando em
valores de nível de cinza que não representam a diferença de reflectância
entre os alvos. Um outro fator limitante é a presença de objetos distintos
nas bandas originais que apresentam características espectrais
semelhantes, porém com diferentes intensidades. Na imagem resultante da
razão entre bandas estes objetos não serão distintos.

• A operação de razão entre bandas pode:


• remover efeitos provenientes de variações espaciais ou temporais,
quando ocorrem em bandas de uma mesma imagem;
• diminuir variações de radiância da imagem, provenientes de efeito de
relevo;
• aumentar diferenças de radiância entre solo e vegetação.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 227


Interpretação de Imagens Digitais
• Operações Matemáticas entre Bandas – Divisão entre imagens
• Para remover o efeito de iluminação, considera-se, por exemplo, que a
radiância de um "pixel" é 1, o fator de iluminação é "a", e que a resposta
detectada pelo sensor é o produto destes dois fatores. Remove-se o efeito
de iluminação, dividindo-se cada "pixel" em uma banda (1) pelo "pixel"
correspondente em outra banda (2). Desta forma, sendo R o resultado
independente do fator de iluminação, tem-se:
• R1,2 = a.B1/a.B2 = B1/B2

• A redução do efeito de iluminação também elimina o efeito do


sombreamento topográfico.
• Para aumentar o contraste entre solo e vegetação, pode-se utilizar a
razão entre bandas referentes ao vermelho e infravermelho próximo,
constituindo assim, os chamados índices de vegetação (NDVI):
• NDVI = ((A-B)/(A + B))
• A = banda infravermelho próximo
• B = banda vermelho

•constitui o índice de vegetação de diferença normalizada (IVDN), que além


de aumentar o contraste espectral entre a vegetação e o solo, tem os
efeitos de iluminação, declividade da superfície e geometria de "visada"
parcialmente compensados pelo índice.
Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 228
Interpretação de Imagens Digitais
• Operações Matemáticas entre Bandas – Adição e multiplicação
• A adição de imagens ou de bandas é uma operação linear. Esta operação
pode ser utilizada para a obtenção da média aritmética entre as imagens,
minimizando a presença de ruído. A adição pode ainda ser utilizada para a
integração de imagens resultantes de diferentes processamentos.

• A multiplicação de imagens também é uma operação linear que consiste na


multiplicação entre bandas ou de uma constante pelos níveis de cinza de
uma banda. A multiplicação é utilizada na implementação de transformações
que se deseja realizar sobre a imagem.

• Operações Matemáticas entre Bandas – Operações Lógicas


• A utilização de operações lógicas booleanas pode ser utilizada para
comparar pixels de duas bandas, ou ainda para comparar os valores entre
pixels de uma banda e um valor constante. As operações lógicas resultam
em uma imagem “binária”, ou seja com pixels assumindo valores 0 ou 1.
• Neste caso, os valores 1 são assumidos para os pixels que atendem a
lógica booleana estabelecida pelo usuário, e os valores 0 são destinados
para os pixels que não atendem a expressão lógica estabelecida.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 229


Interpretação de Imagens Digitais
• Operações Matemáticas entre Bandas – No gvSIG
• No gvSIG, as operações matemáticas são realizadas utilizando a
extensão Sextante (Raster Calculator). Na figura, é possível observar a
elaboração de um índice de vegetação.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 230


Interpretação de Imagens Digitais
• Análise de Componentes Principais – PCA
• Análise de Componentes Principais (ou PCA) é frequentemente utilizada
como um método de compressão de dados.
• Ele permite que dados redundantes para ser compactado em poucas
faixas, ou seja, a dimensionalidade dos dados é reduzido. As bandas
resultantes da análise de componentes principais são não correlacionados e
independentes, e são muitas vezes mais interpretáveis do que as bandas
originais.
•O processo é facilmente explicado
graficamente utilizando como exemplo os
dados de duas bandas. Ao lado, é possível
observar um gráfico de dispersão de duas
bandas, que mostra os relacionamentos
dos valores dos pixels de duas bandas. Os
dados de uma banda são plotados em
relação aos dados da outra banda.
• Se os dados das bandas possuirem
distribuição normal, o resultado é uma
forma de elipse.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 231


Interpretação de Imagens Digitais
• Análise de Componentes Principais – PCA
• Em um histograma n-dimensional, uma elipse (2 dimensões), elipsóide (3
dimensões) ou hiperelipsóide (mais de 3 dimensões) é formado, se as
distribuições de cada banda de entrada forem normais ou quase normais.
(A "elipse"será utilizada para propósitos gerais aqui.)
• Para realizar a análise de componentes principais, os eixos do espaço
espectral são rotacionados, alterando as coordenadas de cada pixel no
espaço espectral, e consequentemente os valores das bandas resultantes.
Os novos eixos são paralelos aos eixos da elipse.

• Primeira Componente Principal


• O comprimento e a direção do
transecto maior da elipse são
calculados usando álgebra matricial. O
transecto, que corresponde ao maior
eixo da elipse, é chamado o primeira
componente principal dos dados.

•A direção da primeira componente


principal é o primeiro autovetor, e seu
comprimento é o primeiro autovalor.
Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 232
Interpretação de Imagens Digitais
• Análise de Componentes Principais – PCA
• A primeira componente principal mostra a direção e o comprimento do
maior transecto elipse. Portanto, como um eixo no espaço espectral, que
contém a maior variação dos dados. Na Figura, é possível observar que o
primeiro autovalor será sempre maior do que os intervalos das bandas de
entrada.

• As sucessivas Componentes Principais


• A segunda componente principal é o
maior transecto da elipse que é
ortogonal (perpendicular) à primeira
componente principal. Assim, a segunda
componente descreve a maior
quantidade de variância nos dados, que
não é descrita pela primeira
componente principal. Em uma análise
bidimensional, a segunda componente
principal corresponde ao eixo menor da
elipse.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 233


Interpretação de Imagens Digitais
• Análise de Componentes Principais – PCA
• Em dimensões n, há n componentes principais. Sendo que cada direção de
sucessivas componente:
• o maior transecto da elipse é ortogonal às componentes anteriores
no espaço n-dimensional do gráfico de dispersão.
•Embora existam n bandas de saída em uma análise de componentes
principais, as primeiras bandas são responsáveis ​por elevada proporção da
variação dos dados, em alguns casos, quase 100%. Assim, a análise de
componentes principais é útil para compressão de dados em
bandas menos.
• Em outras aplicações, informações
úteis podem ser obtidas a partir
das bandas das componentes
principais com variação mínima.

•Estas bandas podem mostrar


detalhes sutis na imagem que
foram obscurecidos por um maior
contraste na imagem original. Estas
bandas podem também mostrar a
ocorrência de ruídos regulares nos
dados. 234
Eng. Ambiental – Prof. Dr. Nilson C. Ferreira
Interpretação de Imagens Digitais
• Análise de Componentes Principais no gvSIG

• A análise de componentes principais no


gvSIG é um processo bem simples.
Acessando a ferramenta de
transformação multispectral, uma caixa de
diálogo é aberta e então o usuário,
informa a imagem, as bandas, o arquivo
que será gerado e o tipo de
transformação.
Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 235
Interpretação de Imagens Digitais
• Interpretação de Imagens no gvSIG
• Até o momento, em nosso curso, passamos por
quatro e importantes etapas do Sensoriamento
Remoto, sendo elas a Aquisição de Imagens, os
Conversão e Ajustes, o Georreferenciamento e o
Realce de imagens.
• Atualmente, a maioria dos programas computacionais
utilizados no processamento de imagens de
Sensoriamento Remoto, produzem dados vetoriais
para Sistemas de Informações Geográficos, onde
esses dados podem ser integrados à diversos outros
dados para a produção de informações geográficas,
que são imprescindíveis no planejamento, na gestão e
na tomada de decisões.

Dados raster (matriciais), formados


por pixels (ex: imagens). Dados
vetoriais (pontos, linhas e polígonos).

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 236


Interpretação de Imagens Digitais
• Interpretação de Imagens no gvSIG
•DADOS GEOGRÁFICOS - Os dados geográficos são constituídos da
relação entre os dados gráficos e os dados tabulares, com a especificação
de regras topológicas e domínios de dados. A função destes dados é
representar graficamente, fisicamente, quantitativamente e
qualitativamente os elementos existentes sobre a superfície terrestre.

•DADOS GRÁFICOS - (Pixels, Linhas, Pontos, Polígonos) são utilizados


para representar graficamente elementos geográficos (drenagem, sistema
viário, relêvo, vegetação, limite político etc.). As propriedades topológicas
dos dados gráficos tais como área, perímetro, conectividade, direção,
comprimento, contiguidade, etc., são considerados em Geoprocessamento.

•DADOS TABULARES - Os dados tabulares são relacionados aos dados


gráficos e têm como função, descrever mais, detalhadamente, os
elementos geográficos.

•A modelagem de dados geográficos consiste em:


- Determinar a estrutura de representação dos dados (vetorial ou matricial)
- No caso de estrutura vetorial, definir o tipo de dado gráfico (ponto, linha ou
polígono)
- Definir os campos (atributos) dos dados tabulares.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 237


Interpretação de Imagens Digitais
• Interpretação de Imagens no gvSIG
•ESTRUTURA DE DADOS GRÁFICOS : Estrutura vetorial (linhas, pontos e
polígonos) e estrutura matricial (pixels, imagens).

•ESTRUTURA DE DADOS TABULARES : Tabelas (itens e registros).

•Os dados gráficos são ligados ou relacionados aos dados tabulares por meio
de um identificador, que o programa computacional de SIG controla.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 238


Interpretação de Imagens Digitais
• Interpretação de Imagens no gvSIG
•FEIÇÕES: O mundo real é muito complexo para armazenar todas as
informações sobre ele em uma base de dados geográficos. É necessário
portanto simplificar os fenômenos do mundo real para armazená-lo
digitalmente. As feições dos temas representam uma simplificação dos
fenômenos geográficos do mundo real.

Tipos de O que podem representar Exemplos


Feições

Pontos Feições pontuais, uma única Poços, construções,


posição x e y postes, etc.

Linhas Feições lineares, um conjunto Vias, drenagem,


de posições x e y redes de
distribuição, etc.
Polígonos Feições poligonais, áreas Lotes, vegetação,
homogêneas com fronteiras solos, etc.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 239


Interpretação de Imagens Digitais
• Interpretação de Imagens no gvSIG

1 2 3

4 5

240
Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 240
Interpretação de Imagens Digitais
• Interpretação de Imagens no gvSIG
A criação de um novo shapefile é uma tarefa bastante simples, basta seguir o
esquema ilustrado anteriormente :

1.) Com uma Vista ativa, no menu superior escolha as opções Vista/New Layer/New
SHP.
2.) Defina o tipo de feição do novo shapefile (ponto, Multiponto, linha ou polígono),
no exemplo foi selecionado o tipo ponto.
3.) Em seguida, é necessário especificar todos os atributos que irão compor o
shapefile, bem como os respectivos tipos de dados de cada atributo.
4.) Em seguida defina o nome do arquivo shapefile e em que diretório ele será
armazenado (no exemplo no nome do shapefile é Arquivo_edit.shp).
5.) Nesta etapa, o shapefile já está definido, gravado no disco e pronto para
começar ser editado. O gvSIG disponibiliza as ferramentas de desenho conforme o
tipo de shapefile.

Os Procedimentos para criação de arquivos shapefile do tipo multipontos, linhas e


polígonos são praticamente os mesmos, o que muda são as ferramentas que o gvSIG
disponibiliza para a edição.

Além de shapefile, o gvSIG permite a criação de dados geográficos no PostGIS


(Banco de Dados) e também a criação de arquivo DXF (CAD).
Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 241
Interpretação de Imagens Digitais
• Interpretação de Imagens no gvSIG

1 2

3
4

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 242


Interpretação de Imagens Digitais
• Interpretação de Imagens no gvSIG
A edição de um shapefile é também uma tarefa bastante simples, basta
seguir o seguinte esquema :
1.) Com um tema ativo, é necessário acessar a função Start Edition no
menu superior, se Start Edition estiver desfocado é porque o arquivo
shapefile está com atributo Read-Only, é necessário usar o programa
Windows Explorer para alterar os atributos de todos os arquivos que
compõem o shapefile.
2.) Depois de acessar Start Edition, o nome do Layer é apresentado na cor
vermelha e na parte inferior da Vista, surge uma área para edição por
linha de comandos, onde se pode digitar pares de coordenadas e fornecer
argumentos para os comandos.
3.) Ao clicar com o botão direito do mouse sobre o nome do Layer em
edição, o usuário pode acessar as Propriedades da Edição, que causará a
abertura de uma caixa de diálogo, onde o usuário pode especificar
parâmetros e tolerâncias que facilitarão o processo de edição.
3.) Após terminar a edição o usuário pode clicar em Finish Edition ou
quando desejar poderá salvar suas edições e continuar editando o arquivo
shapefile.
O gvSIG só permite a edição de um arquivo shapefile por vez.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 243


Interpretação de Imagens Digitais
• Interpretação de Imagens no gvSIG

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20

1 - Adiciona pontos; 10, 11 – Desfaz ou refaz edição;


2 – Adiciona multipontos com 12 – Movimenta feição;
mesmo atributo; 13 – Copia feições;
3 – Adiciona segmento de reta; 14 – Cópia simétrica de feição;
4 – Adiciona arco por três pontos; 15 – Rotaciona feição;
5 - Adiciona linhas com vários 16 – Aplica escala em feição;
segmentos ou polígono irregular; 17 - Adiciona ou remove vértice;
6 - Adiciona polígono regular com 18 - Adiciona polígono interno;
vários vértices; 19 – Seleciona / movimenta vértice e
7 - Adiciona retângulo; 20 – Realiza seleção complexa de feição
8 - Adiciona círculo e
9 - Adiciona Elipse.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 244


Interpretação de Imagens Digitais
• Interpretação de Imagens no gvSIG
O gvSIG disponibiliza várias ferramentas para realização de edição de
arquivos vetoriais (Shapefile, PostGIS e/ou DXF) . Conforme o tipo de
feição do arquivo que se está editando, o gvSIG disponibiliza as
ferramentas corretas.

Durante a edição o usuário utiliza os botões direito e esquerdo do mouse


para inserir, finalizar, remover, e movimentar feições. Na parte inferior
da Vista também é aberto um espaço para a entrada de argumentos e
parâmetros via linha de comando. Neste espaço o usuário pode inserir
também as coordenadas de pontos e vértices das feições.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 245


Classificação de imagens
de sensores remotos

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 246


Classificação de Imagens
• A classificação de imagens multiespectrais é o processo de classificação de
pixels em um número finito de classes individuais ou categorias de dados, com
base em seus valores de dados de arquivo. Se um pixel satisfaz um certo conjunto
de critérios, o pixel é atribuído à classe que corresponde ao critério. Esse
processo também é conhecido como segmentação de imagens.
• Dependendo do tipo de informação que o usuário deseja extrair dos dados
originais, as classes podem ser associadas com feições conhecidas no terreno ou
podem simplesmente representar áreas "diferentes" para o computador. Um
exemplo de uma imagem classificada é um mapa de cobertura e uso do solo,
mostrando a vegetação nativa, as áreas de solo exposto, áreas de pastagens, áreas
urbanas, etc.
• O reconhecimento de padrões é a ciência e arte de encontrar padrões
significativos nos dados, que podem ser extraídos por meio da classificação. Com
realces espaciais e espectrais na imagem, o reconhecimento de padrões pode ser
realizada com o cérebro e visão humana, que classifica automaticamente certas
texturas e cores em categorias.
• Em um sistema computacional, o reconhecimento de padrões espectrais pode ser
mais científico. São determinadas estatísticas derivadas das características
espectrais de todos os pixels em uma imagem. Dessa forma, os pixels são
classificadas com base em critérios matemáticos. O processo de classificação se
divide em duas partes, o treinamento e a classificação (usando uma regra de
decisão).

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 247


Classificação de Imagens
• Treinamento:
• Primeiro, o sistema computacional deve ser treinado para
reconhecer padrões nos dados. O treinamento é o processo de
definição dos critérios pelos quais esses padrões são
reconhecidos. O treinamento pode ser realizado tanto para
métodos de classificação supervisionado, quanto para métodos de
classificação não-supervisionado.
• Treinamento Supervisionado:
• O treinamento supervisionado é controlada pelo analista. Neste
processo, o usuário seleciona pixels que representam padrões ou
características que ele reconhece, ou que pode identificar com a
ajuda de outras fontes, tais como fotografias aéreas ou mapas.
• Através da identificação de padrões, o usuário pode "treinar" o
sistema computacional para identificar pixels com características
semelhantes. Se a classificação for precisa, as classes
resultantes representarão as categorias dentro dos dados que o
usuário originalmente identificou.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 248


Classificação de Imagens
• Treinamento Não-Supervisionado
• Treinamento não-supervisionado é mais automatizado. Ele permite ao
usuário especificar alguns parâmetros que o computador usa para
descobrir padrões estatísticos que são inerentes nos dados. Esses
padrões não correspondem necessariamente às características
diretamente significativa da cena, tais como áreas com um determinado
tipo de solo ou uso da terra facilmente reconhecidas. Eles são
simplesmente conjuntos de pixels com características espectrais
semelhantes, em alguns casos, pode ser mais importante identificar
grupos de pixels com características espectrais semelhantes
do que classificar pixels em categorias reconhecíveis.
• O treinamento não-supervisionado é dependente dos dados em si para a
definição das classes. Este método é geralmente usado quando se
conhece pouco os dados e a área imageada antes da classificação. É
responsabilidade do analista, após a classificação, para dar significado às
classes.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 249


Classificação de Imagens
• No gvSIG, depois de ter uma imagem adicionada em uma View, o usuário
acessa a ferramenta de classificação e uma caixa de diálogo é aberta. O
usuário escolhe a imagem que será classificada e as bandas. Depois
especifica o método. No caso de classificação não-supervisionada, o
usuário deve definir o número de classes desejadas.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 250


Classificação de Imagens
• No caso de classificação
supervisionada, o usuário deve
especificar o método: maximum
likehood (máxima probabilidade ou
máxima verossimilhança); distância
mínima e paralelepípedo.
• Em seguida, o usuário deve
selecionar interativamente as
amostras sobre a imagem, utilizando
ferramentas pontuais, lineares e
poligonais. O usuário pode selecionar
quantas amostras forem necessárias.
O usuário deve também especificar o
nome de cada amostra, conforme a
classe a que ela pertence. Finalmente,
o usuário realiza a classificação.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 251


Classificação de Imagens
• A Pós-Classificação:
• Depois da imagem classificada, o usuário deve ainda partir para o
processo de pós-classificação, para eliminar ruídos e inconsitências.
• A eliminação de ruídos ocorre principalmente, por meio da aplicação da
filtragem estatística de moda, que eliminar pixels isolados.
• O usuário pode ainda realizar a vetorização da imagem classificada,
obtendo dessa forma, um shapefile que posteriormente pode ser editado
no gvSIG.

Eng. Ambiental – Prof. Dr. Nilson C. Ferreira 252

Potrebbero piacerti anche