Sei sulla pagina 1di 113

TELEDETECCION Y

SENSORES REMOTOS
Gabriel Mercado Jauregui
La Teledetección ó Percepción remota se define
como:
“La ciencia y el arte de obtener información útil de un
objeto, área o fenómeno, a través del análisis e
interpretación de los datos de imágenes adquiridas
por un equipo que no este en contacto físico con el
objeto, área, o fenómeno bajo investigación”. (IGAC
Principios Básicos de Cartografía Temática 1998.
Pág. 216).
“La teledetección espacial se define como la técnica
que permite adquirir imágenes de la superficie de la
terrestre desde sensores instalados sobre
plataformas espaciales, estamos suponiendo que
entre la Tierra y el sensor existe una interacción
energética, ya sea por reflexión de la energía solar o
un haz energético artificial, ya por emisión propia”.
Percepción remota es la ciencia y arte de obtener información de un
objeto, área o fenómeno a través del análisis de los datos adquiridos
mediante algún dispositivo que no esta en contacto físico con el
objeto, área o fenómeno investigados.

I. FOTOGRAMETRIA
Definición: Fotogrametría es la ciencia de realizar mediciones e
interpretaciones confiables por medio de las fotografías, para de
esa manera obtener características métricas y geométricas
(dimensión, forma y posición), del objeto fotografiado. (Sociedad
Internacional de Fotogrametría y Sensores Remotos)
Por otra parte, la Sociedad Americana de Fotogrametría y Sensores
Remotos (ASPRS), tiene la siguiente definición,: Fotogrametría es el
arte, la ciencia y la tecnología de obtener información confiable de
objetos físicos y su entorno, mediante el proceso de exponer, medir
e interpretar tanto imágenes fotográficas como otras, obtenidas de
diversos patrones de energía electromagnética y otros fenómenos.
Etimológicamente, la palabra fotogrametría se deriva de las
palabras griegas photos, que significa luz; gramma,
que significa lo que está dibujado o escrito, y metrón, que
significa medir. En conjunto esas palabras, fotogrametría
significa medir gráficamente por medio de la luz.
Fundamento de la fotogrametría.
El principio en el que se basa la fotogrametría consiste en
proyectar en forma ortogonal sobre un plano de referencia, la
imagen registrada en una fotografía, la cual ha sido proyectada
sobre el negativo mediante la proyección central, que es la
usada por las lentes.
Etapas de la fotogrametría.
El paso de la proyección central a la proyección ortogonal se
puede realizar por la fotogrametría gráfica, prácticamente en
desuso en nuestros días, o por la estereofotogrametría, la
cual es usada actualmente en la inmensa mayoría de los
trabajos fotogramétricos.
Actualmente, gracias a la capacidad de cálculo que ofrecen
las computadoras, el uso de esta forma de restitución se ha
convertido, para algunos casos especiales, en una
alternativa que puede competir con la estereofotogrametría.
La estereofotogrametría se basa en la visión
estereoscópica para recrear en la mente del observador un
modelo estereoscópico a partir de un par de fotografías,
tomadas cada una de ellas desde una posición diferente,
para ser observadas en forma separada por el ojo
respectivo. De esta manera, cada ojo transmite al cerebro
una imagen ligeramente diferente del otro, tal como lo hacen
al observar los objetos tridimensionales. El cerebro
interpretará entonces esas diferencias como diferencias en la
profundidad, y formará un modelo estereoscópico en la
mente del observador.
La estereofotogrametría se ha llevado a cabo por las
siguientes técnicas:
La estereofotogrametría se ha llevado a cabo por las
siguientes técnicas:

La fotogrametría analógica, que surge en la década de los


treinta basada en aparatos de restitución y es la responsable
de la realización de la mayoría de la cartografía mundial. En
ella, un par de fotografías es colocado en un aparato
restituidor de tipo óptico o mecánico.

El operador realiza en forma manual la orientación interior y


exterior para crear el modelo estereoscópico, debidamente
escalado y nivelado. El levantamiento de la información
planimétrica y altimétrica del modelo se realiza también en
forma manual, mediante el seguimiento con la marca flotante
posada sobre los detalles de la superficie del modelo.
Esta información es ploteada en una cartulina colocada sobre
la mesa trazadora, relacionada con el modelo por medios
mecánicos o eléctricos.
La fotogrametría analítica, que aparece en 1957 como un
desarrollo natural de la interrelación entre los aparatos
restituidores analógicos y el surgimiento de la computación.
En ella, la toma de información es analógica y el modelado
geométrico es matemático.
Mediante el uso de un mono comparador o de un
estereocomparador integrado en el restituidor, se miden las
coordenadas x, y, de los puntos pertinentes de las
fotografías, coordenadas que son procesadas por los
programas del computador del sistema. Este realiza el
procesamiento de la orientación interior y exterior en forma
analítica y procesa el levantamiento de la información del
modelo que realiza el operador, para llevarla a su correcta
posición ortogonal, y finalmente almacenarla en una base de
datos tipo CAD.
La fotogrametría digital, actualmente en auge, surge como
consecuencia del gran desarrollo de la computación, que
permitió realizar todos los procesos fotogramétricos mediante
el uso de computadores. Con la fotogrametría digital crecen
las posibilidades de explotación de las imágenes, a la vez que
se simplifican las tecnologías, permitiendo con ello la
generación automática de modelos de elevación del terreno,
ortoimágenes y estereortoimágenes, generación y
visualización de modelos tridimensionales etc. Para llevar a
cabo la restitución digital, las imágenes digitales son
ingresadas en el computador, y mediante visualización en
pantalla de las mismas, el operador ingresa los puntos
necesarios para realizar el proceso de orientación en forma
matemática. La restitución puede ser un proceso iterativo con
el operador o ser realizada en forma automática por
correlación de imágenes. La salida en la fotogrametría digital
puede ser en formato raster o formato vectorial.
HISTORIA.
La fotogrametría es una disciplina resultado de la
convergencia de la óptica, la fotografía, las matemáticas
(especialmente la geometría proyectiva), para realizar
levantamientos de carácter cartográfico principalmente. Por
ello podemos iniciar sus raíces en la óptica, la primera de
estas ciencias que tuvo un desarrollo práctico y cuyo aporte
es fundamental, tanto en la captura de imágenes, como en su
posterior reconstrucción, de la cámara oscura, la cual
constituye la base de la cámara fotográfica. De hecho, en el
siglo XVIII había alcanzado tal popularidad, que eran
fabricadas casi en serie, adaptadas a los usos y
circunstancias.
Así pues, cuando aparecieron las primeras emulsiones
fotográficas, ya contaban con un aparato relativamente
perfeccionado donde podían ser colocadas para captar la luz
La utilidad comprobada de la fotografía, para trabajos
topográficos, estimuló el desarrollo de técnicas conducentes
a mejorar las aplicaciones de la fotogrametría, la cual
rápidamente se desplazó hacia una nueva plataforma de
toma: las aeronaves.
El surgimiento de la aeronáutica, con el advenimiento de los
aeróstatos, es contemporáneo con el de la fotografía por lo
que la ventaja de la perspectiva aérea fue notada y aplicada
de inmediato. La primera guerra mundial puso en manos de
los fotogrametristas abundantes recursos económicos que
permitieron consolidar la fotogrametría aérea. También en
esa guerra apareció una disciplina colateral a la
fotogrametría, con un inmenso campo de aplicación: la
fotointerpretación.
El desarrollo de las técnicas fotogramétricas continuó en
forma progresiva, hasta que el desarrollo de las
computadoras y de la fotografía digital, iniciado a partir de los
años 70,
En forma paralela al progreso de las técnicas fotogramétricas,
se desarrolla la astronáutica, permitiendo el acceso de la
fotogrametría espacial, mediante sensores instalados a bordo
de satélites. De esta manera, la Luna y Marte ya han sido
mapeados mediante imágenes tomadas por estos satélites, y
actualmente parte de los productos fotogramétricos provienen
de imágenes tomadas desde el espacio.
Aplicaciones de la fotogrametría.
La primera utilización de la fotogrametría consistió en la
realización de mapas y planos topográficos. De hecho, los
mapas base de la cartografía de cualquier país, son obtenidos
mediante ella. Actualmente, además de la realización de estos
mapas base, se realizan muchos otros tipos de mapas de
carácter especial, los cuales pueden presentar gran variedad
de escalas, y se utilizan en el proyecto y diseño de obras tales
como: autopistas, carreteras, vías de ferrocarril, puentes,
tuberías, oleoductos, gasoductos, líneas de transmisión,
presas hidroeléctricas, estudios urbanos, etc.
Además de estos mapas, orientados principalmente al
desarrollo de obras de ingeniería civil, podemos mencionar
mapas realizados para uso catastral, mapas geológicos,
mapas de suelos, mapas forestales, etc.
También podemos mencionar a la arquitectura, en el
levantamiento de monumentos y de sitios; la arqueología, en
aplicaciones similares a las usadas en arquitectura; la
bioestereometría, en el estudio de formas de seres vivos; la
construcción naval, la automotriz y la de maquinaria pesada
hacen también uso de esta disciplina.
Una importante cantidad de la información cartográfica
producida mediante el empleo de la fotogrametría, es
utilizada como referencia espacial en bases de datos
digitales, éstos, se integran con otros datos obtenidos por
diferentes medios, generalmente de carácter cualitativo y
descriptivo para conformar sistemas de información
geográfica (SIG).
Ventajas y de la fotogrametría.
•Reducción de costos.
•Reducción del trabajo de campo
•Velocidad de compilación
•Nos facilita datos muy valiosos en los casos de cambios
súbitos, como por ejemplo: durante o después de catástrofes
naturales. •
•Flexibilidad. El método fotogramétrico puede ser realizado en
un variado rango de escalas,
•Registro multitemporal. Las fotos aéreas proveen un registro
preciso del las características del terreno en la fecha en que
fueron tomadas, lo cual permite realizar comparaciones entre
fotos de otras fechas para evaluar cambios en el terreno.
•La Fotogrametría se puede aplicar en regiones donde no
pueden utilizarse los métodos clásicos, como ciénagas,
desiertos, selvas vírgenes, territorios azotados por alguna
epidemia u ocupados por fuerzas enemigas, etc.,
Desventajas de la fotogrametría.
• Visión de la superficie del terreno cuando existe densa
cobertura vegetal.
• Ubicación de curvas de nivel sobre superficies planas.
• El lugar debe ser inspeccionado para determinar aquellos
elementos que no son visibles en forma satisfactoria, o que no
cuya naturaleza exacta no puede ser determinada en el
estereomodelo.
• Siempre es necesario realizar un control de campo.
• La aplicación de la fotogrametría requiere una inversión
considerable de equipo y de personal especializado, por lo
que su costo es elevado.
DIVISION DE LA FOTOGRAMETRIA.
A lo largo de la existencia de esta disciplina, se fueron
desarrollando métodos que se adaptaban en forma óptima a
los campos de aplicación en los que se les requería.
1. Fotogrametría Aérea.
Es aquella que utiliza fotografías tomadas desde una cámara
aerotransportada. Este hecho implica que su eje óptico casi
siempre es vertical, y que su posición en el espacio no está
determinada. Generalmente, las cámaras usadas son de
formato 23 × 23 cm, ya que son las más apropiadas para los
trabajos cartográficos a los cuales está destinada.
2. Fotogrametría Terrestre.
Es aquella que utiliza fotografías tomadas sobre un soporte
terrestre; debido a esto, la posición y los elementos de
orientación externa de la cámara son conocidos de antemano.
Si bien fue la primera aplicación práctica de la fotogrametría,
actualmente se usa principalmente en labores de apoyo a la
arquitectura, arqueología, ingeniería estructural y en
levantamientos topográficos de terrenos muy escarpados.
3. Fotogrametría de objetos cercanos.
En forma general, agrupa aquellas aplicaciones que no tienen
carácter geodésico o topográfico. Se aplica para resolver
problemas singulares, muy específicos.

PRODUCTOS FOTOGRAMETRICOS.
La fotogrametría genera productos finales, gráficos,
fotográficos y/o digitales, en función de la aplicación que
tendrán los mismos.
•Mapa de líneas. Es el producto por excelencia de la
fotogrametría. Actualmente existen dos modalidades de
medios de presentación de los mapas: los tradicionales, los
cuales son ploteados sobre una mesa de dibujo por el
aparato restituidor, y los numéricos los cuales son realizados
mediante una interfase que conecta los movimientos del
aparato restituidor para que puedan ser realizados mediante
un programa CAD (Computer Assisted Design).
•Puntos de control. Por medios fotogramétricos se pueden
determinar las coordenadas espaciales (X, Y, Z) de puntos
sobre el terreno, para densificar los puntos que ya se
conocen, y los cuales son obtenidos por medios topográficos.
•Fotomosaico. Es un ensamblaje de dos o más fotografías
que presentan entre ellas un área común. Se clasifican en:
- Controlados: fotos rectificadas y trianguladas.
- Semicontrolados: fotos rectificadas o trianguladas.
-No controlados: fotos sin rectificar ni triangular.
.Ortofoto. Es una fotografía o un conjunto de fotografías
cuyas imágenes de los objetos se encuentran en su
verdadera posición planimétrica. Esto se logra mediante un
proceso denominado rectificación diferencial, en el cual se
eliminan los efectos de la inclinación y del desplazamiento
por relieve, propios a las fotografías.
•Ortofoto estereoscópica.
Está conformada por dos imágenes, donde la imagen
izquierda es una ortofoto de la fotografía izquierda y la
imagen derecha es una ortofoto de la fotografía derecha, la
cual contiene la suma de las paralajes en x obtenidos de las
variaciones de altura de los puntos correspondientes del
terreno. Esta última ortofoto es denominada estereomate, la
cual puede ser considerada como una proyección paralela
oblicua del terreno, sobre el plano de proyección.
•Ortofotomapa. Es una ortofoto hecha a una escala
determinada, sobre la cual se añade la información
convencional que posee un mapa.
•Ortofotomapa topográfico. Es un ortofotomapa al cual se
añaden las curvas de nivel.
•Estereograma. Es un par estereoscópico, correctamente
orientado y montado, cada imagen al lado de la otra, a fin de
facilitar la visión estereoscópica mediante el uso del
estereoscopio de espejos, o incluso sin necesidad de ellos,
cuando el usuario tiene bastante experiencia en observar este
tipo de producto. Una variación del estereograma es el
estereotriplete, el cual usa tres fotografías sucesivas
extendiendo así el área de observación.
Radiación Electromagnética Según Newton, la
radiación electromagnética (REM), es una forma de
energía que se propaga en el espacio exterior en
forma armónica como ondulaciones transmitidas de
un lugar a otro en forma continua a la velocidad de la
luz, conteniendo un plano eléctrico ortogonal a otro
de carácter magnético (Montoya, 1996).

Espectro Electromagnético. Aunque "la sucesión de


valores de longitud de onda es continua, suelen
establecerse una serie de bandas en donde la
radiación electromagnética presenta un
comportamiento similar. La organización de estas
bandas es lo que se denomina espectro
electromagnético" (Chuvieco, 1996).
NATURALEZA DE LAS R. E.
Dada la importancia de las radiaciones electromagnéticas en la
adquisición de información por PR se justifica estudiar su
naturaleza con mayor detalle. La energía electromagnética ó
energía radiante una entidad física que se manifiesta bajo dos
aspectos complementarios entre sí: el ondulatorio y el
corpuscular. La concepción ondulatoria que permite explicar
ciertos fenómenos como los de difracción e interferencia,
interpreta la radiación como un campo eléctrico y uno magnético
oscilando en planos perpendiculares . El fenómeno ondulatorio
posee una doble periodicidad: en el espacio y en el tiempo. La
periodicidad espacial determina la longitud de onda que es la distancia
entre dos puntos consecutivos de igual amplitud del campo eléctrico o
magnético. El intervalo de tiempo transcurrido entre dos instantes
consecutivos en que uno u otro campo alcanza igual valor se denomina
periodo t. Se define la frecuencia de la radiación como la relación l/t
que se expresa en ciclos por segundo.
FORMACION DE IMÁGENES
La fotografía aérea tiene como principio el sistema de
Percepción fotográfica que utiliza la propiedad que tienen los
cuerpos de la litosfera para absorver, dispersar o refractar la
luz proveniente del sol. Esta característica se traduce en el
hecho de que la energía reflejada por las rocas, el agua o la
vegetación, pasa a través de la lente de la cámara y altera en
mayor o menor grado de intensidad la película sensible al
espectro electromagnético. Este fenómeno da origen a una
gama de tonalidades de gris (desde el blanco hasta el negro)
con el cual se forman en el negativo las imágenes de los
objetos. El intérprete dispone de unos 200 diferentes tonos
para identificar los objetos. Los tonos más claros representan
los objetos que reflectan mayor cantidad de energía.
Componentes
La Percepción remota incluye los siguientes elementos (Chuvieco,
1996;IGAC Principios Básicos de Cartografía Temática, 1998):
•Fuente de Energía. Supone el flujo energético detectado por el
sensor. La fuente de energía más importante, obviamente es la
energía solar .
• Objeto a Estudiar. Esta formado por “distintas masas de
vegetación, suelos, agua, o construcciones humanas que reciben la
señal energética y la reflejan o emiten de acuerdo a sus
características físicas”.
• Sistema Sensor. Compuesto por “el sensor propiamente
dicho, y la plataforma que lo sustenta”. Su misión es captar la
energía procedente del objeto, cubierta terrestre o planetaria,
codificarla, grabarla o enviarla directamente al sistema de
recepción.
• Plataforma. “Es un dispositivo, estructura o
vehículo en el cual se ubican los sensores para uso
desde la tierra, desde el aire o desde el espacio
(globos, aviones, satélites, etc.)”.
• Respuesta Espectral. Corresponde a “las
diferentes longitudes de onda típicas provenientes de
un objeto a estudiar y observado por un sensor en
varias bandas espectrales, como producto de la
reflexión y la emisión”.
• Sistema de Recepción y
Comercialización. “Es el sitio donde se recibe la
información transmitida por el sistema sensor, y
graba en un formato apropiada para que el analista la
accese y procese”.
• Analista o Interprete. Es quien analiza la
información (formato digital o análogo),
convirtiéndola en una clave temática o cuantitativa,
orientada a facilitar la evaluación del problema en
estudio.
• Usuario Final. Es el responsable de analizar
el documento fruto de la interpretación a sí como
dictaminar sobre las consecuencias que de él se
deriven, puede ser quien involucre la información
producida en un SIG, como proceso de apoyo en la
toma de decisiones.
Ei = energía incidente sobre la superficie

Er = energía reflejada por la superficie

Ea = energía absorbida por el material

Et = energía trasmitida a través del


material
Parte de la energía incidente, será reflejada, parte trasmitida
y parte absorbida en función de parámetros característicos
de la superficie y el material que la contiene.

Para cada superficie podremos graficar la reflectancia en


función de la longitud de onda de la radiación incidente, esta
gráfica característica de cada superficie, se llama firma o
respuesta espectral.
Si observamos las firmas o respuestas espectrales que
corresponden a la reflectividad media de algún vegetal,
observaremos que tal superficie reflejará fundamentalmente
la radiación verde y la radiación infrarroja, en tanto será baja
su reflectancia en las zonas azul y roja.
CAPÍTULO II
GEOMETRIA DE LA FOTOGRAFÍA AÉREA
La proyección central.
Proyectar es trasladar un elemento geométrico de un sistema
de referencia a otro, guardándose entre ambos sistemas una
relación biunívoca.
En fotogrametría, el sistema de proyección utilizado es el de
la proyección central o proyección cónica.
Propiedades de la proyección central:
1.- Todas las líneas provenientes del plano proyectado pasan
por un solo punto, denominado dentro de proyección.
2.- Líneas paralelas entre sí en el terreno, son proyectadas
como líneas paralelas en el plano de proyección, cuando el
eje óptico es perpendicular a las mismas.
3.- Todos los elementos del terreno que se eleven por encima
del plano medio de referencia, aparecen desplazados
radialmente y hacia afuera a partir del punto nadiral.
La fotografía métrica.
La fotografía métrica es una fotografía cuyos elementos
de orientación interior son conocidos. Estos elementos de
orientación interior se refieren a la cámara que tomó la
fotografía.
Los elementos de orientación interior son:
- Distancia principal.
- Posición del punto principal.
-Plano de proyección (negativo)
-Plano proyectado (terreno)
-Centro de proyección
En los sistemas de percepción remota se destacan
una serie de bandas espectrales, que son las más
empleadas por la tecnología actual (Montoya, 1996;
Chuvieco, 1996):
Espectro Visible: (0.4 a 0.7 µm). Es la única
radiación electromagnética que puede ser percibida
por el ojo humano. Se distinguen tres bandas
elementales: azul (0.4 a 0.5 µm), verde (0.5 a 0.6
µm), y rojo (0.6 a 0.7 µm), en razón de los colores
elementales asociados a esas longitudes de onda.
Infrarrojo próximo: (0.7 a 1.3 µm). Es una
región de gran utilidad para discriminar objetos
naturales (discriminación de masas vegetales y
concentraciones de humedad); la máxima
reflectancia de la vegetación tiene lugar en el
infrarrojo.
Infrarrojo medio: (1.3 a 8 µm). Es donde se
entremezclan los procesos de reflexión de la luz solar
y de emisión de la superficie terrestre.
Infrarrojo lejano : (8 a 14 µm). Es donde
predomina la emisión del la REM. La energía
absorbida por los objetos, es almacenada y se
manifiesta por aumento en su temperatura.
Microondas: (a partir de 1 mm). Su utilidad esta
dada por la capacidad de penetrar a través de
condiciones adversas como lluvias, nubes, etc.
n
b a

A B
N
CLASIFICACION DE LAS FOTOGRAFIAS AEREAS
1. De acuerdo a la inclinación de la cámara.
- Fotografías verticales o nadirales: la inclinación del eje
principal con respecto a la vertical es menor de cinco grados.
Sus características más importantes son:
- Mayor uniformidad en la escala.
- La deformación de los detalles es mínima.
- Se asemeja bastante a un mapa topográfico.
- Fotografías poco oblicuas: la inclinación del eje principal
es mayor de cinco grados, pero no se observa el horizonte.
- Fotografías oblicuas: es estas fotografías se observa el
horizonte; su escala varía mucho, presentando deformación
en forma de trapecio. Por estas razones, este tipo de
fotografía es sólo ilustrativo.
Clasificación de las fotografías según la inclinación de su eje de toma.
2. De acuerdo al objetivo que usa la cámara.
- Súper gran angulares C = 90 mm. (122º)
- Gran angulares C = 150 mm. (95º)
- Normales C = 210 mm. (75º)
- Telescópicas C ≥ 300 mm.
(Distancias principales aproximadas para un formato de 23 ×
23 cm.)
Elementos geométricos de una fotografía aérea.

Distancia focal: es la distancia medida desde el plano nodal posterior


hasta el plano focal imagen. Se denota con la letra “f”.
Distancia principal: es la distancia comprendida entre el centro de
proyección “O” y el plano del negativo, medido sobre el eje principal.
Se denota con la letra “C”.
Punto principal: es el punto determinado por la proyección ortogonal
del centro de proyección sobre el plano del negativo. Se denota con
la letra “h”.
Fotografía vertical
Punto principal
Eje principal: es la línea formada por la alineación del centro de
proyección y el punto principal.
Fotografía inclinada.
Punto nadiral: es el punto de intersección de la vertical que pasa por
el centro de proyección, con el plano del negativo. Se denota con la
letra “n”.
Punto isocentro: es el punto de intersección de la bisectriz al ángulo formado por
el punto principal, centro de proyección y punto nadiral, con el plano del negativo.
Se denota con la letra “i”. El desplazamiento debido a la inclinación es radial a este
punto.
Línea principal: es la línea formada por la alineación del punto principal, punto
isocentro y punto nadiral.
Plano principal: es el plano formado por la línea principal y el centro
de proyección.
Centro fiducial: es el punto determinado por la intersección de las
líneas que unen marcas fiduciales opuestas.
LA ESCALA
La escala de una fotografía aérea, suponiendo la fotografía
perfectamente vertical, está en función de la distancia principal de la
cámara (aprox. igual a la distancia focal) y de la altura relativa (Hr)de
la cámara sobre el terreno.
Debido a la existencia de desniveles en el terreno, la escala de una
fotografía es puntual, es decir: la escala es distinta para cada punto
del terreno en función de las diferencias de altura.

Para poder realizar medidas en la fotografía es necesario conocer


procedimientos para el cálculo de su escala, siempre en el
entendido de que la escala que se calculará corresponderá a una
escala media de la foto, por la característica puntual de la misma.
Las fotografías aéreas verticales representan correctamente los
ángulos a partir del punto principal, pero la medida de distancias
horizontales está sujeta a variaciones, en razón del desplazamiento
debido al relieve de que trataremos más adelante.
altura absoluta de Es la altura de vuelo sobre el plano de
vuelo. (Habs ó Ha) referencia (cota cero o conocida)

Altura de vuelo sobre un punto del


altura relativa de
terreno.
vuelo (Hrel ó Hr)
Hrel = H abs - cota del punto
altura relativa
Es aquella referida a las cotas medias
media de vuelo
del terreno.
(Hm)
Es la que corresponde al plano de
escala nominal referencia o plano horizontal de cota
conocida.
Es aquella referida a las cotas medias
escala media del terreno o a la altura relativa media de
vuelo (Hm).
Cálculo de escala
1. Conociendo la distancia principal y altura media de vuelo.
Las cámaras aéreas normalmente tienen distancias principales
(distancia calibrada similar a la focal) que para el formato standard
actual de 0.23 x 0.23 (lado de la foto) tienen valores cercanos a:
Supergranangular
Distancia principal: 88/85mm, Levantamientos de grandes
superficies a escalas pequeñas, especialmente con aviones de
poco techo; vuelos especiales por debajo de las nubes. Alta
precisión altimétrica.
Granangular
Distancia principal: 150/153mm, Tareas universales, para
triangulación aérea y levantamientos topográficos y de escalas
grandes. Precisiones equivalentes en altimetría y planimetría.
Ángulo normal :
Distancia principal: 210 mm Fotomapas y levantamientos, cuando
no puede utilizarse el tipo de ángulo normal, por ej.: por no
adecuarse a los restituidores existentes.¨Á
Ángulo estrecho
Distancia principal: 300/305mm, Fotoplanos, ortofotos,
levantamientos de precisión, mapas básicos urbanos (disminución
de espacios muertos). Altas precisiones planimétricas.

Escala Relativa:
Por Ejemplo: Con una cámara de c = 150 mm a una altura absoluta
de vuelo de 3200 mts, sobre un terreno de cota media aprox.
200mts, la escala será:

0.150/(3 200 – 200) = 1/20 000


Recuérdese siempre, que la escala calculada, lo será para aquellos
puntos de igual cota. Si la altura relativa de vuelo aumenta, o sea
para puntos de cota inferior, la escala será más pequeña y para
puntos de cotas superiores, con altura relativa de vuelo más
reducida, la escala será más grande.
2. Conociendo una distancia en el terreno.
Sucede habitualmente que no podemos conocer ni la altura de vuelo,
ni la distancia principal de la cámara (por haberse cortado la tira de
instrumentos, sin anotar esos datos básicos al dorso de la foto), en
cuyo caso deberemos hacer uso de la relación entre una distancia
medida en la fotografía y la correspondiente en el terreno o mapa.

En estos casos, a efectos de tener una idea aproximada de la escala, deberemos


hacer uso de cualquier distancia conocida (lado de un predio, etc.) o de cualquier
elemento que aparezca en la imagen, del cual podamos conocer sus dimensiones,
como ser: anchos de caminos, longitud de vehículos, campos deportivos, manzanas
en zonas urbanas, etc.
3. Conociendo un área en el terreno
En ciertos casos especiales, no tendremos información de
elementos lineales visibles en la fotografía, pero podemos tener
información areal.
En tal circunstancia podremos hacer uso de la relación entre el área
en la fotografía de un predio reconocible y su área conocida por
antecedentes. Dicho cociente nos brindará la escala superficial.
4. En función de la distancia medida en la fotografía y su
correspondiente en un mapa:

1/ EAB = dAB / DAB x Em

Donde: dAB = distancia medida entre 2 puntos medida en


la fotografía.
DAB = distancia medida en el mapa
Em = escala del mapa

Ejemplo: De una F.A se conocen los siguientes datos: distancia


entre2 puntos 35.5 mm, ésa distancia medida en un mapa 50
mm, escala del mapa 1/25 000. Rpta. : 1/35211
DEPLAZAMIENTO DE LA IMAGEN

En un mapa de escala media o grande, todos los detalles se


encuentran emplazados en sus correctas posiciones horizontales,
teniendo el observador una visión vertical de ellos. Esto no es así
en las fotografías aéreas, debido a varias causas que provocan el
desplazamiento de las imágenes.
Las imágenes de los objetos en una fotografía aérea no
corresponden al registro de sus correctas posiciones
planimétricas, en razón de:

1- Desplazamientos debidos a la distorsión


2. Desplazamientos debidos a la inclinación de la cámara al
momento de la exposición
3. Desplazamientos debidos al relieve del terreno
1 Distorsión
Provocado por problemas de fabricación de las lentes de la cámara,
hace que las imágenes registradas tengan pequeños
desplazamientos en dirección radial al punto principal. Pueden
aparecer otros tipos de deformaciones debido a problemas de
obturación, contracciones del film, etc. Afortunadamente para las
labores de fotointerpretación, estas deformaciones y
desplazamientos, no son para nada relevantes. Los sistemas de
cámaras modernos y procedimientos cuidadosos de laboratorio, han
eliminado esta fuente de errores.
2 Desplazamiento por inclinación de la cámara
Una fotografía inclinada, presentará una vista ligeramente oblicua
en vez de un registro vertical. Prácticamente todas las fotografías
aéreas tienen alguna inclinación. El desplazamiento debido a la
inclinación es radial a un punto llamado isocentro.
. Fotografía
Fotografíainclinada
inclinada
Como características de las fotografías inclinadas, podemos
mencionar:
En la fotografía inclinada, la escala decrece desde la línea isocentro
hacia el punto nadiral, y aumenta desde la línea isocentro hacia el
punto principal.
Toda línea perpendicular a la línea principal mantendrá constante su
escala.

Las fotografías inclinadas y especialmente las panorámicas, fueron


en su momento el remedio frente a la inexistencia de cámaras con
grandes ángulos de campo, así como la costumbre del uso de
cámaras de mano para fotografías de reconocimiento militar
(principalmente durante los conflictos anteriores a la 2da. guerra
mundial).
Desplazamiento debido al relieve
La fuente más importante de desplazamientos en una imagen
fotográfica aérea es el relieve, o sea las diferencias en cota de los
objetos fotografiados.
El desplazamiento debido al relieve no se encuentra limitado
solamente a las montañas o cañones; todos los objetos que se
ubican sobre o debajo de un nivel de referencia dado tienen sus
imágenes fotográficas desplazadas en mayor o menor medida
respecto a un terreno plano al nivel de referencia.
Edificios, casas, árboles, arbustos, aún el pasto, se encuentran
desplazados debido a su relieve.
El desplazamiento por relieve tiene su origen en la propiedad de la
proyección central, según la cual, todos los objetos que se eleven
por encima del plano medio de referencia, son desplazados
radialmente hacia fuera, a partir del punto nadiral.
Desplazamiento por relieve.
II Parte
Percepción Remota

Ing. Gabriel Mercado Jauregui


DEFINICIONES Y CONCEPTOS FUNDAMENTALES.

Percepción Remota es la ciencia y arte de obtener información


de un objeto, área o fenómeno a través del análisis de los datos
adquiridos mediante algún dispositivo que no esta en contacto
físico con el objeto, área o fenómeno investigados.

La Teledetección ó Percepción remota se define como:


“La ciencia y el arte de obtener información útil de un objeto, área
o fenómeno, a través del análisis e interpretación de los datos de
imágenes adquiridas por un equipo que no este en contacto físico
con el objeto, área, o fenómeno bajo investigación”. (IGAC
Principios Básicos de Cartografía Temática 1998. Pág. 216).
“La teledetección espacial se define como la técnica que permite
adquirir imágenes de la superficie de la terrestre desde sensores
instalados sobre plataformas espaciales, estamos suponiendo que
entre la Tierra y el sensor existe una interacción energética, ya sea
por reflexión de la energía solar o un haz energético artificial, ya
por emisión propia”. “En el sentido más amplio la teledetección no
engloba sólo los proceso que permitan obtener una imagen desde
el aire o el espacio, sino también su posterior tratamiento, en el
contexto de una determinada aplicación” (Chuvieco, 1996. Pág.
25).

"Proceso de adquisición de información a distancia, sin que exista


contacto físico entre la fuente de información (objeto) y el receptor
de la misma (sensor)" (Montoya, 1996).
INTERACCION DE LAS RADIACIONES CON LOS OBJETOS DE LA
SUPERFICIE TERRESTRE.
Cuando la radiación incide sobre un objeto dado de la
superficie terrestre pueden considerarse los tres tipos
fundamentales de interacciones que se representan en la
Fig. con el correspondiente balance energético según la ley
de la conservación de la energía
Energia incidente Energia reflejada

E. absorbida E. transmitida
Es decir que la energía incidente se fracciona en varios
componentes: energía reflejada, absorbida y/o transmitida, siendo
todos estos componentes dependientes de la longitud de onda.
Conviene aquí destacar dos puntos:
• La proporción de energía reflejada, absorbida o transmitida
variará con los diferentes objetos, dependiendo del tipo de
material que compone dichos objetos así como de su condición.
Esto permite identificar diferentes objetos en una imagen.
• La dependencia con la longitud de onda determina que la
proporción de energía reflejada, absorbida y/o transmitida varíe
para las diferentes longitudes de onda. Esto hace que dos
objetos que pueden ser indistinguibles entre sí en un dado rango
espectral puedan ser perfectamente diferenciados en otro rango.
Es conocido el uso de película infrarroja en lugar de la
pancromática común para detectar, por ejemplo, equipos bélicos
camuflados.
La manera como un objeto refleja la energía que incide sobre él
afecta sensiblemente las características de la energía que detecta
un sensor que esté observando dicho objeto. En efecto, el tipo de
reflexión que se produce quedará determinado por la textura o
grado de rugosidad de la superficie del objeto así como del ángulo
de incidencia de la energía radiante sobre el objeto. La reflexión
especular se produce cuando la radiación incide sobre una
superficie relativamente lisa (esto ocurre cuando el tamaño de las
partículas de la superficie es menor que la longitud de onda de la
radiación incidente). En este caso los ángulos de incidencia y
reflexión son iguales, siguiendo las leyes de la óptica geométrica.
La reflexión difusa o lambertiana ocurre en el caso inverso, es
decir cuando la superficie es más rugosa y la longitud de onda de
la radiación incidente es menor que el tamaño de las partículas de
la superficie. En este caso la radiación es reflejada en todas
direcciones.
EVOLUCION DE LOS SISTEMAS DE TELEDETECCIÓN.
En el proceso de evolución de la percepción remota han
intervenido varios factores: La evolución de las plataformas y la
tecnología espacial, avances en al óptica electrónica, accesibilidad
y mayor accesibilidad del usuario a los medios de computación,
creciente demanda de información acerca de los objetos y
fenómenos que rodean al ser humano (MONTOYA, 1996).
Las formas de percepción remota han variado en las últimas
décadas, como se puede observar en la siguiente figura:
La primera forma de percepción remota conocida, se refiere a las
fotografías obtenidas por Gaspar Félix de Tournachon en 1859,
utilizando como plataforma un globo cautivo. En los inicios de la
aviación, 1909, Wilbur Wrigth obtuvo las primeras fotografías
aéreas. Durante la primera guerra mundial hubo un mayor
desarrollo de la fotografía aérea y la invención del radar. En la
época de los 50, la "guerra fría" desencadenó la carrera espacial y
con ella la percepción remota desde el espacio terrestre, con el
lanzamiento del Sputnik, de la URSS, y las series Tiros, Gemini,
Apolo de los Estados Unidos, con los cuales se obtiene la primeras
fotografías espaciales.
Al campo anteriormente exclusivo de USA y URSS, se han unido
Japón (programa JERS), India (IRS), Francia (Spot), Canadá
(Radarsat), la Agencia Espacial Europea (ESA) (Programa ERS). Las
tendencias actuales son el mejoramiento de la resolución
espacial, y espectral, en la cual participan firmas como World
View, Earth Watch, Orbital Sciences, Space Imaging entre otras.
Radiación Electromagnética Según Newton, la radiación
electromagnética (REM), es una forma de energía que se propaga
en el espacio exterior en forma armónica como ondulaciones
transmitidas de un lugar a otro en forma continua a la velocidad de
la luz, conteniendo un plano eléctrico ortogonal a otro de carácter
magnético (Montoya, 1996).
Espectro Electromagnético. Aunque "la sucesión de valores de
longitud de onda es continua, suelen establecerse una serie de
bandas en donde la radiación electromagnética presenta un
comportamiento similar. La organización de estas bandas es lo que
se denomina espectro electromagnético" (Chuvieco, 1996).

En los sistemas de percepción remota se destacan una serie de


bandas espectrales, que son las más empleadas por la tecnología
actual (Montoya, 1996; Chuvieco, 1996):
Espectro Visible: (0.4 a 0.7 µm). Es la única radiación
electromagnética que puede ser percibida por el ojo humano. Se
distinguen tres bandas elementales: azul (0.4 a 0.5 µm), verde (0.5
a 0.6 µm), y rojo (0.6 a 0.7 µm), en razón de los colores elementales
asociados a esas longitudes de onda.
Infrarrojo próximo: (0.7 a 1.3 µm). Es una región de gran utilidad
para discriminar objetos naturales (discriminación de masas
vegetales y concentraciones de humedad); la máxima reflectancia
de la vegetación tiene lugar en el infrarrojo.
Infrarrojo medio: (1.3 a 8 µm). Es donde se entremezclan los
procesos de reflexión de la luz solar y de emisión de la superficie
terrestre.
Infrarrojo lejano : (8 a 14 µm). Es donde predomina la emisión del
la REM. La energía absorbida por los objetos, es almacenada y se
manifiesta por aumento en su temperatura.
Microondas: (a partir de 1 mm). Su utilidad esta dada por la
capacidad de penetrar a través de condiciones adversas como
lluvias, nubes, etc.

Componentes
La Percepción remota incluye los siguientes elementos (Chuvieco,
1996;IGAC Principios Básicos de Cartografía Temática, 1998):
• Fuente de Energía. Supone el flujo energético detectado por el
sensor. La fuente de energía más importante, obviamente es la
energía solar .
• Objeto a Estudiar. Esta formado por “distintas masas de
vegetación, suelos, agua, o construcciones humanas que reciben la
señal energética y la reflejan o emiten de acuerdo a sus
características físicas”.
• Sistema Sensor. Compuesto por “el sensor propiamente
dicho, y la plataforma que lo sustenta”. Su misión es captar la
energía procedente del objeto, cubierta terrestre o planetaria,
codificarla, grabarla o enviarla directamente al sistema de
recepción.

• Plataforma. “Es un dispositivo, estructura o vehículo en el


cual se ubican los sensores para uso desde la tierra, desde el aire o
desde el espacio (globos, aviones, satélites, etc.)”.
• Respuesta Espectral. Corresponde a “las diferentes longitudes
de onda típicas provenientes de un objeto a estudiar y observado
por un sensor en varias bandas espectrales, como producto de la
reflexión y la emisión”.
• Sistema de Recepción y Comercialización. “Es el sitio donde
se recibe la información transmitida por el sistema sensor, y graba
en un formato apropiada para que el analista la accese y procese”.
• Analista o Interprete. Es quien analiza la información
(formato digital o análogo), convirtiéndola en una clave temática o
cuantitativa, orientada a facilitar la evaluación del problema en
estudio.
• Usuario Final. Es el responsable de analizar el documento
fruto de la interpretación a sí como dictaminar sobre las
consecuencias que de él se deriven, puede ser quien involucre la
información producida en un SIG, como proceso de apoyo en la
toma de decisiones.
Sistema Sensor
Se denomina Sensor Remoto a todo "instrumento sensible",
capaz de captar o evaluar objetos colocados a distancia, midiendo
algún tipo de radiación o emanación proveniente de éstos.

Clasificación de Sensores

SENSOR REMOTO SENSOR DIRECTO


VISTA
OÍDO TACTO
OLFATO
Cámara fotográfica
DINAMÓMETRO
Detector infrarrojo
MANÓMETRO
RADAR
PIRÓMETRO TERMÓMETRO
En función de la fuente de energía utilizada
Instrumentos activos: donde la fuente de energía está en
el propio instrumento. Por ejemplo, una cámara fotográfica
que opera con flash para iluminar al sujeto y registrar la
respuesta. El RADAR es el caso más típico de estos
instrumentos.
Instrumentos pasivos: aquellos que miden la energía que
proviene de la superficie, la cual sea emitida
espontáneamente por efecto térmico o proveniente de una
fuente externa y reflejada por la superficie examinada.
Resolución de un Sistema Sensor
Es la medida de la habilidad de un sistema
percepción remota para discriminar la información
real y producir una imagen nítida y bien definida
(IGAC Principios Básicos de Cartografía Temática
1998). El concepto de resolución implica cuatro
manifestaciones:
• Resolución Espacial. “Designa al objeto más
pequeño que puede ser distinguido sobre una
imagen” (Chuvieco,1996). O también como al
mínima distancia entre dos objetos en el terreno
que puede distinguir un sensor y que
posteriormente puede ser identificada sobre la
imagen (IGAC Principios Básicos de Cartografía
Temática 1998).
Resolución Espectral. “Indica el número y anchura
de las bandas que puede discriminar un sensor”
(Chuvieco, 1996).

Resolución Radiométrica. “Es la capacidad del


sensor para registrar y discriminar las variaciones en
niveles energéticos provenientes del objeto; se
refiere esencialmente a la sensibilidad de los
detectores empleados” (Montoya, 1996).

Resolución Temporal. “Es el intervalo de tiempo a


lapso en que un sensor observa nuevamente un
misma área de terreno o un objeto”. (IGAC Principios
Básicos de Cartografía Temática 1998)
Clasificación General de los Sensores Remotos
Los sensores se pueden clasificar de manera general
de acuerdo con la forma en que estos reciben la
energía procedente de la superficie terrestre o de
diferentes objetos (IGAC Principios Básicos de
Cartografía Temática 1998), así:

Pasivos. Estos sensores “se limitan a recoger la


energía electromagnética procedente de la cubiertas
terrestres, ya sea ésta reflejada de los rayos solares,
ya sea emitida por su propia temperatura” (Chuvieco,
1996), Ejemplos de este tipo de sensores son los
programas Landsat, Spot e Ikonos, entre otros.
Activos. Son aquellos que “son capaces de emitir su
propio haz de energía, de manera que la energía
electromagnética es enviada en dirección al objeto y
luego los sensores detectan la energía reflejada del
mismo. (IGAC Principios Básicos de Cartografía
Temática 1998).
El sistema más conocido es el radar (sensor
radiométrico activo de micro-ondas), que trabaja en
una banda comprendida entre 0,1 cm y 1 m. Gracias
a sus características puede trabajar en cualquier
condición atmosférica (Chuvieco, 1996). Gracias a
esto ha sido utilizado en zonas con persistente
nubosidad como en el caso de la costa pacífica y
Amazonia de.
Clasificación de los Sensores Aerotransportados
Clasificación de los Sensores Aerotransportados

Los sensores aerotransportados se clasifican en:


Ópticos (Sensor Pasivo)
Cámaras Métricas Análogas.
Cámaras fotográficas: Son los sensores remotos más antiguos, ya
que su utilización se remonta al siglo pasado, al mismo tiempo que
su evolución ha estado muy ligada a los avances en las plataformas:
Globos, aviones, satélites, trasbordador espacial.
Cámaras espaciales: Tienen la misma estructura y funcionamiento
de la aéreas, lo que cambia son los sistemas ópticos, que deben ser
más potentes para su operación a gran distancia (Montoya, 1996)
Óptico-Electrónico (Sensor Pasivo)
Barredores Multiespectrales
Los barredores utilizan todo el rango óptico del
espectro electromagnético: 0.4 a 15 µm. y también
los tres dispositivos ópticos básicos: espejos, lentes y
prismas. El producto primario es digital, el cual a
veces se transforma en fotográfico.
Barredores óptico-mecánicos. La operación de
éste tipo de sensor se basa en un espejo que oscila
en dirección perpendicular a la trayectoria de la
plataforma, cubriendo en cada oscilación una franja
que representa un rectángulo sobre el terreno.
Barredores No-oscilantes (CCD) La energía
reflejada por los objetos es captada por un espejo,
que la transmite hacia el sistema óptico y de éste
pasa a través del prisma y del hendedor dicroico y
luego al conjunto de detectores.
Cámaras Digitales
El sensor ADS40
"Cuyo principio de funcionamiento consiste en el uso de tres

arreglos lineales de sensores CCD, distribuidos sobre el plano focal


de la imagen en forma transversal a la dirección de vuelo." (FICKER
y GALLO, 2004)
LAS ORBITAS DE LOS SATELITES:
Los satélites artificiales giran en torno a la Tierra conforme a la ley
de gravitación universal descrita por Newton y descriptivamente
cumplen con las Leyes de Keppler.
Leyes de gravitación y de Keppler
La Ley de Gravitación Universal nos dice que la fuerza de atracción
de dos cuerpos está relacionada con la masa y distancia entre los
mismos. A mayor masa y menor distancia, mayor atracción.
La primera ley de Keppler dice que las órbitas de los planetas son
"elipses" y que el Sol ocupa uno de sus focos. La segunda, relaciona
el recorrido (órbita) del planeta con el tiempo que tarda en
recorrerlo y dice que un planeta barre áreas iguales en tiempos
iguales. La tercera relaciona el tiempo que tarda un planeta en
recorrer su órbita con la distancia media al Sol, manifestando que
el tiempo de recorrido es mayor cuanto mayor sea la distancia
Planeta-Sol.
Estas leyes rigen para cualquier cuerpo que orbite entorno a
otro en el espacio, por ejemplo los satélites artificiales y la Tierra.
Tipos de órbitas de los satélites
De acuerdo a la acción que el satélite deba realizar en el
espacio se pueden clasificar en cuatro tipos fundamentales
de órbitas:
- Hiperbólica o abierta, que se utiliza en el lanzamiento del
satélite y le permite escapar del suelo mediante una
velocidad inicial.
- Heliosíncrona o cerrada, en la que el plano de translación
del satélite contiene siempre al Sol y compensa la translación
de la tierra independientemente de su rotación.
- Geosíncrona, también cerrada, en la que la velocidad de
translación del satélite es igual a la de rotación de la tierra.
- De gran exentricidad, que se utilizan como órbitas de
transferencia, para saltar a la órbita cerrada.
INTERPRETACION DE IMAGENES
Definición

Consiste en la utilización de técnicas, sistemas y


procesos de análisis de imágenes por personal
capacitado, para dar información segura y detallada
acerca de los objetos naturales o artificiales
contenidos en la superficie terrestre, cuya imagen se
analiza, y determinación los factores que implican la
presencia, condición y uso de ellos. (Camacho y Melo
-IGAC-. Manual de Interpretación de Imágenes de
Sensores Remotos, 2004).
Criterios Visuales para la interpretación de Imágenes

Una de las ventaja de la interpretación visual sobre digital es su


capacidad para incorporar a la interpretación criterios complejos,
mientras el tratamiento digital se basa, casi exclusivamente, sobre
la intensidad radiométrica de cada pixel (en las distintas bandas).
El análisis visual puede utilizar elementos como textura,
estructura, emplazamiento o disposición, muy difíciles de definir
en términos digitales. Son criterios visuales (Chuvieco, 1996):

•Tono. "Hace referencia a la intensidad de energía recibida por el


sensor para una determinada banda del espectro".
•Color. El color que aprecian nuestros sentidos es fruto de la
reflectividad selectiva de los objetos a distintas longitudes de onda.
El ojo humano percibe longitudes de onda comprendidas entre 0.4
y 0,7 µm.
•eTextura. "Se refiere a la aparente rugosidad a suavidad de una
región de la imagen; en definitiva al contrate spacial entre los
elementos que la componen".
•Situación Espacial. Indica la localización espacial de la cobertura
terrestre de interés (vegetación natural, cultivos) , así como su
relación con elementos vecinos de la imagen
•Período de Adquisición. Una de las principales ventajas de la
percepción remota es la observación sistemática de la superficie
terrestre: las imágenes pueden ser adquiridas periódicamente
facilitando así cualquier estudio que requiera una dimensión
multitemporal.
•Otros criterios:
Sombras. Permite realzar la interpretación de los rasgos
geomorfológicos.
Patrón espacial. Indica una organización peculiar de
individuos dentro de la imagen.
Contorno. Facilita diferenciar rasgos particulares. (Una
carretera de una vía de ferrocarril).
Formas. Permite reconocer elementos individuales en la
imagen (aeropuertos, complejos industriales)
Visión Estereoscópica. Resulta fundamental para el
reconocimiento geomorfológico y de cubiertas del suelo, pues
aporta una visión tridimensional del espacio observado.
Fases de Interpretación de Imágenes de Sensores Remotos

Para llevar a cabo la interpretación sobre productos de sensores


que se pueda obtener estereoscopía, hay necesidad de formar un
modelo tridimensional del terreno, y en su defecto la
interpretación visual se hace sobre la imagen. Se pueden seguir los
siguientes pasos para la Interpretación de Imágenes (CAMACHO y
MELO. IGAC-CIAF. Manual de Interpretación de Imágenes de
Sensores Remotos, 2004):
•Lectura de la Imagen
•Análisis de la Imagen
•Interpretación de la Imagen
Lectura de la Imagen
"Es el proceso mediante el cual se identifica como conocido un
objeto, elemento o forma directamente visible, por medio de un
conocimiento local o específico y a los cuales se les asigna un
nombre específico. Se trata del reconocimiento y ubicación del
fenómeno o características relacionadas en general con el hombre
como son; construcciones, cultivos, bosques, etc.

A través de su forma, tamaño y otras propiedades visibles el


interprete reconoce un objeto que le es familiar.". Esta fase incluye
Detección, reconocimiento e identificación de los objetos.
Detección. Este actividad tiene relación directa con la visibilidad de
los objetos a ser interpretados, estando por tanto correlacionada
Detección

con la clase de objeto, escala y calidad de las fotografías.


Detección.

Reconocimiento e identificación. Después que un detalle es


detectado, éste debe ser reconocido e identificado para poder
extraer información válida de la imagen, ya sea para su uso directo
o como elemento a correlacionar para la interpretación final.
Análisis de la Imagen
"Análisis es el proceso de delinear grupos de objetos o elementos
que tienen una individualidad separada en la interpretación"
Deducción. La deducción es un proceso complicado, basado en
evidencias convergentes. La evidencia se deriva de objetos
particularmente visibles o de elementos que sólo suministran una
información parcial sobre la naturaleza del o los objetos
observados.
Interpretación de la Imagen
En esta fase, se realizan operaciones de clasificación,
representación e idealización de los fenómenos presentes en la
imagen.
Clasificación. La fase de clasificación incluye: la descripción
individual de las superficies delineadas por el análisis, su arreglo en
un sistema adecuado para ser usado en el campo de la
investigación y por último la codificación necesaria para expresar el
sistema.
Representación. Corresponde a la presentación de los resultados
de la interpretación realizada.
Idealización. Es el proceso de dibujo "final", que seguirán detalles
lineales o encerrarán áreas clasificadas como homogéneas, o la
representación estandarizada (convencional) de los detalles visibles
en la imagen.
Aplicaciones de Percepción Remota

APLICACIONES DE P.R.
Entre las principales aplicaciones de la percepción remota se
encuentran (CHUVIECO, 1996):

•Estudios de Erosión
•Inventario regional del medio ambiente para estudios de impacto
ambiental
•Cartografía Geológica para exploración mineral y petrolífera
•Cartografía de nuevos depósitos volcánicos
•Cartografía de cobertura vegetal del suelo
•Cartografía e inventario de cultivos por especies
•Cartografía e inventario de de la cobertura y uso del suelo
•Inventarios Forestales
•Obras Civiles
•Estudios Multitemporales
•Estimación de modelos de escorrentía y erosión
•Inventario de aguas superficiales
•Inventario de Cultivos por especies

La Percepción Remota y los SIG


El mapa imagen, y las imágenes geocodificadas constituyen una
fuente (capa o cobertura) de información primaria para un SIG,
especialmente cuando la cartografía existente esta desactualizada.
Además la combinación de estas imágenes con mapas topográficos
digitalizados, facilitan la revisión y actualización de los mapas, con
el fin de contar con la información más reciente para análisis en el
SIG. (IGAC Principios Básicos de Cartografía Temática 1998).

Potrebbero piacerti anche