Sei sulla pagina 1di 51

Fotogrametría digital

1
UNIVERSIDAD ESTATAL DE RIO DE JANEIRO

Rector
Nival Nunes de Almeida

Vice-Canciller
Ronaldo Martins Lauria

UNIVERSIDAD DEL EDITOR


ESTADO DE RIO DE JANEIRO

Consejo Editorial

Augusto José Maurício Wanderley


César Benjamin
Bello Donaldo de Souza
Evanildo Bechara
Francisco Manes Albanesi Filho
Lucía Bastos (presidente)

2
Fotogrametría digital

Luiz Coelho
Jorge Brito Nunes

Rio de Janeiro
2007

3
Derechos de Autor 2007, los autores.
Todos los derechos reservados a la Editorial de este número de la Universidad Estatal
de Rio de Janeiro. Se prohíbe duplicar o reproducir esta obra, o parte el mismo bajo
ningún medio, sin el permiso expreso del editor.

EdUERJ
Editorial UNIVERSIDAD DEL ESTADO DE RIO DE JANEIRO
Rua São Francisco Xavier, 524 - Maracanã
CEP 20550-013 - Rio de Janeiro / RJ
Tel. / Fax: (21) 2587-7788 / 7789
www.eduerj.uerj.br
eduerj@uerj.br

Editor Ejecutivo Lucía Bastos


Oficina de Comunicaciones Sandra Galvão
Coordinador de Publicaciones Renato Casimiro
Coordinador de Producción Rosania Rolins
Revisión Coordinador Fabio flora
Revisión Milena Campos Eich
Sabrina Primo
Diseño / Diseño Gráfico Gilvan F. Silva
Cubrir Heloisa Strong
Apoyo Administrativo Maria Fátima de Mattos
Rosane Lima

Catalogación EN ORIGEN
UERJ / RED SIRIUS / NPROTEC
B862 Brito, Jorge Luís Nunes y Silva.
Fotogrametría / Jorge Digital Luís Nunes y Silva Brito, Luiz Carlos
Teixeira Coelho Filho - Rio de Janeiro: EdUERJ, 2007.
196 p.

ISBN 978-85-7511-114-7

1. Fotogrametría - Técnicas digitales. I Coelho, Luiz. I. Título

CDU 528.7:77.02

4
Resumen

Prólogo a la primera edición.............................................. .................... 7

Prólogo a la segunda edición.............................................. .................... 9

Capítulo 1 - Introducción a la fotogrametría digital................................... 11

Capítulo 2 - Principios básicos de la fotogrametría................................ 35

Capítulo 3 - Los temas de procesamiento de imágenes aplicado a la


fotogrametría................................................ ....................................... 71

Capítulo 4 - Orientación interno............................................. ..............91

Capítulo 5 - La orientación exterior............................................. ............. 107

Capítulo 6 - Foto triangulación Analítica............................................. .... 123

Capítulo 7 - Corrección y normalización de imágenes......................... 143

Capítulo 8 - Generación de modelos numéricos de elevaciones............... 157

Capítulo 9 - Generación de orto imágenes............................................ ...... 165

Capítulo 10 - La restitución fotogramétrica digital de.................................. 175

Referencias................................................ ...................... 191

Acerca de los autores............................................... ..................................... 195

5
Prólogo a la primera edición

Este trabajo refleja el esfuerzo y la motivación de un joven ingeniero y investigador prometedor, recientemente
se graduó en Ingeniería Cartográfica, cuyo interés en fotogrametría digital trasciende las actividades
académicas de tocayo disciplina que se enseña en el currículo de pregrado Instituto Militar de Ingeniería (IME)
en 2001.

Aprovechando un conjunto de apuntes preparados en 1999 por el equipo de profesores de Fotogrametría


Digital de EMI, que tuve el privilegio de dirigir, el autor ha ampliado y consolidado las enseñanzas recibido
teórica y práctica en un límite de diseño. Este proyecto fue, entre sus objetivos, la disponibilidad de material
didáctico que se presenta ahora- sienta juzgado muy importante para el campo de conocimiento de la
ingeniería cartográfica.

El libro está organizado en diez capítulos: "Introducción a la fotogrametría digital", "Principios básicos de la
fotogrametría", "Temas en el procesamiento imágenes aplicadas a la fotogrametría", " Guía interior", "
Orientación en el extranjero"; "fototriangulación analítica", "rectificación y la normalización de imágenes", "
Generación de modelos numéricos máximo ", " Generación orto imágenes" y " restitución fotogramétrica
digital".

Estos capítulos constituyen el núcleo básico de temas relacionados con la fotogrametría digital. En su
contribución, el autor trató de no explicar sólo los principios teóricos, sino también el conjunto de las
ecuaciones y algoritmos, además de hacer las comparaciones entre los métodos y los resultados. Como
resultados de la estrategia empleada por el autor, se espera que el auto aprendizaje pueda ser obtenido sin
necesidad de ningún conocimiento previo del lector en la fotogrametría. Se espera que el lector tenga
conocimientos básicos de ciencias cartográficas y puedan, por el texto, comprender la fotogrametría en su
conjunto: sus principios, conceptos y el uso actual.

Sin tener ninguna duda sobre la utilidad de este material, no sólo por su contenido sino principalmente por
concatenación lógica de los conceptos presentado y la claridad de la escritura, le expreso mi deseo de que
conceptos que en él se pueden entender, evaluados y mejorados por mayor número posible de partes
interesadas.

En esta oportunidad, agradezco la invitación deferencia autor para co-autoría de la obra, que rechacé, aunque
aprueba su contenido, no por el considerar la asignación justa de los méritos el esfuerzo y el éxito alcanzado
por este joven ingeniero. Satisfago yo mismo intelectualmente por el privilegio de tenerlo orientada y su
motivación para el estudio de la fotogrametría.

Como reflexión final, me gustaría señalar que el autor como un ejemplo a ser seguido por las generaciones
actuales y futuras de los ingenieros cartógrafos, ciertos tienen mucho que contribuir al avance de la ciencia
cartográfica en nuestro país, dado el potencial que se muestra aquí.

Jorge Luís Nunes Silva y Brito

6
Prólogo a la segunda edición

En primer lugar, se trata de una aclaración con respecto a la aparente incoherencia lógica entre el prólogo a la
primera edición y la autoría de la obra. La intención original fue acreditada exclusivamente al ingeniero de
autoría Luiz Coelho, que se puede ver leyendo el prólogo a la primera edición. Sin embargo, el propio Luiz
Coelho considera simplemente eliminar el nombre de la autoría de su mentor de la obra, que se generó a partir
de un conjunto de apuntes preparados para la Fotogrametría Digital. Por lo tanto, revisar el prefacio a la primera
edición, hemos decidido que los créditos autoría se comparte entre maestro y discípulo. Por lo tanto, en Portada
de la primera edición, se muestra el nombre de dos autores, aunque el prólogo hacer referencia sólo al
ingeniero Luiz Coelho.

Este texto, en su versión actual, se ha mejorado el marco de un proyecto de investigación financiado por el
Consejo Nacional de Desenvolvimiento Científico y Tecnológico (CNPq). El proyecto de investigación
actualmente cuestionado es "Proyecto e-foto: Una estación fotogramétrica digital". El proyecto e-foto prevé la
aplicación de una solución de una estación fotogramétrico digital con fines educativos, de forma libre, lo que
permite el acceso a dicha información a cualquier persona que así lo desea.

En este contexto, se requiere la adopción de una obra destinada a la fotogrametría digital, y la idea de un eBook
sobre el tema, que acompañar a los programas que comenzaron a madurar. Hoy en día, el subproyecto creció e
incluyó el proyecto original, debido a la popularidad que alcanzó por la comunidad fotogramétrica, de estar
disponible gratis en el sitio del proyecto - http://www.efoto.eng.uerj.br. Esta segunda edición presenta algunos
cambios, que, en opinión de los autores, fueron necesarios para la mejora del texto final.

La primera edición se hizo en el procesador de palabras comunes, que exigido un mayor esfuerzo para poner en
práctica el trabajo estético. Ahora este trabajo se reduce al mínimo mediante la concentración de un mayor
esfuerzo en la revisión, corrección y preparación de adiciones a la versión original. Las ilustraciones también se
alteraron drásticamente. Se busca estandarizar las fuentes y estilos rasgo, y reducir al mínimo el uso del color,
con el fin de imprimir el trabajo en Taller Gráfico.

Gran parte de las explicaciones que se revisó, y los conocido apéndices añadieron como los nuevos capítulos,
seguramente incrementando esta nueva versión. También había una mayor preocupación con ejemplos
prácticos y muestras en pseudocódigo de posibles implementaciones de las rutinas presentadas. No es ningún
secreto que los autores creen que la tecnología fotogramétrica de calidad puede ser generada por la comunidad
de habla portuguesa y entender que tanto más importante es enseñar lo que realmente sucede detrás de las
herramientas de negocio, permitiendo a los estudiantes dejar de ser meros usuarios para convertirse en
desarrolladores (o al menos tener un sentido crítico en elegir entre uno u otro software fotogramétrica).

Dentro de este ámbito, este trabajo se convierte en parte de un conjunto de publicaciones que dirige la teoría,
modelado e implementación matemática de los temas presentados. El público objetivo de la lectura consiste en
ingenieros, matemáticos, informáticos y otros profesionales, las áreas de tecnología y ciencias aplicadas. Otros
profesionales, obviamente, puede usarlo, pero en la elaboración de los textos, se pensaba que el lector ya tenía
conocimiento previo de materias como álgebra lineal, probabilidad y Estadística, Introducción a la Informática,
Matemáticas, Análisis Computacional y numérica.

Todavía en el texto, cabe mencionar que gran parte del capítulo 2 (que cubre los conceptos básicos de los
sistemas de sensores y procesamiento de imágenes) de la primera edición fue suprimido por razones de orden
lógico, y su información difundida en otros capítulos. Antes de finalizar, quedan aquí los agradecimientos a la
comunidad fotogramétrica de habla portuguesa el apoyo para seguir adelante. Desafortunadamente, la
idiosincrasia Luso-brasileña aún nos impide tener un único documento para el uso de los dos grupos.

Jorge Luís Nunes Silva y Brito


Luiz Carlos Teixeira Coelho Filho

7
Capítulo 1
Introducción a la fotogrametría digital
1.1. Fotogrametría: concepto inicial

Para un profano en la materia, es difícil de expresar con certeza lo que se convierte en la fotogrametría.
Etimológicamente, la palabra fotogrametría (cuyo radicales provienen del griego: fotón [Claro] grafos [Escrito], y
Metron [Medidas]) las mediciones realizadas por medio de fotografías. Muchos enfoques y discusiones sobre el
tema se han desarrollado a lo largo del siglo pasado, por lo que es confuso para aquellos que están empezando
en este campo.

Sin embargo, el consenso general de ese término se define en términos generales como la ciencia y tecnología
para obtener información fiable por medio de fotos adquiridas por sensores:

• Ciencia: Utiliza métodos científicos para el estudio del funcionamiento de los procesos para la captura y el
análisis de la energía electromagnética los registros derivados de los mismos;
• Tecnología: Hace uso de la tecnología de última generación para hacer tales procesos más rápido y más
eficiente para los usuarios;
• Información fiable: Ya sea en la forma de un mapa, lista coordenadas, modelo tridimensional o re presentación
geométrica clasificada dentro de las tolerancias exactitud y acurácia 1 (o precisión) deseable. Estos refinamientos
varían de una aplicación a otra, por ejemplo, la identificación de la desviación de una viga de soporte en una
planta de energía nuclear (que tolera los errores en el orden de milímetros o menos) o la preparación de cartas a
escala 1:250.000, en la que los errores son tolerados o dem metros;
1
Un buen libro de estadística puede tener una explicación más profunda de la exactitud y precisión (o exactitud). A grandes rasgos, la
exactitud está relacionada con la dispersión, mientras que la precisión (Aportuguesamiento de la palabra Inglés precisión) convierte a la
proximidad de la media del conjunto de datos para el valor de una grandeza real o verdadera.

• Imágenes ópticas: Se puede definir como la reproducción aparente un objeto formado por un sistema de
lentes o espejos, desde las ondas de luz reflejadas, refractadas o difractadas (Enciclopedia Britannica, 2001). Tal
concepto podría, por año, para dar cuenta de la definición de la imagen utilizada por fotogrametría, como
procesos fotogramétrico concentra sólo en las imágenes fotográficas- te quedas, que cubre el rango del
espectro visible (es decir, las ondas electromagnéticas de 0,4 a 0,7 µm). Hoy, sin embargo, muchos sensores
son capaces de examinar las numerosas regiones del espectro electromagnético, la generación de una gran
cantidad de información nunca antes imaginada. Por lo tanto, podemos definir como imágenes utilizadas por la
fotogrametría representaciones de las interacciones electromagnéticas entre uno o más objetos detectados y
registrados por un sensor determinado en un momento dado momento;
• Sensores remotos: Cualquier equipo capaz de transformar de alguna forma de energía en una señal que se
puede convertir en el medio ambiente y sin contacto físico entre ellos sensores y los objetivos de interés -
Definición adaptada del Nuevo (1992). Como se ha mencionado previamente, la energía utilizada en este caso
es la electromagnética. Un ejemplo sencillo de sensor comúnmente utilizado es cámara 2 fotográfica, que utiliza
un producto químico en la sensibilización película para generar las imágenes. Varios tipos de cámaras digitales
y exploración de sensores (utilizando Dispositivos de carga acoplada - CCDs, detectores que convierten la
energía electromagnética en corriente eléctrica) también entran en esta categoría.

Básicamente, esta definición tiene un alto grado de correlación con los que se encuentra en numerosos libros y
artículos científicos sobre el tema. Sin embargo, no se extingue en ese punto, ya que el texto es todavía muy
vago, dejando al lector inexperto la impresión de no tener nada añadido a sus conocimientos. Así que hubo
varias interpretaciones, mejor explica en la siguiente sección.

2En el texto, se trató de adoptar el lenguaje estándar. Por lo tanto, la adopción del término cámara (Por cámara oscura) En lugar de
préstamo lingüístico cámara. A efectos prácticos, ambos tienen el mismo significado.

8
1.2. Contradicciones y desacuerdos sobre el concepto de la fotogrametría

Como se mencionó anteriormente, la fotogrametría sufrió un importante impacto con la posibilidad


de obtener imágenes multiespectrales (que cubren diferentes bandas del espectro
electromagnético), en general, a través de sensores digitales como cámaras digitales y escáneres),
lo que supone un total reestructuración de personal y aparatos utilizados para procesarlos3.

En paralelo a esta revolución, las nuevas plataformas comenzaron a traer como tipos de sensores4,
habiendo, notoriamente, la introducción de sensores satelitales (Satélites y otros vehículos
espaciales). Esta nueva ciencia, seguida de un aumento, que se denominó teledetección.

Inicialmente, las imágenes tenían una pobre resolución geométrica, o tenía dificultades para
distinguir los numerosos objetos fotografiados, o en términos laicos, la falta de nitidez. Este
incremento se debió a los todavía insuficientes sistemas de lentes y la gran distancia entre los
satélites y la superficie, que conduce a la imposibilidad de ajustar este tipo de imágenes y la
estructura montada para procesamiento fotogramétrico, ya que los dispositivos eran diseñados
solamente para las imágenes tomadas desde aviones determinado estándar. El sistema informático
de procesamiento de imágenes digitales era rudimentario para resolver las rutinas fotogramétricas
pesadas, y que no era posible ver las imágenes estereoscópicas.

La fotogrametría, luego siguió el curso establecido con anterioridad, la búsqueda de devolución


cartas o mapas del terreno fotografiado, dejan el estudio de tales imágenes a cargo de un grupo de
expertos (geólogos, edafólogos, geógrafos, oceanógrafos, estadistas, etc.), que vio en ellos una
oportunidad de extraer información para que sean esenciales.

Por lo tanto, en principio, no había una dicotomía entre informalmente fotogrametría y


teledetección (Figura 1). Curiosamente, las asociaciones que los profesionales congregados de
fotogrametría siguieron esta divergencia, que abarca también el estudio de las imágenes de
teledetección.

Un caso notorio fue el cambio de nombre de la Sociedad Americana de Fotogrametría (ASP) a la


Sociedad Americana de Fotogrametría y Teledetección (ASPRS). Con la Sociedad Internacional de
Fotogrametría y Sensing (SIFT), ocurrió también un evento similar.

3 Una descripción más detallada de las generaciones de fotogrametría y las diferencias entre ellos pueden se encuentran en el tema 1.4,

p. 19.
4 Hay una discusión de este tipo de plataformas en la sección 1.3, p. 15.

9
Figura 1: La disensión entre la fotogrametría inicial y errónea (plataformas aéreas, fotografías y productos
cartográficos) y sensores remotos (plataformas orbitales, imágenes digitales y diversos tipos de productos
temáticos, como los mapas geológicos o forestales).

Es obvio que este tipo de decisiones no se hicieron tan desconsideradas. Los especialistas verificaron que la
división no era coherente, informaron lo que venía ocurriendo desde que se llamó informalmente
teledetección (imágenes sensoriales adquiridos a nivel orbital y formato digital) era una ciencia hermana de lo
que se llamó (informalmente) de fotogrametría (imágenes adquiridas en el plano de las aeronaves).

Como corresponde a una sociedad de alcance, definiciones eran establecidos para orientar a los profesionales,
estudiantes y laicos sobre ámbito de aplicación y las funciones de cada uno. Había unas pocas interesantes
contradicciones.

Uno de los presidentes que tuvieron ASPRS, Thomas Lillesand, el libro del cual es co-autor, define la
teledetección como la "ciencia y arte de información sobre un objeto, superficie o por el análisis del fenómeno
de los datos adquiridos por un dispositivo que no está en contacto con el objeto, área o fenómeno que se
investiga "(Lillesand y Kiefer, 2000). Ya fotogrametría, el mismo libro lo define como "la ciencia y la tecnología
para obtener mediciones y otros productos de fiables geométricamente fotografías”. Los ISPRS, a su vez,
establecen que fotogrametría y teledetección es el arte, las ciencias y la tecnología de obtener información
confiable y las imágenes de los sensores de imagen y otros en la Tierra y su medio ambiente, y otros objetos
físicos y procesos a través de la grabación, medición, análisis y representación [conviene resaltar en particular,
los acontecimientos que es lo que pone de relieve la idea de unirse a ambos en un concepto].

Una lectura minuciosa de las definiciones deja muchas preguntas en el aire. En primer lugar, ninguno de ellos
coincidió completamente uno con el otro, aunque no es un refuerzo que tiene un enfoque fotogramétrica en la
obtención información fiable. Una conclusión podría llevar a la idea que la fotogrametría es la "percepción
remota confiable." ¿Pero qué es lo confiable? Volviendo al ejemplo del tema 1.1 de la planta nuclear, implica la
precisión y la exactitud fiable medios de milímetros, en el caso de la carta 1:250.000, precisión medio fiable y
precisión de los medidores. Otro ejemplo sería un mapa geológico, desarrollado a partir de imágenes de
satélite. ¿Lo confiable? Obviamente va a ser, si se llevara a cabo por un especializado. Por lo tanto, la
fotogrametría es. ¿O no? Los últimos ajustes (ISPRS) son más amplios, sin darse cuenta separación de los
conceptos y escapar así el debate sobre la fiabilidad de la información obtenida. Por otra parte, la definición de
una idea que ambas ciencias están estrechamente relacionadas, como si fueran una sola.

10
De hecho, ninguna de las definiciones es correcta. Cada una refleja una visión diferente sobre el tema, expresando
diferentes perfiles y diferentes momentos. La tendencia hoy en día - particularmente con el desarrollo de fotogrametría
digital y sensores de satélite compatibles con la actividad fotogramétrico - es que la fotogrametría se inserta en el contexto
global de teledetección, más o menos definidos como la ciencia y la tecnología de adquisición de información sobre un
objeto sin contacto directo entre este y otro sensor.
Aun así, no se define donde opera la fotogrametría dentro de este contexto, o incluso cuáles son sus metas. Serán objeto
de estudio el siguiente tema.

1.3. Calificaciones objetivas y fotogrametría

Se pueden enumerar varios objetivos de fotogrametría: reducir el trabajo de campo en el levantamiento de coordenadas
de uno o más objetos y el tiempo de la obtención de dichos datos. Sin embargo, el objetivo principal de Fotogrametría
puede afirmar como la reconstrucción de un espacio tridimensional, llamado espacio-objeto a partir de un conjunto de
imágenes bidimensionales vacías, llamados imagen-espacio.
Es entonces una transformación entre los sistemas: Un sistema bidimensional llamado sistema fotográfico y sistema
tridimensional, que representa al propio espacio-objeto. Normalmente se utiliza un sistema dimensional adecuada a cada
cámara, que se origina en aproximadamente el centro de su marco, y coordina determinada por calibración de cámara en
el laboratorio antes de su uso. El sistema de tres dimensiones es el caso más común es el sistema de coordenadas del
terreno en que se obtienen imágenes, el terreno que puede estar representado en coordenadas geodésicas (latitud: λ,
Longitud: Ф y Altura: II o la altitud: 5h), Plani altimétricas tipo transversal Mercator (al este: E, North N y altura: H o la
altitud: h) O cartesiana (X, Y y Z.) Para otros tipos de objetivo como monumentos u objetos pequeños, puede crear un
sistema de referencia propio, de origen arbitrario.

Para la transformación a ser implementada, también es necesario un conjunto de puntos de control (O de campo), que se
expresan en objetos espaciales. Una vez localizados en espacio- imagen, tenemos parámetros entrada a la deducción de la
función que asigna un sistema al otro. Como mayor es el número de puntos de control, mejores son los resultados finales;
Sin embargo, es posible que desee comprobar que es económicamente factible obtener muchos puntos de control. Debido
a esto, algunos procesos (fototriangulación, por ejemplo) se han diseñado de manera que, a partir de unos pocos los
puntos de control se pueden generar una gran cantidad de otros, con precisiones aceptable para ellos para ser utilizado
como control fueron.
En resumen, se cree en la posibilidad de establecer un área de fotogrametría gama, respondiendo a las preguntas
formuladas en el tema Anterior de la siguiente manera (Figura 2): La fotogrametría es la ciencia y la tecnología para
reconstruir el espacio de tres dimensiones, o parte del mismo (espacio-objeto) a partir de imágenes bidimensionales, que
surge de la registro de los patrones de ondas electromagnéticas (imagen-espacio) sin contacto físico directo entre el sensor
y el objeto o algo de interés.
5
La diferencia entre la altura y la altitud se encuentra en el hecho de la primera que se hace referencia a una figura geométrico (elipsoide de revolución) y
el último, una figura geofísica (geoide). La separación entre los dos se llama la brecha geoide y puede calcularse por métodos gravimétricos.

11
Figura 2: Esquema de la fotogrametría
(Los puntos de control de las imágenes están marcados con cruces blancas).

Figura 3: Vista actual de la fotogrametría (imágenes procedentes de varios sensores, en medio, generando
productos analógicos o digitales que representan el espacio- objeto). La teledetección es más amplia, teniendo
en cuenta la generación de otros tipos de productos, como los mapas temáticos, imágenes clasificadas, etc.

12
Por espacio-objeto se entiende a cualquier objeto (o conjunto de estos) tridimensional que se va a examinar.
Por lo tanto, el sensor puede ser situado en cualquier plataforma (Figura 3). Se acordó utilizar la clasificación
de fotogrametría terrestre, fotogrametría aérea (O fotografías aéreas) y fotogrametría orbital para
expresar más o menos estas diferentes formas de posicionar el sensor. La fotogrametría terrestre tiene una
amplia gama de aplicaciones, tales como la arquitectura, la ingeniería de control industrial artes civiles y
finas. Ya Aerofotogrametría es tradicionalmente el más involucrado en Geomática. Por último, la
fotogrametría orbital es una tendencia para el futuro, ya que se utiliza hoy en día en el aumento de escala. El
número de imágenes implicadas es variable. Es deseable ser dos menos (tomadas desde diferentes ángulos),
con un área de superposición, para que la estereoscópica (en tres dimensiones), permita mayores
precisiones en la restitución tridimensional de los objetos espaciales (Figura 4).

Figura 4: Imagen tomada con la región de adyacencia a partir de fotos aéreas.

Otras clasificaciones también pueden ser propuestas como la fotogrametría distancias cortas y largas
distancias, o la fotografía aérea con imágenes verticales y oblicuas. Esto sin embargo no es el propósito de
este texto.
La clasificación histórica, por ser considerado de suma importancia, se presentado en la siguiente sección .

13
1.4. Breve historia de la fotogrametría

1.4.1. Fotogrametría pionera (1840-1900)

Pocos años después del descubrimiento de la foto (gracias a los trabajos pioneros Nicéphore Niépce en 1826, y
Louis-Jacques Daguerre, en 1839), han surgido propuestas, como el Argo francés en 1840, con el objetivo de
aprovechar lsa costosas encuestas. Infelizmente, pocos años pasaron sin nada concreto sobre el tema. En 1851,
Aimé Laussedat desarrolló los primeros principios y técnicas fotogramétricas, seguida de importantes obras de
documentación de los edificios históricos, como Meydenbauer y Ernst Mach. La ciencia naciente recibió su
primer libro teórico, en 1889, el Manual de fotogrametría, escrito por el alemán C. Koppe. Algunas fotografías
aéreas fueron tomadas, incluso, los más notorio de la Nadar, Gaspard Félix Tournachon o en la ciudad de
Bièvre, en Francia en 1858 (por desgracia la imagen se perdió), y James Wallace Black, cerca de la ciudad de
Boston, en los Estados Unidos en 1860. Sin embargo, sólo con la invención del avión tal situación cambiaría
sensiblemente.

1.4.2. Fotogrametría analógica (1901-1950)

La invención del estereocomparador dispositivo por Pullfrich, marcó la primera revolución de la fotogrametría,
por lo que era posible para facilitar sorprendentemente el trabajo de los usuarios, gracias a la sustitución de
innúmeros cálculos matemáticos por dispositivos ópticos-mecánicos.

En 1911, el austríaco Theodore Scheimpflug creó un método de rectificación satisfactoria de fotografías aéreas,
iniciando un proceso de utilización de tales fotografías para mapear las áreas grandes. Los rectificadores
analógicos fueron ampliamente utilizados, y posteriormente reemplazado por el famoso plotter analógico, lo
que permitió visión estereoscópica mediante el uso de un par estereoscópico - es decir, un par de fotografías
con un área de superposición. Varios dispositivos, especialmente los Suiza y Alemania, como restaurador
salvaje (Figura 5), y Zeiss Kern, posibilitaron obtener las precisiones topográficas increíbles. Obviamente, esta
función tiene que ser muy específico, por lo que el fundamental trabajo mental del técnico en fotogrametría,
ya que tales dispositivos necesitan de la formación específica y completa.

Figura 5: analog plotter Wild B-8 (fuente: UERJ).

14
El trabajo de campo también se vio facilitado en gran medida con la introducción del proceso de
fototriangulación analógica, lo que permite la densificación en laboratorio de puntos de campo.
Junto a estos acontecimientos, había cámaras cada vez más específicas para esta tarea, llamadas
cámaras métricas, que tenían mecanismos para imprimir la información relevante del sistema de
coordenadas de la imagen, aumentando aún más la precisión de las mediciones efectuadas. Un
ejemplo es las marcas de referencia, que son todas las fotos y el sistema fotográfico cuyas
coordenadas son determinados en el laboratorio. Vale la pena mencionar que este período es la
creación y el fortalecimiento de diversas asociaciones y organizaciones, que reúne a todas las partes
interesadas en campo. La Sociedad Internacional de Fotogrametría (ISP), International actual Sociedad
Internacional de Fotogrametría y Teledetección (ISPRS), fue fundada en 1910 E. Dolezal, Austria.

1.4.3. Fotogrametría analítica (1951-1990)

La invención de la computadora en la década de los 40, comenzó una transformación en los procesos
fotogramétricos a continuación. La gran cantidad de cálculos ellos es necesaria, que había sido
sustituido por dispositivos mecánicos, que se puede realizar computacionalmente. El primer estudio
en esta área fue desarrollado en 1953 por el Dr. Helmut Schmidt, Laboratorio de Investigación Balística
en Aberdeen, Maryland, Estados Unidos. En este estudio, sentó las bases de la fotogrametría analítica,
incluido el tratamiento matriz, soluciones de mínimos cuadrados (un tipo de método estadístico), la
solución simultánea con varias imágenes y un análisis completo de la propagación de errores.
En 1957, la Helava Uki finlandés desarrolló el concepto de plotter Usando servomecanismos analítica
para la medición de las coordenadas de las marcas homólogas puntos de referencia en las imágenes.
Computadoras realizaban todos los otros cálculos, lo que simplificaba enormemente el proceso final.
Los primeros plotters de análisis fueron presentados en el congreso de la ISP (ISPRS actuales) 1976. A
partir de entonces, tales dispositivos han revolucionado el concepto de fotogrametría, permitiendo
fototriangulación bloques (conjuntos de imágenes) y el creciente uso de las cámaras comunes (no
métricas).

1.4.4. Fotogrametría digital (1990-hoy)

La fotogrametría digital surgida en los años 80’s, con las grandes innovaciones del uso de imágenes
digitales como fuente de datos primarios. La imagen digital se puede comprar directamente desde una
cámara digital, o incluso mediante la digitalización de una matriz de imagen analógica sometiéndolo a
un escáner. En los años 90’s, esta rama de la fotogrametría en realidad podría ser se utiliza tan
extensamente, con el desarrollo de computadores con capacidad suficiente para el procesamiento
interactivo de imágenes digital, generando de grandes volúmenes de datos.
El procesamiento posterior se realiza de manera similar a fotogrametría analítica, es posible, en la
actualidad, el desarrollo de productos digital (digital, además de las cartas) que requieren tratamiento
computacional extremadamente elaborado, como imágenes o orto imágenes orto rectificadas
(imágenes ortogonales en perspectiva) y mosaicos digitales, que implica la adición de múltiples
imágenes. Estos mosaicos son considerados no controlados, si no se ha tratado estas imágenes, o
controlados si las imágenes ya estaban ortos rectificados.

Los dispositivos utilizados en la actualidad también han cambiado, siendo llamados estaciones
fotogramétricas digitales (es decir, las estaciones de trabajo Totalmente orientado para
fotogrametría). Las computadoras también comunes pueden ser explotadas para este propósito,
siendo llamados ordenadores re potencializados por recibir hardware y software específico.

15
Un comentario que se necesita en este momento es la diferencia entre la fotogrametría digital y
fotogrametría asistida por computador (O, simplemente, la fotogrametría con el uso del ordenador).
Como un objetivo de no perder la experiencia de años de trabajo de los operadores calificados
y de aumentar la esperanza de vida de aviógrafos siendo efectivas o plotters analógicas y analíticas, las
computadoras estaban vinculadas al mismo, lo que permite un conjunto de datos digitales de salida, es
decir, archivos de computador, por lo general en un formato compatible con los diversos programas de
Diseño Asistido por Ordenador (CAD) existente. Sin embargo, estos dispositivos no pueden estar
relacionados con la fotogrametría digital, ya que los datos de entrada todavía se producen en el modo
analógico (fotografías impresas en película). Incluso trazador analítica que lleva a cabo el resto del
procesamiento forma de cálculo, sigue considerando los datos de entrada. Sólo fotogrametría digital
se ha convertido en un análisis computacional completa de todo proceso.

Este tema aún puede causar una gran cantidad de dudas. Para arrojar algo de luz sobre él, presenta la
siguiente tabla:

Tabla 1: Historia de la fotogrametría (adaptado de Augusto, 1999)

Fotogrametría Entrada Procesamiento Salida


Analógica (escribas o
Fotografía Analógica Analógico (Óptico-mecánica) fotolitos) en pasado o
Analógica (Película) digital (CAD, por
ejemplo) presente
Analógica (escribas o
Fotografía Analógica fotolitos) en pasado o
Analítica Analítico (Computacional)
(Película) digital (CAD, por
ejemplo) presente
Imagen digital (Obtenido
de Cámara digital, por
Digital ejemplo) o digitalizada Analítico (Computacional) Digital
(Foto analógico
sometido a un escáner)

1.5. Propósito de la fotogrametría digital

La fotogrametría digital tiene como objetivo principal la reconstrucción automática del espacio tridimensional
(espacio-objeto) a partir de imágenes de dos dimensiones (espacio-imagen).
Una mirada más cercana en el párrafo anterior permite una sencilla conclusión: la fotogrametría digital está
preocupado por la automatización de la fotogrametría, sobre todo teniendo en cuenta que el equipo de
cómputo de hoy día posibilita un rápido procesamiento de la avalancha de datos que surge en resultado de
estos procesos (Figura 6). Tener sería ideal para crear una asignación automática de una máquina capaz de
reconocer automáticamente las características del terreno (tales como edificios, puentes y otras
construcciones) y extraer las formas de la topografía de la región a ser mapeados. El problema propuesto, sin
embargo, no es tan simple, ya que no hay un espacio de tres dimensiones tan bien comportado. Más bien, la
superficie en relieve presenta numerosas discontinuidades, lo que hace que sea prácticamente imposible su
asignación automática. Surgen, pues, una serie de condiciones de contorno para su solución, lo que requiere la
interacción del hombre en diversos procesos. Actualmente, se puede decir que el estado de la técnica en la
fotogrametría digital es la cartografía semi-automáticos o procesos de implementación automática pero
todavía requieren supervisión y una posible intervención humana en ellos.

16
Figura 6: El proceso de orto rectificación, que convierte una imagen en perspectiva central de otra en
vista ortogonal. Gracias a la fotogrametría digital los procesos matemáticos complejos de este tipo
podrían ser implementados y popularizados. Hoy en día, las orto imágenes han alcanzado niveles de
popularidad próximos al de las cartas convencionales, y esta situación es probable que persista.

1.6. Una estación fotogramétrica digital,

Como se mencionó anteriormente, un estado de arte de la fotogrametría radica en el desarrollo de estaciones


fotogramétricas digitales. El sistema de este tipo, en general, se compone de:

• Monitor(es) de vídeo;
• El dispositivo de visualización estereoscópica;
• Óculos, monitores especiales, etc.;
• CPU Gráficos o la tarjeta de video especial;
• CPU General;
• Periféricos de entrada / salida: teclado, mouse, escáner, mesa digitalizadora, plotter y/o una impresora;
• Dispositivo de medición estereoscópica: trackball, topo-mouse, etc.;
•Módulos software dedicado a operaciones fotogramétricas tales como: orientación interior, orientación
relativa y orientación absoluta, u orientación en el exterior (relativa y absoluta, al mismo tiempo),
fototriangulación (Medición y cálculo), la restitución, la rectificación y re muestreo de imágenes, la extracción
de los modelos digitales del terreno, generación de orto imágenes, integración con los sistemas de información
geográfica, etc.

El estándar actual de los monitores de vídeo para este tipo de aplicación tiene entre 19 y 21 pulgadas. Algunas
estaciones tienen pantalla de video propia, diferente de las dimensiones habituales con el fin de maximizar la
visualización estereoscópica.
En cuanto a las máquinas que se utilizan, hay modelos de diferentes fabricantes.
Estaciones de trabajo Unix y Silicon Graphics han sido ampliamente utilizados. La tendencia de hoy es que los
PC se utilizan con el sistema operativo Windows.
El sistema de visualización estereoscópica presenta soluciones más variadas. Hay cuatro tipos principales:

• Separación espacial: La pantalla de monitor muestra un par lado a lado y utiliza un estereoscopio de espejo
para ver las fotos estereoscópicas;
• Anáglifo: Ambas imágenes se muestran el uno del otro, pero en diferentes colores, lo que exige unas gafas
especiales con un lente para cada color;
• Separación radiométrica: Similar al anáglifo, presenta diferentes polarizaciones de luz.
• Separación temporal: Muestra alternativamente imágenes del modelo a altas frecuencias.

Los sistemas comerciales más modernos utilizan una combinación de primera polarización (polarización pasiva
si la pantalla está montada en el monitor, y activo, si la pantalla es compatible con los vidrios polarizados) y de
separación temporal.

17
Entre los avances positivos de la llegada de las estaciones fotogramétricas digitales y programas de
fotogrametría digital para describir la posibilidad de incluso sin todo el aparato descrito anteriormente puede
ser ejecutado varias operaciones, aunque no óptima. Otra ventaja es la concentración de todas las rutinas en
un ordenador, ahorrando espacio y haciendo versatilidad y tiempo de actividad. En el pasado, en cambio, para
cada uno los pasos que conducen a la recuperación de la tierra, las fotos eran sólo el aparato del experto, en
distintas secciones (e incluso diferentes empresas). La entrada de datos es mucho más fácil ya que, como
rutinas genéricas utilizan el software de aceptar imágenes en cualquier formato, incluyendo cámaras no
fotogramétricos (es decir, con fotos no tienen un sistema de coordenadas ligado a ellos). Los dispositivos
plotters anteriores sólo aceptaban fotos de un determinado padrón, se derivaron distancias focales de la
cámara de valores constantes.

1.7. Ejemplos de estaciones fotogramétricas digitales y software de fotogrametría digital

1.7.1. Z/I Imaging

Z/I Imaging es una empresa derivado de la fusión entre lo tradicional Carl Zeiss (Alemania) e Intergraph
(Estados Unidos). Mientras que la primera fue consagrada en cámaras en desarrollo, plotter analógico,
analíticoos y estaciones fotogramétricas digitales en todo el siglo pasado, la otra era énfasis en el desarrollo de
las famosas estaciones de ImageStation, en gran medida aceptada y popular, a pesar de su alto costo y
mantenimiento.

Con la creación de jointventure entre los dos, la línea de estaciones fotogramétrico digital de Zeiss se
interrumpió, dejando espacio para concentración de todos los esfuerzos en el área de la línea de ImageStation.
El último modelo de una computadora es ImageStation extrema mente sofisticada, con varias soluciones únicas
desarrolladas por Z/I. Compone a la totalidad de:

• Mesa especial, con altura de área digitalizada y área de soporte supervisa controlada eléctricamente;
• Control manual, para la selección a mano alzada y la digitalización menús a su alcance;
• Gabinete (En la parte inferior), donde se encuentra el computador y un espacio libre para el usuario para
colocar su material;
• Tarjeta de vídeo con el acelerador de gráficos;
• Uno o dos monitores 21 o 24 pulgadas;
• El dispositivo de visualización estereoscópica combinado de polarización activa y temporal en los óculos.

Una solución más modesta ofrecido por Z/I se llama Stereo Softcopy Kit - SSK (Figura 7). Está formado por
hardware y software necesario a la emulación de un ImageStation estación: Gafas de visión estereoscópico
mouse de precisión, programas de video y fotogramétricos.

Por curiosidad, el Z/I también venden una versión del plotter analítico Zeiss Planicomp, o Z/I Planicomp P3 (o
P33); figura 7. Justificando la fabricación de este dispositivo debido a su enorme popularidad. El hecho que
estas máquinas están siendo fabricadas como prueba de la aplicación, incluso hoy en día, los restituidores
analíticos y analógicos repotencializados.

Figura 7: De izquierda a derecha: estación fotogramétrica digital ImageStation, kit SSK y restituidor analítico
Planicomp (fuente: http://www.ziimaging.com).

18
1.7.2. LH-Systems

LH-Systems es una división de Leica Geosystems (empresa suiza que surge en el muy tradicional Wild
Heerbrugg), especializada en la fotogrametría. Ella presenta una solución para la fotogrametría llamada
SocetSet digital (Figura 8) que es un conjunto de programas que realizan obtener atributos, triangulación y
ortomosaicagem. Orima es el nombre del paquete específico para fototriangulación mientras Pro-600 ofrece
reembolso con MicroStation programa, la empresa Bentley integración de sistemas, muy conocida para el
mapeo profesional.

Por otra parte, se reúnen para software la llamada parte superior-ratón (Una dispositivo de precisión para la
devolución) y gafas para la visión estereoscópica. SocetSet El paquete se puede instalar en los equipos de
Windows NT o UNIX.

El LH-Systems también mantiene una línea de plotters de análisis, la SD2000/3000 (Figura 8), y de los kits para
la alimentación de trazador analógico.

Figura 8: De izquierda a derecha: paquete SocetSet en una estación de trabajo y restituidor analítico Solaris
SD 2000/3000 (fuente: http://www.leica.com).

1.7.3. ISM

El ISM es un pionero de Canadá en el campo de la fotogrametría digital. Su producto estrella es hoy en día el
conjunto de programas (Imagen digital Plotter Analítica -DiAP; Figura 9), que consiste en un núcleo, también
llamado Diap -responsable de la orientación interior, relativa y absoluta y la restitución, con la integración de
MicroStation - y varios módulos adicionales, a saber:

•DiAP ATM: Ejecuta fototriangulación analítica mediante el ajuste vigas;


•DiAP AIM: Permite la automatización de varias rutinas, como directrices y fototriangulación;
•SysImage: Da todo el apoyo necesario para llevar a cabo ortoimágenes y ortomosaicos;
•TIN/CIP: Generación de modelos digitales del terreno en la estructura Triangular Irregular Network [Red de
triangulaciónirregular] (TIN) y cuadrangular (rejillas.) El módulo TIN/CIP puede ser totalmente integrado con
SysImage;
•Production Works: Edita datos vectoriales (CAD)6 obtenidos por DiAP. También está totalmente integrado con
MicroStation;
•DiAP Viewer: Permite la visualización de los modelos estereoscópicos, después de la orientación relativa, y la
superposición de un archivo CAD en formato de MicroStation (DGN)7.

19
Figura 9: Captura de la tela DiAP (fuente: http://www.askism.com).

1.7.4. KLT

La KLT es una empresa de EE.UU. en Massachusetts que produce la línea fotogramétrico ATLAS (Figura 10) para
la extracción de información de la tierra. La estación ATLAS Digital Stereoplotter comprende un ordenador
personal, manijas para la mano y el pedal para hacer girar (para que imite el movimiento de la marca flotante
en los viejos trazadores analógicos),
6 Como se ha visto antes, lo que es sinónimo de Diseño Asistido por Ordenador. Actualmente, las herramientas tipo son ampliamente
utilizados en el diseño CAD para la construcción, la mecánica y la arquitectura, además de la propia cartografía.
7 DGN: acrónimo de MicroStation Design File.

teclado y mouse especial para la producción fotogramétrica. Como es de costumbre, se lleva a cabo las
orientación interior y exterior estereoscópica (relativa y absoluta) y la fototriangulación analítica.

El paquete ATLAS proporciona la obtención y edición de mapas digitales a partir de datos del Atlas DSP. ATLAS
TIN y Ortho son, a su vez, responsable de la extracción de modelos digitales del terreno y orto rectificación. Hay
otros programas complementarios que ejecutan parches de archivos digitales generados como polígonos
abiertos, líneas cruzadas y atributos incorrectamente colocados. También existe la opción de la interpretación
de los diversos formatos de archivo digital para el sistema de asimilación. Otras soluciones para el trazado y
digitalización están disponibles en el manual de exploración.

Un aspecto notable de esta temporada es su existencia aún en ambiente DOS. Tratar de revertir esta situación,
el KLT lanzando una versión para Windows de ATLAS, los WinATLAS que, de acuerdo con el fabricante, permite
el correcto funcionamiento del sistema de ATLAS, incluso los módulos aún DOS en Windows 32 Bits.

1.7.5. DAT/EM

Con sede en Alaska, Estados Unidos, DAT/EM tiene dos productos principales en el área de fotogrametría
digital: Summit Evolution y Summit PC.
Summit Evolution es un conjunto de herramientas y programas para ejecución de todas las tareas
fotogramétricas. El equipo vendido por DAT/EM contiene los siguientes componentes:

• Todos los programas del paquete Summit Evolution;


• Programa Capture NT para MicroStation o AutoCAD;
• Automatización de la edición de mapas vectoriales generados por la estación;
• Los programas que permitan una visión estereoscópica;
• Tarjeta de video 3-D Labs Oxygen GVX 420;
• El control de mano para mover la marca flotante o manipularlas y el pedal para realizar la misma tarea, Z-
Screen (pantalla estereográfica) con tres gafas pasivas o emisor Crystal Eyes con dos gafas activas;
• Teclado especial.

La DAT/EM recomienda un equipo con doble procesador Pentium III 512 MB RAM y 32 GB de disco duro en
Windows NT 4.0, para realizar estas tareas con una mayor precisión.

20
La estación Summit PC (figura 10) es una versión más modesta y anterior a Summit Evolution. Las funciones
básicas son las mismas, pero esto tiene la medición de la propiedad subpixel, además de la gestión de
proyectos, inexistente en la otra versión. Obviamente, estas diferencias reflejan el precio final, tornando una
más barata que la otra.

Figura 10: De izquierda a derecha: estaciones ATLAS DSP, Summit Evolution y VinGeo Delta (fuentes:
http://www.kltassoc.com, http:// www.datem.com y http://www.vinnitsa.com/geo).

1.7.6. VinGeo

La empresa ucraniana VinGeo (sector de Vinnitsa) produce la estación fotogramétrico Delta (Figura 10), que
destaca por su funcionalidad y simplicidad. Su sistema de visualización utiliza estereoscopio de espejo, y la
marca flotante se puede mover sólo con la mouse, mientras que las tradicionales manivelas y los pedales se
pueden utilizar.

El software empleado permite la operación con estereomodelos o imágenes individuales (utilizando un modelo
digital del terreno) y se centra en la restitución, la extracción de los MDT’s y el apoyo a la integración con los
programas de existentes CAD. Hay otras soluciones a fototriangulación y ortorretificación/ortomosaicagem.

1.7.7. DVP

La estación Digital Video Plotter - DVP (Figura 11), de la compañía del mismo nombre, es el producto de un
proyecto de investigación llevado a cabo con éxito en la Universidad Laval en Quebec, Canadá. Actualmente,
este es uno de las estaciones más baratas y versátiles. La versión completa consta de orientación monoscópica
o estereoscópica, fototriangulación, vectorización (restitución) y la generación de orto imágenes.

Su versatilidad se manifiesta en el hecho de que numerosas configuraciones hardware posible. Para mostrar
dos opciones: espejo estereoscopio y un monitor o monitores polarizadas gafas activas y pasivas, y otra de
control del monitor. Para el control de la marca estereoscópica puede ser utilizar ratón uno común ratón Bielas
y los pedales en 3-D o tradicionales.

El sistema propone calibrar cualquier tipo de escáner, desde la más simples, de oficina, hasta que del legítimo
escáneres fotogramétrico. Para llevar a cabo estas tareas se requieren al menos un Pentium 166, 64 MB de
RAM y una tarjeta gráfica con 4 MB. El sistema operativo puede ser cualquiera de Windows 32 Bits, sin el
requisito de que sea NT.

En la Facultad de Ingeniería Geomática, Universidad de Laval existen, en el marco del Departamento de


Ingeniería Forestal, estudios muy útiles en esta área que se han desarrollado, proporcionando la DVP como
herramientas específicas de planificación ambiental / forestal y préstamos un atractivo más para los
interesados en las aplicaciones de tales campos de conocimiento.

Siguiendo la tendencia de la utilización de imágenes de satélite fotogramétrico, la estación DVP también ofrece
un conjunto de herramientas para el procesamiento fotogramétrico de imágenes Spot .

21
Figura 11: Diferentes configuraciones para la DVP (fuente: http://www.dvp.ca).

1.7.8. Topol

La estación Checa PhoTopoL, fabricado por la TopoL ofrece módulos similares a los demás: directrices, orto
rectificación, edición vectorial y la visualización estereoscópica. Entre las diferencias, resalta la posibilidad de
llevar a cabo la orientación exterior durante el ajuste por haces perspectivos y múltiples opciones de
visualización y la unidad marca flotante, también disponible en DVP.

1.7.9. VirtuoZo

El Supresoft, compañía china basada en las actividades relacionadas con geomática, se presenta la estación
de trabajo fotogramétrico digital VirtuoZo NT. También De un proyecto académico, iniciado en 1978 por el
profesor Zhi Zhuo Wang, hoy es uno de los más complejos de estaciones en el desarrollo. Se compone de más
de una docena de módulos y procesos numerosos tipos imagen (Spot, aéreas y terrestres, de color o no).

1.7.10. Autometric / Boeing

El Autometric fue una de las primeras empresas a invertir en el mercado fotogrametría digital. Actualmente,
su línea de desarrollo basado en dos productos: Kork Digital StereoPlotter (KDSP), una estación completa
hardware y software, y un SoftPlotter, Que sólo son programas par fotogrametría digital. En cuanto a las
plataformas soportadas, esta es una de las versiones más completas, que cubre cinco por completo. Más
información acerca de los productos mencionados puede ser encontrada en las referencias.

1.7.11. E-foto

La idea del proyecto e-foto es ofrecer un conjunto simple de programas que pueden ayudar a los estudiantes
a entender los principios de la fotogrametría. El proyecto se basa en dos pilares: la libertad y el
autoaprendizaje. Su objetivo final es llevar a los estudiantes a comprender plenamente la principios de
fotogrametría – leyendo un e-Book, usando los programas, o desenvolviendo nuevos módulos sobre el.

Este trabajo forma parte del proyecto e-foto como material didáctico adicional para el autoaprendizaje y el
aprendizaje de los estudiantes que asistieron. Para más información sobre el proyecto, es interesante acceder
a su página web en http://www.efoto.eng.uerj.br.

1.7.12. Varios programas de la fotogrametría

Hay actualmente numerosos programas que realizan operaciones fotogramétricas, especialmente orto
rectificación y la reconstrucción de modelos 3-D para fotogrametría a corta distancia. Entre los primeros,

22
destaca Erdas Imagine y PCI OrthoEngine, admite realizar operaciones fotogramétricos con imágenes de
satélite de alta resolución, sin poseer parámetros precisos de la órbita ellos. Para fotogrametría a corto
distancias, destacan la PhotoModeler, ampliamente utilizado en aplicaciones arquitectónicas, industriales y
artísticas.

1.8. Consideraciones finales

Después de una lectura detallada de este capítulo, se espera que algunos preguntas son contestadas
correctamente y sedimentan:

• ¿Qué es la fotogrametría? Respuesta: punto 1.3;


• ¿Cuál es el objetivo de la fotogrametría? Respuesta: punto 1.3;
• ¿Dónde la fotogrametría se inserta en el contexto de sensor remoto? Respuesta: ítem 1.3, sobre todo la
figura 3;
• ¿La fotogrametría sólo abarca imágenes aéreas o de otros plataformas (cámaras de satélite, terrestre, etc.)?
Respuesta: El ítem 1.3, en particular la figura 3;
• ¿Cuáles son las divisiones históricas de la fotogrametría? Respuesta: La Sección 1.4;
• ¿Qué hace que la fotogrametría digital sea diferente de los otros? ¿Es el formato de imagen? Respuesta: La
Sección 1.4;
• ¿Cuál es el propósito de la fotogrametría digital? Respuesta: punto 1.5;
• ¿En qué consiste una estación de trabajo fotogramétrico digital? Respuesta: Artículo 1.6;
• ¿Qué torna una estación de fotogrametría digital y programas de fotogrametría digital más práctico y
versátil que el restaurador analógica o analítica? Respuesta: punto 1.6.

Otras preguntas que pueden haber surgido y se requiere explicarlas, provocando dudas y preguntas.
Posteriormente serán contestadas a usted, a medida que se presentan nuevos conceptos.

El capítulo 2 trata sobre los conceptos básicos de la fotogrametría y la obtención de imágenes


fotogramétricas analógicas y digitales. Ya el Capítulo 3 trata de todas las medidas necesarias para que
puedan ser utilizados en las operaciones subsiguientes, así como los métodos de estadística de correlación
imágenes que son útiles en varios procedimientos fotogramétricos. Concentra todos los conceptos de
procesamiento de imágenes digitales necesarios para una comprensión global de la fotogrametría de
estos días.

Capítulo 4 discute la orientación interior, que tiene como objetivo haciendo referenciar a la imagen para una
sistema métrica, relativo a la cámara, reconstituyendo la trayectoria de los haces perspectivos (haces de luz
que entra en el sistema lente de la cámara y sensibilizar a la película o el detector CCD arrays). La Capítulo 5,
a su vez, muestra la orientación exterior, que se refiere a la imágenes procedentes de la guía interna a tierra
ellos o representados fotografiado.

Capítulo 6 discute la fototriangulación por métodos analíticos, de fundamental importancia a la


densidad del campo de puntos de control de alguna existente. Ya el capítulo 7 se ocupa de los
procesos rectificación y la normalización de las imágenes con re muestreo geometría epipolar, lo
que hace que sean más adecuados para la extracción de un modelo numérico elevaciones - tema
del capítulo 8.

Capítulo 9 discute la generación de Orto imágenes cada vez más popular en el medio fotogramétrico.
Capítulo 10, a su vez, proporciona una breve introducción de técnicas de restitución en el entorno
digital y la información espacial contenida en las imágenes fotogramétricas digitales. Por último, el
capítulo 11 presenta conceptos no esenciales, sino también relevante hoy.

23
Capítulo 2

Principios básicos de la fotogrametría


2.1. Radiación electromagnética

La mayoría de los sensores de imagen detecta y registra la radiación electromagnética. Esta radiación se
caracteriza por viajar a la velocidad de la luz (2997924 m/s - Alrededor de 3 x 108 m/s) y contiene dos campos
asociados: un campo eléctrico y otro magnético (Figura 1), que son perpendiculares entre sí y varían
sinodalmente. Vale la pena mencionar que, si bien puede ser visto como una onda, también se puede
considerar paquetes (partículas o energía quánta) llamado fotones, que se caracteriza por la dualidad onda-
partícula.

Figura 1: Onda electromagnética.

La radiación electromagnética, visto como una onda, tiene un espectro de longitud de onda y,
consecuentemente, de frecuencia diferente. Como ejemplos, encontramos a la luz visible, el infrarrojo,
ultravioleta, las ondas de radio, los rayos X, gamma y otros de menor importancia.
Teniendo en cuenta la fórmula clásica de propagación de la onda:

Donde:

es la velocidad de onda - en este caso,


es la longitud de onda;
es la frecuencia (número de ciclos por segundo que pasa a través un punto dado) en el que se presenta la
onda.

Obviamente, la frecuencia es inversamente proporcional a las longitudes de onda. Las diferentes


variedades de las ondas electromagnéticas pueden ser escalonadas de la siguiente manera:

Figura 2: Espectro electromagnético.

24
En cuanto a la naturaleza cuántica de la radiación electromagnética, uno consideración importante puede
hacerse a partir de la ecuación de Planck de un paquete de energía. Se sabe que esta fórmula es equivalente a:

Donde:

es la energía del paquete;


es la constante de Planck;
es la frecuencia de la radiación.

Combinando las ecuaciones 2.1 y 2.2:

De ello se deduce que a medida que la frecuencia es más alta, menor es la longitud de onda y mayor es la
energía que contienen. Es decir, es más fácil detección de la radiación, al menos teóricamente, ya que la
cantidad de energía disponible sea mayor.
En este punto, puede surgir una pregunta: ¿cómo se originó la energía? o: ¿cómo los cuerpos interactúan con
esta energía?
En primer lugar, se puede decir que todos los cuerpos (de hecho, los cuerpos de más de 0 K) emiten energía. La
ley de Stefan-Boltzmann expresa una cantidad de energía emitida por un cuerpo debido a su temperatura:

Donde:

es el flujo de energía en
es la constante de Stefan-Boltzmann
es la temperatura del cuerpo en K.

Aun sabiendo que se aplica esta fórmula sólo en una situación ideal (Absorción total de la energía incidente y la
energía de emisión total que tiene cuerpo negro), es evidente que la cantidad de energía emitida aumenta con-
considerablemente a medida que sube la temperatura del cuerpo. La fórmula Wien se refiere a la temperatura
del cuerpo con la longitud de onda de la dominante radiación, o radiación para ser emitidos más.

Donde:

, como se ha dicho, es la radiación dominante μm;


es una constante y es igual a 2,898 μm K;
es la temperatura del cuerpo en K.

Para la temperatura del sol (aproximadamente 6000 K), Además de la radiación emitida es en el rango del
espectro visible. El espectro de la luz llamado visible recibe esta denominación en particular y es la única región
del espectro electromagnético que sensibiliza a los ojos humanos. El ojo humano de acuerdo con ciertas teorías
más recientes, es sensible a la luz en tres colorantes básicos: rojo, verde y azul. Estos colores son llamados
primarios. De tres combinaciones de la luz, se puede generar cualquiera de los otros.

De hecho, el sistema llama RGB (Red, Green, Blue; rojo, verde y azul) se utiliza en televisores y monitores de
ordenador. Colores complementarios son los colores amarillos, magenta y cian, formados por sustracción de
los colores primarios del color blanco. En los sistemas de impresión, los colores complementarios se toman
como básicos, ocurriendo lo inverso: la los colores primarios pasan a ser formado por la combinación de los
complementarios, es decir, el sistema llamado CMYK (Cian, Magenta, Yellow, blacK);
25
En este caso, se excluye el color negro, que es la substracción de los tres. Por lo tanto, atención especial debe
ser tomada, a fin de mantenerse, en una impresión, la fidedignidad de colores mostrados.

El espacio RGB también puede ser visto como un espacio vectorial de color (cubo RGB), donde cada tonalidad
se puede obtener a partir de una combinación de los colores primarios.

Para un cuerpo con una temperatura de 300 K (temperatura de la mayor parte de los cuerpos de la superficie
terrestre), la longitud de onda de la radiación emitida se encuentra en la región del infrarrojo térmico, un
nombre que justamente se relaciona directamente con la temperatura de los cuerpos que se encuentran a
nuestro alrededor.

La siguiente figura muestra las curvas de emisión electromagnética para cuerpos negros de 6000 K a 300 K,
respectivamente:

Figura 3: Curvas de emisión electromagnética de un cuerpo negro 6000 K y un cuerpo negro a 300 K.

2.1.1. La interacción entre los distintos organismos y la energía electromagnética

El cuerpo responde a la energía electromagnética que cae sobre ellos de tres maneras: absorbiendo,
transmitiendo o reflejando, además, por supuesto, es natural en todos los cuerpos. Para percepción Remota,
interesan principalmente la reflexión y emisión, ya que se basa en la suma de la energía reflejada y emitida por
las características de la superficie terrestre que las películas o dispositivos CCDs1 de las cámaras están
sensibilizados, o mejor, detectan y registran la radiación electromagnética.

1 CCDs (Carge Coupled Devices): Tipo de diodos fotosensibles (detectores) utilizados en fotografía digital.

La reflexión de la radiación electromagnética se produce en dos formas: especular y difusa. En la reflexión


especular, parte de la luz incidente (que no es absorbida o transmitida) se refleja en un ángulo igual a la
incidencia, equivalente a un espejo. Un ejemplo se muestra en la siguiente figura:

Figura 4: La reflexión especular.

26
La reflexión difusa o lambertiana es de mayor interés para la adquisición de imágenes (figura 5), ya que este
tipo, que forma parte de la luz incidente que no es absorbida ni transmitida, es refleja en varios ángulos e
intensidades. Ahora, cada organismo reacciona de manera diferente a la misma radiación, gracias a
peculiaridades por supuesto cada uno de ellos tiene. Por lo tanto, para diferentes cuerpos y radiación, y en
consecuencia, para diferentes longitudes de onda, hay diferentes intensidades reflejadas y/o emitidas. Gracias
a esta propiedad, puede alcanzar el concepto de colores. Por lo tanto, se ve como un cuerpo verde, ya que, de
hecho, esto refleja y/o emite (de forma difusa) la radiación en la zona verde. Sabiéndose cómo determinado
cuerpo reacciona a ciertos tipos de radiación electromagnética, se puede trazar un patrón de respuesta
espectral (o firma espectral) de ese cuerpo.

Figura 5: Reflexión difusa.

Un caso interesante de diferentes respuestas espectrales ocurrió durante de la Segunda Guerra Mundial,
cuando los aliados comenzaron a utilizar películas que detectaban a la radiación en el rango infrarrojo. Aunque
en el visible camuflaje de follaje artificial tenía el mismo color que la vegetación natural, en la vegetación viva
reflejaba infrarrojos mucho mejor, gracias a la clorofila y la estructura interna de las hojas. Como resultado, se
hizo fácil identificación de refugios y bunkers camuflados enemigos.

Otro aspecto importante a considerar es la reacción de la atmósfera a la radiación que pasa a través de él. Es
bien conocido el hecho de que el ultravioleta se filtra a través de la atmósfera a la capa de ozono - que, por
cierto, está en proceso de destrucción continua. Estos tipos de mecanismos se aplican en la atmósfera, ya que
sirven como una protección que permite la existencia de la vida en la superficie de la Tierra, ya que muchas de
las radiaciones electromagnéticas son perjudiciales para los seres vivos.

Por lo tanto, se dice que no hay ventanas atmosféricas, o partes de espectro en la atmósfera que permiten el
paso de la energía. La principal son lo visible, infrarroja y de microondas (radar). Se puede capturar la dos
primeras directamente de la energía generada y reflejada por los cuerpos, por medio de los sensores pasivos.
Para capturar la gama de energía microondas, debe generarse en el propio sensor (sensores activos), ya que la
cantidad de energía disponible de forma natural en este intervalo es muy baja.

Además, la atmósfera es responsable del fenómeno de propagación, que, como dice el nombre, se extiende de
modo disperso determinada radiación. La dispersión de Rayleigh (El más famoso) surge de la interacción de las
partículas mucho más pequeñas que la longitud de onda de radiación. Gracias a él, vemos el cielo azul, porque
la radiación en el azul (el menor entre la longitud de onda del visible) es más dispersa por tales partículas.

La Dispersión de Mie ocurre para partículas del mismo orden de magnitud que la longitud de onda y afecta
principalmente a las longitudes de onda.

La dispersión no selectiva partículas ocurre en virtud de partículas mucho mayores que las longitudes de onda
(polvo en suspensión), que la radiación también se dispersa de todas las longitudes de onda. Por lo tanto, la
niebla y las nubes son de color blanco.

La dispersión puede empobrecer la imagen adquirida en determinada área en la que este efecto es notable. Los
filtros pueden ser colocados en cámaras para mitigar estos problemas. Técnicas de procesamiento digital
también se puede realizar. Ambos casos se estudiarán más adelante.

27
2.1.2. La cámara fotográfica

El proceso llamado fotografía fue desarrollado a partir de 1839, gracias a los esfuerzos de los pioneros
Nicéphore Niépce, William Talbot y Louis Daguerre. El principio de la cámara oscura es de tal simplicidad y
eficacia que hasta que se utiliza hoy en día en su esencia. Este principio se describe esquemáticamente en la
Figura 6. Contamos con un objeto a fotografiar y cámara, que constituye un recipiente hueco (con un pequeño
agujero para los donde pasa la luz), con las paredes interiores oscuros, excepto una, donde es un dispositivo
que puede ser sensibilizado por la luz (o una película ejemplos de matriz CCD). La imagen se forma de una
manera invertida, a una distancia que depende de la distancia desde el objeto al agujero.

Figura 6: Principio de la cámara oscura.

El aparato no era práctico porque se necesitaban las horas suficientes de exposición para sensibilizar a la
película. Para evitar este problema, un sistema fue instalado en frente de la lente de la cámara, la cual
disminuía en gran medida el tiempo de exposición, como se muestra en la figura siguiente:

Figura 7: Principio de la cámara.

Cuando el objeto se coloca correctamente, puede relacionarse con la distancia focal (f), la distancia-imagen (i) y
la distancia-objeto (o) del siguiente modo (ley de Gauss):

Aunque la fórmula especifique rígidamente una cierta distancia-imagen y una determinada distancia-objeto, es
necesario para que el sistema sea absolutamente centrado, haya un rango de tolerancia dentro del cual los
cambios en la posición del objeto no causen la pérdida de nitidez de la imagen. Este concepto se denomina
profundidad de campo.

28
En el caso de las fotografías aéreas (o terrestres con miras a larga distancias), la distancia-objeto toma valores
muy grandes, lo que reduce la ecuación 2.6 a ; donde se concluye que, en estos casos, .

Otro concepto importante para las cámaras es la exposición en cualquier lugar en el plano focal. De acuerdo
con Lillesand y Kiefer (2000); se expresa por la fórmula:

Donde:

es la propia exposición, expresado en ;


s expresa el brillo de la escena en ;
d es el diámetro de la abertura de la lente en ;
t es el tiempo de exposición en s;
es la distancia focal de la cámara en .

Otro concepto igualmente importante es la velocidad de la lente, o . . Está dada por la relación entre
la distancia focal de la cámara y el diámetro de la lente:

Con esto, podemos reescribir la ecuación 2.7 de la siguiente manera:

Se hace notar que, a medida que aumenta, disminuye la exposición. En general, el se


representa en potencias de 2. Convencionalmente, para un valor x de , se representará como . Así
mismo, algunos valores comunes serían , , y así sucesivamente. Como, de hecho, la velocidad de lentes
está representada por una relación, a mayor es la apertura de la lente (pequeños ), más luz llegará a la
película, lo que permite la reducción de la exposición. Las pequeñas lentes de aberturas requieren tiempos
largos de exposición, pero aumentan la profundidad de campo. Es interesante observar que hay una relación
ideal, siendo el profesional involucrado el que escoge la mejor película y las mejores condiciones para cada
situación práctica que se presente.

Las cámaras se pueden clasificar como la de fabricación, la analógica (sensibilizan a una película que se revela,
dando lugar a una imagen analógica) o digital (obtiene la imagen directamente en formato digital).

Otra clave de clasificación de las cámaras fotográficas permite dividir en dos grupos: las cámaras métricas y no
métricas, o aficionado a la fotografía. Las métricas se distinguen de las no métricas por poseer características
especiales, que se describen en la siguiente sección.

29
2.2. La cámara fotogramétrica

Se le llama cámara fotogramétrica a la cámara que tiene ciertas características especiales. En este caso, lo
que determina la división entre estas definiciones es más riguroso la métrica en la definición de los
parámetros que rige la cámara. Por lo tanto, se puede extraer información métrica y precisa de las imágenes
adquiridas por este tipo de cámara.

Las cámaras fotogramétricas son por lo general aéreas, pero pueden ser terrestres (para su uso en la
fotogrametría arquitectónica o la adquisición de imágenes oblicuas de características muy irregulares). Debe,
sin embargo, considerar que, para cámaras terrestres, la distancia focal no es constante y los valores de
profundidad de de campo deben ser respetados. Durante este texto, sin embargo, se le dará una mayor
importancia para las cámaras aéreas, son, con mucho, los más utilizados en el mapeo fotogramétrico
(aerolevantamientos).

Las partes principales que componen una cámara fotogramétrica son el cono y la revista:

Figura 8: Representación esquemática de una cámara fotogramétrica.

El cono, situado en el sistema de lentes objetivo, el diafragma, el obturador, el soporte del filtro y la
escuadría de registros.

El sistema objetivo es un conjunto de lentes que debe dirigir los rayos de luz que vienen del exterior para la
imagen que se formó en el plano focal.

El obturador es responsable de la apertura necesaria de la membrana (un conjunto de cortinas circulares


concéntricas), para obtener una exposición deseada.

Los filtros se pueden utilizar si se quiere aplicar ciertos efectos a las imágenes. Vale la pena mencionar que la
existencia de filtros, caracterizado por su transmisión - es decir, el porcentaje de energía de la luz dejan de
lado todo lo que viene a ellos - se requiere un mayor tiempo de exposición de las películas. Por lo tanto, se
debe utilizar sólo en casos indispensables.

La escuadría de registros comprende varias informaciones marginales que se imprimirá en cada foto. El más
importante, por el momento, son las marcas fiduciarias (Figura 9) que definen un sistema rígido de
coordenadas de imagen. Otros datos que se pueden imprimir son número de foto, contratista, vuelo, etc.

30
Figura 9: marca de referencia.

El plano focal este es el lugar donde se forma la imagen ( para cámaras aéreas) y las posiciones de la
película. En las cámaras digitales, hay una gran variedad de detectores en la zona de la cámara, es decir, en
lugar de la película.

La revista, situado en el sistema de agarre de vacío y de intercambio de películas (sólo cámaras analógicas).

Cada cámara fotogramétrica viene con un certificado de calibración, es decir, un documento que certifica los
valores precisos de determinados parámetros fundamentales de la cámara, que se utilizan adecuadamente en
los procesos fotogramétricos posteriores. Un ejemplo de certificado se encuentra en la figura 10.

Los principales parámetros de la cámara son:

• Tipo de cámara y de lentes: Información sobre el nombre del fabricante, el modelo de la cámara y la lente
utilizada;
• Distancia Focal: Viene de la ley de Gauss, ejemplificada en la ecuación 2.6. En el caso de una imagen tomada en
grandes distancias, el valor de f es constante e igual a la distancia-imagen. En general, f asume valores nominales
de 88 mm, 150 mm o 300 mm;
• Ángulo de apertura: Este parámetro se ilustra gráficamente en la figura 11. En general, puede tomar tres
valores fundamentales: ángulo normal, gran angular y súper gran angular. En la Tabla 1 (ver p. 32) se presenta las
principales características de cada tipo.

Figura 10: Ejemplo de certificado de calibración (cortesía de la primera división de Levantamiento del Ejército
de Brasil - Porto Alegre, Brasil).

31
Figura 11: Ángulo de apertura.

Los siguientes son puntos notables enumerados para el estudio de las cámaras:

• Punto nodal anterior: Punto de entrada de un rayo de luz en el sistema de lentes de la cámara;
• Punto nodal posterior: Punto de un rayo de luz de la salida del sistema lente;
• Punto principal de auto colimación: Punto en el plano de la película, donde alcanza un rayo de luz que entra
en perpendicular al sistema del objetivo de la cámara;
• Punto principal de simetría: Punto en el plano focal, donde la distorsión es casi simétrica. La distancia focal
referente a este punto se llama la longitud focal calibrada;
• Eje óptico: Eje que contiene los centros de curvatura de determinado lente. El sistema de lentes de cámara
tiene un eje óptico común, a menos que haya una desalineación de los ejes de los diversos componentes de los
mismos, que en la práctica ocurre siempre. La distancia focal efectiva en la proximidad del eje óptico se llama
distancia focal equivalente (Andrade, 1997).

Algunos de los elementos descritos anteriormente se destacan a continuación, a fin de facilitar su


comprensión:

Figura 12: Puntos notables de una cámara fotogramétrica.

En general, los certificados de calibración constan de la siguiente informaciones: Las coordenadas del punto
principal, la distancia focal calibrada, coordenadas de las marcas fiduciarias y los coeficientes para la corrección
de las distorsiones (a ser estudiado más adelante) con desviaciones pertinentes estándar. Los métodos
utilizados para calibrar una cámara escapan un poco del alcance de este trabajo, siendo aconsejable a los más
interesados la lectura Andrade (1998).

32
Tabla 1: Características de los diferentes tipos de cámaras fotogramétricas.

Tipo de Ángulo Distancia Características


cámara apertura focal (Uso recomendación)

Se ha reducido considerablemente la distorsión


radial (en este punto, sólo
sabe que se trata de una distorsión
Ángulo
300 mm que se manifiesta aproximadamente de modo
750
normal uniforme de acuerdo
con la distancia desde el centro
imagen), permite una mayor altura de
vuelo, pero no es aconsejable
para el trabajo estereoscópica.

Gran Generalmente se usa en


1500 producción de mapas topográficos
angular 150 mm
en escalas medianas y grandes.
Presenta un buen rendimiento.
Aumenta en gran medida la cobertura,
especialmente a bajas alturas de
Súper 3000 88 mm vuelo. Sin embargo, las distorsiones
Gran radiales se vuelven realmente
angular problemáticas en algunos casos. Se
utiliza sobre todo para vuelos en
escalas pequeñas.

2.2.1. Adquisición de imágenes fotogramétricas analógicas

Para adquirir imágenes fotogramétricas analógicas, se utilizan cámaras fotogramétricas dedicados a la


película, es decir, no hay cámaras en las cuales una película en el plano focal que sea sensible a la luz que
incide sobre ella. En general, la película se encuentra en un sistema de adhesión al vacío que tiene sistemas
de descompresión y bobinado, lo que permite la alimentación automática de una foto a otra, sin causarle
torceduras o abolladuras.

Varían de una película a otra los aspectos relacionados con la absorción de la luz y la sensibilización de la
emulsión, pero en general, la película fotográfica pancromática patrón se compone de varios granos de
haluro de plata. Cada porción de la película llegará a longitudes de onda e intensidades diferentes – una vez
que cada objeto refleja y/o emite energía de diferentes maneras - lo que resulta diferentes exposiciones. La
reducción de los granos después del desarrollo, produce de un depósito de plata en la película. A medida que
se deposita esta plata, más oscura será la zona donde se produce la acumulación, o sea, objetos más claros
tendrán sus imágenes más oscuras, esto se llama negativo fotográfico.

Si desea generar una imagen en la película correspondiente a la coloración de los objetos, se debe
sensibilizar a una película con un negativo delante. Esta película, cuando reveló, pasa ahora a ser
llamado diapositiva. Las diapositivas son muy utilizadas en la fotogrametría, debido a su
translucidez característica, lo que permite una mejor visualización en contra de proyectores de luz y
escáneres.

33
Obviamente, también se generan las fotos en papel, opacas, del mismo modo. Su uso no está restringido,
sirviendo para la confección de mosaicos analógico y el personal de campo de apoyo, cuando la medición de
los puntos de control y recolecta de topónimos.

La medida llamada transmitancia (T) Expresa la relación entre la cantidad de luz que puede pasar a través de
la diapositiva (o negativo) y el total de luz que incide sobre la película. La opacidad (O) es igual a la inversa de
la transmitancia. Así mismo, cuanto más oscura sea la imagen, más pequeño será la cantidad de luz que pasa
a través de él y la transmitancia; mayor será la opacidad de densidad (D), que es el logaritmo decimal de
opacidad. El uso de unidades logarítmicas viene del hecho de que el ojo humano responde a estímulos
visuales de modo aproximadamente logarítmico.

Colocando en un gráfico la densidad (D) por el logaritmo de exposición (log (E)), se obtiene una curva llamada
curva característica de película. En general, se representa para la película negativa, pero las curvas para
diapositivas también se pueden encontrar. En la figura siguiente se expresa la forma aproximada de estas
curvas:

Figura 13: Perfil de curvas características para un negativo y una diapositiva.

Tengamos en cuenta que la curva característica tiene una parte central que se asemeja a una línea recta. Esta
es el área de uso de la película. Si la exposición es demasiado corto, la densidad será baja y la curva
característica caerá en una región no lineal (curva superior). Si la exposición es demasiado larga, el hecho
ocurrirá de manera similar (final de la curva).

La tangente del ángulo a, que se muestra en la Figura 14, se llama ϒ (Gamma). ϒ varía de una película a otra,
sino que está relacionado con el concepto contraste. Por lo tanto, cuanto mayor es ϒ, mayor será el contraste
(y vice versa) es decir, por pequeñas diferencias en la exposición de la película, hay grandes diferencias en la
densidad de granos sensibilizados. En la práctica, esto significa que, para las variaciones menores de la
iluminación, no hay grandes diferencias en el color (o tonalidad) en sentido negativo.

Figura 14: Representación de la parte recta de una curva característica.

34
Cada película tiene su propia característica. Esto determinará, de acuerdo con los objetivos del
aerolevantamiento, la elección de la emulsión más propicia. Para ayudar en esta decisión, varios parámetros se
establecieron. Las más importantes, llamadas resoluciones, se muestran en el siguiente tema.

2.2.1.1. Resoluciones de imágenes fotogramétricas analógicas

Cada imagen tiene cuatro resoluciones básicas, o sea, cuatro parámetros básicos de evaluación de sus
capacidades de adquisición de datos. Aquellas resoluciones se llaman: espacial, radiométrica, espectral y
temporal.

La resolución espacial está directamente relacionada con la capacidad para "ver" objetos tan pequeños como las
películas permitan. Una resolución, por ejemplo, 1m indica que los objetos más pequeños que pueden ser
distinguidos en la imagen fotográfica tendrán 1m de dimensiones. Los objetos más pequeños no se mostrarán.
Esta resolución se determina por el tamaño de grano de emulsión del haluro de plata. Granos más grandes
implican resolución espacial más grueso, pero son sensibles más rápido. En particular para cámaras aéreas, el
tiempo de exposición debe ser tan corto como sea posible con el fin de evitar los efectos nocivos que pueden
causar el movimiento de la aeronave (Sección 2.3.4, p. 64). Estos hace que la persona responsable del trabajo
fotogramétrico considere el problema: el equilibrio de la resolución espacial y la velocidad de la película.

Para medir la resolución espacial en el laboratorio, se toman fotos contra un objetivo que consiste en
numerosas líneas blancas superpuesto sobre un fondo negro (Figura 16). La resolución espacial se
determina por la cantidad de líneas que pueden ser identificados en un milímetro (l/mm.) También es
común la expresión "pares de líneas por milímetro ("lp/mm), se considera que el espacio en negro entre las
líneas en blanco son equivalentes a las "líneas negras" (De ahí el término "pares de líneas"). Esta
identificación puede ser visual (proceso más rudimentario) o realizadas por dispositivos llamados
densitómetros (Figura 15), cuya tarea es identificar la medida en que permanece la imagen obtenida en
los patrones regulares de transición "de color blanco al negro".

Figura 15: Patrones de transición ideal "de color blanco al negro" (ondas cuadradas)
y los patrones obtenidos utilizando un densitómetro (senoides)
- Fuente: Fuerza Aérea de Estados Unidos.

35
La tarea de esta unidad es el de identificar la medida en que existe un verdadero contraste entre las líneas
claras y oscuras, ya que, como el sinusoides atenúan, la imagen pierde su nitidez en los bordes.

Cabe destacar que estos valores (resolución espacial estática) obtenida en el laboratorio, no se corresponde
con la realidad de las condiciones operativas de adquisición de imágenes aéreas, como un vuelo incurre otros
numerosos problemas que afectan a la resolución espacial final. A obtener una medida más realista, se puede
realizar un vuelo contra un amplio objetivo con patrones similares a los de la figura 16. La resolución obtenida
por este método se llama resolución espacial dinámico, sin embargo, raramente se realizan estas pruebas.

Figura 16: destino para determinar la resolución espacial de una cámara (fuente:
Fuerza Aérea de los Estados Unidos).

Las películas generalmente utilizadas en aerofotogrametría tienen una resolución espacial alrededor de 40
l/mm (O 40 lp/mm). Para un vuelo de la escala 1: 25.000, la resolución espacial en la tierra sería igual a:
25000 (denominador de la escala) ÷ 40 - 625mm – 0,625m.

La resolución radiométrica es un factor que está relacionado con la capacidad de detectar la más pequeña
posible incidencia variación de la energía en la película. Por ejemplo, una película sólo puede registrarse en
dos tonos (negro y blanco) tiene una resolución radiométrica más pequeño que una película capaz de grabar
varios tonos de gris dentro de la misma gama de exposición. Este ejemplo vale más para las imágenes
digitales, aunque también se aplica a las imágenes analógicas.

La resolución radiométrica puede ser mejor verificada por un gráfico comparativo entre dos emulsiones,
como se muestra en la Figura 17. Obviamente, hay un mínimo de variación de la densidad que causa una
diferencia de tonalidad en la imagen final. Si, para este intervalo mínimo de variación, coincide con una
diferencia de menor exposición, la resolución radiométrica se incrementa. Las imágenes con alta resolución
radiométrica presentan alto ϒ.

Figura 17: Dos muestras de curvas características de las películas.

36
Se ha observado una mayor resolución radiométrica de la muestra en la izquierda, una vez que, dentro de la
misma gama de la exposición, se puede percibir matices gris diferentes relacionadas con variaciones mínimas
de densidad necesaria para lograr un cambio de tonalidad en la imagen final. En la imagen de la derecha, hay
menos variación de tonos grises en el mismo intervalo y las mismas variaciones de la densidad de exposición.

La resolución espectral implica el número de bandas y la anchura de cada banda que la película es capaz de
cubrir. Una película pancromática cubre el rango visible, por ejemplo. Una película de color cubre el mismo
rango, pero en tres grupos diferentes: rojo, azul y verde. Como él tiene tres bandas y cada banda es más
estrecha que la pancromática (ya que esto es equivalente a tres juntos), se puede decir que la película de color
tiene una resolución espectral mayor que la pancromática.

Sólo hay cuatro variedades de película pancromática (todos visibles en la foto a escala de grises), pancromática
incluyendo rango infrarrojo, colorido y falso color (que combina el color rojo de la foto con la radiación
infrarroja, el color verde de la radiación roja y la coloración azul de la radiación verde). El uso del color es
justificado por la mayor facilidad del ojo humano para distinguir diferentes colores, en lugar de tonos de gris.
Sin embargo, las películas de color son generalmente más pobres en términos de velocidad de la exposición y
resolución espacial, y son menos estables, es decir, el hecho de degradar más rápidamente que la
pancromática. Esto limita su uso sólo cuando sea estrictamente necesario.

La película de color funciona de manera similar a la pancromática pero consiste en tres emulsiones diferentes,
que tienen curvas similares. Recuerde que, como en el caso de negativo negro-y-blanco- La emulsión se
corresponde en color, en contraste con la radiación que sensibiliza (un objeto blanco en sentido negativo, se
representa con el color negro), las emulsiones sensibles a un cierto color se representan en la película de
negativo en color, la coloración contrario a la radiación. Si un objeto azul es fotografiado, saldrá con el color
amarillo en el negativo. Basta ver el diagrama de colores primarios, o complementarios, que es el color que se
piensa exactamente a lo contrario del color deseado.

Las emulsiones de la película de color son: emulsión sensible a la luz azul (que el matiz negativo de color
amarillo); emulsión sensible a la luz verde y azul, y la emulsión sensibles al rojo y azul. En las dos últimas
emisiones también son sensibles al azul, se acordó colocar un filtro azul lo suficientemente delgado entre la
primera capa de emulsión y los otros dos.

Con esto, llegamos a los dos últimos sólo la luz roja y verde. Del mismo modo, se convierten en emulsión
sensible a la luz verde (que tiñe el negativo de magenta), y la emulsión sensible a la luz roja (que tiñe el
negativo de ciano).

Como cualquier radiación visible es una composición de rojo, verde y azul puede ser representada de acuerdo a
una fotografía de color. Para la película de color falso, el principio es el mismo, sólo variando la radiación que
sensibilizan. Más detalles sobre la composición cromática de la película en Lillesand y Kiefer (2000).

Las resoluciones finales de una imagen es resolución temporal que se refiere a volver a tiempo para la
plataforma en la que la cámara está ensamblado. Un satélite que, por ejemplo, obtiene imágenes de la misma
región 17 en 17 días tendrá una resolución temporal más alta que una serie de vuelos para actualizar
cartografía que cubre la misma área, sólo imaginen una vez al año. Es un concepto que importa mucho a las
aplicaciones temáticas tales como manejo de cuencas, el crecimiento demográfico, la contaminación urbana
estudios ambientales, etc. En general para el vuelo fotogramétrico, el área es cubierta sólo una vez, esto es un
concepto algo fuera de uso.

37
2.2.2. Adquisición de imágenes fotogramétricas digitales

Para la fotogrametría digital, este tema es muy interesante, ya que las imágenes digitales son la fuente para la
adquisición de datos en tres dimensiones características que en él figuran. Hay básicamente dos tipos de
imagen digital: Vectorial y matricial. El vector de imagen se caracteriza por la delimitación de los objetos por los
puntos que lo determinan. Como se discute más adelante es la parte destinada a la restitución digital.

La imagen digital es una matriz de células cuadradas, llamadas píxeles (picture elements). En cada pixel, no es
sólo un color sólido, definido por un número digital. Por ahora, basta saber que cada número digital tiene un
color especial asociado con él. Podemos observar mejor los píxeles si la imagen es sucesivamente ampliada:

Figura 18: Notable estructura de los píxeles dentro de la imagen ampliada sucesivamente.

Se puede establecer, por lo tanto, cualquier imagen digital por una matriz, que tiene para cada valor de los
elementos un número digital equivalente. Es se explica mejor en la figura:

Figura 19: Matriz de Distribución (derecha)


equivalente a un conjunto de píxeles (Izquierda).

2.2.2.1. Resoluciones de imágenes fotogramétricas digitales

Las cuatro resoluciones ya señaladas para la imagen fotogramétrica analógica también se aplica a la imagen
fotogramétrica digital. Sin embargo, los conceptos varían bastante entre sí, dada la distinta naturaleza que
poseen.

En la imagen digital, la resolución espacial está directamente relacionada el "tamaño pixel. " Esta terminología
expresa cuánto vale un pixel en imagen. Un ejemplo del cálculo de este valor: cierta imagen de 32 x 32 píxeles,
es el equivalente, en el campo, un área de 32 x 32 metros. Por lo tanto, cada pixel es igual a 1 x 1 metro
cuadrado de suelo. Al igual que en un pixel sólo puede haber un solo color, que dice, más o menos, que equivale
a una composición de diferentes tonos de objetos existentes en esa zona. El tamaño de la pixel, por lo tanto,
está directamente relacionado con la capacidad de discernir objetos en el suelo. Obviamente, cuanto menor sea
el tamaño pixel, mayor será la resolución espacial de la imagen digital. Hoy en día, que ya están sintiendo
satélite con la capacidad de adquirir imágenes de píxeles igual o menor que 1 x 1 metro. Imágenes escaneadas
de Las fotografías adquiridas por cámaras aéreas digitales o analógicas tienen resoluciones aún mejor, lo que
permite el uso de fotogrametría digital escalas cada vez más grandes.

También debe mencionarse que, cuando se encuentra una zona física de la Tierra en una serie de píxeles de
dimensiones definidas, se ejecuta un proceso llamado discretización. El espacio continuo y las unidades de
medición infinitamente complejas se reducen a un conjunto discreto de elementos dispuestos en una matriz. Si
hay más píxeles cubriendo una misma área (Figura 20), la discretización dará un modo más realista, pero
aumenta con el tamaño del archivo final. Por ejemplo, un tramo de 20 x 20 píxeles es cuatro veces más pequeña
que uno de 40 x 40 píxeles.
38
Figura 20: Imágenes de la misma región en diferentes resoluciones geométricas
(Cortesía de la primera División de Levantamiento del Ejército Brasileño - Porto Alegre, Brasil).

La resolución radiométrica, como se ha explicado anteriormente, está relacionada con la capacidad de


discernir cantidades crecientes de tonos dentro de una determinada banda del espectro electromagnético.
Para imágenes digitales, este factor se mide fácilmente, ya que, por definición, la imagen digital debe poseer
una cierta cantidad de tonos.

Una vez que el sistema se utiliza en el cálculo binario, la cantidad de tonos de una imagen digital está
relacionada con una potencia de 2. A modo de ejemplo, citamos una imagen en escala de grises de 256 tonos
de gris: 256 = 28, o sea 8 Bits (binary digits, dígitos binarios) por pixel. En la práctica, esto significa que un
número digital relacionado con cada pixel se expresa por ocho dígitos binarios para permitir 256 variaciones
numéricas diferentes, pudiendo, así mismo, expresar la multiplicidad de los tonos deseados. Una imagen de
un bit por pixel, es decir, que sólo pueden expresar 21 = 2 variaciones de tonalidad, se llama imagen binaria y
poseer sólo dos colores: blanco y negro. Intuitivamente, tiene una menor resolución radiométrica que una
imagen de 256 tonos de gris, se pueden formular que "cuanto mayor es la cantidad de tonos en una
determinada banda, mayor será la resolución radiométrica”.

El tamaño de la imagen también se ve influida por la presente resolución. Una imagen que tiene, por ejemplo,
20 píxeles Con todo, si se expresa en Tipo de formato de mapa "Bits"(bitmap) Sin compresión o
compactación, tendrá el tamaño de 20 x 8 Bits (1 byte) = 160 Bits o 20 bytes (Si tiene 256 tonos). Si tiene sólo
dos, poseerá el tamaño de 20 x 1 bit = 20 Bits.

Cuando una imagen se adquiere o se convierte a forma digital (Temas a seguir), es necesario realizar un
proceso llamado cuantificación. Esto es equivalente a la inserción de todas las respuestas espectrales de la
tierra reflejado en la banda deseada, el número de tonalidades predeterminado.

Un ejemplo podría ser una imagen que expresa en 16 tonos de grises (imagen 24 = 4 Bits/píxeles), variaciones
en la cantidad de la energía que llega al sensor en el rango de 0 a 16 unidades de energía (u.e.). La cantidad
final de distribución equivaldría a:

•de 0-1 u.e. - Número digital igual a cero (negro);


2
• de 1-2 u.e. - Número digital igual a 1 (gris);
• de 2-3 u.e. - Número digital igual a 2 (gris);
• de 3-4 u.e. - Número digital igual a 3 (gris);
• de 4 a 5 u.e. - Número digital igual a 4 (gris);
• de 5 al 6 u.e. - Número digital igual a 5 (gris);
• de 6-7 u.e. - Número digital igual a 6 (gris);
• de 7 a 8 u.e. - Número digital igual a 7 (gris);
• de 8-9 u.e. - Número digital igual a 8 (gris);
• de 9-10 u.e. - Número digital igual a 9 (gris);
• de 10-11 u.e. - Número digital igual a 10 (gris);
• de 11-12 u.e. - Número digital igual a 11 (gris);
• de 12-13 u.e. - Número digital igual a 12 (gris);
• de 13-14 u.e. - Número digital igual a 13 (gris);
• de 14-15 u.e. - Número digital igual a 14 (gris);
• de 15-16 u.e. - Número digital igual a 15 (blanco).

39
Las tonalidades más claras siempre tendrán números más altos porque corresponden a una mayor cantidad
k
de energía que llega al sensor. A un número de colores igual a 2 , cuanto más oscuro será igual a 0 y cuanto
k
claro, igual a 2 - 1.

Es importante destacar que, aunque las emisiones de 13,1 u.e. y 13,9 u.e. son diferentes, para la
cuantificación de ellos están representados en el mismo modo, convertiéndose en indistinguibles. Aumentar
el número de tonos disminuye tal problema, pero aumenta el tamaño del archivo (Figura 21). Una discusión
más sobre este tema será presentado en la próxima sección.

2 Estos varían en escala de grises gradualmente desde el más oscuro (número digital igual a 2) al más claro (número digital igual a 14).

Figura 21: Imágenes de la misma región en diferentes resoluciones radiométricas; Imagen de izquierda a
derecha: 8 Bits, 4 Bits, 2 Bits y 1 bit (Cortesía de la Primera División de Levantamiento del
Ejército de Brasil - Porto Alegre, Brasil).

Las otras dos resoluciones (espectral y temporal) funcionan de manera similar a las imágenes analógicas. Debe
hablar un poco en las imágenes digitales a color. Ellos se componen de tres imágenes separadas, que están
representadas visualmente por el rojo, verde y azul, pero puede ser equivalente a cualquier combinación de
bandas de espectro. Una imagen colorida que se muestra en una pantalla de computadora es, en efecto, una
combinación de tres imágenes separadas. En términos generales, podemos comparar con tres diapositivas en
escala de grises para expresar tres bandas de espectro y ser proyectado en la misma superficie a través de
filtros de rojo, azul y verde (un filtro para cada imagen). Por lo tanto, una imagen a color de 16 millones de
colores (16.777.216 colores, para ser preciso) es una combinación de tres imágenes de 256 cada uno, o incluso
una imagen de 8 Bits por banda, presentando tres bandas.

Aunque tiene más tonos que una imagen pancromática común de 256 tonos de gris, dícese que la resolución
radiométrica es igual, por lo tanto, para cada banda, al número de tonos del mismo que la imagen
pancromática. Otro error común es decir que la imagen de color es 24 Bits. En la práctica, es lo que ocurre,
pero, formalmente, seguirá siendo una imagen de 8 Bits, pero con tres bandas. En cada banda, la capacidad de
percibir variaciones de la energía es la misma, de ahí la injusticia de clasificarla como mayor resolución
radiométrica. Lo hará, entonces sí, una resolución espectral más grande, puede cubrir bandas menores y de
mayores cantidades.

2.2.2.2. Los métodos de adquisición de imágenes fotogramétricas digitales

Para obtener una imagen fotogramétrica digital, hay básicamente dos formas: la primera es las fotografías de
exploración matricial u otros tipos de imagen analógica por medio de dispositivos de nombre escáneres, el
segundo es una adquisición directa en el formato digital, de la cámara fotogramétrica digital.

La digitalización matricial involucra diversos tipos de escáner. El más conocido del usuario es la computadora
común o escáner de mesa. La utilización de este equipo consiste en la colocación de la imagen analógica sobre
la mesa de vidrio. Entonces, la matriz CCD recorrerá la imagen para el frente y parte atrás, el registro de los
valores de los números digitales de los píxeles que componer el archivo digital.

El CCD es en realidad una colección de pequeños diodos sensibles de determinada radiación (en este caso, la
luz) que convierten fotones en electrones, generando una pequeña corriente en cada uno de los detectores.
Cuanto mayor es la cantidad de energía que llega a un detector, cuanto mayor será la corriente generada.

40
Los escáneres utilizados en fotogrametría digital están generalmente dotados de dispositivos de vacío para
garantizar la no ocurrencia de distorsión la imagen fotográfica escaneada. Estas distorsiones pueden ser
causadas en la capa de aire entre el bastidor de base que se está explorando y el titular del escáner.

En cuanto al tipo, los escáneres se pueden clasificar en escáneres de tambor o drum scanners (Figura 22), y
escáneres de mesa, o flatbed scanners. En cualquier caso, el uso de la tecnología PMT (Photo Multiplier Tube).
El documento a escanear se coloca en un cilindro de vidrio (caso de drum scanners) o pegado al vacío sobre una
superficie lisa (caso de scanners de mesa). En el centro del sistema, hay un sensor que separa en tres rayos de
luz reflejados por el documento. Cada rayo es enviado a un filtro colorido en que la luz se convierte en una
señal eléctrica correspondiente, y esta señal es mostrada y discretizada en una escala de grises.

Figura 22: Digitalizador (o escáner) de tambor (drum scanner)


- Fuente: Printing Systems.

Los escáneres generalmente están provistos de un programa de configuración, en el se definen los parámetros
radiométricos: digitalización a escala de grises o en color, la cantidad de Bits por pixel y otros. La gradación de
los diferentes tonos de la imagen se hará de la siguiente manera: el tono más clara a la mayor cantidad de
corriente, el más oscura, a la corriente más baja generada para la imagen. En este intervalo, se divide la
variación actual entre el mayor y el menor número de tonos involucrados.

Un hecho importante que siempre debe tenerse en cuenta es la pérdida de información resultante del proceso
de exploración. Esta pérdida es inevitable, ya que no hay dispositivos capaces de grabar en su integridad la
complejidad radiométrica de la imagen original. La pérdida de resolución geométrica se puede evitar, como se
verá más adelante, pero algunas pérdidas es a menudo deseable, como en radiometría, para disminuir el
tamaño de los archivos finales. El papel de los profesionales que intervienen en área de fotogrametría es
fundamental en el establecimiento de los límites de discretización y cuantificación para permitir un tratamiento
preciso de los datos, preservando al mismo tiempo el contenido y la información de las imágenes originales. Un
error de fase puede ocasionar que los datos no sean precisos o imágenes grandes que se vuelven difíciles - o
incluso impracticables - de manipular.

En general, para la resolución radiométrica, los valores más utilizados son los 256 niveles de gris (8 Bits) o 16
millones de colores (8 Bits en 3 bandas). Para la resolución geométrica (o espacial), importantes
consideraciones son presentadas a continuación:

Se ha dicho que la imagen analógica tiene una cierta resolución espacial, expresado l/mm (o lp/mm.) El
llamado teorema de muestreo define que la imagen digital de alta resolución (RID) debe de ser el doble de la
resolución de la imagen analógica (RIA), A saber:

41
El valor de RIA se determina calculando en unidades métricas, que corresponde a una línea. Por ejemplo, 40
l/mm equivalente a RIA de 0.025 mm/línea o 25 μmm/linea. Análogamente, los valores de RID deben expresarse
en unidades métricas/pixel.
Otro parámetro definido empíricamente es el factor Kell, que considera la posibilidad de desalineación de la
imagen analógica. Por factor de Kell:

Finalmente tomando las ecuaciones 2.10 y 2.11, se puede establecer la siguiente relación:

Para el caso de los RIA = 40 μm, La resolución óptima de la imagen digita debería ser de entre 14 y 20 μm/píxel.
Tomando un promedio, se puede determinar el valor de 17 μm/píxel. Si se desea expresar la resolución dpi (dots
per inch, puntos por pulgada), el equivalente sería 1.500 dpi. Además, si la escala de la foto, por ejemplo,
1:20.000, el valor del lado del pixel, en el terreno será de 17 μm/píxel x 20000 = 0,34 m/píxel, que será el
elemento de resolución sobre el terreno (ERT).

Actualmente, hay escáneres capaz de digitalizar píxeles del tamaño de 3.5 μm píxel, a 16 Bits por banda, con una
precisión geométrica de menos de 2 μm en cada eje de digitalización.

El segundo método de adquisición de imágenes digitales (cámaras fotogramétricas digitales) no es como las
encuestas difundido para levantamientos aéreos en virtud, sobretodo, a los altos precios de las cámaras
fotogramétricas digitales. Estos tienen una función similar a una cámara de película, pero en lugar de tener una
película en el plano focal, hay una matriz de CCDs.

Es vital entender la diferencia conceptual entre este tipo de cámara y las cámaras digitales de satélites de
sensores remotos. Gracias a la mayor distancia entre éstos y el terreno en ser fotografiado, es más fácil de usar
arreglos más económicos a los CCD como los de barrido (dos tipos: mecánicos y electrónicos).

La Figura 23 muestra los tres sistemas principales de formación de imágenes desde cámaras aéreas (y orbital): la
primera consiste en una serie de píxeles completa (sistema de marco o frame), que adquiere imágenes sobre

Figura 23: Diferentes modos de funcionamiento de las cámaras digitales.

42
una sección entera de la tierra (23a), el segundo (23b) es el sistema mediante el escaneo electrónica
(pushbroom): hay una sola línea de píxeles, que adquiere una línea inmediatamente debajo de ella (la imagen
final se ensambla a partir de la unión de imágenes parciales adquiridas) y la tercera (23c) es el sistema
mediante el escaneo mecánico (whiskbroom): Un conjunto de detectores se hacen girar a para- ejecutar el área
deseada (es el método que implica mayor esfuerzo computacional para corregir las distorsiones).

2.3. Los principales problemas que afectan la adquisición de imágenes

2.3.1. Aberraciones geométricas

Estas aberraciones se producen debido a la forma de las lentes que componen el sistema de cámara. Son los
siguientes:

• Aberración de esfericidad: Se produce a causa de la curvatura de la superficie de la lente y afecta a las


imágenes de los objetos situados en el eje óptico. Como, por consiguiente, hay una falta de claridad y nitidez,
reduciendo el contraste de la imagen y el empeoramiento de los datos de observación. Para corregirlo, se
utilizan combinaciones de lentes en el propio sistema de lentes de la cámara;
• Coma: Se produce debido a la forma de la lente y afecta a las imágenes de los objetos fuera del eje óptico
(rayos oblicuos). Se elimina por modificación de la superficie de los elementos componentes del sistema óptico
y limitado a la abertura;
• Astigmatismo: Producido, a partir de un objeto puntual, imágenes definidas por líneas rectas perpendiculares
el uno al otro, la reducción de la calidad de la imagen. Se reduce cuando se coloca el plano focal en el círculo un
mínimo de confusión, donde se minimiza el astigmatismo;
• Curvatura de campo: Los objetos se encuentran en el mismo plano a ser imageado y no obtuvieron sus
círculos de mínima confusión ubicados en el mismo plano, lo que significa que el plano-objeto no es
estrictamente plano, sino un paraboloide. Es bastante controlado cuando se reduce la abertura;
• Distorsión: Es la que afecta a la posición de los objetos fotografiados, y no la calidad de la imagen. Hay dos
tipos de distorsión: radial simétrico y descentrado. La distorsión radial simétrica se produce debido a la
refracción sufrida por un rayo de luz a través de una lente y llega puntos de imagen regulares desde el punto
principal de simetría. La distorsión ya descentrado es causada por el no alineamiento de los componentes de
los ejes ópticos de la lente de una cámara. Ambos son modelados por ecuaciones matemáticas cuyos
coeficientes se obtienen a través del certificado de calibración de la cámara.

Para distorsión radialmente simétrica, las ecuaciones son del tipo polinomial (Schenk, 1999):

Donde:

δx y δy son componentes de distorsión radialmente simétricas;


r es el radio desde el punto focal de simetría;
k0, k1, k2, k3 son los coeficientes del Certificado de calibración de la cámara;
x " y y " son las coordenadas del punto sin corrección, que se refiere el punto principal de simetría;
x ' y y son las coordenadas corregidas de la distorsión radial simétrica.

Para la distorsión descentrada, se estableció el siguiente modelo (id, ibid.):

43
Donde:

δx ' y δy son componentes de distorsión radialmente simétricas;


r es el radio desde el punto focal de simetría;
p1 y p2 son los coeficientes que dan en el certificado de calibración de la cámara;
x " y y " son las coordenadas del punto sin corrección, que se refiere al punto de simetría principal;
x ' y y son las coordenadas corregidas de la distorsión radial simétrica;
x y y son las coordenadas corregidas de las dos distorciones.

En el pasado, se utilizaba los principios óptico-mecánicos para corregir las distorsiones. Actualmente, los
métodos numéricos parecen ser más prácticos. Una descripción más detallada de la utilización de ellos se
hará en el capítulo en referencia a la orientación interior.

2.3.2. La aberración cromática

Este tipo de efecto viene del hecho de que la luz se descompone en varias longitudes de onda que pasa a
través de un sistema de lentes, de modo similar a un prisma. La distribución de esta aberración es
independiente de la apertura del diafragma y es bastante constante en todas las áreas del plano-imagen. La
solución a este problema se encuentra en la combinación de dos lentes convergentes opuestos y diferentes
índices de refracción (Andrade, 1997).

Figura 24: Principio del oscurecimiento de las esquinas de la imagen


(adaptado de Lillesand y Kiefer, 2000).

44
2.3.3. Distribución de la luz en el plano focal

La luz que alcanza el plano focal a un punto de la periferia que el plano tiene una intensidad proporcional al
factor E0cos4 θ (Figura 24), donde E0 es la intensidad en un eje del plano focal. La principal consecuencia es el
oscurecimiento de las esquinas de la imagen. Hoy en día, a través de filtros especiales, este efecto se elimina
casi completamente.

2.3.4. Arrastre la imagen

Durante el tiempo de exposición, el movimiento de la plataforma (sensor) puede causar este efecto, que se
caracteriza por una pérdida de nitidez en la imagen final. Se modela por la siguiente ecuación:

Donde:

a es el valor de arrastre;
V es la velocidad de la plataforma en m/s;
t es el tiempo de exposición en s;
E es la escala de la foto.

La deriva puede ser corregida con el uso de mecanismos de compensación de movimiento (forward motion
comprensation), que mueven a la película durante la exposición, lo mantiene en la misma posición relativa al
terreno. Las mejores cámaras fotogramétricas aéreas tienen hoy tales sistemas.

2.3.5. Efectos atmosféricos

Varían día a día. Algunos ejemplos clásicos son:

• Días soleados: Provocan sombras muy largas en ciertos horarios. La solución es realizar el vuelo cuando el sol
está alto. Valores para el ángulo de elevación del sol en función de la época del año y altitud media del lugar se
encuentran en Albertz y Kreiling (1989);
• Humedad: Destaca la reflexión de la luz solar en las capas atmosféricas (Principalmente en los trópicos).
Causa el efecto llamado hot-spot, que disminuye el contraste de la imagen final. Se deberá programar el vuelo
para que la distancia cenital del sol este superior de la mitad del campo de apertura de la lente de la cámara
utilizada;
• Neblina atmosférica: Partículas de niebla tienden a reflejar el azul (Dispersión de Rayleigh), dejando la imagen
fotogramétrica azulada. Para reducir este efecto, se utiliza un filtro amarillo (llamado de menos azul) con una
buena transmisión de los otros colores;
• Variación del índice de refracción en las capas atmosféricas: Se encuentra en función de diferentes índices de
refracción, los rayos ópticos no son exactamente rectos, sufriendo curvas que conducen, en la imagen, el
desplazamiento de los puntos de su verdadera posición. Schenk (1999) indica una fórmula para la corrección de
este efecto:

45
Donde:

r es la distancia desde el punto focal (centro de la imagen) a un punto de la imagen;


dr es la variación entre la posición real y la posición del punto registrado en la foto (la distancia cargada de
refracción es siempre mayor; luego, dr se restará del r original);
f es la distancia focal de la cámara;
H es la altura de vuelo;
h es la altura del plano de tierra.

2.4. Características de la obtención de imágenes

Como se mencionó en el capítulo 1, las imágenes deben tener áreas superposición de al menos el 50% con el
fin de tener un potencial fotogramétrico plenamente explotado. Junto a esto se ve la necesidad de
establecer parámetros difíciles de obtención de imágenes, lo que conducirá a un mejor manejo a partir de
estos modelos matemáticos desarrollados para la fotogrametría digital. Estos procedimientos se explicarán
en los tres casos más frecuentes para obtener imágenes fotogramétricas: terrestre, aéreo y orbital.

En el método terrestre, se da la adquisición de imágenes fotogramétricas a través de fototeodolitos o cámaras


no métricas montadas en trípodes abrochados. El uso de la cámara métrica, en ese caso, se destina a una
mayor rigidez en coordenadas de la cámara, y se basan en parámetros ya definidos en un certificado de
calibración. Sin embargo, dado el hecho de que en casi todos los casos, las encuestas de la tierra se llevan a
cabo desde estaciones estáticas (en relación a la Tierra), los efectos nocivos de los desplazamientos de la
plataforma de adscripción en el que instale la cámara son completamente eliminados. Por lo tanto, el uso de
cámaras no métricas comenzó a ganar gran importancia, ya que son mucho más baratos y más prácticos.

Numerosas investigaciones se han establecido en esta área, llevando a procedimientos seguros de calibración.
Este procedimiento se realiza generalmente fotografiando un objetivo. Más detalles sobre el tema son
proporcionados por Ferreira (2001).

Para la restitución y la generación de productos fotogramétricos, el objeto debe ser reflejado a partir de al
menos dos puntos de vista diferentes - Obteniendo de este modo un par estereoscópico de escena. Otros
puntos de vista colaboran en pedir más cálculos. Este método es de especial importancia en los monumentos
de representación y accidentes naturales de difícil acceso. La localización de referencia se utiliza y, en general,
definido para cada proyecto independiente. Los puntos de control pueden ser pre-marcados (Marcado en el
objeto) o determinado más adelante, aunque la primera opción es la más utilizada en este caso. Los modelos
matemáticos que se aplican en un levantamiento fotogramétrico terrestre de corta distancia son bastante
genéricos y aplicables en todos los casos, desde que son almacenadas las analogías en cuanto al sistema de
coordenadas globales y los puntos de control.

La figura 25 muestra un caso de la agrimensura, el Castillo García d'Ávila (Bahía, Brasil), desde su obtención a
los productos finales generados. El castillo fue construido en la segunda mitad del siglo XVI por los portugueses
y es uno de los pocos edificios de las Américas en el estilo medieval, presentando elementos característicos del
estilo portugués de la época: manufactura. A través de una fundación creada específicamente para este
propósito, ha sido cuidadosamente restaurado desde principios de 1990.

46
Por lo tanto, era esencial para el trabajo de reconstrucción fotogramétrico de fachadas, de los cuales, junto con
otras actividades de la investigación histórica y arqueológica, han permitido la restauración de la capilla, que es
parte de la industria de los más antiguos edificios. Más información al respecto se puede encontrar en Pires Jr.
et al. (1994).

Figura 25: Castelo García d'Ávila - vista del levantamiento fotogramétrico terrestre, par estereoscópico,
instalaciones y fotografía artística de la fachada de la capilla semi-restaurada (Fuente: Fundación García
d'Ávila).

47
Figura 26: Recubrimiento lateral y longitudinal en una imagen fotogramétrico.

Figura 27: Parámetros de un vuelo fotogramétrico.

El método aéreo fue, hace mucho, el más utilizado en la obtención de terreno cartográfico. Por lo tanto, lo que
más disfrutamos de los beneficios de una organización estandarizada de métodos y procedimientos. Como
resultado de ello, era posible, desde el comienzo del siglo pasado, la creación de dispositivos capaz de realizar
operaciones fotogramétricas a partir de imágenes aéreas tomadas bajo ciertas condiciones - y, hoy en día, ya
en la era digital, son mantenidas. Ellas son:

• Distancia focal y la abertura de la cámara: Como ya se ha indicado, obedecen a tres patrones (normal, gran
angula y súper gran angular);
• Recubrimiento lateral y longitudinal: Dos imágenes adyacentes, deben tener una cobertura (área de
superposición) nominal del 60%. Dos pistas de vuelo pueden recubrir un 30%. Esto garantiza mayor
operacionalidad de las imágenes obtenidas, a expensas de mayor número necesario en una región particular.
Esta condición se muestra en la Figura 26. Debe tenerse en cuenta, sin embargo, que los valores numéricos
presentados pueden variar en función de la finalidad de la cobertura aerofotogramétrica;
• Escala de vuelo: Para imágenes aéreas, la cámara enfoca al infinito, debido a la gran distancia al suelo. Esto
permite relaciones sencillas de razón y proporción establecidas con el fin de que ciertas variables
dependientes de la escala en un vuelo fotogramétrico. Ver figura 27 que muestra mejor estos parámetros.

La escala de la imagen se define por la relación entre una distancia en la imagen y su contraparte en el terreno:

48
Basado en la Figura 27, otras relaciones pueden ser también se describe:

Donde:

h es la altitud de la cámara;
hm es la elevación media del terreno.

La escala de la ecuación 2.25 es aproximada y constante en toda la imagen. Los métodos orbitales son más
recientes, ya que la baja resolución espacial de los primeros satélites impide su uso para la preparación de los
documentos cartográficos de precisión. Solamente a partir del satélite SPOT (Système Pour l'observación de la
Terre), principalmente francés, las posibilidades de aplicación de la restitución fotogramétrica se convirtió en
factible (la propia Francia afirma que han realizado varias hojas del mapeo sistemático a escala 1:50.000
utilizando tal satélite). Este sistema permite el uso de estereoscopia, para una cámara podría ser rotado, lo que
permite la formación de imágenes de la misma región en otra órbita (Figura 28). También se utiliza para el
CBERS I y II (China y Brasil Earth Resourses Satellite, o Satélite Chino-Brasileño de Recursos Terrestres) e
IKONOS-II. Este último, que tiene una resolución espacial de 1 m, es considerado el primer satélite de
sensoramiento remoto hecho frente a las necesidades de mapeo. No es un sistema ideal, ya que desde un
órbita y otro a terreno pueden cambiar drásticamente, dificultando la estereoscopía y el reconocimiento
automático de puntos homólogos por correlación.

Figura 28: Estereoscopía a partir del satélite CBERS (Fuente: INPE).

Los satélites ALOS-2 (Japón) y Terra (sensor Aster) (EE.UU.) tienen sistemas de sensores equipados con más de
una cámara del mismo tipo posicionado en diferentes inclinaciones a fin de adquirir imágenes con
recubrimiento en el mismo instante.

Las imágenes de satélite fotogramétricos – debido a las estructuras diferentes de cada cámara y cada sistema -
requieren un análisis diferenciado y de modelización matemática apropiada para cada satélite, que en última
instancia dificultan su popularización. En este sentido, llega a ser necesario los módulos adicionales que
permiten el procesamiento fotogramétrico, estimulando el uso de las imágenes en ajustes (comúnmente
llamado "Georreferenciamentos"). Se espera que en el futuro, la falta total de normalización pueda ser evitado
satisfactoriamente.

2.5. Consideraciones finales

Este capítulo trata de explicar algunos temas relevantes como la adquisición de imágenes para la fotogrametría
digital. Aunque el texto de las últimas páginas no muy lejos de haberse agotado la literatura de referencia
sobre el tema, presenta una mirada introductoria sobre como las imágenes digitales llegan al usuario.

En el siguiente capítulo, se estudian formas de mejorar la extracción datos tales imágenes - o algoritmos de
procesamiento digital de imágenes. Con este texto, la parte introductoria termina en la fotogrametría digital.
Podemos, finalmente, presentar los algoritmos y la teoría de las técnicas fotogramétricas.

49
50
5
1

Potrebbero piacerti anche