Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Leonardo B. Ivars1
Resumen:
Este documento está dividido en tres partes, la primera dedicada a la geodesia, la segunda a las
geotecnologías más utilizadas en catastro, y la tercera a la cartografía catastral. Dada la extensión de
cada tema -siendo cada uno una especialidad en sí misma-, el tratamiento que se hace de los mismos
constituye un sumario de los sub-temas más importantes, enmarcando todo ello en los aportes que hace
cada disciplina a las aplicaciones relacionadas con el levantamiento catastral y la producción de
cartografía catastral en áreas urbanas, junto a otros temas de actualidad de relevancia en el momento
actual.
De manera complementaria, el documento se encuentra profusamente ilustrado con más de 60 figuras,
de modo de facilitar la interpretación de los conceptos.
Objetivo general:
Se espera que los participantes a través de la lectura del documento, la interacción en los foros
temáticos, la participación en las tele-clases y el desarrollo de las tareas previstas alcancen una
comprensión de los fundamentos básicos de la geodesia; del posicionamiento mediante satélites GNSS,
de la fotogrametría, de la teledetección y sus aplicaciones en los levantamientos y la cartografía
catastral.
Objetivos específicos:
1
Agrimensor y Máster Internacional en Sistemas de Información Geográfica. Experto en catastro.
1
Copyright
Índice
1. Geodesia
1.1. Introducción………………………………………………………………………………………. 4
1.2. Coordenadas y marcos de referencia…………………………………………………………. 4
1.3. Figura y forma de la Tierra……………………………………………………………………… 5
1.3.1. Geoide……………… ……………………………………………………………………………. 5
1.3.2. Elipsoide………………………………………………………………………………………….. 6
1.4. Tipos de coordenadas………………………………………………………………………….. 7
1.4.1. Coordenadas cartesianas tridimensionales o geocéntricas………………………………… 7
1.4.2. Coordenadas geodésicas………………………………………………………………………. 7
1.4.3. Altura ortométrica………………………………………………………………………………… 8
1.4.4. Coordenadas planas o proyectivas……………………………………………………………. 9
1.4.4.1. Proyección UTM…………………………………………………………………………………. 10
1.4.4.2. Casos particulares de la proyección Mercator Transversa ………………………………… 11
1.5. Marcos de referencia modernos………………………………………………………………. 13
1.5.1. Marco de Referencia Terrestre Internacional (ITRF)……………………………………….. 14
1.5.2. Sistema Geodésico Mundial de 1984 (WGS 84)…… ……………………………………….. 14
1.5.3. Sistema de Referencia Geocéntrico para las Américas (SIRGAS)………………………… 15
1.6. Redes Nacionales vinculadas a SIRGAS…………………………………………………….. 15
1.7. Los marcos de referencia modernos y su utilización en aplicaciones catastrales……….. 17
2. Geotecnologías
2.1. Sistemas de posicionamiento mediante satélites GNSS
2.1.1. Introducción………………………………………………………………………………………. 18
2.1.2. Componentes de un sistema GNSS…………………………………………………………... 18
2.1.3. Principios del posicionamiento…………………………………………………………………. 19
2.1.4. Las señales GNSS………………………………………………………………………………. 20
2.1.5. Observables………………………………………………………………………………………. 21
2.1.6. Fuentes de error en el posicionamiento GNSS………………………………………………. 22
2.1.7. Métodos de levantamiento con GNSS………………………………………………………… 24
2.1.7.1. Posicionamiento absoluto ……………………………………………………………………… 24
2.1.7.2. Posicionamiento diferencial o relativo ………………………………………………………… 25
2.1.7.2.1. Método estático ………………………………………………………………………………….. 26
2.1.7.2.2. Métodos cinemático continuo y Stop & Go …………………………………………………… 27
2.1.7.2.3. Método cinemático en tiempo real (RTK) …………………………………………………….. 27
2.1.7.2.4. Método DGNSS …………………………………………………………………………………. 27
2.1.7.2.5. Método NTRIP …………………………………………………………………………………… 28
2.1.8. Levantamientos GNSS: opciones, exactitudes ……………………………………………… 29
2.1.9. Selección de métodos GNSS más apropiados ……………………………………………… 29
2.1.10. Estaciones GNSS permanentes ………………………………………………………………. 30
2.1.11. Combinación de levantamientos GNSS con topografía clásica ……………………………. 30
2.2. Fotogrametría
2.2.1. Definiciones ……………………………………………………………………………………… 32
2.2.2. Elementos geométricos de una fotografía aérea ……………………………………………. 32
2.2.3. Escala de una fotografía aérea ………………………………………………………………... 33
2.2.4. Deformaciones de una fotografía aérea ……………………………………………………… 34
2.2.5. Diferencias entre fotografía aérea y mapa …………………………………………………… 35
2.2.6. Visión estereoscópica ………………………………………………………………………….. 36
2.2.7. Sensores para la captura de datos …………………………………………………………… 37
2.2.7.1. Cámaras aéreas analógicas …………………………………………………………………… 37
2.2.7.2. Cámaras aéreas digitales ……………………………………………………………………… 38
2.2.7.3. Comparativa …………………………………………………………………………………….. 39
2.2.7.4. LIDAR aerotransportado ……………………………………………………………………….. 39
2.2.8. El proceso fotogramétrico ……………………………………………………………………… 40
2.2.8.1. Planificación de vuelo ………………………………………………………………………….. 40
2.2.8.2. Apoyo terrestre …………………………………………………………………………………. 43
2.2.8.3. Aerotriangulación ………………………………………………………………………………. 43
2
Copyright
2.3. Teledetección
2.3.1. Introducción …………………………………………………………………………………….. 51
2.3.2. Bases conceptuales ……………………………………………………………………………. 51
2.3.2.1. Procesos en un sistema de teledetección …………………………………………………… 51
2.3.2.2. Radiación electromagnética …………………………………………………………………… 52
2.3.2.3. Propiedades espectrales de los objetos ……………………………………………………… 54
2.3.2.4. Órbita y cobertura de los satélites …………………………………………………………….. 54
2.3.3. Resolución de un sistema sensor …………………………………………………………….. 55
2.3.3.1. Resolución espacial ……………………………………………………………………………. 55
2.3.3.2. Resolución espectral …………………………………………………………………………… 56
2.3.3.3. Resolución radiométrica ……………………………………………………………………….. 57
2.3.3.4. Resolución temporal ……………………………………………………………………………. 57
2.3.3.5. Relaciones entre los distintos tipos de resolución ..…………………………………………. 58
2.3.4. La imagen digital y sus características ……………………………………………………….. 58
2.3.5. Sistemas de teledetección de alta resolución ……………………………………………….. 59
2.3.6. Correcciones radiométricas y geométricas ………………………………………………….. 61
2.3.7. Productos de imagen …………………………………………………………………………… 61
2.3.8. Aplicación de imágenes de alta resolución en los catastros ………………………………. 62
3
Copyright
1. Geodesia
1.1. Introducción
La producción y el mantenimiento de cartografía trae aparejada la necesidad que tengamos que vincular,
o más específicamente, georreferenciar los datos espaciales a la superficie terrestre. Esto requiere de
sistemas que representen adecuadamente el tamaño y la forma de la Tierra, tema del que –entre otros-
se ocupa la Geodesia.
En esta sección, trataremos precisamente todo lo relacionado a los datos de posición, que es la capa de
información más básica sobre la cual se articulan todos los conjuntos de datos espaciales. A tal fin,
ofreceremos a continuación, un conjunto de sub-temas asociados fundamentalmente a los distintos tipos
de coordenadas, proyecciones cartográficas y marcos de referencia geodésicos.
Las coordenadas sin un origen específico declarado son ambigüas. Por ejemplo, si nos referimos a una
posición tridimensional, podríamos preguntarnos: ¿cuál es el origen?, ¿cuáles son las orientaciones de
los ejes de coordenadas?, ¿cuál o cuáles son las superficies de referencia a la que están asociadas?.
Cuando esto sucede, las coordenadas no tienen ninguna utilidad, por tal razón es necesario que éstas
tengan un origen o punto de partida y un conjunto de elementos adicionales que permitan definir las
posiciones sobre la superficie terrestre. Más específicamente, la Geodesia emplea una serie de
convenciones que definen lo que se conoce como Sistema de Referencia Terrestre Internacional (o por
sus siglas en inglés ITRS = International Terrestrial Reference System) que pueden resumirse y
simplificarse en:
4
Copyright
lo que se conoce como marco de referencia. Éste esta conformado por un conjunto de puntos
monumentados en el terreno con coordenadas conocidas, que nos permiten el acceso al sistema ideal a
través de una materialización imperfecta. Es muy usual en la literatura utilizar el término datum como
sinónimo de marco de referencia, aunque éste ultimo está más asociado a las infraestructuras de
posicionamiento determinadas a través de métodos satelitales. Un ejemplo de marco de referencia
común a nivel regional es el Sistema de Referencia Geocéntrico para las Américas, conocido como
SIRGAS.
Retomando, lo que veníamos planteando al inicio de este apartado tenemos que tener presente que las
coordenadas son formas convencionales para expresar las posiciones, pero que por sí solas no definen
nada si no se conoce el marco de referencia al que están asociadas.
Una primera cuestión, la Tierra tiene una forma muy irregular y compleja, de modo que si queremos
representar detalles del espacio territorial en una cartografía en papel o digital necesitamos recurrir a un
modelo simplificado de su forma. Los geodestas han encontrado dos respuestas útiles para dar solución
a estos problemas: el geoide y el elipsoide. Para tener un cabal entendimiento de las coordenadas
resulta fundamental la comprensión de estos dos conceptos.
1.3.1. Geoide
Como dijimos, la superficie terrestre dista de ser uniforme. Únicamente los océanos pueden ser
considerados como algo que pueda ser tratado con una razonable uniformidad. Si extendiéramos dicha
superficie por debajo de la masa de los continentes y asumiéramos que el agua fluye libremente allí
también y despreciáramos los efectos de las corrientes y mareas, la superficie resultante solo se
encontraría afectada por la gravedad. Esto tiene cierta consecuencia en la forma de dicha superficie, ya
que la dirección de la gravedad o línea de la plomada, es dependiente de la distribución de masas dentro
de la Tierra. Dichas irregularidades producirían un efecto irregular en el “océano global” forzándolo a ser
una superficie ondulada. Esta superficie se la llama geoide o figura física de la Tierra. El vector gravedad
en cualquier punto del geoide es siempre perpendicular e éste. El geoide puede ser definido entonces
como la superficie equipotencial2 del campo de gravedad que mejor se aproxima al nivel medio del mar.
En el hipotético caso que la Tierra fuera de una densidad uniforme y la topografía terrestre no existiera,
el geoide tendría la forma de un elipsoide centrado en el centro de masa terrestre. Desafortunadamente,
la situación no es tan simple. Dónde tenemos una deficiencia de masa, el geoide desciende debajo del
elipsoide medio. A la inversa sucede cuando existe un exceso de masa, dónde el geoide crece sobre el
elipsoide medio. Estas influencias provocan que el geoide se desvíe de la forma elipsoidal media
alrededor de 100 metros a escala global. La separación entre geoide y elipsoide se denomina
Ondulación del Geoide (N).
Superficies de referencia
2
Superficie de potencial gravitatorio constante.
5
Copyright
El sentido físico de la superficie del geoide la hace especialmente apta para utilizarla como superficie de
referencia vertical, ya que puede ser detectada por los instrumentos de nivelación. Recordemos que
cuando determinamos alturas, el telescopio del instrumento es tangente a la superficie equipotencial
local que es perpendicular a la línea de la plomada o vector gravedad.
En la práctica, las redes de nivelación han sido materializadas determinando su origen en un nivel medio
del mar local, a través de lecturas en mareógrafos que han sido promediadas en base a registros
efectuados en un extenso período de tiempo. Las alturas luego son propagadas al interior del continente
combinando la nivelación geodésica con mediciones de gravedad.
1.3.2. Elipsoide
El hecho que la curvatura del geoide muestre discontinuidades que, como señalamos, son el reflejo de
las variaciones de densidad dentro de la Tierra, no la hace una superficie apta para referir posiciones
horizontales. Para realizar determinaciones angulares, de distancias y de posicionamiento horizontal,
necesitamos recurrir a una superficie que pueda definirse en términos matemáticos, es por ello que en
Geodesia se recurre al elipsoide que es una figura relativamente simple y que se ajusta con suficiente
aproximación al geoide.
Dicha superficie se forma a partir de una elipse que gira alrededor de uno de sus dos ejes de simetría,
para el caso el eje menor (b), formando de esta manera un elipsoide de revolución. A tal fin, es necesario
que el centro de dicha figura sea coincidente con el centro de masa del planeta, que su eje menor (b)
esté alineado con el eje z, y que sus ejes mayor y menor tengan las dimensiones apropiadas para ajustar
de la mejora manera su tamaño al de la forma real de la tierra.
A lo largo de la historia, se han utilizado diversos elipsoides para aproximar la forma de la Tierra. Por
ejemplo, los datums geodésicos determinados a través de métodos terrestres tradicionales –en la
actualidad prácticamente en desuso-, han empleado principalmente el elipsoide internacional de 1924,
6
Copyright
mientras que los marcos de referencia modernos utilizan los elipsoides GRS80 (de Geodetic Reference
System de 1980) ó el WGS 84 (de World Geodetic System de 1984), muy conocido éste último por estar
asociado al sistema de posicionamiento global GPS de los Estados Unidos. Estos dos últimos elipsoides
son, a los efectos prácticos, idénticos como podemos apreciar de sus parámetros que constan en el
siguiente cuadro:
Siendo f = aplastamiento, y f-1 = aplastamiento recíproco. Esto sirve para definir completamente
dimensiones y forma, para lo que son necesarios al menos dos parámetros. Por lo general, la dimensión
se determina a través del semieje mayor a, junto a otra variable que nos permita precisar la forma,
pudiendo emplear cualquiera de los valores restantes.
Cuando nos referimos al Sistema de Referencia Terrestre Internacional en el apartado 1.2, establecimos
esta forma para expresar la posición de un punto sobre la Tierra, en la cual P queda determinado por un
valor en metros asignado sobre cada eje x, y, z.
Este tipo de coordenadas tienen la ventaja de facilitar los cálculos matemáticos, por ejemplo, la
determinación de la distancia entre dos puntos, siendo además las coordenadas “naturales” utilizadas
por los sistemas de posicionamiento satelital. Como desventaja ofrecen alguna dificultad para visualizar
las relaciones espaciales entre puntos (puntos cardinales y altura).
Estas coordenadas también llamadas elipsoidales, es la forma más usual para declarar una posición,
empleando dos medidas angulares en grados sexagesimales más una lineal en metros. La relación entre
el elipsoide y la latitud y la longitud es simple. Las líneas Norte-Sur de longitud constante son conocidas
como meridianos, en tanto que las líneas Este-Oeste de latitud constante se denominan paralelos. El
meridiano origen es el del Observatorio de Greenwich; y el paralelo origen es el Ecuador. Las
coordenadas geodésicas quedan entonces definidas de la siguiente manera:
la longitud, , es el ángulo diedro entre el plano x, z y el plano meridiano del punto P, medido de
0 a 360 grados o equivalentemente entre 0 y 180 grados, positiva hacia el este del meridiano
origen;
7
Copyright
Coordenadas geodésicas.
Aquí observamos que, en comparación con las coordenadas cartesianas tridimensionales, podemos
visualizar de la lectura directa de las coordenadas las relaciones espaciales entre puntos, esto es cual
está más al norte o al sur, al este o al oeste, y/o más alto o más bajo.
En muchas ocasiones se utiliza solamente la latitud y la longitud para dar la posición de un punto,
prescindiendo de la altura. En tal caso, es usual que a dicho par de coordenadas se las denomine
geográficas.
Es muy importante tener presente que la altura elipsoidal (h), que es una cantidad determinada a partir
del posicionamiento satelital, no considera al campo de gravedad terrestre en su determinación,
tratándose por lo tanto de una altura meramente geométrica y no física. Esto significa, por ejemplo, que
podemos tener valores iguales de h para puntos que tengan diferentes cotas, es decir que el agua corra
entre estos puntos. Además, puede presentarse la situación inversa, es decir que podemos tener valores
distintos de h para puntos situados sobre la misma superficie de nivel o que tienen la misma cota (como
en el caso del borde de un lago). Todo ello limita sus aplicaciones prácticas, no obstante, los valores de
h pueden ser combinados con algún tipo de dato que considere la gravedad terrestre, a fin de poder
sacar provecho de la tercera coordenada geodésica.
Finalmente, otra cuestión para recordar es las coordenadas cartesianas tridimensionales y las
coordenadas geodésicas son dos formas distintas pero equivalentes para expresar posiciones terrestres.
Existe la posibilidad de convertir las primeras en las segundas y viceversa.
La altura ortométrica (H), también conocida como altura sobre el nivel medio del mar, es la distancia que
separa la superficie topográfica terrestre y el geoide medida en dirección perpendicular a éste. Como
dijimos anteriormente, el empleo del geoide como superficie de referencia garantiza que la altura relativa
entre dos puntos indique correctamente el gradiente o el desnivel entre ellos. La relación entre la altura
ortométrica y la elispódica (h) viene dada por la siguiente expresión:
H=h+N
Dónde N es igual a la separación entre el geoide y el elipsoide. Es decir que conociendo el valor de N, es
posible obtener alturas de tipo físico a partir del posicionamiento satelital.
8
Copyright
Dado que el geoide es una figura extremadamente compleja, su ondulación varía en función de la latitud
y longitud de los puntos de interés. Una forma de calcular el valor de N es recurrir a un modelo de geoide
nacional –siempre que esté disponible- o global, como el EGM2008 (Earth Gravitational Model).
Desde el punto de vista práctico, sobre todo quienes vienen trabajando con SIG catastrales o Sistemas
de Información Territorial, este tipo de coordenadas son las que les resultarán más familiares o
conocidas. Por ejemplo, cuando nuestro sistema de información tiene alcance al área urbana, podemos
considerar a la Tierra como plana. A tal fin, existen las proyecciones cartográficas que permiten
representar la superficie curva de la Tierra sobre una superficie plana, de manera que éstas nos
permiten asociar a cada par de coordenadas geográficas, latitud y longitud , un par de coordenadas
rectangulares X, Y o Norte y Este, conocidas como coordenadas planas o proyectivas.
Existen un gran número de proyecciones cartográficas destinadas a resolver este problema, todas las
cuales introducen algún grado de deformación debido a que el elipsoide no es una figura desarrollable en
un plano. Un problema adicional con las proyecciones es que presentan discontinuidades, ya que las
coordenadas planas son utilizadas dentro del alcance de cada zona, faja o huso, de modo que si nuestra
área de interés se encuentra dentro de dos de ellas estamos frente a un problema, aunque esto tiene
solución como veremos en unos ejemplos que mostraremos más adelante.
Volviendo al tema de las deformaciones, tenemos que pueden afectar a las longitudes, los ángulos y las
áreas. En el pasaje del elipsoide al plano, solo es posible conservar una sola de estas propiedades en
detrimento de las otras dos.
En una clasificación de las proyecciones por el aspecto deformación podemos agruparlas en: conformes,
cuando conservan las formas; equidistantes, cuando conservan las áreas; y equivalentes cuando
conservan las longitudes. El tratamiento de las proyecciones cartográficas excede el marco de estas
9
Copyright
notas, por lo que nos limitaremos a describir las proyecciones más utilizadas en la región, entre las
cuales predomina la Mercator Transversa.
La proyección Mercator Transversa Universal, más conocida por sus siglas UTM, es una proyección
cilíndrica, conforme y transversal. Cilíndrica porque cada punto del terreno es proyectado sobre un
cilindro de sección elíptica secante al elipsoide; conforme, porque la representación cartográfica de
objetos geográficos no muy extensos conserva sus formas; y transversal, porque la tangencia entre el
cilindro y el elipsoide se produce a lo largo de los meridianos.
Entre las características más relevantes del sistema UTM podemos mencionar que:
• el origen de las abscisas es un punto ubicado a 0 m. del Ecuador para el hemisferio Norte y
10.000.000 metros del Ecuador, para el hemisferio sur,
• el origen de las ordenadas es un punto ubicado a 500.000 m. del Meridiano Central de la zona,
• utiliza el módulo 0.9996 para el meridiano central convirtiéndola en secante,
• el ancho de las zonas es de 6º,
• a la abscisa X se la llama N (Norte/Northing) y a la ordenada Y se la identifica como E (Este/Easting),
siendo necesario para identificar un punto tres parámetros N,E y zona.
La indicación del huso junto a los valores de coordenadas obedece a que el valor del falso este u origen
de ordenadas es el mismo para cada zona.
Una cuestión muy importante en cualquier tipo de proyección es la distorsión de las magnitudes lineales,
aspecto muy importante para un sistema catastral. Como fue indicado anteriormente, la proyección UTM
utiliza un módulo de 0.9996 en el meridiano central de la zona, lo que significa una disminución para una
distancia de 1000 metros de 40 centímetros. El hecho de utilizar un cilindro secante y no tangente al
meridiano de contacto es para reducir las deformaciones lineales en los bordes de la zona. Por ejemplo,
para una latitud media el valor máximo de la deformación lineal alcanza un valor aproximado de 1.00096
lo que equivale a que una distancia de 1000 metros se vea aumentada 96 centímetros. En la siguiente
figura ilustramos dónde la escala es menor, dónde es igual a la unidad (sin deformaciones) y dónde es
mayor.
La proyección UTM ha sido recomendada para la cartografía topográfica por el Comité de Cartografía de
las Naciones Unidas en el año 1952, y se divide mundialmente en 60 zonas longitudinales de 6° de
ancho -como ya señalamos-, numeradas del 1 al 60 iniciando la primera en 180° de longitud oeste. En la
siguiente figura se muestran todas las zonas que abarcan la región de Latinoamérica y el Caribe. A las
zonas extremas, la 11 y la 25, le corresponden respectivamente los bordes 120° - 114° y 36° - 30°, y los
meridianos centrales de 117° y 33° de longitud oeste. Si bien esta proyección presenta distorsiones tan
reducidas que pueden despreciarse para elaborar cartografía a escala 1:10.000 y menor, no parece ser
la solución más apropiada para su uso en cartografía de detalle o escala grande, como en el caso de los
catastros urbanos.
10
Copyright
Zonas UTM convencionales en Sudamérica Zonas UTM convencionales en México, América Central
hasta el Ecuador. y el Caribe y Sudamérica desde el Ecuador.
Presentamos a continuación tres casos, el primero corresponde a Argentina, el segundo a Costa Rica y
el tercero a Guatemala. La idea es observar variantes en la aplicación de este tipo de proyecciones,
todas ellas destinadas a reducir o minimizar las deformaciones lineales, haciendo más apropiada su
utilización para aplicaciones catastrales.
En Argentina se utiliza la proyección Gauss – Krüger para las series cartográficas del Instituto Geográfico
Nacional, la cual también es de uso corriente en las organizaciones catastrales del país. A diferencia de
la proyección UTM, la Gauss – Krüger utiliza fajas de 3 grados de ancho, dispuestas en siete de ellas
para cubrir todo el territorio de oeste a este, cada una con los meridianos centrales coincidentes con las
longitudes 72°, 69°, 66°, 63°, 60°, 57° y 54° al Oeste de Greenwich.
Otra diferencia con la proyección UTM es que la Gauss-Krüger, la superficie desarrollable se dispone
tangente al meridiano central, por lo que en dicha línea la escala se mantiene sin deformaciones, es
decir es igual a 1. Para una latitud media Argentina, el factor de escala o módulo de deformación en los
bordes de faja alcanzan valores aproximados de 1.0002, lo que representa un aumento de 20 cm. en una
longitud de 1.000 metros.
En cuando a la forma de medir las coordenadas, el eje X se orienta en el sentido de las latitudes,
creciendo hacia el Norte, más precisamente con el origen 0 metro en el Polo Sur, en tanto que el eje Y,
se dispone en el sentido de las longitudes, creciendo del meridiano central de la faja hacia el Este.
Otra característica de la proyección Gauss-Krüger como se aplica en Argentina, es que el valor origen
para el eje y o falso Este se determina sumando 500.000 + 1.000.000 x el número de faja, lo que permite
disponer de distintos valores para cada una de éstas, no siendo por tanto necesario, acompañar a los
valores de coordenadas el número de faja.
11
Copyright
El sistema de coordenadas planas empleado en Costa Rica, denominado CRTM 05, se basa en la
proyección del elipsoide de referencia WGS84 a un plano cartográfico tipo Gauss-Krüger. Se utiliza como
meridiano central el correspondiente a los 84 grados de longitud Oeste, emplazado estratégicamente en
el centro del área de cobertura de la proyección. Al origen de las ordenadas se le asigna el mismo valor
que en UTM, es decir 500.000 metros, de manera de tener siempre valores positivos para las
coordenadas. El origen de las abcisas es asignado al paralelo de latitud 0° (Ecuador), medido en forma
positiva hacia el Norte, con un valor de falso norte de 0 metro.
Proyección CRTM 05. Fuente: Unidad Ejecutora, Programa de Regularización de Catastro y Registro
(2008).
Una característica particular de la CRTM 05 es que a fin de equilibrar la distorsión lineal se aplica un
factor de escala general de 0.9999, con lo cual la longitud del meridiano central se proyecta reducida en
el plano con dicho factor. Los cálculos de coordenadas y transformaciones, el factor de escala y la
convergencia de los meridianos se basan en las fórmulas del sistema de proyección de Gauss-Krüger
(Unidad Ejecutora, 2011).
El caso de Guatemala era que venía empleando la proyección UTM, cuyos husos convencionales, más
específicamente el 15 y el 16, dividían al país en dos zonas. Este hecho generaba, por una parte, quedar
12
Copyright
en los bordes de ambos husos con el consiguiente impacto en la distorsión lineal, y por otra, una
situación de discontinuidad espacial en el sistema de representación plana.
A efectos de que el país pudiera disponer de una proyección en que se pudiera representar todo el
territorio nacional sin las discontinuidades apuntadas, además con la suficiente precisión para
aplicaciones en cartografía, topografía y catastro, es que se desarrolló la Proyección Guatemala
Transversa de Mercator, conocida por sus siglas GTM.
Esta proyección adopta como meridiano central el correspondiente a los 90 grados 30 minutos de
longitud Oeste, y al igual que en el caso de anterior, dicha ubicación corresponde al centro geográfico del
país. El factor de escala en el meridiano central es de 0.9998, el falso norte de 0 metro correspondiendo
a una latitud de origen de 0 grado (Ecuador), y el faso este de 500.000 metros correspondiendo a la
longitud de origen del meridiano central.
Son aquellos determinados a partir del empleo de técnicas geodésicas espaciales, principalmente a
través del posicionamiento por satélites. En Geodesia se trabaja con el concepto de mayor a menor, esto
es se dispone de una red global conformada por centenares de puntos, a partir de la cual se determinan
densificaciones regionales y/o continentales, tomando como referencia la red de orden 0 (global) que es
la más exacta de todas.
13
Copyright
Mas conocido por su sigla en idioma inglés ITRF (International Terrestrial Reference Frame), fue
establecido por el Servicio Internacional de Rotación Terrestre y Sistemas de Referencia (IERS) en el
año 1988. En la realización del ITRF se utilizan varias técnicas geodésicas espaciales como, por
ejemplo: VLBI que es un sistema de medición de radiofuentes extragalácticas por medio de
radiotelescopios; SLR por el cual se miden distancias láser a satélites específicos desde telescopios;
LLR que es un sistema parecido al anterior solo que las distancias son medidas a la Luna; el conocido
Sistema de Posicionamiento Global GPS y su equivalente ruso GLONASS; y DORIS que es un sistema
por el cual se mide la variación de distancias desde satélites específicos a balizas orbitográficas.
Las redes de estaciones de estos instrumentos que forman parte del ITRF son mantenidas y
desarrolladas por diferentes organizaciones internacionales como el Servicio GNSS Internacional (IGS),
el Servicio Internacional de Distanciometría Láser (ILRS), el Servicio Internacional de Interferometría de
Bases Muy Largas (IVS), y el Servicio Internacional DORIS. Para cada solución del ITRF se utiliza una
combinación de fuentes de información procedentes de los Servicios Internacionales mencionados para
producir un marco de referencia extremadamente consistente a escala mundial.
Es importante remarcar que el ITRF incorpora el concepto de la cuarta coordenada: el tiempo. ¿Qué
quiere decir esto?, que todos los puntos fijos que conforman las redes no son “tan fijos”, es decir que se
mueven principalmente por efectos del movimiento de las placas tectónicas. Si bien estos fenómenos
eran perfectamente conocidos, no eran cuantificables hasta la aparición del sistema GPS. Si un punto se
mueve y ese movimiento puede detectarse en el tiempo, entonces podemos medir su velocidad, variable
que como dijimos, pasa a formar parte de las coordenadas. Por tal razón, los marcos de referencia
modernos tienen asociada una época de definición, por lo que los valores de las coordenadas publicados
son válidos o están asociados a un momento temporal específico.
Por ello es que disponemos de diferentes realizaciones o versiones del ITRF, a las que se le adiciona un
código de año para identificarlo, la primera data de 1988 a las que le han seguido las correspondientes a
los años 89, 90, 91, 92, 93, 94, 96, 97, 2000, 2005 y 2008. Por ejemplo, el ITRF2005 constituye una
realización del Sistema de Referencia Terrestre Internacional al 1 de enero de 2005. Cada solución del
ITRF está presentada al usuario como un catálogo de coordenadas x, y, z (en metros) y velocidades dx,
dy, dz (en metros por año), junto a una estimación de los errores para cada componente de las
coordenadas.
El ITRF es fundamental por varias razones: la primera es porque se trata, ni más ni menos, que de la
“primera capa” de datos espaciales del planeta Tierra; la segunda porque su red es lo suficientemente
densa como para establecer y desarrollar marcos a escala regional y nacional solo recurriendo a
técnicas de posicionamiento por satélites; y tercero porque este marco es un estándar global para todas
las actividades que requieren datos de posición.
Más conocido por sus siglas, WGS 84, fue establecido por la National Imagery and Mapping Agency de
los Estados Unidos (actualmente National Geospatial-Intelligence Agency – NGA), y su importancia
radica en que es el sistema ligado históricamente al desarrollo del GPS, sirviendo durante mucho tiempo
para expresar las posiciones de las estaciones terrestres como de los satélites que conforman la
constelación.
WGS 84 no es solamente un marco de referencia geocéntrico global, sino que además es un modelo
geométrico que define la figura y forma de la Tierra, es decir un elipsoide, y un modelo gravitacional.
Es importante mencionar que durante mucho tiempo ITRF y WGS 84 fueron dos marcos de referencia
globales distintos, aunque muy próximos entre si. Desde el año 1994 hasta el año 2001, WGS 84 pasó
por 3 actualizaciones con el objetivo de alinearse a distintas versiones del marco global hasta que
finalmente, en el año 2002, la NGA adopta oficialmente el ITRF.
14
Copyright
1.5.3. SIRGAS
SIRGAS es el acrónimo de Sistema de Referencia Geocéntrico para las Américas y constituye una
densificación regional del ITRF. La Organización de las Naciones Unidas en su Séptima Conferencia
Cartográfica de las Américas, realizada en Nueva York en enero de 2001, recomendó a los países
miembro de las Américas la integración de los marcos de referencia geodésicos nacionales a la red
SIRGAS.
SIRGAS constituye un estándar posicional de la más alta calidad para el desarrollo de aplicaciones
relacionadas con la producción y utilización de información georreferenciada en la región, proveyendo
coordenadas de referencia para una gran variedad de aplicaciones científicas y prácticas, como
cartografía, obras de ingeniería, catastro e infraestructuras de datos espaciales (IDE).
En cuanto a las realizaciones de SIRGAS, tenemos que la primera se concretó en el año 95 y se vinculó
al ITRF 94, época 1995.4, y está conformada por un total de 58 estaciones distribuidas sobre América
del Sur. Con posterioridad esta red fue reocupada en el año 2000, extendiéndose a los países del
Caribe, Centro y Norte América. Esta segunda realización llamada SIRGAS 2000 comprende unas 184
estaciones y se vinculó al ITRF 2000, época 2000.4, siendo su objetivo principal la vinculación de los
sistemas altimétricos nacionales al ITRF. Dentro de los puntos geodésicos observados están la totalidad
de estaciones de SIRGAS 95, los mareógrafos de referencia en Sudamérica y algunos puntos fronterizos
que permiten la conexión directa entre redes de nivelación nacionales vecinas.
Por último, la tercera realización corresponde a la red SIRGAS de Operación Continua, conocida como
SIRGAS-CON. En la actualidad esta red esta compuesta por cerca de 250 estaciones, de las cuales 48
pertenecen a la red global del IGS (International GNSS Service) (SIRGAS, 2012). SIRGAS-CON es
calculada semanalmente por los centros de procesamiento y combinación de SIRGAS. Las coordenadas
y velocidades de las estaciones permanentes de esta red son puestas a disposición de los usuarios por
el Centro de Análisis Asociado para SIRGAS de la Red Regional del IGS.
Luego de la campaña SIRGAS 95, los países de la región comenzaron a modernizar sus redes
nacionales. Asimismo fueron determinándose los parámetros de transformación entre los nuevos marcos
15
Copyright
vinculados a SIRGAS y los datum geodésicos locales, a los efectos de poder aprovechar toda la
información geográfica publicada en base a los antigüos marcos de referencia. Inicialmente estas nuevas
redes fueron materializadas a través de redes monumentadas (pilares), aunque en la actualidad, la
materialización de estos marcos se está haciendo a través de instrumentos o estaciones GNSS
permanentes.
La información actualizada de las redes nacionales está disponible en la página de SIRGAS, más
precisamente en: http://www.sirgas.org/index.php?id=55. Sobre dicha base informativa junto a otras
fuentes complementarias, hemos elaborado una tabla que nos muestra el panorama en la región:
Según observamos constan las épocas de definición de los marcos, por ejemplo: 1995.4 y 2000.4 pero,
¿qué significan estos números?. La época se calcula de la siguiente manera: se divide el día anual,
coincidente en la mayoría de estos casos con la fecha media de la campaña en que se realizaron las
mediciones, por 365 y se adiciona el valor resultante al año correspondiente. Por ejemplo: la fecha de
SIRGAS 95 es el 26 de mayo de 1995, que es el día 146 / 365 = 0.4 + 1995 = 1995.4.
La relación entre las diferentes realizaciones de SIRGAS o sus densificaciones nacionales, está dada por
los parámetros de transformación entre los ITRF (http://itrf.ensg.ign.fr/trans_para.php) correspondientes y
la reducción de las coordenadas a la misma época de referencia. Dicha reducción puede aplicarse de
dos maneras:
3
Instituto Geográfico Nacional de Guatemala (2011), Red Geodésica Nacional de Guatemala: Situación Actual y Perspectivas.
4
Resolución Jefatural N° 086/2011 IGN/OAJ/DGC.
16
Copyright
1. las estaciones permanentes con más de dos años de observación disponen de velocidades; y
2. para las estaciones que no disponen de dicha información, puede utilizarse un modelo para
calcularlas llamado VEMOS (Modelo de Velocidades para América del Sur y el Caribe)
disponible en:. http://www.sirgas.org/index.php?id=54
Es conveniente remarcar que las diferentes realizaciones de SIRGAS, reducidas a la misma época de
referencia, son compatibles a nivel milimétrico (SIRGAS, 2012).
Habíamos dicho que la materialización de los marcos vinculados a SIRGAS se está haciendo a través de
estaciones GNSS permanentes, hecho que obedece a la necesidad que para mantenerlos actualizados
es necesario tener en cuenta la variación de las coordenadas en función del tiempo, lo cual se logra a
través de monitoreos continuos en los sitios que materializan el marco de referencia. Si bien esto puede
hacerse a través de una reocupación periódica de los pilares o monumentos que materializan las redes,
por una cuestión práctica y de economía y eficiencia, se está imponiendo el uso de estaciones
permanentes, tema que trataremos más particularmente en la siguiente sección, apartado 2.1.10..
Habíamos dicho que una de las características que distinguen al marco ITRF y su densificación regional
SIRGAS, es la consideración de la cuarta coordenada o el movimiento de los puntos geodésicos en
función del tiempo. Sobre este particular, es oportuno mencionar que este hecho no debe ser motivo de
preocupación, porque para aplicaciones en cartografía y catastro se puede trabajar con las coordenadas
fijas desde el momento de la época de definición del marco, sin tener en cuenta el dato velocidad,
exceptuando solamente el caso de la densificación de redes.
Por ejemplo, para los levantamientos catastrales y mensuras se pueden utilizar solo mediciones
diferenciales, que incluyen a aquellas en que la distancia entre el punto base o la estación permanente
se mantenga por debajo de los 100 km., hecho que sucede en casi la totalidad de casos. Para ello,
tenemos en cuenta que los extremos de las bases o vectores se desplazan de la misma manera, siendo
por lo tanto sus longitudes independientes del marco de referencia.
Iliffe, Jonathan & Lott, Roger (2008). Datums and Map Projections: for Remote Sensing, GIS and
Surveying. Segunda Edición. Ed. CRC Press.
National Imagery and Mapping Agency (2000). Department of Defense World Geodetic System 1984. Its
Definition and Relationships with Local Geodetic Systems. TR 8350.2, Third Edition, http://earth-
info.nga.mil/GandG/publications/tr8350.2/wgs84fin.pdf
17
Copyright
2. Geotecnologías
2.1.1. Introducción
El acrónimo GNSS (Global Navigation Satellite System) es utilizado para denominar al conjunto de
sistemas independientes GPS, GLONASS, Galileo, COMPASS, IRNSS, que tienen en común suministrar
información sobre posición, velocidad y tiempo a escala global. GNSS es además sinónimo de sistemas
de posicionamiento que funcionan sin superposición e integradamente, o sea que son interoperables.
Los usuarios que requieren dicha información, deben disponer de un receptor que sea capaz de colectar
toda la información necesaria para determinar su posición a partir de las señales que captura de los
satélites. Básicamente lo que se determinan son distancias entre los satélites y la antena del receptor, y
para que éstas tengan algún significado debemos conocer de que posición provienen. Como los
levantamientos terrestres que se hacen con métodos clásicos (ej: teodolito + distanciómetro o estación
total) comienzan a partir de puntos de control cuyas coordenadas conocemos, lo mismo sucede con los
GNSS, aunque los puntos de referencia en este caso son los propios satélites, razón por la cual conocer
su posición resulta fundamental. Por otro lado, las señales deben atravesar varias capas de la atmósfera
que generan retardo introduciendo errores en la medición, por lo que la señal debe proporcionar al
receptor algún tipo de información sobre las correcciones atmosféricas necesarias. Finalmente, los
receptores deben conocer de que satélites provienen las señales que está capturando, para ello cada
vehiculo espacial debe disponer de un mecanismo en la señal que permita identificarlo.
En resumen, siendo los GNSS sistemas pasivos que sólo transmiten señales, lo que los usuarios en sus
receptores necesitan recibir es: 1. la posición instantánea de los satélites en movimiento; 2. el tiempo en
los satélites dado que las distancias son función del tiempo de propagación de la señal; 3. información
sobre las correcciones atmosféricas; y 4. un sistema de identificación de los satélites para informar al
receptor de dónde proviene la señal.
Los satélites comunican a los receptores toda la información señalada precedentemente a través de
códigos modulados sobre ondas portadoras llamados mensajes de navegación. Las portadoras no son
otra cosa que frecuencias de radio, las cuales presentan características particulares que permiten que
sean cambiadas o moduladas para llevar información como veremos en el apartado 2.1.4.
El segmento de control del GPS incluye una estación principal de control, 5 estaciones para el monitoreo
del sistema, y 3 estaciones para la transmisión de datos distribuidas en todo el mundo, con las siguientes
tareas: controlar las operaciones del sistema completo, monitorear los movimientos de los satélites,
monitorear las operaciones en los relojes de los satélites, calcular las efemérides y el tiempo en los
satélites.
El segmento de control de GLONASS es bastante similar al de GPS aunque está extendido sobre
territorio Ruso, e incluye una estación de control principal, una estación central para la armonización de
las operaciones del sistema, y estaciones de gestión y monitoreo, con las siguientes tareas: colectar
datos de medición y calcular las efemérides, enviar datos de efemérides, datos de tiempo y otras
informaciones a los satélites, monitorear y armonizar el tiempo GLONASS y UTC, controlar las
operaciones, movimientos y posiciones de los satélites, y gestionar y garantizar el funcionamiento del
18
Copyright
sistema completo. Actualmente, la agencia que administra GLONASS está realizando gestiones para
establecer estaciones de monitoreo fuera de Rusia a fin de mejorar la integridad y la exactitud del
sistema.
En cuanto al segmento del usuario podemos decir que el dispositivo para capturar los datos de
observación GNSS está conformado de un receptor y una antena. Los receptores, dependiendo del
fabricante y los requerimientos de exactitud, tienen la posibilidad de recibir una o dos frecuencias y
disponen de varios canales dónde reciben las señales de los satélites que son capturadas a través de
una antena y registradas en la unidad receptora. Sobre la base de los datos capturados son calculadas
las distancias satélite – receptor, con lo cual se determina la posición de la antena.
A continuación, incluimos una tabla comparativa de los principales parámetros de los sistemas de
posicionamiento GPS y GLONASS en operación actualmente.
GPS GLONASS
Número de planos orbitales 6 3
Número de satélites 32 22
operativos
Altitud orbital 20.180 km. 19.100 km.
Período orbital 11 hs. 56 min. 11 hs. 15 min.
Inclinación de la órbita 55° 64.8°
Marco de referencia WGS 84 (G1150) ITRF 2000 PZ90 (PZ-90.02 ITRF
2000 ) 5
Sistema de tiempo Tiempo GPS UTC Tiempo de Moscú
División de la señal Código Frecuencia
Frecuencia banda L1 1575 Mhz 1602 – 1615 Mhz
Frecuencia banda L2 1228 Mhz 1246 – 1256 Mhz
Códigos Diferente para cada satélite Igual para cada satélite
Una diferencia muy importante entre GPS y GLONASS es que para identificar un satélite GPS se le
asigna un código diferente a cada uno de ellos, en tanto que GLONASS utiliza un código único, por lo
que para identificar cada vehículo se le asigna un par de frecuencias diferentes a cada satélite.
El concepto fundamental detrás de los GNSS es utilizar mediciones de distancias simultáneas a tres
satélites para calcular la posición de un receptor. Las distancias son medidas registrando el tiempo
requerido por la señal del satélite para llegar al receptor. Cada distancia define una esfera con su centro
en el satélite. Desde el punto de vista geométrico son necesarias tres esferas para la intersección, pero
en razón de que los relojes del satélite y receptor no están perfectamente sincronizados, el error del reloj
del receptor introduce un sesgo que se proyecta como un error sobre la distancia al satélite. Esta es la
razón por la cual se necesitan cuatro satélites como mínimo para determinar una posición: tres para el
posicionamiento (coordenadas cartesianas geocéntricas x,y,z) más una adicional para el error del reloj.
5
De conformidad al plan de modernización de GLONASS, la información de efemérides implementada en el marco de referencia
PZ-90.02 fue actualizada en todos los satélites el 20-09-2007. Desde esa fecha las coordenadas transmitidas están referidas al
ITRF 2000. El PZ-90.02 es una versión actualizada del original PZ-90.
19
Copyright
Tanto GPS como GLONASS trabajan con dos frecuencias portadoras y dos códigos que modulan en
fase. Esto significa que las ondas portadores están preparadas para llevar códigos binarios que se
superponen sobre las mismas y que sólo pueden tener valores 0 y 1. Cada vez que este valor cambia, se
produce un cambio en la fase de la portadora, según se muestra en la siguiente figura:
A modo de ejemplo, en estas notas solo describiremos sintéticamente la estructura de la señal GPS,
siendo las de GLONASS muy parecidas. Los satélites GPS transmiten datos de medición en dos
frecuencias portadoras ubicadas en la banda de radio L, que son derivadas de una frecuencia
fundamental generada en los relojes atómicos que llevan los vehículos espaciales, de modo que:
La señal GPS
A su vez la portadora L1 es modulada por dos códigos: el C/A o de adquisición rápida y el código P o
preciso. En cambio, L2 es modulada solamente por el código P. El código C/A es la fuente o “regla”
básica para determinar las distancias satélite-receptor, en tanto que la disponibilidad de dos portadoras
responde a la necesidad de proveer a los usuarios un medio para eliminar o mitigar el retardo que sufre
la señal al atravesar la capa de la atmósfera conocida como ionosfera, lo que es válido también para el
código P que va modulado tanto en L1 como en L2.
20
Copyright
2.1.5. Observables
A continuación vamos a concentrarnos en los distintos tipos de medición que están referidos al sistema
GPS, pero que son comunes al resto de los sistemas de posicionamiento.
El término observable es utilizado para indicar las señales cuyas mediciones aportan la distancia satélite
– receptor. La palabra se utiliza para hacer un distingo entre la cosa que está siendo medida, el
observable, y la medición en sí o la observación. Existen dos tipos de observables: la seudodistancia
(pseudorange, P) y la fase de la portadora (carrier phase). Esta última constituye la base de las técnicas
utilizadas para levantamientos de precisión y alta precisión. Por otra parte, las seudodistancias, llamadas
así porque son más cortas o más largas que las distancias geométricas verdaderas por los errores en los
relojes de los satélites y del receptor, se utilizan en el posicionamiento puntual instantáneo que ofrecen
los navegadores de bajo costo.
P = + = + c
Dónde es la distancia medida entre la estación i y los satélites j; X j, Y j ,Z j son las coordenadas
cartesianas geocéntricas del satélite j conocidas del mensaje de navegación; j es el error del reloj del
satélite conocido del mensaje de navegación; X i, Y i ,Z i las coordenadas cartesianas geocéntricas
desconocidas del sitio de observación; y i es el error desconocido del reloj del receptor.
Los códigos de adquisición rápida C/A y P (restringido a usos militares) tienen una longitud de onda de
300 metros y 30 metros respectivamente. La precisión de los observables se calcula en base al 1% de
dicha longitud de onda, por lo que para el código C/A significa unos 3 metros, aunque con las mejoras
introducidas en las técnicas de correlación dicho valor puede alcanzar a unos 0.50 metros.
21
Copyright
La distancia satélite – receptor puede determinarse utilizando directamente las ondas portadoras L1 o L1
+ L2. En este caso, la distancia puede expresarse como un número de ciclos enteros N de la longitud de
onda más la fracción de un ciclo , de manera que:
P = P0 + P = N +
Medición de fase.
Como podemos ver la medición de fase contiene dos componentes: el ciclo entero y una fracción de
ciclo. Lo que el receptor mide es dicha parte fraccional por comparación de fase, pero el número entero
de ciclos permanece desconocido, aunque este valor es arbitrariamente asignado al comienzo del
proceso de rastreo del satélite en una cantidad flotante. El valor N se denomina ambigüedad de la fase y
durante el procesamiento de datos se debe fijar como un valor entero. Este proceso se llama resolución
de ambigüedades y si éstas pueden ser fijadas correctamente, se obtendrá la solución de
posicionamiento más precisa posible.
Como las longitudes de onda de las señales GPS son para L1 y L2, 19 cm. y 24 cm. respectivamente, y
tomando en cuenta lo que ya se mencionó respecto a la precisión de los observables, tendremos que la
medición con fase es la que brinda los resultados más precisos que rondan en un par de milímetros.
Cuando se utiliza el posicionamento satelital para aplicaciones que requieren exactitudes a nivel
centimétrico, es imprescindible conocer las diversas fuentes de error que afectan a las observaciones
GNSS. En primer lugar, debemos hacer una distinción entre los errores sistemáticos, los cuales pueden
ser modelados matemáticamente o eliminados utilizando técnicas apropiadas, y los errores aleatorios o
accidentales que son impredecibles en cuanto a magnitud y signo y tienden a cancelarse en la medida
que se incrementa el tiempo de observación. Los errores en el posicionamiento están originados en las
siguientes fuentes principales: satélite, medio de propagación (atmósfera) y receptor.
22
Copyright
Como veremos en el apartado 2.1.7.2., los errores producidos por las órbitas y reloj de los satélites, y los
efectos producidos por la ionósfera y la tropósfera pueden considerarse prácticamente iguales cuando se
trabaja con dos receptores observando los mismos satélites en forma simultánea. La única observación
que corresponde hacer al respecto, es que el error ionosférico deja de estar correlacionado cuando la
distancia entre los receptores es mayor a 20 km. Por tal razón, las señales GNSS están constituidas al
menos por dos frecuencias, dado que esta opción es la que permite eliminar (prácticamente) el retardo
ionosférico para bases de hasta unos 100 km.. Esto es porque la cantidad de refracción que
experimentan las radiofrecuencias es inversamente proporcional a cada frecuencia, por lo que utilizando
dos frecuencias distintas que recorren la misma capa atmosférica y al mismo tiempo, permite la
determinación de la refracción y su consecuente compensación.
Respecto a los errores originados en el receptor, lógicamente que no están correlacionados para
observaciones simultáneas, por lo que tienen influencia en el posicionamiento diferencial. El efecto
multicamino sucede cuando el receptor se encuentra próximo a una superficie reflectante, por ejemplo:
un vehículo, un techo metálico, un muro o un espejo de agua, y la antena captura no solo la señal directa
sino además la reflejada por dichos objetos, generando el efecto de múltiple trayectoria. Este error es
dependiente de la frecuencia, afectando a las mediciones de código más que a las de fase, y las señales
que provienen de satélites más bajos son más susceptibles al multicamino que aquellas que provienen
de satélites altos. El impacto de este efecto puede reducirse incrementando el tiempo de observación en
cada estación. Las antenas de los receptores GNSS de tipo geodésicos están diseñadas para prevenir la
recepción de señales reflejadas.
El ruido de la medición tiene que ver con que los observables no pueden ser medidos perfectamente,
estando sujetos a influencias aleatorias de la antena, amplificadores, cables y el propio receptor. Como
ya hemos señalado, la resolución de la observación es alrededor del 1% de la longitud de onda, aunque
la tecnología de los receptores modernos tienden a llevar el ruido de la fase por debajo de 1 mm. y
reduce la resolución del código a un nivel de 10 cm (Seeber, G., 2003).
Como resumen, resumimos el presupuesto de error total aproximado para una posición GNSS autónoma
en el siguiente cuadro:
23
Copyright
Multicamino 1,4 m.
Centro de fase --
Ruido 3,0 m.
El efecto combinado de los errores de órbita, de propagación, errores de tiempo y reloj y ruido de la
medición, proyectados sobre una línea entre el receptor y el satélite se denomina Rango de Error
Equivalente del Usuario (UERE = User Equivalent Range Error).
El producto del valor de la Dilución de la Precisión (DOP) por el UERE proporciona la exactitud esperada
para el posicionamiento autónomo.
El DOP es un valor escalar sin unidades utilizado para describir la contribución geométrica a la
incertidumbre de una solución de posicionamiento. Más precisamente, el DOP tiene que ver con la
fuerza o solidez geométrica de la figura descripta por la distribución de los satélites en el cielo para un
determinado horizonte de observación. Existen varios valores para el DOP, pero el más importante es el
PDOP que representa la incerteza que puede esperarse en la posición tridimensional. Los valores de
PDOP menores que 6 son considerados buenos.
En la figura, podemos observar que un agrupamiento cercano de satélites forma un poliedro de volumen
reducido que ofrece valores pobres de PDOP; mientras que cuando los satélites se encuentran bien
distribuidos en el cielo, separados entre si y formando ángulos horizontales aproximadamente iguales
respecto a la posición del observador (ver que el volumen del poliedro se incrementa sensiblemente),
tenemos valores óptimos de PDOP.
Dentro del posicionamiento absoluto podemos considerar a una técnica más nueva que está
despertando mucho interés en la comunidad de usuarios, que es el posicionamiento puntual preciso
(PPP). En este caso, también se utiliza un solo receptor para determinar las coordenadas de los puntos
de interés, solo que a nivel de instrumentación requiere exigencias mayores en cuanto a que es
necesario el uso de receptores más sofisticados y precisos con capacidad para trabajar con código y
fase. Este nuevo enfoque de posicionamiento, surgió a partir de la disponibilidad de datos de órbitas y
relojes precisos con una precisión de unos pocos centímetros. Estos datos se aplican para corregir dos
de las fuentes de error más importante que hemos descrito en el apartado precedente. Entonces,
combinando los datos precisos de órbitas y relojes, sumado al empleo de receptores de doble frecuencia
24
Copyright
que permiten eliminar los efectos de primer orden de la ionosfera, los usuarios pueden obtener una
posición con una exactitud a nivel centimétrico y decimétrico. De manera que encontrarán que el
agregado de la palabra “preciso” se utiliza para distinguir este método de la solución que ofrecen los
tradicionales navegadores que utilizan solo el código como principal observable para la determinación de
la posición.
Método diferencial
6
Para ampliar ver: http://es.wikipedia.org/wiki/Rinex
25
Copyright
En el posicionamiento diferencial hay que tener especialmente en cuenta efectos que no están
correlacionados en cuanto a que no producen similares magnitudes de error en las estaciones
involucradas en un levantamiento, por ejemplo: el efecto multicamino y el ruido de observación, el
primero que depende del sitio de observación y el segundo del receptor.
En una primera división del método diferencial tenemos la diferenciación entre la necesidad de disponer
de los resultados del levantamiento con posterioridad a su ejecución o mientras se realiza el mismo, esto
es en post-proceso o en tiempo real. En post-proceso podemos distinguir al método estático y el
cinemático.
El primero de ellos, implica observaciones estacionarias durante un período de tiempo que puede ir
desde los 15 minutos a varias horas o días, dependiendo de la finalidad del trabajo y la longitud de las
bases a medir. Este método si bien es el más preciso de todos, tiene la debilidad que los tiempos de
observación son comparativamente largos, dado que los receptores tienen que resolver las
ambigüedades de la fase en cada nueva estación u ocupación. En la actualidad el método estático viene
siendo utilizado casi con exclusividad para el establecimiento de marcos de referencia, sus respectivas
densificaciones y puntos de control. Es importante remarcar que con las mejoras en la instrumentación y,
más particularmente, en los procedimientos destinados a la resolución de las ambigüedades, los tiempos
de observación se han reducido sensiblemente dando lugar a una variante de este método conocida
como estático-rápido, la cual es aplicable también para densificaciones de redes y puntos de control en
aplicaciones cuyo rango de operación o distancia a la base sea reducido.
26
Copyright
En cuanto al método cinemático, podemos verlo como una primera evolución del método al que
acabamos de referirnos, en el sentido que si las antenas pueden moverse durante el levantamiento se
gana en productividad, lo cual incrementa la cantidad de aplicaciones posibles de estas tecnologías. Esta
técnica es utilizada principalmente en el levantamiento de detalles y se apoya en una inicialización
estática del receptor móvil para fijar las ambigüedades, y la transferencia de las mismas a toda la cadena
de puntos que integran un levantamiento, estrategia que permite tiempos de observación sumamente
reducidos sin resignar por ello exactitud en los resultados.
La diferencia entre la opción cinemático continuo y stop & go es que la primera es más apta para
determinar trayectorias, porque el móvil va grabando datos conforme a un intervalo de tiempo predefinido
por el usuario, típicamente entre 1 y 5 segundos; en tanto que en la segunda el receptor solo registra las
observaciones en los puntos que el usuario especifique en forma de parada (stop), normalmente unas 3
épocas7 o 15 segundos por punto, aunque el receptor continua en movimiento (go) rastreando los
satélites durante todo el tiempo que dura la sesión de trabajo. Un punto débil de estas opciones es que
son extremadamente sensibles a los obstáculos que pueden encontrarse en el camino, cómo árboles,
construcciones, etc., que pueden ocasionar interrupciones en la recepción de la señal, caso en que será
necesario realizar una nueva inicialización estática.
Dentro de los métodos rápidos para trabajar en tiempo real, es decir que ofrecen las coordenadas en
forma casi instantánea para un receptor móvil, se encuentra la técnica RTK (Real Time Kinematic) que
es muy apropiada para replanteos y levantamiento de detalles y que ofrece la enorme ventaja de no
requerir post – procesamiento. El empleo de RTK requiere como todos los métodos diferenciales, al
menos dos receptores, uno operando como base y otro como móvil unidos por un enlace de radio. Dicho
dispositivo cumple la función de transmitir continuamente las correcciones de las mediciones de fase
desde la base al móvil. De esta manera el receptor en movimiento puede calcular sus coordenadas
corregidas casi instantáneamente ofreciendo resultados con exactitud centimétrica.
Sin embargo, debe tenerse en cuenta que el empleo del método RTK está limitado a un alcance de unos
10 km., porque es la distancia límite sobre la cual los algoritmos OTF (On the fly) empleados para la
resolución de ambigüedades en forma casi instantánea -es decir que no requieren inicialización estática-,
funcionan en forma fiable. Además hay que tener presente que los enlaces de radio están propensos a
recibir interferencias de otras fuentes de radio, así como al bloqueo de la línea de vista en zonas dónde
la topografía del terreno es muy ondulada o montañosa.
7
Intervalo de tiempo en el que se registran datos de observación GNSS en una unidad receptora.
27
Copyright
El método conocido como DGNSS (Differential GNSS) trabaja exclusivamente con código y funciona de
la siguiente manera: el receptor base está ubicado en un sitio con coordenadas conocidas y se configura
para operar como referencia, rastrando todos los satélites visibles, y determinando las correcciones a las
seudodistancias en base a las coordenadas conocidas del sitio. Luego estas correcciones se transmiten
a los receptores móviles de los usuarios a través de un enlace de datos inalámbrico, que aplican dichas
correcciones antes de calcular las soluciones de posicionamiento autónomas. Por las exactitudes típicas
que ofrece esta técnica no es muy utilizada en levantamientos catastrales.
NTRIP es el acrónimo de Networked Transport of RTCM vía Internet Protocol y, como su nombre lo
indica, se trata de un protocolo basado en el Protocolo de Transferencia de Hipertexto HTTP,
desarrollado para distribuir flujos de datos GNSS a receptores móviles o estáticos a través de Internet.
NTRIP comparte los mismos principios de funcionamiento que los métodos RTK y DGNSS, es decir la
transmisión de las correcciones diferenciales generadas en una estación base, hacia las estaciones
móviles que se están levantando. La exactitud de los resultados es similar al RTK, sólo que con este
método el radio de trabajo puede ampliarse hasta unos 40 km. si disponemos de receptores de doble
frecuencia.
NTRIP constituye la capa de transporte y los datos transmitidos están en el formato RTCM,
generalmente en versiones 2.3 y 3.0. Ambas contienen dentro de sus mensajes todos observables GPS
y GLONASS, definición y tipo de antena, coordenadas de la estación de referencia, correcciones de
código y fase y, en el caso de la versión 3.0, transmite adicionalmente un mensaje de solución de red,
conformado por las correcciones diferenciales de varias estaciones permanentes, lo cual aumenta la
consistencia y calidad de las soluciones de posicionamiento en tiempo real.
Servidores NTRIP, está conformado por las fuentes o estaciones GPS/GNSS permanentes que
transfieren datos RTCM al Caster NTRIP a través de una conexión TCP/IP. Los servidores
envían además el nombre de la fuente y otros parámetros de información adicionales referidos a
ella.
Caster NTRIP es un servidor de Internet que, por una parte, gestiona los flujos de datos
provenientes de las fuentes, y por la otra chequea los mensajes recibidos por los clientes NTRIP,
y controlan si los usuarios están autorizados, en cuyo caso, transfieren los flujos de datos
RTCM.
Clientes NTRIP, está conformado por los receptores que reciben los flujos de datos RTCM. Los
clientes primero necesitan ser aceptados por el Caster NTRIP y, una vez autorizados, pueden
recibir los datos GNSS del Caster NTRIP.
Componentes de NTRIP
28
Copyright
¿Qué necesitan los usuarios para poder emplear esta técnica de medición? Disponer de un receptor con
capacidad RTK y módem incorporado. En caso que el equipo no cuente con uno, es necesario recurrir a
dispositivos externos que cumplan esta función, generalmente notebooks, PDA o teléfonos móviles con
tecnología GPRS, GSM o 3G. Por intermedio de estos equipos se reciben las correcciones del Caster
NTRIP, que luego se envían a los receptores por medio de cables o conexiones bluetooth. Además es
necesario contar con cobertura de la red celular en el área de trabajo.
A modo de síntesis de los métodos vistos en el apartado precedente, en la siguiente tabla presentamos
las distintas opciones disponibles: (modificada de Stewart, M. & Rizos Ch., 2002, pág. 164):
1
Indica la distancia a la estación base más cercana.
2
95% de intervalo de confianza.
3
DF = receptor de doble frecuencia; SF = receptor de simple frecuencia.
4
Susceptibilidad del método a la degradación originada por una pobre visibilidad del cielo; * = sin
problema; ***** = muy vulnerable.
5
No incluye el tiempo de inicialización para la resolución de las ambigüedades de la fase.
6
Valor de referencia obtenido en condiciones ideales de observación y publicados en:
http://www.geod.nrcan.gc.ca/products-produits/ppp_acc_e.php, accedido el 2 de agosto de 2012.
N/A = no aplicable.
Nótese que la clasificación en la tabla está de conformidad a la distancia entre el receptor de referencia o
base y el receptor móvil. Esto se ha hecho deliberadamente, con el fin de resaltar la relación distancia-
versus-precisión que es inherente a las técnicas precisas de posicionamiento GNSS.
Elegir entre los distintos métodos de levantamiento GNSS implica tener en cuenta la finalidad del trabajo,
hecho que trae aparejado los requerimientos de exactitud a cumplir, de manera que una vez definida
ésta procederemos a seleccionar la alternativa más apropiada. En segundo término, tenemos que
conocer la ubicación y distribución de los puntos que definen el marco de referencia, lo que nos va a
permitir conocer la distancia promedio entre la/s estaciones base o de referencia y las estaciones que
iremos a ocupar durante el levantamiento.
Debemos tener presente aquí que las longitudes de los vectores o bases sean lo más cortas posibles,
dado que en la medida que se incremente la distancia entre base y móvil, implicará tomar decisiones
sobre el instrumental y los métodos a aplicar, lo que a su vez tiene influencia sobre los costos. Por
ejemplo, si los puntos de referencia los tenemos situados a más de 20 km. de nuestra área de trabajo,
deberemos utilizar receptores de doble frecuencia para obtener exactitudes centimétricas.
29
Copyright
Finalmente, otro aspecto que influye en la selección del método es la pobre visibilidad al cielo
ocasionada por edificios en altura, arboledas, etc., lo cual puede ocasionar pérdida o interrupción de las
señales GNSS, siendo muy importante cuando se utilizan métodos en movimiento o cinemáticos, tal
como consta en la tabla del precedente apartado.
Como la gran mayoría de países de la región disponen de un marco de referencia materializado con
estaciones GNSS permanentes (EEPP), es aconsejable –siempre que sea posible- utilizar como datos
de partida las observaciones provistas por las mismas. Una EEPP está conformada por un receptor
geodésico de doble frecuencia instalado en un punto de coordenadas conocidas, que registra datos en
un intervalo prefijado (típicamente 5 seg. y 30 seg.) las 24 horas del día, los 7 días de la semana y los
365 días del año. En general, los equipos instalados descargan sus datos y luego los envían
automáticamente a un servidor para ponerlos a disposición de los usuarios.
En el apartado 1.6 de la sección anterior, nos referimos al rol que cumplen las EEPP en el
mantenimiento de los marcos de referencia modernos, a lo que tenemos que agregar al menos otras dos
funciones, que son las más importantes desde el punto de vista de los usuarios, como la de facilitar el
acceso al marco de referencia y reducir los costos de equipamiento y logística, dado que nos se requiere
ocupar con un receptor y personal propio un punto base para realizar los levantamientos.
Dichas infraestructuras geodésicas proveen a los usuarios distintos servicios de posicionamiento8, por
ejemplo:
Descarga de datos de observación (código y fase) en formato RINEX a través de la WEB o FTP
para post-procesamiento.
Servicios de procesamiento automatizados a través de Internet, esto es el usuario remite sus
datos de observación y la aplicación resuelve posteriormente las soluciones de posicionamiento
que entrega al solicitante.
Servicio de posicionamiento RTK y DGNSS para observaciones de fase y código
respectivamente.
Transmisión de datos de corrección diferencial a los usuarios a través del protocolo NTRIP.
8
El más básico es la descarga de archivos RINEX. No todas las redes de EEPP proveen la totalidad de los servicios señalados,
sino que potencialmente podrían hacerlo.
30
Copyright
Por tal razón, dentro de estos entornos de trabajo los métodos GNSS se utilizan como medio para ubicar
los instrumentos electro-ópticos respecto al marco de referencia o, más concretamente, densificar redes
en distancias relativamente cortas; en tanto que los métodos clásicos se emplean fundamentalmente
para el completamiento de detalles no visibles en los fotogramas, el levantamiento de linderos y áreas
construidas, la fijación de líneas de edificación, el control de medidas provenientes de restituciones
fotogramétricas, la integración en la cartografía de nuevas parcelas (ej: loteos / urbanizaciones,
asentamientos informales) y construcciones, etc.
En la figura, mostramos los puntos de referencia con coordenadas conocidas determinados con métodos
GNSS, los cuales son utilizados para orientar las estaciones totales enlazando dos puntos intervisibles.
Luego a partir de dichos puntos son capturados todos los detalles de interés.
Es importante tener en cuenta que para combinar ambos métodos, se deben realizar reducciones a las
mediciones con estación total. Dichos cálculos se realizan con el objetivo de trasladar principalmente las
magnitudes lineales medidas sobre la superficie terrestre a sus correspondientes valores sobre la
superficie del elipsoide. Como usualmente se trabaja con sistemas de representación plana, las
reducciones que se aplican son dos: el factor de escala o módulo de deformación lineal (ver sección
anterior, apartado 1.4.4.1.) y la corrección por altura sobre la superficie del elipsoide.
Ferrario de Urriza, Susana (2000). El ABC del GPS. Ed. Consejo Profesional de Agrimensura de la
Provincia de Buenos Aires.
Stewart, M. & Rizos, Ch. (2002). GPS projects: some planning issues. En Bossler, John Editor (2002).
Manual of Geospatial Science and Technology. Ed. Taylor and Francis.
Weston, N. & Schwieger, V. (2010). Cost effective GNSS Positioning Techniques. Publicación de la
Federación Internacional de Agrimensores (FIG) n° 49,
http://www.fig.net/pub/figpub/pub49/figpub49.htm
31
Copyright
2.2. Fotogrametría
2.2.1. Definiciones
La fotogrametría es una técnica que permite la elaboración de mapas y otros productos cartográficos
como ortofotos o modelos digitales del terreno a partir de de imágenes fotográficas. Existen diversos
tipos de fotogrametría, por ejemplo, la terrestre, la de rango cercano y la aérea, siendo ésta última la de
nuestro interés porque es la que tiene aplicación en los levantamientos catastrales.
Si trabajamos con una foto aislada podemos obtener datos bidimensionales de la geometría de los
objetos situados en la superficie terrestre, en cambio si trabajamos un par de fotos, teniendo éstas una
zona común o de superposición, podemos disponer de datos tridimensionales como veremos más
adelante.
Tenemos que tener en cuenta aquí que en la práctica siempre se trabaja con copias positivas del
negativo, llamadas comúnmente copias contacto. Las posiciones de los puntos de la imagen están
referenciadas a los ejes x e y, que están formados por líneas rectas que surgen de unir las marcas
opuestas registradas en el positivo llamadas marcas fiduciales. Normalmente el eje x está orientado
aproximadamente con la línea de vuelo y tomada positivamente en dirección al vuelo. El eje y positivo se
encuentra ubicado a la izquierda del eje x.
Dada la precisión con las que se colocan las marcas de referencia y las lentes de la cámara métrica, el
origen de las coordenadas de la foto, o, es coincidente con el punto principal. La intersección del eje
óptico del objetivo de la cámara con el terreno se conoce como punto principal del terreno, O. Estos
detalles son mostrados en la siguiente figura:
32
Copyright
La escala es una relación de proporcionalidad entre las dimensiones reales del objeto y las dimensiones
de su imagen en la foto, y puede ser expresada unidades equivalentes, fracciones representativas, o
ratio / relación. Por ejemplo: si un milímetro en la foto representa 10 metros en el terreno, la escala de la
foto podemos expresarla como 1 mm. = 10 metros (unidades equivalentes), o 1/10.000 (fracción
representativa), o 1:10.000 (ratio/relación).
El denominador de escala determina la cantidad de veces que las dimensiones reales de los objetos
situados en el terreno se encuentran reducidos en la imagen fotográfica. Entonces a mayor denominador
de escala menos detalles podremos apreciar del terreno, por lo que la escala debe referirse como
pequeña, en tanto que a menor denominador podremos visualizar con claridad o nitidez objetos más
pequeños, caso en que la escala se señala como grande. Es importante tener presente que en una
fotografía aérea solo tiene sentido utilizar una escala media redondeando su denominador, dado que el
avión vuela a una altura constante sobre el terreno y los desniveles que presenta el mismo producen
variaciones en la escala.
El cálculo de la escala de una foto puede realizarse de varias maneras, aunque es usual utilizar dos
caminos:
Conociendo los datos de toma, más precisamente la distancia focal (f) de la cámara y la altura
relativa o absoluta de vuelo.
Comparando distancias homólogas medidas directamente en el terreno con medidas tomadas
en la foto. Una condición que debe cumplirse aquí es que los objetos estén precisamente
definidos en el terreno y puedan ser visualizados con claridad en la foto.
Escala = 1 / Df = ab / AB = f / z = f / z0 – h
33
Copyright
Las diferencias de alturas de los objetos representados ya sean por desniveles naturales del terreno o
bien por diferencias en altura artificiales como en el caso de los edificios, producen desplazamientos en
la posición de los objetos. Teniendo en cuenta que la fotografía es una proyección central, dichos
desplazamientos se producen desde el punto principal y en forma radial hacia los bordes de la foto,
hecho que podemos observar en la representación esquemática de la siguiente figura:
Deformaciones presentes en una fotografía aérea. Fuente: UNESCO, RAPCA, ITC (2003).
Entonces, el desplazamiento por el relieve ocurre cuando los elementos del terreno no se encuentran
sobre el plano de referencia, determinado por la proyección sobre el terreno del punto principal de la foto.
Los desplazamientos dependen de la posición del punto en la fotografía y de su altura respecto al plano
de referencia. Los desplazamientos originados por el relieve se caracterizan porque el desplazamiento
en el centro de la foto es nulo, y en la medida que nos alejamos de éste, corresponde mayor
desplazamiento; además cuanto mayor sea la altura del objeto sobre el plano de referencia, de mayor
magnitud será su desplazamiento. Los objetos representados en la foto que se encuentran ubicados por
sobre el plano medio de referencia aparecerán desplazados radialmente hacia afuera, y a la inversa, los
que se encuentran ubicados debajo de la referida superficie aparecerán desplazados hacia dentro.
En las siguientes figuras se ilustran estos desplazamientos desde una perspectiva geométrica en 2 y 3
dimensiones. Los puntos singulares A y B son proyectados ortogonalmente sobre el plano de proyección
o referencia en A’ y B’ respectivamente, luego todos esos puntos son llevados mediante una proyección
central al plano del negativo, dónde las distancias que median entre a’ – a, y b’ – b son los
34
Copyright
desplazamientos de los puntos imagen ocasionados por las diferencias de nivel h. La magnitud de los
desplazamientos pueden calcularse a través de la siguiente fórmula:
r = r h / z = r h / f x Df
Otras deformaciones son las que produce el avión en el instante de la toma de las fotografías, que se
cuantifican matemáticamente como giros alrededor de los ejes x, y, z en el sistema de coordenadas de la
foto. En la actualidad gracias a los sistemas de suspensión giroestabilizados que emplean las cámaras
modernas con film o analógicas y digitales, las inclinaciones se reducen sensiblemente a unos pocos
minutos. De acuerdo a lo que puede observarse en la figura, resulta evidente que estos giros producen
variaciones en el tamaño (escala) y la forma de los objetos registrados.
Deformaciones producidas por movimientos del avión. Fuente: UNESCO, RAPCA, ITC (2003)
A esta altura, debemos tener claro que aunque a primera vista una fotografía aérea y un mapa puedan
parecer similares, existen entre ambos productos diferencias importantes, por ejemplo:
35
Copyright
Distinto tipo de proyección: las fotografías tienen una proyección perspectiva (central) lo que
implica que los objetos ocupan una posición distinta de la que ocuparían en el terreno, es decir
se encuentran desplazados de su posición original. En cambio, en todos los productos
cartográficos los datos espaciales son proyectados ortogonalmente, por lo que los objetos
aparecen en la verdadera posición que ocupan en el terreno.
Distinta escala: las fotografías aéreas representan el terreno con todas las variaciones de escala,
debido a los distintos desniveles. En la cartografía se fija convencionalmente una superficie de
referencia, en donde la escala es uniforme para todos los objetos representados.
Distinta orientación: una fotografía aérea no dispone de georreferenciación, por lo que
inicialmente no tiene posibilidad de ser ubicada sobre el territorio. Por el contrario, los productos
cartográficos poseen tolos los elementos necesarios para la ubicación y orientación de los
elementos representados.
Distinto contenido y representación: un mapa es una representación abstracta en la que la
información marginal o leyenda es indispensable para comprender su contenido. En cambio, una
fotografía aérea es una representación de la realidad tal como la podemos observar, razón por la
cual la información marginal tiene menor valor.
Visión estereoscópica
Según observamos en la figura, la visión tridimensional se logra creando una ilusión tridimensional a
partir de un par de fotos bidimensionales. Nuestro cerebro crea la percepción de profundidad cuando
presentamos a nuestros ojos dos imágenes diferentes del mismo objeto que disponen de perspectivas
distintas. En la práctica, para lograr la visión estéreo es necesario disponer de un dispositivo óptico
apropiado para presentar a ambos ojos cada foto por separado. Los instrumentos más conocidos para tal
fin son los estereoscopios de bolsillo o de espejos, ambos diseñados para observar pares de fotografías
en formato papel.
36
Copyright
Las cámaras aerofotogramétricas cumplen el papel de registrar y almacenar las perspectivas del terreno
sobrevolado. En una primera aproximación, podemos dividir a estos sensores en analógicos, que son
aquellos que utilizan la tradicional película fotográfica, y digitales.
En cuanto a las cámaras analógicas, si bien pueden diferir unas de otras, disponen de partes que son
comunes a todas ellas. Por ejemplo, una cámara tradicional está compuesta por:
Cámara de Film Leica RC30. Fuente: Leica Suspensión giro-estabilizada. Fuente: Leica
Geosystems . Geosystems .
Las suspensiones de las cámaras métricas modernas minimizan los efectos de los movimientos
instantáneos de la aeronave como el cabeceo, aleteo y deriva, y mantienen la cámara apuntando
perpendicularmente al terreno, lo cual da como resultado imágenes más nítidas y una cobertura foto a
foto más controlada.
Otro elemento incluido en las cámaras de última generación, que contribuye a mejorar la calidad de las
fotos aéreas, es un dispositivo para compensar el movimiento hacia delante del avión conocido como
Forward Motion Compensation (FMC), con el que se logra obtener una correcta definición en los objetos
fotografiados evitando el efecto difuminado o borroso.
En el siguiente cuadro se muestran los distintos tipos de objetivos de las cámaras métricas que tienen
diferente campo angular, que es el ángulo que forman los rayos de luz que atraviesan el objetivo y que lo
definen los extremos de la diagonal del tamaño de la imagen.
37
Copyright
Si bien la tendencia del mercado es bien marcada hacia la producción de cámaras digitales, aún existen
en uso una gran cantidad de cámaras analógicas cuyos productos de datos, como veremos, se
incorporan al proceso de producción de cartografía convirtiendo las fotos aéreas al formato digital a
través de scanners fotogramétricos.
Estéreo-Pancromático 3 líneas
Color e infrarrojo de 3 a n líneas
Sistema de barrido de un sensor lineal Una lente + un plano focal
La solución que ofrecen las cámaras matriciales asocia al concepto de proyección central cónica como
en el caso las cámaras convencionales, aunque en este caso las imágenes no se obtienen en forma
continua sino por módulos que operan simultánea y sincrónicamente, de modo que estas cámaras
combinan varios objetivos en su plano focal, generando imágenes individuales que son unificadas en
post-proceso.
38
Copyright
2.2.7.3. Comparativa
En lo más fundamental cuando comparamos cámaras analógicas con digitales encontramos diferencias
a nivel de sensor y procesador, es decir mientras que en una cámara tradicional el sensor es la propia
emulsión fotográfica, en una cámara digital el sensor está conformado por detectores fotoeléctricos o,
más genéricamente, de estado sólido. En cuando al procesador es claro que en el primer caso se utiliza
un revelado químico y en el segundo caso los datos provenientes de los sensores son procesados por
programas de computación.
Por otra parte, las cámaras digitales se vienen imponiendo frente a las de film, porque presentan una
serie de ventajas que pasamos a enumerar:
Mejor resolución radiométrica9 que garantiza una óptima sensibilidad a la luz. La gran mayoría
de las cámaras digitales ofrecen una resolución de 12 bit. Esto permite apreciar una mayor
variación en los niveles de gris y de color, lo cual hace posible diferenciar detalles en las zonas
de sombras que quedarían ocultos en las fotos analógicas. Todo ello además permite realizar
vuelos con condiciones de luz desfavorables y extender por consiguiente el período de tiempo en
que se pueden tomar las imágenes.
Mayor precisión geométrica que posibilita distinguir detalles muy pequeños en el terreno.
El control de calidad de las imágenes capturadas puede realizarse en tiempo casi real
directamente a bordo.
Registro simultáneo en un solo vuelo de imágenes en pancromático, color e infrarrojo.
Incremento del recubrimiento para estereoscopía sin costos adicionales de película fotográfica
porque los registros son completamente digitales.
Ahorro del proceso de escaneo en el flujo de trabajo para la generación de cartografía, ortofotos
o modelos digitales del terreno.
Inmediata disponibilidad de las imágenes luego del vuelo.
Mejor aptitud para realizar los procesos de correlación automática10, siendo 2 veces superior al
de un fotograma escaneado.
Conexión directa a receptores GPS/GNSS y unidades de medición inercial, para determinar la
posición de los centros perspectivos y medir los giros de la cámara (, , ).
No obstante las cámaras de film, tienen un costo inferior al de las cámaras digitales, además de pocos
componentes y mucho menos sensibles, sus costos de mantenimiento son más bajos y poseen una
geometría estándar perfectamente conocida, por lo que continuarán conviviendo un largo tiempo con los
sensores digitales.
Se trata de una técnica de levantamiento de reciente desarrollo y que comenzó a estar completamente
operativa a partir de la década del 90. LIDAR es el acrónimo de Light Detection and Ranging (Detección
de Luz y Distanciometría) y utiliza un sistema de barrido óptico con pulsos láser para capturar datos
sobre el territorio en intervalos predefinidos formando mallas regulares.
El sistema LIDAR se compone de un escáner láser, un receptor GPS/GNSS y una unidad de medición
inercial, que es un instrumento que determina información sobre la velocidad, orientación y fuerza de
gravedad a que esta sometida una aeronave. El escáner es el aparato que emite los pulsos utilizados
para determinar la distancia entre el sensor y los puntos del terreno. Lo que hace el escáner es crear una
nube de puntos, a partir de la cual se puede determinar la geometría o forma de los objetos, de la misma
forma que un levantamiento topográfico clásico.
9
Ver en la sección de Teledetección, apartado 2.3.3.
10
La correlación en fotogrametría es un procedimiento para identificar puntos homólogos en imágenes o fotos consecutivas.
39
Copyright
tecnología es dependiente de la georreferenciación directa, sin la cual el barrido láser quedaría sin
posibilidad de orientación.
Como mencionamos, el sistema LIDAR proporciona como resultado del levantamiento una densa nube
puntos 3D que describen los objetos del área explorada, pero que no son una representación explícita de
los mismos. Por lo tanto, se requiere una técnica automática o semiautomática para analizar los datos
adquiridos. A tal fin, en los últimos años se han desarrollado diferentes estrategias para diferenciar, por
ejemplo, entre un punto situado en el suelo y otro que se encuentra elevado sobre el mismo, permitiendo
la reconstrucción de edificios y otros objetos naturales o artificiales. Resulta oportuno remarcar que
LIDAR ofrece una importante ventaja frente a la fotografía aérea, ya que los relevamientos pueden
realizarse con visibilidad reducida, con cielo nublado y aún de noche.
En cuanto a la integración de los datos LIDAR dentro de aplicaciones CAD y SIG podemos decir que las
representaciones puntuales generalmente son convertidas a algún formato ráster, por lo cual los valores
de alturas son almacenados en celdas, posibilitando una visualización de los objetos reconstruidos sobre
una superficie continua.
Esta geotecnología viene siendo muy reconocida porque tiene un rendimiento altísimo en la captura de
datos (hasta 100 km 2 por hora), por su nivel de automatización y porque permite una detallada
reconstrucción tridimensional del mundo real. LIDAR ofrece una alta precisión (50 cm. en planimetría y
2
10 cm. en altimetría) y nivel de detalle (hasta millones de puntos por km ). Como resultado LIDAR se ha
ganado un amplio reconocimiento como una fuente importante en la reconstrucción de superficies. Sus
muchas aplicaciones incluyen la creación de modelos digitales del terreno y otros modelos 3D de
ciudades con fines de planificación (Lemmens, M., 2011).
Es el primer paso de todo proyecto fotogramétrico y como tal, es esencial que la realización del vuelo se
ajuste a unas especificaciones plasmadas previamente. En concreto el proyecto de vuelo es un conjunto
de cálculos y estimaciones a través de las cuales se organizan las cuestiones operativas para alcanzar el
40
Copyright
objetivo del levantamiento. Aunque parezca una verdad evidente, del resultado del vuelo dependen el
resto de las actividades del proceso fotogramétrico, por lo que en este hecho es dónde reside su decisiva
importancia.
Básicamente, la planificación debe garantizar la cobertura fotográfica con el mínimo de recursos ya sea
en fotos como en tiempo de vuelo, y de manera que toda el área de interés quede cubierta
estereoscópicamente. Esto implica que toda la superficie a relevar disponga de zonas de superposición
en todas las fotografías adyacentes de un mismo recorrido, y que a su vez cada recorrido paralelo se
superponga entre sí. Por lo general, las corridas son orientadas en dirección al lado más largo de la
superficie a fotografiar. Esto dicho suponiendo que la figura es un rectángulo o que se aproxima bastante
a su forma.
Vuelo fotogramétrico.
Los aspectos geométricos de una planificación pasan por conocer una serie de parámetros, entre los
cuales podemos mencionar a:
La escala o el tamaño del píxel en el terreno (GSD = ground sample distance) según
corresponda.
El tamaño y la forma de la superficie a relevar.
La altura promedio sobre el nivel del mar del área a fotografiar.
La superposición longitudinal y transversal deseada.
La velocidad del avión a ser utilizado.
Apoyándose en las referidas variables, el planificador prepara los cálculos y el mapa del vuelo que
indique a la tripulación lo siguiente:
41
Copyright
1. Para una película fotográfica la escala es el parámetro principal. La distancia focal de la cámara
(f) afecta la altitud del vuelo (H), dónde:
Escala = f / H
Considerando un factor de ampliación para el medio analógico igual a 5, para restituir a una
escala típica para el catastro urbano de 1:1.000, nuestro vuelo puede hacerse a escala 1:5.000,
y tomando para el cálculo una cámara área estándar con focal = 152 mm., tenemos que:
2. Para una imagen digital el tamaño del píxel del sensor (PS) es fijo, de manera que el GSD
especificado es obtenible variando solamente la altura del vuelo. La escala aquí se calcula:
Escala = PS / GSD
Desde que la escala = f/H f/H = PS / GSD, entonces la altura de vuelo se obtiene:
H = GSD f / PS
Por ejemplo, tomando la cámara aérea digital Ultracam Xp modelo UCXp, con focal = 100 mm y
PS = 6 micrones, alcanzar un tamaño de píxel en el terreno de 10 cm. implica volar a una altura
promedio de 1667 metros. El cálculo es simple:
Si quisiéramos relacionar la escala con el GSD, considerando una conversión a formato digital con un
escáner fotogramétrico de la película tomada con una cámara aérea tradicional a unas resoluciones
típicas, tenemos:
Los datos de la tabla fueron obtenidos con el programa GSD Calculator v. 4.14 (Aerial Survey Base,
2012). La conclusión que podemos sacar es que el aumento en la resolución del escaneo implica una
reducción en la escala o, dicho con otras palabras, nos permite estirar el factor de ampliación de 5 a 8
veces lo que tiene un impacto directo en la reducción de los costos de un vuelo. El GSD elegido
responde a que es la unidad de muestreo estándar para representar detalles a escala 1:1.000
empleando estaciones fotogramétricas digitales.
Como una manera de comparar el ambiente analógico con el digital en fotogrametría, en la siguiente
tabla relacionamos el concepto de escala con el tamaño de píxel en el terreno GSD.
La relación entre la escala de vuelo y la cartografía puede variar entre un factor máximo de 6 y un
mínimo de 4, siempre que la línea de producción se realice sobre la base de fotos en soporte material
(film o copias positivas). La exactitud del producto final es calculada independientemente de si los
procesos son analógicos-analíticos, híbridos o completamente digitales, y se corresponden con valores
estándar típicos que definen la exactitud horizontal como el error medio cuadrático en términos de
coordenadas planas o proyectadas (ASPRS, 1990)), sólo para puntos de control que representen
42
Copyright
Esta actividad se realiza con la finalidad de relacionar el espacio-objeto con el espacio-imagen a través
de puntos de control medidos directamente en el terreno. Este relacionamiento es necesario para ajustar
la escala de los modelos estereoscópicos que conforman un vuelo, efectuar su nivelación, y disponer de
un control externo para hacer una revisión de la calidad en el proceso de aerotriangulación que veremos
en el siguiente apartado.
Las coordenadas de los puntos de control deben determinarse sobre objetos que sean perfectamente
identificables en las fotos y pueden determinarse con anterioridad o con posterioridad al vuelo. La
primera opción es utilizada en los casos en que el área a relevar no disponga de una cantidad de
detalles suficientes como para tener una distribución homogénea del control sobre el bloque completo de
fotogramas, y para lo cual es necesario pre-señalizarlos. En tanto que la segunda variante es la
normalmente empleada cuando los levantamientos se realizan sobre áreas urbanizadas que ofrecen una
cantidad abundante de detalles.
En cuanto a la distribución espacial del apoyo terrestre, como regla general es recomendable una
distribución homogénea sobre todo el bloque y bien cubierto su perímetro, con dos puntos de control
cada 3, 4, 5 o 6 modelos estereoscópicos dependiendo dicho espaciamiento de la escala de vuelo. El
apoyo se ubica perpendicularmente a las pasadas o recorridos en los extremos de los fotogramas y
sobre la zona de superposición transversal para enlazar adecuadamente una línea de vuelo con otra.
Corresponde aquí hacer la siguiente salvedad, como los sistemas digitales disponen de instrumentos
para determinar la orientación absoluta de la imagen combinando -como hemos mencionado-, receptores
GNSS y unidades de medición inercial, podría prácticamente eliminarse la necesidad de disponer de
apoyo terrestre porque dispondríamos de una georreferenciación directa del vuelo. No obstante, a los
efectos de calibrar este sistema, usualmente se determinan sólo 4 puntos de apoyo, 2 al inicio y 2 al final
por cada recorrido o línea de vuelo.
2.2.8.3. Aerotriangulación
La aerotriangulación es el proceso realizado para propagar las coordenadas de los puntos de apoyo
medidos en la fase anterior a cada modelo estereoscópico. Digamos entonces que esta tarea tiene como
finalidad reducir el trabajo de campo densificando las posiciones de puntos de control mediante
operaciones fotogramétricas.
Para trabajar con los modelos hay que realizar las siguientes operaciones:
43
Copyright
Orientación interna, que implica orientar cada fotografía con respecto a la geometría de la
cámara, para reconstruir la forma que tenía el haz de rayos en el instante de la toma. Hay que
tener en cuenta que en el caso de las cámaras digitales, las imágenes se encuentran orientadas
interiormente, es decir que la posición de cada píxel en el plano focal (dónde antes estaba el
negativo y ahora los sensores CCD) es conocida y estable con relación al sistema óptico que dio
origen a la imagen (Cheli, A., 2012).
Orientación relativa, dónde se orientan dos fotogramas entre sí para formar un modelo
estereoscópico, colocando los haces perspectivos relativamente de la misma forma en que se
tomaron las fotografías. El método seguido es imponer la intersección simultánea de 5 pares de
rayos homólogos, aunque habitualmente se utilizan 6, conocidos como puntos de Von Grüber.
En esta fase se obtiene un modelo relativamente correcto pero con coordenadas del modelo.
Orientación absoluta o externa, en el cual se transforman las coordenadas del modelo al marco
de referencia geodésico respecto del cual se conocen las posiciones de los puntos de control. El
ajuste se efectúa utilizando 7 parámetros: tres traslaciones (x 0, y0, z011), tres rotaciones (fi,
omega y kappa) y un factor de escala k.
Para la orientación simultánea del mismo se requiere las coordenadas del modelo de los puntos de
fotocontrol establecidos en la aerotriangulación; las coordenadas del modelo y del terreno de los puntos
11
Si bien en la notación fotogramétrica se utiliza z, en realidad esta variable representa la altura sobre el nivel medio del mar H.
44
Copyright
de control; y las posiciones del los centros de proyección o fotocentros proporcionados por receptores
GNSS. Las exactitudes que demandan estas operaciones por lo general deben satisfacer valores que
ascienden a la mitad o un tercio respecto a la requerida para el o los productos finales.
2.2.8.4. Restitución
En esta etapa también llamada estéreo compilación, se está en condiciones de proceder a la extracción
en 2D y 3D de los objetos situados en el terreno para la elaboración de la cartografía. Es importante
considerar que en la restitución se trabaja por pares estereoscópicos utilizando los parámetros de
orientación externa obtenidos en la etapa precedente. Luego, el operador a través de la visualización de
la imagen del terreno en 3D, realiza la captura de los datos colocando una marca flotante sobre los
objetos de interés registrando sus coordenadas. Los elementos lineales o polígonos pueden digitalizarse
punto a punto o trazarse y registrarse en forma continua.
Aunque parezca una verdad evidente, en la restitución hay que tener en cuenta que se requiere disponer
de un modelo de datos previamente elaborado, a los efectos de codificar y estructurar todos los datos
espaciales a relevar de conformidad al mismo.
En la tarea de revisión visual de las capas de información restituidas se debe prestar mucha atención a
que los objetos capturados como polígonos estén cerrados y conectados entre sí evitando
superposiciones. Además, como el trabajo de compilación se hace modelo a modelo se debe garantizar
una cobertura completa y consistente a través de cada uno de ellos, evitando dejar huecos o
discontinuidades en el registro de datos.
Es importante remarcar que la restitución debe ser complementada con una revisión de campo, tarea
que es fundamental para resolver errores y omisiones originadas por el ocultamiento de objetos por
vegetación, sombras densas, presencia de áreas con pobre contraste; y además para solucionar
cuestiones relacionadas con la interpretación de objetos y agregado de datos no visibles en los
fotogramas. Asimismo hay que considerar que el agregado a la cadena de producción cartográfica de
procedimientos digitales para la revisión, permite la eliminación de los errores de transcripción que
pueden tener lugar entre la minuta completada manualmente en el campo y los operadores de la
restitución, asimismo todas las incongruencias que se detecten pueden ser resueltas directamente en
campaña.
Se llega así al proceso de edición, durante el cual se agrega la toponimia, simbología y se genera la
topología de las distintas capas que conforman el modelo de datos. Finalmente, antes de la carga final a
la base de datos de un SIT, es usual hacer una revisión general del producto, a efectos de verificar que
los conjuntos de datos cumplan con las especificaciones establecidas.
2.2.8.5. Ortofoto
45
Copyright
Como indicamos en el apartado 2.2.4., las fotografías aéreas tienen una serie de limitaciones que no
permiten utilizarlas cartográficamente, en razón que se encuentran afectadas por las deformaciones
originadas por el relieve del terreno y la inclinación del eje de la cámara en el instante de la toma. En una
ortofoto dichas deformaciones son removidas, por lo que se trata de un producto que combina la clásica
riqueza informativa de una foto con la rigurosidad métrica de un mapa.
Podemos decir que una buena definición técnica para el término sería que es una imagen que muestra
los objetos sobre una superficie de referencia utilizando una perspectiva ortogonal, o en un lenguaje más
llano, que una otrofoto presenta los detalles naturales o artificiales de una foto aérea en perfecta posición
planimétrica de conformidad a una proyección empleada para su representación.
Para elaborar ortofotos es necesario seguir el mismo procedimiento previo que para una restitución, es
decir, disponer de los parámetros de orientación relativa y absoluta de las fotos, aunque es necesario
agregar a este proceso un modelo digital del terreno (MDT), que es una representación numérica de las
características topográficas del mismo. Esto puede verse como un conjunto de alturas (generalmente
referidas al nivel medio del mar) que son función de posiciones horizontales, es decir: H = f (X,Y), dónde
para cada punto con coordenadas planimétricas disponemos de un valor de cota o altura.
Los datos altimétricos pueden estar presentados como curvas de nivel, puntos acotados, líneas
estructurales (cambios de pendiente, divisoria de aguas, vaguadas, etc.), perfiles del terreno, o bien
como una combinación entre estas posibilidades. A partir de estos datos, se estructura el MDT como una
malla regular o variable, red de triángulos irregulares (TIN) o el formato híbrido que, en general, es el
más eficiente en cuanto a tamaño y adaptabilidad a las diferentes formas del terreno, el cual combina
puntos irregularmente distribuidos -aunque representativos de las formas del terreno- a lo que se
agregan las líneas estructurales o de ruptura. Además de los datos representados en estructura vectorial
como los mencionados, son muy utilizados los MDT generados por conversión a estructura raster dónde
para cada celda o píxel está disponible un valor de altura.
El principio utilizado para crear otrofotos es disponer entonces de alturas de posiciones planimétricas
arregladas en un MDT, ya que el conocimiento de las elevaciones son las que ayudarán a localizar
correctamente los datos de imagen en su correcta posición horizontal, como podemos ver en la siguiente
figura:
Por todo lo expuesto, debemos observar que la falta de disponibilidad de MDT con la exactitud necesaria
para aplicaciones en áreas urbanas en general y catastrales en particular, constituye una fuerte
limitación para el desarrollo de este producto y su consecuente integración dentro de aplicaciones
SIG/SIT. De todas maneras, si se hace un esfuerzo adicional durante el proceso de restitución para
capturar coordenadas tridimensionales sobre el área de levantamiento con la densidad suficiente para
crear un MDT, podremos disponer de él –con las revisiones que puedan tener lugar por cambios en la
morfología del terreno- en cada ciclo de actualización.
Las ortofotos suelen ser utilizadas de diversos modos, por ejemplo, para dar contexto a la visualización
de capas vectoriales, para detección de cambios y actualización cartográfica –como veremos en el
46
Copyright
siguiente apartado- o como apoyo visual para trabajos de campo en la determinación de límites de
parcelas o predios (levantamiento o barrido catastral), usos del suelo, etc.
A todo esto hay que agregar que la producción de ortofotos es, hoy por hoy, la tarea fotogramétrica más
extendida, dado que la fotogrametría digital ha simplificado enormemente los procesos destinados a su
creación. Prueba de ello, son los numerosos proyectos catastrales y programas cartográficos nacionales,
que han hecho que este recurso se convierta en una fuente de información indispensable y fundamental.
Sobre la base de las tecnologías robóticas desarrolladas en los últimos años, se vienen produciendo una
diversidad de nuevas plataformas no tripuladas para la adquisición de datos fotogramétricos. Estas
tecnologías se las conoce en idioma inglés como UAS ó UAV photogrammetry. Precisamente, cualquiera
de estas dos siglas son las que le dan su nombre distintivo: Unmanned Aerial System ó Unmanned
Aerial Vehicle respectivamente.
Los sistemas áereos no tripulados son portátiles, de tamaño reducido, requieren de una sola persona
para operarlos, utilizan cámaras digitales para aficionados, y disponen de una estación de control para
conducirlos. Las plataformas pueden ser aviones en miniatura de alas fijas, o bien mini helicópteros de
uno o varios rotores o hélices, como puede apreciarse en la siguiente figura.
El receptor GNSS junto a los sensores de orientación a bordo, utilizados maniobrar la plataforma a
distancia y ejecutar secuencias de comandos, constituyen dos elementos esenciales dentro de los
instrumentos que disponen estos sistemas, siendo utilizados principalmente para navegar a los puntos
de toma predefinidos en la planificación del vuelo, y para contar con una orientación externa de la
cámara en el instante de cada toma.
Esto permite que los vuelos dispongan por defecto de un posicionamiento absoluto compatible o
equivalente al de las imágenes de Google Earth. Cuando es necesario integrar los levantamientos en
aplicaciones SIG con datos catastrales relacionados a marcos de referencia más específicos, ej.:
ITRF/SIRGAS, los proyectos necesitan disponer de puntos de control medidos en el terreno con GNSS
utilizando el método diferencial.
Es importante destacar que los sistemas UAV disponen de una autonomía de vuelo muy reducida,
típicamente de 30 a 40 minutos, y que por ello, pueden barrer áreas pequeñas. Considerando vuelos con
47
Copyright
superposiciones longitudinales del 75-85% y transversales del 65%, estos sistemas pueden escanear
superficies de hasta unas 200 hectáreas aproximadamente. Lógicamente que este valor puede variar
significativamente en más o en menos, según la resolución o GSD de la imagen que condicionará a su
vez la altura de vuelo.
La exactitud en la cartografía generada por los sistemas UAV comerciales ultralivianos se calcula en
términos de píxel en la imagen aérea. Por ejemplo, la exactitud horizontal del levantamiento es
equivalente a 1 píxel, en tanto que para la exactitud vertical tenemos que duplicar dicho valor, por lo que
si nuestro GSD es de 5 cm., en planimetría tendremos una exactitud de 5 cm. y en altimetría de 10 cm..
Los productos finales de los vuelos son fundamentalmente otrofotos, modelos digitales del terreno (MDT)
y de superficie (MDS). En la figura pueden apreciarse todos los pasos y tareas involucradas en la
producción de estos datos espaciales, que si bien son muy parecidos a los ya señalados en el apartado
2.2.8. y subsiguientes sobre el proceso fotogramétrico, presentan algunas particularidades que pasamos
detallar.
En la preparación del levantamiento intervienen variables como la cobertura espacial, el acceso a la zona
de trabajo, la determinación de las áreas de despegue y aterrizaje de la plataforma, las exactitudes a
alcanzar, y la definición de la cantidad y distribución de los puntos de control, su preseñalización y
medición, en caso que sean necesarios. Luego se diseña el plan de vuelo, en base al área a cubrir, al
GSD especificado y los porcentajes de superposición longitudinal y transversal. La gran mayoría de
programas que vienen incluidos dentro del suministro de estos sistemas, permiten generar
automáticamente una ruta de vuelo y la posición que corresponde a cada centro de toma de imagen.
Para el vuelo autónomo dichos datos son almacenados a bordo, y deben ser previamente verificados,
dado que la adquisición de los datos está limitada por el tiempo, no siendo posible una repetición. Para el
control de calidad del vuelo se comparan tanto la cobertura como los puntos y las trayectorias pre-
calculadas con las efectivamente adquiridas. El vuelo o parte de la trayectoria tendrá que ser repetida si
la posición de captura no se ajusta a la pre-definida o no se cumple con los porcentajes de
superposición.
En el procesamiento se realizan dos pasos, el primero es una triangulación aérea automatizada que crea
una malla densa de puntos homólogos superabundantes conectados. Luego se realiza el ajuste del
bloque completo de imágenes, que difiere de su homólogo en la fotogrametría convencional, en ser
capaz no solo de resolver, sino además de optimizar los datos de orientación o calibración externa e
interna, en base a un sistema superdimensionado. Finalmente, son generados los datos de calibración
que formarán la base de los productos finales con una alta exactitud planialtimétrica. La nube de puntos
calculados determina el MDS a partir del cual son creados los mosaicos (ortofotos) proyectando las
imágenes sobre el referido MDS.
A partir de los ortomosaicos, podemos extraer como vectores los objetos de nuestro interés digitalizando
sobre las imágenes para incorporarlos a nuestro sistema de información. En forma complementaria, cabe
mencionar que con software específico para levantamientos virtuales es posible hacer este proceso
combinando ortofoto y MDS, lo cual permite disponer de una representación del terreno en tres
dimensiones y sobre el cual podemos navegar y visualizarlo desde diferentes puntos de vista, sirviendo
48
Copyright
de apoyo para realizar mediciones sobre el modelo como si recorriéramos el terreno levantando puntos
con una estación total o receptor GNSS. Además, la representación 3D permite la detección mucho más
fácil de los elementos a levantar que la fotogrametría convencional. El resultado es una mejor y más
eficiente identificación y medición de los objetos comparándola con los levantamientos topográficos
clásicos o la fotogrametría convencional (Op´t Eyndt, T. & Volkmann, W., 2013).
Finalmente, conviene tener presente que tanto en la fotogrametría tradicional como en la fotogrametría
con sistemas UAV, la definición de los límites de las parcelas no es meramente una cuestión de
levantamiento sobre las ortofotos o cartográfica, ya que éste es un proceso que requiere la captura y el
análisis directamente en el terreno de información que debe contrastarse con la documentación existente
sobre la extensión de los derechos de propiedad, el cual requiere asimismo la participación directa de los
interesados.
Comparando la fotogrametría tradicional con los sistemas UAV, los potenciales usuarios deben tener
presente que esta tecnología es adecuada - como ya hemos mencionado-, para capturar datos en áreas
reducidas, es decir que es son aplicables para trabajos de captura inicial, mantenimiento o actualización
puntuales más que masivos. Además, las cámaras métricas analógicas o digitales montadas en aviones,
presentan mucha más estabilidad que en los sistemas UAV, siendo por ello mucho más sensibles al
desenfoque originado por el movimiento de la plataforma. En cuanto a las exactitudes, ambas
tecnologías son prácticamente rivales e incluso con los sistemas UAV es posible alcanzar exactitudes
equivalentes a las que pueden obtenerse con levantamientos topográficos clásicos o GNSS.
Uno de los problemas a que deben hacer frente los organismos que gestionan información básica y de
detalle del territorio, como es el caso de los catastros, es que los conjuntos de datos que administran
respondan a la dinámica del sector inmobiliario. Cada día se incorporan parcelas por fraccionamientos
del suelo, nuevas construcciones, infraestructuras que modifican el valor de mercado de los inmuebles,
negocios jurídicos referentes a transferencias de dominio, etc. Además la información catastral es cada
día más utilizada como referencia para desarrollar políticas públicas, de manera que su eficacia está
directamente relacionada a su actualidad o adecuación a la realidad.
El primero de ellos es la aplicación del principio de superposición de las capas de información restituidas
con las fotografías de un vuelo reciente, lo cual permite determinar por diferencia los datos que ya
tenemos disponibles en nuestra base de datos con los que hay que actualizar y/o modificar por las
variaciones surgidas entre las distintas fechas de vuelo. El trabajo fundamental aquí es entonces la
detección por interpretación sobre los pares estereoscópicos añadiendo y editando todos los datos
gráficos faltantes.
La otra alternativa es actualizar a partir del vuelo fotogramétrico reciente pero generando ortofotos. Si
superponemos los datos vectoriales con éstas, se realiza un trabajo de restitución “monoscópica”
digitalizando sobre las imágenes los nuevos objetos que surgen de la diferencia entre ambas fuentes.
Las ventajas que tiene este método son: que no es necesario realizarlo con software especializado de
fotogrametría, sino que puede hacerse desde cualquier aplicación SIG; y que puede cubrirse toda el área
de levantamiento con un mosaico, lo cual se traduce en una mayor eficacia en la línea de producción
dado que no se trabaja por modelo estereoscópico como en el caso de la restitución. Respecto a las
desventajas de esta variante, es que se pierde la posibilidad de utilizar la visión estereoscópica que es
muy importante para una correcta interpretación de detalles y para la restitución.
Por otra parte, los sistemas UAV al presentar una muy baja dependencia de la economía de escala,
posibilitarán la realización de vuelos cada vez que los necesitemos, de modo que será más fácil seguir
los desarrollos urbanos que cambian día a día el paisaje de una ciudad, y es aquí dónde pueden hacer
49
Copyright
su decisivo aporte por las nuevas oportunidades que ofrecen en materia de innovación para la
actualización cartográfica.
American Society for Photogrammetry and Remote Sensing (ASPRS) (1990). Accuracy Standards for Large-
Scale Maps.
Cheli, Antonio (2012). Introducción a la Fotogrametría y su evolución. Primera edición. Ediciones Hespérides.
Lemmens, Mathias (2011). Geoinformation. Technologies, Applications and the Environment. Ed. Springer.
Lilesand,Thomas & Kiefer, Ralph (1994). Remote Sensing and Image Interpretation. Third edition. John Wiley
& Sons, Inc.
Manyoky M., Thelier P., Steudler D. & Eisenbeiss H. (2011). Unmanned Aerial Vehicles in Cadastral
Applications. UAV-g 2011, Conference on Unmanned Aerial Vehicle in Geomatics, Zurich,
Switzerland, http://www.geometh.ethz.ch/uav_g/proceedings/manyoky
Op´t Eyndt, Tom & Volkmann, Walter (2013). UAS as a Tool for Surveyors. En revista GIM International
Vol.27 – Abril de 2013, págs. 20 a 25.
UNESCO, RAPCA, ITC (2003). Módulo de capacitación Aplicación de Sistemas de Información Geográfica y
Sensores Remotos para el Análisis de Amenazas, Vulnerabilidad y Riesgo. Correcciones Geométricas,
http://www.itc.nl/external/unesco-
rapca/Presentaciones%20Powerpoint/02%20Introduccion%20Sensores%20Remotos/Correcciones%20Ge
ometricas.pdf
50
Copyright
2.3. Teledetección
2.3.1. Introducción
Aunque no lo parezca, la teledetección forma parte de nuestra vida cotidiana, por ejemplo, cuando
leemos el diario, cuando miramos a un profesor durante un curso, cuando vemos televisión, etc.,
nuestros ojos registran la luz solar reflejada por los objetos y nuestros cerebros interpretan los colores,
los tonos de grises y las variaciones de intensidad, que traducimos en información útil. Sin embargo, el
ojo humano está limitado a visualizar una pequeña parte del espectro electromagnético total, que
conocemos como luz visible. No obstante, la teledetección dispone de varios tipos de herramientas y
sensores que se utilizan para que los humanos podamos visualizar la radiación electromagnética que no
es visible al ojo humano, muy especialmente, toda la gama de los infrarrojos y las microondas. Todo esto
es útil para obtener información sobre los procesos ambientales como los cambios en la cobertura del
suelo, la dinámica de la vegetación y del agua, el crecimiento de las áreas urbanizadas, etc.
Encontraran en la presente sección muchos puntos de contacto con la anterior, ya que como dijimos al
principio, la fotogrametría puede considerarse parte de la teledetección siendo los límites entre ambas
especialidades cada vez más borrosos. Por ejemplo, todos los desarrollos en cuanto al procesamiento
digital de imágenes que provienen de la teledetección, han sido adaptados a los métodos
fotogramétricos actuales a partir de los desarrollos de sensores aéreos digitales. Por otro lado, los
sensores orbitales tienen la capacidad de generar imágenes estereoscópicas, por lo que las imágenes
satelitales pueden ser tratadas bajo procesos que han tenido origen en la fotogrametría. Tal vez la única
diferenciación que podamos hacer resida en la resolución, escala o detalle y en la explotación de los
productos finales, que para el caso de la fotogrametría está más orientada a la obtención de cartografía
básica y topográfica, en tanto que en la teledetección el foco está puesto principalmente en aplicaciones
orientadas al medio ambiente y a la producción de cartografía temática.
Un sistema de teledetección está formado por varios procesos interrelacionados, de manera que un
enfoque aislado sobre algunos de ellos puede generar una visión fragmentada. Asimismo, esta visión
sistémica es beneficiosa porque sirve para identificar cuales son los conocimientos requeridos para la
práctica de esta especialidad. A continuación, indicamos cuales son los procesos básicos:
51
Copyright
Sobre la base de estos siete elementos, es que desarrollaremos los temas comprendidos en esta
sección.
La interpretación de las imágenes depende de la comprensión de este tema y de su interacción con los
objetos de la superficie terrestre y la atmósfera. La forma más familiar de la radiación electromagnética
es la luz visible, la cual es sólo una pequeña porción del espectro electromagnético. Gran parte de éste
cae fuera del rango de la visión humana aunque, como veremos, es especialmente importante por el
aprovechamiento que se hace de la radiación que no es detectable por el ser humano en teledetección.
La energía electromagnética podemos caracterizarla por varias propiedades, por ejemplo, por la longitud
de onda, que es la distancia en metros entre las crestas de las ondas; por la frecuencia, que es medida
en hertz, y es el número de crestas que pasan por un punto fijo en un determinado período de tiempo; y
por la amplitud que es la distancia máxima entre el punto más alejado de una onda (su cresta) y el punto
de equilibrio o medio.
c=f
52
Copyright
Podemos especificar a la energía electromagnética tanto por su frecuencia como por su longitud de
onda. Es usual en el campo de la teledetección definir las regiones del espectro electromagnético sobre
la base de la longitud de onda, siendo la unidad de medida más utilizada el micrómetro, que equivale a la
millonésima parte de un metro y simbolizada como m.
Como puede observarse en la figura, el espectro visible constituye una parte muy pequeña del especto y
sus límites están definidos por la sensibilidad del sistema visual humano. Las propiedades ópticas de la
radiación visible hacen que ésta pueda dividirse en tres segmentos conocidos como colores primarios
aditivos: de 0.4 a 0.5 m (azul), de 0.5 a 0.6 m (verde), y de 0.6 a 0.7 m (rojo), a su vez esta
combinación de colores producen el color blanco de la luz. El color de un objeto viene definido por el
color de la luz que refleja, de manera que un objeto azul es tal porque refleja la luz azul. Los colores
intermedios se forman cuando un objeto refleja dos o más colores primarios aditivos como se indica en la
siguiente figura.
Las longitudes de onda que van más allá de la porción roja del espectro visible, es designada como
región infrarroja y se extiende desde los 0.72 a 15 m. En razón de la amplitud de longitudes de onda
que abarca, se divide en las siguientes sub-regiones: infrarrojo cercano y el infrarrojo medio, que son
aquellas porciones del espectro infrarrojo más cercanas a la visible. La radiación en la región del
infrarrojo cercano se comporta de manera análoga a la radiación en el espectro visible, por tal motivo
pueden emplearse películas, filtros y cámaras con diseños similares para su uso con la luz visible. La
segunda categoría de radiación infrarroja corresponde al infrarrojo lejano, porción ubicada en proximidad
de las microondas. Esta radiación es diferente, ya que en lugar de ser radiación solar reflejada, se trata
de radiación emitida por la superficie terrestre, por lo que se la denomina energía térmica.
53
Copyright
Una cuestión fundamental en teledetección es que podemos adquirir conocimiento de los objetos a
través del estudio de la radiación reflejada o emitida por los mismos. Los diferentes tipos de superficies,
como el agua, la tierra desnuda o la vegetación reflejan la radiación en forma distinta en distintas
porciones o bandas del espectro. La radiación reflejada en función de la longitud de onda se la llama
firma espectral.
En la siguiente figura se muestra la respuesta espectral para el agua, vegetación y suelo. Estas curvas
muestran la relación entre el brillo o reflectividad y la longitud de onda.
Como puede observarse el agua tiene una reflectividad bastante baja en todo el espectro visible y
alcanza el valor cero en el infrarrojo cercano, por lo que los cuerpos de agua en dicha banda pueden ser
claramente identificados del resto de los elementos por su color negro. En cuanto a la vegetación tiene
también una reflectividad baja con un pequeño pico en el verde y va aumentando significativamente en el
rojo hasta alcanzar su valor máximo en el infrarrojo cercano. Finalmente, el suelo posee una reflectividad
relativamente baja aunque mas elevada que en los casos anteriores, alcanzando sus valores máximos
en la zona del infrarrojo medio, no obstante hay que tener en cuenta que los niveles de reflectividad
dependen de la composición química y mineral del suelo, como de su contenido de humedad.
Dado que los satélites de observación de recursos terrestres que son objeto de nuestro interés, están
equipados con sensores que dependen de la iluminación solar, sus orbitas están diseñadas para estar
sincronizadas con la parte iluminada de la tierra, descendiendo sobre el lado con luz y ascendiendo
sobre el lado oscuro, y afectando pasos repetidos sobre un área determinada a la misma hora del día.
Esto es importante para poder comparar imágenes registradas durante largos períodos de tiempo, para
lo cual es necesario que las condiciones de iluminación sean idénticas para cada zona. La captura de las
imágenes debe realizarse a la misma hora local para que la altitud del sol sobre el horizonte sea la
misma, y además el plano orbital debe mantenerse a un ángulo constante a la luz solar, todo lo cual
puede cumplirse si los satélites se colocan en una órbita cuasi polar. Dicho ángulo de inclinación orbital
es aquel que forma el paso del satélite respecto del Ecuador cuando el satélite desciende en la dirección
Norte-Sur.
Cuando el satélite se desplaza en su órbita, su sistema sensor observa una tira cuya longitud es
equivalente al campo visual del mismo, y será la que determinará su cobertura en sentido transversal al
camino que recorre. El ancho de la franja de barrido o los límites del campo visual son variables y
54
Copyright
dependen de cada sistema pero, en general, oscila entre algo más que unos 10 km. para los sensores
de alta resolución, hasta alrededor de los 200 km. para los sensores de resolución media.
El movimiento de los satélites en sus órbitas es a una velocidad y altura constantes, no pudiendo ser
trasladados a una zona determinada en el momento que se desea, por lo que cuando se solicitan
imágenes hay que esperar el paso de los satélites sobre el área de interés. No obstante, en la ruta fija de
los satélites se introduce cierta flexibilidad, porque los sensores disponen de capacidades para modificar
la geometría de visión o de toma de imágenes. Dichas modificaciones permiten hacer apuntes hacia
delante o hacia atrás del paso (track) del satélite, o bien dirigir el foco hacia áreas de cobertura
adyacentes. En la siguiente figura mostramos un ejemplo ilustrativo de esta característica de los
sistemas de captura de imágenes desde el espacio.
Esta capacidad de visión extra nadiral de los sensores permite satisfacer tres tipos de necesidades
diferentes, la primera es la captura de pares estereoscópicos para la elaboración de ortoimágenes y
aplicaciones 3D siguiendo los mismos conceptos empleados en fotogrametría; la segunda es su
aplicación en emergencias para monitorear situaciones muy cambiantes en períodos muy cortos de
tiempo, como en el caso de los desastres naturales; y la tercera es incrementar la frecuencia de
repetitividad de captura, más allá del ciclo de pasos sucesivos o ciclo de revisita fijo de que dispone cada
sistema de teledetección.
Se utiliza para designar al objeto más pequeño que puede distinguirse en una imagen y señala lo bien
que un sensor puede registrar detalles espaciales. Normalmente la resolución espacial se indica por el
tamaño de píxel, que es un elemento pictórico de forma cuadrada proyectado en el terreno que es
función para los sensores ópticos-electrónicos, de la altura orbital, la distancia focal, el tamaño de los
detectores y, fundamentalmente, del campo de vista instantáneo. Éste es el cono de visibilidad angular
del sensor y determina la porción de superficie terrestre que puede “ver” desde una determinada altura.
55
Copyright
A modo de ejemplo, mostramos en la siguiente figura la interacción entre la resolución espacial y lo que
ésta nos permite observar sobre el terreno, tomando como parámetro distintos tamaños de píxel sobre
una porción de superficie igual para cada una de las muestras de 330 metros (Norte) x 240 metros
(Este). Obsérvese que en las imágenes inferiores, a través de un sensible aumento en la resolución,
podemos ver la cobertura vegetal y varias construcciones.
Tamaño de píxel y efectos sobre los elementos del terreno que pueden visualizarse.
Por otra parte, cuando mayor es el tamaño del píxel, mayor es la probabilidad que este compuesto de
varias coberturas contiguas y, en consecuencia, estos píxeles mezclados lo que hacen es agregar
imprecisión o confusión para poder discriminar o separar cada una de ellas.
Describe la capacidad de un sensor para definir intervalos estrechos de longitud de onda. Cuando más
fina es la resolución espectral, más estrecho es el rango de longitud de onda de un canal o banda. Por
ejemplo, las películas en blanco y negro registran longitudes de onda que se extienden por casi toda la
porción visible del espectro electromagnético. Su resolución espectral es por lo tanto reducida o baja, en
razón de que no pueden individualizarse las porciones de longitudes de onda que integran el espectro
visible. En cambio, en el caso de una película color a pesar de ser sensible igualmente a la energía
reflejada en la porción visible, registra por separado a la energía reflejada en las longitudes de onda
correspondientes al azul, verde y rojo. Entonces la resolución espectral es alta porque pueden
representarse objetos de varios colores basados en la reflectancia en cada uno de esos rangos
diferentes de longitud de onda.
Resolución espectral
Los sistemas sensores mutiespectrales registran energía sobre varios rangos de longitudes de onda a
distintas resoluciones. Generalmente dichos instrumentos trabajan sobre diferentes porciones del
espectro electromagnético como la visible, el infrarrojo cercano y el infrarrojo medio. Este tipo de
56
Copyright
resolución está enfocada a los aspectos de interpretación más que a los métricos, ya que los objetos son
registrados en diversas bandas, hecho que contribuye a una mejor discriminación de los mismos en base a la
respuesta espectral que tienen en cada una de ellas.
Resolución radiométrica
Cabe señalar que las imágenes obtenidas por los sensores de alta resolución ofrecen una resolución de 11 bit,
lo que proporciona más información para discernir sutiles diferencias entre los objetos y extraer información de
las sombras, ya que cada píxel está representado por 2.048 niveles de gris (GeoEye, 2009).
57
Copyright
Las imágenes provenientes del satélite GeoEye muestran una zona de la ciudad de Sendai, Japón, el 10
de abril de 2010 a la izquierda, y el 12 de marzo de 2011 a la derecha, después que un terremoto de 9
grados de magnitud causó un tsunami que devastó esa región del país. Obsérvese la desaparición de la
estructura parcelaria y la destrucción de prácticamente la totalidad de las construcciones.
Existe un equilibrio entre la resolución espacial, espectral y radiométrica que debe ser tenido en cuenta
en el momento de diseñar un sensor. Sucede que para obtener una alta resolución espacial, el sensor
debe tener un campo de visión instantáneo pequeño, lo cual no hace más que reducir la cantidad de
energía que puede ser detectada sobre el área mínima de captura proyectada sobre el terreno que
conduce a una resolución radiométrica reducida. De manera que para aumentarla, sin sacrificar la
resolución espacial, tendríamos que ampliar la gama de longitudes de onda para cada canal o banda
espectral, lo cual reduce la resolución espectral del sensor. Por lo expuesto, estos tres tipos de
resolución deben estar equilibrados en función de las necesidades y los objetivos del sensor.
La energía electromagnética puede detectarse a través de una fotografía análoga o digital. El proceso
fotográfico emplea reacciones químicas en la superficie de la película sensible a la luz para detectar y
registrar las variaciones de energía. Es importante hacer una distinción entre los términos imagen y
fotografía en teledetección. Una imagen se refiere a cualquier representación pictórica,
independientemente de qué longitudes de onda o dispositivo de detección a distancia que se haya
utilizado para detectar y registrar la energía electromagnética. Una fotografía se refiere específicamente
a las imágenes que han sido detectadas y registradas en una película fotográfica. Sobre la base de estas
definiciones, podemos decir que todas las fotografías son imágenes, pero no todas las imágenes son
fotografías. Por lo tanto, a menos que estemos hablando específicamente de una imagen grabada
fotográficamente, corresponde utilizar el término imagen.
En una imagen satelital los datos son registrados en una matriz regular formada por filas y columnas. El
elemento individual de la imagen se denomina píxel, y para cada uno de éstos se registran mediciones
como valores numéricos que señalan el valor de brillo o nivel de gris registrado sobre cada unidad de
muestreo en el terreno. Pero hay más, cada rango de longitud de onda es registrado separadamente en
una banda o canal, de manera tal que la imagen completa queda formada por varias bandas que
comparten la misma área física de cobertura y escala.
La ventaja más evidente del formato digital reside en que los valores digitales pueden ser objeto de
manipulación matemática y estadística que no es posible para el formato analógico, lo cual incrementa la
capacidad de mejorar la interpretación, la visualización, la manipulación y el análisis de los datos de
imagen a través de software de procesamiento específico.
Es usual que las imágenes de satélite capturen datos en modo pancromático, término cuyo significado es
a través de los colores, y que como ya hemos dicho, es una representación pictórica que indica que todo
58
Copyright
el espectro visible es representado en un solo canal, sin distinción alguna entre los tres colores
primarios. Una escena pancromática nos provee entonces una imagen en blanco y negro.
Pero, al disponer de datos en varias bandas del espectro podemos combinarlas para crear imágenes en
color. A tal fin, hay que tener en cuenta que una limitación clave para la visualización de cualquier
imagen multiespectral es que nuestra visión solo puede detectar diferencias en la luminosidad para los
tres colores primarios, de manera que para poder visualizar una imagen conformada por varias bandas
solo podemos utilizar tres bandas por vez asignando a cada una de ellas el azul, verde y rojo. Por
ejemplo, para disponer de una imagen en color verdadero o color real compuesta tendremos que asignar
el mismo color a la correspondiente banda del espectro visible, esto es el azul al azul, el verde al verde y
el rojo al rojo; en cambio si asignamos el azul al verde, el verde al rojo y el infrarrojo cercano al rojo
tendremos una imagen en falso color compuesta que resultará en un producto similar a una fotografía
infrarroja color. Otra combinación de bandas muy usual resulta de desplegar la banda verde en azul, la
banda del infrarrojo cercano en verde, y la banda infrarrojo medio en rojo. Los resultados de estas tres
combinaciones se muestran a continuación:
Las combinaciones de bandas son útiles para revelar determinadas características de la superficie
terrestre. Para el caso de una imagen a color real el uso es multipropósito, porque lo que obtenemos
como resultado es lo más parecido a lo que percibimos con nuestra visión. En cambio las restantes
combinaciones que hacen uso del infrarrojo cercano y del medio son muy útiles para el estudio de la
cobertura y uso del suelo en general, y de la vegetación en particular.
Existen en la actualidad una gran diversidad de sensores orbitales que capturan información sobre la
superficie terrestre, una lista exhaustiva y detallada de los mismos puede encontrarse en (ITC, 2012).
No obstante, teniendo en consideración el contexto de aplicación, es que nos vamos a remitir
59
Copyright
exclusivamente a los sistemas de teledetección que proveen coberturas territoriales de detalle, tomando
como parámetro aquellos que nos proveen datos de imagen a una resolución espacial inferior a los 2,5
metros.
Desde la década del 70 y 80, se han establecido sistemas tales como el Landsat y SPOT que, junto a
otros, han contribuido a abrir el camino y consolidar el concepto de observación terrestre continua,
aunque han revelado limitaciones para proveer datos a una comunidad de usuarios cada vez más
amplia, exigente y diversa que comenzó a demandar imágenes con resoluciones más finas para
aplicaciones relacionadas con el sector inmobiliario, el análisis y la planificación de la infraestructura, el
monitoreo y la detección de cambios en los núcleos urbanos, el apoyo al sector de la construcción, la
respuesta a desastres naturales, etc.
Recién en la década del 90, particularmente luego de que el gobierno de los Estados Unidos en 1994
redujo las restricciones respecto a las aplicaciones comerciales de las imágenes satelitales de alta
resolución, es que fue posible el desarrollo de sistemas de teledetección que dieran respuesta a las
mencionadas demandas. Estos cambios en la política unido a los avances tecnológicos, dio lugar a un
desarrollo casi explosivo de sistemas sensores diseñados para proveer imágenes de alta resolución,
diferenciándolos de aquellos que mencionamos al principio, y que podemos caracterizarlos tanto por la
información espacial de detalle, como por la alta resolución radiométrica y los campos de vista reducidos
o estrechos, y por ello más enfocados a la toma de datos espaciales sobre áreas más específicas o
reducidas. Esta estrategia de captura ha sido diseñada especialmente para responder a las necesidades
del mercado más que para construir una cobertura sistemática y completa de la superficie terrestre,
como en el caso de los sistemas Landsat y SPOT.
Los sensores de alta resolución tienen en común que capturan datos en las regiones óptica e infrarrojo
cercano del espectro, y tienen la capacidad de proveer imágenes pancromáticas con detalle espacial
más fino que el resto de las bandas, datos de imagen a 11 bit de resolución, y capturar imágenes
estereoscópicas con diferentes geometrías de visión. La disponibilidad de imágenes de resolución sub-
métrica ha creado alternativas viables frente a los levantamientos fotogramétricos para determinadas
escalas y contextos de uso, además de encontrar importantes nichos en aplicaciones fundamentalmente
urbanas.
A continuación, describiremos someramente los sistemas sensores de alta resolución, y para cualquier
información complementaria o más pormenorizada que la que aquí se presenta, podrán consultarse los
sitios web de cada empresa:
En forma adicional a lo presentado en la tabla existen una serie de satélites que ofrecen un nivel de
resolución espacial que pueden prestar una adecuada utilidad, aunque algo más limitada por el nivel de
detalle que ofrecen, en aplicaciones tales como gestión y desarrollo de áreas urbanas y rurales,
60
Copyright
planeamiento, detección de cambios en la cobertura y uso del suelo, etc.. Dentro de grupo se encuentran
los siguientes satélites:
Cabe aclarar que en el caso de los satélites que producen imágenes multibanda, puede conseguirse el
máximo de resolución mediante técnicas de fusión de imágenes que veremos a continuación.
En lo más básico, podemos decir que todas las imágenes disponen de correcciones de tipo radiométrico,
que se consideran las operaciones de pre-procesamiento más básicas y que, por lo tanto, se realizan por
defecto a los datos crudos a fin de mejorar la visualización e interpretación de las imágenes.
Las técnicas aplicadas para modificar los valores digitales registrados incluyen la corrección por
imperfecciones del sensor. Las celdas de los detectores tienen una leve diferente respuesta, y sus
diferencias pueden determinarse por una calibración radiométrica y aplicar luego las correcciones a los
datos registrados por del sensor. Este tipo de problema puede ocasionar imágenes “rayadas” porque
algunas líneas de barrido no se capturan correctamente, caso en que se aplica una corrección para
normalizar las líneas defectuosas; además de generar ruido aleatorio que degrada el contenido de
información radiométrica y hace que la imagen aparezca granulada.
Otro tipo de correcciones incluyen las originadas por perturbaciones atmosféricas que están relacionadas
con la iluminación de la imagen. Por ejemplo, para el caso de las áreas terrestres de latitud media y baja
la iluminación es muy diferente en invierno que en verano (brillo general, sombras, etc.), situación en la
que se aplica una normalización por elevación solar para equilibrar la radiometría general de las
escenas. Por otro lado, el resplandor en el cielo provoca en el sensor una neblina que reduce el
contraste, caso en el que se utilizan valores de referencia basados en mediciones de radiancias
capturadas sobre el terreno para corregir las imágenes.
El resto de las correcciones están asociadas a la geometría de las escenas. Cada imagen representa los
elementos del paisaje en una relación geométrica determinada por el diseño del sensor, por condiciones
de operación específicas, por el relieve del terreno y otros factores. El instrumento de detección debe ser
capaz de crear una escena con relaciones geométricas consistentes y precisas entre los puntos del
terreno y sus homólogos en la imagen. Pero obviamente, cada una de éstas incluye errores geométricos
originados fundamentalmente por la perspectiva de la óptica del sensor, por cambios en la altura de la
plataforma, por el movimiento de exploración óptico (barrido/escaneo), por el relieve del terreno y por la
curvatura terrestre.
Cada fuente de error puede tener distinto nivel de importancia según la aplicación, pero los errores
geométricos son algo inherente a las imágenes, al igual a lo que hemos visto en el caso de las
fotografías aéreas en fotogrametría. La reducción o eliminación de los errores posicionales dependerá
de cómo y en qué dominio se emplearán las imágenes, todo lo cual nos sirve de base para aplicar los
remedios que proporcionen las cualidades geométricas adecuadas para un uso determinado.
Aunque existe algún grado de variabilidad entre las empresas proveedoras de imágenes respecto a los
productos entregados a los usuarios, existen algunas pautas comunes a todas ellas, de manera que los
criterios utilizados para definir los distintos niveles de procesamiento dependen de lo siguiente:
el destino a dar a las imágenes, por ejemplo para detección de cambios / interpretación, o
cartografía; y
las capacidades de los usuarios, por ejemplo, aquellos que requieren los datos de imagen ya
procesados para su integración directa en una aplicación SIG, o los que disponen de recursos
para procesar las imágenes aportándole valor agregado por sus propios medios.
61
Copyright
Dentro de este contexto de aplicaciones y necesidades de los usuarios, se cuenta con las siguientes
alternativas:
Como hemos visto en la tabla….la resolución pancromática es unas 4 veces más fina que la
multiespectral (A, V, R e Infrarrojo cercano), por lo que para obtener imágenes en color con el mismo
nivel de detalle que una en blanco y negro, se recurre a un proceso de fusión de imágenes conocido
como pan-sharpening. Básicamente lo que este proceso permite es unir en una sola imagen los datos
pancromáticos, que se utilizan como fuente de co-registración, con los multiespectrales para formar una
imagen en color de alta resolución.
Ejemplo de una imagen QuickBird pan-sharpening a color natural de 60 cm. de píxel. Digital Globe.
Fuente: http://www.geoimage.com.au/geoimage/index.php?page=pan-sharpening
Este producto logra retener entonces los mejores atributos (espectrales y espaciales) de las imágenes
entrada, fundamentalmente porque las imágenes color son más fáciles de interpretar que las imágenes
en escala de gris y las imágenes de alta resolución son más fáciles de leer que las de baja resolución.
Sin embargo, a diferencia de una verdadera imagen multiespectral, las bandas individuales utilizadas
como fuente se “disuelven” en una única imagen, de forma que las bandas originales no pueden ser
manipuladas independientemente para cambiar la presentación de la visualización, lo cual limita la
utilidad de la imagen fusionada en el contexto analítico.
Si bien el punto de partida para la elaboración de la cartografía catastral urbana son los vuelos
fotogramétricos para restituir con precisiones compatibles con las escalas 1:500, 1:1.000 o 1:2.000, las
imágenes satelitales de alta resolución se están utilizando cada vez más como fuente informativa para
tareas de mantenimiento y actualización de determinados datos catastrales urbanos, aunque
lógicamente, este recurso no ha logrado equiparar de manera operativa a nivel de exactitud a la
restitución fotogramétrica y ortofotos obtenidas a partir de fotografías aéreas.
62
Copyright
Debe quedar claro entonces, que los datos de imagen en las aplicaciones de catastro urbano no
sustituyen a los relevamientos fotogramétricos, sino que conforman una fuente de complementaria y muy
valiosa, sobre todo por las ventajas particulares que ofrecen los sistemas de teledetección satelital en
cuanto a cobertura y repetitividad temporal. Precisamente estos atributos son los que aportan a los
catastros un recurso con poder de disponibilidad continua, de manera que esto es lo que principalmente
justifica el creciente interés por el uso de esta geotecnología.
El aprovechamiento de los datos de imagen en los ambientes urbanos puede hacerse de diversas
formas, por ejemplo:
superponer a la cartografía vectorial existente las imágenes para detectar cambios a nivel de
construcciones, infraestructura y asentamientos informales para incorporarlos a la base de datos,
tarea que requiere de una complementación con levantamientos directos en el terreno;
integrar a la base de datos las imágenes a los fines de aportar un mayor significado interpretativo
a los conjuntos de datos vectoriales;
producir cartografía preliminar a nivel de manzanas para cuantificar la ejecución de
levantamientos catastrales, a los fines de realizar programas de regularización dominial o de
tenencia de la tierra;
evaluar el desarrollo de la infraestructura para actualizar las valuaciones catastrales del suelo
urbanizado;
planificar levantamientos topográficos y geodésicos masivos en áreas urbanas que no disponen
de un catastro;
estudiar la tipología y estratificación del suelo edificado para aplicar a trabajos de actualización
valuatoria;
determinar por cruce de información entre la cartografía catastral existente, la infraestructura y la
zonificación (planeamiento), las parcelas que son susceptibles de ser incorporadas al perímetro
urbano;
realizar estudios multi-temporales de crecimiento de las ciudades para identificar las áreas con
mayor potencial de cambio de uso rural a urbano, lo cual permite establecer acciones
planificadas para el desarrollo servicios públicos, etc.
Indudablemente que existen muchas más posibilidades de uso para sacar el mayor provecho a las
imágenes de alta resolución, aunque como se ha visto, para varias aplicaciones resulta necesario
utilizarlas en combinación con otras fuentes de datos.
Un caso distinto es el de los catastros de áreas rurales para lo cual las imágenes de alta resolución si
ofrecen una respuesta que puede equipararse con los vuelos fotogramétricos, aunque claro está, que
estamos hablando de escalas que van desde 1:5.000 a menores en adelante. Retomando lo analizado
en el apartado 2.2.8.1 en cuanto a la relación entre escala, resolución espacial (GSD) y exactitud
cartográfica, tenemos que:
Estos valores nos señalan con claridad los límites dentro de los cuales nos permiten trabajar las
resoluciones que nos ofrecen los distintos sistemas de teledetección satelital. La elección de la escala,
obviamente dependerá del tamaño medio de las parcelas, cuyas superficies dependen a su vez de la
calidad del suelo e infraestructura disponible.
63
Copyright
Dirección General de Catastro, Provincia de Tucumán (2010). Detección e incorporación de mejoras por
imágenes de alta resolución. II Congreso Nacional del Catastro, San Luis, Argentina.
Faculty of Geoinformation Science and Earth Observation – ITC (2012). ITC’s database of Satellites and
Sensors, http://www.itc.nl/research/products/sensordb/searchsat.aspx
Lilesand,Thomas & Kiefer, Ralph (1994). Remote Sensing and Image Interpretation. Third edition. John
Wiley & Sons, Inc.
64
Copyright
3.1. Introducción
Todos los temas vistos hasta aquí tienen una relación directa con la producción de cartografía. La
geodesia aporta el marco de referencia que es el basamento posicional que nos permite representar los
datos geográficos en forma consistente sobre el continuo espacial; los sistemas de posicionamiento por
satélite GNSS cumplen una importante función en establecer dicho marco de referencia, actuando
además como una herramienta para la captura de datos en el terreno, al igual que los métodos de
topográficos clásicos; la fotogrametría esta esencialmente orientada a la generación de cartografía
básica; y los sistemas de teledetección más relacionados a la elaboración de cartografía temática. Es
decir que cualquiera sea el método de levantamiento, directo o indirecto -en contacto con el objeto o no-,
sus resultados serán utilizados para ubicar objetos naturales o artificiales sobre la superficie terrestre y
representarlos cartográficamente.
Cabe ahora definir el significado y alcance del término cartografía que, básicamente, es la disciplina
abocada al estudio y la práctica de realización de mapas que combina ciencia, técnica, estética y
comunicación visual. La cartografía se apoya en la premisa que la realidad puede modelarse de manera
de posibilitar una comunicación efectiva de la información espacial (Wikipedia, 2012). Por otra parte, la
Asociación Cartográfica Internacional (ICA, 2003) conceptualiza a la cartografía como un servicio único
para la creación y manipulación de representaciones visuales o virtuales del geoespacio (mapas), a los
fines de exploración, análisis, comprensión y comunicación de información sobre el mismo.
De las definiciones señaladas resulta oportuno remarcar dos cuestiones: la primera es la importancia de
la comunicación en el proceso cartográfico, y la segunda es que la referencia a las representaciones
virtuales nos acerca al mundo de la informática y por lo tanto a la cartografía digital, que en la actualidad
se encuentra estrechamente ligada a los SIG, constituyendo uno de sus principales fundamentos tanto
teóricos como prácticos.
Entre las divisiones o clasificaciones de mapas es muy usual recurrir a una separación entre los mapas
topográficos y los mapas temáticos. Como su nombre lo indica, los primeros muestran las formas del
relieve y los principales rasgos geográficos como los caminos y la red hidrográfica. En cambio los mapas
temáticos constituyen representaciones especializadas del territorio, como puede ser el catastro, los
suelos, la vegetación, la geología, etc. Otra forma de clasificar a los mapas es por su escala, otra por su
estructura de datos, es decir si son mapas de línea (vectoriales) o mapas basados en fotos (ortofotos) o
imágenes. Pero en un entorno digital, dichas divisiones carecen de importancia porque los datos son
presentados separadamente en forma de capas, dónde cada una de éstas alberga una representación
temática. La escala tampoco tiene mucha importancia en este tipo de clasificaciones porque en la misma
base de datos pueden “convivir” datos a distintas escalas, pensemos por ejemplo, en un sistema de
información territorial en el que tenemos datos del catastro urbano y del catastro rural, cuyas escalas
pueden ser muy diferentes.
65
Copyright
El contenido de un catastro en el medio digital es equivalente aquel que proviene de una base de datos
gráficos y de los atributos asociados que responden a un determinado modelo de datos. De esta manera,
la cartografía constituye una visualización de los datos espaciales, que podemos realizar en forma de un
mapa temporal representado en la pantalla de una computadora, o de un mapa permanente
representado en una salida gráfica impresa en soporte papel con una leyenda específica, cuyo diseño
responde a los fines para los cuales ha sido diseñado.
El soporte utilizado para representar los datos, es fundamental para distinguir las diferencias que existen
entre la cartografía analógica y la digital. Por ejemplo:
66
Copyright
En lo más básico, lo que distingue a la cartografía catastral frente a otras representaciones temáticas del
espacio terrestre, es que muestra como se despliegan los derechos de propiedad (específicamente el
derecho real de dominio) en el territorio, a lo que cabe agregar que algunos sistemas catastrales también
representan otros derechos que tienen expresión sobre el territorio como, por ejemplo, la servidumbre,
las áreas protegidas, las restricciones al dominio, etc.
La cartografía catastral puede utilizarse para determinar precisamente dónde se encuentran ubicados los
límites de una parcela o de otros derechos incluidos en la misma, o simplemente puede ser una
representación gráfica aproximada de la geometría y ubicación de un predio. Esto quiere decir que los
datos tal como son representados no pueden ser empleados para su inclusión en descripciones de
documentos legales (ej: título de propiedad), pudiendo ser utilizados exclusivamente como referencia o
para ubicar antecedentes de planos que indiquen en forma precisa la ubicación y los linderos de los
inmuebles a los fines de anotar derechos en los registros de la propiedad.
Otros aspectos que caracterizan a la cartografía catastral son:
su nivel de detalle, siendo uno de los conjuntos de datos más precisos con los que puede contar
la administración de un estado, motivo por el cual en algunas legislaciones los datos del catastro
son considerados fundamentales, ya que pueden ser empleados en el desarrollo de múltiples
aplicaciones que tienen como centro de actuación el territorio; y
su alto grado de volatilidad, porque diariamente se fraccionan, subdividen y/o unifican parcelas;
se construyen, demuelen o amplían edificios; se transfieren dominios cambiando los propietarios;
se construyen obras de infraestructura que incorporan mejoras al suelo urbanizado
incrementando su valor; se ocupa suelo informalmente, etc.
Desde el punto de vista técnico, existen una serie de elementos que conforman la cartografía catastral,
por ejemplo:
1. El modelo de datos que describe y contiene todos los objetos o entidades incluidos en la base de
datos;
2. Las técnicas y los procedimientos utilizados para el levantamiento catastral; y
3. Los procesos de mantenimiento y actualización.
Respecto al primer punto, es común a los modelos de datos estructurarlos tomando como base la
relación objeto (parcela), derecho, sujeto (persona física o jurídica). El derecho puede tener como fuente
la legislación civil que regula los denominados derechos reales como el dominio, el condominio, el
usufructo, etc.; el derecho administrativo que es la base para el planeamiento urbano, o las leyes que
pueden establecer zonas de protección ambiental, reservas naturales, etc. La necesidad de representar
el conjunto de derechos que se ejercen sobre el territorio obedece a la necesidad de regular la
planificación de uso del suelo, conservar determinados recursos naturales y/o administrar
67
Copyright
infraestructuras (ej: redes de transporte eléctrico, agua, gas, etc.). Todo ello sirve para crear un ambiente
de seguridad jurídica en cuanto a la movilidad de los inmuebles en el mercado. Basta considerar que un
derecho que no es publicitado, no es transparente a las reglas del mercado. Aunque en todo caso, la
inclusión o no de determinados derechos dentro del modelo de datos dependerá de los objetivos y los
alcances que tenga cada sistema catastral.
De manera complementaria a los aspectos conceptuales del modelo de datos, podemos focalizar en los
aspectos prácticos relacionados con el contenido de datos mínimo, o que representen un denominador
común para todos los catastros. A tal fin, podemos agregar lo siguiente:
68
Copyright
Estos procesos para la conformación de la cartografía catastral pueden presentar diversas variantes y
especificidades de acuerdo a la legislación de cada país y su organización institucional, por lo que esta
descripción solo pretende tener un alcance general sobre los aspectos más habituales de esta actividad
en aquellos países en que se aplica este tipo de metodología.
12
Resolución 628/2009. Reglamento General de Mensuras Catastrales. Suprema Corte de Justicia de la República Dominicana.
Portaria N° 69 de 22 de Fevereiro de 2010. Norma Técnica para Georreferenciamento de Inmóveis Rurais – Segunda Edição
Revisada. Instituto Nacional de Colonización y Reforma Agrária de la República Federativa de Brasil.
Ivars, Leonardo B. (2012). Antecedentes normativos y comentarios relacionados con la georreferenciación de parcelas, disponible
en: http://cafegeodesico.blogspot.com.ar/2012_04_01_archive.html.
Directriz RIM-001-2012, de fecha 18 de mayo de 2012 denominada: "Definición de la georreferenciación y de las tolerancias
permitidas que deben cumplir los levantamientos de agrimensura dentro del territorio nacional”. Registro Nacional de la República
de Costa Rica.
69
Copyright
Los dos métodos para el levantamiento catastral y desarrollo de cartografía no son únicos ni excluyentes
entre sí, dado que pueden complementarse. Finalmente, remarcamos que las formas de desarrollo de la
cartografía catastral difieren de país a país, y aunque existen aspectos técnicos comunes, resulta
dificultoso generalizar las cuestiones de manejo que resultan necesario dominar en este tipo de trabajos,
particularmente todo lo relacionado a los criterios para la digitalización de datos con el objetivo de formar
o mantener una base de datos catastral.
En relación al punto 3 que hace referencia a los procesos de mantenimiento y actualización, la regla de
oro para cualquier proyecto catastral es que antes de gastar una sola moneda, estén diseñados los
procesos y los instrumentos necesarios a través de los cuales garantizar la puesta al día, sobre una base
continua, de la información gráfica y descriptiva que conforma la cartografía catastral. La palabra clave
en este tema es sostenibilidad, concepto que debe interpretarse como la existencia de interés político,
económico y social, que junto al desarrollo de capacidades institucionales, tiene como objetivo garantizar
que los organismos catastrales puedan crear, mantener y difundir sus activos de información en el
tiempo.
En la actualidad, existen varios motivos que afectan la sostenibilidad, entre los cuales caben mencionar
a:
Cada una de estas dimensiones requiere de un tratamiento individualizado y de una ubicación dentro del
entorno en el que se desarrollan, como una manera de evaluar los riesgos que deben enfrentar los
organismos catastrales para proveer un servicio permanentemente actualizado a la sociedad.
Lo antedicho va en línea con que al momento de diseñar o desarrollar un sistema catastral en lo primero
que hay que pensar es en los datos que debe contener (modelo) y definir concretamente un núcleo
esencial, es decir incluir aquellos datos que sean los estrictamente necesarios para el cumplimiento de
los objetivos de la institución. Agregar datos sin tener la certeza de poder mantenerlos en el tiempo es
una decisión errónea, para ello hay que considerar que un catastro es una infraestructura de información
territorial básica y no una gran base de datos que puede ser utilizada para cualquier finalidad. De manera
que la multifinalidad se consigue integrando la información catastral con otras aplicaciones sectoriales
(planeamiento, infraestructura, medio ambiente, etc.) o en Infraestructuras de Datos Espaciales (IDEs).
En segundo lugar, y siguiendo elementales principios de eficiencia y economía de costos, cuando haya
datos que se puedan capturar más cerca de la fuente o que otra institución posea en cumplimiento de
sus funciones, se lo haga estableciendo los mecanismos de cooperación y colaboración interinstitucional
que sean necesarios para tal fin. Compartir datos evita duplicar esfuerzos y costos, todo lo cual redunda
en la eficiencia de los sistemas o subsistemas involucrados en su conjunto.
Es decir que la sostenibilidad es un aspecto clave para los catastros y pilar dónde hay que poner el foco
y la atención cada vez que un desarrollo catastral tiene lugar. Para ello, es crucial tener definido un
modelo de gestión para el mantenimiento y actualización en el que se precisen el cómo y el quién, junto
a las correspondientes metodologías y procedimientos estandarizados, a fin de resguardar la
consistencia y la integridad de las bases de datos catastrales.
En las actividades de adquisición masiva de datos catastrales, sea para un levantamiento inicial como
para mantenimiento, es de fundamental importancia tener presente la necesidad de implementar un
sistema de control de calidad para todos los procesos hasta la obtención del producto final, lo cual
incluye la captura de datos, hasta la edición y verificación de la vinculación entre los datos gráficos y
atributos asociados.
70
Copyright
Por ejemplo, si nuestro proyecto inicia con un relevamiento fotogramétrico, tendremos que comenzar
nuestro control en la planificación del vuelo, pasando por el material fotográfico obtenido, y siguiendo con
el apoyo de campo, la aerotriangulación, la restitución y verificación de campo, junto a una revisión de la
consistencia en la estructuración de los conjuntos de datos de conformidad al modelo de datos
predefinido.
Por otro lado, además de los datos gráficos provenientes de un vuelo, tenemos el levantamiento de los
datos alfanuméricos que son capturados en las visitas realizadas a cada parcela, en formato de ficha
catastral o planilla censal, que también tienen que ser integrados a la base de datos del SIG catastral. A
esta altura, resulta oportuno remarcar la necesidad de disponer de aplicaciones informáticas cuya
finalidad sea la de ejecutar controles de calidad semiautomatizados para detectar inconsistencias en los
datos espaciales (ej: errores en la topología de los gráficos), los datos alfanuméricos (ej: campos vacíos
en la base de datos) y la integración entre ambas informaciones.
Como en los trabajos masivos se trabaja sobre un determinado porcentaje de muestras tomadas al azar,
se puede tomar como documento de referencia para el control de los datos gráficos y alfanuméricos la
norma ISO 2859-1, que establece reglas generales para la aceptación o rechazo en procedimientos de
muestreo de inspección por atributos. En cuanto a las normas más específicas asociadas al tema de
calidad tenemos (ISO, 2012):
La ISO 19113 titulada “Información Geográfica – Principios de Calidad”, que establece los
principios para describir la calidad de los datos geográficos y los componentes específicos para
informar la calidad.
La ISO 19114 titulada “Información Geográfica – Métodos de Evaluación de la Calidad”, que
provee un marco de procedimientos para determinar y evaluar la calidad aplicable a conjuntos de
datos geográficos, de conformidad a los principios de calidad definidos en la ISO 19113.
La ISO 19138 titulada “Información Geográfica – Medidas de calidad de datos”, que como lo
indica su nombre define un conjunto de medidas para informar la calidad, que pueden utilizarse
para aplicar a cada uno de los sub-elementos de calidad de datos identificados en la ISO 19113.
Esta norma define múltiples medidas para cada sub-elemento, cuya elección dependerá del tipo
de datos y uso previsto.
En el apartado 3.6.2. analizaremos con más detalle los componentes que tienen relación con la
información de calidad que debe ser incluida en los metadatos.
La orientación de este apartado está focalizada en la información que es dispuesta para su uso a través
de servicios desarrollados en base a la tecnología de Servidores de Mapas. La difusión de la cartografía
catastral a través de estas herramientas si bien presenta una serie de limitaciones respecto a las
funcionalidades que brinda un SIG, aportan ventajas entre las que cabe mencionar la facilidad de
acceso, dado que los usuarios no necesitan ser especialistas en el manejo de datos con ese tipo de
programas, sino que solo deben contar con unos conocimientos mínimos sobre el funcionamiento de
Internet y la Web.
Los mencionados servicios pueden estar estructurados como aplicaciones corporativas y/o
interoperables. El concepto de interoperabilidad tiene alcances no solo a los aspectos tecnológicos sino
71
Copyright
además a los organizacionales. Por ejemplo, dentro del ámbito del gobierno electrónico, este término se
define como la habilidad de organizaciones y sistemas dispares y diversos para interaccionar con
objetivos consensuados y comunes y con la finalidad de obtener beneficios mutuos. La interacción
implica que las organizaciones involucradas compartan información y conocimiento a través de sus
procesos de negocio, mediante el intercambio de datos entre sus respectivos sistemas de tecnología de
la información y las comunicaciones (Criado, Ignacio, et.al., 2010).
La diferencia entre los dos enfoques para las aplicaciones radica en que para el primer caso, el servicio
no posee la capacidad de interactuar con otros de su misma especie, es decir son servicios aislados que
ofrece una organización individualmente y que sirven primariamente al propósito y al mandato que tienen
asignado; en tanto que en el segundo caso se trata de aplicaciones que cumplen con estándares
internacionales (OGC = Open Geospatial Consortium, ISO = International Standards Organization) y que
están integradas en Infraestructuras de Datos Espaciales (IDEs), marco dentro del cual participan varios
organismos productores de datos geográficos.
Todos los servidores de mapas tienen en común que permiten a los usuarios acceder únicamente a
imágenes de los datos y no a los conjuntos de datos en su formato original. Además las aplicaciones
pueden desarrollarse a partir de las fuentes de datos o bases de datos SIG en sus formatos originales
(shapefile, dgn, dwg, dxf, geodatabases, geotiff, img, ecw, MrSID, etc., y conexiones con bases de datos
Oracle, ArcSDE, PostGIS, etc.), lo que evita tener que transformar el formato de almacenamiento de los
datos.
Interfase del Servicio de Información Inmobiliaria en Internet. Fuente: Service New Brunswick, Planet
Internet Browser Map.
72
Copyright
Hemos considerado este ejemplo porque se trata de una iniciativa pionera y porque es un modelo clásico
de aplicación corporativa, cuyo diseño responde principalmente a cubrir la demanda de usos
relacionados con la búsqueda, consulta, y obtención de antecedentes sobre datos puntuales.
A partir de la irrupción de Internet y luego con el desarrollo de herramientas para manejar datos con
componente geográfica como Google Earth, Google Maps, Open Street Map, etc., accesibles a personas
comunes, se ha venido generando un cambio cultural que ha traspasado la frontera de las
administraciones públicas, las cuales han asimilado el valor agregado que aportan sus datos espaciales
para la sociedad en general. Por otra parte, los SIG han evolucionado de aplicaciones cerradas para
convertirse en recursos propios de la red que permiten un amplio acceso a la cartografía, y todos esos
conjuntos de datos depositados en “silos” hoy es posible integrarlos dinámicamente en redes públicas a
través del uso de estándares.
Este contexto ha generado un marco propicio para que los distintos organismos del Estado puedan
brindar mejores servicios a la ciudadanía a través del uso y el aprovechamiento de la información del
sector público. Con relación a los datos geográficos en particular, se ha desarrollado en la primera mitad
de la década del 90, el concepto de Infraestructuras de Datos Espaciales (IDE) que es el conjunto de
organizaciones, tecnologías, políticas, estándares y recursos humanos destinados a distribuir y mejorar
la utilización de los datos espaciales. Las IDE son una gran oportunidad para generar más presencia y
visibilidad de los organismos catastrales y mejorar, por lo tanto, la percepción de su utilidad social en la
ciudadanía.
Yendo al terreno de la práctica, haremos un breve repaso a una de las herramientas que hacen viable la
construcción de las IDE, dentro de las que destacamos el servicio de mapas web (WMS – Web Map
Service) que es un protocolo estándar para servir imágenes de mapas georreferenciados en Internet que
son generados por un servidor utilizando datos provenientes de una base de datos SIG (OGC, 2012). La
especificación internacional del OGC permite invocar el servicio a través de un navegador web instalado
en la PC del usuario en forma de una dirección web. Esta solicitud una vez recibida, es procesada por el
servidor WMS que entrega al cliente una imagen en formato .JPG, GIF, PNG, etc. Los mapas generados,
como dijimos, pueden ser visualizados a través de un simple navegador, o bien a través de un software
instalado en la PC del usuario. Ambas soluciones incluyen funciones muy simples para interactuar con la
cartografía como acercamiento, alejamiento (zoom +, zoom -), paneo, activación y desactivación de
capas y consulta de atributos.
Una característica saliente del servicio WMS del OGC es que permite el acceso a conjuntos de datos
distribuidos en varios servidores y permite superponerlos en la PC del cliente como si procedieran de
una única fuente, como podemos ver en la siguiente figura. Este tipo de arquitectura es de uso corriente
en las IDEs.
73
Copyright
La especificación WMS estándar dispone de cinco tipos de operaciones, siendo las dos primeras
obligatorias (GeoServer, 2012):
GetCapabilities: recupera los metadatos del servicio, incluidas las operaciones y los parámetros
de solicitud admitidos, así como una lista de las capas disponibles.
GetMap: recupera una imagen del mapa respecto a un área específica y su contenido.
GetFeatureInfo: recupera los datos subyacentes, incluidos los valores de geometría y atributos,
para una ubicación de píxel en el mapa.
DescribeLayer: indica el servicio de elementos web o el servicio de coberturas web para obtener
información adicional sobre una capa de datos.
GetLegendGraphic: recupera una leyenda generada por un mapa.
La cartografía catastral dentro de una IDE cambia de función respecto a las aplicaciones corporativas,
para constituirse en la capa de referencia para múltiples aplicaciones. En todas las actividades
relacionadas con las infraestructuras de información existen los que se denominan conjuntos de datos
13
fundamentales o simplemente datos de referencia, siendo los datos catastrales uno de ellos . Ahora
bien, ¿qué debemos entender como datos fundamentales?. En principio, podemos decir que son
aquellos que la gran mayoría de los usuarios utiliza como base para referenciar sus propios datos o que
proveen elementos de ubicación cierta y precisa sobre el territorio, y que suministran, por lo tanto, un
contexto dentro del cual es posible comprender los datos que son presentados por los usuarios a una
determinada audiencia. Además los datos fundamentales están sujetos a un régimen de mantenimiento
regular o continuo, y se trata de conjuntos de datos que provienen de una fuente autorizada con mandato
específico para su creación y puesta a disposición de los ciudadanos.
Completamos este apartado con otro ejemplo, en este caso de un visualizador de mapas de la IDE de la
Provincia de Santa Fé, Argentina. En el árbol de capas pueden observar los conjuntos de datos que
están disponibles y que corresponden a varias organizaciones. En este caso, el catastro se convierte en
el primer nodo de la IDESF, por lo que las consultas a la información catastral se realizan directamente
desde el servidor del organismo que produce los datos.
3.6. Metadatos
El valor de los datos depende de su amplia utilización, es decir que en la medida que existan más
usuarios para los productos de un catastro, mayor valor va a tener la institución para la sociedad. Ahora
13
Ley Nacional de Catastro N° 26.209, artículo 1°. República Argentina.
Directiva 2007/2/CE, anexo I punto 6, del Parlamento Europeo y del Consejo del 14 de marzo de 2007 por la que se establece un a
infraestructura de información espacial en la Comunidad Europea (INSPIRE).
74
Copyright
bien, esto genera grandes compromisos en las organizaciones catastrales respecto a la calidad y
actualidad de sus activos de información. Además, la diversidad de usos que puede darse a los datos
que administra un catastro, trae aparejado el hecho que nuevos actores -esto es más allá de los usuarios
tradicionales (gobiernos, registros de la propiedad, organismos tributarios)-, entren en la escena de la
demanda, lo cual incorpora la necesidad que los conjuntos de datos dispongan de la documentación
adecuada.
¿Qué queremos decir con esto de la documentación de los datos? Que dispongan de metadatos. Pero
¿que son los metadatos?, veamos en el siguiente ejemplo una primera aproximación:
Metadato:
Nombre: Ruta_de_los_7_lagos_nro10.jpg
Digamos que los datos son hechos que describen el mundo real siguiendo un modelo, en tanto los
metadatos constituyen una herramienta para describir a dichos datos. Aunque parezca un juego de
palabras, el término se refiere a datos sobre los propios datos. En lo más básico, los metadatos deben
dar respuestas al qué, dónde, cuándo, quién y cómo de los datos geográficos en general y catastrales en
particular. Veamos:
¿Qué? – Título, temática del conjunto de datos, usos recomendados, representación y almacenamiento
de las entidades geográficas, modelo de datos, marco de referencia geodésico y sistema proyectivo.
¿Dónde? – Área geográfica que cubren.
¿Cuándo? – Fecha de creación de los metadatos, frecuencia de actualización.
¿Quién? – Organismo responsable de la creación del conjunto de datos.
¿Cómo? – Restricciones para acceder o utilizar los datos, licencias, distribución de los datos, formatos
disponibles.
Las organizaciones catastrales deben documentar sus conjuntos de datos no solo para facilitar su
reutilización en distintos tipos de aplicaciones, sino además para que los usuarios internos que no han
tenido participación directa en la captura de los datos, puedan comprenderlos y con ello utilizarlos
apropiadamente.
Profundizando en el tema de la utilidad de los metadatos desde una doble perspectiva tenemos:
75
Copyright
Descubrir y ubicar los datos que necesita y conocer sus características para utilizarlos
adecuadamente.
Comprender los conjuntos de datos desarrollados.
Conocer información que es clave para determinar que usos son factibles y que usos no son
factibles, partiendo de la información referida a la calidad.
Los metadatos deben estar basados en normas aceptadas por consenso. Los beneficios que aportan las
mismas es que han sido desarrolladas por expertos, y ofrecen una base sobre la que pueden
desarrollarse perfiles orientados a distinto tipo de aplicaciones y áreas temáticas. Además, el hecho de
adherencia a las normas trae consigo la posibilidad de disponer de programas informáticos para facilitar
la creación automatizada de metadatos, y asegurar a los usuarios que éstos puedan establecer
comparaciones entre metadatos, lo que es imposible sin una estandarización.
Si bien existen una variedad de normas respecto a los metadatos cabe mencionar como fundamental a
la norma internacional ISO 19115, la cual proporciona a los organismos productores lo siguiente:
El núcleo de metadatos mínimos u obligatorios necesarios que presente la norma para describir un
conjunto de datos son los siguientes:
76
Copyright
En primer lugar cabe hacerse la pregunta ¿qué es la calidad?, ya que se trata de un término que puede
tener diferentes significados dependiendo del contexto en el que la ubiquemos. La calidad hace
referencia a la adecuación de los datos a un propósito o tarea. Esta relacionada con la medida en que un
conjunto de datos está a la altura de las necesidades de la persona que los juzga (UNIGIS-España,
2004).
Es decir que la calidad se percibe como algo que tiene una utilidad para el fin que un determinado
usuario pretende dar a un recurso. O bien podemos decir que la calidad viene definida por cuan
ajustados sean los datos a los requerimientos de los usuarios, y no tanto si los datos son buenos,
regulares o malos.
La calidad de un conjunto de datos debe ser definida por el organismo que los produce, pero es
importante entender que los usuarios pueden tener diferentes opiniones en torno a la evaluación de la
calidad. Por ejemplo, el creador de los datos lo que trata de hacer cuando informa la calidad es preservar
el contexto en el cual fueron elaborados los datos. Pero a un usuario de datos del catastro lo que puede
interesarle de sobremanera es que éstos estén actualizados.
Cabe entonces preguntarnos ¿qué tan buena es esta cartografía catastral?, o ¿cuan precisa tiene que
ser nuestra cartografía?. A diferencia de los conjuntos de datos que se construyen a partir de una única
fuente, las bases de datos catastrales generalmente son el resultado de un proceso de compilación de
múltiples fuentes, por ejemplo restituciones fotogramétricas, levantamientos de campo, digitalización de
planos, etc..
Esta característica de los datos parcelarios, hace más difícil responder a las preguntas planteadas, dado
que hay que pasar en detalle la lupa por cada rincón del territorio, usualmente manzana por manzana,
block por block, y de con este análisis podríamos arribar a un resultado que podríamos extrapolar al
universo de parcelas de una jurisdicción o sector. Pero cuidado!, que cuando nos referimos a la calidad
no solo nos estamos refiriendo a la exactitud posicional de la cartografía, ya que los datos en formato
digital tienen varios aspectos de calidad que es necesario considerar.
Los elementos de calidad incluidos en los metadatos reconocen como antecedentes inmediatos a las
normas ISO 19113 “Información Geográfica – Principios de Calidad”, e ISO 19114 “Información
Geográfica – Métodos de Evaluación de la Calidad” a las que ya hemos hecho referencia. La calidad de
un producto incluye la determinación de un conjunto de parámetros y la descripción de algunos aspectos
accesorios de los conjuntos de datos tales como:
Parámetros cualitativos como el linaje o la historia de los datos, el que especifica las fuentes de
información, los métodos de captura, los procesos aplicados, etc., digamos que es una
explicación general del proceso productivo informado por el organismo productor de datos; el
uso, que describe las aplicaciones en las que serán empleados el conjunto de datos, por parte
77
Copyright
del productor y de diferentes usuarios; y el propósito, que no es más que una descripción textual
acerca de la finalidad y objetivos con los que ha sido producido un conjunto de datos, referencia
que da pautas respecto a cuales podrían ser los usos esperados.
Parámetros cuantitativos que representan medidas y evaluaciones concretas de un conjuntos de
datos, considerándose como variables la exactitud posicional, que describe los errores en la
posición espacial de los objetos representados; la exactitud temática, que informa los errores de
la información de atributos asociada a los datos espaciales; la completitud o compleción, que
comunica en que medida un conjunto de datos es completo; la consistencia lógica que se refiere
a la consistencia interna de los datos respecto a un modelo, como el topológico – relacional; y la
exactitud temporal, utilizada para describir cuan correctos son los datos respecto a un
determinado período de tiempo.
A continuación, veremos con un poco más de detalle cada componente cuantitativa de la calidad.
Si bien cada perfil nacional de una norma sobre metadatos es origen de los elementos de calidad, es
comúnmente aceptada la aplicación de los siguientes elementos para describir lo bien que un
determinado conjunto de datos se adecua a los criterios establecidos en sus especificaciones:
Exactitud posicional: indica el desvío de las posiciones de los datos espaciales respecto a su
posición verdadera. Digamos que la posición verdadera siempre es una magnitud desconocida
porque no hay medida sin error, pero mirando esta cuestión desde el punto de vista práctico,
consideramos como “posición verdadera” a unos datos obtenidos de una fuente mayor exactitud
respecto a los datos que estamos evaluando. Este parámetro se informa indicando un valor
estadístico y nivel de confiabilidad asociado a dicho valor.
Completitud o compleción: indica la presencia o ausencia de objetos, sus atributos y relaciones,
es decir que con este elemento lo que se procura es indicar que porcentaje de datos están
omitidos o excedidos respecto al universo real del conjunto de datos.
Consistencia lógica: indica el grado de adherencia a las reglas de la estructura de datos,
atributos y relaciones. En la captura de datos es frecuente encontrar polígonos no cerrados, falta
de etiquetas y centroides, superposición parcial entre polígonos, huecos, etc. Las leyes de la
topología son las que se han de cumplir desde el punto de vista geométrico, mientras que desde
el punto de vista de los atributos se requiere que los valores estén dentro de un determinado
rango, coincidan con unos valores establecidos, exista codificación para la ausencia de valor y
para valores nulos, que exista consistencia referencial, etc. Es normal que este tipo de errores se
los detecte y corrija en la etapa de construcción de la topología, siendo los principales medios
para determinar estas inconsistencias la inspección visual y los controles automatizados o
semiautomatizados que ofrecen los SIG.
Exactitud temática: este parámetro está relacionado con la exactitud de los atributos asignados a
un objeto. Indica la correspondencia entre los valores de los atributos de los objetos y los valores
correctos. Se refiere fundamentalmente a la tasa de error en los nombres de los objetos, sus
códigos adjudicados, o en sus atributos cualitativos o cuantitativos. La exactitud temática está
ligada a la posición, ya que el tema depende de aquella, pero tiene un tratamiento independiente
de la misma y, tradicionalmente, menos considerado. La consistencia de los atributos se puede
establecer mediante índices de variaciones expresados en porcentajes. Para atributos
cuantitativos, se evalúa y reporta utilizando índices estadísticos unidimensionales, mientras que
para atributos cualitativos se reporta indicando el valor de un índice estadístico como porcentaje
de clasificación correcta, obteniéndose con algunos métodos específicos los denominados
errores de comisión y de omisión. Los errores de comisión lo forman los elementos que no
perteneciendo a una clase aparecen en ella, mientras que los de omisión están formados por los
elementos que perteneciendo a esa clase no aparecen en ella por estar incorrectamente
incluidos en otra.
Exactitud temporal: indica normalmente el tiempo en el que se incluyen los cambios en la base
de datos, es decir la fecha en que son registrados los últimos cambios. Además este elemento
puede indicar el tiempo de observación o tiempo del evento. La exactitud temporal se refiere a la
discrepancia entre el dato en una base de datos espaciales y una observación temporal del dato
que sea de interés. Normalmente, lo que interesa a los usuarios es conocer cuan actualizados
están los datos, es decir, la proximidad temporal entre su captura con la situación presente, en
este caso la actualidad del dato es su exactitud temporal.
78
Copyright
Con todo lo visto, hemos tratado de poner de manifiesto que es tan importante como los propios datos la
documentación que tienen asociada. Y para concluir podemos preguntarnos ¿cuan buena es nuestra
cartografía catastral?. La aplicación de todos o algunos de estos elementos es una manera concreta de
responder a esa pregunta. Trabajar sobre la calidad es una buena y necesaria práctica, además de una
tarea continua cuyas mejoras pueden ir viéndose en el transcurso del tiempo, en la medida que
avanzamos en el mantenimiento y actualización de la base de datos catastrales.
Los catastros tradicionalmente han sido creados para cumplir con dos funciones básicas: una la de
contribuir a la eficiencia del sistema fiscal, y otra la de aportar a la seguridad jurídica con relación a la
propiedad inmueble. Pero independientemente de la finalidad principal por la cual se haya establecido un
sistema catastral, el desarrollo de las tecnologías de la información y las comunicaciones ha generado
un profundo impacto respecto a los usos que pueden hacerse de la información catastral. Dónde este
recurso está a disposición de los ciudadanos, las empresas y el complejo de organizaciones
gubernamentales de manera amplia, surgen aplicaciones no tradicionales que contribuyen a hacer más
productivo el trabajo de los referidos actores e incrementa, en consecuencia y como ya hemos
manifestado, el valor que tiene un catastro para la sociedad.
Siguiendo estas líneas de acción, cabe destacar que cuando los responsables políticos disponen en
forma oportuna de información catastral actualizada y de calidad, es posible desarrollar políticas públicas
de manera más eficiente y eficaz. Para poder atender esta demanda, es necesario concebir a las
organizaciones catastrales como una infraestructura de información básica del territorio que, desarrollada
sobre la base de las geotecnologías, permitan un acceso ubicuo a sus activos de información. Estas
características son las que en definitiva otorgan el perfil multifinalitario o multipropósito que distingue a
un catastro moderno.
Apoyándonos en estas consideraciones, elaboramos una lista que incluye usos tradicionales y no
tradicionales, junto a algunos ejemplos:
79
Copyright
Geomarketing: estudio de sitios óptimos para ubicar negocios o para establecer el perfil
socioeconómico de clientes en función de variables espaciales que incluyen información
catastral.
Criado, Ignacio; Gascó, Mila y Carlos E. Jiménez (2010). Bases para una Estrategia Iberoamericana de
Interoperabilidad. XII Conferencia Iberoamericana de Ministros de Administración Pública y Reforma
del Estado, Buenos Aires, Julio de 2010.
International Cartographic Association (ICA) (2003). Strategic Plan 2003-2011 as adopted by the ICA
General Assembly 2003-08-16,
http://icaci.org/files/documents/reference_docs/ICA_Strategic_Plan_2003-2011.pdf
International Standards Organization (ISO), 2003. ISO 19115 Geographic Information – Metadata, ISO /
TC211.
UNIGIS-España (2004). Elementos de calidad en los datos geográficos. Módulo 5: Datos Espaciales:
Adquisición, Entrada y Control de Calidad.
80
Copyright
Anexo
Dentro de la carpeta Material para práctica - imágenes, hemos alojado recortes de fotos aéreas, ortofotos
e imágenes satelitales. Dichos archivos se encuentran en formato .jpg y .tiff y para visualizarlos puede
utilizar los siguientes programas de distribución gratuita:
Ambos programas son de uso muy sencillo y disponen de ayudas que lo asistirán en caso de dudas.
Como opción, los referidos archivos pueden ser visualizados con cualquier software SIG.
Observarán que cada imagen incluye un archivo de mismo nombre con extensión .jgw (JPEG World File
Format) para .jpg, y .tfw (TIFF World File Format) para .tiff. Dichos archivos no son otra cosa que los que
contienen la información de georreferenciación de las imágenes, para que las mismas sean visualizadas
en su correcta posición geográfica dentro de las aplicaciones que trabajan con datos espaciales.
En realidad, para el TIFF no es necesario el .tfw, solo lo he incluido por una cuestión didáctica. Es que
este formato desde su versión 6.0 de 1992, incluye internamente la información necesaria sobre el marco
de referencia geodésico y el sistema de proyección cartográfica.
Los archivos .jgw y .tfw pueden abrirse con el WordPad, dónde observarán los siguientes datos:
La idea con este material es que realice un ejercicio de autoevaluación, que no será calificado, de
interpretación de los elementos que encuentra en la imagen y para que valore en forma directa las
posibilidades y limitaciones como fuente de datos de estos productos para aplicaciones catastrales en
particular y estudios urbanos en general.
81
Copyright
Las ortofotos pertenecen al Instituto Geográfico Nacional / Centro Nacional de Información Geográfica de
España e Instituto Tecnológico Agrario de Castilla y León, y han sido extraídas de la siguiente fuente de
acceso público: ftp://ftp.itacyl.es/cartografia/01_Ortofotografia/
Los archivos correspondientes a las imágenes satelitales son propiedad de las empresas GeoEye ,
Digital Globe y Astrium , y han sido extraídos de las siguientes fuentes de acceso público:
82