2.3 FOTOGRAMETRÍA.
La fotogrametría es la técnica que trata de estudiar y definir con
precisión la forma, dimensiones y posición en el espacio de un objeto
cualquiera, utilizando esencialmente medidas hechas sobre una o
varias fotografías de ese objeto.
Un fotograma es una vista aérea del terreno obtenida por fotografía.
Para este propósito el equipo de vuelo lleva una cámara especial en la
parte de baja. Estos fotogramas aparte de impresionar cierta superficie
del terreno, cuentan en sus bordes con una serie de datos como son: la
distancia focal, altura del vuelo, hora de la toma, número de orden de la
fotografía, etc. El tamaño de los fotogramas suele ser de 18x18, 23x23
y 30x30 cm.
En una cámara fotogramétrica se ha de conocer necesariamente la
distancia focal o distancia principal con precisión de centésima de
milímetro. También interesa conocer la proyección de la distancia focal
sobre el fotograma, denominada “punto principal. Este queda
determinado por la intersección de las diagonales del fotograma.
En el IGN, la Fotogrametría es una de las actividades más emblemáticas,
comprende la fotografía aérea y la obtención de modelos de elevaciones,
siendo información de referencia básica para la realización de la cartografía
y la obtención de información geográfica en general: ocupación del suelo,
urbanismo, ordenación del territorio, catastro, gestión forestal, hidrología, etc.
Dentro del IGN, desde el año 2004 la fotogrametría se ha dirigido
fundamentalmente al desarrollo del proyecto PNOA, Plan Nacional de
Ortofotografía Aérea, cuyo objetivo es la obtención de ortofotografías
digitales de alta resolución (25 ó 50 cm de tamaño de píxel) y modelos
digitales de elevaciones de todo el territorio español, con una periodicidad de
2 a 3 años y enmarcado dentro del PNOT (Plan Nacional de Observación del
Territorio).
El Plan Nacional de Ortofotografía Aérea (PNOA) es un proyecto
cofinanciado y cooperativo entre la Administración General del Estado (AGE)
y las comunidades autónomas que se enmarca dentro del Plan Nacional de
Observación del Territorio (PNOT), siendo coordinado por el Instituto
Geográfico Nacional (IGN) y el Centro Nacional de Información Geográfica
(CNIG).
Tiene como objetivo la obtención de productos fotogramétricos
comunes para todo el territorio nacional, con especificaciones técnicas
consensuadas entre todas las administraciones implicadas y cuyo
resultado es el proceso y obtención de ortofotografías digitales,
incluyendo: el vuelo fotogramétrico, apoyo de campo,
aerotriangulación y el modelo digital de elevaciones (MDE).
El proyecto se encuentra en continua evolución, adaptándose a las
necesidades de los usuarios y al desarrollo de nuevas tecnologías,
como la obtención de Modelos Digitales de alta precisión, obtenidos
por tecnología LIDAR, para la realización de cartografía de áreas de
inundación, proyectos de carreteras, inventarios forestales, etc.
Con la fotogrametría se puede obtener medidas precisas y modelos
tridimensionales de terrenos mediante el análisis de fotografías aéreas
o terrestres. Estas fotografías se pueden realizar con un UAS desde
diferentes puntos y ángulos, para obtener diferentes perspectivas. Una
vez tomadas, se procesan y se comparan para determinar las
distancias entre los diferentes puntos del terreno para así obtener
medidas precisas y modelos 3D.
Antes de que los drones entraran a escena, las fotografías aéreas se
obtenían utilizando avionetas y/o helicópteros, lo cual significaba
riesgos y costes muy elevados. Las fotografías satelitales también se
utilizaban para realizar estos trabajos, pero tampoco tenían buena
definición. Los productos obtenidos eran poco precisos.
Con los modelos 2D o 3D digitalizados de alta resolución se pueden
derivar mediciones precisas. Esto se puede hacer con un software de
mapeo especializado que busca similitudes en las imágenes, y las usa
para combinar sus fotos de una manera que proporcione una
representación precisa del espacio.
Para garantizar la precisión en la fotogrametría con un UAS, es
necesario hacer tomas desde múltiples ángulos, ya que una sola
fotografía aérea no puede utilizarse como mapa fotogramétrico, debido
a que no se han resuelto problemas como la perspectiva y la
distorsión.
Dependiendo de la escala del proyecto, la creación de un modelo
fotogramétrico puede requerir de cientos a varios miles de imágenes
individuales. Por tanto, los UAS suelen ser la forma más económica de
tomar las fotografías aéreas que sean necesarias para crear este tipo
de mediciones.
Los equipos tienen que contar con los siguientes componentes:
• Cámara de alta calidad, ya que de ello dependerá el resultado
del plano que se le entregará al cliente final.
• Baterías de larga duración y recambios, ya que el vuelo puede
extenderse por un amplio período de tiempo.
• Para algunos casos será necesario contar con algunos
complementos adicionales como la luz nocturna, cámara
térmica u otros accesorios.
Como ya se ha comentado, la técnica de la Fotogrametría nos permite
conocer las propiedades geométricas de un objeto o una superficie a
partir de la información obtenida por medio de varias imágenes con
información redundante. Simplificando, para que un objeto pueda estar
fielmente reconstruido, éste, debe de aparecer en un número suficiente
de imágenes. Es esta información repetida, la que permite extraer su
estructura.
Este extra de información se consigue a través del solapamiento entre
imágenes consecutivas (OVERLAP). Para ello un piloto de un UAS tiene
que planificar la misión de forma que cada imagen contenga elementos
que también aparecen en la imagen anterior, posterior y las vecinas en
los laterales.
El porcentaje de solape suele oscilar entre el 60 y el 90%, y
habitualmente viene calculado por el software de planificación de vuelos.
Estos programas se encargan de calcular secuencias de disparos a
partir de la posición esperada del dron, su altura y el solape deseado.
La superposición de las imágenes indica el nivel de área idéntica de
terreno que abarcan las imágenes, es decir, la superposición de una
encima de otra, dicha área es utilizada por el programa de
procesado para generar puntos.
Existen dos tipos de superposición: frontal (fotografías sucesivas
una delante de la otra) y lateral (fotografías sucesivas una al lado de
la otra).
La superposición repercute en los puntos de enlace y los puntos
clave. Por lo general se utiliza un mínimo de 70% de superposición
tanto frontal como lateral (75% recomendado; si se tiene que
mapear un bosque denso sería mejor subirlo a un 85% o 90%).
Un nivel elevado de superposición se traduce en un vuelo más largo
ya que significa que el dron tomará más fotografías.
El proceso fotogramétrico comprende todas aquellas acciones
necesarias para generar una ortofotografía. Este proceso comienza
con la planificación del vuelo fotogramétrico, la ejecución de dicho
vuelo, en pasadas con recubrimientos longitudinales y
transversales con un solape lo suficientemente grande que permita
que cada zona del terreno aparezca al menos en dos fotogramas, y
finalmente con el proceso de ortorrectificación, en el que se pasa de
una imagen con proyección cónica, a otra con proyección ortogonal,
en la que se pueden realizar mediciones exactas sin deformaciones
provocadas por la perspectiva de la cámara.
FOTOGRAFÍAS VERTICALES.
FUENTE: IGN.
SUPERPOSICIÓN FOTOGRAMAS.
FUENTE: IGN.
Dependiendo del tipo de trabajo que se vaya a realizar se necesitará
que el dron monte un tipo de cámara diferente. Por ejemplo, para
realizar una ortofoto bastará con que monte una cámara RGB (red,
green, blue) pero para hacer un trabajo de agricultura con drones se
necesitará una cámara multiespectral.
Una cámara RGB de serie monta un sensor que mide la capacidad de
luz dentro del espectro visible, es decir, el espectro que el ojo humano
es capaz de ver. Con una cámara RGB solamente vamos a poder
captar e interpretar los colores tal y como nosotros los vemos. Por
tanto, solamente podremos detectar problemas que ya se vean a simple
vista desde una vista aérea, por ejemplo: zonas con poca vegetación,
daños en los cultivos, detectar zonas de encharcamiento, etc.
El sensor de una cámara digital es una auténtica obra de ingeniería.
Está formado por millones de celdas fotosensibles, cada una de ellas
de tamaño microscópico. Cuando hablamos de megapíxeles (Mpx) se
corresponde con los millones de píxeles (celdas) que forman parte del
sensor de nuestra cámara.
Cuando se toma una foto, cada celda del sensor analiza la luz que le
llega a ese punto: una pequeñísima parte de la imagen de la escena
que se quiere fotografiar. Cada celda incluye material fotosensible que
convierte la luz en electricidad.
Las celdas fotosensibles sólo pueden detectar la intensidad de la luz
(número de fotones a lo largo de un determinado tiempo), no el color.
Los sensores incluyen filtros ópticos (filtros RGB) que descomponen
la luz en tres componentes: rojo, verde y azul. En la mayoría de los
sensores se utiliza una distribución de filtros que sigue un patrón o
mosaico de Bayer, de tal forma que unas celdas reciben sólo la luz
correspondiente a la componente roja, otras sólo la componente azul
y otras sólo la componente verde.
Cada vez que se pulsa el disparador de la cámara para hacer una foto
se abre el obturador, y este deja pasar fotones que llegan al fotodiodo.
Este los va convirtiendo en electrones, que se acumulan en un
pequeño depósito (condensador). Cuando se cierra el obturador de la
cámara (deja de pasar luz) y cada celda del sensor tendrá un
determinado nivel de electrones almacenados en su depósito. El
número de electrones es proporcional a la cantidad de fotones que ha
recibido ese trocito de la imagen. Si una celda no tiene electrones
querrá decir que no ha recibido ningún fotón (zona oscura de la
imagen). Si una celda tiene su depósito lleno de electrones se
corresponderá con una zona blanca de la imagen (zona muy brillante).
La electrónica de la cámara se encargará de leer una por una todas
las celdas del sensor.
Actualmente la mayoría de los sensores de las cámaras RGB están
basados en tecnología CMOS (complementary metal-oxide-
Semiconductor). El método tradicional de fabricación consiste en hacer
‘crecer’ la circuitería hacia arriba sobre el sustrato de silicio, y sobre
esta estructura electrónica se coloca el filtro RGB y la estructura de
micro-lentes. La parte electrónica ocupa una superficie muy pequeña
pero incluso así, parte de la luz se refleja o se absorbe en estas capas y
no llega al material fotosensible.
Los sensores BSI (back-side illuminated sensor) se basan en un
método de fabricación diferente: toda la circuitería y estructura CMOS
va colocada en la parte inferior del material fotosensible. Esta estructura
consigue una mejora apreciable de rendimiento, ya que no se pierden
fotones en las capas superiores. Este método de fabricación es más
caro, y hasta ahora sólo se aplicaba a sensores de pequeño tamaño,
pero a medida que se abaratan los costes va estando disponible en los
sensores más grandes.
Existen otro tipo de radiaciones que van más allá del RGB y que son de
mucha importancia para el sector forestal y agrícola de precisión. Para
poder ver este tipo de radiaciones (el ojo humano es incapaz de verlas)
necesitamos un sensor multiespectral. Con este tipo de cámaras vamos
a ser capaces de captar el red edge (0,68 a 0,75 micras) y el infrarrojo
cercano (0,75 a 1,7 micras) que son las bandas de más interés para el
sector forestal/agrícola.
A partir de las imágenes multiespectrales que captan este tipo de
sensores se pueden calcular diferentes índices de vegetación que nos
indican la salud y el bienestar de la vegetación.
El índice más conocido es el NDVI (normalized difference vegetación
index) mediante el cual podremos calcular el vigor de la planta, es decir,
su estado metabólico. Pero hay muchos otros índices que son de interés:
GNVDI, RVI, GVI, NGRDI, RG, SAVI, etc.
ESPECTRO ELECTROMAGNÉTICO.
FUENTE: CIENTEC.
DIFERENCIA CÁMARA RGB Y NDVI.
FUENTE: DJI.
Es cierto que también existen otro tipo de cámaras para drones, como
por ejemplo las cámaras termográficas, que también son de interés
para el sector forestal y agrícola. Por ejemplo, a través de ellas los
ingenieros pueden detectar situaciones de estrés hídrico. En otros
sectores se pueden emplear en control de plantas fotovoltaicas,
centrales térmicas, eficiencia energética, etc.
ESTRÉS HÍDRICO. PANEL SOLAR.
FUENTE: DRONE BY DRONE. FUENTE: CARLOTRON SOLAR.
Para cartografiar un terreno con un UAS, también se necesita conocer
la distancia de muestreo del terreno, o GSD (ground sample
distance) para abreviar. Calcular la GSD es esencial para determinar la
escala del proyecto cartográfico y garantizar resultados fiables. Sin
ella, se corre el riesgo de recoger datos inexactos o de tener un mapa
que no sea útil. Tanto si el proyecto es para determinar los límites
exactos de un terreno como para cartografiar el caudal de un río o
crear un modelo tridimensional de una nueva urbanización, la GSD es
una métrica de la que no se puede prescindir.
Los mapas de drones, como cualquier imagen digital, son
esencialmente combinaciones de pequeños cuadrados de un solo
color, llamados muestras. En este caso, una muestra equivale a un
solo píxel. La GSD describe la distancia entre dos centros de píxeles
consecutivos. La GSD es un cálculo importante tanto para la
fotografía aérea como para la fotogrametría, que es una técnica muy
utilizada para crear mapas topográficos en 3D.
Entender el tamaño de los píxeles en una imagen aérea calculando el
punto medio de los píxeles consecutivos es necesario para
comprender la escala completa de un mapa y tomar decisiones
basadas en información clara. Acertar con la GSD es primordial. Un
error de un centímetro o menos puede parecer menor. Sin embargo,
si el error se extrapola a cientos de miles de píxeles, creará un grave
desajuste entre su mapa y la realidad, haciendo que las mediciones
sean casi imposibles. Para ir sobre seguro, los topógrafos utilizan
siempre el valor más bajo posible al calcular la GSD.
GSD.
FUENTE: DJI.
Otro aspecto a tener en cuenta para mapeo es el tipo de obturador
que tiene la cámara del UAS.
Las cámaras con obturador de persiana enrollable (rolling shutter)
toman fotografías leyendo la imagen línea por línea, como se lee una
página de arriba a abajo. Esto puede hacer que la imagen de salida
parezca distorsionada si las cosas se mueven demasiado rápido
durante la captura.
Las cámaras con obturador global (global shutter), a diferencia de las
cámaras con obturador enrollable, capturan una escena de una sola
vez, lo que significa que leen la imagen de una vez en lugar de
hacerlo línea por línea.
Este mecanismo garantiza que la imagen de salida esté libre de
distorsiones o artefactos. Se prefiere una cámara con obturador
global en aplicaciones donde el objeto o el dispositivo de visión
integrado se mueven rápidamente.
A modo de ejemplo, un dron agrícola utilizado para capturar
imágenes de tierras de cultivo para el seguimiento de cultivos,
puede volar a una velocidad entre los 30 y 100 km/h, por tanto, la
captura de la imagen debe realizarse en un abrir y cerrar de ojos.
Una cámara con obturador global cambia las reglas del juego en
este escenario, ya que puede leer toda la escena al mismo tiempo.
La cámara suele estar instalada en el extremo inferior del dron
mirando hacia abajo para obtener una vista completa de las tierras
de cultivo. En algunos casos para cubrir todo el campo de visión, es
posible que sea necesario utilizar varias cámaras. El uso de un
sistema multicámara también puede ayudar a evitar la distorsión o
el viñeteado de la lente.
En términos generales, la cámara con obturador de persiana
enrollable es buena cuando se necesita bajo costo, alta resolución y
alta velocidad de fotogramas, mientras que la persiana global es
buena para objetos que se mueven rápidamente y aplicaciones de
visión artificial.
ROLLING SHUTTER VS GLOBAL SHUTTER.
FUENTE: ARDUCAM.
El desenfoque de movimiento (motion blur) se produce cuando la
imagen que se está grabando cambia durante la grabación de una
sola exposición, debido a un movimiento rápido o una exposición
prolongada. Este efecto se puede producir por una velocidad lenta de
obturación de la cámara, y no tiene nada que ver con el método de
captura.
MOTION BLUR, ROLLING SHUTTER & GLOBAL SHUTTER.
FUENTE: ARDUCAM.
También es muy importante el ángulo de la cámara. Si se quiere
maximizar el efecto estereoscópico 3D de la escena es necesario
combinar fotografías con ángulos de 90º y repetir la misma ruta con
fotografías de 45º, que añadirán altura más fidedigna que la vista
cenital, también se pueden utilizar de 75º si no se quieren combinar
dos tipos de ángulos de la visual. En el caso de 75º da mejores
resultados que en fotografías de 90º exclusivos, pero no da tan
buenos resultados como la combinación de fotografías de 90º
cenitales, y de 45º.
INCLINACIÓN CÁMARA.
FUENTE: AREADRON.
Con la Fotogrametría se pueden obtener nubes puntos, modelos
dígitales del terreno (MDT), modelos digiltales de elevaciones (MDE),
modelos digitales de superficies (MDS), Ortomosaicos, etc.
Una nube de puntos es una colección de puntos de datos mapeados
en tres dimensiones. Cada punto tiene sus propios valores X, Y y Z
en función de su posición en el espacio. Algunas nubes de puntos
pueden tener una resolución excepcionalmente alta, con cientos de
puntos individuales por metro cuadrado, para mostrar exactamente lo
que hay en un espacio 3D.
NUBE DE PUNTOS.
FUENTE: PIX4D.
Uno de los elementos básicos de cualquier representación digital de la
superficie terrestre son los Modelos Digitales de Terreno (MDT).
Constituyen la base para un gran número de aplicaciones en ciencias de
la Tierra, ambientales e ingenierías de diverso tipo. Se denomina MDT al
conjunto de capas (generalmente ráster) que representan distintas
características de la superficie terrestre derivadas de una capa de
elevaciones a la que se denomina Modelo Digital de Elevaciones (MDE).
Los archivos vectoriales son aquellos cuya naturaleza es de tipo
vectorial. Los elementos geográficos se representan a partir de tres
estructuras básicas: puntos, líneas y polígonos. Los archivos ráster se
caracterizan por la existencia de una red formada por celdas o
cuadrículas, más comúnmente conocidas como píxel, en la que cada
cuadrícula o píxel presenta una cualidad o propiedad espacial (color,
altitud, etc).
Mientras en el modelo vectorial las líneas y puntos son los elementos
principales del sistema, en el modelo ráster, es la celda. La principal
diferencia con respecto a un archivo vectorial es que el archivo ráster
almacena píxel, mientras que en el vectorial almacena coordenadas de
los vértices de cada elemento geométrico.
ARCHIVO VECTORIAL.
FUENTE: ESRI.
ARCHIVO RÁSTER.
FUENTE: ESRI.
El trabajo con un MDT incluye las siguientes fases que no son
necesariamente consecutivas en el tiempo:
• Generación del MDE.
• Manipulación del MDE para obtener otras capas del MDT
(pendiente, orientación, curvatura, etc.).
• Visualización en 2 D o mediante levantamientos 3D de todas
las capas para localizar errores.
• Análisis del MDT (estadístico, morfométrico, etc.)
• Aplicación. Por ejemplo, como variable independiente en un
modelo de regresión que haga una estimación de la
temperatura a partir de la altitud.
Una de las razones por las que estas fases se solapan es que en
muchos casos la manipulación, visualización y análisis van a permitir
descubrir errores en el MDE. De este modo se vuelve a la primera fase
y se genera un MDE mejorado.
MDE.
FUENTE: RESEARCHGATE.
Un modelo digital de superficies (MDS) representa todos y cada uno
de los elementos del terreno. El suelo, los árboles, las
construcciones, etc. Es decir, el MDS nos da las cotas de cada
elemento. Los MDS son muy útiles en modelado 3D para proyectos
de ingeniería, urbanismo o estudios ambientales. Actualmente estos
modelos son obtenidos con tecnologías de teledetección LIDAR.
MDS.
FUENTE: IGN.
Una imagen de ortomosaico, también conocida como ortoimagen,
ortofoto u ortofotografía, es una imagen aérea de alta resolución
tomada por un UAV. Cuando se unen con un software especializado
mediante un proceso llamado ortorectificación, estas imágenes pueden
utilizarse para crear un mapa muy detallado y sin distorsiones, y
mejorar la visibilidad de los detalles que pueden no ser visibles
utilizando técnicas de fotogrametría más comunes. La ortorectificación
elimina la perspectiva de cada imagen individual para crear
consistencia en todo el mapa, manteniendo el mismo nivel de detalle
de la imagen original.
ORTOMOSAICO.
FUENTE: DJI.
Existen dos aspectos que suelen ser el origen de problemas a la hora
de realizar fotogrametría con drones:
[Link] solape entre imágenes.
[Link] localización / orientación de las fotos.
Elaborar un buen plan de vuelo será fundamental. Entre otros, alguno
de los planificadores de vuelo más importantes son los siguientes:
• DJI Ground Station Pro.
• Pix4d Capture.
• UGCS.
• Agisoft Metashape.
• Mission Planner.
• Litchi.
• DroneDeploy.
• Qgroundcontrol.
• Dronelink.
Dentro de las aplicaciones de topografía empleando fotogrametría con
UAS está la obtención de curvas de nivel. Una curva de nivel es una
línea que conecta varios puntos de la misma altura.
Mediante un MDS podemos representar curvas a través de un
ortomosaico. Cuando se combinan las distintas curvas ayudan a
verificar los niveles de altitud de un terreno o cualquier irregularidad
en su superficie.
El objetivo del contorno es proporcionar información sobre la altitud y
las irregularidades de un terreno con exactitud y precisión. A través de
estos datos es posible realizar una serie de análisis relevantes
principalmente en topografía e ingeniería.
En ingeniería y construcción civil, por ejemplo, se utilizan
principalmente en las etapas de licitación y planificación previa, lo que
garantiza una buena comprensión del área de interés. Con las curvas
de nivel es posible identificar: puntos de drenaje; cambios en la
elevación del terreno; mejores ubicaciones para construir, excavar y
almacenar materiales.
MDS CON CURVAS DE NIVEL.
FUENTE: MAPPA.
CURVAS DE NIVEL SOBRE ORTOFOTO.
FUENTE: MAPPA.
MISSION PLANNER.
FUENTE: ARDUPILOT.
BIBLIOGRAFÍA.
AREADRON (26/11/2023). Página web. [Link]
AERIAL INSIGHTS (25/11/2023). Página web. [Link]
[Link]/
ARDUPILOT (25/11/2023). Página web. [Link]
ARDUCAM (26/11/2023). Página web. [Link]
CARLOTRON SOLAR (26/11/2023). Página web.
[Link]
CIENTEC (26/11/2023). Página web. [Link]
DJI (26/11/2023). Página web. [Link]
DRONE BY DRONE (26/11/2023). Página web.
[Link]
ESRI (26/11/2023). Página Web. [Link]
IGN (23/11/2023). Página Web del Instituto Geográfico Nacional.
[Link]
MAPPA (27/11/2023). Página web. [Link]
mappa-es/
PIX4D (25/11/2023). Página web. [Link]
QUÉCÁMARA (26/11/2023). Página web.
[Link]
RESEARCHGATE (26/11/2023). Página web.
[Link]
Santamaría J. y Sanz T. (2011). Fundamentos de
Fotogrametría. Universidad de la Rioja. ISBN 978-84-694-0865-0
UMILES GROUP (23/11/2023). Página web. [Link]
XATAKA (26/11/2023). Página web. [Link]