Guía Completa de Teledetección
Guía Completa de Teledetección
Definición de teledetección
Tipos de datos e imágenes de teledetección
Resoluciones
Aplicaciones de la teledetección
Principios físicos
Reseñas históricas
El espectro electromagnético
Principales bandas del espectro
Algunas definiciones
Algunas magnitudes radiométricas
Definiciones de tipo de superficies
Leyes de la radiación electromagnética
Otros factores importantes
Dominio óptico
Comportamiento espectral teórico para los tres elementos
fundamentales del paisaje en dominio óptico
Dominio del infrarrojo térmico
Comportamiento espectral teórico para los tres elementos
fundamentales del paisaje en dominio infrarrojo térmico
Dominio de las microondas
Dominio del radio
Interacción de la atmósfera con la radiacción
electromagnética
Tipos de sensores
Productos disponibles en el mercado
Sistema RADAR
Ventajas del sistema radar
Características del sistema radar
Aplicaciones del sistema radar
Técnicas estadísticas elementales
Técnicas estadísticas multidimensionales
Primeros tratamientos en la imagen
Correcciones geométricas
Procedimientos de remuestreo
Clasificación
Fase de entrenamiento
Fase de asignación
Análisis subpíxel
Filtrado de imágenes clasificadas
DEFINICIÓN DE TELEDETECCIÓN
El término teledetección es una traducción del inglés 'remote sensing', y se refiere no sólo a
la captación de datos desde el aire o desde el espacio sino también a su posterior
tratamiento. Una definición más formal la describe como la técnica de adquisición y
posterior tratamiento de datos de la superficie terrestre desde sensores instalados en
plataformas espaciales, en virtud de la interacción electromagnética existente entre la tierra
y el sensor, siendo la fuente de radiación bien proveniente del sol (teledetección pasiva) o
del propio sensor (teledetección activa).
Este flujo procede del objeto por reflexión de la luz solar (color de los objetos), por
emisión propia o también podría tratarse de energía emitida por el propio sensor y reflejada
por el objeto, en cuyo caso la teledetección recibe el nombre de ACTIVA, por oposición a
teledetección PASIVA, cuando la fuente energética es el sol.
El mundo puede ser tratado como un gran sistema. Cada disciplina científica construye su
propio modelo abstracto de 'el mundo'. Para medir el estado del mundo, son necesarias
medidas de las variables de estado. Por razones prácticas de rapidez y sencillez, es mejor
extraer datos de mediciones sin contacto físico. Este es el campo de la adquisición de datos
por teledetección.
RESOLUCIÓN ESPECTRAL
Se refiere al número de bandas y a la anchura espectral de esas bandas que un sensor
puede detectar. [Link]. la banda 1 del TM recoge la energía entre 0.45 y 0.52 mm. Es
una resolución espectral más fina que la de la banda pancromática del SPOT, que
está entre 0.51 y 0.73 mm.
RESOLUCIÓN ESPACIAL
Es una medida del objeto más pequeño que puede ser resuelto por el sensor, o el
área en la superficie que recoge cada píxel.
RESOLUCIÓN RADIOMÉTRICA
Se refiere al rango dinámico, o número de posibles valores que puede tomar cada
dato. [Link]. con 8 bits, el rango de valores va de 0 a 255.
RESOLUCIÓN TEMPORAL
Se refiere a cada cuanto tiempo recoge el sensor una imagen de un área particular.
[Link]. el satélite Landsat puede ver el mismo área del globo cada 16 días.
APLICACIONES DE LA TELEDETECCIÓN
La teledetección se ha aplicado con bastante éxito y sobre todo, con la certeza de que será
una tecnología importantísima a corto plazo, en áreas y aplicaciones como:
Metereología
Análisis de masas nubosas y su evolución
Modelización climática a diferentes escalas
Predicción de desastres naturales de origen climático
Agricultura y Bosques
Discriminación de tipos de vegetación: tipos de cultivos, tipos de maderas...
Determinación del vigor de la vegetación
Determinación del rango de interpretabilidad y biomasa
Medición de extensión de cultivos y maderas por especies
Clasificación de usos del suelo
Cartografía y actualización de mapas
Categorización de la capacidad de la tierra
Separación de categorías urbana y rural
Planificación regional
Cartografía de redes de transporte
Cartografía de límites tierra-agua
Cartografía de fracturas
Geología
Reconocimiento de tipos de roca
Cartografía de unidades geológicas principales
Revisión de mapas geológicos
Delineación de rocas y suelos no consolidados
Cartografía de intrusiones ígneas
Cartografía de depósitos de superficie volcánica reciente
Cartografía de terrenos
Búsqueda de guías de superficie para mineralización
Determinación de estructuras regionales
Cartografías lineales
Recursos Hidrográficos
Determinación de límites, áreas y volúmenes de superficies acuáticas
Cartografía de inundaciones
Determinación del área y límites de zonas nevadas
Medida de rasgos glaciales
Medida de modelos de sedimentación y turbidez
Determinación de la profundidad del agua
Delineación de campos irrigados
Inventario de lagos
Detección de zonas de alteraciones hidrotermales
Oceanografía y Recursos Marítimos
Detección de organismos marinos vivos
Determinación de modelos de turbidez y circulación
Cartografía térmica de la superficie del mar
Cartografía de cambios de orillas
Cartografía de orillas y áreas superficiales
Cartografía de hielos para navegación
Estudio de mareas y olas
Medio Ambiente
Control de superficies mineras
Cartografía y control de polución de aguas
Detección de polución del aire y sus efectos
Determinación de efectos de desastres naturales
Control medioambiental de actividades humanas (eutrofización de aguas, pérdida de
hojas, etc.)
Seguimiento de incendios forestales y sus efectos
Estimación de modelos de escorrentía y erosión
PRINCIPIOS FÍSICOS
RESEÑAS HISTÓRICAS
Históricamente, las propiedades de la radiación electromagnética se han explicado por dos
teorías aparentemente contrapuestas:
Teoría ondulatoria
Representada sobre todo por científicos como Huygens o Maxwel. Propone que la
naturaleza de la luz es ondulatoria y se transmite siguiendo un modelo armónico y
continuo, a la velocidad de 3x108 m/sg. Está formada por dos campos de fuerzas
ortogonales entre sí: eléctrico y magnético. Las características de esta onda pueden
describirse con dos parámetros:
- longitud de onda (l): distancia entre dos picos sucesivos de una onda,
entre dos puntos con igual fase.
- frecuencia (F): número de ciclos que pasan por un punto fijo por
unidad de
tiempo.
(c=3108m/sg)
Teoría corpuscular.
Fueron sus principales defensores Planck y Einstein. Propugnaban que la luz es una
sucesión de unidades discretas de energía (fotones) con masa igual a cero. Son
paquetes discretos de energía. La cantidad de energía transportada por un fotón es
Q=hF. Esto significa que a mayor frecuencia, mayor será la energía transportada y
viceversa; por eso será más difícil detectar radiación de frecuencias bajas, porque
conllevan menor cantidad de energía.
EL ESPECTRO ELECTROMAGNÉTICO
Desde el punto de vista de la teledetección destacan una serie de bandas como las más
utilizadas dada la tecnología actual. Estas bandas se resumen a continuación
Espectro visible (0.4 - 0.7 mm.). Es la única radiación electromagnética perceptible
por el ojo humano (de ahí su nombre). Coincide con la longitud de onda donde es
máxima la radiación solar. Podemos localizar los distintos colores en las longitudes:
Azul: 0.4 - 0.5 mm., Verde: 0.5 - 0.6 mm., Rojo: 0.6 - 0.7 mm.
Infrarrojo próximo (0.7 - 1.3 mm.). Banda importante para diferenciar masa
vegetales y concentraciones de humedad.
ALGUNAS DEFINICIONES
Otras magnitudes (adimensionales). Se expresan en tanto por ciento o tanto por uno.
- Emisividad (e). Relación entre la emitancia de una superficie (M) y la que ofrecería un
emisor perfecto, denominado cuerpo negro, a la misma temperatura (Mn).
- Reflectividad (r). Relación entre el flujo incidente y reflejado en una superficie.
- Absortividad (a). Relación entre el flujo incidente y el que absorbe una superficie.
- Transmisividad (t). Relación entre el flujo incidente y el transmitido por una superficie.
En realidad todas las superficies son una mezcla de las dos, además es función de la
longitud de onda. Si ésta es pequeña, las rugosidades tienden a difundir mucho más la
energía incidente que si son longitudes de onda mayores, con comportamiento más
especular.
Cualquier objeto con temperatura por encima del cero absoluto (-273 ºC) radia energía.
Para distintas temperaturas, varían dos aspectos: se incrementa la energía total radiada, y
por otro lado se amplía el rango del espectro en el que radia (con el consiguiente
desplazamiento de la longitud de onda de máxima radiación). A partir de 2000 ºK un cuerpo
empieza a emitir radiación visible que, empezando por el rojo, si sigue subiendo la
temperatura, termina en el blanco. Existen curvas calculadas en laboratorio, llamadas
curvas de emitancia de un cuerpo negro a distintas temperaturas. Con este gráfico se puede
conocer el comportamiento espectral de un cuerpo, conocida su temperatura y emisividad
(grado de similitud con un cuerpo negro).
Para una misma superficie, el flujo de energía recibido por el sensor no sólo depende de la
reflectividad, sino también de otros factores:
-Ángulo de iluminación solar (depende de la fecha del año y la hora de medición)
- Relieve (distintas pendientes)
- Influencia de la atmósfera (dispersión y absorción)
-Variaciones medioambientales de la superficie (asociación con otras cubiertas,
homogeneidad).
DOMINIO ÓPTICO
Ya hemos visto antes que esta banda constituye el grupo de longitudes de onda
directamente dependientes de la luz solar. Es la banda de mayor interés para la observación
remota de la superficie terrestre.
El que esta proporción rl+al+tl varíe con la longitud de onda, es interesante para poder
distinguir diversas zonas conociendo precisamente esa variación de proporciones. Las
divergencias espectrales entre superficies, permitirán distinguirlas (especialmente los
referidos a reflectividad, que suponen la principal fuente de información en teledetección),
una vez hayan sido corregidos de los efectos causados por la atmósfera y otras anomalías.
En el espectro visible, esta divergencia se manifiesta en lo que llamamos 'color'.
Teniendo en cuenta la componente de reflectividad (rl), que es lo que podemos medir con el
sensor, podremos saber qué tipo de superficie es la que da esa firma espectral.
Vegetación vigorosa
Suelos
Agua
Absorbe o transmite la mayor parte de la radiación visible que recibe. Por tanto presentará
una curva espectral plana, baja y de sentido descendente. De todas formas, en aguas poco
profundas, la reflectividad aumenta. Los factores que afectan a este comportamiento son:
profundidad, contenido en materias en suspensión (clorofila, arcillas y nutrientes) y
rugosidad de la superficie (factor, éste último extremadamente importante).
Por su parte, la nieve ofrece un comportamiento completamente diferente al del agua, con
una reflectividad elevada en las bandas visibles, reduciéndose drásticamente en el infrarrojo
cercano.
DOMINIO DEL INFRARROJO TÉRMICO
Vegetación
Presenta unas propiedades en general bastante complejas. Como absorbe energía solar
durante el día, y la devuelve durante la noche, está más caliente que el aire que la rodea
durante la noche, y más fría que su entorno durante el día.
Suelos y agua
El factor más destacado es su contenido de humedad. A mayor humedad, más frío estará
durante el día y más cálido durante la noche, con respecto a los suelos secos. El agua posee
la mayor inercia térmica debido a su alta conductividad. Es más difícil que cambie su
temperatura.
Como la emitancia de los objetos es muy baja en esta banda, es muy difícil detectar flujo.
Los aparatos que lo hacen se llaman radiómetros de micro-ondas. Por lo tanto, se
construyen sensores para esta banda que emiten su propio haz de micro-ondas, del que
posteriormente recogerán su reflexión (teledetección activa).
En este tipo de sistemas, tiene mucha importancia la rugosidad de la superficie para cómo
sea la señal de retorno. [Link]. los suelos rugosos y secos tendrán un mayor coeficiente de
retro-difusión, y por tanto, aparecerán en tonos más claros en las imágenes radar.
DOMINIO DE RADIO
Más allá de la región de las microondas, se encuentra esta zona de longitudes de onda muy
grandes. Se usa en teledetección, pero no para detectar fenómenos de la superficie terrestre
sino para transmitir datos y comandos entre el satélite y la base terrestre. Si no hay enlace
directo con tierra, o bien se graba la lectura del sensor en cinta, para su posterior
transmisión, o bien se utiliza una red de satélites de comunicaciones intermediaria.
Hay que tener en cuenta un cuarto elemento aparte del sensor, el objeto y el flujo
electromagnético: la atmósfera que hay entre medio. La energía solar incidente en
nuestro planeta está cifrada en 340 Wm--2 (vatios/m2). De toda ella sólo 173 llegan a la
superficie terrestre, este factor de reducción o ALVEDO habrá de ser tenido en cuenta a la
hora de interpretar la respuesta de los objetos. En el trayecto seguido por la radiacción
electromagnética ésta sufrirá tres fenómenos principales: absorción, dispersión, emisión
Absorción
Proceso por el cual las moléculas y partículas de la atmósfera absorben la energía radiante
(65 Wm--2 ) y la transforman en energía interna que posteriormente será emitida en el
infrarrojo térmico. La atmósfera reduce así la observación espacial a ciertas bandas
concretas del espectro, llamadas ventanas atmosféricas. Pero si lo que se pretende es
estudiar la atmósfera (satélites meteorológicos). los sensores se diseñarán para captar la
radiación precisamente en aquellos lugares donde la absorción atmosférica sea más alta.
Dispersión
Emisión
Como cualquier cuerpo con temperatura mayor que -273 ºK, emite su propia radiación, que
lógicamente tiene mayor importancia en el infrarrojo térmico. Por tanto, su efecto es
fundamental si pretendemos trabajar en dicha banda del infrarrojo térmico.
Tipos de sensores
Otro método de clasificación los diferencia en función del satélite o plataforma sobre la que
van instalados:
- satélites de órbita geoestacionária: "vuelan" a 300.000 kilómetros sobre la Tierra y giran
con el mismo periodo de revolución que ella, de forma que el sensor está continuamente
tomando imágenes (electrónmicas, no fotográficas) del mismo punto.
- satélites de órbitas polares: orbitan a 400 km. de distancia, su tamaño de pixel será, por
tanto, más reducido, y vuelven a tomar la misma escena cada cierto periodo de tiempo.
Los productos más clásicos son las imágenes LANDSAT (TM y MSS) y las SPOT,
las primeras han sido desarrolladas por la Agencia Espacial Norteamericana, mientras que
el proyecto SPOT está a cargo del CNES francés en colaboración con Bélgica y Suiza. A
continuación se dan algunas características de cada una de ellas:
Landsat MSS. El sensor MSS va instalado sobre satélites Landsat. El campo total
de visión del sensor abarca 11,56 grados, lo que supone cubrir una franja de terreno de 185
km. Una escena de erste sensor contiene 2.340 líneas y 3.240 columnas, representando cada
pixel superficies de 57*79 m. Registra información en cuatro bandas del espectro:
- banda 4: 0,5-0,6 mm: verde
- banda 5: 0,6-0,7 mm: rojo
- banda 6: 0,7-0,8 mm: infrarojo próximo
- banda 7: 0,8-1,1 mm: infrarojo próximo
Tiene un precio aproximado de 35.000 pts
Landsat TM. El sensor TM (Thematic Mapper) es el sucesor en la serie Landsat del MSS.
Supone grandes mejoras en las resoluciones espacial, espectral y radiométrica: de 79 a 39
metros, de 4 a 7 bandas y de 6 a 8 bits (actualmente las imágenes MSS también se codifican
en 8 bits). La resolución espectral del sensor es:
- banda 1: 0,45-0,52 mm: azul
- banda 2: 0,52-0,60 mm: verde
- banda 3: 0,63-0,69 mm: rojo
- banda 4: 0,76-0,90 mm: infrarojo próximo
- banda 5: 1,55-1,75 mm: infrarojo medio
- banda 6: 10,40-12,50 mm: infrarojo térmico
- banda 7: 2,08-2,35 mm: infrarojo medio
La banda 6 tiene una resolución espacial de 120 m. Tiene un precio aproximado de 690.000
pts
Todos estos productos varían su precio en función de las correcciones a las que
hayan sido sometidos previamente a la distribución del producto. Las correcciones
sistemáticas se clasifican en radiométricas y geométricas, corrigiendo las primeras entre
otros, los efectos producidos por la mala calibración de los sensores y las segundas las
debidas a la esfericidad y la rotación terrestre. Por ejemplo, en los satélites Spot y Landsat
estos niveles de procesamiento se materializan en :
SPOT
Nivel 1A: Para este nivel de procesamiento no se lleva a cabo ninguna corrección
geométrica. En radiometría, sólo se corrigen los efectos instrumentales mediante un modelo
lineal destinado a igualar la sensibilidad de los detectores. Estas correcciones mínimas se
aplican, de forma sistemática, a todos los datos Spot. La imagen no sufre ningún
remuestreo, siendo de 6000x6000 píxeles en pancromático y 3000x3000 en multibanda.
Precio aproximado 320.000 pts.
Nivel 1B: Se efectúan las mismas correcciones radiométricas que para el nivel 1A. Las
correcciones geométricas se aplican a los efectos sistemáticos: efecto panorámico, efecto de
rotación y de curvatura de la tierra, variación de altitud del satélite con respecto al elipsoide
de referencia. Las correcciones geométricas sirven para corregir el efecto panorámico.
Nivel 2: Las correcciones radiométricas son las del nivel 1A. Las correcciones
geométricas, bidimensionales, se hacen conforme a una ley de deformación de la imagen
establecida a partir de un modelo nacido de los datos auxiliares de altitud. Esta ley no
recurre a un modelo numérico de terreno: los efectos de paralaje no se corrigen, de modo
que queda preservada la capacidadde visión estereoscópica SPOT.
Nivel 2B: Al realizarse las correcciones geométricas con la ayuda de puntos de apoyo, el
error cuarático medio es de 30 m. Para la realización del nivel 2B, es preciso poder
disponer de la cartografía topográfica. De no existir se pueden tomar con GPS.
Nivel S: Se realizan las mismas correcciones radiométricas que para el nivel 1A. Las
correcciones geométricas son idénticas a las aplicadas al nivel 2. Se llevan a cabo a partir
de puntos de control tomados en la imagen de referencia. La imagen se somete a un
remuestreo.
LANDSAT TM
GEOCODIFICADAS:
- Sin puntos de control terrestres. 918.000 pts
- Con puntos de control terrestres. 1.006.850 pts
- Con puntos y modelos digitales del terreno. 1.130.500 pts
Hay otros sistemas de exploración espacial del territorio, aunque son de menor difusión o
de aplicaciones más específicas: NOAA (el sensor que lleva incorporado es el AVHRR de
resolución 1 km. y cinco canales de observación), METEOSAT (satélite geoestacionario
con un tamaño de píxel de 5 km), ERS (es un satélite europeo en el que hay participación
española. Su resolución espacial es de 30 metros), SEASAT, JERS (plataforma japonesa
híbrida: activa y pasiva), HELIOS, MIR, etc. y los sistemas activos de RADAR (SLAR,
SAR, SEASAT) y LIDAR
Sistema radar
El Radar (RAdio Detection And Rangin) mide el tiempo de retardo y la anchura del
eco reflejado de un pulso de radiación electromagnética.
Un sistema radar consiste en:
- Un Transmisor, genera un pulso de radio y luz de gran potencia con longitudes de
onda entre 1 y 100 cm.
- El Sensor activo, envía pulsos a la antena y retorna el eco al receptor.
- Una Antena, la cuál envía el pulso transmitido a la zona de estudio y recoge
losecos devueltos.
- Un receptor el cual convierte el eco devuelto a código digital numérico.
- Un grabador de datos, el cuál almacena la imagen dato para ser procesada y
visualizada.
Las ventajas de las imágenes radar frente a otros sistemas ópticos (por ejemplo,
Landsat o Spot) incluyen:
- Debido a que la energía de las microondas no es afectada por las cubiertas nubosas el
sistema radar de obtención de imágenes es capaz de obtener una alta calidad en zonas
tradicionalmente nubosas como los polos o los trópicos.
- En regiones muy áridas la energía de las microondas puede penetrar en la superficie hasta
una profundidad considerable, dándonos medidas únicas de las propiedades de la cubierta
terrestre.
- En regiones con vegetación muy abundante, el sistema radar puede penetrar en la cubierta
y en la imagen resultado podrá observarse claramente la superficie situada bajo la
vegetación.
- El sistema radar utiliza la interacción de las microondas con la superficie de estudio y su
posterior reflexión y difusión. Esto nos permite deducir información sobre la naturaleza de
los objetos que no hubiese sido posible obtener utilizando otros métodos convencionales.
SAR por lo tanto, complementa otro tipo de datos como por ejemplo los infrarrojos.
Moteado
La imagen aparece con un "sarpullido" causado por una combinación de la dispersion de
muchas pequeñas dispersiones dentro de un píxel. Una resolucion mas alta puede no
producir este efecto. El moteado puede desaparcer al hacer la media entre diferentes vistas,
pero esto reduce la resolución de la imagen
Ambigüedades
Las ambigüedades son irreales, particularmente las aparecidas en los bordes de las masas de
agua. Esto es debido a las reflexiones procedentes de otros pulsos.
Superposicion de niveles
En un caso extremo, la cima de la montaña aparece más cercana que la parte baja. Esto
puede mejorarse incrementando el ángulo del punto de vista.
Sombra radar
Las pendientes traseras de las montañas aparecen negras. Esto puede ser mejorado usando
datos de otra pasada.
Distorsión radiométrica
La imagen puede aparecer más luminosa en el centro. Esto también puede causar bandeo,
todo debido al tipo de antena de radar.
Interferencias
Formas lineales o paralelogramos brillantes a lo largo de la imagen pueden ser causadas por
otros emisores radar operando en la misma frecuencia dentro del area de trabajo.
Con el objeto de realizar una serie de estudios previos y de sondeo con las bandas
obtenidas, serán de utilidad una serie de técnicas estadísticas ya conocidas, que aquí se
mencionarán sólo a modo descriptivo:
Habrá que conocer en qué medida siguen nuestros datos las diversas hipótesis hechas en los
modelos matemáticos que se apliquen después. Un ejemplo claro es la hipótesis de
normalidad de los datos de cara a proceder a realizar una clasificación supervisada por el
método de máxima probabilidad. Será útil pues, establecer algún tipo de test de normalidad.
También será importante eliminar valores aberrantes o anómalos. La obtención de
estadísticas elementales que sinteticen y describan las diferentes bandas espectrales será la
primera operación a realizar.
Será de gran utilidad el cálculo de las medidas de centralidad (media, mediana y moda) y
de dispersión (varianza, desviación típica) de las distintas bandas espectrales.
Otra técnica de gran importancia consiste en realizar cocientes entre bandas. Esto
proporciona una información nueva que puede ser muy relevante para la detección de
ciertos fenómenos, como por ejemplo la separación de terrenos desnudos y zonas arboladas.
La imagen analizada estará siempre representada, desde un punto de vista estadístico, por
una nube de puntos en un espacio multidimensional. Dicho espacio de representación puede
ser o bien el espacio original constituido por las bandas espectrales, o bien un espacio
transformado constituido por combinaciones lineales de las bandas.
Los objetivos que se persiguen al generar estos nuevos espacios de representación son los
siguientes:
- Extraer la información básica contenida en el conjunto de las bandas a través de un
pequeño número de factores.
- Reducir el volumen de información a tratar posteriormente al aplicar técnicas de
clasificación automática o reconocimiento de patrones. Esta reducción en el volumen de
información puede disminuir el coste de transmisión de los datos del satélite a la tierra.
- Obtener unas nuevas bandas espectrales que estén intercorreladas (lo cual evitará el
manejo de información redundante) y cuyo contenido de información decrezca rápidamente
de la primera a la última.
- condiciones atmosféricas.
- geometría de la observación. El ángulo de elevación solar (fuente del flujo
energético) y ángulo de obsevación (posición del sensor) respecto a la superficie
terrestre determinan la respuesta que ésta da.
REALCE DE IMÁGENES
Si podemos buscar puntos dentro de la imagen de los que sabemos sus coordenadas
geográficas (bien a partir de un mapa o bien a partir de otra imagen ya rectificada),
podremos calcular una transformación que obtenga la proyección de los datos en un
plano, conforme a un sistema de proyección cartográfico. A esos puntos se les llama
puntos de control (GCP, Ground Control Points).
Con una transformación lineal (de primer orden) sólo podemos hacer tres cosas:
rotar, escalar y trasladar una imagen. Son necesarios 6 coeficientes. Con
transformaciones no lineales (de segundo orden o más) también podremos corregir
las distorsiones internas de la imagen. Serán necesarios 12 coeficientes para
segundo orden, 20 para tercer orden, etc. con los que el número de puntos de control
a buscar será mayor.
Las transformaciones anteriores permiten calcular la posición correcta de cada píxel, pero
esto supone un trasvase de coordenadas, no de NDs. ¿Cómo llenar esa matriz corregida? Lo
normal es que el píxel de la imagen nueva se sitúe entre varios de la original. Tres métodos:
- Vecino más cercano: toma el valor del píxel de la imagen original más cercano a las
coordenadas calculadas. Presenta las ventajas de que es un método rápido y asegura que el
valor del píxel existe en realidad, no es 'inventado', pero la desventaja de que introduce
rasgos no lineales, como fracturas en las líneas rectas. Por otra parte es el único aplicable a
imágenes clasificadas, ya que en ese caso no se puede permitir realizar promedios de los
valores existentes.
- Interpolación bilineal: se interpola el valor de los cuatro píxeles más cercanos al punto
calculado. Da un resultado más suave.
Debido a que el remuestreo puede alterar de alguna forma el contenido real de los datos
proporcionados por el sensor, si se piensa clasificar una imagen, es mejor dejar este proceso
de rectificación geométrica para después de la clasificación. Una imagen sin rectificar es
espectralmente más correcta que una rectificada.
Por último, si la imagen ya está rectificada, para georreferenciarla tan solo hay que guardar
las coordenadas geográficas del píxel superior izquierdo, y el tamaño del píxel, en la
cabecera.
Clasificación
Se proponen también algunos métodos mixtos, ya que el método supervisado puede resultar
a veces demasiado subjetivo y el no supervisado puede carecer de significado físico real.
FASE DE ENTRENAMIENTO
Esta fase, que sólo se efectúa si se trata de una clasificación supervisada, consiste en
seleccionar muestras, en forma de zonas de píxeles concretos, que se asignarán por el
usuario a una clase concreta, basándose en el conocimiento previo que se tiene sobre la
imagen. A partir de los puntos de las zonas de entrenamiento, se extraerán ciertos
parámetros estadísticos. La elección de los parámetros a calcular dependerá del método
concreto de asignación que se vaya a emplear después. Así, el método del paralelepípedo
requiere conocer los valores máximos y mínimos de cada clase en cada banda, mientras que
el de mínima distancia requiere calcular la media en cada banda. El método más elaborado,
el de máxima probabilidad, requiere el cálculo de la media en cada banda y la matriz de
varianza-covarianza de cada clase.
Ni que decir tiene que es fundamental la correcta selección de las muestras, ya que en caso
contrario, las estadísticas no serán las correctas y los resultados pueden ser completamente
erróneos. Por otro lado, la validez de los resultados dependerá de dos factores:
- El grado de fiabilidad de los posibles supuestos previos que se hayan hecho.
- La representatividad de la muestras tomadas
Las suposiciones que se toman como ciertas a priori sobre los datos, dependerán también
del método de asignación empleado. Aquí también, el método más complejo es en el que se
realizan las suposiciones más rígidas. Explicaré qué consideraciones se toman en los
respectivos apartados posteriores.
La representatividad de las muestras indica que los píxeles tomados contienen las distintas
'variedades' que se dan en el rango de valores de cada clase, y además que se toman en las
proporciones adecuadas. Una zona que contiene un tipo de vegetación, pongamos por caso,
coníferas, contendrá una serie de puntos con valores estadísticamente muy correlados (esto
es lo que se llama 'autocorrelación espacial'), mientras que los píxeles de coníferas
correspondientes a otra zona separada, seguramente tendrán una cierta separación espectral
respecto a los primeros, por efecto de la distinta concentración en esa zona, el relieve del
terreno, o el estado de la vegetación. Es por tanto deseable escoger distintas variedades de
una clase por toda la imagen, más que escoger una zona amplia pero correspondiente a un
mismo área.
FASE DE ASIGNACIÓN
Se trata de adscribir cada uno de los píxeles de la imagen a una de las clases previamente
seleccionadas. Existen distintos algoritmos para este propósito:
Paralelepípedo
Es el método que menos cantidad de información requiere a partir de las muestras. Se fija
un área de dominio para cada clase, según sus valores máximo y mínimo (aunque también
se pueden establecer otros límites en función de la centralidad y dispersión de los valores.
Ese área tendrá la forma geométrica de un paralelepípedo, que definirá las regiones en el
espacio n-dimensional. Un píxel pertenece a una clase si entra dentro del paralelepípedo
que la clase define. Si no entra dentro de ninguna clase, queda sin clasificar.
Es un método rápido y simple. Viene bien como primera aproximación. Como desventaja,
puede producir píxeles sin clasificar y paralelepípedos superpuestos. Una forma de
solucionar el caso de que un píxel esté dentro de dos paralelepípedos es asignarlo al
primero de ellos que se haya encontrado pertenencia. En este caso cobra especial
importancia por tanto el orden en el que se verifique la pertenencia a cada clase. Otra
solución propone calcular en caso de incertidumbre la distancia euclídea al centro de cada
paralelepípedo como criterio de asignación.
Mínima Distancia
Se incluye el píxel en aquella categoría que minimiza la distancia entre el píxel y el
centroide de la clase. El centroide de una clase es un vector, cuyas componentes son las
medias aritméticas de los valores de muestra de los píxeles de esa clase en cada banda. Se
emplea la distancia euclidia
Distancia de Mahalanobis
Asume previamente que los histogramas de las clases tienen distribuciones normales. La
forma geométrica de la nube de puntos que representa al conjunto de píxeles pertenecientes
a una clase puede ser descrita por una elipsoide. Dicha forma de elipsoide dependía
directamente de la covarianza entre las distintas variables. La localización, forma y tamaño
de las elipses reflejan la media, varianzas y covarianzas de los datos, y esta idea se puede
trasladar fácilmente a n-dimensiones.
La distancia de Mahalanobis tiene en cuenta la variabilidad de clases. [Link]. clasificando
áreas urbanas puede haber píxeles correctamente clasificados más lejos de la media que en
una clase de agua, donde los valores están todos más agrupados (menor varianza)
Máxima Probabilidad
También asume previamente que los histogramas de las clases tienen distribuciones
normales. Si no es así, mejor usar otro método. Está basado en calcular las probabilidades
de que un píxel pertenezca a cada clase. Se asignará a la clase de mayor probabilidad. Es el
más complejo y que más cálculos realiza pero también el que da los mejores resultados.
Tiene en cuenta la variabilidad de las clases, al igual que la distancia de Mahalanobis.
Por último, es posible también establecer unos umbrales de probabilidad para cada
categoría, de forma que los elementos cuya máxima probabilidad de pertenencia a una clase
sea menor que dicho umbral, queden rechazados, es decir, sin clasificar.
Siempre se puede realizar una clasificación que se adapte a lo que marcamos, pero lo que
intentamos medir es el grado de aproximación con la realidad, no con las muestras que
hemos introducido. Este es por tanto el inconveniente del método ya que es difícil
conseguir esa información de referencia.
La construcción de matrices de confusión en las que las filas representan las clases
verdaderas y las columnas las clases asignadas en el proceso clasificador, dan una medida
de la calidad de la clasificación. Cuanto mayores sean los valores contenidos en la diagonal
principal con respecto a los del resto de la matriz, más fiable será la clasificación realizada.
Al final los resultados se expresan en porcentajes de acierto para cada clase y totales.
Análisis de subpíxel
Las superficies naturales, rara vez están compuestas de un sólo material uniforme. La
mezcla espectral se da cuando materiales con diferentes propiedades espectrales se ven
representadas en un único píxel en la imagen digital. Con este método no podremos saber
dónde dentro de cada píxel se da cada superficie, puesto que hemos llegado al límite de
resolución espacial, pero sí que podemos cuantificar las proporciones de reflectancia que
corresponden a cada una.
El modelo lineal que se aplica, asume que no se produce interacción entre materiales. Este
modelo lineal tiene validez en las escalas en las que se trabaja en teledetección. A pequeñas
escalas, los efectos de dispersión producen no linealidades en la mezcla.
El resultado de una clasificación suele dar píxeles sueltos en medio de una zona
homogénea, perdiendo unidad geográfica y dificultando la interpretación. A esto se le llama
'efecto de sal y pimienta'.
Para solventarlo, se emplea una técnica de suavización de resultados, similar a aplicar un
filtro pasa-bajos (aunque no igual ya que no puedo aplicar promedios de píxeles contiguos).
Hay que tener en cuenta que podemos estar eliminando parte de la exactitud por la que
tanto nos hemos esforzado en el proceso de clasificación, en aras de unos resultados más
homogéneos y fáciles de interpretar. En el equilibrio entre ambos criterios estará el punto
de equilibrio. Dos tipos de filtros:
Filtro Modal
El píxel situado en el centro de la matriz 3x3 del filtro se asigna a la categoría más
frecuente entre los píxeles vecinos.
Filtro de Mayoría
El píxel central se asigna a la categoría que cuente con la mitad más uno de los píxeles
vecinos. Si ninguna categoría rebasa ese valor, se deja como estaba.
Base matemática y estadística
Estadística unidimensional
Los conceptos variable aleatoria y probabilidad son conceptos teóricos que resultan de una
abstracción hecha sobre los conceptos de variable estadística y frecuencia, conceptos estos
últimos que se consideran después de la ejecución del experimento, mientras que los
primeros se consideran antes de la ejecución. Una variable aleatoria es discreta cuando sólo
puede tomar un número finito de valores.
Medidas de centralización
Una medida de centralización es un valor, que es representativo de un conjunto de datos y
que tiende a situarse en el centro del conjunto de datos, ordenados según su magnitud.
Mediana
Es el valor de la variable estadística que divide en dos partes iguales a los individuos de una
población, supuestos ordenados en orden creciente. En general, es el valor donde la función
de distribución F(x) toma el valor 1/2, pero así definida puede no ser única en cuyo caso se
toma la media aritmética de los valores de mediana, o no existir en cuyo caso se toma como
mediana el valor de la población más cercano a esa mediana 'ideal'.
Moda
Es el valor más frecuente de la variable estadística; valor que se corresponde al máximo del
histograma.
Si la variable es discreta, puede darse el caso de que haya más de una mediana.
Media aritmética
Es la suma de los productos de los posibles valores que tome la variable xi, entre el número
de valores que esa variable contenga.
Medidas de dispersión
Son medidas que representan el grado en el que los valores numéricos tienden a extenderse
alrededor de un valor medio.
Recorrido
Es la diferencia entre el mayor y menor valor de una variable estadística.
Varianza.
Una forma natural de medir la dispersión en torno a la media es calcular la media de las
diferencias ; es decir: , pero como habrá valores por encima y por debajo de que se
compensarán, calcularemos mejor el cuadrado de las diferencias. Se define así varianza de
una variable estadística, como la media de los cuadrados de las desviaciones de sus valores
respecto a su media . Se representa por .
Se distingue aquí entre los casos de variable estadística y variable aleatoria. En el primer
caso, tendremos una serie de valores concretos, de los que vamos a calcular su varianza, la
varianza muestral. La fórmula es la que acabo de expresar. En el caso de variable aleatoria,
estaremos calculando una varianza estimada, ya que no estamos tomando muestras de un
conjunto de datos inmenso y por lo tanto la media y varianza son estimadas, no conocidas.
La expresión que la define cambia en un pequeño detalle: en vez de dividir el resultado de
la suma entre (n-1), se divide entre (n), así:
Al igual que con la varianza, se distinguen los casos de variables aleatorias y estadísticas.
En esta fórmula se expresa también la desviación típica muestral, que es la que usaremos.
Coeficiente de variación.
Es el cociente entre la desviación típica y la media. Eliminamos con esta medida la
influencia de la escala escogida en las mediciones efectuadas.
Experimentos bivariantes
Hasta ahora se han considerado experimentos en los que tomábamos una sola medida o
valor en cada ensayo. Pero muy corrientemente, al efectuar un experimento, se deben medir
dos características. Estos experimentos se conocen por el nombre de bivariantes. P. ej. en un
grupo de personas se miden el peso y la altura.
El objeto de un experimento bivariante es determinar si hay alguna relación entre las
variables que se miden. Y si la hay, intentar calcular:
Una medida de ese grado de relación.
Una ecuación matemática que describa con mayor o menor exactitud esa relación.
A una de las variables (p. ej. la X) se le denomina variable independiente, mientras que a la
otra (la Y) se le denomina variable dependiente.
Se usa el término correlación cuando se habla de relaciones entre variables de experimentos
bivariantes.
Propiedades
- r está siempre comprendido entre -1 y 1.
- Si r=1 ó r=-1 entonces los puntos de la muestra están situados en línea recta (correlación
lineal perfecta).
- Si r está próximo a 1 ó a -1, habrá una asociación lineal fuerte entre ambas variables.
- Si r es cercano a 0, habrá una asociación lineal muy débil.
- r no varía cuando en las variables se realiza un cambio de escala o de origen. Esto
demuestra que r no tiene dimensión.
Matriz de correlación
Sea un experimento de n variables (X1, X2, ... Xn). Podemos ordenar en una matriz los
diferentes coeficientes de correlación de cada variable con el resto y consigo misma,
obteniendo una matriz con cada elemento igual a:
Transformación de Karhunen-Loeve
También llamada transformación de Hotelling ó Análisis de Componentes Principales. El
origen de esta técnica suele asociarse a la publicación de un artículo de K. Pearson en 1901.
Sin embargo, el nombre de componentes principales y su primer desarrollo teórico no
aparecen hasta 1933, en un artículo de Hotelling. Es bastante empleada en ciencias sociales
y naturales, cuando se trata de resumir un grupo amplio de variables en un nuevo conjunto,
más pequeño, sin perder una parte significativa de la información original. Consiste en
definir el número de dimensiones que están presentes en un conjunto de datos y buscar los
coeficientes que especifican la posición de los ejes que apuntan en las direcciones de
máxima variabilidad de los datos.
Su origen está en la redundancia que hay muchas veces entre distintas variables. La
redundancia son datos, no información. Lo que se pretende es:
Facilitar el estudio de las relaciones existentes entre las variables.
Facilitar el análisis de la dispersión de las observaciones (poniendo en evidencia posibles
agrupamientos, detectando las variables que son responsables de dicha dispersión.)
Formulación descriptiva
En un sistema multivariante, la forma de la elipse n-dimensional está definida por la matriz
de varianza-covarianza calculada para las n variables. La varianza es proporcional a la
dispersión de puntos en la dirección paralela al eje de esa variable. La covarianza define la
forma de esa elipse (más o menos afilada). Si las variables no tienen dimensiones
comparables, las varianzas tampoco se pueden comparar. Por eso se recurre a la matriz de
correlación, ya que el coeficiente de correlación no es sino la covarianza medida para
valores estandarizados (normalizados, ), por eso la diagonal principal es todo unos. Por eso
utilizaremos si podemos, la matriz de varianza-covarianza, y si no, la de correlación.
En la figura vemos cómo la dispersión de las variables X e Y permite que efectuando una
transformación que pase de X e Y a A y B, se consigue obtener dos variables nuevas tal que
casi toda la varianza (la información) se sitúa en la variable A y muy poca en la B. Además,
la correlación de X e Y era alta, mientras que la de A y B es matemáticamente cero.
A partir de esas matrices, se calculan sus valores y vectores propios. Los valores propios
dan la longitud de los ejes principales de la elipsoide n-dimensional. Los vectores propios
apuntan precisamente en las direcciones de esos ejes principales. Además, equivalen a los
coeficientes de regresión en una transformación lineal estándar, siendo las variables a
transformar las variables independientes y las componentes principales, las dependientes.
Las nuevas variables así obtenidas, pierden el sentido físico que pudieran tener las variables
originales.
Formulación matemática
Notación y ordenamiento de los datos
Sea una serie de datos, en este caso bidimensionales (una imagen) de la forma:
Podemos ordenar esa matriz en forma de un vector, bien poniendo una fila tras otra, o bien
por columnas. Lo importante no es tomar uno u otro tipo de ordenación sino que éste sea
consistente con todas las imágenes que vayan a participar en la transformación.
En definitiva se trata de obtener:
si tenemos p imágenes
A priori ya podemos conocer dos cosas de M: que será simétrica, ya que rab = rba y que la
diagonal principal será todo unos, ya que raa = 1.
Con esos datos, ya podemos estandarizar las distintas variables (recordemos que al
estandarizar estamos transformando ese conjunto de datos en otro, con media cero y
desviación estándar uno. Pasamos de la variable Xa a la Za, y así con todas, pasando cada
valor de esta forma:
A partir de las variables estandarizadas Z1, Z2, Z3, ..., Zp, se calculan sus varianzas
(evidentemente dan uno) y las covarianzas entre variables:
Ordenando esos valores en forma de matriz, con filas y columnas representando variables,
en virtud de la relación entre la matriz de varianza-covarianza y la matriz de correlación
tendremos ya calculada la matriz de correlación.
I representa la matriz identidad, de las mismas dimensiones que la matriz M. Esta expresión
da como resultado un polinomio cuyas raíces serán los valores propios de M, que se
denotan como l1, l2, ..., li.
Los vectores propios asociados a esos valores propios, se calcularán sustituyendo los
valores propios en la fórmula:
Para cada valor propio li, obtenemos una ecuación diferente, y de ella obtenemos también
un vector propio vi diferente y asociado a su respectivo li.
Componentes principales
Las coordenadas de los vectores propios hallados son los coeficientes de la transformación
que hay que realizar para pasar de las variables originales a las nuevas variables
'componentes principales'. Los valores propios nos dan el orden en el que hay que poner
esos vectores propios; el valor propio mayor nos está indicando que su vector propio
asociado apunta en la dirección de máxima variabilidad de los datos, es decir, en la de la
primera componente principal; el segundo valor propio hace lo mismo con su vector propio,
indicando que apunta en la siguiente dirección de máxima variabilidad ortogonal con la
anterior, y así sucesivamente. Es por ello que la obtención de los componentes principales
se realiza de la forma:
Obteniendo las variables CP1, CP2, ..., CPp. Podemos realizar simples cálculos para
comprobar que:
Coordenadas
Ya sólo resta calcular las coordenadas de las variables originales en la nueva base de
variables componentes principales. Este cálculo se realiza por mero producto matricial, de
la forma:
Definiciones
Imagen digital: es una imagen que ha sido discretizada tanto en coordenadas espaciales
como en brillo. Podemos considerar una imagen digital como una matriz cuyos índices de
filas y columnas identifican un punto en la imagen y el correspondiente elemento de matriz
identifica el valor de gris en ese punto.
Píxel: acrónimo formado con las palabras inglesas 'Picture' 'element'. Es el elemento simple
de una imagen digital.
El color en una imagen digital: según la definición anterior, la función de imagen digital
representa un valor de brillo en ese punto, pero cuando se quiere representar una imagen en
color, esa interpretación puede cambiar. Por ejemplo, en función de la división de colores
en un cubo RGB, podemos descomponer toda la imagen en tres bandas, cada una de ellas
representando el brillo de rojo, de verde y de azul respectivamente. El color visualizado en
un punto concreto será el resultante de combinar los valores de ese punto en las tres bandas,
en la proporción indicada por esos valores. O bien se puede tener una tabla de colores (una
paleta) y hacer que los valores de la imagen estén 'apuntando' a los colores de esa paleta.
De cualquiera de las formas podemos distinguir: blanco y negro, escala de grises, color
indexado 16, color indexado 256, color real RVA y color real CMAN. Los tipos de datos se
diferencian por la resolución en bits (número de bits de información de la imagen por píxel)
y por el número de canales que comprende la imagen. La resolución en bits determina
cuántos colores o niveles de gris puede representar cada píxel.
Blanco y negro: cada píxel de una imagen en blanco y negro es blanco o negro. Los tonos
intermedios (grises) se crean ordenando los píxeles blancos y negros para simular gris. Es
lo que se llama técnica de 'dithering'.
Escala de grises: cada píxel de una imagen en escala de grises puede ser uno de los 256
valores distintos de gris, del negro (cero) al blanco (255). Este tipo de datos muestra suaves
cambios de tono utilizando tonos intermedios de gris. La resolución de una imagen en
escala de grises determina el tamaño de los píxeles y, en consecuencia, el número de
píxeles de una imagen. Cuanto mayor sea la resolución, los cambios de tono de gris serán
más suaves y por tanto más exacta la representación de la imagen, (las imágenes de alta
resolución también utilizan más memoria).
Color indexado 16 y 256: en una imagen en color indexado, cada píxel puede ser uno de 16
o de 256 colores. Estos colores vienen especificados en la tabla de colores de la imagen. A
cada píxel se le asigna un número que se refiere a un color de la tabla de colores. Los
colores que no estén disponibles en la tabla se simulan por ordenamiento y por proximidad
con respecto a los píxeles cuyos colores están disponibles. El tipo de datos de color
indexado 16 es el usado por la pantalla VGA estándar en modo de 16 colores. El tipo de
datos de color indexado 256 es el usado por la mayoría de las pantallas de 256 colores,
incluida la IBM 8514/A, XGA y los adaptadores VGA estándar en modo de 256 colores con
320 x 200 píxeles y algunos adaptadores VGA especiales en modo de 256 colores.
Color real RVA: en una imagen en color real RVA, cada píxel puede ser uno de los más de
16,7 millones de colores disponibles. El tipo de datos de color real RVA es actualmente el
mejor tipo de datos para editar imágenes en color debido a que retiene mayor cantidad de
información de la imagen.
Color real CMAN: las imágenes en color real CMAN utilizan el mismo modelo de color
que la impresión industrial: todos los colores se representan en porcentajes de cían,
magenta, amarillo y negro. Puesto que hay cuatro colores en cada píxel, las imágenes en
color real CMAN se llaman imágenes de 32 bits.
Mejoramiento de imagen
Introducción
El principal objetivo de las técnicas de mejoramiento de imagen es procesar una imagen
para hacerla más adecuada para una determinada aplicación o procesamiento posterior.
Depende por tanto del problema específico a resolver el que se emplee una u otra técnica.
Los métodos de mejora de imagen se pueden dividir en dos campos diferentes: métodos en
el dominio frecuencial y métodos en el dominio espacial. Los primeros se basan en
modificar la transformada de Fourier de la imagen, mientras que los segundos se basan en
manipulaciones directas sobre los píxeles de la imagen.
Estiramiento linealEs la forma más sencilla de efectuar el contraste. Consiste en buscar una
función lineal que ajuste tal que el rango NDmin a NDmax se transforme en NVmin a
NVmax, por lo tanto NDmax=NVmax y NDmin=NVmin. El resto de valores ND serán
transformados en otros según esa transformación lineal. De forma general se puede
establecer,
donde a es un offset y b una ganancia. Y como conocemos los valores de dos puntos:
Como caso particular de la transformación lineal, cabe destacar la transformación lineal por
trozos, que aplicar esta misma fórmula no a todo el rango de ND sino a un subrango
determinado que queramos enfatizar especialmente; incluso se pueden aplicar diferentes
estiramientos lineales, con diferentes coeficientes a distintos rangos de ND del histograma.
Veamos un ejemplo práctico:
ESTIRAMIENTO LINEAL
Imagen 'estirada' e histograma de la misma (página siguiente).
Obsérvese cómo los valores de todos los píxeles se encuentran ahora en todo el rango de la
tabla de color. La imagen se ve ahora con toda claridad. Nótese también el máximo en el
valor 255 correspondiente al gran número de píxeles del fondo blanco
Obsérvese cómo los valores de los píxeles se intentan distribuir de forma uniforme en todo
el rango 0-255. Como no es posible separar un valor cualquiera en dos diferentes, donde
hay relativamente gran número de píxeles se separa del resto en proporción del número de
píxeles de ese valor. El resultado visual es mucho más 'brusco'.
Filtrado espacial
Filtrado espacial es la operación que se aplica a imágenes ráster para mejorar o suprimir
detalle espacial, para mejorar la interpretación visual. Ejemplos comunes incluyen aplicar
filtros para mejorar los detalles de bordes en imágenes, o para reducir o eliminar patrones
de ruido. Filtrado espacial es una operación "local" en procesamiento de imagen en el
sentido de que modifica el valor de cada píxel de acuerdo con los valores de los píxeles que
lo rodean; se trata de transformar los ND originales de tal forma que se parezcan o
diferencien más de los correspondientes a los píxeles cercanos.
Frecuencia espacial
Una característica común a todos los tipos de datos ráster es la llamada "frecuencia
espacial", que define la magnitud de cambios de los datos por unidad de distancia en una
determinada zona de la imagen. Áreas de la imagen con pequeños cambios o con
transiciones graduales en los valores de los datos se denominan áreas de bajas frecuencias
(como p. ej. la superficie de una masa de agua en reposo). Áreas de grandes cambios o
rápidas transiciones se conocen como áreas de altas frecuencias (p. ej. suelo urbano con
densas redes de carreteras). Así, los filtros espaciales se pueden dividir en tres categorías:
Filtros pasa bajos, enfatizan las bajas frecuencias, suavizando las imágenes y suprimiendo
ruidos. Se trata de asemejar el ND de cada píxel al ND de los píxeles vecinos, reduciendo la
variabilidad espacial de la imagen. Ello produce un emborronamiento de los bordes,
perdiéndose en nitidez visual de la imagen, pero ganando en homogeneidad.
Vemos que lo que se realiza es una media aritmética de los nueve píxeles que componen la
ventana de filtrado, con lo que se reducen los espurios y la variabilidad de la imagen.
- Filtros pasa altos, enfatizan las altas frecuencias, para mejorar o afilar las características
lineales como carreteras, fallas, o límites en general. Realizan por tanto el efecto contrario a
los filtros pasa-bajos, eliminando estos las bajas frecuencias.
Ejemplo de un kernel de filtro pasa-alto:
Otra forma de obtener una imagen así filtrada es sustraer a la imagen original, la misma
imagen filtrada paso-bajos. Es lógico ya que si a la imagen le restamos los componentes de
baja frecuencia, nos quedaremos con las de alta frecuencia.
Filtros detectores de bordes
Realizan otro tipo de operaciones con los datos, pero siempre con el resultado de enfatizar
los bordes que rodean a un objeto en una imagen, para hacerlo más fácil de analizar. Estos
filtros típicamente crean una imagen con fondo gris y líneas blancas y negras rodeando los
bordes de los objetos y características de la imagen.
Filtro Roberts
Emplea la diferenciación como método para calcular el grado de separación entre niveles
de grises vecinos. Concretamente, y para realizar una diferenciación bidimensional, se
efectúa la operación:
Filtro Sobel
Este filtro implementa la siguiente operación:
donde:
Filtro Laplaciano
Este filtro calcula la segunda derivada, que a partir de la expresión del operador Laplaciano
podemos aproximar:
Lo que es lo mismo que usar el kernel:
Filtro direccional
Seleccionando adecuadamente los valores del kernel, podemos obtener el efecto de extraer
bordes en una determinada dirección, mientras que los bordes en el resto de direcciones no
se ven tan resaltados.
Ejemplos de Filtros
Vemos que los resultados son iguales que con el filtrado en el dominio espacial
(convolución) pero en este caso estamos trabajando con otras variables y manejando
conceptos diferentes.
Es destacable que, aunque en el ejemplo las líneas oblícuas del filtro hagan ver un filtro
ideal (corte perfecto entre zona que pasa y zona que no pasa), esto en realidad no se usa
nunca ya que produce un molesto efecto de anillamiento (un filtro de ese tipo no es
realizable). Por ello se efectúa algún tipo de transición suavizada entre las dos zonas. Esa
transición puede ser de tipo exponencial, trapezoidal, o butterworth, que no representan
sino distintas modelizaciones de la transición suave.
Filtros morfológicos
Morfología matemática es un método no lineal de procesar imágenes digitales basándose en
la forma. Su principal objetivo es la cuantificación de estructuras geométricas. Aquí los
filtros también vienen definidos por su kernel, pero no es un kernel de convolución sino un
elemento estructurante.
Dilatación
Este operador es comúnmente conocido como 'relleno' o 'expansión' o 'crecimiento'.
Puede ser usado para rellenar 'huecos' de tamaño igual o menor que el elemento
estructurante con la que se opera la dilatación.
Usado con imágenes binarias, donde cada píxel es 1 ó 0, la dilatación es similar a la
convolución. Sobre cada píxel de la imagen se superpone el origen del elemento
estructurante. Si el píxel de la imagen no es cero, cada píxel que cae en la estructura es
añadido al resultado aplicando el operador 'or'.
Con la notación :
Donde :
representa la traslación de A por b. Intuitivamente, para cada elemento no cero bi,j de B, A
es trasladado i,j y sumado a C usando el operador 'or'. Por ejemplo:
0100 0110
0100 0110
0110 11 = 0111
1000 1100
0000 0000
Erosión
La erosión es lo opuesto a la dilatación; realiza con el fondo lo que la dilatación al primer
plano. También en este caso, existe un elemento estructurante que se utiliza para operar con
la imagen. Los efectos son de 'encogimiento', 'contracción', o 'reducción'. Puede ser
utilizado para eliminar islas menores en tamaño que el elemento estructurante.
Sobre cada píxel de la imagen se superpone el origen del elemento estructurante. Si
cada elemento no cero de dicho elemento está contenido en la imagen, entonces el píxel de
salida es puesto a 1. Haciendocomo representación de la erosión de una imagen A por el
elemento estructurante B, se como representación de la erosión de una imagen A por el
elemento estructurante B, se puede definir:
donde (A)-b representa la traslación de A por b. B puede ser visto como una 'sonda'
que se desliza a lo largo de toda la imagen A, testando la naturaleza espacial de A en cada
punto. Si B trasladado i,j puede ser contenido en A (poniendo el origen de B en i,j),
entonces i,j pertenece a la erosión de A por B. Por ejemplo:
0100 0000
0100 0000
1110 11 = 1100
1000 0000
0000 0000
Filtros de textura
Muchas imágenes contienen regiones caracterizadas por variaciones del nivel de gris, más
que por un valor único de grises. La 'textura' se refiere precisamente a la variación espacial
del nivel de gris de una imagen como función de escala espacial. Para que los píxeles de
una determinada área puedan ser definidos como texturalmente diferentes, sus niveles de
gris deben ser más homogéneos como unidad que áreas de diferente textura.
De todas formas, el concepto de textura es bastante intuitivo. Es tan difícil definirlo como
calcularlo. Mientras que el nivel de gris de un píxel está perfectamente definido y
localizado, la textura es más elusiva. La definición que he dado es buena, pero a la vez
vaga. De todas formas no hay ninguna mejor, y los filtros que se describen a continuación
sirven de aproximación para trabajar con esta característica.
Filtro de recorrido
También llamados 'de rango'. Este filtro sustituye el valor central de la ventana de
procesamiento por la diferencia entre el valor máximo y mínimo (el recorrido,
estadísticamente hablando) de los píxeles contenidos en esa ventana. El recorrido será un
valor pequeño para zonas 'planas' o texturalmente uniformes, y será alto en zonas de alta
variabilidad. El tamaño de la ventana debe ser suficientemente grande como para incluir un
número suficiente de puntos, según la escala a la que queramos trabajar, lo que significa
que debiera ser mayor que el tamaño de cualquier pequeño detalle pueda estar presente. El
resultado es una imagen donde el valor de cada punto representa la textura, y diferentes
regiones pueden ser distinguidas por diferentes niveles de gris.
Operadores de momento
El primer y segundo momento son simples medidas de textura, utilizando los 'momentos'
del histograma de la ventana de proceso. El primer momento es una medida del contraste de
la ventana. El segundo momento es una medida de la homogeneidad de la misma. Las
imágenes resultantes pueden ser escaladas para crear una imagen que discrimina entre
varias textura.
Fundamentos del color
Aunque los procesos seguidos por el cerebro humano para percibir el color no están
totalmente comprendidos, la naturaleza física del mismo puede ser expresada con bases
formales soportadas por resultados teóricos y experimentales.
En 1666, Sir Isaac Newton descubrió que un haz de luz solar atravesando un prisma de
cristal, se transformaba en un haz emergente de luz no blanca, sino consistente en un
espectro continuo de colores que iban desde el violeta en un extremo, hasta el rojo en el
extremo opuesto.
Básicamente, el color con el que percibimos un objeto viene determinado por la naturaleza
de la luz reflejada por dicho objeto. Un cuerpo que refleja luz de forma uniforme en todo el
rango del espectro visible (que es una estrecha banda del espectro electromagnético),
aparece blanco al observador, mientras que si refleja más en algún rango estrecho del
espectro visible, aparecerá al observador con ese color concreto. Por ejemplo, los objetos
verdes reflejan luz con longitudes de onda principalmente en el rango de 500 a 570 nm
(nanómetros), mientras que absorben la energía electromagnética en el resto de longitudes
de onda del visible.
El rango de colores que podemos apreciar, son el resultado de mezclas de luz de diferentes
longitudes de onda. Se ha comprobado que ciertas longitudes de onda del rojo (R), verde
(V) y azul (A), cuando se combinan en diferentes proporciones (intensidades) producen
mayor rango de colores que cualquier otra combinación de tres colores. Por ello, a esos tres
colores se les denomina colores primarios. Aunque se ha malinterpretado que con esos tres
colores se puede conseguir cualquier otro color, eso no es cierto. Ciertos colores no pueden
ser obtenidos por mera combinación de RVA. Con propósitos de unificación, se han
establecido las siguientes longitudes de onda concretas para los colores primarios: azul: 435
´8 nm, verde: 546´1 nm y rojo: 700 nm.
Los colores primarios pueden combinarse para producir colores secundarios: magenta (azul
+ rojo), ciano (verde + azul) y amarillo (rojo + verde). Combinando los tres colores
primarios, o un secundario con su correspondiente primario, en las proporciones adecuadas,
se obtiene luz blanca.
También es importante distinguir entre colores primarios de luz y colores primarios de
pigmentos o colorantes. En estos últimos, un color primario se define como aquel que resta
o absorbe un color primario de luz y refleja o transmite los otros dos. Así, los colores
primarios de pigmentos son el magenta, ciano y amarillo, mientras que los secundarios son
rojo, azul y verde. Una combinación adecuada de los tres colores primarios de pigmentos, o
de un primario con su secundario, dará lugar al negro.
Una forma de representar un sistema de colores de este tipo, es mediante un cubo de
colores donde los ejes representan los colores primarios, y combinaciones de distintos
valores de esos colores primarios dan el resto de colores (aunque ya he comentado antes
que esto no es del todo cierto). El siguiente dibujo muestra un cubo de colores,
representando los lugares donde se sitúan los colores más puros.
Pero este no es el único sistema en el que se puede representar el color. Existen otros como
el de tono, saturación e intensidad (TSI), que se define de la siguiente forma: tono es el
color, como 'rojo' o 'naranja'. Está directamente asociado con una longitud de onda
concreta, y se mide en grados, de 0º a 360º. Saturación es una medida del grado de mezcla
de ese tono con otros tonos de alrededor, y se mide en tanto por uno. Intensidad es
precisamente eso, el grado de intensidad de ese color, y se mide de cero hasta infinito. Este
sistema de color también se puede 'visualizar' de un manera gráfica, como muestra la
siguiente figura:
Codificación de imágenes
La representación digital de una imagen, usualmente requiere enormes cantidades de
recursos del sistema en forma de memoria. Es por ello que las técnicas de codificación son
de una importancia tremenda, de cara a lograr la máxima eficiencia en este sentido.
Es de señalar, como en casi todas las técnicas, que el tratamiento concreto a realizar
dependerá en gran medida de la aplicación a la que vaya dirigido. No es lo mismo
almacenar una imagen para luego analizar hasta el nivel de cada píxel (como puede ocurrir
en muchas aplicaciones de teledetección) que transmitir imagen de videoconferencia en
tiempo real, donde no es tan importante la precisión.