0% encontró este documento útil (0 votos)
53 vistas108 páginas

Teledetección - 2do Parcial

Materia de teledetección de la facultad de ciencias naturales de la universidad de Guayaquil, tiene diapositivas muy interesantes.............

Cargado por

cindytamayo
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
53 vistas108 páginas

Teledetección - 2do Parcial

Materia de teledetección de la facultad de ciencias naturales de la universidad de Guayaquil, tiene diapositivas muy interesantes.............

Cargado por

cindytamayo
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Índices y

ratios entre
bandas
UNIDAD 3
TRANSFORMACION DE LA IMAGEN: CREACION DE NEOCANALES

Esta operación consiste en crear nuevos


canales (artificiales) a partir de combinaciones
entre los originales con el objetivo de mejorar la
discriminación de algunos aspectos temáticos
dentro de la imagen.

Pueden ser:

1. Lineales (sumas ponderadas,


multiplicaciones o divisiones, etc.)

2. No lineales (cocientes).
Índices

Los índices implican la realización de ciertas


operaciones aritméticas (sumas, diferencias,
productos, cocientes, etc.) píxel a píxel entre
varias bandas para mejorar la discriminación
entre coberturas, y reducir el efecto del relieve
en la caracterización de cubiertas.

Estos índices permiten remarcar la diferencia


entre coberturas cuando existen contrastes en
las respuestas espectrales.

Por otro lado, el relieve (pendiente y la


orientación del terreno) tiene un fuerte efecto
en la reflectancia de las cubiertas.
Índices

En zonas de umbría o con pendiente más


elevadas, la reflectividad será menor que en las
zonas de solana.

Como este efecto afecta de forma similar a las


distintas longitudes de onda, al utilizar
cocientes entre bandas, este efecto se
minimiza.

Existen numerosos índices de interés en la


hidrogeología que vamos a agrupar en tres
grandes bloques: Índices litológicos y
mineralógicos; Índices de agua e Índices de
vegetación
Índices litológicos y mineralógicos
Índices de arcillas. Éste índice identifica los
suelos con minerales arcillosos con el cociente
entre dos bandas del infrarrojo medio 1.6/2.1
µm que en el satélite Landsat 8 corresponde a
las bandas 6 y 7, y en el satélite Spot a la
banda 4 y la banda 3.

Es un índice útil en estudios geológicos con el


que se resalta la humedad y facilita la
identificación de distintas litologías. Por eso
también se le denomina índice de humedad.

En este índice, la vegetación aparece en tonos


claros, tanto los cultivos como la vegetación de
ribera mientras que las masas de aguas
aparecen en tonos oscuros. 𝐼𝑅𝑀 1,6 𝐵𝑎𝑛𝑑 6
𝐼𝑛𝑑𝐴𝑟𝑐 = =
𝐼𝑅𝑀 2,1 𝐵𝑎𝑛𝑑 7
Índices litológicos y mineralógicos
Índice de Óxidos de hierro. Resalta aquellos
materiales ricos en óxido de hierro.

Dado que el hierro tiene una alta reflectancia


en las longitudes de onda del rojo y baja en el
azul visibles, este índice se calcula como el
cociente entre las longitudes de onda 0.66/0.48
µm.

𝑅𝑒𝑑 𝐵𝑎𝑛𝑑 4
𝐼𝑛𝑑𝑂𝑥𝑖𝐹𝑒 = =
𝐵𝑙𝑢𝑒 𝐵𝑎𝑛𝑑 2
Índices litológicos y mineralógicos
Índices de minerales ferrosos.
Con este índice calculado a partir del infrarrojo cercano y el infrarrojo medio se identifican
minerales ferrosos.

𝑆𝑊𝐼𝑅
𝐼𝑛𝑑𝐹𝑒 =
𝐼𝑅

Índice de suelos.
Este índice se establece con la relación entre las bandas del rojo y verde visibles que
corresponden a las longitudes de onda de 0.645 y 0.545 micrómetros, respectivamente. En el
sensor Landsat ETM+ corresponderían a las bandas 3 y 2.

(𝑅 − 𝐺)
𝐼𝑛𝑑𝑆𝑢𝑒𝑙𝑜 =
(𝑅 + 𝐺)
Índices litológicos y mineralógicos
Índice hidrotermal.

Se utiliza para diferenciar zonas de alteración en una imagen de tres bandas (RGB) constituida
por tres cocientes diferentes. En el satélite Landsat 7 se obtiene por la combinación de tres
cocientes entre bandas: B5/B7, B3/B1, B3/B4.

▪ El primer cociente se establece entre dos regiones del infrarrojo medio, ya que éstas permiten
discriminar cubiertas con mucha humedad,

▪ El segundo cociente es entre bandas del visible y corresponde al índice de óxidos de hierro.

▪ El tercero cociente se calcula como la relación entre el infrarrojo próximo y el rojo, que resalta
bien la vegetación.
Índices de agua
Los cuerpos de agua absorben o transmiten la
mayor parte de la radiación electromagnética que
reciben, dentro del rango visible, siendo mayor la
absortividad cuanto mayor es la longitud de onda.

Dentro de que es un elemento poco reflectivo, la


mayor reflectividad para el agua clara se produce
en las longitudes más cortas (azul visible) y a
medida que nos desplazamos a longitudes de
onda mayores, la reflectividad se reduce, hasta
que, en el infrarrojo cercano e infrarrojo medio, se
hace prácticamente nula.

En aguas poco profundas el valor de reflectividad


puede ser mayor debido a la contribución de la
reflectividad de fondo.
Índices de agua
Este índice es adecuado para cartografiar masas
de agua y terrenos afectados por humedad.

Se forma por el cociente entre la diferencia de la


banda del azul y el infrarrojo próximo y la suma de
estas mismas bandas.
(𝐵 − 𝑁𝐼𝑅)
𝐼𝑛𝑑𝑊 =
(𝐵 + 𝑁𝐼𝑅)

Destacan las áreas con más humedad en tonos


blancos.

A pesar de los 30 metros de resolución del sensor


del Landsat, con este índice los cursos de agua
de los ríos se suelen delimitar mientras que con
otros índices queda oculto por la vegetación de
ribera.
Índice de Agua Normalizado Modificado
Índice de Agua Normalizado Modificado
(MNDWI), calculado a partir de las bandas verde
(520- 600 nm) e infrarrojo medio (1550-1750 nm)
del satélite Landsat.
(𝐺 − 𝑆𝑊𝐼𝑅)
𝐼𝐴𝐿25 =
(𝐺 + 𝑆𝑊𝐼𝑅)

Los valores de este índice varían entre -1 y 1,


donde los valores superiores a cero
corresponden al agua.
Índice de Agua Normalizado Modificado
Índice de Agua Normalizado (NDWI) calculado a
partir de las bandas del infrarrojo cercano (760-
900 nm) e infrarrojo medio (1550-1750 nm).

Este índice oscila entre -1 y 1, donde los valores


más altos se correlacionan con la presencia de
agua.

(𝑁𝐼𝑅 − 𝑆𝑊𝐼𝑅)
𝑁𝐷𝑊𝐼 =
(𝑁𝐼𝑅 + 𝑆𝑊𝐼𝑅)
Índices de vegetación

La vegetación es uno de los elementos que mayor


atención han recibido en el ámbito del análisis de
imágenes de satélite.

Uno de los parámetros principales son los


denominados índices de vegetación (IV) que
permiten realizar un seguimiento al estado y
desarrollo de la vegetación.

Los IV son relaciones empíricas entre las


variables biofísicas de los cultivos y los índices de
vegetación espectrales.
Índices de vegetación

Éstos IV se basan en los altos contrastes de la


reflectividad que presenta la vegetación entre la
región del rojo visible y el infrarrojo cercano.

Las plantas absorben radiación en las regiones


visibles del espectro (rojo) para obtener energía
y reflejan el infrarrojo que no son útiles para el
desarrollo de la actividad fotosintética.

Los contrastes entre el visible y el infrarrojo


cercano son los que aprovechan los IV para
establecer diferencias en la vegetación, sana y
vigorosa, vegetación enferma o de baja densidad
Índices de vegetación
NDVI (Normalize Difference Vegetation Index) es de los IV más utilizados pero las diferentes
proporciones entre vegetación y suelo afectan sensiblemente a los valores obtenidos.

Identifica el verdor de la vegetación a través de la actividad fotosintética.

Proporciona una medida sobre la cantidad, calidad y desarrollo de la cobertura vegetal y


vigorosidad en áreas extensas.

Valores próximos a 1 corresponden a vegetación con actividad fotosintética y valores próximos


a próximos a 0 corresponden a suelos. Los valores negativos se asocian normalmente a zonas
de agua.

El NDVI relaciona el NIR (reflectividad en la banda del infrarrojo cercano) y el R (reflectividad en la


banda del rojo).
(𝑁𝐼𝑅 − 𝑅)
𝑁𝐷𝑉𝐼 =
(𝑁𝐼𝑅 + 𝑅)
Índice
Normalizado de
Área Quemada
(NBR)
TALLER GRUPAL
Intensidad de fuego versus Severidad del incendio
La intensidad del fuego representa la energía que se libera de la materia orgánica durante el proceso de
combustión, también se refiere a la intensidad del fuego mientras está activo.

La severidad del incendio, por otro lado, describe cómo la intensidad del fuego afecta el funcionamiento del
ecosistema en el área que se ha quemado.

Los efectos observados a menudo varían dentro del área y entre diferentes ecosistemas. La severidad del incendio
también se puede describir como el grado en que un área ha sido alterada o interrumpida por el fuego.

12/12/2023
Índice Normalizado de Área Quemada (NBR)
El índice Normalizado de Área Quemada (NBR) es un
índice diseñado para resaltar áreas quemadas en
grandes zonas de incendio.

La fórmula es similar a NDVI, excepto que combina el


uso de longitudes de onda de NIR con centro de banda
en 865 nm y SWIR con centro de banda en 2190 nm.

La vegetación saludable muestra una reflectancia muy


alta en el NIR y una baja reflectancia en la porción del
espectro SWIR, lo contrario de lo que se ve en áreas
devastadas por el fuego.

Las áreas quemadas demuestran baja reflectancia en el


NIR y alta reflectancia en el SWIR, es decir, la diferencia
entre las respuestas espectrales de la vegetación
saludable y las áreas quemadas alcanzan su pico en las
regiones NIR y SWIR del espectro..

12/12/2023
Índice Normalizado de Área Quemada (NBR)
Para beneficiarse de la magnitud de la diferencia espectral, el NBR utiliza la relación
entre las bandas NIR y SWIR, de acuerdo con la fórmula que se muestra a
continuación.
𝑵𝑰𝑹 − 𝑺𝑾𝑰𝑹
𝑵𝑩𝑹 =
𝑵𝑰𝑹 + 𝑺𝑾𝑰𝑹

Un valor alto de NBR indica vegetación saludable, mientras que un valor bajo indica
suelo desnudo y áreas recientemente quemadas. Las áreas no quemadas
normalmente se atribuyen a valores cercanos a cero.

12/12/2023
Severidad del Fuego
La diferencia entre el NBR previo (Prefire) y posterior al incendio (Postfire) obtenido de las imágenes se
usa para calcular el diferencial NBR (dNBR o ∆NBR), que luego se puede usar para estimar la severidad
del incendio.

Un valor más alto de dNBR indica un daño más severo, mientras que las áreas con valores negativos de
dNBR pueden indicar un nuevo crecimiento después de un incendio. La fórmula utilizada para calcular
dNBR se ilustra a continuación:
𝑑𝑁𝐵𝑅 𝑜 ∆𝑁𝐵𝑅 = 𝑃𝑟𝑒𝑓𝑖𝑟𝑒𝑁𝐵𝑅 − 𝑃𝑜𝑠𝑡𝑓𝑖𝑟𝑒𝑁𝐵𝑅

Los valores de dNBR pueden variar de un caso a otro, por lo que, si es posible, la interpretación en casos
específicos también debe llevarse a cabo mediante una evaluación de campo; para obtener los mejores
resultados.

12/12/2023
Severidad del Fuego
Los valores de dNBR pueden variar de un caso a otro, por lo que, si es posible, la interpretación en casos
específicos también debe llevarse a cabo mediante una evaluación de campo; para obtener los mejores
resultados.

Servicio Geológico de los Estados Unidos (USGS) propuso una tabla de clasificación para interpretar la
gravedad de la quemadura, que se puede ver a continuación (Tabla 1).

12/12/2023
TALLER GRUPAL

12/12/2023
CLASIFICACIÓN DE
IMÁGENES DE
SATÉLITES
INTRODUCCIÓN
• El propósito de los procedimientos de clasificación de
imágenes de satélite es categorizar
automáticamente todos los píxeles en una o
diversas clases temáticas.

• Esta información categorizada se utiliza


posteriormente para generar mapas temáticos.

• En este caso, el patrón espectral presente dentro de


la información de cada pixel se usa como una base
numérica para la categorización; es por ello que
diferentes tipos de objetos presentan diferentes
combinaciones de ND (números digitales)
basados en su inherente reflectancia espectral y
propiedades de emisividad.

• Existen diferentes tipos de patrones que permiten la


categorización de los pixeles de una imagen, como
patrones espectrales, temporales y espaciales.
INTRODUCCIÓN
Los métodos de clasificación se dividen usualmente en dos tipos, en función de la manera en la
que se obtienen las estadísticas de las categorías definidas durante la fase de entrenamiento:
métodos supervisados y métodos no supervisados.

Independientemente del método usado, es importante que la clasificación tenga las siguientes
características:

a) Fiable

b) Reproducible por otros, dadas las mismas variables de entrada

c) Robusta, no sensible a pequeños cambios en las condiciones de entrada

d) Objetiva, que no esté marcado por las decisiones del intérprete.

Es importante que en este último punto se entienda que el intérprete puede muchas veces tomar
decisiones que resuelvan problemas relacionados con la categorización de coberturas siempre y
cuando este proceso pueda ser reproducido por otros
CLASIFICACIÓN SUPERVISADA
• En el caso de las clasificaciones supervisadas, se
requiere del conocimiento de la zona de estudio,
adquirido por experiencia previa o por la realización
de un trabajo de campo.

• Es decir, que el intérprete debe tener una gran


familiaridad con el área de interés, para poder
interpretar y delimitar sobre la imagen, áreas
suficientemente representativas, denominadas áreas
o regiones de interés (ROI por sus siglas en inglés),
de cada una de las categorías representadas y que
forman parte de la leyenda.
CLASIFICACIÓN SUPERVISADA
Los pasos básicos para realizar una clasificación supervisada son los siguientes:

• Etapas de entrenamiento, en esta etapa el intérprete identifica áreas de entrenamiento


representativas, y genera una descripción numérica de los atributos espectrales de cada categoría
de cobertura de la tierra por escena.

• Etapa de clasificación: Cada píxel es categorizado y asociado a una determinada categoría de la


leyenda de acuerdo a su mayor semejanza. En el caso que el píxel sea insuficientemente similar,
este se catalogará como "desconocido".

• Etapa de análisis de precisión y verificación de resultados: La estimación de la exactitud


de una clasificación es el grado de concordancia entre las clases asignadas por el clasificador y los
datos tomados en el terreno obteniendo una estimación más realista de los errores siempre y
cuando la muestra de pixeles sea lo suficientemente representativa.
ETAPA DE ENTRENAMIENTO
La clasificación supervisada contempla los
procedimientos de agrupación de los píxeles de
una imagen conforme a su similitud espectral, el
nivel de detalle y la leyenda temática, preestablecidos
a priori.

Para este fin sobre la imagen original se seleccionan


y se delimitan los grupos de píxeles, que representan
los patrones de diferentes clases temáticas
(muestras).

Es importante que la muestra sea homogénea, pero al


mismo tiempo incluye la variabilidad espectral de
cada clase temática.

Se recomienda que el usuario adquiera más de un


área de entrenamiento por clase temática, utilizando
la información de campo, mapas y estudios
existentes, entre otros.
ETAPA DE ENTRENAMIENTO
Estas áreas para “entrenar” al programa de
clasificación en el proceso de reconocimiento de las
distintas categorías sirven para caracterizar cada
una de las clases, de tal modo que más tarde se
asignan el resto de los píxeles de la imagen a una
de esas categorías en función de la similitud de sus
ND con los extraídos como referencia.

Para una delimitación más precisa de estas áreas


de entrenamiento, puede ser de gran ayuda los
trabajos de campo y otros documentos
auxiliares, como la fotografía aérea y la
cartografía convencional, teniendo en cuenta
que debe tratarse de ejemplos suficientemente
representativos y homogéneos de la clase que
pretende definirse.
ETAPA DE ENTRENAMIENTO
Además, es importante que exista un control de campo suficiente, en fecha próxima a la adquisición
de la imagen para garantizar la consistencia entre lo medido en el terreno y por el sensor.

Para la toma de muestras es recomendable iniciar con los accidentes geográficos que son identificables a
primera vista, como lo son el agua, hielo, nubes, suelo desnudo, bosque, para luego continuar con
áreas arbustivas y herbáceas, áreas agropecuarias, y zonas antrópicas, entre otras.
ETAPA DE ENTRENAMIENTO
En general resulta conveniente seleccionar varias muestras por categoría, a fin de reflejar
adecuadamente su variabilidad en la zona de estudio, sin embargo, se recomienda tomar sólo
aquellas que sean fundamentalmente las más representativas para la categoría a la que
pertenecen.

Evitar en la medida de lo posible que existan muestras idénticas; de ser este el caso, estas deberían
adjuntarse directamente a una muestra ya existente; esto ayudará a no tener un número excesivo
de muestras, lo cual es un problema en procesos futuros.
ETAPA DE ENTRENAMIENTO
En lugares donde existe presencia agropecuaria, es
aconsejable delimitar el área tratando de seguir la
forma de los diferentes tipos de cultivos, esto ayuda a
homogenizar la muestra y evitar que aparezcan los
píxeles aislados dentro de la cobertura.

Para la toma de muestra en vías, es aconsejable


tomar muestras lineales para una mejor definición de
las mismas, este método es recomendable para
carreteras amplias, debido a que si se toman
muestras en caminos angostos se corre el riesgo de
incluir en esa categoría píxeles vecinos
pertenecientes a una categoría distinta.

Según sus criterios, utilice uno u otro método de


recolección de regiones de interés para todas las
clases temáticas. No olvidar que resulta más
conveniente elegir varias áreas de pequeño
tamaño que una sola de mayores dimensiones,
ya que tenderá a infravalorarse la variabilidad de esa
categoría.
ETAPA DE ENTRENAMIENTO
Una vez creadas las regiones de interés, se deben
calcular las estadísticas elementales de cada
categoría: media, rango, desviación estándar,
histogramas, separabilidad, entre otras, a
partir de los ND de todos los píxeles incluidos
en las áreas de entrenamientos de esa clase.

Lógicamente este cálculo se aplica a todas las bandas


que intervendrán en la clasificación. En definitiva, se
asume que las áreas de entrenamiento son fieles
representantes de las distintas categorías, y
que, por tanto, las medidas extraídas a partir de sus
ND definen convenientemente a esas clases.

De aquí que sea crucial su correcta selección, ya que


de otro modo se estaría forzando al algoritmo a
clasificar áreas heterogéneas.

Cuanto más separables sean las firmas y/o clases


espectrales hay menor confusión entre clases, y por
tanto, será más fiable la clasificación
ETAPA DE CLASIFICACIÓN
La etapa final de la clasificación corresponde a la
agrupación de los ND de toda la imagen alrededor de
las clases temáticas definidas en el proceso de
muestreo.

Existen diversos procedimientos matemáticos para


analizar los patrones espectrales por medio de la
clasificación supervisada.

El tipo de clasificación óptimo dependerá del tipo y


procesado de la imagen, datos disponibles e
información que se quiera identificar:

• La clasificación por Paralelepípedos permite


señalar al usuario unos umbrales de dispersión
asociados a cada clase. Consiste en determinar los
valores máximos y mínimos para cada clase en cada
banda. Los píxeles que se encuentren dentro de los
valores envolventes son asignados a esa clase, en
caso contrario quedan sin asignar
ETAPA DE CLASIFICACIÓN
La clasificación por Mínima distancia consiste en la determinación de las medias de cada clase.

La asignación se realiza hacia la clase con menor distancia. Algunos de los píxeles quedarán sin
clasificar si se introduce una distancia máxima o una desviación estándar máxima
ETAPA DE CLASIFICACIÓN
En la clasificación de Máxima verosimilitud, el píxel se asigna a aquella clase con la que posee
mayor probabilidad de pertenencia. Evalúa la varianza y covarianza de cada vector característico
desconocido para asignárselo a una categoría espectral.

Se crean elipses de ‘isoprobabilidad’ en el espacio de características. La forma y orientación de


estas elipses expresa la sensibilidad del clasificador a la variabilidad y covarianza entre clases
ETAPA DE CLASIFICACIÓN
En la clasificación Spectral Angles se considera
que en un píxel puede haber más de una clase, siendo
su nivel digital (ND) una combinación lineal de los
distintos tipos de cubierta.

Por tanto, el ND de un punto será una mezcla de


varios ND que corresponderían a las clases puras
(endmembers).

El método clasifica los elementos de la imagen


midiendo la separación angular entre un vector
espectral de referencia y cada vector del píxel en un
espacio n-D
ETAPA DE CLASIFICACIÓN
Existe otro método que consiste en el Análisis de
imágenes orientados a objetos (eCongition).

Además de la información espectral, utilizan la


textura y la información contextual contenida en la
imagen en el proceso de clasificación.

La imagen es segmentada o partida en objetos que


forman las unidades de clasificación.

También se basa también en la teoría borrosa o


difusa, para la cual un objeto puede ser clasificado
en más de una clase con diferentes valores de
pertenencia.

En este análisis, las unidades básicas de procesado


son segmentos u objetos imagen constituidos por
conglomerados de celdas (clústeres).
Etapa de generalización de clasificaciones
Las imágenes clasificadas presentan una falta de continuidad y coherencia espacial de las clases.
Es recomendable suavizar la clasificación para mostrar únicamente las clases dominantes.

En la imagen clasificada quedan una serie de píxeles aislados, los cuales en muchos casos no
representan un área significativa, por lo que es recomendable aplicar un filtro con la finalidad de
que las clases predominantes absorban estos píxeles.
Etapa de generalización de clasificaciones
Algo que se debe tomar en cuenta al momento
de hacer este proceso es la escala final del
mapa. La aplicación de un filtro, en algunas
ocasiones, es innecesaria, en especial cuando
las muestras satisfacen la clasificación.

Al utilizar una imagen de alta resolución puede


generar muchos píxeles aislados, que muchas
veces el filtro no borra.

Si el número de píxeles aislados es


considerable, convendrá retornar a la fase
de entrenamiento (muestreo), con objeto de
deducir nuevas categorías o perfeccionar la
definición de las ya existentes.
Etapa de generalización de clasificaciones
Se puede generalizar la imagen mediante filtros u operadores morfológicos:
• Clump Classes: agrupa clases en otras adyacentes.
• Sieve Classes: elimina los píxeles aislados agrupándolos por zonas.
• Filtro Majority: aplica una ventana móvil para poder definir la clase mayoritaria.
Etapa de análisis de precisión y verificación de resultados
El análisis de precisión es un paso fundamental durante el proceso de clasificación digital. La
calidad hace referencia a la totalidad de las características de un producto que tienen que ver con
sus aptitudes para satisfacer las necesidades explícitas e implícitas. En cartografía, se considera el
control topológico y temático de la cartografía generada.

Un método apropiado para la evaluación es mediante matrices de confusión que compara los
resultados de la clasificación frente a los datos de validación obtenidos en el campo, obteniéndose:

• Precisión global cuantificando el número de píxeles clasificados correctamente.

• Precisión del productor que establece la probabilidad de que un píxel de una determinada clase
esté correctamente clasificado.

• Precisión del usuario que calcula la probabilidad de que un píxel clasificado como una clase
determinada corresponda realmente a dicha clase.

• Coeficiente Kappa que calcula la correspondencia entre la imagen clasificada y la realidad


según la exactitud de la clasificación y eliminando el factor azar.
Etapa de análisis de precisión y verificación de resultados
• Dado un muestreo aleatorio de puntos clasificados, los coeficientes que se miden para el análisis
de precisión y la verificación de los resultados son:
Clasificación
no
supervisada
Clasificación de imágenes
La elaboración de una clasificación del área de
estudio en una serie de clases relativas a litología,
tipos de vegetación, usos del suelo, etc., es uno de
los objetivos fundamentales en teledetección.

La clasificación en teledetección es, por tanto, un


caso particular del problema general de clasificar
N-individuos en un conjunto de K clases en
función de una serie de variables cuantitativas (
X1, X2,...,Xn).

Para resolver este problema se necesita una


medida de la semejanza o diferencia entre los
diferentes individuos y entre los individuos y las
clases. Dos individuos muy parecidos
pertenecerán probablemente a la misma clase,
mientras que dos individuos distintos pertenecerán
a diferentes clases.
Clasificación no supervisada
Es un clasificador que usa algoritmos para agregar
píxeles en grupos naturales o clúster con
características espectrales similares presentes
en la imagen.

En este tipo de proceso, el analista no interviene


en el proceso de clasificación, no requiere
conocimiento del área de estudio y no existen
áreas de entrenamiento.

Aunque los resultados son poco exactos, es un


paso obligado porque sirve para que el intérprete
pueda asociar tipos de coberturas a los clústeres
generados con información auxiliar.
Clasificación no supervisada
Se asume que los ND de la imagen forman una serie de agrupaciones o conglomerados (clústeres),
más o menos nítidos según los casos.

El método para definir los agrupamientos espectrales se basa en la selección de tres parámetros:

1. Variables que intervienen en el análisis, las bandas espectrales seleccionadas para la


clasificación, ya sea originales o resultado de una transformación (índices).

2. Criterio para medir la similitud o distancia entre casos, estos son los pixeles que componen una
imagen, cada uno de ellos definido por tantos ND como bandas que intervienen en el análisis.

3. Criterio para agrupar los casos similares, en el espacio multivariado se trata de encontrar los
grupos de pixeles con ND similares, para luego equipararlos con alguna de las clases de nuestra
leyenda
Clasificación no supervisada
En un gráfico bivariado aparecen tantos puntos
como pixeles, localizados de acuerdo a sus ND en
cada banda, que evidencian la existencia de
agrupaciones de pixeles con ND similares en las
dos bandas, que podrían identificar clases
temáticas de interés.

❑ Los puntos situados en la parte inferior izquierda


corresponden a pixeles con ND bajos en las dos
bandas.

❑ Los situados en la parte superior derecha sería


pixeles con altos valores en ambas bandas
En estas regiones del espectro podríamos
❑ El extremo superior izquierdo implica ND bajos
identificar como pertenecientes a agua, suelo
en la banda R y altos en IRC
desnudo o vegetación
Clasificación no supervisada
La delimitación de cada grupo espectral se inicia señalando dos criterios:

1. Uno que mida la similitud entre pixeles

2. Marque las condiciones del proceso de agrupamiento.

En el primer punto el criterio para medir la distancia entre pixeles se basa en la distancia euclidiana:

𝑑𝑎,𝑏 = ෍ (𝑁𝐷𝑎,𝑖 − 𝑁𝐷𝑏,𝑖 )2


𝑖=1,𝑚

Donde:

d(a,b) = indica la distancia entre dos pixeles cualquiera a,b

ND(a,i) y ND(b,i) = niveles digitales de esos en la banda i.

m = el número de bandas
Clasificación no supervisada
Cuando se realiza este proceso hay que
comprobar una a una cada correspondencia
entre la clase espectral y la clase temática.

Si existe la opción de introducir un número de


clases, habrá que determinar el máximo de clases
en función de las clases temáticas previstas y
añadir otras situaciones circunstanciales como
puede ser la presencia de nubes, nieve, zonas
de sombra, etc.

El Clustering o ISODATA es el algoritmo más


utilizado que utiliza una ‘distancia espectral
mínima’ para asignar a un agrupamiento un vector
característico candidato.
Clasificación no supervisada
Este algoritmo procede a partir de las
siguientes fases:
1. Se señalan una serie de centros de clase,
de acuerdo al número y forma indicados por
el usuario.
2. Se asignan todos los pixeles de la imagen al
centro de clase más próximo, utilizando el
criterio de distancia antes mencionado.
3. Se calculan de nuevo los centros de clase,
teniendo en cuenta los valores de todos los
pixeles que se le hayan incorporado en la
fase anterior.
Clasificación no supervisada
4. Se reordenan los centros de clase en función de
los parámetros de control indicados por el usuario
(distancia mínima entre grupos, tamaño mínimo de
un grupo, varianza máxima de un grupo y numero
de grupos.)

5. Se vuelven a asignar todos los pixeles de la


imagen al centro más cercano, el cual (debido al
desplazamiento registrado en el paso 3) no tiene
por qué coincidir con la asignación realizada en el
paso 2

6. Si el número de pixel que han cambiado de


categoría es inferior al señalado por el usuario se
termina el proceso, caso contrario retorna al paso 3
PRACTICA EN
CLASE
Conceptos Básicos:
Radar de Apertura Sintética (SAR)
Espectro Electromagnético

• Los sensores ópticos


miden la luz del sol
dispersada y funcionan en
el día nada mas.
• La superficie terrestre no
es observable con
sensores visibles o
infrarrojos cuando hay
nubes

2
Espectro Electromagnético

• Las microondas pueden penetrar las nubes y


vegetación y funcionar durante el día y la
noche

3
Teledetección: Sistemas Pasivos y Activos

Sensores Pasivos:
• La fuente de energía radiante
surge de fuentes naturales
• Por ejemplo: el sol, la Tierra,
otros cuerpos calientes
Sensores Activos:
• Proporcionan de forma
artificial su propia energía
radiante como fuente de
iluminación
• Por ejemplo (SAR, LIDAR)

4
Ventajas y Desventajas de la Teledetección:
Imágenes Radar vs Imágenes Óptica
Ventajas Desventajas
• Funcionan bajo casi cualquiera • La información es diferente a las
condición meteorológica
imágenes ópticas y algunas veces
• Observan la superficie terrestre en el día difícil de interpretar.
o la noche
• Penetran la vegetación • Presencia de moteado (efecto sal y
• Penetran los suelos pimienta en las imágenes)
• Los efectos atmosféricos son mínimos • Distorsiones en áreas donde hay
• Sensitivo a las propiedades dieléctricas topografía
de la superficie (ej. Agua congelada vs
descongelada)
• Sensitivo a la estructura de los
componentes de la superficie
5
Cobertura Global de Nubosidad

• La media de la fracción de
cobertura de nubes anual desde
1983-1990 utilizando datos del
International Satellite Cloud
Climatology Project (ISCCP)

Fuente: ISCCP, NASA Earth Observatory

6
Imágenes Ópticas vs. Radar
Volcán Kliuchevshoi en Kamchatka, Rusia, 5 oct. 1994

Fuente: Michigan Tech Volcanology


7
Conceptos Básicos de la Teledetección: Radar de Visión Hacia Abajo
vs. Radar de Visión Lateral

No se aprecia los
puntos a y b

8
Elementos Sistema SAR

Pulso (Pulse): Una breve ráfaga


de radiación electromagnética
transmitida por el radar.
Rango (Range): el tiempo rápido
dentro de un pulso recibido
Eco (Echo): La señal reflejada por
un objetivo de radar.

9
Conceptos Básicos de la Teledetección: Radar de Visión Lateral
• Las ondas de radar se propagan en la superficie en forma de abanico en relación a
la dirección de desplazamiento de la plataforma (satélite o avión).
• La antena recibe una porción de la energía reflejada o retro dispersada de varios
objetos dentro del área iluminada.

Fuente: Paul Messina, CUNY NY, after Drury 1990, Lillesand and Kiefer, 1994 10
Conceptos Básicos de la Teledetección: Radar de Visión Lateral
• Al medir el tiempo entre la transmisión del pulso y la recepción de la señal retrodispersada de los
objetos, se puede determinar la distancia y ubicación de los mismos en la superficie terrestre.
• Cada pixel en la imagen de radar representa una cantidad compleja de energía reflejada de vuelta
al satélite.
• La magnitud de cada pixel representa la intensidad de la señal reflejada.

Fuente: Paul Messina, CUNY NY, after Drury 1990, Lillesand and Kiefer, 1994 11
Formación de Imágenes de Radar

1. El radar mide la amplitud (la


magnitud del eco reflejado) y la
fase (la posición en la que se
encuentra un punto en un
momento especifico en el ciclo
de la onda)
2. El radar nada mas puede medir El radar transmite un pulso y mide el eco que retorna
la parte del eco reflejado en la (retrodispersion)
dirección de la antena (retro
dispersión)
3. El pulso de radar viaja a
la velocidad de la luz
Fuente: ESA- ASAR Handbook

12
Los Parámetros del Radar por Considerar en un Estudio

• Longitud de onda

• Polarización

• Ángulo de incidencia

13
Banda, Frecuencia y Longitud de Onda

Longitud de velocidad de la luz


=
onda frecuencia
En teledetección se hace referencia más a
la longitud de onda que a la frecuencia,
esto es debido a que la longitud de onda
define la interacción de la señal con la
superficie del terreno.

* Las longitudes de ondas mas frecuentemente usadas en


radar se encuentran en paréntesis

14
Características de SAR: Longitud de Onda

• Penetración de la señal es el Las Bandas de Frecuencias mas Utilizadas


factor principal en la selección
de la longitud de onda (λ).
• Penetración a través de la
vegetación o el suelo
incrementa mientras más larga
es la longitud de onda.
• Si un objeto es del tamaño
aproximado de la onda λ
entonces habrá interacción
• Si la λ es mucho más larga que
el objeto habrá una interacción
nula o mínima en la onda y el
objeto.
Fuente: DLR

15
Penetración de la Señal en Función a la Longitud de Onda

• Las ondas pueden penetrar la


Vegetation vegetación y también el suelo (en
condiciones secas)
• Generalmente, mientras mas larga la
Dry longitud de onda mayor es la
Alluvium penetración.

Dry Snow
Ice

X-band C-band L-band


3 cm 5 cm 23 cm Image based on ESA Radar Course 2

16
Ejemplo de la Penetración de la Señal de Radar en Suelos Secos

• Diferentes imágenes de satélite SIR-C C-Band SIR-C L-Band

del suroeste de Libia


• Las flechas indican posibles
sistemas fluviales

Image Credit: A Perego


17
Ejemplo de la Penetración de la Señal de Radar: El Río Nilo

18
Ejemplo de la Penetración de la Señal de Radar en los Humedales

• La band-L es ideal para el estudio Radar de SMAP de la Cuenca


de humedales porque la señal Amazónica
penetra a través del dorsal y puede
“ver” áreas inundadas
• En la imagen a la derecha las áreas
inundadas aparecen blancas.

19
17

Interacción de la Señal de Radar


Agua

Manglar

Suelo desnudo
Características de SAR: Polarización
• Las mediciones de radar pueden ser polarizadas (usualmente horizontal y vertical)
– HH: Transmitida Horizontalmente, Recibida Horizontalmente
– HV: Transmitida Horizontalmente, Recibida Verticalmente
– VH: Transmitida Verticalmente, Recibida Horizontalmente
– VV: Transmitida Verticalmente, Recibida Verticalmente
• Configuración Quad-Pol: Cuando las
cuatro polarizaciones se miden
• Diferentes polarizaciones pueden ser utilizadas
para determinar las propiedades físicas del objeto
observado

21
Polarizaciones Múltiples Reserva Forestal Pacaya-Samiria en el Perú
Imágenes de UAVSAR (HH, HV, VV)

R G B
(HH, HV, VV)

22
Características de SAR: Angulo de Incidencia

• El ángulo entre la dirección de onda de 1 cm de longitud


iluminación del radar y la vertical de
la superficie del terreno
• El ángulo de incidencia cambia
dependiendo de la altura del sensor
• Por ello la geometría de la imagen
varia de punto a punto en la dirección
de rango
• Angulo de incidencia local:
• toma en cuenta la inclinación local de
la superficie
• influye la intensidad de la imagen
Fuente: Left: Ulaby et al. (1981a), Right: ESA

23
Retrodispersión de la Señal de Radar
Retrodispersión de Radar

• El eco de radar contiene información sobre la superficie, la cual se caracteriza


por la retrodispersión de la onda electromagnética incidente.
• Esta dispersión depende de:
– el ángulo de la onda incidente - característica del radar
– la frecuencia o longitud de la onda - característica del radar
– polarización de la onda - característica del radar
– la constante dieléctrica de la superficie- característica de la superficie
– la aspereza de la superficie en relación a la longitud de onda-
característica de la superficie
– estructura y orientación de los objetos en la superficie- característica de
la superficie

25
Fundamentos de la Retrodispersión de la Señal

Densidad Tamaño en relación a la


onda de longitud

Constante dieléctrica Tamaño y orientación

26
Características de la Superficie: Constante Dieléctrica

(Agua)

Piedras
Suelo
Vegetación
Nieve

27
Propiedades Dieléctricas de la Superficie y el Estado Congelado
o Descongelado
• Durante la transición
de la superficie de
congelado a
descongelado hay
un cambio en las
propiedades
dieléctricas lo cual
causa un
incremento notable
en retrodispersión

28
Mecanismos de Interacción de la Señal de Radar con la Superficie
• La señal de radar es principalmente sensitivo a la estructura de la superficie
• La escala de los objetos en la superficie relativo a la longitud de onda
determina que tan áspero o liso aparecen al radar y que tan brillantes o
oscuros aparecen en la imagen

Mecanismos de Dispersión Mecanismos de Dispersión


Superficie lisa - dispersión espejo Doble Rebote

Superficie áspera Dispersión por Volumen

29
Mecanismos de Interacción de la Señal de Radar con la Vegetación

Fuentes de dispersión: 1) dispersión por volumen de la copa de los arboles 2)


dispersión directa con el tronco de los arboles, 3) dispersión directa con el
suelo, 4) el tronco y el suelo, 5a) la copa y el suelo, 5b) el suelo y la copa
30
Ejemplo de la Interacción de la Señal de Radar- Dispersión Espejo
Dispersión Espejo (Specular Reflection)

Mosaico de Radar de SMAP de la Cuenca


Amazónica Abr. 2015 (L-band, HH, 3 km)

Color del Pixel

Superficie plana y lisa


(agua, carretera)
31
Ejemplo de la Interacción de la Señal de Radar
Dispersión de Superficie Áspera (Rough Surface Scattering)

Mosaico de Radar de SMAP de la Cuenca


Amazónica Abr. 2015 (L-band, HH, 3 km)

Color del Pixel

Superficie áspera
(áreas deforestadas, campos agrícolas)
32
Ejemplo de la Interacción de la Señal de Radar
Dispersión por Volumen

Mosaico de Radar de SMAP de la Cuenca


Amazónica Abr. 2015 (L-band, HH, 3 km)

Color del Pixel

Vegetación

33
Ejemplo de la Interacción de la Señal de Radar
Dispersión por Doble Rebote

Mosaico de Radar de SMAP de la Cuenca


Amazónica Abr. 2015 (L-band, HH, 3 km)

1 Color del Pixel

Vegetación Inundada

34
Ejemplo: Detección de Derramamientos de Petróleo en el Mar

UAVSAR (2 metros):
HH, HV, VV

35
Ejemplo: Clasificación de Cobertura Terrestre

• Brasil
• JERS-1 L-band
• 100 metros de resolución

36
Distorsiones Geométricas y Radiométricas
de la Señal de Radar
Distorsión por Distancia Oblicua (Slant Range Distortion)

Distancia Oblicua • Se ven las distancias


entre el objeto en
superficie y el sensor.
• Los objetos cercanos
al radar se ven
compactas mientras
que los más alejados
se ven alargados
Distancia Terrestre

Fuente: Natural Resources Canada

38
Distorsiones Geométricas

Inversión por Relieve (Layover)


• Cuando la señal llega a la cima (B)
de la montaña antes que la base de
la montaña (A), resulta que en las
imágenes de radar la cima se
encuentra abajo y la base arriba.
• Este tipo de distorsión puede ser
corregido con un modelo digital de
elevación (MDE)

Fuente: Natural Resources Canada

39
Distorsiones Geométricas

Desplazamiento de Estructuras
(Foreshortening) • Cuando la señal de radar llega a la
base (A) de una estructura alta que
está orientada hacia el sensor, esta
señal llega antes que la señal de la
cima (B).
• Produce que la distancia entre la
base y la cima sea estrecha.
• Esto se corrige con un (MDE)

Fuente: Natural Resources Canada


40
Desplazamiento de Estructuras (Foreshortening)

Antes de la Corrección Después de la Corrección

Fuente: ASF

41
Fuente: Natural Resources Canada

Sombra

La sombra, es debido a que el radar no puede ver detrás de una montaña o estructura
vertical alta. Para corregir se usa valores de interpolación. 42
Distorsión Radiométrica

• El analista debe de corregir por la influencia de topografía en la retrodispersión


• Esta corrección elimina valores altos en áreas de topografía compleja
Antes de la Corrección Después de la Corrección

Fuente: ASF
43
Moteado (Speckle)
Moteado (Speckle)
El moteado (speckle) es un ‘ruido’ granular que existe inherentemente y
degrada la calidad de las imágenes de SAR

Fuente: ESA Fuente: Natural Resources Canada


45
Reducir el Moteado: Procesamiento Multi-Look

• Dividir el haz del radar en varios sub-haces que son más


angostos.
– e.g. 5 sub-haces en la imagen a la derecha.
• Cada sub-haz proporciona un “look” independiente al área
iluminada.
• Cada “looks” contiene speckle.
• Al sumar los diferentes “looks” y sacar el promedio, el
speckle se reduce en la imagen final.

Source: Natural Resources Canada

46
Reducir el Moteado: Filtración Espacial

• Se coloca una ventana sobre cada pixel en la imagen


• Se aplican cálculos matemáticos a los valores de
pixel dentro de la ventana
• El pixel central se remplaza con el nuevo valor
• La ventana se mueve a lo largo de las dimensiones
X e Y un pixel a la vez
• Reduce la apariencia visual del speckle y aplica un
efecto alisador

Source: Natural Resources Canada

47
Datos de Radar de Diferentes Satélites

Nombre de Sensor RADARSAT-2 Sentinel-1A RISAT-1


Canadian Space European Space Agency Indian Space Research
Agencia
Program (CSP) (ESA) Organization (ISRO)
Instrumento C-band SAR (5.4 GHz) C-band SAR (5.4 GHz) C-band SAR (5.35 GHz)
Visión lateral, 15-45° Visión lateral, 15-45°
Ángulo de Incidencia 36.85°
desviado del nadir desviado del nadir
Polarización HH, HV, VV, & VH (VV & VH) or (HH & HV) HH & HV
Altura del Sensor en
798 km 693 km 542 km
la Línea Ecuatorial
Heliosincrónica Heliosincrónica Heliosincrónica
Órbita
(anochecher/amanecer) (anochecer/amanecer) (anochecer/amanecer)
Tiempo de Revisita
(Ciclo de Repetición 24 días 12 días 25 días
Orbital)

48
Datos de Radar de Diferentes Satélites

Nombre de Sensor RADARSAT-2 Sentinel-1A RISAT-1

Resolución 100 m 5 m x 20 m ~25 m


500 km (modo
Anco de Barrido 250 km (IWS mode) 115 km (MRS)
ScanSAR)
Hora Local Media 6:00 a.m. descendiente 6:00 a.m. descendiente 6:00 a.m.

Lanzamiento 14 Dec 2007 3 April 2014 26 Apr 2012

Vita Útil Programada 7 años como mínimo 7 años 5 años

49
Fuentes de Imágenes SAR en el Alaska Satellite Facility

50
Misión “NISAR” (NASA-ISRO SAR):

• Resolución espacial alta con tiempo de


revisita frecuente
• Fecha de lanzamiento más pronta: 2021
• Radar de Apertura Sintética (SAR) de
frecuencia dual L- y S-band
– SAR de L-band de la NASA y SAR de
S-band de ISRO
• 3 años de operaciones científicas (+ de 5
años de consumibles)
• Todos los datos científicos se harán de
disponibilidad libre y gratuita

Slide Courtesy of Paul Rosen (JPL)

51
NISAR- Aplicaciónes Hidrológicas y de Reservorios Subsuperficiales
Respuestas a las Inundaciones
Producto de datos NISAR Producto informático
Aplicaciones Específicas
(Nivel 1 o Nivel 2) necesario*
• Producto geocodificado y calibrado • Cambio de extensión de
• SLC geocodificado/calibrado estaría bien aguas abiertas
Dirección de la inundación
• Imágenes de coherencia InSAR y • Extensión forestal inundada
corregistradas de pases repetidos
Medir cambios en el nivel del
Cambios en Niveles de Agua
agua en lugares donde áreas
en Áreas Forestales y Fase y coherencia InSAR
forestales y urbanas están
Urbanas
inundadas
Inundación causada por
huracanes y tifones
Mapa de coherencia geocodificado Mapa aéreo de inundación
(precipitación y marea
tormentosa)
Inundación causada por
Mapa de coherencia geocodificado Mapa aéreo de inundación
escorrentía y deshielo
52
NISAR- Aplicaciónes Hidrológicas y de Reservorios Subsuperficiales
Deformación Superficial Causada por Cambios Volumétricos en Reservirios Subsuperficiales

Producto de datos NISAR


Aplicaciones Específicas Producto informático necesario*
(Nivel 1 o Nivel 2)
Agotamiento y recarga de • Interferogramas geocodificados Tasas y series temporales de
acuíferos (tanto natural como desenvueltos desplazameinto vertical superficial
antrópico) • Mapas de coherencia
geocodificados
Extracción de petróleo y de gas • Mapas de vectores LOS Tasas de desplazamiento vertical
natural de yacimientos terrestres geocodificados superficial

• Datos brutos de (respuesta rápida)


• Interferogramas geocodificados
desenvueltos Desplazamiento vertical superficial
Extensión y grado de severidad • Mapas de coherencia para el período temporal que
de colapso de mina geocodificados define el evento
• Mapas de vectores LOS
geocodificados

53
NISAR Aplicaciónes Hidrológicas y de Reservorios Subsuperficiales

Producto de datos NISAR (Nivel 1


Aplicaciones Específicas Producto informático necesario*
o Nivel 2)
Yacimientos de gas y de fluidos
Secuestro de CO2 SLC InSAR Deformación de series temporales
• Deformación de series
Almacenamiento de gas
SLC InSAR temporales
subterráneo (UGS)
• Deformación debido a fugas
Retiro e inyección de fluidos
• Deformación de series
Terremotos ocasionados por la
SLC InSAR temporales
producción acuífera
• Deformación debido a fugas
Equivalente en agua de la nieve
Estimación del equivalente en
• Producto geocodificado y calibrado
agua de la nive según la cuenca • Equivalente en agua de la nieve
• InSAR y PolSAR
de aguas subterráneas
54

Common questions

Con tecnología de IA

ND (Digital Number) values play a crucial role in supervised classification as they numerically represent pixel spectral characteristics in images. During the training stage, ND values from training areas are used to define the range of spectral signatures representative of each class . These values are then compared against every pixel in the image to determine class membership based on similarity, thus affecting the accuracy and reliability of classification results . Correctly chosen ND ranges ensure that each pixel accurately reflects its class, minimizing the 'unknown' category incidence .

The penetration capability of radar signals is determined primarily by the signal's wavelength. Longer wavelengths, such as those in the L-band, penetrate vegetation and soil more effectively than shorter wavelengths like X-band . The state of the soil (dry or wet) and the structure and density of the vegetation also affect penetration depth. In dry conditions, longer wavelengths penetrate deeper into the soil and vegetation layers .

Radar images differ from optical images as they rely on electromagnetic waves to detect surface characteristics rather than visual light. This allows radar to penetrate clouds, vegetation, and even soil to some extent, providing insights into otherwise obscured areas . Radar images are sensitive to surface texture, dielectric properties, and structure, leading to effects like speckle noise and requiring different interpretation techniques compared to optical images, which are more straightforward to visually interpret .

Fieldwork enhances the accuracy of supervised classifications by providing ground truth data that ensures the ROIs selected are truly representative of each category . It helps in identifying unique spectral signatures and aids in setting appropriate classification thresholds, thereby reducing ambiguity and improving the realism of classification results .

L-band radar imagery is particularly beneficial for wetland studies as its longer wavelength allows deeper penetration of canopy layers and can detect sub-canopy and water surfaces effectively . Unlike shorter wavelengths (e.g., X-band), L-band can differentiate between flooded and non-flooded areas as it penetrates dense vegetation, providing clear demarcation of wetland spatial extents and conditions . This capability helps in accurate mapping and monitoring changes in wetland habitats essential for environmental assessments .

When selecting ROIs for training a supervised classification model, it is critical to ensure that the areas are representative, homogeneous, and cover the spectral variability inherent in each class . ROIs should include sufficient capture of environmental variations, ensuring multiple samples per category to reflect geographic diversity without redundancy, which can clutter the training set . Selecting ROIs based on clear, identifiable features like water or forests initially simplifies delineation , and field verification is often necessary to align perceived classifications with real-world conditions, minimizing classification errors .

The critical steps in a supervised classification process include: 1) Training Stage, where the interpreter selects training areas that are representative of each category and delineates regions of interest (ROI) on the image based on local knowledge or fieldwork . 2) Classification Stage, where pixels are categorized based on their spectral similarities to the training data. Pixels that do not closely resemble any category are marked as 'unknown' . 3) Precision Analysis and Verification, which compares classified data against field data to estimate classification accuracy, ensuring that the pixel sample is sufficiently representative .

Several methods are employed for classifying radar images based on their characteristics: 1) Parallelepiped Classification assigns pixels to a class if they fall within predefined value ranges, useful for data with clear class boundaries . 2) Minimum Distance Classification assigns pixels to the nearest class mean, suitable for data with a small standard deviation. 3) Maximum Likelihood Classification uses statistical probability to assign pixels to classes based on variance and covariance, handling complex overlaps effectively . 4) Spectral Angle Mapping identifies mixed pixels by comparing angle differences in spectral spaces, beneficial when dealing with mixed land covers .

The angle of incidence, which is the angle between the direction of the radar beam and the vertical, significantly affects radar image interpretation. It influences the intensity of backscatter received by the radar sensor. Steeper angles reduce the area illuminated and can enhance topographical features, while shallower angles increase the area viewed and can result in less detailed imagery . The local incidence angle also plays a role, as it takes into account the slope of the surface, affecting brightness variations in the radar image .

In object-oriented image analysis, texture and contextual information are employed alongside spectral data to classify images more accurately. Images are segmented into objects or clusters, which are analyzed as single entities considering their spectral, textual, and shape attributes . Texture provides insight into the surface roughness, aiding in distinguishing between natural and manmade surfaces, while contextual information offers additional classification cues based on the object's relationship with surrounding features, enabling better overall classification .

También podría gustarte