0% encontró este documento útil (0 votos)
196 vistas46 páginas

Guía Completa de Teledetección

Este documento trata sobre teledetección. Define teledetección como la adquisición y procesamiento de datos de la superficie terrestre mediante sensores en plataformas espaciales o aéreas. Explica los principios físicos involucrados, los tipos de sensores y sistemas como RADAR, y las aplicaciones de teledetección en áreas como agricultura, bosques, geología y planificación. También cubre conceptos como resolución espacial, espectral, radiométrica y temporal de los datos de teledetección.

Cargado por

julio
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOC, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
196 vistas46 páginas

Guía Completa de Teledetección

Este documento trata sobre teledetección. Define teledetección como la adquisición y procesamiento de datos de la superficie terrestre mediante sensores en plataformas espaciales o aéreas. Explica los principios físicos involucrados, los tipos de sensores y sistemas como RADAR, y las aplicaciones de teledetección en áreas como agricultura, bosques, geología y planificación. También cubre conceptos como resolución espacial, espectral, radiométrica y temporal de los datos de teledetección.

Cargado por

julio
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOC, PDF, TXT o lee en línea desde Scribd

TELEDETECCIÓN

 Definición de teledetección
 Tipos de datos e imágenes de teledetección
 Resoluciones
 Aplicaciones de la teledetección
 Principios físicos
 Reseñas históricas
 El espectro electromagnético
 Principales bandas del espectro
 Algunas definiciones
 Algunas magnitudes radiométricas
 Definiciones de tipo de superficies
 Leyes de la radiación electromagnética
 Otros factores importantes
 Dominio óptico
 Comportamiento espectral teórico para los tres elementos
 fundamentales del paisaje en dominio óptico
 Dominio del infrarrojo térmico
 Comportamiento espectral teórico para los tres elementos
 fundamentales del paisaje en dominio infrarrojo térmico
 Dominio de las microondas
 Dominio del radio
 Interacción de la atmósfera con la radiacción
electromagnética
 Tipos de sensores
 Productos disponibles en el mercado

 Sistema RADAR
 Ventajas del sistema radar
 Características del sistema radar
 Aplicaciones del sistema radar
 Técnicas estadísticas elementales
 Técnicas estadísticas multidimensionales
 Primeros tratamientos en la imagen
 Correcciones geométricas
 Procedimientos de remuestreo
Clasificación
Fase de entrenamiento
Fase de asignación
Análisis subpíxel
Filtrado de imágenes clasificadas

BASE MATEMÁTICA Y ESTADÍSTICA


Estadística munidimensional
Variable aleatoria y variable estadística
Medidas de centralización
Medidas de dispersión
Experimentos bivariantes
Coeficiente de correlación lineal
Matriz de correlación
Matriz de varianza-covarianza
Transformación de Karhunen-Loeve
Formulación descriptiva
Formulación matemática

TRATAMIENTO DIGITAL DE IMÁGENES


Definiciones
Elementos de un sistema de procesamiento digital
Mejora de imagen
Filtrado espacial
Filtrado en frecuencia
Filtros morfológicos
Filtros de textura
Fundamentos del color
Codificación de imágenes
TELEDETECCIÓN

DEFINICIÓN DE TELEDETECCIÓN
El término teledetección es una traducción del inglés 'remote sensing', y se refiere no sólo a
la captación de datos desde el aire o desde el espacio sino también a su posterior
tratamiento. Una definición más formal la describe como la técnica de adquisición y
posterior tratamiento de datos de la superficie terrestre desde sensores instalados en
plataformas espaciales, en virtud de la interacción electromagnética existente entre la tierra
y el sensor, siendo la fuente de radiación bien proveniente del sol (teledetección pasiva) o
del propio sensor (teledetección activa).

Nuestros sentidos perciben un objeto sólo cuando pueden descifrar la información


que éste les envía y la propia visión es, en sí, un proceso de teledetección. Los tres
elementos principales en un sistema de teledetección son:

sensor: el ojo, la película fotográfica


objeto observado
flujo energético que permite poner a los dos anteriores en relación.

Este flujo procede del objeto por reflexión de la luz solar (color de los objetos), por
emisión propia o también podría tratarse de energía emitida por el propio sensor y reflejada
por el objeto, en cuyo caso la teledetección recibe el nombre de ACTIVA, por oposición a
teledetección PASIVA, cuando la fuente energética es el sol.

La posibilidad de adquirir información a distancia se basa en lo específico de la interacción


entre la radiación electromagnética y la materia. Todos los objetos tienen una respuesta
espectral propia y además esta combinación espectral es similar a la que presentan otros
objetos o superficies de las mismas características u homogeneidad.

La teledetección consiste en la identificación de los objetos a partir de las diferencias en la


energía reflejada. Existen tres tipos de información que se puede recoger:

Espacial, indicando la organización en el espacio de los elementos.


Espectral, denotando la naturaleza de las superficies.
Temporal, donde se observan los cambios en el tiempo de una determinada zona.

En el campo del Análisis de Sistemas se definen modelos abstractos de sistemas físicos


reales. Un sistema viene caracterizado por su estado, definido por sus variables de estado y
el modo en que esas variables cambian en el tiempo, como una función del estado previo y
la-s entrada-s al sistema.

El mundo puede ser tratado como un gran sistema. Cada disciplina científica construye su
propio modelo abstracto de 'el mundo'. Para medir el estado del mundo, son necesarias
medidas de las variables de estado. Por razones prácticas de rapidez y sencillez, es mejor
extraer datos de mediciones sin contacto físico. Este es el campo de la adquisición de datos
por teledetección.

Dado el estado del mundo en un instante t, un buen modelo y conocimiento de la entrada


del sistema, se puede realizar una estimación del estado futuro:

Estado (t+1) = f (Estado(t), Entrada(t))

Extracción de información es la actividad de responder a cuestiones usando datos y reglas


en un contexto adecuado.

Acercamiento sistemático a la teledetección


Un acercamiento sistemático significa que un problema complejo es dividido en
subproblemas más pequeños hasta que seamos capaces de resolver de forma más o menos
trivial todos los subproblemas. Para implementar esta estrategia, los sistemas reales son
abstraídos a sistemas modelos que son divididos en subsistemas. Si para cada subsistema la
relación entre la entrada y la salida es conocida, habremos hallado la relación entre la
entrada y la salida para el sistema completo.

Teledetección es la actividad de recolectar información de datos obtenidos mediante


medidas sin contacto. Modelamos la extracción de información desde teledetección como
un sistema de extracción de información que produce respuestas a preguntas propuestas por
usuarios de datos de teledetección, observaciones de campo y datos históricos, todo ello
almacenado en un SIG (Sistema de Información Geográfica).

La principal fuente de datos consiste en una imagen, matriz bidimensional. Un dato


particular representa un elemento de la escena sobre la superficie de la tierra, llamado
elemento imagen y representado como un píxel (picture element).

TIPOS DE DATOS EN IMÁGENES DE TELEDETECCIÓN


Según el modelo multibanda presentado en el gráfico anterior, se puede almacenar una
imagen digital completa (con todas las bandas) de tres formas diferentes, en función del
ordenamiento de los píxeles:
BSQ (Band Sequential): Se guardan las bandas en orden consecutivo. Idóneo para
procesamiento espacial, ya que toda la información de una banda es fácilmente
accesible al encontrarse junta y consecutiva.
BIP (Bands Interleaved by Pixel): todas las bandas de un determinado píxel son
almacenados de forma consecutiva. Idóneo para procesamiento espectral, por
encontrarse seguida la información de cada píxel.
BIL (Bands Interleaved by Line): todas las bandas de una determinada línea son
almacenadas de forma consecutiva. Compromiso entre los dos formatos anteriores.
RESOLUCIONES
Las características fundamentales de los datos adquiridos en un sistema de este tipo, se
pueden definir por parámetros como:

RESOLUCIÓN ESPECTRAL
Se refiere al número de bandas y a la anchura espectral de esas bandas que un sensor
puede detectar. [Link]. la banda 1 del TM recoge la energía entre 0.45 y 0.52 mm. Es
una resolución espectral más fina que la de la banda pancromática del SPOT, que
está entre 0.51 y 0.73 mm.

RESOLUCIÓN ESPACIAL
Es una medida del objeto más pequeño que puede ser resuelto por el sensor, o el
área en la superficie que recoge cada píxel.

RESOLUCIÓN RADIOMÉTRICA
Se refiere al rango dinámico, o número de posibles valores que puede tomar cada
dato. [Link]. con 8 bits, el rango de valores va de 0 a 255.

RESOLUCIÓN TEMPORAL
Se refiere a cada cuanto tiempo recoge el sensor una imagen de un área particular.
[Link]. el satélite Landsat puede ver el mismo área del globo cada 16 días.

APLICACIONES DE LA TELEDETECCIÓN

La teledetección se ha aplicado con bastante éxito y sobre todo, con la certeza de que será
una tecnología importantísima a corto plazo, en áreas y aplicaciones como:

 Metereología
 Análisis de masas nubosas y su evolución
 Modelización climática a diferentes escalas
 Predicción de desastres naturales de origen climático
 Agricultura y Bosques
 Discriminación de tipos de vegetación: tipos de cultivos, tipos de maderas...
 Determinación del vigor de la vegetación
 Determinación del rango de interpretabilidad y biomasa
 Medición de extensión de cultivos y maderas por especies
 Clasificación de usos del suelo
 Cartografía y actualización de mapas
 Categorización de la capacidad de la tierra
 Separación de categorías urbana y rural
 Planificación regional
 Cartografía de redes de transporte
 Cartografía de límites tierra-agua
 Cartografía de fracturas
 Geología
 Reconocimiento de tipos de roca
 Cartografía de unidades geológicas principales
 Revisión de mapas geológicos
 Delineación de rocas y suelos no consolidados
 Cartografía de intrusiones ígneas
 Cartografía de depósitos de superficie volcánica reciente
 Cartografía de terrenos
 Búsqueda de guías de superficie para mineralización
 Determinación de estructuras regionales
 Cartografías lineales
 Recursos Hidrográficos
 Determinación de límites, áreas y volúmenes de superficies acuáticas
 Cartografía de inundaciones
 Determinación del área y límites de zonas nevadas
 Medida de rasgos glaciales
 Medida de modelos de sedimentación y turbidez
 Determinación de la profundidad del agua
 Delineación de campos irrigados
 Inventario de lagos
 Detección de zonas de alteraciones hidrotermales
 Oceanografía y Recursos Marítimos
 Detección de organismos marinos vivos
 Determinación de modelos de turbidez y circulación
 Cartografía térmica de la superficie del mar
 Cartografía de cambios de orillas
 Cartografía de orillas y áreas superficiales
 Cartografía de hielos para navegación
 Estudio de mareas y olas
 Medio Ambiente
 Control de superficies mineras
 Cartografía y control de polución de aguas
 Detección de polución del aire y sus efectos
 Determinación de efectos de desastres naturales
 Control medioambiental de actividades humanas (eutrofización de aguas, pérdida de
hojas, etc.)
 Seguimiento de incendios forestales y sus efectos
 Estimación de modelos de escorrentía y erosión
PRINCIPIOS FÍSICOS

RESEÑAS HISTÓRICAS
Históricamente, las propiedades de la radiación electromagnética se han explicado por dos
teorías aparentemente contrapuestas:

Teoría ondulatoria
Representada sobre todo por científicos como Huygens o Maxwel. Propone que la
naturaleza de la luz es ondulatoria y se transmite siguiendo un modelo armónico y
continuo, a la velocidad de 3x108 m/sg. Está formada por dos campos de fuerzas
ortogonales entre sí: eléctrico y magnético. Las características de esta onda pueden
describirse con dos parámetros:
- longitud de onda (l): distancia entre dos picos sucesivos de una onda,
entre dos puntos con igual fase.
- frecuencia (F): número de ciclos que pasan por un punto fijo por
unidad de
tiempo.

La relación entre longitud de onda y frecuencia viene dada por la expresión

(c=3108m/sg)
Teoría corpuscular.
Fueron sus principales defensores Planck y Einstein. Propugnaban que la luz es una
sucesión de unidades discretas de energía (fotones) con masa igual a cero. Son
paquetes discretos de energía. La cantidad de energía transportada por un fotón es
Q=hF. Esto significa que a mayor frecuencia, mayor será la energía transportada y
viceversa; por eso será más difícil detectar radiación de frecuencias bajas, porque
conllevan menor cantidad de energía.

Actualmente se compaginan ambas; la naturaleza de la luz es dual (De Broglie). El


movimiento de toda partícula lleva asociado una onda, caracterizada por su longitud
de onda y su energía. Dependiendo del fenómeno en particular, se estudiará desde
un punto de vista u otro.

EL ESPECTRO ELECTROMAGNÉTICO

Podemos definir totalmente cualquier tipo de energía dando su longitud de onda (o


frecuencia). El espectro electromagnético es la sucesión continua de esos valores de
frecuencia, aunque conceptualmente se divide en bandas, en las que la radiacción
electromagnética manifiesta un comportamiento similar.

Desde el punto de vista de la teledetección destacan una serie de bandas como las más
utilizadas dada la tecnología actual. Estas bandas se resumen a continuación
 Espectro visible (0.4 - 0.7 mm.). Es la única radiación electromagnética perceptible
por el ojo humano (de ahí su nombre). Coincide con la longitud de onda donde es
máxima la radiación solar. Podemos localizar los distintos colores en las longitudes:
Azul: 0.4 - 0.5 mm., Verde: 0.5 - 0.6 mm., Rojo: 0.6 - 0.7 mm.

 Infrarrojo próximo (0.7 - 1.3 mm.). Banda importante para diferenciar masa
vegetales y concentraciones de humedad.

 Infrarrojo medio (1.3 - 8 mm.). En esta región se entremezclan los procesos de


reflexión de luz solar y de emisión de la superficie terrestre, por lo que hay muchas
dificultades.

 Infrarrojo lejano o térmico (8 - 14 mm.). Es la región del espectro en la que emiten


energía todos los cuerpos de la superficie terrestre.

 Microondas (desde 1 mm.). Tiene la propiedad de ser transparente a la cubierta


nubosa, pero también de llevar asociada muy poca energía. Por eso, si se quiere usar
esta banda tendrá que ser haciendo teledetección activa.

ALGUNAS DEFINICIONES

- Cuerpo negro: es un emisor perfecto (e=1). Un cuerpo negro transforma la energía


calorífica en energía radiante a la máxima velocidad en consonancia con las leyes
termodinámicas. Un emisor perfecto es también un absorbente perfecto.
- Cuerpo blanco: refleja toda la energía que recibe (e=0)
- Cuerpo gris: absorbe y emite de forma constante para todas las longitudes de onda
(e=cte.)
- Radiador selectivo: absorbe y emite de forma distinta para diferentes longitudes de onda
(e¹cte). Son los cuerpos más abundantes en la naturaleza.

ALGUNAS MAGNITUDES RADIOMÉTRICAS

- Energía. Capacidad para realizar un trabajo. Se mide en Julios (J).


- Energía radiante (Q). Energía asociada con la radiación electromagnética. Indica el total
de energía radiada en todas las direcciones. Se mide en Julios (J).
- Flujo radiante (f). Energía radiante por unidad de tiempo. Se mide en vatios (W).
- Emitancia (M). Energía radiante desde una unidad de área y por unidad de tiempo. Se
mide en vatios por metro cuadrado (W/m2).
- Irradiancia (E). Energía radiante sobre una unidad de área y por unidad de tiempo.
(W/m2).
- Radiancia (L). Total de energía radiada por unidad de área y por ángulo sólido de medida.
Se mide en vatios por metro cuadrado y estereo-radian (W/m2sr)

Otras magnitudes (adimensionales). Se expresan en tanto por ciento o tanto por uno.
- Emisividad (e). Relación entre la emitancia de una superficie (M) y la que ofrecería un
emisor perfecto, denominado cuerpo negro, a la misma temperatura (Mn).
- Reflectividad (r). Relación entre el flujo incidente y reflejado en una superficie.
- Absortividad (a). Relación entre el flujo incidente y el que absorbe una superficie.
- Transmisividad (t). Relación entre el flujo incidente y el transmitido por una superficie.

DEFINICIONES DE TIPOS DE SUPERFICIES

- Especular: Es aquella superficie ideal en la que se cumple perfectamente la ley de la


reflexión (ángulo incidente = ángulo reflejado).
- Lambertiana: Es aquella superficie, también ideal, que refleja la radiación incidente
de manera uniforme en todas las direcciones.

En realidad todas las superficies son una mezcla de las dos, además es función de la
longitud de onda. Si ésta es pequeña, las rugosidades tienden a difundir mucho más la
energía incidente que si son longitudes de onda mayores, con comportamiento más
especular.

LEYES DE LA RADIACIÓN ELECTROMAGNÉTICA

Cualquier objeto con temperatura por encima del cero absoluto (-273 ºC) radia energía.
Para distintas temperaturas, varían dos aspectos: se incrementa la energía total radiada, y
por otro lado se amplía el rango del espectro en el que radia (con el consiguiente
desplazamiento de la longitud de onda de máxima radiación). A partir de 2000 ºK un cuerpo
empieza a emitir radiación visible que, empezando por el rojo, si sigue subiendo la
temperatura, termina en el blanco. Existen curvas calculadas en laboratorio, llamadas
curvas de emitancia de un cuerpo negro a distintas temperaturas. Con este gráfico se puede
conocer el comportamiento espectral de un cuerpo, conocida su temperatura y emisividad
(grado de similitud con un cuerpo negro).

La longitud de onda a la que se produce la máxima emitancia de un cuerpo negro viene


dada por la ley de Wien: (T en ºK, l en mm.)

Otros factores importantes

Para una misma superficie, el flujo de energía recibido por el sensor no sólo depende de la
reflectividad, sino también de otros factores:
-Ángulo de iluminación solar (depende de la fecha del año y la hora de medición)
- Relieve (distintas pendientes)
- Influencia de la atmósfera (dispersión y absorción)
-Variaciones medioambientales de la superficie (asociación con otras cubiertas,
homogeneidad).

La conclusión que se obtiene de la presencia perturbadora de estos factores es que en torno


a un comportamiento tipo, que se denomina firma espectral, cada cubierta presenta una
cierta variabilidad espectral debida a los factores ya comentados, que dificulta su
discriminación de otras superficies.

DOMINIO ÓPTICO

Ya hemos visto antes que esta banda constituye el grupo de longitudes de onda
directamente dependientes de la luz solar. Es la banda de mayor interés para la observación
remota de la superficie terrestre.

La curva de emitancia del sol se asemeja bastante a la de un cuerpo negro a esa


temperatura. La radiación cuando entra en contacto con la superficie terrestre puede sufrir
cuatro procesos diferentes:
- Parte será reflejada con un ángulo similar a aquél con el que haya incididido. Esta
reflexión recibe el nombre de ESPECULAR.
- Parte será reflejada uniformemente en todas direcciones. Reflexión
LAMBERTIANA.
- Parte será absorvida por el objeto, de modo que éste sufra un calentamiento. Más
adelante perderá esa energía en forma de radiación en el infrarrojo térmico, el cuerpo se
enfriará.
- Parte será transmitida a otros objetos o a la superficie terrestre y no volverá al
espacio exterior, donde se encuentra el sensor.

El flujo radiante se descompone en tres términos: fi=fr+fa+ft (flujo incidente es igual al


reflejado más el absorbido más el transmitido). Dividiendo todos los términos entre fi
obtenemos: 1=r+a+t. Siendo rigurosos, dependen de la longitud de onda: 1=rl+al+tl

El que esta proporción rl+al+tl varíe con la longitud de onda, es interesante para poder
distinguir diversas zonas conociendo precisamente esa variación de proporciones. Las
divergencias espectrales entre superficies, permitirán distinguirlas (especialmente los
referidos a reflectividad, que suponen la principal fuente de información en teledetección),
una vez hayan sido corregidos de los efectos causados por la atmósfera y otras anomalías.
En el espectro visible, esta divergencia se manifiesta en lo que llamamos 'color'.

Teniendo en cuenta la componente de reflectividad (rl), que es lo que podemos medir con el
sensor, podremos saber qué tipo de superficie es la que da esa firma espectral.

COMPORTAMIENTO ESPECTRAL TEÓRICO PARA LOS TRES ELEMENTOS FUNDAMENTALES


DEL PAISAJE, EN EL DOMINIO ÓPTICO

Vegetación vigorosa

Es especialmente variable, dependiendo de múltiples factores: estado fenológico, forma y


contenido en humedad. De manera general, se puede decir que presenta una reducida
reflectividad en las bandas visibles, con un máximo relativo en la región del verde (0.55
mm.). Esto es debido al efecto absorbente de los pigmentos foto-sintéticos de las hojas. De
entre estos, la clorofila absorbe en la zona del rojo. Por eso, en vegetación no vigorosa la
clorofila no absorbe tanto y la hoja amarillea (verde + rojo).

La estructura celular interna da la elevada reflectividad en el infrarrojo cercano que luego


va reduciendose paulatinamente hacia el infrarrojo medio. Por tanto, el contraste más nítido
se presenta entre las bandas visibles (especialmente rojo) y el infrarrojo cercano. Cuanto
mayor sea ese contraste, mayor será el vigor de la vegetación.
Estos tres parámetros: cantidad de pigmentos, estructura celular y contenido en agua,
manifestados por la respuesta espectral de esa masa de vegetación de la que forman parte
puede servir para discernir entre unas especies y otras, su nivel de desarrollo, e incluso
entre su estado sanitario.

Suelos

Muchas veces son invisibles, debido a la vegetación. Para suelos desnudos,


comportamiento espectral mucho más uniforme que el de la vegetación. La curva espectral
que presentan es bastante plana y de carácter ligeramente ascendente.

El comportamiento espectral del suelo desnudo es mucho más uniforme que el de la


vegetación, mostrando una curva espectral bastante plana y de caracter ascendente. Los
principales factores que intervienen en este caso son la composición química del suelo, su
textura y estructura y el contenido en humedad. Por ejemplo, un suelo de origen calcáreo
tiende al color blanco, indicando alta reflectividad en todas las bandas visibles, mientras
que los arcillosos ofrecen una mayor reflectividad en el rojo, como consecuencia de su
contenido en óxido de hierro. La reflectividad espectral presenta mayores valores en suelos
de textura gruesa, apelmazados, secos y sin materia orgánica. Como ya se ha dicho para la
vegetación, el contenido en humedad es uno de los elementos destacados en la reflectividad
en longitudes de onda largas (infrarrojo medio) y así suelos con alto contenido en humedad
darán una reflectividad baja en esa banda. Cuanto más seco y apelmazado sea un suelo,
mayor será su reflectividad.

Agua

Absorbe o transmite la mayor parte de la radiación visible que recibe. Por tanto presentará
una curva espectral plana, baja y de sentido descendente. De todas formas, en aguas poco
profundas, la reflectividad aumenta. Los factores que afectan a este comportamiento son:
profundidad, contenido en materias en suspensión (clorofila, arcillas y nutrientes) y
rugosidad de la superficie (factor, éste último extremadamente importante).

Por su parte, la nieve ofrece un comportamiento completamente diferente al del agua, con
una reflectividad elevada en las bandas visibles, reduciéndose drásticamente en el infrarrojo
cercano.
DOMINIO DEL INFRARROJO TÉRMICO

Como la temperatura de la superficie terrestre es de unos 300 ºK, su emitancia espectral es


máxima en la banda entre 8 y 14 mm. (infrarrojo térmico). Esto nos permitirá detectar el
calor que procede de las distintas superficies, pero para ello no se mide la energía reflejada,
sino la emitida, en función de la temperatura. Se produce el fenómeno de que casi toda esta
energía es absorbida por la atmósfera, con lo que se calienta, permitiendo la existencia de
vida. Pero hay una ventana de transmisión entre 8 y 14 mm que se puede usar en
teledetección.

COMPORTAMIENTO ESPECTRAL TEÓRICO PARA LOS TRES ELEMENTOS FUNDAMENTALES


DEL PAISAJE, EN EL DOMINIO DEL INFRARROJO TÉRMICO

Vegetación

Presenta unas propiedades en general bastante complejas. Como absorbe energía solar
durante el día, y la devuelve durante la noche, está más caliente que el aire que la rodea
durante la noche, y más fría que su entorno durante el día.

Suelos y agua

El factor más destacado es su contenido de humedad. A mayor humedad, más frío estará
durante el día y más cálido durante la noche, con respecto a los suelos secos. El agua posee
la mayor inercia térmica debido a su alta conductividad. Es más difícil que cambie su
temperatura.

DOMINIO DE LAS MICROONDAS

Se trata de las mayores longitudes de onda utilizadas en teledetección. La observación de


esta banda es compleja, y todavía no muy común. Pero el interés está creciendo debido a
que en estas frecuencias las atmósfera es transparente y no existe el problema de que las
cubiertas nubosas oculten la superficie terrestre.

Como la emitancia de los objetos es muy baja en esta banda, es muy difícil detectar flujo.
Los aparatos que lo hacen se llaman radiómetros de micro-ondas. Por lo tanto, se
construyen sensores para esta banda que emiten su propio haz de micro-ondas, del que
posteriormente recogerán su reflexión (teledetección activa).

En este tipo de sistemas, tiene mucha importancia la rugosidad de la superficie para cómo
sea la señal de retorno. [Link]. los suelos rugosos y secos tendrán un mayor coeficiente de
retro-difusión, y por tanto, aparecerán en tonos más claros en las imágenes radar.
DOMINIO DE RADIO

Más allá de la región de las microondas, se encuentra esta zona de longitudes de onda muy
grandes. Se usa en teledetección, pero no para detectar fenómenos de la superficie terrestre
sino para transmitir datos y comandos entre el satélite y la base terrestre. Si no hay enlace
directo con tierra, o bien se graba la lectura del sensor en cinta, para su posterior
transmisión, o bien se utiliza una red de satélites de comunicaciones intermediaria.

INTERACCIÓN DE LA ATMÓSFERA CON LA RADIACIÓN ELECTROMAGNÉTICA

Hay que tener en cuenta un cuarto elemento aparte del sensor, el objeto y el flujo
electromagnético: la atmósfera que hay entre medio. La energía solar incidente en
nuestro planeta está cifrada en 340 Wm--2 (vatios/m2). De toda ella sólo 173 llegan a la
superficie terrestre, este factor de reducción o ALVEDO habrá de ser tenido en cuenta a la
hora de interpretar la respuesta de los objetos. En el trayecto seguido por la radiacción
electromagnética ésta sufrirá tres fenómenos principales: absorción, dispersión, emisión

Sus efectos se manifiestan en un emborronamiento de la imagen; se reduce el contraste y la


cantidad total de radiación que llega al sensor. Existen diversas correcciones en forma de
algoritmos para tratar estos efectos.

Absorción

Proceso por el cual las moléculas y partículas de la atmósfera absorben la energía radiante
(65 Wm--2 ) y la transforman en energía interna que posteriormente será emitida en el
infrarrojo térmico. La atmósfera reduce así la observación espacial a ciertas bandas
concretas del espectro, llamadas ventanas atmosféricas. Pero si lo que se pretende es
estudiar la atmósfera (satélites meteorológicos). los sensores se diseñarán para captar la
radiación precisamente en aquellos lugares donde la absorción atmosférica sea más alta.

Dispersión

Este fenómeno se traduce en un redireccionamiento o pequeño desvío del camino recto de


propagación. Es causado por la interacción entre la radiación y los gases y partículas
atmosféricas. La reflexión consiguiente a ese choque, supone un aporte adicional a la
radiancia proveniente de la superficie terrestre. Se reduce por tanto la radiancia directa,
aumentando la difusa. Los principales causantes son los aerosoles y el vapor de agua.

Se describen tres tipos de dispersión:


- Dispersión Rayleigh: se produce cuando afecta a longitudes de onda menores que el
tamaño de la partícula. Afecta por tanto a las longitudes de onda más cortas. Es la de mayor
influencia en teledetección. Es la causante del color azul del cielo.
- Dispersión Mie: se produce cuando afecta a longitudes de onda de tamaño similar al
tamaño de la partícula. También depende de la longitud de onda.
- Dispersión no selectiva: producida por las partículas de mayor tamaño. Afecta por igual a
todas las longitudes de onda. Por eso las nubes y nieblas se ven de color blanco, ya que
dispersan por igual toda la luz visible.

Emisión

Como cualquier cuerpo con temperatura mayor que -273 ºK, emite su propia radiación, que
lógicamente tiene mayor importancia en el infrarrojo térmico. Por tanto, su efecto es
fundamental si pretendemos trabajar en dicha banda del infrarrojo térmico.

Tipos de sensores

En un sistema de teledetección el sensor es básico y la consecución de los objetivos


propuestos a la hora de realizar cualquier tipo de proyecto de teledetección dependerá de
su correcta elección en función de sus resoluciones espectral, espacial, temporal y
radiométrica.

Los sensores pueden clasificarse, en primera instancia, en:


- activos: son aquellos que emiten radiación en la longitud de onda deseada y luego reciben
la porción que los objetos han reflejado.
- pasivos: cuando se limitan a recibir radiación electromagnética.

Otro método de clasificación los diferencia en función del satélite o plataforma sobre la que
van instalados:
- satélites de órbita geoestacionária: "vuelan" a 300.000 kilómetros sobre la Tierra y giran
con el mismo periodo de revolución que ella, de forma que el sensor está continuamente
tomando imágenes (electrónmicas, no fotográficas) del mismo punto.
- satélites de órbitas polares: orbitan a 400 km. de distancia, su tamaño de pixel será, por
tanto, más reducido, y vuelven a tomar la misma escena cada cierto periodo de tiempo.

PRODUCTOS DISPONIBLES EN EL MERCADO

Los productos más clásicos son las imágenes LANDSAT (TM y MSS) y las SPOT,
las primeras han sido desarrolladas por la Agencia Espacial Norteamericana, mientras que
el proyecto SPOT está a cargo del CNES francés en colaboración con Bélgica y Suiza. A
continuación se dan algunas características de cada una de ellas:

Landsat MSS. El sensor MSS va instalado sobre satélites Landsat. El campo total
de visión del sensor abarca 11,56 grados, lo que supone cubrir una franja de terreno de 185
km. Una escena de erste sensor contiene 2.340 líneas y 3.240 columnas, representando cada
pixel superficies de 57*79 m. Registra información en cuatro bandas del espectro:
- banda 4: 0,5-0,6 mm: verde
- banda 5: 0,6-0,7 mm: rojo
- banda 6: 0,7-0,8 mm: infrarojo próximo
- banda 7: 0,8-1,1 mm: infrarojo próximo
Tiene un precio aproximado de 35.000 pts

Landsat TM. El sensor TM (Thematic Mapper) es el sucesor en la serie Landsat del MSS.
Supone grandes mejoras en las resoluciones espacial, espectral y radiométrica: de 79 a 39
metros, de 4 a 7 bandas y de 6 a 8 bits (actualmente las imágenes MSS también se codifican
en 8 bits). La resolución espectral del sensor es:
- banda 1: 0,45-0,52 mm: azul
- banda 2: 0,52-0,60 mm: verde
- banda 3: 0,63-0,69 mm: rojo
- banda 4: 0,76-0,90 mm: infrarojo próximo
- banda 5: 1,55-1,75 mm: infrarojo medio
- banda 6: 10,40-12,50 mm: infrarojo térmico
- banda 7: 2,08-2,35 mm: infrarojo medio
La banda 6 tiene una resolución espacial de 120 m. Tiene un precio aproximado de 690.000
pts

SPOT. El sistema de exploración instalado en esta plataforma se denomina HRV y


permite dos modos de captura de la información: pancromático y multibanda con unas
resoluciones espaciales de 20 y 10 m. respectivamente. El área cubierta por cada escena es
de 60*60 km. Es sensible en las siguientes bandas del espectro:
- multibanda XS1: 0,5-0,59 mm: verde
- multibanda XS2: 0,61-0,68 mm: rojo
- multibanda XS3: 0,79-0,89 mm: infrarojo próximo
- pancromático PAN: 0,51-0,73 mm: parte del visible

Una importante novedad del sistema es su capacidad para variar el ángulo de


observación, lo que le permite observar la misma zona en pasadas sucesivas, de modo que
entre dos imágenes de la misma zona tomadas en pasadas consecutivas tengan una zona
común y permitan la visión estereoscópica, lo que permitiría crear un modelo digital del
terreno. El precio de una escena multiespectral es de 320.000 pts y 400.000 pesetas.

Todos estos productos varían su precio en función de las correcciones a las que
hayan sido sometidos previamente a la distribución del producto. Las correcciones
sistemáticas se clasifican en radiométricas y geométricas, corrigiendo las primeras entre
otros, los efectos producidos por la mala calibración de los sensores y las segundas las
debidas a la esfericidad y la rotación terrestre. Por ejemplo, en los satélites Spot y Landsat
estos niveles de procesamiento se materializan en :

SPOT

Nivel 1A: Para este nivel de procesamiento no se lleva a cabo ninguna corrección
geométrica. En radiometría, sólo se corrigen los efectos instrumentales mediante un modelo
lineal destinado a igualar la sensibilidad de los detectores. Estas correcciones mínimas se
aplican, de forma sistemática, a todos los datos Spot. La imagen no sufre ningún
remuestreo, siendo de 6000x6000 píxeles en pancromático y 3000x3000 en multibanda.
Precio aproximado 320.000 pts.
Nivel 1B: Se efectúan las mismas correcciones radiométricas que para el nivel 1A. Las
correcciones geométricas se aplican a los efectos sistemáticos: efecto panorámico, efecto de
rotación y de curvatura de la tierra, variación de altitud del satélite con respecto al elipsoide
de referencia. Las correcciones geométricas sirven para corregir el efecto panorámico.

Nivel 2: Las correcciones radiométricas son las del nivel 1A. Las correcciones
geométricas, bidimensionales, se hacen conforme a una ley de deformación de la imagen
establecida a partir de un modelo nacido de los datos auxiliares de altitud. Esta ley no
recurre a un modelo numérico de terreno: los efectos de paralaje no se corrigen, de modo
que queda preservada la capacidadde visión estereoscópica SPOT.

Nivel 2A: La escena se restituye sin toma de puntos de apoyo, en un sistema de


representación cartográfica determinado. Aunque la precisión de localización absoluta es
idéntica a la obtenida en el nivel 1B, se puede, encambio, calibrar cualquier punto de la
imagen por sus coordenadas rectangulares.

Nivel 2B: Al realizarse las correcciones geométricas con la ayuda de puntos de apoyo, el
error cuarático medio es de 30 m. Para la realización del nivel 2B, es preciso poder
disponer de la cartografía topográfica. De no existir se pueden tomar con GPS.

Nivel S: Se realizan las mismas correcciones radiométricas que para el nivel 1A. Las
correcciones geométricas son idénticas a las aplicadas al nivel 2. Se llevan a cabo a partir
de puntos de control tomados en la imagen de referencia. La imagen se somete a un
remuestreo.

LANDSAT TM

DATOS BRUTOS: Están corregidos radiométricamente. Su precio aproximado es de


618.000 pesetas.
SYSTEM CORRECTED: Imágenes corregidas de los efectos de la altitud y la esfericidad
terrestre. Su precio aproximado es de 618.000 pts.

GEOCODIFICADAS:
- Sin puntos de control terrestres. 918.000 pts
- Con puntos de control terrestres. 1.006.850 pts
- Con puntos y modelos digitales del terreno. 1.130.500 pts

También distribuyen bandas aisladas y productos fotográficos.

Hay otros sistemas de exploración espacial del territorio, aunque son de menor difusión o
de aplicaciones más específicas: NOAA (el sensor que lleva incorporado es el AVHRR de
resolución 1 km. y cinco canales de observación), METEOSAT (satélite geoestacionario
con un tamaño de píxel de 5 km), ERS (es un satélite europeo en el que hay participación
española. Su resolución espacial es de 30 metros), SEASAT, JERS (plataforma japonesa
híbrida: activa y pasiva), HELIOS, MIR, etc. y los sistemas activos de RADAR (SLAR,
SAR, SEASAT) y LIDAR
Sistema radar

El Radar (RAdio Detection And Rangin) mide el tiempo de retardo y la anchura del
eco reflejado de un pulso de radiación electromagnética.
Un sistema radar consiste en:
- Un Transmisor, genera un pulso de radio y luz de gran potencia con longitudes de
onda entre 1 y 100 cm.
- El Sensor activo, envía pulsos a la antena y retorna el eco al receptor.
- Una Antena, la cuál envía el pulso transmitido a la zona de estudio y recoge
losecos devueltos.
- Un receptor el cual convierte el eco devuelto a código digital numérico.
- Un grabador de datos, el cuál almacena la imagen dato para ser procesada y
visualizada.

La técnica radar conocida como Radar de Apetura Sintético (SAR), es un tipo de


sistema de radar modificado para producir imágenes en vez de gráficos de rangos y
direcciones. Al igual que las técnicas radar más comunes, las imágenes radar también
transmiten pulsos de energía microondas y, es por ello considerado un sistema de sensor
remoto activo. Estas carcaterísticas lo hacen diferente a la mayoría del resto de los sistemas
de sensores remotos y permite operar de noche o bajo condiciones de nubosidad densa .

VENTAJAS DEL SISTEMA RADAR

Las ventajas de las imágenes radar frente a otros sistemas ópticos (por ejemplo,
Landsat o Spot) incluyen:
- Debido a que la energía de las microondas no es afectada por las cubiertas nubosas el
sistema radar de obtención de imágenes es capaz de obtener una alta calidad en zonas
tradicionalmente nubosas como los polos o los trópicos.
- En regiones muy áridas la energía de las microondas puede penetrar en la superficie hasta
una profundidad considerable, dándonos medidas únicas de las propiedades de la cubierta
terrestre.
- En regiones con vegetación muy abundante, el sistema radar puede penetrar en la cubierta
y en la imagen resultado podrá observarse claramente la superficie situada bajo la
vegetación.
- El sistema radar utiliza la interacción de las microondas con la superficie de estudio y su
posterior reflexión y difusión. Esto nos permite deducir información sobre la naturaleza de
los objetos que no hubiese sido posible obtener utilizando otros métodos convencionales.
SAR por lo tanto, complementa otro tipo de datos como por ejemplo los infrarrojos.

CARACTERÍSTICAS DEL SISTEMA RADAR

Moteado
La imagen aparece con un "sarpullido" causado por una combinación de la dispersion de
muchas pequeñas dispersiones dentro de un píxel. Una resolucion mas alta puede no
producir este efecto. El moteado puede desaparcer al hacer la media entre diferentes vistas,
pero esto reduce la resolución de la imagen

Ambigüedades
Las ambigüedades son irreales, particularmente las aparecidas en los bordes de las masas de
agua. Esto es debido a las reflexiones procedentes de otros pulsos.

Superposicion de niveles
En un caso extremo, la cima de la montaña aparece más cercana que la parte baja. Esto
puede mejorarse incrementando el ángulo del punto de vista.

Sombra radar
Las pendientes traseras de las montañas aparecen negras. Esto puede ser mejorado usando
datos de otra pasada.

Alto contraste en áreas urbanas


Estas zonas causan una dispersión debido a las esquinas reflectoras y las los efectos
suavizantes de las calles. Los ángulos afilados aparecen brillantes y las carreteras oscuras.

Distorsión radiométrica
La imagen puede aparecer más luminosa en el centro. Esto también puede causar bandeo,
todo debido al tipo de antena de radar.

Interferencias
Formas lineales o paralelogramos brillantes a lo largo de la imagen pueden ser causadas por
otros emisores radar operando en la misma frecuencia dentro del area de trabajo.

APLICACIONES DEL SISTEMA RADAR

Se enumeran las siguientes aplicaciones:

- Producción de mapas topográficos. Las imágenes radar ayudan a producir un mapa


topográfico digital del globo entero con un alto grado de precisión: en alturas 1 m. en zonas
relativamente llanas y 5 m. en zonas de alto relieve.
- La habilidad del radar para penetrar en la arena seca y en algunas cubierta vegetal la hace
muy útil en exploración arqueológica.
- Análisis de desastres. El radar puede recolectar datos de noche, a través de nubes e incluso
lluvia. Esto permite un rápido acceso a información de la zona afectada incluyendo
extensiones dañadas por terremotos, huracanes, lavas o coladas de barro, inundaciones,
maremotos ...
- El radar, por interferometría puede grabar diferencias de nivel de 2 a 10 cm en casos de
terremotos, actividad volcánica.
- Visualizando masas de hielo en el mar. Las imágenes radar de la zonas heladas pueden ser
usadas para controlar cambios climáticos o seguir el movimiento de los grandes icebergs.
El mar en estas zonas es una mezcla de hielo, burbujas de aire y bolsas de agua. En las
imágenes radar, el mar abierto se ve de color negro debido a la reflexión especular
ignorando las olas. El hielo "nuevo" es muy rugoso, mientras que el viejo es relativamente
suave causando un alto nivel de volumen de dispersión.
- Mezcla de suelos. La constante dieléctrica del suelo varia según sea el contenido
heterogéneo del suelo. De este modo, a medida que el contenido de la mezcla se
incrementa, la penetración de las ondas radar disminuye causando que la imagen aparezca
con mayor brillo de lo habitual. Este efecto puede ser usado en aplicaciones agrícolas y
medioambientales.

TÉCNICAS ESTADÍSTICAS ELEMENTALES

Con el objeto de realizar una serie de estudios previos y de sondeo con las bandas
obtenidas, serán de utilidad una serie de técnicas estadísticas ya conocidas, que aquí se
mencionarán sólo a modo descriptivo:

Habrá que conocer en qué medida siguen nuestros datos las diversas hipótesis hechas en los
modelos matemáticos que se apliquen después. Un ejemplo claro es la hipótesis de
normalidad de los datos de cara a proceder a realizar una clasificación supervisada por el
método de máxima probabilidad. Será útil pues, establecer algún tipo de test de normalidad.
También será importante eliminar valores aberrantes o anómalos. La obtención de
estadísticas elementales que sinteticen y describan las diferentes bandas espectrales será la
primera operación a realizar.

Será de gran utilidad el cálculo de las medidas de centralidad (media, mediana y moda) y
de dispersión (varianza, desviación típica) de las distintas bandas espectrales.

La realización de los histogramas de cada banda nos ilustrará acerca de su distribución,


pudiéndose verificar la normalidad de las mismas.

La determinación del número de combinaciones espectrales distintas que se presentan en la


imagen reducen drásticamente el número de datos a tratar y mejora su interpretabilidad al
permitir observar mejor ciertas pautas.

El cálculo de las matrices de varianza-covarianza y de correlaciones nos expresará el grado


de interdependencia existente entre las bandas dos a dos. La realización de histogramas
bidimensionales con dos bandas informará acerca de la distribución bivariante de ambas.

Otra técnica de gran importancia consiste en realizar cocientes entre bandas. Esto
proporciona una información nueva que puede ser muy relevante para la detección de
ciertos fenómenos, como por ejemplo la separación de terrenos desnudos y zonas arboladas.

TÉCNICAS ESTADÍSTICAS MULTIDIMENSIONALES

La imagen analizada estará siempre representada, desde un punto de vista estadístico, por
una nube de puntos en un espacio multidimensional. Dicho espacio de representación puede
ser o bien el espacio original constituido por las bandas espectrales, o bien un espacio
transformado constituido por combinaciones lineales de las bandas.

Los objetivos que se persiguen al generar estos nuevos espacios de representación son los
siguientes:
- Extraer la información básica contenida en el conjunto de las bandas a través de un
pequeño número de factores.
- Reducir el volumen de información a tratar posteriormente al aplicar técnicas de
clasificación automática o reconocimiento de patrones. Esta reducción en el volumen de
información puede disminuir el coste de transmisión de los datos del satélite a la tierra.
- Obtener unas nuevas bandas espectrales que estén intercorreladas (lo cual evitará el
manejo de información redundante) y cuyo contenido de información decrezca rápidamente
de la primera a la última.

La técnica más utilizada en este contexto ha sido el Análisis de Componentes Principales (o


transformación de Karhunen-Loeve, ampliamente utilizada).

PRIMEROS TRATAMIENTOS EN LA IMAGEN

La teledetección espacial con equipos óptico-electrónicos emplea un soporte no


clásico para la grabación de la información (no usa, por ejemplo, emulsión fotográfica). El
sensor explora secuencialmente la superficie terrestre, adquiriendo a intervalos regulares la
radiación que proviene de los objetos situados en ella. El sensor detecta la radiación media
de una parcela de terreno equivalente al tamaño del pixel. Este valor medio se traduce a
valor numérico, que debe ser interpretado. Dado que la respuesta recogida en un pixel está
afectada por diversas alteraciones es recomendable hacer una serie de operaciones
correctoras.

CORRECCIÓN DE AGENTES EXTERNOS

El flujo de energía recibido por el sensor no sólo depende de la reflectividad de la


cubierta, sino también de otros factores externos. Los más importantes son:

- condiciones atmosféricas.
- geometría de la observación. El ángulo de elevación solar (fuente del flujo
energético) y ángulo de obsevación (posición del sensor) respecto a la superficie
terrestre determinan la respuesta que ésta da.

REALCE DE IMÁGENES

Supone un cambio en el modo en que se visualiza la información contenida en la


imagen, pero sin alterarla. El realce es básico cuando se pretende un análisis visual
de la imagen.
Correcciones geométricas

Las imágenes de teledetección no son mapas. No poseen escala. Y muchas de las


aplicaciones de la teledetección requieren que los datos estén referidos a una base
geográfica, que permita localizar los valores de reflectancia correspondientes a un
determinado punto del terreno.

Si podemos buscar puntos dentro de la imagen de los que sabemos sus coordenadas
geográficas (bien a partir de un mapa o bien a partir de otra imagen ya rectificada),
podremos calcular una transformación que obtenga la proyección de los datos en un
plano, conforme a un sistema de proyección cartográfico. A esos puntos se les llama
puntos de control (GCP, Ground Control Points).

La relación entre el sistema de coordenadas de la imagen y el de la realidad se


construye mediante una transformación. Se trata de una regresión lineal múltiple. Se
emplea el método de mínimos cuadrados para calcular esos coeficientes de las
funciones de transformación.

Con una transformación lineal (de primer orden) sólo podemos hacer tres cosas:
rotar, escalar y trasladar una imagen. Son necesarios 6 coeficientes. Con
transformaciones no lineales (de segundo orden o más) también podremos corregir
las distorsiones internas de la imagen. Serán necesarios 12 coeficientes para
segundo orden, 20 para tercer orden, etc. con los que el número de puntos de control
a buscar será mayor.

La bondad del grado de ajuste se mide por la importancia de los residuales. El


indicador más utilizado es el error medio cuadrático (RMS). El promedio de los
RMS para todos los puntos de control facilita una evaluación de la calidad general
del ajuste. Podemos hacer que el RMS sea cero aumentando suficientemente el
grado de la transformación, pero eso puede ser innecesario. Lo que se hace es tolerar
un cierto margen de error (de RMS). El RMS expresa distancia en el sistema de
unidades origen, esto es, distancia en número de píxeles. Un RMS de 2 significa que
el píxel de referencia está dos píxeles alejado del píxel retransformado.

Se necesita también conocer el tamaño del píxel para que en la operación de


remuestreo (ver siguiente apartado) se pueda calcular el número de píxeles que se
deberán intercalar entre posiciones conocidas de referencia.

La calidad y cantidad de puntos de control utilizados determinan el grado de


precisión en la captación de la geometría de una imagen. También es importante que
estén uniformemente distribuidos por toda la imagen. Deben ser de localización
fácil y segura; así, son buenos ejemplos: las intersecciones de carreteras,
confluencias de ríos, estribos de las presas, etc.

Se pueden buscar las coordenadas geográficas en un mapa (registro de imagen a


mapa), o bien en otra imagen ya corregida de la misma zona (registro de imagen a
imagen).
PROCEDIMIENTOS DE REMUESTREO

Las transformaciones anteriores permiten calcular la posición correcta de cada píxel, pero
esto supone un trasvase de coordenadas, no de NDs. ¿Cómo llenar esa matriz corregida? Lo
normal es que el píxel de la imagen nueva se sitúe entre varios de la original. Tres métodos:

- Vecino más cercano: toma el valor del píxel de la imagen original más cercano a las
coordenadas calculadas. Presenta las ventajas de que es un método rápido y asegura que el
valor del píxel existe en realidad, no es 'inventado', pero la desventaja de que introduce
rasgos no lineales, como fracturas en las líneas rectas. Por otra parte es el único aplicable a
imágenes clasificadas, ya que en ese caso no se puede permitir realizar promedios de los
valores existentes.

- Interpolación bilineal: se interpola el valor de los cuatro píxeles más cercanos al punto
calculado. Da un resultado más suave.

- Interpolación bicúbica: se basa en un ajuste con un polinomio de tercer grado. Se toman


los 16 puntos más cercanos. Es el más complicado pero el que da la imagen más natural.

Debido a que el remuestreo puede alterar de alguna forma el contenido real de los datos
proporcionados por el sensor, si se piensa clasificar una imagen, es mejor dejar este proceso
de rectificación geométrica para después de la clasificación. Una imagen sin rectificar es
espectralmente más correcta que una rectificada.

Por último, si la imagen ya está rectificada, para georreferenciarla tan solo hay que guardar
las coordenadas geográficas del píxel superior izquierdo, y el tamaño del píxel, en la
cabecera.
Clasificación

Clasificar una imagen consiste en tomar decisiones. En teledetección, esas decisiones


pueden ser del tipo asignar este píxel a la categoría A, siempre en función de algún criterio
de clasificación y atendiendo a alguna medición sobre el elemento a clasificar (en nuestro
caso, la firma espectral). El objetivo de toda clasificación es el reconocimiento de clases o
grupos cuyos miembros tengan ciertas características en común. El resultado ideal consiste
en obtener clases que sean mutuamente excluyentes y exhaustivas. Al conjunto de valores
de un píxel en varias bandas espectrales (lo que se define como firma espectral) podemos
verlo desde el punto de vista de la clasificación como un patrón, y al conjunto de
características o variables en las que se han tomado esos píxeles se les denomina rasgos.
Así, un patrón es un conjunto de medidas en una serie de rasgos, y la clasificación puede
definirse como una forma de reconocimiento de patrones, donde los pasos a seguir serían:

1.- Selección de los rasgos particulares que mejor describan el patrón.


2.- Elección de un método adecuado para la comparación de los patrones.
3.- Como paso opcional, la comprobación de los resultados; medición del grado de
exactitud conseguido con esa clasificación.

Podemos diferenciar dos tipos principales de clasificación: supervisada, si partimos de un


cierto conocimiento sobre la zona a clasificar y a partir del cual obtendremos criterios de
clasificación, y no supervisada, si no tenemos ningún conocimiento previo y de lo que se
trata es de discriminar píxeles en función de una magnitud cuantitativa de diferenciación
entre unos y otros.

Clasificación supervisada: previamente se han de seleccionar muestras de cada clase


constitutiva. Esas zonas, conocidas como zonas de entrenamiento, serán procesadas a fin de
calcular sus estadísticas: media, rango, desviación típica, etc. en todas las bandas que
intervengan en la clasificación.

Clasificación no supervisada: supone la búsqueda automática de grupos de valores


homogéneos. La intervención humana se centra más en la interpretación de resultados que
en la consecución de los mismos.

Se proponen también algunos métodos mixtos, ya que el método supervisado puede resultar
a veces demasiado subjetivo y el no supervisado puede carecer de significado físico real.

Independientemente del método utilizado, se hace necesario efectuar un análisis de las


estadísticas, para comprobar que efectivamente se podrá efectuar una discriminación entre
clases, esto será función del grado de compactación de cada clase y la separación entre
clases diferentes. El grado de compactación de una clase, es función de la dispersión de sus
puntos alrededor del centro de la clase, y podemos estimar el grado de separación entre
clases atendiendo a la distancia entre dichos centros y al grado de dispersión de los puntos.

FASE DE ENTRENAMIENTO
Esta fase, que sólo se efectúa si se trata de una clasificación supervisada, consiste en
seleccionar muestras, en forma de zonas de píxeles concretos, que se asignarán por el
usuario a una clase concreta, basándose en el conocimiento previo que se tiene sobre la
imagen. A partir de los puntos de las zonas de entrenamiento, se extraerán ciertos
parámetros estadísticos. La elección de los parámetros a calcular dependerá del método
concreto de asignación que se vaya a emplear después. Así, el método del paralelepípedo
requiere conocer los valores máximos y mínimos de cada clase en cada banda, mientras que
el de mínima distancia requiere calcular la media en cada banda. El método más elaborado,
el de máxima probabilidad, requiere el cálculo de la media en cada banda y la matriz de
varianza-covarianza de cada clase.

Ni que decir tiene que es fundamental la correcta selección de las muestras, ya que en caso
contrario, las estadísticas no serán las correctas y los resultados pueden ser completamente
erróneos. Por otro lado, la validez de los resultados dependerá de dos factores:
- El grado de fiabilidad de los posibles supuestos previos que se hayan hecho.
- La representatividad de la muestras tomadas

Las suposiciones que se toman como ciertas a priori sobre los datos, dependerán también
del método de asignación empleado. Aquí también, el método más complejo es en el que se
realizan las suposiciones más rígidas. Explicaré qué consideraciones se toman en los
respectivos apartados posteriores.

La representatividad de las muestras indica que los píxeles tomados contienen las distintas
'variedades' que se dan en el rango de valores de cada clase, y además que se toman en las
proporciones adecuadas. Una zona que contiene un tipo de vegetación, pongamos por caso,
coníferas, contendrá una serie de puntos con valores estadísticamente muy correlados (esto
es lo que se llama 'autocorrelación espacial'), mientras que los píxeles de coníferas
correspondientes a otra zona separada, seguramente tendrán una cierta separación espectral
respecto a los primeros, por efecto de la distinta concentración en esa zona, el relieve del
terreno, o el estado de la vegetación. Es por tanto deseable escoger distintas variedades de
una clase por toda la imagen, más que escoger una zona amplia pero correspondiente a un
mismo área.

FASE DE ASIGNACIÓN

Se trata de adscribir cada uno de los píxeles de la imagen a una de las clases previamente
seleccionadas. Existen distintos algoritmos para este propósito:

Paralelepípedo
Es el método que menos cantidad de información requiere a partir de las muestras. Se fija
un área de dominio para cada clase, según sus valores máximo y mínimo (aunque también
se pueden establecer otros límites en función de la centralidad y dispersión de los valores.
Ese área tendrá la forma geométrica de un paralelepípedo, que definirá las regiones en el
espacio n-dimensional. Un píxel pertenece a una clase si entra dentro del paralelepípedo
que la clase define. Si no entra dentro de ninguna clase, queda sin clasificar.
Es un método rápido y simple. Viene bien como primera aproximación. Como desventaja,
puede producir píxeles sin clasificar y paralelepípedos superpuestos. Una forma de
solucionar el caso de que un píxel esté dentro de dos paralelepípedos es asignarlo al
primero de ellos que se haya encontrado pertenencia. En este caso cobra especial
importancia por tanto el orden en el que se verifique la pertenencia a cada clase. Otra
solución propone calcular en caso de incertidumbre la distancia euclídea al centro de cada
paralelepípedo como criterio de asignación.

Mínima Distancia
Se incluye el píxel en aquella categoría que minimiza la distancia entre el píxel y el
centroide de la clase. El centroide de una clase es un vector, cuyas componentes son las
medias aritméticas de los valores de muestra de los píxeles de esa clase en cada banda. Se
emplea la distancia euclidia

Metodo de clasificación de mínima distancia


Se puede indicar un umbral para cada clase, indicando la máxima distancia permitida para
asignar pertenencia a esa clase. Así podremos parametrizar distintas distancias máximas
para distintas clases, en función del grado de concentración que presentan los píxeles.
También es un método rápido. Pero presenta la desventaja de que no tiene en cuenta la
variabilidad entre clases (la nube de puntos con forma elipsoidal).

Distancia de Mahalanobis
Asume previamente que los histogramas de las clases tienen distribuciones normales. La
forma geométrica de la nube de puntos que representa al conjunto de píxeles pertenecientes
a una clase puede ser descrita por una elipsoide. Dicha forma de elipsoide dependía
directamente de la covarianza entre las distintas variables. La localización, forma y tamaño
de las elipses reflejan la media, varianzas y covarianzas de los datos, y esta idea se puede
trasladar fácilmente a n-dimensiones.
La distancia de Mahalanobis tiene en cuenta la variabilidad de clases. [Link]. clasificando
áreas urbanas puede haber píxeles correctamente clasificados más lejos de la media que en
una clase de agua, donde los valores están todos más agrupados (menor varianza)

Máxima Probabilidad
También asume previamente que los histogramas de las clases tienen distribuciones
normales. Si no es así, mejor usar otro método. Está basado en calcular las probabilidades
de que un píxel pertenezca a cada clase. Se asignará a la clase de mayor probabilidad. Es el
más complejo y que más cálculos realiza pero también el que da los mejores resultados.
Tiene en cuenta la variabilidad de las clases, al igual que la distancia de Mahalanobis.

Por último, es posible también establecer unos umbrales de probabilidad para cada
categoría, de forma que los elementos cuya máxima probabilidad de pertenencia a una clase
sea menor que dicho umbral, queden rechazados, es decir, sin clasificar.

EVALUACIÓN DE LAS CLASIFICACIONES

Una vez que la clasificación se ha efectuado, se puede determinar el grado de error


cometido, en términos de número de píxeles incorrectamente clasificados. Los resultados
de las clasificaciones tanto supervisadas como no supervisadas se pueden evaluar con la
ayuda de las áreas de comprobación. El diseño de muestreo de dichas áreas y su
localización debe realizarse previamente a la clasificación para evitar posibles sesgos. Estas
áreas de comprobación serán perfectamente conocidas y tendremos tabuladas la superficie
que poseen cada una de las clases. En estas mismas áreas se evalúan las superficies de cada
clase que se han obtenido a través de las clasificaciones realizadas con el ordenador y se
comparan con los anteriores resultados. La utilización de áreas de entrenamiento para este
propósito es claramente inadecuado.

Siempre se puede realizar una clasificación que se adapte a lo que marcamos, pero lo que
intentamos medir es el grado de aproximación con la realidad, no con las muestras que
hemos introducido. Este es por tanto el inconveniente del método ya que es difícil
conseguir esa información de referencia.

La construcción de matrices de confusión en las que las filas representan las clases
verdaderas y las columnas las clases asignadas en el proceso clasificador, dan una medida
de la calidad de la clasificación. Cuanto mayores sean los valores contenidos en la diagonal
principal con respecto a los del resto de la matriz, más fiable será la clasificación realizada.
Al final los resultados se expresan en porcentajes de acierto para cada clase y totales.

Análisis de subpíxel

En los últimos tiempos, están surgiendo avanzadas técnicas de clasificación que


perfeccionan el proceso, incluyendo nuevas herramientas. Uno de esos métodos es el
llamado 'análisis de subpíxel', que es el que describiré a continuación:

Las superficies naturales, rara vez están compuestas de un sólo material uniforme. La
mezcla espectral se da cuando materiales con diferentes propiedades espectrales se ven
representadas en un único píxel en la imagen digital. Con este método no podremos saber
dónde dentro de cada píxel se da cada superficie, puesto que hemos llegado al límite de
resolución espacial, pero sí que podemos cuantificar las proporciones de reflectancia que
corresponden a cada una.

El modelo lineal que se aplica, asume que no se produce interacción entre materiales. Este
modelo lineal tiene validez en las escalas en las que se trabaja en teledetección. A pequeñas
escalas, los efectos de dispersión producen no linealidades en la mezcla.

El modelo establece que la firma espectral de un píxel es combinación lineal de varias


firmas espectrales 'puras', ponderadas por sus factores de abundancia. Matemáticamente, el
espectro observado (un vector) es el producto matricial de una matriz que contiene los
espectros de los distintos elementos puros, por el vector de abundancias. Por tanto,
calculando el producto de la matriz inversa de los elementos puros por el espectro de un
píxel, da como resultado el vector de abundancias que se desea establecer.

PRINCIPIOS DEL ANÁLISIS DE SUBPÍXEL


Los espectros puros se pueden obtener de dos formas: bien a partir de espectros de
materiales aislados medidos en laboratorio, o bien a partir de ciertas manipulaciones
matemáticas con la imagen que extrae esa información particularizada. El resultado ahora
no es decir que a un píxel determinado corresponde a cierta clase, sino determinar qué tanto
por ciento de cada clase está presente en cada píxel de la imagen.

Filtrado de imágenes clasificadas

El resultado de una clasificación suele dar píxeles sueltos en medio de una zona
homogénea, perdiendo unidad geográfica y dificultando la interpretación. A esto se le llama
'efecto de sal y pimienta'.
Para solventarlo, se emplea una técnica de suavización de resultados, similar a aplicar un
filtro pasa-bajos (aunque no igual ya que no puedo aplicar promedios de píxeles contiguos).
Hay que tener en cuenta que podemos estar eliminando parte de la exactitud por la que
tanto nos hemos esforzado en el proceso de clasificación, en aras de unos resultados más
homogéneos y fáciles de interpretar. En el equilibrio entre ambos criterios estará el punto
de equilibrio. Dos tipos de filtros:

Filtro Modal
El píxel situado en el centro de la matriz 3x3 del filtro se asigna a la categoría más
frecuente entre los píxeles vecinos.

Filtro de Mayoría
El píxel central se asigna a la categoría que cuente con la mitad más uno de los píxeles
vecinos. Si ninguna categoría rebasa ese valor, se deja como estaba.
Base matemática y estadística

Estadística unidimensional

Variable aleatoria y variable estadística


Dado un experimento aleatorio, los posibles resultados que puedan ocurrir son sucesos que
dependen del azar y que dan lugar a una variable cuyos valores tendrán una cierta
probabilidad de repetirse. Estas nuevas variables se llaman variables aleatorias. Por contra,
si tomamos muestras en un experimento realizado, esos resultados reales conforman lo que
se denomina variable estadística.

Los conceptos variable aleatoria y probabilidad son conceptos teóricos que resultan de una
abstracción hecha sobre los conceptos de variable estadística y frecuencia, conceptos estos
últimos que se consideran después de la ejecución del experimento, mientras que los
primeros se consideran antes de la ejecución. Una variable aleatoria es discreta cuando sólo
puede tomar un número finito de valores.

Medidas de centralización
Una medida de centralización es un valor, que es representativo de un conjunto de datos y
que tiende a situarse en el centro del conjunto de datos, ordenados según su magnitud.

Mediana
Es el valor de la variable estadística que divide en dos partes iguales a los individuos de una
población, supuestos ordenados en orden creciente. En general, es el valor donde la función
de distribución F(x) toma el valor 1/2, pero así definida puede no ser única en cuyo caso se
toma la media aritmética de los valores de mediana, o no existir en cuyo caso se toma como
mediana el valor de la población más cercano a esa mediana 'ideal'.

Moda
Es el valor más frecuente de la variable estadística; valor que se corresponde al máximo del
histograma.
Si la variable es discreta, puede darse el caso de que haya más de una mediana.

Media aritmética
Es la suma de los productos de los posibles valores que tome la variable xi, entre el número
de valores que esa variable contenga.

Medidas de dispersión
Son medidas que representan el grado en el que los valores numéricos tienden a extenderse
alrededor de un valor medio.

Recorrido
Es la diferencia entre el mayor y menor valor de una variable estadística.

Varianza.
Una forma natural de medir la dispersión en torno a la media es calcular la media de las
diferencias ; es decir: , pero como habrá valores por encima y por debajo de que se
compensarán, calcularemos mejor el cuadrado de las diferencias. Se define así varianza de
una variable estadística, como la media de los cuadrados de las desviaciones de sus valores
respecto a su media . Se representa por .

Se distingue aquí entre los casos de variable estadística y variable aleatoria. En el primer
caso, tendremos una serie de valores concretos, de los que vamos a calcular su varianza, la
varianza muestral. La fórmula es la que acabo de expresar. En el caso de variable aleatoria,
estaremos calculando una varianza estimada, ya que no estamos tomando muestras de un
conjunto de datos inmenso y por lo tanto la media y varianza son estimadas, no conocidas.
La expresión que la define cambia en un pequeño detalle: en vez de dividir el resultado de
la suma entre (n-1), se divide entre (n), así:

Desviación típica (o estándar).


Es la raíz cuadrada de la varianza.

Al igual que con la varianza, se distinguen los casos de variables aleatorias y estadísticas.
En esta fórmula se expresa también la desviación típica muestral, que es la que usaremos.

Coeficiente de variación.
Es el cociente entre la desviación típica y la media. Eliminamos con esta medida la
influencia de la escala escogida en las mediciones efectuadas.

Experimentos bivariantes
Hasta ahora se han considerado experimentos en los que tomábamos una sola medida o
valor en cada ensayo. Pero muy corrientemente, al efectuar un experimento, se deben medir
dos características. Estos experimentos se conocen por el nombre de bivariantes. P. ej. en un
grupo de personas se miden el peso y la altura.
El objeto de un experimento bivariante es determinar si hay alguna relación entre las
variables que se miden. Y si la hay, intentar calcular:
Una medida de ese grado de relación.
Una ecuación matemática que describa con mayor o menor exactitud esa relación.

Un gráfico para ilustrar los datos bivariantes es el diagrama de dispersión, o nube de


puntos.

A una de las variables (p. ej. la X) se le denomina variable independiente, mientras que a la
otra (la Y) se le denomina variable dependiente.
Se usa el término correlación cuando se habla de relaciones entre variables de experimentos
bivariantes.

Coeficiente de correlación lineal


Es una medida del grado de asociación lineal entre las variables X e Y. Se representa por .

donde son las desviaciones típicas de las variables X e Y respectivamente, y es la


covarianza muestral de X e Y, que se define como la media de los productos de las
desviaciones correspondientes de X e Y y de sus medias muestrales.

Propiedades
- r está siempre comprendido entre -1 y 1.
- Si r=1 ó r=-1 entonces los puntos de la muestra están situados en línea recta (correlación
lineal perfecta).
- Si r está próximo a 1 ó a -1, habrá una asociación lineal fuerte entre ambas variables.
- Si r es cercano a 0, habrá una asociación lineal muy débil.
- r no varía cuando en las variables se realiza un cambio de escala o de origen. Esto
demuestra que r no tiene dimensión.

Dos consideraciones sobre el coeficiente de correlación.


1.- Se trata de una medida matemática que luego hay que interpretar. Aunque un alto grado
de correlación indique buena aproximación a un modelo matemático lineal, su
interpretación puede no tener ningún sentido. P. ej. puede haber un alto grado de
correlación entre el número de usuarios de IDL y el consumo de alcohol en Rusia, pero
ambas variables están claramente disociadas.
2.- Aunque el grado de correlación sea cercano a cero (pobre aproximación. al modelo
lineal) eso no significa que no haya relación entre las dos variables. Puede ser que dicha
relación sea no lineal.

Matriz de correlación
Sea un experimento de n variables (X1, X2, ... Xn). Podemos ordenar en una matriz los
diferentes coeficientes de correlación de cada variable con el resto y consigo misma,
obteniendo una matriz con cada elemento igual a:

El resultado es una matriz simétrica, con la diagonal principal igual a 1.


Matriz de varianza-covarianza Sea un experimento de n variables (X1, X2, ... Xn).
Podemos ordenar en una matriz las diferentes covarianzas entre variables y varianzas de
variables.

Significado de la varianza y la covarianza


Sean dos nubes de puntos (representadas como en la figura, por elipsoides que las rodean).
La varianza es una medida de la dispersión. Las variables X e Y tienen ambas la misma
varianza en el caso de la elipse y del círculo, pero la covarianza en el círculo es cero y la de
la elipse es más o menos alta, y positiva.

Relación entre matriz de varianza-covarianza y matriz de correlación


Si las n variables tienen medidas incompatibles (kg., m., sg., ...) las varianzas no son
comparables. Entonces se recurre a la matriz de correlación. Las correlación es la
covarianza medida para valores estandarizados. Por eso la correlación de una variable
consigo misma da uno; es la varianza de cualquier variable estandarizada.

Transformación de Karhunen-Loeve
También llamada transformación de Hotelling ó Análisis de Componentes Principales. El
origen de esta técnica suele asociarse a la publicación de un artículo de K. Pearson en 1901.
Sin embargo, el nombre de componentes principales y su primer desarrollo teórico no
aparecen hasta 1933, en un artículo de Hotelling. Es bastante empleada en ciencias sociales
y naturales, cuando se trata de resumir un grupo amplio de variables en un nuevo conjunto,
más pequeño, sin perder una parte significativa de la información original. Consiste en
definir el número de dimensiones que están presentes en un conjunto de datos y buscar los
coeficientes que especifican la posición de los ejes que apuntan en las direcciones de
máxima variabilidad de los datos.
Su origen está en la redundancia que hay muchas veces entre distintas variables. La
redundancia son datos, no información. Lo que se pretende es:
Facilitar el estudio de las relaciones existentes entre las variables.
Facilitar el análisis de la dispersión de las observaciones (poniendo en evidencia posibles
agrupamientos, detectando las variables que son responsables de dicha dispersión.)

Formulación descriptiva
En un sistema multivariante, la forma de la elipse n-dimensional está definida por la matriz
de varianza-covarianza calculada para las n variables. La varianza es proporcional a la
dispersión de puntos en la dirección paralela al eje de esa variable. La covarianza define la
forma de esa elipse (más o menos afilada). Si las variables no tienen dimensiones
comparables, las varianzas tampoco se pueden comparar. Por eso se recurre a la matriz de
correlación, ya que el coeficiente de correlación no es sino la covarianza medida para
valores estandarizados (normalizados, ), por eso la diagonal principal es todo unos. Por eso
utilizaremos si podemos, la matriz de varianza-covarianza, y si no, la de correlación.

En la figura vemos cómo la dispersión de las variables X e Y permite que efectuando una
transformación que pase de X e Y a A y B, se consigue obtener dos variables nuevas tal que
casi toda la varianza (la información) se sitúa en la variable A y muy poca en la B. Además,
la correlación de X e Y era alta, mientras que la de A y B es matemáticamente cero.
A partir de esas matrices, se calculan sus valores y vectores propios. Los valores propios
dan la longitud de los ejes principales de la elipsoide n-dimensional. Los vectores propios
apuntan precisamente en las direcciones de esos ejes principales. Además, equivalen a los
coeficientes de regresión en una transformación lineal estándar, siendo las variables a
transformar las variables independientes y las componentes principales, las dependientes.
Las nuevas variables así obtenidas, pierden el sentido físico que pudieran tener las variables
originales.

Formulación matemática
Notación y ordenamiento de los datos
Sea una serie de datos, en este caso bidimensionales (una imagen) de la forma:

Podemos ordenar esa matriz en forma de un vector, bien poniendo una fila tras otra, o bien
por columnas. Lo importante no es tomar uno u otro tipo de ordenación sino que éste sea
consistente con todas las imágenes que vayan a participar en la transformación.
En definitiva se trata de obtener:

Donde podemos expresar ese vector en función de un sólo subíndice

Como tendremos varias imágenes, para diferenciar unas de otras en la notación,


introducimos como subíndice los números '1', '2', '3', etc. para las distintas imágenes.
Nótese que ahora el elemento x11 no representa el valore del píxel de la fila 1, columna 1,
sino que de la imagen 1, es el píxel 1 (ahora es un vector, no una matriz de dos
dimensiones). Así,

si tenemos p imágenes

El primer paso consiste en hallar la matriz de correlación de estas variables:

Cálculo de la matriz de correlación


Se puede efectuar de dos formas:

Con los datos originales


Con lo cual se aplica la fórmula de cálculo del coeficiente de correlación lineal entre dos
variables (Coef. de correlación de Pearson):
Coeficiente de correlación entre las variables Xa y Xb se denota rab y se define como:

donde son las desviaciones típicas de las variables Xa y Xb respectivamente y es la


covarianza muestral. Aquí me limitaré a poner la fórmula completa para r, que quedaría de
la forma:
Coeficiente, que como ya se explica en apartado correspondiente al tema, está comprendido
siempre en el rango [-1, 1] con los consiguientes significados matemáticos.
La matriz de correlación se forma entonces ordenando los distintos coeficientes de
correlación en una matriz de filas y columnas de la forma:

A priori ya podemos conocer dos cosas de M: que será simétrica, ya que rab = rba y que la
diagonal principal será todo unos, ya que raa = 1.

Con los datos normalizados


La otra posibilidad para calcular la matriz de correlación evitándonos esa fórmula
relativamente complicada, es hallando la matriz de varianza-covarianza para los datos
normalizados.

Normalización de los datos


Se calculan primeramente las estadísticas básicas de cada variable Xa, su media y
desviación estándar:
y

Con esos datos, ya podemos estandarizar las distintas variables (recordemos que al
estandarizar estamos transformando ese conjunto de datos en otro, con media cero y
desviación estándar uno. Pasamos de la variable Xa a la Za, y así con todas, pasando cada
valor de esta forma:

A partir de las variables estandarizadas Z1, Z2, Z3, ..., Zp, se calculan sus varianzas
(evidentemente dan uno) y las covarianzas entre variables:

Ordenando esos valores en forma de matriz, con filas y columnas representando variables,
en virtud de la relación entre la matriz de varianza-covarianza y la matriz de correlación
tendremos ya calculada la matriz de correlación.

Una tercera forma de calcular la matriz de correlación a partir de las variables


estandarizadas es ordenar primeramente dichas variables estandarizadas en forma de matriz
(por ejemplo por filas):

Y efectuar la siguiente operación matricial:


Donde Zt significa matriz traspuesta. Este resultado también se corresponderá con la matriz
de correlación que queremos calcular.

Valores y vectores propios


El siguiente paso es calcular los valores y vectores propios de la matriz de correlación
calculada. Los valores propios son las raíces del polinomio:

I representa la matriz identidad, de las mismas dimensiones que la matriz M. Esta expresión
da como resultado un polinomio cuyas raíces serán los valores propios de M, que se
denotan como l1, l2, ..., li.
Los vectores propios asociados a esos valores propios, se calcularán sustituyendo los
valores propios en la fórmula:

Para cada valor propio li, obtenemos una ecuación diferente, y de ella obtenemos también
un vector propio vi diferente y asociado a su respectivo li.

Componentes principales
Las coordenadas de los vectores propios hallados son los coeficientes de la transformación
que hay que realizar para pasar de las variables originales a las nuevas variables
'componentes principales'. Los valores propios nos dan el orden en el que hay que poner
esos vectores propios; el valor propio mayor nos está indicando que su vector propio
asociado apunta en la dirección de máxima variabilidad de los datos, es decir, en la de la
primera componente principal; el segundo valor propio hace lo mismo con su vector propio,
indicando que apunta en la siguiente dirección de máxima variabilidad ortogonal con la
anterior, y así sucesivamente. Es por ello que la obtención de los componentes principales
se realiza de la forma:

donde Z es la matriz de valores estandarizados, aunque también se podría emplear X (la de


valores originales), y V es una matriz de p filas y q columnas, que recoge todos los vectores
propios, ordenados según valores propios. Podemos desarrollar uno de los elementos de la
matriz CP de componentes principales:

Obteniendo las variables CP1, CP2, ..., CPp. Podemos realizar simples cálculos para
comprobar que:

(la media es cero para todas)


(la varianza es el valor propio)
(están totalmente decorreladas)
Visualizar las componentes principales
Para el caso concreto que nos ocupa, reconocimiento facial, donde las variables eran
originalmente bidimensionales pero los cálculo se han efectuado unidimensionales, puede
ser interesante visualizar esas componentes principales (llamadas eigenfaces en este caso)
como imágenes bidimensionales. Para ello simplemente hay que deshacer el cambio del
comienzo y reordenar el vector de (n x m) valores como una matriz bidimensional de m
filas por n columnas.

Coordenadas
Ya sólo resta calcular las coordenadas de las variables originales en la nueva base de
variables componentes principales. Este cálculo se realiza por mero producto matricial, de
la forma:

Donde también se puede usar si se prefiere la matriz X de datos originales en vez de Z.


Esas coordenadas formarán la 'huella dactilar' o 'firma facial' de cada cara, y servirán para
distinguir unas de otras.
Tratamiento digital de imágenes

Definiciones

Imagen: el término imagen monocroma o simplemente imagen, se refiere a una función


bidimensional representando intensidad de luz, donde x e y son las coordenadas espaciales
y el valor de f en cualquier punto (x,y) es proporcional al brillo (o nivel de gris) de la
imagen en ese punto

Imagen digital: es una imagen que ha sido discretizada tanto en coordenadas espaciales
como en brillo. Podemos considerar una imagen digital como una matriz cuyos índices de
filas y columnas identifican un punto en la imagen y el correspondiente elemento de matriz
identifica el valor de gris en ese punto.

Píxel: acrónimo formado con las palabras inglesas 'Picture' 'element'. Es el elemento simple
de una imagen digital.

El color en una imagen digital: según la definición anterior, la función de imagen digital
representa un valor de brillo en ese punto, pero cuando se quiere representar una imagen en
color, esa interpretación puede cambiar. Por ejemplo, en función de la división de colores
en un cubo RGB, podemos descomponer toda la imagen en tres bandas, cada una de ellas
representando el brillo de rojo, de verde y de azul respectivamente. El color visualizado en
un punto concreto será el resultante de combinar los valores de ese punto en las tres bandas,
en la proporción indicada por esos valores. O bien se puede tener una tabla de colores (una
paleta) y hacer que los valores de la imagen estén 'apuntando' a los colores de esa paleta.
De cualquiera de las formas podemos distinguir: blanco y negro, escala de grises, color
indexado 16, color indexado 256, color real RVA y color real CMAN. Los tipos de datos se
diferencian por la resolución en bits (número de bits de información de la imagen por píxel)
y por el número de canales que comprende la imagen. La resolución en bits determina
cuántos colores o niveles de gris puede representar cada píxel.

Blanco y negro: cada píxel de una imagen en blanco y negro es blanco o negro. Los tonos
intermedios (grises) se crean ordenando los píxeles blancos y negros para simular gris. Es
lo que se llama técnica de 'dithering'.

Escala de grises: cada píxel de una imagen en escala de grises puede ser uno de los 256
valores distintos de gris, del negro (cero) al blanco (255). Este tipo de datos muestra suaves
cambios de tono utilizando tonos intermedios de gris. La resolución de una imagen en
escala de grises determina el tamaño de los píxeles y, en consecuencia, el número de
píxeles de una imagen. Cuanto mayor sea la resolución, los cambios de tono de gris serán
más suaves y por tanto más exacta la representación de la imagen, (las imágenes de alta
resolución también utilizan más memoria).

Color indexado 16 y 256: en una imagen en color indexado, cada píxel puede ser uno de 16
o de 256 colores. Estos colores vienen especificados en la tabla de colores de la imagen. A
cada píxel se le asigna un número que se refiere a un color de la tabla de colores. Los
colores que no estén disponibles en la tabla se simulan por ordenamiento y por proximidad
con respecto a los píxeles cuyos colores están disponibles. El tipo de datos de color
indexado 16 es el usado por la pantalla VGA estándar en modo de 16 colores. El tipo de
datos de color indexado 256 es el usado por la mayoría de las pantallas de 256 colores,
incluida la IBM 8514/A, XGA y los adaptadores VGA estándar en modo de 256 colores con
320 x 200 píxeles y algunos adaptadores VGA especiales en modo de 256 colores.

Color real RVA: en una imagen en color real RVA, cada píxel puede ser uno de los más de
16,7 millones de colores disponibles. El tipo de datos de color real RVA es actualmente el
mejor tipo de datos para editar imágenes en color debido a que retiene mayor cantidad de
información de la imagen.

Color real CMAN: las imágenes en color real CMAN utilizan el mismo modelo de color
que la impresión industrial: todos los colores se representan en porcentajes de cían,
magenta, amarillo y negro. Puesto que hay cuatro colores en cada píxel, las imágenes en
color real CMAN se llaman imágenes de 32 bits.

Elementos de un sistema de procesamiento digital de imagen

Los componentes generales de un sistema de tratamiento digital de imagen se pueden


organizar de la siguiente forma:
Digitalizador (unidad de entrada de datos)
Procesador (unidad de proceso de datos)
Pantalla (unidad de salida de datos)

Digitalizador: es un dispositivo que convierte una imagen en una representación numérica


(imagen digital).
Existen multitud de aparatos que realizan esta función.
Procesador: se entiende por tal un dispositivo capaz de realizar algún tipo de manipulación
con imágenes digitales. Entran en esta categoría desde pequeños microprocesadores
especializados hasta grandes ordenadores. Hay que indicar una parte muy importante y
diferenciable del procesador que es la memoria, o dispositivo físico en el que de alguna
forma quedan almacenados los datos; tanto los introducidos por el digitalizador como los
resultados de algún proceso.
Pantalla: la función de la pantalla es la inversa que la del digitalizador, esto es, convertir las
matrices numéricas que representan imágenes digitales en alguna forma de representación
discernible por el ser humano a través de los sentidos.
Los principales dispositivos pantalla son: tubos de rayos catódicos y sistemas de impresión.

Mejoramiento de imagen

Introducción
El principal objetivo de las técnicas de mejoramiento de imagen es procesar una imagen
para hacerla más adecuada para una determinada aplicación o procesamiento posterior.
Depende por tanto del problema específico a resolver el que se emplee una u otra técnica.
Los métodos de mejora de imagen se pueden dividir en dos campos diferentes: métodos en
el dominio frecuencial y métodos en el dominio espacial. Los primeros se basan en
modificar la transformada de Fourier de la imagen, mientras que los segundos se basan en
manipulaciones directas sobre los píxeles de la imagen.

Técnicas de modificación del histograma


Estas técnicas van principalmente enfocadas a mejorar la visualización de una imagen. El
histograma de una imagen es un gráfico que ofrece una descripción global de la apariencia
de la imagen. En el eje de abcisas se representa el rango de valores de píxeles de la imagen,
mientras que en el eje de ordenadas se representa el rango de valores que pueden tomar
esos pí[Link] expansión del contraste es una de estas técnicas. Consiste en que, dado un
rango de valores de grises (NDmax - NDmin) menor que el rango disponible por nuestro
dispositivo de visualización (NVmax - NVmin), estaremos perdiendo contraste (entendido
este como relación entre los valores máximo y mínimo de una imagen). Visualmente es
claro el efecto, al observar que no existe mucha diferencia entre los tonos más claros y más
oscuros. Mediante distintas operaciones matemáticas podemos transformar esos valores de
grises en otros con un rango mayor que se adapte plenamente a la capacidad del dispositivo
de visualización:

Estiramiento linealEs la forma más sencilla de efectuar el contraste. Consiste en buscar una
función lineal que ajuste tal que el rango NDmin a NDmax se transforme en NVmin a
NVmax, por lo tanto NDmax=NVmax y NDmin=NVmin. El resto de valores ND serán
transformados en otros según esa transformación lineal. De forma general se puede
establecer,

donde a es un offset y b una ganancia. Y como conocemos los valores de dos puntos:

Por lo tanto los coeficientes de la transformación quedan:

O expresando la transformación en un sólo término,

Como caso particular de la transformación lineal, cabe destacar la transformación lineal por
trozos, que aplicar esta misma fórmula no a todo el rango de ND sino a un subrango
determinado que queramos enfatizar especialmente; incluso se pueden aplicar diferentes
estiramientos lineales, con diferentes coeficientes a distintos rangos de ND del histograma.
Veamos un ejemplo práctico:

ESTIRAMIENTO LINEAL
Imagen 'estirada' e histograma de la misma (página siguiente).

Obsérvese cómo los valores de todos los píxeles se encuentran ahora en todo el rango de la
tabla de color. La imagen se ve ahora con toda claridad. Nótese también el máximo en el
valor 255 correspondiente al gran número de píxeles del fondo blanco

Ecualización del histograma


El estiramiento lineal sólo tiene en cuenta como parámetros los valores máximo y mínimo
del histograma original. Una técnica más depurada puede considerar también la forma de la
distribución de frecuencias. Así, el NV de cada ND está en proporción no sólo a su valor
sino también a su frecuencia, esto es, al número de píxeles con ese determinado valor.
Aquellos ND con mayor número de píxeles serán los que proporcionalmente ocupen un
mayor rango de visualización.

ECUALIZACIÓN DEL HISTOGRAMA

Imagen ecualizada e histograma de la misma (página siguiente).

Obsérvese cómo los valores de los píxeles se intentan distribuir de forma uniforme en todo
el rango 0-255. Como no es posible separar un valor cualquiera en dos diferentes, donde
hay relativamente gran número de píxeles se separa del resto en proporción del número de
píxeles de ese valor. El resultado visual es mucho más 'brusco'.

Filtrado espacial
Filtrado espacial es la operación que se aplica a imágenes ráster para mejorar o suprimir
detalle espacial, para mejorar la interpretación visual. Ejemplos comunes incluyen aplicar
filtros para mejorar los detalles de bordes en imágenes, o para reducir o eliminar patrones
de ruido. Filtrado espacial es una operación "local" en procesamiento de imagen en el
sentido de que modifica el valor de cada píxel de acuerdo con los valores de los píxeles que
lo rodean; se trata de transformar los ND originales de tal forma que se parezcan o
diferencien más de los correspondientes a los píxeles cercanos.

Frecuencia espacial
Una característica común a todos los tipos de datos ráster es la llamada "frecuencia
espacial", que define la magnitud de cambios de los datos por unidad de distancia en una
determinada zona de la imagen. Áreas de la imagen con pequeños cambios o con
transiciones graduales en los valores de los datos se denominan áreas de bajas frecuencias
(como p. ej. la superficie de una masa de agua en reposo). Áreas de grandes cambios o
rápidas transiciones se conocen como áreas de altas frecuencias (p. ej. suelo urbano con
densas redes de carreteras). Así, los filtros espaciales se pueden dividir en tres categorías:

Filtros pasa bajos, enfatizan las bajas frecuencias, suavizando las imágenes y suprimiendo
ruidos. Se trata de asemejar el ND de cada píxel al ND de los píxeles vecinos, reduciendo la
variabilidad espacial de la imagen. Ello produce un emborronamiento de los bordes,
perdiéndose en nitidez visual de la imagen, pero ganando en homogeneidad.

Ejemplo de un kernel de filtro pasa-bajo:

Vemos que lo que se realiza es una media aritmética de los nueve píxeles que componen la
ventana de filtrado, con lo que se reducen los espurios y la variabilidad de la imagen.

Otro tipo de filtro pasa-bajo es el que aplica la mediana en vez de la media. Es el


llamado filtro de mediana, y presenta la ventaja de que como medida estadística, la mediana
es menos sensible a valores extremadamente desviados y se modifican menos los valores
originales, ya que la mediana es en principio, uno de los valores concretos de la ventana de
filtrado.

- Filtros pasa altos, enfatizan las altas frecuencias, para mejorar o afilar las características
lineales como carreteras, fallas, o límites en general. Realizan por tanto el efecto contrario a
los filtros pasa-bajos, eliminando estos las bajas frecuencias.
Ejemplo de un kernel de filtro pasa-alto:

Otra forma de obtener una imagen así filtrada es sustraer a la imagen original, la misma
imagen filtrada paso-bajos. Es lógico ya que si a la imagen le restamos los componentes de
baja frecuencia, nos quedaremos con las de alta frecuencia.
Filtros detectores de bordes
Realizan otro tipo de operaciones con los datos, pero siempre con el resultado de enfatizar
los bordes que rodean a un objeto en una imagen, para hacerlo más fácil de analizar. Estos
filtros típicamente crean una imagen con fondo gris y líneas blancas y negras rodeando los
bordes de los objetos y características de la imagen.

Filtro Roberts
Emplea la diferenciación como método para calcular el grado de separación entre niveles
de grises vecinos. Concretamente, y para realizar una diferenciación bidimensional, se
efectúa la operación:

Filtro Sobel
Este filtro implementa la siguiente operación:

donde:

Siendo Ai los píxeles de la ventana en las posiciones:

Filtro Laplaciano
Este filtro calcula la segunda derivada, que a partir de la expresión del operador Laplaciano
podemos aproximar:
Lo que es lo mismo que usar el kernel:

Filtro direccional
Seleccionando adecuadamente los valores del kernel, podemos obtener el efecto de extraer
bordes en una determinada dirección, mientras que los bordes en el resto de direcciones no
se ven tan resaltados.

Cómo funcionan los kernels de convolución


El filtrado espacial se realiza trasladando una matriz rectangular de dos dimensiones
(también llamada ventana) que contiene "pesos" o ponderaciones sobre la imagen en cada
localización de píxel. Se evalúa el píxel central de la ventana de acuerdo con los píxeles de
alrededor y sus valores de ponderación. Cuando un nuevo valor es así calculado, se
desplaza la ventana sobre el siguiente píxel, realizando la misma operación. Este proceso de
evaluar la vecindad ponderada del píxel se denomina "convolución bidimensional", y a la
matriz de filtro se le conoce como "kernel de convolución".
Filtrado en frecuencia
En el dominio frecuencial también puede realizarse el proceso de filtrado, con mayor grado
de comprensión de lo que estamos viendo, ya que en una imagen en el dominio frecuencial
se sabe dónde se encuentran los distintos rangos de frecuencias. De esta forma, en vez de
realizar la convolución, se efectúa su operación correspondiente en el dominio frecuencial:
el producto. Luego con la operación:
donde F(u,v) es la imagen en frecuencia, el único problema es la correcta especificación de
H(u,v). Dependiendo del tipo de filtro que queramos aplicar:

Ejemplos de Filtros

Vemos que los resultados son iguales que con el filtrado en el dominio espacial
(convolución) pero en este caso estamos trabajando con otras variables y manejando
conceptos diferentes.
Es destacable que, aunque en el ejemplo las líneas oblícuas del filtro hagan ver un filtro
ideal (corte perfecto entre zona que pasa y zona que no pasa), esto en realidad no se usa
nunca ya que produce un molesto efecto de anillamiento (un filtro de ese tipo no es
realizable). Por ello se efectúa algún tipo de transición suavizada entre las dos zonas. Esa
transición puede ser de tipo exponencial, trapezoidal, o butterworth, que no representan
sino distintas modelizaciones de la transición suave.

Filtros morfológicos
Morfología matemática es un método no lineal de procesar imágenes digitales basándose en
la forma. Su principal objetivo es la cuantificación de estructuras geométricas. Aquí los
filtros también vienen definidos por su kernel, pero no es un kernel de convolución sino un
elemento estructurante.

Dilatación
Este operador es comúnmente conocido como 'relleno' o 'expansión' o 'crecimiento'.
Puede ser usado para rellenar 'huecos' de tamaño igual o menor que el elemento
estructurante con la que se opera la dilatación.
Usado con imágenes binarias, donde cada píxel es 1 ó 0, la dilatación es similar a la
convolución. Sobre cada píxel de la imagen se superpone el origen del elemento
estructurante. Si el píxel de la imagen no es cero, cada píxel que cae en la estructura es
añadido al resultado aplicando el operador 'or'.
Con la notación :

representando la dilatación de una imagen A por un elemento estructurante B, se puede


escribir:

Donde :
representa la traslación de A por b. Intuitivamente, para cada elemento no cero bi,j de B, A
es trasladado i,j y sumado a C usando el operador 'or'. Por ejemplo:

0100 0110
0100 0110
0110 11 = 0111
1000 1100
0000 0000

En este ejemplo, el origen del elemento estructurante está en el (0,0).


Usado con imágenes en escala de grises, la dilatación se efectúa tomando el máximo de una
serie de sumas. Puede ser usado para implementar el operador de 'máxima vecindad' con la
forma de la vecindad dada en el elemento estructurante.

Erosión
La erosión es lo opuesto a la dilatación; realiza con el fondo lo que la dilatación al primer
plano. También en este caso, existe un elemento estructurante que se utiliza para operar con
la imagen. Los efectos son de 'encogimiento', 'contracción', o 'reducción'. Puede ser
utilizado para eliminar islas menores en tamaño que el elemento estructurante.
Sobre cada píxel de la imagen se superpone el origen del elemento estructurante. Si
cada elemento no cero de dicho elemento está contenido en la imagen, entonces el píxel de
salida es puesto a 1. Haciendocomo representación de la erosión de una imagen A por el
elemento estructurante B, se como representación de la erosión de una imagen A por el
elemento estructurante B, se puede definir:

donde (A)-b representa la traslación de A por b. B puede ser visto como una 'sonda'
que se desliza a lo largo de toda la imagen A, testando la naturaleza espacial de A en cada
punto. Si B trasladado i,j puede ser contenido en A (poniendo el origen de B en i,j),
entonces i,j pertenece a la erosión de A por B. Por ejemplo:

0100 0000
0100 0000
1110 11 = 1100
1000 0000
0000 0000

En este ejemplo, el origen del elemento estructurante está en (0,0).


Usado en imágenes en escala de grises, la erosión se efectúa tomando el mínimo de
una serie de diferencias. Puede ser usado para implementar el operador de 'mínima
vecindad' con la forma de la 'vecindad' dada por el elemento estructurante.

Apertura (opening) y Cierre (closing)


La 'apertura' (opening) de una imagen B por un elemento estructurante K, se define como .
El 'cierre' (closing) de la imagen B por elemento estructurante K se define como
El resultado de aplicar iterativamente dilataciones y erosiones es la eliminación del
detalle específico en la imagen menor que el elemento estructurante, sin la distorsión
geométrica global de características no suprimidas. Por ejemplo, 'abrir' una imagen con una
estructura en disco, suaviza los contornos, rompe istmos y elimina pequeñas islas, picos y
cabos. 'Cerrar' una imagen con un elemento estructurante en forma de disco, elimina
pequeños agujeros y rellena brechas en los contornos.

Filtros de textura
Muchas imágenes contienen regiones caracterizadas por variaciones del nivel de gris, más
que por un valor único de grises. La 'textura' se refiere precisamente a la variación espacial
del nivel de gris de una imagen como función de escala espacial. Para que los píxeles de
una determinada área puedan ser definidos como texturalmente diferentes, sus niveles de
gris deben ser más homogéneos como unidad que áreas de diferente textura.
De todas formas, el concepto de textura es bastante intuitivo. Es tan difícil definirlo como
calcularlo. Mientras que el nivel de gris de un píxel está perfectamente definido y
localizado, la textura es más elusiva. La definición que he dado es buena, pero a la vez
vaga. De todas formas no hay ninguna mejor, y los filtros que se describen a continuación
sirven de aproximación para trabajar con esta característica.

Filtro de recorrido
También llamados 'de rango'. Este filtro sustituye el valor central de la ventana de
procesamiento por la diferencia entre el valor máximo y mínimo (el recorrido,
estadísticamente hablando) de los píxeles contenidos en esa ventana. El recorrido será un
valor pequeño para zonas 'planas' o texturalmente uniformes, y será alto en zonas de alta
variabilidad. El tamaño de la ventana debe ser suficientemente grande como para incluir un
número suficiente de puntos, según la escala a la que queramos trabajar, lo que significa
que debiera ser mayor que el tamaño de cualquier pequeño detalle pueda estar presente. El
resultado es una imagen donde el valor de cada punto representa la textura, y diferentes
regiones pueden ser distinguidas por diferentes niveles de gris.

Filtro RMS (Root-Mean-Square)Este filtro de textura calcula primero la varianza de los


valores de la ventana, y sustituye el valor central por el RMS de los píxeles de la ventana
de proceso.

Operadores de momento
El primer y segundo momento son simples medidas de textura, utilizando los 'momentos'
del histograma de la ventana de proceso. El primer momento es una medida del contraste de
la ventana. El segundo momento es una medida de la homogeneidad de la misma. Las
imágenes resultantes pueden ser escaladas para crear una imagen que discrimina entre
varias textura.
Fundamentos del color
Aunque los procesos seguidos por el cerebro humano para percibir el color no están
totalmente comprendidos, la naturaleza física del mismo puede ser expresada con bases
formales soportadas por resultados teóricos y experimentales.
En 1666, Sir Isaac Newton descubrió que un haz de luz solar atravesando un prisma de
cristal, se transformaba en un haz emergente de luz no blanca, sino consistente en un
espectro continuo de colores que iban desde el violeta en un extremo, hasta el rojo en el
extremo opuesto.
Básicamente, el color con el que percibimos un objeto viene determinado por la naturaleza
de la luz reflejada por dicho objeto. Un cuerpo que refleja luz de forma uniforme en todo el
rango del espectro visible (que es una estrecha banda del espectro electromagnético),
aparece blanco al observador, mientras que si refleja más en algún rango estrecho del
espectro visible, aparecerá al observador con ese color concreto. Por ejemplo, los objetos
verdes reflejan luz con longitudes de onda principalmente en el rango de 500 a 570 nm
(nanómetros), mientras que absorben la energía electromagnética en el resto de longitudes
de onda del visible.
El rango de colores que podemos apreciar, son el resultado de mezclas de luz de diferentes
longitudes de onda. Se ha comprobado que ciertas longitudes de onda del rojo (R), verde
(V) y azul (A), cuando se combinan en diferentes proporciones (intensidades) producen
mayor rango de colores que cualquier otra combinación de tres colores. Por ello, a esos tres
colores se les denomina colores primarios. Aunque se ha malinterpretado que con esos tres
colores se puede conseguir cualquier otro color, eso no es cierto. Ciertos colores no pueden
ser obtenidos por mera combinación de RVA. Con propósitos de unificación, se han
establecido las siguientes longitudes de onda concretas para los colores primarios: azul: 435
´8 nm, verde: 546´1 nm y rojo: 700 nm.
Los colores primarios pueden combinarse para producir colores secundarios: magenta (azul
+ rojo), ciano (verde + azul) y amarillo (rojo + verde). Combinando los tres colores
primarios, o un secundario con su correspondiente primario, en las proporciones adecuadas,
se obtiene luz blanca.
También es importante distinguir entre colores primarios de luz y colores primarios de
pigmentos o colorantes. En estos últimos, un color primario se define como aquel que resta
o absorbe un color primario de luz y refleja o transmite los otros dos. Así, los colores
primarios de pigmentos son el magenta, ciano y amarillo, mientras que los secundarios son
rojo, azul y verde. Una combinación adecuada de los tres colores primarios de pigmentos, o
de un primario con su secundario, dará lugar al negro.
Una forma de representar un sistema de colores de este tipo, es mediante un cubo de
colores donde los ejes representan los colores primarios, y combinaciones de distintos
valores de esos colores primarios dan el resto de colores (aunque ya he comentado antes
que esto no es del todo cierto). El siguiente dibujo muestra un cubo de colores,
representando los lugares donde se sitúan los colores más puros.

Representación en perspectiva del modelo 3D para el sistema de colores RVA

Pero este no es el único sistema en el que se puede representar el color. Existen otros como
el de tono, saturación e intensidad (TSI), que se define de la siguiente forma: tono es el
color, como 'rojo' o 'naranja'. Está directamente asociado con una longitud de onda
concreta, y se mide en grados, de 0º a 360º. Saturación es una medida del grado de mezcla
de ese tono con otros tonos de alrededor, y se mide en tanto por uno. Intensidad es
precisamente eso, el grado de intensidad de ese color, y se mide de cero hasta infinito. Este
sistema de color también se puede 'visualizar' de un manera gráfica, como muestra la
siguiente figura:

Representación en perspectiva del modelo 3D para el sistema de colores TSI

Codificación de imágenes
La representación digital de una imagen, usualmente requiere enormes cantidades de
recursos del sistema en forma de memoria. Es por ello que las técnicas de codificación son
de una importancia tremenda, de cara a lograr la máxima eficiencia en este sentido.
Es de señalar, como en casi todas las técnicas, que el tratamiento concreto a realizar
dependerá en gran medida de la aplicación a la que vaya dirigido. No es lo mismo
almacenar una imagen para luego analizar hasta el nivel de cada píxel (como puede ocurrir
en muchas aplicaciones de teledetección) que transmitir imagen de videoconferencia en
tiempo real, donde no es tan importante la precisión.

También podría gustarte