745 1319 2 PB
745 1319 2 PB
TESIS
PRESENTAN:
DIRECTOR:
TESIS
PRESENTAN:
DIRECTOR:
Con mucho cariño principalmente a mis padres que me dieron la vida y han estado
conmigo en todo momento. Gracias por todo papá y mamá por darme una carrera para
mi futuro y por creer en mí, aunque hemos pasado momentos difíciles siempre han
estado apoyándome y brindándome todo su amor, por todo esto les agradezco de todo
corazón el que estén a mi lado. Me han dado todo lo que soy como persona, mis valores,
mis principios, mi carácter, mi empeño, mi perseverancia, mi coraje para conseguir mis
objetivos.
Los quiero con todo mi corazón y este trabajo es para ustedes, solamente les estoy
devolviendo lo que ustedes me dieron desde un principio.
Gracias a esas personas importantes en mi vida, que siempre estuvieron listas para
brindarme toda su ayuda, ahora me toca regresar un poquito de todo lo inmenso que me
han otorgado. Con todo mi cariño está tesis se las dedico a ustedes.
A mis maestros por su gran apoyo y motivación para la culminación de nuestros estudios
profesionales y para la elaboración de esta tesis.
A mis asesores por colaborar en la elaboración de este trabajo, a mis maestros que tuve
a lo largo de mi carrera, les agradezco por ayudarme a sentar las bases como ingeniero
del Politécnico y ejercer esta carrera con responsabilidad y con orgullo
¡GRACIAS!
Este trabajo está enfocado en interpretar, procesar y analizar imágenes satelitales para la
clasificación de áreas agrícolas distribuidas en cuatro entidades federativas de este país, con el fin
de realizar una clasificación supervisada basada en un criterio de coloración de pixel; esto
mediante la realización de un pre-procesamientos que consta en cuatro correcciones: geométrica,
radiométrica, topográfica y atmosférica; obteniendo así un porcentaje mínimo de error en la
ubicación de las áreas de interés.
INTRODUCCIÓN
La percepción remota involucra dos procesos básicos, que van enfocados desde la
adquisición de datos, y el análisis de estos datos recabados mediante la implementación de
dispositivos visuales o digitales.
Una vez recabada la imagen o sector de interés sobre esta se pueden llevar a cabo pre-
procesamientos corrigiendo las propiedades geométricas, radiométricas y atmosféricas, realizando
sobre cada una de las imágenes obtenidas una clasificación supervisada, la cual estará basada en
un criterio de coloración de pixel esto con el fin de hacer una interpretación visual para buscar el
objeto de nuestro interés que son los asentamientos agrícolas distribuidos en cuatro entidades
federativas que son Jalisco, Puebla, Michoacán y Sinaloa.
Objetivo
Utilizar imágenes satelitales para clasificarlas en áreas agrícolas utilizando el criterio de pixel
oscuro en la banda (400 -700nm) y clasificación supervisada.
Objetivos particulares:
Justificación
CONCLUSIONES .......................................................................................................................................... 90
REFERENCIAS ............................................................................................................................................. 91
ANEXOS ..................................................................................................................................................... 92
PROCEDIMIENTOS PARA EL MANEJO DE IMÁGENES SATELITALES (ERDAS IMAGINE 2011, MAPA DIGITAL &
SIATL) ........................................................................................................................................................... 93
ERIS CHETUMAL ....................................................................................................................................... 93
PROCEDIMIENTOS PARA EL MANEJOR DE ERDAS IMAGINE ........................................................................ 98
PROCEDIMIENTOS DEL SOFTWARE “MAPA DIGITAL” PROPORCIONADO POR INEGI................................. 112
PROCEDIMIENTOS DEL SIMULADOR DE FLUJOS DE AGUAS DE CUENCAS HIDROGRÁFICAS LLAMADO
“SIATL ..................................................................................................................................................... 117
ÍNDICE DE FIGURAS
ÍNDICE DE TABLAS
Podemos encontrar que existen definiciones más simples para el concepto percepción
remota; pero si podemos mencionar ciertas características principales que engloba este concepto
1.2 ANTECEDENTES
Partiendo del origen de la percepción remota, hemos de remontarnos 600 millones de años
atrás cuando algunas células se volvieron fotosensibles, esta evolución conllevo a una adaptación
con el pasar del tiempo convirtiéndose en el ojo humano. Mediante un proceso de evolución el ojo
tuvo un imitador mecánico, la cámara fotográfica; donde esta mediante el uso del globo
aerostático produjo las primeras heliografías, esta implementación sirvió para tomar imágenes de
ciudades con principios topográficos y partiendo de fundamentos de estereoscopía se desarrolló
9
un preámbulo para la teledetección aérea6. Con el paso de las décadas se originó de manera
arbitraria un avance evolutivo en distintas fases de la percepción remota.
Las imágenes son matrices de celdas llamadas pixeles, formadas por un determinado
número de filas y columnas. Cada una de esta representa un área geográfica indivisible,
determinando así el detalle espacial mínimo que se puede distinguir dentro de la imagen. El
tamaño de superficie que puede ser representada; es decir el tamaño del pixel, varía
dependiendo del satélite y del tamaño del sensor que tome la imagen3.
Ámbito global y visión esquemática: Los sensores ubicados en plataformas globales cubren
prácticamente la totalidad de la superficie del planeta, por ende, proporcionan mediante
una visión esquemática detalles de zonas vastas, remotas, y de difícil acceso; siendo esta
una implementación para obtener información instantánea de ciertas regiones terrestres.
10
Formato Digital: El tratamiento digital de las imágenes agiliza el proceso de la
interpretación mediante la generación de modelos cuantitativos de integración,
generando resultados con otro tipo de información geográfica
Ley de Planck: Esta proporciona los valores de energía para un determinado cuerpo.
La ley de Wien: La cual establece una relación entre la longitud de onda que emite el
cuerpo y la temperatura.
La ecuación de Steffan-Boltzmann: Proporciona los valores de la relación del espectro con
su nivel de emisión en watt/cm2/micrón.
11
PRINCIPIOS Y PROPIEDADES
Los primeros modelos que explican las propiedades de la energía electromagnética (EE)
fueron la teoría corpuscular de Newton y la teoría ondulatoria de Maxwell. Hoy en día se acepta
ambas y se define a la EE, como toda la energía que se desplaza por el espacio a la velocidad
constante de la luz y en forma armónica, es decir, en ondas repetitivas e igualmente espaciadas en
el tiempo, de esta forma se considera también la teoría ondulatoria moderna de Maxwell y la
teoría de los cuantos de energía. La teoría ondulatoria de Maxwell se refiere a la propagación y
efectos ópticos de la EE., mientras que la teoría cuántica trata los aspectos de absorción y emisión
de las moléculas de la radiación2.
(Ec 1)
Dónde:
f = Frecuencia
La longitud de onda corresponde a la distancia lineal entre dos ondas sucesivas y se mide
en unidades métricas. La frecuencia, corresponde al número de ondas que se propagan por unidad
de tiempo, se mide en ciclos (número de ondas) por segundo (cps). Cuando la EE se propaga a
través de un medio material la velocidad de propagación dependerá de las propiedades del
material y del tamaño de la longitud de onda. La teoría cuántica viene a explicar interacciones con
la materia. Se ha demostrado que la generación de ondas electromagnéticas ocurre en pequeños
paquetes o series de ondas. Cada paquete transporta energía radiante (Q) proporcional a la
frecuencia (f). De esta forma, todo objeto cuya temperatura sea mayor a 0 grados Kelvin emite EE
y refleja en rangos de longitud de onda específica.
12
Las ondas electromagnéticas se caracterizan por tener: Intensidad, frecuencia o longitud
de onda y polarización. En cuanto a intensidad, la energía transmitida por la onda es proporcional
al cuadrado del campo eléctrico (E2) o del campo magnético (H2) en forma equivalente, dado que
son independientes. La intensidad se expresa en Watt/cm2.
La frecuencia se mide en ciclos por segundo (cps), cuya unidad es el Hertz. Un Mega Hertz (MHz)
es igual a 106 cps. La longitud de onda se mide, en el sistema métrico, en unidades como
Angstrom, micrón o micrómetro, nanómetro o milimicra, cm, metros, etc.
13
El espectro electromagnético estima desde las longitudes de onda más cortas (rayos
gamma, rayos X), hasta las kilométricas (telecomunicaciones). Con respecto a la teledetección,
conviene nombrar una serie de bandas espectrales: espectro visible, infrarrojo cercano, infrarrojo
medio y el infrarrojo lejano o térmico (Ver tabla 1).
Región visible. Desde 0.4 a 0.7 mm. Rango de operación de la fotografía convencional.
Infrarrojo (I.R.) Rayo espectral desde 0.7 a 1.4 mm. La interacción con la materia varía
según la longitud de onda. Las principales subregiones son:
a) Infrarrojo reflejado: Desde 0.7 a 3 mm. Esta subregión se divide a su vez en infrarrojo
cercano desde 0.7 a 1.3 mm e infrarrojo medio de 1.3 a 3.0 mm. Los sistemas
fotográficos operan hasta 0.9 mm como límite máximo. Es energía reflejada y no
entrega información sobre las propiedades térmicas de los materiales a las
temperaturas normales de la superficie terrestre.
b) Infrarrojo termal (llamado también lejano): Desde 3.0 a 14 mm., pero utilizable en dos
ventanas, la primera de 3 a 5 y la segunda de 8 a 14 micrómetros. Las imágenes en
esta región son obtenidas con barredores termales.
14
Micro-ondas: Región de 0.3 a 300 cm. La ventaja de estas longitudes reside en que pueden
penetrar nubes, niebla y lluvias poco intensas. Se captan a través del radar y son
entregadas como imágenes. Los sistemas comerciales trabajan en la actualidad con banda
K (0.8 a 2.4 cm), banda X (2.4 a 3.75 cm) y banda L (15 a 30 cm). Las longitudes de onda
superiores a las microondas son utilizadas en transmisiones de radio, pero no son
utilizadas en teledetección.
Para dicha aplicación, el análisis comprenderá el segmento del espectro visible que
comprendiendo un ancho de banda situado entre los 400 nm hasta los 700 nm (espacio que puede
ser percibido por el ojo humano). Dentro de esta región se distinguen tres bandas elementales: la
banda azul (de 400 a 500 nm), la banda verde (de 500 a 600 nm) y la banda roja (de 600 a 700 nm),
esto en razón de los elementos primarios de la gama de colores.
Cuando dicha radiación tiene contacto con la cubierta terrestre, la diversa gama de
elementos que la conforman (tipos de roca, cuerpos de agua, tipos de vegetación, cascos urbanos,
etc.) absorben una parte de la radiación electromagnética, originando una huella distinguible de
otra a lo largo del espectro electromagnético.
El emisor de radiación más usual para imágenes de teledetección es el Sol. El Sol emite la
radiación que incide, en primer lugar, en la atmósfera. Los gases presentes en la atmósfera, como
el resto de la materia presente en el universo, interactúa con la radiación, absorbiéndola,
reflejándola o transmitiéndola. Una vez que la radiación solar ha traspasado la atmósfera
interactúa con la superficie terrestre, encontrándose con todo tipo de materiales diferentes, aguas
dulces, saladas, tierras desnudas, nieve, zonas de vegetación densa, zonas de vegetación
arbustiva, ciudades, etc. Cada tipo de superficie interactúa con la radiación de manera diferente,
absorbiendo unas longitudes de onda muy concretas y reflejando otras diferentes en unas
proporciones determinadas.
Esta característica hace posible que se puedan identificar los distintos objetos de interés
particulares de ciertas zonas, tales como: suelo, vegetación, aguas, etc. ya que mediante
experimentos en laboratorio se han podido caracterizar el comportamiento de estas distintas
superficies al recibir radiación y cuantificando los porcentajes de reflexión, absorción y
15
transmisión. A este comportamiento concreto de cada tipo de objeto es a lo que se llama firma o
signatura espectral del mismo.
USO DE SUELO: El uso del suelo se refiere a la finalidad que se le da a la tierra para su
servicio a la población en cada zona. Donde las operaciones que podemos realizar en función de
esta característica son: Gestión de los recursos naturales la protección del hábitat de vida silvestre,
la expansión urbana, detección de blancos - la identificación de las pistas de aterrizaje, carreteras,
puentes.
16
Modelos digitales de elevación (DEM): Un modelo digital de elevación es una
representación visual y matemática de los valores de altura con respecto al nivel medio del
mar, que permite caracterizar las formas del relieve y los elementos u objetos presentes
en el mismo3.
17
CAPÍTULO 2 ELEMENTOS DE PERCEPCIÓN REMOTA
Dicha información es transmitida a la Tierra, como una señal digital, en forma de matriz
numérica. En los sistemas de recepción, se lleva a cabo un primer tratamiento sobre la imagen
capturada, donde son depurados de primera línea algunos errores de toma de origen, para
después trabajar las imperfecciones restantes en aspectos de índole geométrico o radiométrico,
esto antes de ser distribuidas a los usuarios.
Por último la imagen en formato analógico o digital es analizada por el usuario final,
quienes realizaran procesos de tratamiento visual o digital, tras los cuales se obtienen unos
nuevos datos que pueden cobrar forma de mapas temáticos o de tablas estadísticas que recogen
el comportamiento de alguna determinada variable de interés2 .(Ver figura 2)
18
2.1 MECANISMOS DE INTERACCIÓN DE LA RADIACIÓN ELECTROMAGNÉTICA
19
Dichas interacciones se pueden manifestar de la siguiente manera
Dispersión de Rayleigh: Ocurre cuando la longitud de onda es mucho menor que el tamaño
de los objetos responsables de la dispersión. Afecta por tanto a las longitudes de onda
más cortas y causa el color azul del cielo.
Dispersión de Mie: Cuando la longitud de onda es del mismo orden de magnitud que los
objetos dispersores (vapor de agua, polvo y aerosoles). Afecta a todas las longitudes de
onda del visible.
Dispersión no selectiva: Cuando la longitud de onda es mucho menor que los objetos, la
producen gotas de agua en la atmósfera (niebla o nubes).
V. La radiación puede ser reflejada si esta se devuelve sin cambios a partir de la superficie de
una sustancia con el ángulo igual y opuesto al ángulo de incidencia, se denomina
reluctancia especular (como en un espejo). Si la radiación se refleja por igual en todas
direcciones, lo que se denomina difusa. Materiales reales se encuentran en algún punto
intermedio.
20
termodinámico con su medio ambiente, él cual absorbe totalmente la radiación que recibe y emite
una radiación máxima en todas las longitudes de onda.
Por el contrario existe el cuerpo gris, el cual no absorbe toda la radiación recibida, una
parte es reflejada o transmitida. Por lo tanto, a igual temperatura, un cuerpo gris no emite tanto
como un cuerpo negro. Así, se cumple siempre con la ley de conservación de la energía que se
expresa en la siguiente relación:
(Ec. 2)
Dónde:
I = Energía incidente;
R = Energía reflejada
A = Energía Absorbida
T = Energía Transmitida
(Ec. 2.1)
Dónde:
l = radiancia de un cuerpo
P = reflectividad
H = irradiación
Se expresa de ésta manera la energía obtenida de los diferentes objetos, dicha energía
puede ser captada por el sensor remoto y transformada en una señal eléctrica, valor numérico y/o
finalmente llevada a imagen. Las características energéticas que reflejan los cuerpos naturales son:
las irregularidades de la superficie, el contenido de humedad, el color de la superficie, la
composición química. Las irregularidades de la superficie condicionan en una alta proporción la
21
reflexión de los cuerpos naturales. Como principio general puede establecerse que cuando éstas
son de magnitud menor que la longitud de onda, se presenta reflexión especular, donde el ángulo
de reflexión de la radiación es igual al ángulo de incidencia; y para irregularidades mayores que la
longitud de onda, se presenta reflexión difusa. En la reflexión especular, normalmente casi la
totalidad de la radiación es reflejada en determinada dirección; por tanto, puede bien llegar al
sensor produciendo una señal sumamente fuerte como sucede generalmente en la fotografía
aérea, o bien, desviarse completamente de la trayectoria del sensor y no producir ninguna señal.
TRANSMISIÓN
La transmisión de la radiación ocurre cuando esta pasa a través de una sustancia sin una
atenuación significativa. La habilidad de un medio para transmitir energía se mide como la
transmitancia6
(Ec. 3)
En teledetección es importante en relación con las películas que utilizan las cámaras
aéreas y espaciales, como también en relación a los filtros que se deben usar para lograr el
registro de determinadas bandas espectrales. Comúnmente se piensa que la transmisión está
ligada a los cuerpos transparentes como el agua, esto es porque la relacionamos con las longitudes
de onda del visible, sin embargo existe transmisión en diferentes cuerpos en otras longitudes de
onda. Es el caso de las hojas de los vegetales, las cuales son opacas a la región del visible pero
transmiten una cantidad significativa de longitudes de onda del infrarrojo.
ABSORCIÓN
La absorción de la energía por los objetos depende de las características de cada uno,
especialmente de la estructura interna y externa que le permiten la capacidad de retener la
radiación incidente y transformarla en energía, la que sumada a la propia energía constituye su
emisividad. Las superficies terrestres tienen diferentes grados de absorción, modificando la
cantidad de energía reflejada. La absorción se mide por la absortividad que es la relación entre el
flujo incidente y el absorbido por la superficie.
22
REFRACCIÓN
La refracción se produce debido a que la atmósfera es un medio gaseoso, lo que hace que
la propagación de las ondas no sea en línea recta. En general, podemos decir que los fenómenos
atmosféricos hacen posible la iluminación de los lugares en forma indirecta. La estación del año,
día y hora, son importantes porque varían el ángulo de incidencia de la energía solar. La cantidad
de energía reflejada por los objetos, acentúa los fenómenos de interferencia atmosférica y
aumenta o disminuye la cantidad de superficies bajo sombras.
2.3 SATÉLITES
Los satélites con altitudes muy elevadas (los cuales observan la misma superficie de la
Tierra en todo momento), tienen órbitas geoestacionarias, con una altura de aproximadamente
36.000 kilómetros, estos tienen la particularidad de giro a velocidades que coinciden con la
rotación de la Tierra, de esta manera parecen estacionarios, con relación a la superficie de la
Tierra; esto permite que los satélites puedan observar y recoger información continuamente
sobre áreas específicas de estudio.
Debido a su gran altitud, pueden monitorear el clima y los patrones de nubes que cubre
todo un hemisferio de la Tierra; entonces a medida que el satélite gira alrededor de la Tierra, el
sensor "ve” y registra dicha porción de superficie terrestre generando de esta manera un barrido
de la zona.
23
Satélite País Resolución Resolución Resolución Resolución Resolución
espacial espectral temporal Radiométrica estereoscópica
Ópticos
Landsat TMS USA 30m Multi/ 7 bandas 16 dias 8 bits No
120 m IT
Landsat ETM USA 15m Pan/ 8 bandas 16 dias 8 bits No
7 30m Multi/
60m IT
SPOT Francia 5m Pan/ 4 bandas 22 dias 8 bits Si
10m Multi
Hiperespectral
EO1,Ali, Ac USA 30 m 220 bandas 16 dias 8 bits No
Tabla 2 Tipos de satélites y sus características principales
De acuerdo a la tabla anterior a pesar de que tenemos una gran variedad de satélites y
sensores para la elaboración de este trabajo la plataforma de la cual haremos uso es Landsat 7,
esto debido a que es una plataforma que contiene un sensor Thematic Mapper con una resolución
espectral de ocho bandas, esto adecuado a las necesidades a cubrir en este trabajo (Ver tabla 2)
Muchas plataformas de PR están diseñadas para seguir una órbita (básicamente norte-sur)
que, junto con la rotación de la Tierra (oeste-este), les permite cubrir más de la superficie de la
Tierra a lo largo de un cierto período de tiempo. Muchas de estas órbitas de satélite son también
sincronizadas con el sol de tal manera que se cubre cada área en una constante de tiempo local
del día llamado “tiempo solar local”. En cualquier latitud dada, la posición del Sol en el cielo
cuando el satélite pasa por encima será el mismo en la misma temporada, ya que con una
iluminación consistente se podrán generar las condiciones necesarias en la adquisición de
imágenes en una estación específica con respecto a años sucesivos, o sobre un área en particular
que se quiere registrar de manera periódica en cierto número de días5.
24
Este es un factor importante para el monitoreo y los cambios entre imágenes o mosaicos
imágenes adyacentes entre sí, ya que no tienen que ser corregidos cuando se presenten diferentes
condiciones de iluminación.
2.4 SENSORES
Sensores activos: Todos los sensores activos iluminan con su propia fuente de radiación. La
iluminación puede ocasionar que el objeto emita radiación o hacer que se refleje la radiación
producida por el sensor. Los sensores activos que comúnmente transportados en aviones y
satélites se denominan radar y se clasifican en radares de imagen y sin imagen.
Sensores pasivos: Estos sensores se denominan radiómetros y detectan las longitudes de onda
comprendidas entre los rayos ultravioleta y las microondas. Tiene dos características importantes:
25
2.4.1 RESOLUCIÓN
RESOLUCIÓN ESPACIAL
RESOLUCIÓN ESPECTRAL
Es la capacidad de un sensor para discriminar entre los diversos rangos de las bandas o
porciones del espectro electromagnético. Esta capacidad está ligada directamente con las
características del sensor y limitada por las zonas de absorción de la atmósfera; haciendo una
referencia entre el número de bandas espectrales del sensor y el ancho que éstas poseen.
A mayor resolución espectral que posea un sensor, podrá discriminar mejor entre
cubiertas, ya que éstas se comportan de manera distinta según la banda del espectro que se
considere.
26
La definición del rango de las bandas debe tener en cuenta las cubiertas que se pretenden
observar, y qué fenómenos son más interesantes para la misión del sensor. Si las bandas son muy
amplias, se perderá información sobre determinadas regiones del espectro para determinadas
cubiertas, ya que una banda muy amplia daría lugar a un valor promedio.
RESOLUCIÓN RADIOMÉTRICA
RESOLUCIÓN DIGITAL
Es el número de bits que comprenden cada muestra digital de datos en las imágenes, estas
están representadas por números digitales que varían de 0 a una de potencia seleccionada de 2;
este intervalo corresponde a la cantidad de bits utilizados para la codificación números en formato
binario, cada bit registra un exponente de la potencia 2 (por ejemplo, 1 bit = 21 = 2).
27
generalmente en una gama de tonos grises, con el negro que representa un número digital de 0 y
blanco que representa el valor máximo (por ejemplo, 255 en 8-bits de datos) (Ver figura 5).
RESOLUCIÓN TEMPORAL
28
De esta manera podemos observar los cambios, ya sea en intervalos de tiempo o de
manera continua, que tienen un lugar en la superficie de la Tierra, los cambios de origen natural
(háblese en la cubierta vegetal natural o inundaciones) ó inducidos por el ser humano (desarrollo
urbano o la deforestación).
29
Plus). En la actualidad sólo sigue en funcionamiento el Thematic Mapper, que es como una cámara
de fotos sensible a 3 bandas de luz visible y 4 de luz infrarroja con una resolución aproximada de
30 metros.
El escáner multiespectral (MSS), lanzado a bordo del Landsat 1 en julio de 1972, fue el
primero en el mundo observación de la Tierra por satélite sensor. El MSS proporcionó cuatro
bandas espectrales reflectancia de la superficie terrestre en las regiones visible e infrarrojo
cercano del espectro electromagnético. En febrero de 1993, la Compañía Observación de la Tierra
por satélite (EOSAT), una vez con la operación de Landsat 4 y 5, suspendió la adquisición de datos
Landsat MSS, reemplazándolos por los datos del Thematic Mapper (TM).
La combinación de bandas 1,2 y 3, utiliza solo las que se encuentran en la porción visible
del espectro electromagnético, es la que más se aproxima a los colores reales. Es ideal para realzar
información del agua: turbidez, corrientes y sedimentos en suspensión. En esta imagen las
tonalidades de color azul claro representan aguas costeras y con sedimentos en suspensión,
mientras que los tonos azul oscuro representan aguas más profundas y con pocos sedimentos en
suspensión. Las áreas urbanas aparecen en tonalidades marrón claro y la vegetación en tonos
verdes.
Mediante la combinación de estas bandas, tenemos que tener en cuenta que el infrarrojo
es sensible a la clorofila, permitiendo que se observen variaciones de la vegetación y estas
aparezcan en tonos rojos. Tomando en cuenta que las combinaciones mencionadas son dos de
varias iteraciones que podemos hacer entre las bandas captadas por el sensor podemos dirigir
este conocimiento para poder distinguir entre ciertas características de un mapa en específico, ya
que la utilización de cada banda nos proporciona el realce de un factor en particular por ejemplo
(Ver tabla 4)
31
BANDAS ESPECTRALES Y CARACTERISTICAS
AZUL VISIBLE: Cartografía de aguas someras.
Diferenciación de suelo y vegetación.
32
ERIS CHETUMAL, es una estación terrena situuada en nuestro territorio nacional, la cual
recibe información de diversos satélites ERS2, LANDSAT 5, TERRA; por ende, reúne las
características para ser elegida como una referencia para la obtención de tomas, estas son:
mínimas interferencias con otras señales de telecomunicación y energía del relieve, ademas del
desglose de una topografía plana, telecomunicación disponible mediante acceso a internet, y un
círculo de recepción adecuado para cubrir México, América central y el Caribe (Ver Figura 7).
33
CAPÍTULO 3 ANALISIS Y METODOS DE PREPROCESAMIENTO DE
IMÁGENES SATELITALES
Una imagen satelital para fines de teledetección es una matriz NxN de puntos (Ráster) en
formato digital, donde generalmente las columnas se les denominan muestras, y a las filas líneas;
donde a partir de su conjunto se originan bandas organizadas de distintas maneras, y estarán
presentes en función del sensor que se utilice.
Al ser capturadas las imágenes, son almacenadas en algún tipo de formato ya sea en
banda intercalada por línea (BIL), banda intercalada por píxel (BIP) y banda secuencial (BSQ); en los
cuales los pixeles están intercalados entre líneas y muestras, hasta cubrir el número total de
bandas en las cuales está dividida la imagen. Debido a que la información contenida en la imagen
contiene sólo valores asignados a cada píxel, se necesita información adicional para mostrar y
hacer un seguimiento de la misma; dicho seguimiento dependerá del software utilizado; el
seguimiento que se le dé a cada una de las imágenes arrojarán un número de metadatos, estos
son situados en distintos ficheros con documentación particular de cada imagen, a esto se le
conoce como cabecera.
34
REALCE DEL CONTRASTE
La sensibilidad de los sensores de a bordo de satélites, se han diseñado de tal manera que
graban una amplia gama de características de brillo, alterando en algunos casos las características
propias del terreno; el objetivo de mejorar el contraste de las imágenes es adecuarlas para una
fácil interpretación visual de ciertos elementos en específico, y la practicidad de discernir entre
algunas zonas para así poder interpretar las características espaciales que cubran nuestros
requerimientos del área geográfica mostrada. En otras palabras los procedimientos tienden a
mejorar la interoperabilidad visual de una imagen, aunque no aumentan la cantidad de
información contenida en ella. El rango de opciones que dispone el analista para realces de
imagen es virtualmente ilimitado, aunque la mayoría de estas técnicas pueden ubicarse en dos
grupos: operaciones de punto, que modifican independientemente el brillo de cada pixel y
operaciones locales, que modifican el valor de cada pixel basadas en el valor de los pixeles vecinos.
35
El caso de nuestro ejemplo es el de un estiramiento de contraste lineal, donde vemos
cómo el rango de valores iniciales de los pixeles (20 a 127) es expandido hasta obtener el rango
máximo de 0 a 255. Al expandir la escala de grises se logra realzar detalles sutiles de la imagen,
difíciles de discriminar con la compresión inicial. El caso de contraste lineal que hemos descrito es
el más sencillo, y puede también ser descrito por el algoritmo:
( ) (Ec.4)
Donde:
HISTOGRAMA
Dichos histogramas sirven para obtener un panorama ya sea especifico o general de una la
distribución o muestra, respecto a una característica, cuantitativa y continua, de la misma y que es
de interés para el observador evidenciando comportamientos, grado de parentesco entre dos o
más muestras resaltando el grado de variabilidad, y por ende, el grado de yuxtaposición entre
cada una de las mismas. Cuando se trata de trabajar los histogramas dentro de una imagen se
debe tener en cuenta que los valores con los cuales consta dicha imagen están distribuidos
tomando como base las diferentes escalas de grises y las frecuencias que estas nos muestran.
Cuando hay una imagen que en su totalidad es plana, y las escalas de grises que ésta muestra son
en un mayoría idénticas; tomando en cuenta lo anterior mencionado, una imagen transporta una
máxima y una mínima cantidad de información proporcionando de ésta manera los límites del
histograma general o de una muestra o clase en particular de la imagen.
36
3.3 CLASIFICACIÓN DE IMÁGENES SATELITALES
IMÁGENES PANCROMÁTICAS
Se captan mediante un sensor digital que mide la reflectancia de energía en una amplia
parte del espectro electromagnético. Para los sensores pancromáticos más modernos esta única
banda suele abarcar la parte visible y de infrarrojo cercano del espectro. Los datos pancromáticos
se representan por medio de imágenes en blanco y negro. (Ver Figura 9). En imágenes a color se
tienen 3 bandas (azul, verde y roja con 8 bits por canal) cada una muestra la reflectancia de un
objeto en determinadas áreas del espectro electromagnético.
IMÁGENES MULTIESPECTRALES
Se captan mediante un sensor digital que mide la reflectancia en muchas bandas. Por
ejemplo, un conjunto de detectores puede medir energía roja reflejada dentro de la parte visible
del espectro mientras que otro conjunto mide la energía del infrarrojo cercano. Es posible incluso
que dos series de detectores midan la energía de dos partes diferentes de la misma longitud de
onda. Estos distintos valores de reflectancia se combinan para crear imágenes de color.
37
Figura 10 Imagen multiespectral de una porción territorial
La información espectral almacenada en las bandas separadas pueden ser integrados por
las combina en una composición de color. Muchas combinaciones de bandas son posibles. La
información espectral se combina mediante la visualización de cada banda individual en uno de los
tres colores primarios: rojo, verde y azul. Cada combinación de bandas que se utilizan para crear
una imagen de color compuesto se denomina como compuesto de color falso (FCC).
En uno de los más comunes de FCC, el color rojo se asigna a la banda del infrarrojo
cercano, el color verde a la banda visible de color rojo y el color azul a la banda visible verde. La
vegetación verde aparecerá rojiza, azulada el agua y el suelo desnudo en tonos de marrón y gris.
Para las imágenes TM esta FCC se compone de las bandas de 2, 3 y 4. Otra combinación muy a
menudo utilizado para las imágenes TM es la que se muestra en rojo, verde y azul de las
respectivas bandas 5, 4 y 3. Otras combinaciones de la banda son también posibles. Algunas
combinaciones suelen dar una salida de color que se asemeja a los colores naturales: el agua se
muestra en azul, el suelo desnudo como rojo y verde la vegetación. Por tanto, esta combinación da
lugar a un compuesto llamado pseudo color natural.
38
3.4 RECTIFICACIÓN DE IMÁGENES SATELITALES
Conociendo que las imágenes satelitales tienen como materia prima una matriz
tridimensional de números, antes de llevar a cabo un análisis por coloración de pixel que es uno de
los particulares de este trabajo, debemos de dar un tratamiento previo a las imágenes; a esto se le
llama rectificación o corrección, esto con el fin de restablecer los valores en los pixeles que se
encuentran modificados desde la fuente; para lograr este cometido, se deberán realizar cuatro
tipos de rectificacione, estas son: geométricas, radiométricas, atmosféricas y/o topográficas,
llevando este orden, esto se explicará a continuación8.
39
Estrictamente el número de puntos de control asignado debe ser al menos del grado de los
coeficientes de las funciones de transformación.
( )( )
(Ec. 5)
Donde:
El grado de complejidad del polinomio es expresado como el orden del polinomio, siendo
simplemente el exponente más alto reflejado en la ecuación.
RUBBER SHEETING
Para rectificación de imágenes, los puntos de control conocidos pueden ser triangulados
en muchos triángulos. Cada triángulo tiene tres puntos de control como sus vértices. Luego, la
transformación polinómica puede ser usada para establecer relaciones matemáticas entre los
sistemas fuente y destino para cada triángulo.
40
Como se aprecia en la figura siguiente, la asignación de puntos de control debe ser
uniforme tratando de colocar cada uno a lo largo y ancho de la imagen en cuestión, tomando
como referencia que entre ellos siempre debe de estar la relación de una línea horizontal entre
ellos tal como muestra la siguiente figura (Ver Figura 11); esto para que al llevar una relación en la
triangulación el resultado de esta no modifique la imagen haciendo que esta se ve barrida, o
escalonada en sus pixeles
Para determinar vecino más cercano un pixel de salida, se procede a hacer una
rectificación en un pixel original (X0,Y0), utilizando una transformación inversa correspondiente al
sistema de coordenadas fuente. El método de “vecino más cercano” destaca la transformación
41
inversa de los pixeles (Xr,Yr), que se encuentran alrededor del pixel origen, (Ver Figura 12); la
modificación o cambio en su información que sufra dicho pixel, cambiara los valores de datos en
el archivo de salida; dicho método también está presente para la interpolación bilineal, y en la
convolución cubica, métodos que se mencionaran más adelante.
VENTAJAS
i) Con dicha transformación se transfiere el valor de los pixeles originales sin que se pierdan
las características de extremos o sutilezas, evitando que se pierdan los valores base, esta
consideración es importante, para llevar a cabo una discriminación en los tipos de
vegetación de una zona determinada, localizar alguna tendencia, dirección o algo
característico en la imagen.
ii) Muy viable antes de hacer una clasificación.
iii) Es el método más fácil y rápido de usar.
iv) Adecuado para archivos temáticos con valores Cuantitativos y Cualitativos, teniendo una
ventaja sobre la transformación bilineal y convolución cubica.
42
DESVENTAJAS
i) Este método es usado para muestrear valores de mayor a menor, en una cuadricula
definida, esta presenta una modificación tipo escalera en una serie de elementos
agrupados progresivamente, de acuerdo a la característica de altura correspondiente en la
imagen.
ii) Los valores de los datos pueden ser disminuidos mientras que otros pueden aumentar
iii) Para características temáticas como carreteras o arroyos, pueden haber modificaciones
como roturas originando una deficiencia en una red de datos lineales.
INTERPOLACIÓN BILINEAL
En interpolación bilineal, el nivel digital del pixel rectificado parte de las distancias entre la
posición de la coordenada transformada (Xr,Yr) y los cuatro pixeles más cercanos en la imagen de
entrada (Ver Figura 13), como se puede apreciar los pixeles vecinos son numerados
consecutivamente del uno al cuatro, estos ligados por sus niveles digitales; partiendo de esto la
tarea es calcular un nivel digital para el pixel Vr.
43
Para el cálculo de Vr, debemos hacer la interpolación de los valores de Vm y Vn, tomando
esto como un punto de partida podemos deducir los valores de los anteriores pixeles a partir del
ajuste en la imagen anterior
(Ec. 7)
Si bien tenemos esta fórmula referenciada a la figura anterior (Ver Figura 13), como una
vinculación de los pixeles más cercanos a un punto de referencia, podemos asignar una formula
general para describir de una manera más clara como es que funciona este método.
( )( )
∑ (Ec. 7.1)
Dónde:
Δxi = cambio en la dirección X entre (xr,yr) y la coordenada de archivo de datos del
pixel referencia
Δyi = cambio en la dirección Y entre (xr,yr) y la coordenada de archivo de datos del
pixel referencia
Vi= el nivel digital del pixel referencia
D= la distancia entre los pixeles ya sea referente a X o referente a Y en el sistema de
coordenadas fuente
k=Número de pixeles de referencia
VENTAJAS
i) Los resultados presentados en las imágenes de salida, son visualizados con las
características de la misma más suaves, sin presentar el efecto escalera, mencionado en el
procesamiento anterior, dando un mejor vecino cercano
44
ii) Más espacio para precisar al vecino más cercano
iii) Este método se utiliza a menudo cuando cambiando el tamaño de la celda de los datos.
DESVENTAJAS
i) Debido a que las imágenes son procesadas por interpolación bilineal y la base de este
procesamiento es un promedio, tendrá un efecto de baja frecuencia en la convolución;
donde los bordes son alisados, y los valores en el extremo de los datos son perdidos.
CONVOLUCIÓN CÚBICA
Este método, funciona en base a un arreglo 4x4 de 16 pixeles, del cual al promediarse
entre sí se obtiene el valor del pixel de salida, resultando una aproximación cúbica debido al
número de entradas que lo conforman; para identificar a los 16 pixeles entrantes con relación al
pixel transformado (Xr,Yr), se usa un pixel patrón, expresado en las mismas coordenadas del
archivo (Ver figura 14), estas coordenadas son las siguientes:
Los valores que toma dicho pixel patrón, son pixeles que se encuentran alrededor del pixel
rectificado situados en la misma sección, tomando valores de: (i,j; i=int(Xr), j=int(Yr)).
Cuando es realizado este procesamiento, los cambios que podemos notar de manera
sustancial son aquellos que se encuentran cerca del pixel cerca del pixel transformado, caso
contrario para los que están más separados.
45
VENTAJAS Y DESVENTAJAS DE LA CONVOLUCIÓN CÚBICA
VENTAJAS
i) Al ser este arreglo de 4x4 y ser promediado, la media y desviación estándar que este
presenta en su salida con respecto a su entrada, arroja valores muy estrecho en su
relación uno a uno
ii) Con la transformación cúbica se puede suavizar la imagen y agudizar el ruido que esta
contiene, haciendo la observación que el efecto de la imagen depende mucho de las
características y los valores utilizados en la misma
iii) Este método funciona cuando se está cambiando el tamaño de la celda para la fusión de
fotografías aéreas de diferente tamaño.
DESVENTAJAS
Este método es mucho más lento que los anteriores métodos de transformación, pero
tiene la ventaja de que al finalizar los ajustes en la imagen, las curvas de variación aparecerán sin
algún efecto como la escalera mencionado anteriormente en el segundo método de
transformación, y a menos que se quiera obtener una máxima suavidad en la imagen, se debería
de usar la interpolación bilineal.
46
Los puntos de control sobre una imagen raster de dimensiones m x n (Ver Figura 15)
VENTAJAS
i) Las imágenes de salida resultan ser más suaves después del procesamiento.
ii) Este muestreo se utiliza particular para hacer muestreos de imágenes de mayor rango.
iii) Incrementa con mayor precisión el espacio que hay con respecto al vecino más
cercano.
DESVENTAJAS
47
3.4.3 RECTIFICACIÓN ATMOSFERICA Y TOPOGRAICA
3.5 FOTOINTERPRETACIÓN
Es una técnica que tiene como objetivo estudiar o analizar la información extraída
mediante la descripción de un diseño con aplicaciones visuales y digitales de percepción remota.
De esta manera, se puede observar en una toma aérea todos los elementos que se encuentran
presentes como, la vegetación, redes hidráulicas, topografía, ciudades, carreteras, entre otros.
48
así clasificarlos de la manera más simple posible para facilitar la sistematización y
comprensión de la realidad.
Existen varios métodos de clasificación dirigidas hacia las imágenes digitales con fines de
percepción remota. Dos de ellas es la clasificación no supervisada y supervisada, siendo la última
generalmente la utilizada y la más importante; con el fin de hacer que el clasificador tenga un
"conocimiento" acerca de la relación entre las clases y los vectores de características que debe
dar. En teoría, esto podría hacerse a partir de una base de datos en la que las relaciones entre
clases y vectores de características se almacena.
Es tentador suponer que en las imágenes del pasado, lo suficiente de cada tipo de sensor
se ha analizado, como conocer las características espectrales de todas las clases correspondientes.
Desafortunadamente, los vectores de características observadas en una imagen en particular se
ven influidos por una gran cantidad de otros factores distintos de la cobertura del suelo, tales
como: las condiciones atmosféricas, el ángulo del sol (como función de la latitud / tiempo de día /
fecha y como una función del relieve del terreno), tipos de suelo, humedad del suelo, la etapa de
crecimiento (vegetación), el viento (que afectan a la orientación de las hojas), etc.
CLASIFICACIÓN SUPERVISADA
En este método de las clasificación es mucho más ampliamente utilizado, donde el proceso
se divide en dos fases: una fase de formación, donde, mediante la asignación de un número
limitado de píxeles para las clases que pertenecen a esta imagen en particular, seguido por la fase
de toma de decisiones, donde se asigna una etiqueta de clase a todos los píxeles de la imagen
mediante la búsqueda de cada píxel que sea similar. Durante la primera fase, las clases que se
utilizan están previamente definidas (considerando el previo conocimiento de las áreas a
considerar, esto para que pertenezcan y sirvan para generar un número de clase). Para cada clase
se necesita alguna "verdad de terreno"; esto es un conocimiento que debe haber sido adquirido
de antemano, por ejemplo, como resultado del trabajo de campo, o de un mapa existente
(asumiendo que en algunas zonas la pertenencia a una clase que no ha cambiado desde que el
49
mapa fue producido). Si dichos datos se encuentran disponibles las muestras (pequeñas áreas o
píxeles individuales) se indican sobre la imagen; estas muestras también se denominan "regiones
de interés".
CLASIFICACIÓN NO SUPERVISADA
Una forma de realizar una clasificación es trazar todos los pixeles (todas las características
de los vectores) de la imagen en un espacio, y luego analizar la función de espacio para agrupar los
vectores de características en grupos. El nombre de este proceso es la clasificación no supervisada.
En este proceso no hay conocimiento a priori sobre los nombres de las clases de cobertura del
suelo, tales como ciudad, carretera, etc. La clasificación no supervisada tiene diferentes
algoritmos; por lo general, no son completamente automática, el usuario debe especificar algunos
parámetros como el número de grupos (aproximadamente) que desea obtener, el tamaño máximo
de grupo, la distancia mínima que se permite entre los diferentes grupos, etc. el proceso de
construir grupos como es la exploración a través de la imagen. Normalmente, cuando un grupo se
hace más grande que el tamaño máximo, se divide en dos grupos, por el otro lado, cuando dos
grupos se acercan uno a otro a una distancia mínima, se combinan en una sola.
50
CAPÍTULO 4 MANEJO Y PROCEDIMIENTOS IMÁGENES SATELITALES DEL
TERRITORIO NACIONAL
Teniendo como base los conceptos mencionados en los capítulos anteriores: que van
desde la definición del concepto de percepción remota, los elementos que intervienen en el
proceso de la captación de las imágenes y el tipo de análisis que se lleva a cabo sobre ellas;
dirigiendo este conocimiento al tratamiento de imágenes satelitales de cuatro entidades
federativas del territorio nacional: Jalisco, Puebla, Michoacán y Sinaloa; las cuales serán sometidas
a un pre-procesamiento con el fin de restaurar algunas características generadas por la toma del
sensor, poder realizar una clasificación supervisada tomando como referencia principal la
coloración del pixel para una pronta identificación de las zonas con agricultura de temporal.
Para un mayor conocimiento de las características agrícolas de cada uno de los estados
mencionados en el párrafo anterior, se toman las bases de datos censadas del instituto Nacional
de Estadística y Geografía (INEGI)11; donde la información almacenada tiene un registro del año
2011; estos registros son extraídos desde los repositorios de dicho instituto, donde una vez
analizados podemos discernir donde se encuentran las plantaciones de temporal que son de
nuestro interés, además de algunas más que nos puedan brindar información para una mejor
clasificación, para ellos en las figuras siguientes correspondientes a cada uno de los estados de
nuestro interés, las áreas agrícolas estarán resaltadas con un color cian, para una mejor
ejemplificación y ubicación.
El estado de Jalisco es una zona que se encuentra orientada hacia una sub provincia del
bajío guanajuatense, dichas provincia al estar localizada entre sierras y bajíos michoacanos es en
su mayoría de plantas endémicas con uso orientado actualmente hacia la agricultura.
Este estado cuenta con una geografía basta a pesar de su distribución por todo el
territorio; donde a partir de La Meseta Lávica, El Valle de Laderas tendidas y el Lomerío de Colinas
Redondeadas; proporcionan matorral subtropical y zonas útiles para los procesos agrícolas.
51
CARACTERIZACIÓN AGRICOLA
52
ondulados nos proporciona principalmente: maíz, caña de azúcar, aguacate, mango, sorgo,
jitomate, pepino, sandía, cítricos, alfalfa, arroz y cacahuate.
53
PUEBLA Y SUS TIPOS DE AGRICULTURA
CARACTERIZACIÓN AGRÍCOLA
La agricultura de temporal se desarrolla en lugares con topografías muy variadas, que van
desde las partes planas de los valles, hasta lugares con pendientes pronunciadas que forman parte
de la sierra, así como en lomeríos y grandes llanos; además de lugares favorecidos por la
54
humedad. Se encuentra bajo la influencia de variados tipos climáticos, desde templado húmedo
con abundantes lluvias en verano hasta semiseco semicálido con lluvias en verano y sobre una
gran diversidad de suelos, donde la fertilidad es variable, la mayoría presenta altos rendimientos
con aplicación de fertilizantes. La agricultura nómada se realiza en terrenos poco propicios para la
agricultura, con fuertes pendientes. Esta actividad es básicamente una agricultura de subsistencia,
donde se tumba y se quema la vegetación natural, para dedicar el terreno a la siembra durante
algunas temporadas, hasta que se agota el suelo y los rendimientos son exiguos, para luego
abandonarlo por muchos años y después repetir el proceso.
55
nuestro análisis para ubicar las zonas de producción de maíz, frijol, trigo etc., donde están
localizados y en qué tiempo se desarrolla cada una de ellas (Ver Figura 18).
ERIS CHETUMAL es una estación terrena la cual lleva este nombre debido a la ciudad
donde está localizada y su propósito es recibir imágenes de satélite, para que estas sean tratadas
con propósitos científicos, ya sea para aplicaciones marítimas, atmosféricas o terrestres
incluyendo la ya mencionada anteriormente percepción remota. El tipo de imágenes que se
reciben son generadas en un formato TIFF, y permiten observar y analizar, condiciones
meteorológicas y cambios en el suelo, esto debido a que dicho repositorio de imágenes varia
aleatoriamente desde el año 2008/2009 hasta el 2011, con variabilidad en la toma de los meses y
días, ya que a pesar de que el sensor toma muestras cada 16 días, de un mismo sector, la
disposición de las imágenes en la base de datos de este sitio es muy somera, y se cuentan con
pocas tomas en referencia a cada año, dicho problema fue una de las dificultadas para realizar una
comparación minuciosa de algunas tomas durante la realización de este trabajo.
56
La manera en que podemos hacer uso de dichas imágenes de Jalisco, Sinaloa, Michoacán y
Puebla, será mediante el sitio web que maneja ERIS CHETUMAL, el cual consta de un repositorio
de imágenes que divide a la república mexicana por cuadrantes o sectores, haciendo una fácil
localización de las entidades federativas, posicionándonos en cada uno de estos cuadrantes en los
cuales están divididos, por medio de sus coordenadas ROW (fila) y PATH (columna) Ver figura 19.
Figura 19 Sectorización del territorio nacional tmado del repositorio de ERIS CHETUMAL
Sin embargo podemos encontrarnos con que hay ciertos cuadrantes de la republica de los
cuales no hay imágenes proporcionadas; estos cuadrantes ejemplificando de una mejor manera
son los que están marcados con una equis en la imagen que se muestra en la figura anterior.
La manera en que se divide cada uno de los estados en sectores será la siguiente (Ver
Figura 20).
Figura 20 Ejemplo de sectorización de los estados Jalisco y Puebla realizado por Eris Chetumal
57
Una vez conocida la forma en que ERIS CHETUMAL divide por sectores los estados de
nuestro interés, la obtención de las imágenes visualizadas en el mapa, es mediante el software
ERDAS IMAGINE, ya que el repositorio divide cada una de las imágenes en siete bandas de
frecuencia; muestra de que se trata de imágenes multiespectrales cuyas características son
mencionadas en el capítulo 2; y estas harán un arreglo de siete matrices, las cuales habrá que
compilar para cada una las imágenes de diferentes fechas de cada uno de los sectores que se haya
elegido para trabajar (Ver Anexo).
El repositorio mencionado proporciona las imágenes divididas en siete capas (layers), este
número es por las bandas en las cuales está obteniendo la imagen el sensor. Estas capas tienen
que ser compiladas mediante un software específico llamado ERDAS IMAGINE donde este trabaja
las capas agrupándolas en solo un archivo para poder ser trabajadas (Ver Anexo).
Una vez llevado a cabo este proceso a primer instancia podemos hacer una análisis visual
de ellas, destacando algunas características como el tono de ciertas partes de la imagen, textura
(háblese de relieves, montañas, etc), ubicación contextual de características o rasgos importantes
como ríos, lagos, caminos, ciudades; los cuales son factores encaminados para ser de vital
importancia en el tratamiento digital que se le dé. Para llevar el análisis visual de las imágenes
captadas tenemos que llevar a cabo ciertos criterios visuales donde la descripción de
características va aumentando según el grado de complejidad que estos manifiesten, lo cual
significa que podemos tener un criterio visual que apunta al análisis de tonos, colores y formas
hasta analizar la fenología del manto este como se puede ver en la imagen siguiente (ver figura
21).
58
Figura 21 Criterios de complejidad para analizar imágenes
Donde al llevar a cabo una interpretación visual tomaremos en cuenta el criterio espectral
y espectral simple para llevar a cabo un análisis específico sobre lo que se está buscando; las
propiedades que vamos a someter a análisis son: tono, color, textura y serán descritos a
continuación
Color: La combinación y la gran gama de colores de la cual está compuesta una imagen
multiespectral, ayudan en grado superior a la discriminación de las cubiertas con las cuales
consta dicha área. La composición de colores puedes ser manipulada a nuestro beneficio,
esto para generar un criterio respecto a lo que se está buscando ya sea un falso color
verdadero, falso color natural y diferencias entre tierras y agua), esto como se explicó en
el capítulo anterior, dicho número de composiciones es proporcional a la resolución
espectral del sensor, obteniendo combinaciones que dependerán de las bandas que sean
asignadas.
59
Textura: La textura de una imagen está referida al contraste espacial entre los distintos
elementos que se encuentran en la imagen y esto conlleva a denotar una relación entre el
tamaño de los objetos que se observan en ese momento con una determinada distancia y
la resolución del sensor que se está usando. Al llevar a cabo esta relación podemos
observar como la imagen al ir incrementando el acercamiento los objetos generan una
aparente rugosidad o suavidad.
Para nuestro tratamiento de la imagen con el software ERDAS IMAGINE, podemos hacer
un sin número de combinaciones, de las cuales podemos destacar en la siguiente tabla (Ver tabla
5)
El falso color convencional mostrado con la combinación de bandas cuatro, tres y dos
respectivamente; se usa para la ubicación de áreas con agricultura de temporal, esto debido a que
ocurre un desplazamiento en la asignación de las bandas; esto quiere decir que la banda azul se
desplaza hacia el verde, el verde hacia el rojo, y el rojo hacia el infrarrojo cercano haciendo posible
la discriminación de las zonas agrícolas sobre el territorio mostrado ya que como se mencionó en
la tabla anterior las áreas verdes son pintadas en un tono rojizo y los colores de las ciudades o
poblaciones que se encuentran alrededor son resaltadas en tonalidades de grises haciendo posible
su localización en un mapa para una mejor referenciación
60
Esto como se puede ver en las siguientes imágenes donde los alrededores de la ciudad son
resaltados en una diversa gama de rojos demarcando la periferia de la ciudad de la cual es
correspondiente la región (Ver Figura 22).
Figura 22 Combinación de bandas 4, 3,2 sobre una imagen del estado de Jalisco
Además en este segunda imagen, a pesar de que es un territorio situado cerca de cuerpos
montañosos, y con algo de nubosidad, podemos apreciar que a pesar de que se utilizo sobre ella la
misma combinación de bandas que en la imagen anterior, apenas y se distinguen las zonas
agrícolas sobre la toma (Ver figura 23).
61
Teniendo el conocimiento anterior, se presentan a continuación dos ejemplos más de
combinaciones de bandas que se pueden utilizar, en el primer recuadro tenemos la combinación
4, 5,3; donde nos define las delimitaciones de tierra ubicadas en las costas del estado de Sinaloa; Y
en el siguiente recuadro utilizamos una combinación 7, 4, 1, para resaltar los cuerpos de agua
ubicados en un sector correspondiente al estado de Puebla (Ver Figura 24).
Una vez realizado el análisis visual de las imágenes de manera superficial, y habiendo
identificado las características principales que destacan sobre las mismas, lo que se procede a
realizar de manera consecuente son las rectificaciones pertinentes para poder restaurar, o
disminuir factores como: nivel de reflectividad, nubosidad, y otras características propias de la
toma de la imagen. Estos procesos de pre-procesamiento serán del siguiente orden:
Correción
Correción Correción
atmosferica y
geometrica radiometrica
topografica
62
CORRECION GEOMETRICA
Mediante el manejo del software la asignación de puntos de control se toma haciendo uso
de una imagen de referencia y una imagen patrón. La elección de dichas imágenes se dará
mediante la selección visual que se tengan en el repositorio de ERIS CHETUMAL, esto quiere decir,
al tener varias imágenes de la misma zona en diferentes fechas y periodos anuales, la claridad y el
nivel de nubosidad que estas presentan serán los primeros criterios que se utilizarán para elegir la
imagen patrón y la imagen de referencia; tal como se muestra en la imagen siguiente, donde la
primer toma es más nítida y nos muestra una porción territorial de norte del estado de Jalisco, y la
segunda imagen tenemos referenciada la misma porción de terreno pero de una fecha distinta. De
esta manera podemos decir que la imagen con mayor nitidez será denominada la imagen patrón y
la segunda imagen será la de referencia (Ver Figura 25).
Fi
gura 25 Ejemplos de imagen patrón y referencia basadas en tomas del estado de Michoacán
63
De manera añadida, tenemos que tomar en cuenta lo anterior mencionado con respecto
al tiempo y disposición de imágenes que se encuentran en la base del sitio, esto para poder elegir
imágenes que no tengan una línea de tiempo amplia, por ende las imágenes que se ocuparán para
el análisis serán con diferencia de dos años; imágenes que se encuentren en el periodo de tiempo
de los años 2009 al 2011.
Las imágenes que se tomarán de ERIS CHETUMAL se dividen en sectores las cuales al
descartar una con respecto a la otra se obtienen las imágenes que serán patrón y referencia como
ya se menciono, ordenándolas sector a sector en una tabla tomando en cuenta la fecha en que
fueron tomadas. Haciendo la observación siguiente, para fines de un mejor análisis al contraponer
las imágenes que han sido capturadas tomamos una segunda referencia, esta razón se explicará
más adelante.
Conociendo las fechas de cada una de las imágenes que se tiene y en qué tiempo fueron
tomadas (Ver Tabla 6), podemos darnos cuenta que para hacer un primer análisis visual se
observaran las características que tiene la toma, llámese nivel de nubosidad, posición de los
cuerpo de agua, manchas urbanas; esto con el fin de realizar un comparativo de cada una de ellas.
64
SECTOR 2
MICHOACAN 21- ENERO- 2011 19- FEBRERO- 2010 17- DICIEMBRE- 2009
SECTOR 3
MICHOACAN 21- ENERO- 2011 17- DICEIMBRE- 2009 05- JUNIO- 2008
SECTOR 4
SINALOA 07- SEPTIEMBRE- 2011 20- NOVIEMBRE- 2009 28- JULIO- 2008
SECTOR 1
SINALOA 29- AGOSTO- 2011 15- FEBRERO- 2010 07- OCTUBRE- 2008
SECTOR 2
SINALOA 29- AGOSTO- 2011 15- FEBRERO- 2010 07- OCTUBRE- 2008
SECTOR 3
SINALOA 21- SEPTIEMBRE- 2011 14- AGOSTO- 2009 23- MAYO- 2008
SECTOR 4
SINALOA 21- SEPTIEMBRE- 2011 04- DICIEMBRE- 2009 12- SEPTIEMBRE- 2008
SECTOR 5
SINALOA 24- ENERO- 2011 20- JULIO- 2009 19- SEPTIEMBRE- 2008
SECTOR 6
Tabla 6 Repositorio de imágenes de los años 2009, 2010 y 2011
Una vez hecha la tabla de imágenes tomadas del repositorio y la elección de cuales
servirán como patrón y las que serán nuestras referencias, procedemos a la asignación de las dos
imágenes donde colocaremos uno a uno los puntos de control sobre la imagen patrón, esto hasta
llegar al octavo punto de control, ya que ERDAS de manera automática asigna del noveno punto
en adelante sobre la imagen de referencia. La asignación de los puntos de control tendrá como
base de primera mano, el método rubber sheeting o de triangulación y la premura de guardar una
línea recta basada en GCP’s.
La línea a seguir que se tomará para dicho método será la ubicación de cuerpos de agua
grandes o jagüeyes los cuales son cuerpos de agua pequeños, y el hecho de que se tomen estos
cuerpos se basa en que por más grande o pequeño que este sea su ubicación geográfica no
cambiará; consecuentemente el siguiente factor visual a considerar para la asignación de algún
GCP es la posición o localización, de montañas, llanuras, relieves, volcanes, cadena montañosa o
filo de agua que se encuentre sobre el territorio mostrado en la imagen; por último el criterio que
65
se tomó son las referencia de vías terrestres, o manchas urbanas (ciudades), que se encuentran
ubicada; las características mencionadas al ser ubicadas arrojaran una tabla de datos, en la cual
serán reflejadas las posiciones de entrada del cursor en X&Y para ambas imágenes, los datos
residuales para dichas coordenadas sumándole a esta el error RMS que la relación de estas
imágenes presenta, proporcionará el margen de error que se tiene en la relación de cada par de
puntos, el margen de error que se maneja para este procesamiento es de 1 a 30.
Una de las dificultades con las cuales nos podremos encontrar al desglosar esta relación en
los puntos de control será la siguiente: Al asignar puntos de control y conforme estos aumenten
en función de las características que nosotros pretendamos que son importantes la diferencia en
el error RMS de los puntos previamente asignados irá cambiando, esto quiere decir por ejemplo si
llegásemos a asignar hasta un doceavo punto de control y este arroja un error de 22, estando este
en el margen de tolerancia puede modificar, los errores de los puntos anteriormente asignados, ya
sea elevándolos por encima del margen de error, o disminuyéndolos, tomando entonces la
consideración de mover el punto hacia otro sitio considerando el perímetro inicial donde fue
asignado ya que con esto podremos modificar el error RMS procurando que los puntos aún
mantengan el margen de error, todo lo anterior podemos verlo en la siguientes tomas, (Ver Figura
26,27).
66
Figura 27 Desglose de asignación de puntos de control en imagen patrón y referencia con desglose de error RMS
En la imagen anterior, tenemos ver que el error RMS mínimo que tuvimos fue de 0.492,
esto a pesar de conforme los puntos de control se iban colocando al ser dos tomas de la misma
zona, puede variar un poco la posición de ellas y hacer que los puntos de control no conserven la
horizontal debida entre la referencia y el patrón después del octavo punto de control, obteniendo
dicho factor de RMS podemos decir que la imagen fue corregida geométricamente con éxito, es lo
determinados; debido a que si continuábamos con la asignación de puntos corríamos el riesgo de
que el RMS saliera de nuestro margen de error.
CORRECIÓN RADIOMETRICA
Una vez llevada a cabo la asignación de puntos de control sobre ambas imágenes, se
procede a realizar una corrección radiométrica, dicha corrección servirá para restaurar el valor de
cada pixel con el fin de generar una nueva imagen.
CORRECIÓN ATMOSFERICA
Una vez generada la imagen corregida por los procesos anteriores se realiza de manera
consecuente una corrección de los valores de reflectividad de la imagen resultante, este proceso
se llevará a cabo en dos procesos distintos uno será una corrección topográfica, y el otro será una
atmosférica. Dichas correcciones se llevarán a cabo dentro del mismo ambiente de trabajo que
estamos manejando: ERDAS IMAGINE, el cual consta de un complemento que es útil para nuestros
siguientes fines, dicho complemento se llama ATCOR (Atmospheric & Topographic Correction).
68
Para que ATCOR pueda funcionar, necesitamos utilizar una imagen de entrada, y este nos
generará una imagen de salida. Para poder obtener dicha imagen de salida, debemos de conocer
la posición solar y el ángulo de elevación de la zona estos datos lo puedes desglosar de las
especificaciones que viene en la hoja de datos de la imagen.
Una vez tenido el conocimiento de dichos valores utilizaremos uno de los filtros que nos
brinda este complemento, este filtro será el de pre-vuelo o preflight, ya que es modifica en gran
porcentaje el nivel de reflectividad en el agua, suelo y disminuye el porcentaje de nubosidad que
tiene la imagen.
Habiendo elegido este método, se lleva a cabo dichas correcciones, iniciando de primera
línea, la corrección topográfica, para realizar esto, debemos de asignar de manera manual y en
base al análisis visual que hemos hecho de la imagen generada, dos filtros: uno para el nivel de
nubosidad y otro para el nivel de agua, esto para modificar los niveles de reflectividad que estos
generan. Llevado a cabo el proceso de corrección topográfica se generaran algunas modificaciones
en la imagen, para poder apreciarlas de mejor manera, el mismo programa brinda la opción “Haze
Mask” para poder observar los cambios que sufrió la imagen, dichos cambios serán resaltados por
alguna mancha roja del tamaño de la corrección, esto como se puede apreciar en las imágenes
siguientes (Ver Figura 28,29,30)
Figura 28 Corrección atmosférica y topográfica de una toma corregida del estado de Puebla
69
Figura 29 Corrección atmosférica y topográfica de una toma corregida del lago de Chápala en el estado de
Jalisco
Figura 30 Corrección atmosférica y topográfica de una toma corregida de la región norte del estado de
Sinaloa
70
Al ser realizado el proceso de corrección topográfica, se procede a hacer uso de los
umbrales ya calibrados para poder elaborar una corrección atmosférica, este siendo un proceso
aún más tardado, debido a que cambia los porcentajes de reflectividad y características en los
niveles superiores e inferiores de cada una de las bandas con las cuales está formada la imagen
multiespectral.
Las imágenes resultantes de dicha rectificación, serán las que se ocuparan para motivos de
nuestro análisis, esto de manera adjunta a las imágenes patrón y referencia tomadas desde un
principio en el repositorio, ya que el motivo de esta rectificación en las imágenes, será para
identificar, como pueden cambiar las características de las imágenes con dichos arreglos además
de poderlos comparar con imágenes originales y ver si dichos cambios en las imágenes son
necesarios para poder realizar una correcta clasificación supervisada de las zonas de las agrícolas
de riego que se encuentran dispersas en dichas imágenes; esto quiere decir que tendremos un
bagaje de imágenes originales ya sea las patrón o referencia que viene tomadas desde el sensor,
las que están corregidas radiométrica y geométricamente, y las que están corregidas en su
totalidad.
Para poder realizar una correcta clasificación supervisada de las áreas de agricultura de
riego tomamos como punto principal los archivos principales de INEGI, los cuales proporciona los
municipios que conforman cada uno de los estados, y con ello localizar los cultivos de nuestro
interés; de esta manera, al conocer la ubicación de estos ayuntamientos llevaremos a cabo un
escrutinio muy minucioso, sobre a qué puntos se encaminará la localización de los cultivos,
además que, los estados al estar sectorizados, se verificará que los puntos elegidos estén a
distancias considerables, ya que con su proximidad, los criterios de evaluación entre ellos podrían
ser similares, y esto impediría una evaluación apegada y cercana a la realidad.
Al dividir la búsqueda de cultivos en cada uno de los estados, se toma como referencia
aquellos donde hay un incremento en la producción del producto. De esta manera, se presentan
los datos de cada una de las ubicaciones por entidad federativa exponiendo sus respectivos
cultivos (ver tabla7).
71
ESTADOS CLASES 1 CLASE 2 CLASE 3 CLASE 4
JALISCO Municipios Municipios Municipios
productores de productores de productores de
frijol maiz sorgo
Mascota, Zapotlan el Amatitlan,
Pihuamo, Mixtlan, Grande, Chimatitlan,
Tecatitan, Villa Huejuquilla el Alto, Atenguillo,
Hidalgo Julotlan de los Quitopan,
Dolores, El salto, Tecouititlan,
Gomez Farias, Tenamaxtlan,
Guachinango, Ayotlan.
Ayotlan
72
MICHOACAN Municipios Municipios Municipios
productores de productores de productores de
maiz sorgo aguacate
Uruapan, Zamora, Sahuayo, Vista Hermosa,
Tacámbaro, La Piedad, Puruándiro, Álvaro
Peribán, Zitácuaro, Morelia, Aguililla, Obregón,
Tancitaro, Ario de La Huacana, Indaparapeo,
Rosales, Apatzingán, Pajacuarán
Apatzingán Huetamo
73
ESTADOS CLASE 1 CLASE 2 CLASE 3 CLASE 4
JALISCO Frijol Maíz Sorgo
Siatl y Mapa digital son algunas de las herramientas de apoyo que se encuentran en línea
que se utilizan para llevar a cabo la ubicación y clasificación; a que se refiere esto, con ayuda de
estas herramientas llevaremos a cabo la ubicación espacial de los municipios en la tomas, ya que
nos brinda una referencia de características topográficas que rodean el sector de nuestro interés
El uso de cada uno de estos será para una razón en particular, con respecto a Mapa Digital,
lo utilizaremos para ubicar la posición exacta de los municipios dentro del banco de imagenes, por
ende para localizar algunos de los ayuntamientos sobre las tomas, será ubicando algunas
características visuales que proporcionen una referencia espacial para las ubicaciones, como por
ejemplo: montañas, ríos, lagos, ciudades, etc., esto como se aprecia a continuación (Ver Figura 31)
Figura 31 Localización de municipios circundantes al lago de Chapala del estado de Jalisco mediante el uso
de "Mapa Digital"
74
En la imagen anterior, tenemos un ejemplo de la manera en la cual se podrá ver como
partiendo de algunos cuerpos montañosos y acuosos, en este caso del lago de Chapala como uno
de gran volumen podemos ubicar de una mejor manera uno de los municipios de interés para la
consecuente clasificación de las manchas agrícolas.
Con un ejemplo más; podemos encontrar que a partir de la ubicación de una montaña y
algún cuerpo de agua circundante como se aprecia en la imagen; podemos referenciar la ubicación
de una mancha urbana, o mejor dicho ciudad a las faldas del mencionado cuerpo rocoso (Ver
Figura 32).
75
Una vez corroborada la ubicación espacial de los municipios de cada una de las imágenes
con respecto al Mapa Digital se procede a reconocer las zonas de vegetación ubicadas al lugar de
análisis, esto para encontrar el área de agricultura que se encuentra alojada en esa porción de
tierra.
Para poder realizar esto, usamos las funciones de SIATL, y nuevamente basándonos en las
referencias espaciales y/o topográficas ubicamos nuevamente la posición de los lugares
anteriores; una herramienta adicional para realizar dicho procedimiento es Google Earth ya que al
basarnos en las referencias que este nos proporciona, podemos llegar a tener una mejor exactitud
de donde buscar los cultivos deseados para nuestro trabajo (Ver Figura 33,34).
76
Figura 34 Uso y comparación de las herramientas Google Earth, SIATL hacia Erdas IMAGINE
Podemos validar la información directamente en la ubicación mostrada en la imagen ya que en la primera tenemos la medición de
Google Earth con una distancia de 21.82Km, la distancia mostrada por SIATL, es de 20.896Km, donde el error es de 0.924mts, y como se había
mencionado antes, la referencia que tenemos es una muy notable ya que el poblado donde buscaremos nuestra muestra agrícola esta a las
faldas de una montaña de la entidad
77
Como se observo en las imágenes anteriores al localizar mediante Google Earth y cruzar la
localización con SIATL., se facilita referenciar la localidad de interés y hecho en las imágenes que
tenemos; Para obtener la información del tipo de agricultura que se lleva a cabo sobre el lugar
regresaremos a SIATL ya que al tener el posicionamiento de los terrenos para que este nos
proporcione algunas características de los asentamientos agrícolas del lugar; pero en distintas
ocasiones nos encontraremos que la información no es de orden público, podemos tener en
cuenta a primera vista que dicho proceso se lleva a cabo en ese lugar tal como se puede apreciar a
continuación (Ver Tabla 9).
Propiedad Valor
Identificador de base de datos 475664
Identificador 475664
Clave de fotointerpretación IAFF
Descripción AGRICOLA-PECUARIA-FORESTAL
Tipo de información NO APLICABLE
Tipo de Vegetación NO APLICABLE
Desarrollo de la vegetación NO APLICABLE
Tabla 9 Datos desplegados por repositorio de SIATL
Con las tomas patrón y referencia, además de las imágenes corregidas de manera
radiométrica y geométrica, se tomaran muestras de los distintos lugares donde están ubicados
dichos cultivos, estos serán denominados clases, y se tomaran porciones muy pequeñas de la
imagen a distancias considerables, una con respecto de la otra, esto para los fines de que al estar
en el mismo lugar o muy cercanas, las propiedades del pixel, con respecto a su coloración, y su
tono, sea similares y comprobar que la distribución geográfica de un mismo cultivo cambia de
punto a punto.
Este proceso se hará para cada una de las imágenes, esto con fines de comparar, la
tonalidad de los pixeles, y discernir, sobre que tanto sirve hacer una corrección o trabajar las
78
imágenes, desde su fuente original. Todas las muestras serán tomadas mediante el uso del el
software ERDAS IMAGINE; la toma de muestras será de manera ordenada, tomando en cuenta lo
siguiente: Para cada una de las imágenes de los estados, en base a la Tabla 9, cada una de las
imágenes arrojara un cierto número de muestras por cada una de ellas.
La búsqueda de cada una de las clases, tomando mínimo de una a tres muestras para cada
una de ellas, esto debido a que no en todos los sector que se dividen los estados tienen la
diversidad agrícola suficiente. Al tomar cada una de las muestras haciendo un escrutinio, con
respecto a cuantos lugares puede haber para tomarlas, y la pauta de que estas estén alejadas,
podemos encontrar las características de que no en todos los sectores que estamos revisando,
encontraremos todas las clases propias del estado. Estas muestras se verán reflejadas de la
siguiente manera sobre las imágenes (Ver Figura 35).
79
Lo realizado en la imagen anterior, será llevado a cabo en cada una de las imágenes de
nuestro repositorio, esto para poder llevar a cabo un desglose de los tipos de pigmentación o
coloración que aparecen en cada una de ellas, como se muestra a continuación. (Ver Figura 37).
En la figura anterior, podemos darnos cuenta que al asignar el número de clases sobre las
imágenes en este caso una imagen original de toma y una corregida en su totalidad, nos arrojara
una ventanas con un cierto tipo de coloración, donde nos basaremos en implementar el criterio de
pixel oscuro, ya que al hacer en este caso una comparativa, podemos darnos cuenta por los
valores de coloración que la toma original con respecto a una toma completamente corregida no
cambia en sus valores digitales mostrados en las tablas en el inferior de la figura anterior.
80
En la toma de las muestras como se aprecia en las siguientes imágenes, hay una diferencia
en la tonalidad del rojo y grises, los cuales están representando al número de clases para los
cuatro estados; podemos hacer un comparativo de cambian los tonos de la paleta de colores en
las tomas originales que se muestran en el lado izquierdo con respecto a las corregidas mostradas
del lado derecho; para discutir la necesidad de realizar una corrección sobre las tomas y realizar
una correcta clasificación (Ver Figura 38)..
Los resultados mostrados indican que en cada una de las paletas mostradas, los niveles
digitales reflejados en los colores primarios: rojo (RED), verde (GREEN), azul (BLUE), son alterados
aleatoriamente entre cada una de las tomas de un mismo sector de cada uno de las entidades
federativas, arrojando un umbral de cambio que va de uno al quince por ciento; lo cual permite
elegir entre cada una de las tomas de un mismo sector (Ver las figuras siguientes 39-46).
81
Figura 38 Localización de dos clases en uno de los sectores del estado Jalisco
82
Figura 39 Localización de tres clases en uno de los sectores del estado Jalisco
83
Figura 40 Localización de dos clases en uno de los sectores del estado Puebla
84
Figura 41 Localización de tres clases en uno de los sectores del estado Puebla
85
Figura 42 Localización de dos clases en uno de los sectores del estado Michoacán
86
Figura 43Localización de dos clases en uno de los sectores del estado Michoacán
87
Figura 44 Localización de dos clases en uno de los sectores del estado Sinaloa
88
Figura 45 Localización de dos clases en uno de los sectores del estado Sinaloa
89
.
CONCLUSIONES
El objetivo de este trabajo el cual era la utilización de imágenes para clasificar áreas
agrícolas y así poder realizar una clasificación supervisada fue realizado
satisfactoriamente; esto debido a que para poder realizar dicha clasificación se tuvo
que llevar a cabo un pre-procesamiento a las imágenes tomadas desde un repositorio
de ERIS CHETUMAL, y a pesar de que algunas imágenes se encontraban dañadas de
origen, las afectaciones climáticas que están tenían y falta de algunas tomas, se pudo
comparar las tomas originales junto a las imágenes corregidas; y así poder obtener un
criterio para dicha clasificación.
Las contribuciones de este estudio nos permite realizar una clasificación supervisada,
que tiene como base los registros de INEGI precisando el tipo de cultivo y ubicación
que este tiene.
90
REFERENCIAS
[1] Campbell B. Jones, Wynne H. Randolph, Introduction to Remote Sensing, New York, NY,
2011
[5] Perez Gutierrez Carlos, Muñoz Nieto Angel, Teledeteccion Nociones y Aplicaciones, Juio
2006
[7] Sorbino Rodriguez Jose Antonio, Teledeteccion, Universidad de Valencia, España, Julio
1989
[9] Martinez Muñoz Julio, Diaz Ponce Alejandro, Percepcion remota- funddamentos de
teledetección espacial, Comision Nacional de Agua, Junio 2005
91
ANEXOS
92
PROCEDIMIENTOS PARA EL MANEJO DE IMÁGENES SATELITALES (ERDAS IMAGINE 2011,
MAPA DIGITAL & SIATL)
ERIS CHETUMAL
El primer paso para poder hacer uso de la base de datos que maneja la estación terrena ERIS
Chetumal es ingresar a la página web de esta, cuya dirección es:
[Link]
93
Una vez registrado el usuario y haber proporcionado e nombre de usuario y contraseña se dará
acceso a los sistemas que existen dentro de esta estación.
El servicio que es de interés se encuentra dentro de LANDSAT 5 TM, así que daremos clic
en: Buscar escenas de un Path o un Row Específico (Varias consultas). Una vez hecho el paso
anterior abrirá una pantalla nueva con el mapa de la república Mexicana dividida en filas y
columnas, para que sea más fácil el uso e identificación de cada parte de la república.
94
Para visualizar la imagen correspondiente de cada celda en el mapa solo basta con hacer
clic en la celda deseada y obtendremos una ventana nueva con la imagen (la imagen corresponde
a la fecha más reciente).
Como puede ser visualizada la imagen, también podemos descargarla, y esto lo haremos de la
siguiente manera: En la parte inferior del mapa tenemos dos casillas señaladas por Path y Row
(Filas y columnas), las cuales en el mapa se encuentran indicadas en la parte superior y en la parte
derecha. Pondremos en estas dos casillas el número deseado para seleccionar una celda.
95
Una vez hecho lo anterior generara una nueva ventana con una tabla la cual contiene las
fechas de captura de la imagen seleccionada, ya que podemos descargar tanto las más recientes
como también años anteriores.
Una vez seleccionado el tiempo en que se desea la imagen en la tabla anterior daremos
clic en “Vista rápida” esta fecha para verificar si la imagen es la deseada, así nos abrirá la imagen
como podemos ver en seguida:
96
Ya que hemos comprobado que es la imagen deseada, regresamos a la tabla anterior para dar click
en “Escena” y así abrir otra ventana donde esta misma nos dirá que es el último paso para
descargar la imagen.
Una vez realizado esto solo falta seleccionar el link de “Descargar” y seleccionar el lugar
donde va a guardar la imagen. Espere que termine de descargar y tendrá la imagen en su CPU. Al
ser usuario registrado se pueden repetir estos pasos para descargar las imágenes que se deseen
para su tratamiento.
97
PROCEDIMIENTOS PARA EL MANEJOR DE ERDAS IMAGINE
1.- Descarga los datos de LS5 desde el servidor de ERIS Chetumal. Descomprímelo y recuerda
donde lo has hecho.
3. Ventana “Import/Export”
encontrarás 7 archivos con extensión
Elige la opción Import .dat
En Type elige generic binary Output File: Escribe un nombre que
En Media, observa que esté en modo recuerdas en el directorio que
File. desees
En Input File, buscar el directorio En el directorio de archivos .dat elige
donde se liberó el archivo tar, y el archivo [Link]
buscar dentro del directorio ubicar el Presiona OK
directorio SCENE1, donde
98
4. Ventana “Import Generic Binary Data”, llena estos datos:
99
5. Ventana “BSQ Band Files”
100
SECCIÓN 2. ABRIR EL ARCHIVO DE FORMATO ERDAS
Esperar unos cuantos segundos, hasta que cargue el 100% de la imagen, con la imagen
cargada, se habilitara el botón OK y seleccionar
Espera que procese todas las bandas y se habilite el botón OK
Seleccionamos la pestaña FILE, consecutivamente se despliega un MENU, seleccionamos
OPEN, Y Abrimos la opción de RASTER LAYER
101
SECCIÓN 3. USO DE ESCRITORIO Y PLATAFORMA DE ERDAS
b. En dicho marco nos encontramos con las herramientas que usaremos con mas frecuencia
de este software, entre ellas están:
Los iconos de zoom in y zoom out
Pan que nos sirve para mover la imagen a nuestra conveniencia
Select el cual es nuestro cursor para elegir ciertos elementos de la imagen
Add Views y Link Views que serán explicadas posteriormente
102
Si nos desplazamos a los largo de la pantalla anterior podemos darnos cuenta que hay
una pantalla llamada “Multiespectral” al seleccionarlas nos aparecerán las siguientes
opciones: De lado izquierdo nos encontramos las perillas de Contraste, Brillo y
Opacidad.
La sección “Bands” podemos elegir podemos elegir el tipo de sensor que utilizaremos
(Landsat 4 TM, Landsat 5 TM, MODIS Reflective 7) y el tipo de combinación de bandas
(por ejemplo; 4, 3, 2 ó 7, 4, 1) deseado para modificar el color en la imagen.
La sección de “Transform & Orthocorrect” nos brinda una de las opciones que
utilizaremos para la corrección radiométrica que es “Control Points” la cual brinda la
asignación de puntos de control
a. Elegimos la opción “Control Points” la cual nos desplegara un meno, el cual muestra
distintos tipos de transformaciones, nosotros elegiremos “Polynominal”
103
b. Se desplegara una pantalla llamada GCP Tool Reference Group , elegiremos la opción
Image Layer, esta opción nos permitirá tomar la imagen de referencia para poder hacer
una corrección radiométrica
104
f. Como punto de referencia para la asignación lo haremos como lo indicamos en el capítulo
3, llevando a cabo el método de Rubber Sheeting o de triangulación, para una mejor
corrección.
g. Una vez hecha la asignación completa de los puntos de control (cabe aclarar que la
asignación de los mismo va sujeta al criterio del usuario)
105
h. Se habilitara el icono llamado Display Resample Image Dialog, al elegir dicho icono;
aparecerá una ventana en la cual asignaremos el nombre del archivo de salida, el cual será
almacenado en las carpetas del mismo nombre.
i. Además de lo anterior elegiremos el tipo de corrección que queremos hacer; en este caso
por motivos ya mencionados en el capítulo 3, haremos una corrección por Vecino más
cercano ó Nearest Neightbor.
j. Al terminar lo anterior se habilitara el botón OK.
106
a. Nos desplegara una nueva pantalla, en esta pantalla, crearemos un nuevo proyecto para
poder realizar nuestra corrección
c. Elegimos el nombre del archivo de entrada para corregir el tipo de sensor y el archivo de
calibración (dicha calibración será el filtro de pre vuelo ó preflight, ya que este permite
limpiar en un mayor porcentaje el nivel de humedad y nubes, además de retocar las
manchas urbanas en las imágenes)
107
d. Pasado lo anterior tendremos una pantalla en la cual, como usuarios, ajustaremos los
umbrales de agua y nubes, además de la opción que haga los mismos filtrajes por áreas
amplias o pequeñas
e. Dicha corrección desplegara en la parte derecha el porcentaje que fue filtrado con
respecto a los umbrales que asignamos
f. Aunado a esto, al elegir el boto de corrección atmosférica, esta será llevada acabo sobre
cada una de las bandas de la imagen, modificando sobre la misma los niveles máximos y
mínimos.
g. Terminado el proceso anterior, nuevamente la imagen resultante es arrojada a la carpeta
de salidas para que podamos hacer uso de ellas
108
SECCIÓN 6. CLASIFICACIÓN SUPERVISADA
a. Para poder hacer una clasificación supervisada, tenemos en primera instancia que trazar o
dibujar un polígono con forma aleatoria usando la pestaña de “Drawing”.
b. En esta opción del escritorio tenemos dos maneas de trazar ese polígono, para ellos
existen dos opciones
Polygon: Trazar un polígono con una forma propuesta por el usuario
Grow: Traza un polígono con una forma predeterminada
c. Una vez seleccionado cada uno de los sectores deseados procedemos a hacer la
clasificación supervisada, esto mediante una separación clase por clase
d. Para hacer dicha clasificación procedemos a hacer lo siguiente:
Seleccionamos la opción Raster en el escritorio y la opción Supervised, y
consecuentemente Signature editor
109
e. Esta opción arrojara una pantalla, en la cual al seleccionar lo anteriormente trazado poder
ir clasificando una a una las zonas o sectores que seleccionamos.
Recomendación: Se puede seleccionar las zonas e irlas asignando al tiempo que se van eligiendo
para no caer en alguna confusión.
110
Para realizar una clasificación supervisada con mayor eficiencia recurrimos a diferentes
herramientas que son facilitadas por el Instituto Nacional de Estadística y Geografía, INEGI.
Este organismo autónomo del gobierno mexicano cuenta con un mapa digital de México
en línea y un simulador de flujos de aguas de cuencas hidrográficas llamado SIATL, que para este
trabajo fue un apoyo de gran importancia al realizar las clasificaciones correspondientes con cada
estado analizado, viendo en especifico la agricultura de temporal y sectores de interés.
111
PROCEDIMIENTOS DEL SOFTWARE “MAPA DIGITAL” PROPORCIONADO POR INEGI
Lo primero que se debe de saber es donde encontramos este mapa digital, dentro de
nuestro navegador accedemos a la página del INEGI que es [Link]
112
Al elegir sobre Mapa Digital abrirá el enlace en una nueva página donde seleccionaremos
la opción de Mapa Digital. Al ingresar esta opción estaremos dentro de nuestra herramienta de
trabajo. Empezando a trabajar en el ambiente del mapa digital debemos saber que contamos con
capas de información las cuales nos ayudaran en nuestro análisis colocando las capas de nuestro
interés.
113
Este panel cuenta con las capas básicas contenidas en el sistema, agrupadas de acuerdo al
tema que corresponde.
Podemos pasar la subcapa de información dentro de nuestro árbol de capas básicas dando clic en
el icono con forma de flecha localizado a un costado del letrero de Uso de suelo y vegetación.
Como podemos observar ahora nuestra capa de uso de suelo y vegetación está dentro de nuestras
herramientas a usar. Ahora procedemos a activar las capas de información de nuestro interés y
esto se hace seleccionando la capa deseada y verificando que aparezca una paloma en el
recuadro. Activamos las capas de Límites y en el submenú que despliega solo pondremos Estatales
ya que nos ayudara a localizar los estados de nuestro interés que son Sinaloa, Jalisco, Puebla y
Michoacán. Después de activarlas solo falta reprocesar el Mapa y esto lo hacemos dando clic en el
icono de la parte superior con forma de dos flechas en círculo.
114
Nuestro punto de referencia para la clasificación supervisada como sabemos son las áreas
de cultivos, áreas agrícolas y el uso de suelo y vegetación de la republica así que activaremos de la
misma manera que los límites, la capa de información de Uso de suelo y vegetación.
En este caso notamos que dentro de la capa de uso de suelo existen niveles del mismo
marcados como I, II y III así como la vegetación densa que ya se encuentra seleccionada. Para
activar los niveles de uso de suelo y vegetación solo basta con hacerle un zoom correspondiente a
cada nivel, por ese motivo existe el icono de la lupa debajo de cada nivel. Al dar click en el icono
mencionado se realizara un zoom automático y activara los niveles de uso de suelo y vegetación.
115
Ahora bien tambien podemos interactuar con el mapar de tal forma que podemos acercar
la imagen, alejarla, desplazarse dentro de la republica, medir distancias y obtener la información
de un punto que nostros señalemos dentro de esta herramienta con los iconos de la parte superior
central del mapa.
El correcto uso del Mapa Digital nos ayuda a localizar las zonas estudiadas en este trabajo
asi como darnos una idea de donde se localiza la agricultura de temporal para cada estado.
116
PROCEDIMIENTOS DEL SIMULADOR DE FLUJOS DE AGUAS DE CUENCAS HIDROGRÁFICAS
LLAMADO “SIATL
Este producto del INEGI fue enviado gracias a una petición que se hizo al organismo
explicando el trabajo a realizar, obteniendo como respuesta la dirección de internet del producto
que ha sido de gran ayuda en el estudio de uso de suelo y vegetación. A continuación se expone la
dirección del producto para su fácil acceso a todos los usuarios,
[Link]
117
Ahora explicaremos el uso del sistema SIATL:
118
Este proceso lo realizaremos de la siguiente manera, lo primero que debemos de notar es
que dentro de las capas de información existen subcapas y estas también pueden ser habilitadas y
para esto es necesario dar click en el icono del signo mas que se encuentra al lado izquierdo de
cada capa. Lo haremos con la capa de Uso de suelo y vegetación y habilitamos la subcapa de
Vegetación.
Ya en este punto podemos ver con mas claridad la zona de cada estado que es analizado y
asi poder relacionar las imágenes con las que se trabajan en el software ERDAS, pero como saber
que agricultura de temporal existe en cada zona del estado.
Lo primero que debemos de ver es que dentro del menu que se encuentra en la parte
inferior de la zona de trabajo existe el icono de una letra i. Este icono lo activamos y ahora solo
falta que en la zona que desee el usuario de un click y esperar a que se despliegue un menu con
toda la informacion que existe en el punto seleccionado. Lo que corresponde a este trabajo solo es
ver la informacion que se encuentra en la parte de Vegetación.
119
En el estudio que se ha hecho damos a notar que las pares dentro del mapa de color
blanco son las partes de agricultura por cada estado, y lo verificamos dando clic en el enlace de
Vegetación y se muestra la información.
Por lo tanto esta herramienta es de gran utilidad ya que podemos hacer una mejor
clasificación supervisada ya que se puede hacer con mayor exactitud una relación entre la
información obtenida del INEGI con la información que en este trabajo se está obteniendo y
analizando.
120