0% encontró este documento útil (0 votos)
98 vistas136 páginas

Percepción Remota en Agronomía y Ambiente

Este documento presenta un libro sobre percepción remota y sistemas de información geográfica y sus aplicaciones en agronomía y ciencias ambientales. El libro está dividido en dos partes, la primera introduce conceptos y metodologías de percepción remota y SIG, mientras que la segunda cubre aplicaciones específicas en agronomía y ciencias ambientales. El libro es editado por tres expertos en el tema y busca llenar un vacío en la bibliografía disponible en español sobre estas temáticas.

Cargado por

mili insua
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
98 vistas136 páginas

Percepción Remota en Agronomía y Ambiente

Este documento presenta un libro sobre percepción remota y sistemas de información geográfica y sus aplicaciones en agronomía y ciencias ambientales. El libro está dividido en dos partes, la primera introduce conceptos y metodologías de percepción remota y SIG, mientras que la segunda cubre aplicaciones específicas en agronomía y ciencias ambientales. El libro es editado por tres expertos en el tema y busca llenar un vacío en la bibliografía disponible en español sobre estas temáticas.

Cargado por

mili insua
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Percepción Remota y Sistemas de

Información Geográfica. Sus aplicaciones


en Agronomía y Ciencias Ambientales.
EDITORES: José María Paruelo1,2, Carlos Di Bella2,3, Mayra Milkovic2,4

1
Instituto de Investigaciones Fisiológicas y Ecológicas vinculadas a la Agricultura
(IFEVA)- Facultad de Agronomía, Universidad de Buenos Aires- (CONICET)
2
Dep. de Métodos Cuantitativos y Sistemas de Información. Facultad de Agronomía,
UBA. Av. San Martín 4453. Buenos Aires – Argentina.
3
Instituto de Clima y Agua – (INTA). Los Reseros y Las Cabañas s/n. Hurlingham.
Buenos Aires- Argentina.
4
Fundación Vida Silvestre Argentina. Defensa 251 6°K. Buenos Aires – Argentina

Dr. José M. Paruelo


Ingeniero Agrónomo de la Facultad de Agronomía de la Universidad de Buenos Aires
(FAUBA).
Magister en Recursos Naturales de la Facultad de Agronomía, UBA.
PhD – Colorado State University. Estados Unidos.
Director del Laboratorio de Análisis Regional y Teledetección (LART). IFEVA, FAUBA.
Profesor Titular del Departamento de Métodos Cuantitativos y Sistemas de
Información de la Facultad de Agronomía de la Universidad de Buenos Aires
(FAUBA).
Investigador del Consejo Nacional de Investigaciones Científicas y Técnicas
(CONICET).
Director de la Licenciatura en Ciencias Ambientales (FAUBA).
Profesor del Programa de Desarrollo de las Ciencias Básicas de la Universidad de la
República, Uruguay.

Dr. Carlos M. Di Bella


Ingeniero Agrónomo de la Facultad de Agronomía de la Universidad de Buenos Aires
(FAUBA).
Doctorado en el Institut National Agronomique Paris-Grignon. Francia.
Investigador del Instituto Nacional de Tecnología Agropecuaria (INTA).
Investigador del Consejo Nacional de Investigaciones Científicas y Técnicas
(CONICET).
Director y profesor de la Especialización en Teledetección y SIG aplicados al estudio
de los Recursos Naturales y la producción agropecuaria (Escuela para graduados
Alberto Soriano – FAUBA)
Profesor Adjunto del Departamento de Métodos Cuantitativos y Sistemas de
Información (FAUBA).
MsC. Mayra Milkovic
Licenciada en Ciencias Biológicas
Magister en Recursos Naturales de la Facultad de Agronomía de la Universidad de
Buenos Aires (FAUBA).
Docente del Departamento de Métodos Cuantitativos y Sistemas de Información de
la Facultad de Agronomía de la Universidad de Buenos Aires (FAUBA).
Consultora especializada en Sistemas de Información Geográfica y Teledetección de
la Fundación Vida Silvestre Argentina (FVSA). Orientación en Recursos Naturales y
Ambiente.
PRÓLOGO

Es un verdadero placer para mí aceptar la invitación que tan amablemente


me hacen José María Paruelo, Carlos Di Bella y Mayra Milkovic para realizar el
prólogo de un libro que constituye un valioso y vigente aporte para cualquier
persona que se inicie en Percepción Remota y los Sistemas de Información
Geográfica (SIG), o bien quien quiera profundizar en algunos de los temas tratados.
La Percepción Remota y los SIG han adquirido importancia principalmente
con el avance de la tecnología espacial. En la actualidad, estas temáticas tienen
elementos propios de enfoques y análisis encuadrados en el método científico que
le permiten resolver diversos problemas en la investigación básica y aplicada.
Dada la demanda creciente en alimentos y la necesidad de aprovechar los
recursos agropecuarios de una manera sostenible, la introducción y aplicación de
métodos eficientes en el procesado y modelado de datos, es ya un gran avance en
el conocimiento. El continuo desarrollo de la Geomática como Ciencia, es una de
estas tecnologías emergentes.
Como este libro indica, posee un considerable potencial para apoyar a los
estudiantes y docentes en las aplicaciones Agronómicas y Ciencias Ambientales. Los
autores han querido presentar en esta obra una propuesta didáctica de dichas
aplicaciones, apoyadas principalmente a lo largo de los cursos de grado y posgrado
impartidos, y en la valiosa experiencia de sus trabajos publicados en revistas
científicas de excelencia. Aún en este contexto, los capítulos se han cubierto con
originalidad, claridad y profundidad, mostrando la interrelación que hay entre ellos.
En adición, proporciona el entendimiento básico y avanzado del lenguaje de
Percepción Remota y SIG, incluyendo abundantes acrónimos.
El libro está estructurado en dos partes, la primera introduce y desarrolla
diferentes enfoques, conceptos y metodologías, y la segunda su aplicación a las
Ciencias Agronómicas y Ambientales.
En la primera parte, la introducción, Capítulos 1 y 2, proporcionan una
revisión histórica y encuadran al lector a la terminología básica de la Geomática. El
Capítulo 3, trata sobre la Cartografía, principalmente en su intento de modelar de
manera conexa y sistémica, las múltiples relaciones que vinculan a los organismos
vivos (incluido el hombre) con su medio. El objetivo fundamental es mostrar una
serie de herramientas básicas necesarias para inventariar, ordenar, clasificar e
integrar los datos, tanto gráficos como alfanuméricos, que, procedentes de diversas
fuentes, constituyen la parte fundamental de los estudios agropecuarios y del
ambiente. Los capítulos 4 y 5, consideran una variedad de plataformas de sensores
pasivos y activos, revisados en términos de sus especificaciones técnicas y
aplicaciones. Las tareas y técnicas asociadas con el procesamiento digital de
imágenes y el análisis de datos espectrales (clasificación), son consideradas en los
Capítulos 6 y 7. El modelado del comportamiento espectral de las superficies y la
estimación de variables biofísicas, tratados en los Capítulos 8 y 9, respectivamente,
representan la búsqueda de formas que permiten ampliar y hacer más eficiente la
información espacial a través del modelo más cercano a la realidad. La habilidad de
determinar el tipo de vegetación con precisión sigue siendo el objetivo principal en
Percepción Remota, ya que la degradación de la tierra se manifiesta primariamente
como un cambio en el estado vegetativo del paisaje. Se presentan aplicaciones en
estudios ecológicos.
En la segunda parte, se presentan las aplicaciones orientadas a la Agronomía
y Ciencias Ambientales, desde una perspectiva teórica y práctica, muy atrapantes.
Los capítulos de Agricultura de precisión (10), Áreas protegidas (11), Seguimiento
forrajero (12), Efectos de pastoreo (13), Tendencias regionales (14), Fuegos e
inundaciones (15), Utilización de imágenes de radar en aplicaciones agrícolas y
forestales (16) y Ejercitación de una problemática ambiental mediante un SIG (17),
relacionan las actividades antrópicas y los disturbios naturales como los
protagonistas y las huellas que ellos dejan sobre el ambiente. Se seleccionan una
serie de impactos muy negativos y se reflexiona sobre las consecuencias
ambientales de estos procesos.
La bibliografía, identifica una selección muy adecuada de textos y
publicaciones científicas de las temáticas abarcadas.
Un apéndice cubre un Glosario de Términos y Acrónimos.
En conclusión, con el conocimiento ganado de la revisión de este libro, el
lector se debe sentir confiado para evaluar las aplicaciones de Percepción Remota y
SIG en relación a los problemas de sostenibilidad agronómica y ambiental, y para
comunicarse con otros especialistas en la materia.

Dr. Héctor Francisco del Valle


CENPAT (CONICET)

Puerto Madryn, Chubut, 17 de diciembre de 2012.


PREFACIO

Los organismos públicos y no gubernamentales de gestión y planificación en


el área agropecuaria, forestal o ambiental incorporan cada vez más en sus
actividades información georreferenciada como soporte para la toma de decisiones,
el análisis de coyuntura y la planificación a largo plazo. La misma incluye
información temática generada por distintas instituciones (mapas de suelos, de
cobertura y uso de la tierra, etc.), como mapas base (divisiones políticas y
catastrales, redes viales curvas de nivel, etc.), imágenes satelitales y productos
generados por los usuarios (mapas de rendimiento y producción), entre otros. La
capacidad de gestionar esta información para aprovechar su potencial depende del
manejo de herramientas informáticas y de marcos conceptuales adecuados que
permitan entender las características de la información disponible, evaluar sus
alcances y limitaciones y vincularla a procesos biológicos, físicos, ecológicos,
socioeconómicos o agronómicos. La información proveniente de sensores remotos
y el uso de Sistemas de Información Geográfica (SIG) constituyen herramientas
novedosas y altamente poderosas para dar respuesta a un amplio espectro de
problemas, desde aspectos ambientales de cambio global y uso del suelo, hasta
aspectos productivos particulares, confiriendo ventajas competitivas dentro del
sector agropecuario. Pocos profesionales conocen acabadamente estas
herramientas para desarrollar criterios de selección de los datos pertinentes y para
aplicar técnicas de procesamiento adecuadas.

En los últimos años, han surgido numerosas carreras terciarias, universitarias


de grado y posgrado en nuestro país e Iberoamérica en las cuales las temáticas
asociadas a la teledetección y los sistemas de información geográficos. Sin embargo,
la bibliografía disponible en castellano y, especialmente, vinculada a las
características y problemáticas regionales es escasa. La propuesta de este libro
apunta a llenar ese vacío. Los editores principales del libro (y autores de varios de
los capítulos) tenemos una reconocida trayectoria internacional en el tema. De
hecho dos de nosotros somos los principales referentes en las aplicaciones de la
geomática en Iberoámerica. Este libro recoge la experiencia de investigación y
docencia en las distintas temáticas durante más de 15 años de trabajo de la mayoría
de los autores. Los distintos marcos conceptuales y las herramientas se presentan
en el contexto de las problemáticas regionales. Esto le otorga un atractivo particular
como libro de texto en cursos de Teledetección y SIG en los países de
Latinoamérica. De hecho el material se utiliza en cursos de grado y posgrado de la
Universidad de Buenos Aires, la Universidad de la República (Uruguay), Universidad
de Almería, Universidad Nacional del Centro de la Pcia de Buenos Aires, Universidad
de Lleida, entre otras.
ÍNDICE DE CONTENIDO Y AUTORES

PARTE I – Conceptos y nociones generales

Capítulo 1- Principios básicos de percepción remota


José Paruelo, Santiago R. Verón y Diego de Abelleyra

1.1 Introducción
1.2 Radiación electromagnética
1.3 Interacciones de la radiación
1.4 Reflectancia bidireccional
1.5 Reflectancia de distintas superficies

Capítulo 2- Sistemas de Información Geográfica


José Paruelo

2.1 Introducción
2.2 Estructura de un SIG
2.3 La escala y la precisión en mapas digitales
2.4 Funcionamiento de un SIG
2.4.1 Captura de datos
2.4.2 Operaciones básicas de un SIG
[Link] Cálculos y recodificación
[Link] Selección de datos y búsquedas (Querries)
[Link] Análisis de proximidad
[Link] Análisis de contigüidad
[Link] Análisis de vecindad
[Link] Agregación espacial
[Link] Operaciones de superposición
[Link] Operaciones lineares
2.5 Dominio espacial de datos puntuales, identificación de límites e Interpolación
de datos
Caja 2.1 La renta normal potencial de la tierra. Un método de cálculo. Realidad
económica (Bs As).
Caja 2.2 Evaluación de la estructura (composición y configuración) de los paisajes y
sus cambios.
Caja 2.3 Cambios en la cobertura del suelo: su detección y modelado usando SIG y
modelos markovianos.
Capítulo 3- Cartografía
José Paruelo

3.1 Introducción
3.2 Ubicación en los mapas
3.3 Proyecciones
3.4 El concepto de escala y los niveles de percepción
3.5 Representación cartográfica
3.6 Medición de la distancia y la dirección en mapas
3.7 La construcción de un mapa temático
Caja 3.1 GPS- Sistema de posicionamiento global

Capítulo 4- Sensores pasivos y plataformas de observación terrestre


José Paruelo, Alfredo García y Carlos Di Bella

4.1 Sensores pasivos


4.2 Plataformas
4.2.1 Resolución de los sistemas de observación terrestre
4.2.2 Algunos ejemplos de plataformas satelitales
[Link] Programa MODIS (Terra y Aqua)
Variables asociadas Balance del Energía
Variables asociadas al estudio de los Ecosistema
Variables asociadas a los cambios en la cobertura del suelo
[Link] Programa LANDSAT
MSS (Multispectral Scanner)
TM (Thematic Mapper)
ETM+ (Enhanced Thematic Mapper Plus)
[Link] Programa NOAA
Sensor AVHRR
Información original
Series producidas
Las principales características de los productos
[Link] Programa SPOT
SPOT-1, 2 y 3
SPOT 4 y 5
[Link] Programa SAC
Capítulo 5- Sensores Activos con Microondas: Radar
Santiago Verón y Diego de Abelleyra

5.1 Introducción
5.2 Características de los sistemas Radar
5.2.1 Coeficiente de retrodispersión
5.2.2 Factores que afectan el coeficiente de retrodispersión
5.2.3 Constante dieléctrica
5.2.4 Rugosidad
5.2.5 Ángulo de incidencia
5.3 Características de las imágenes Radar
5.4 Distorsiones
5.5 Disponibilidad actual y futura de sistemas de radar de apertura sintética
Caja 5.1 Polarización
Caja 5.2 Fase
Caja 5.3 Frecuencia

Capítulo 6- Procesamiento digital de imágenes


Carlos Di Bella y Alfredo Campos

6.1 Introducción
6.2 Adquisición de datos y generación de una imagen
6.2.1 Formatos de datos “no ordenados” matricialmente
6.2.2 Formatos de datos “ordenados” matricialmente
6.3 Acondicionamiento de las imágenes
6.3.1 Acondicionamiento radiométrico
[Link] Cálculo de radiancia espectral (Lsen2)
[Link] Cálculo de la reflectancia espectral (ρ2)
[Link] Cálculo de la Temperatura de superficie (Ts)
6.3.2. Acondicionamiento geométrico
[Link] Errores en la captura de las imágenes
[Link] Corrección geométrica de la imagen
6.4 Transformaciones de las imágenes
6.4.1 Transformaciones puntuales
6.4.2 Transformaciones espectrales
6.4.3 Filtros o transformaciones espaciales
[Link] Filtros de Convolución
[Link] Filtros Estadísticos
Caja 6.1 Adquisión de imágenes: Fuentes y formatos
Caja 6.2 Matriz de transformación de la matriz de primer orden

Capítulo 7- Clasificación de datos espectrales


José Paruelo

7.1 El proceso de clasificación


7.2 Tipos de clasificaciones
7.3 La clasificación de imágenes de satélites
7.3.1 Clasificaciones no supervisadas
7.3.2 Clasificaciones supervisadas
7.4. Evaluación de la clasificación
7.5. Comentarios Finales
Caja 7.1 Métodos de evaluación de la separabilidad de firmas espectrales
Caja 7.2 Caracterización funcional de los ecosistemas semiáridos del Parque Natural
de Cabo de Gata-Níjar. Fernández y Piñeiro, 2008.
Caja 7.3 Utilización de firmas espectrales de alta resolución temporal para la
elaboración de mapas de uso agrícola y estimaciones de superficie cultivada a
escala de lote en Argentina y Uruguay.
Caja 7.4 Cartografía de las comunidades de pastizal en Uruguay.

Capítulo 8- Modelado del comportamiento espectral de las superficies


María Eugenia Beget y Carlos Di Bella

8.1 Introducción
8.2 Modelado del comportamiento espectral de la vegetación
8.2.1 Modelos de medios turbios o de transferencia radiativa (MTR)
8.2.2 Modelos geométricos
8.2.3 Modelos híbridos
8.2.4 Modelos informáticos
8.3. Aplicaciones
8.4 Inversión del modelo físico
Caja 8.1 PROSAILH: un modelo transferencia radiativa de hoja-canopeo
Caja 8.2 Las simulaciones como complemento de la experimentación: el efecto de
los tejidos senescentes en la estimación de fRFAA
Caja 8.3 Una variante del modelo SAILH para canopeos inundados: SAILHFlood
Caja 8.4 Productos globales derivados de la inversión de modelos
Capítulo 9- Estimación de variables biofísicas a partir de datos espectrales
José Paruelo y Constanza Caride

9.1 Introducción
9.2 Funcionamiento ecosistémico y Teledetección
9.3 Índices espectrales y variables sintéticas
9.3.1 El Índice de Vegetación Normalizado
9.3.2 El Índice de Vegetación Mejorado
9.3.3 Índice de Reflectancia Fotoquímico
9.3.4 Albedo
9.4 El modelado de procesos ecosistémicos
9.4.1 Productividad Primaria Neta (PPN)
9.4.2 Evapotranspiración
[Link] Los métodos empíricos directos
[Link] El método de balance energético o método residual
[Link] Los métodos indirectos
9.5 Aplicaciones en estudios ecológicos
Caja 9.1 Evapotranspiración
Caja 9.2 Definición de Tipos Funcionales de Ecosistemas
Caja 9.3 Evaluación de la desertificación

PARTE II – Aplicaciones y ejemplos

Capítulo 10-Teledetección y Agricultura de precisión


Gustavo Sznaider e Ignacio Ferlijiwskyj

10.1 Introducción
10.2 Comienzos y evolución de la aplicación de insumos
10.3 Heterogeneidad Espacial y Optimización Espacial de Insumos
10.3.1 Implicancias sobre los modelos agronómicos
10.3.2 Implicancias sobre el agroecosistema
10.3.3 Implicancias y aplicación de insumos
10.4 Procesos de la aplicación de insumos
10.4.1 Obtención de información de la Heterogeneidad Espacial
Monitor de Rendimiento
Altimetría
Napas
Sensores espectrales remotos: Imágenes satelitales y aéreas
Muestreo en Grilla
Sensores terrestres
10.4.2 Corrección y filtrado de datos erróneos
Filtros sobre datos vectoriales
Filtros sobre datos raster
10.4.3 Delimitación (Clasificación) de la Heterogeneidad Espacial
Descripción de la Heterogeneidad Espacial
Toma de decisión y ejecución Toma de decisión y ejecución
Estrategias de corrección
Estrategias de adaptación
10.4.4 Evaluación del proceso
Evaluación de mapa de ambientes
Evaluación de la decisión tomada
Conclusiones
10.5 Otras utilidades de la Agricultura de Precisión
Automatización de las labores
Gestión de la calidad de las operaciones (siembra, fertilización,
pulverización)
Monitoreo del crecimiento de los cultivos
Realización de ensayos a campo

Capítulo 11- Sistema de apoyo a la gestión de áreas protegidas basado en el


seguimiento de la productividad primaria. El caso de la Reserva de la Biosfera de
Cabo de Gata-Níjar (Almería- España) (adaptado de “Experiencias Exitosas en
Iberoamérica. Reservas de la Biosfera. Su contribución a la provisión de servicios
de los ecosistemas”, UNESCO).
Cecilio Oyonarte, Domingo Alcaráz, Mariano Oyarzabal, Javier Cabello y José
Paruelo

11.1 Introducción
11.2 Diseño y desarrollo del sistema de información
11.2.1 Área de trabajo y esquema general del sistema
11.2.2 Captura de datos
11.2.3 Pre-Procesamiento de la información, cálculo de indicadores
11.2.4 Análisis de los datos
11.3 Aplicaciones del sistema.
11.3.1.- Seguimiento de la productividad y análisis de tendencias
11.3.2.- Apoyo a la toma de decisiones, análisis de anomalías
11.3.3.- Utilización como Sistema de Alerta Temprana.
11.4 Consideraciones finales
Caja 11.1 Aportes de la Teledetección a la biología de la conservación
Caja 11.2 Ejemplos de sistemas de seguimiento operativos actualmente
Caja 11.3 Matriz de decisión para el apoyo a la gestión

Capítulo 12- Seguimiento forrajero


Martín Oesterheld, Mariano Oyarzabal y José Paruelo

12.1 Introducción
12.2 Estimación de la PPNA basada en las cosechas sucesivas de biomasa
12.3 Aproximación basada en la integración temporal de la radiación absorbida
12.4 Estimación de la eficiencia en el uso de la radiación a partir de estimaciones
de ppna y radiación absorbida
12.4.1 Estimación de la productividad de las pasturas
12.4.2 Estimación de la radiación absorbida
12.4.3 Estimación de la EUR
12.5 Sistema de seguimiento de la productividad basado en sensores remotos
12.6 Aplicaciones

Capítulo 13- Evaluación de efectos de pastoreo. Aportes de la percepción remota


Lisandro Blanco

13.1 El impacto del pastoreo sobre la vegetación


13.2 El pastoreo desde de diferentes escalas espaciales
13.3 El uso de los sensores remotos en estudios de pastoreo
13.4 Comentarios finales

Capítulo 14- Tendencias regionales


Martín Garbulsky

14.1 Introducción
14.1.2 Bases de datos disponibles y su continuidad
14.1.2 Comparabilidad entre las diferentes fuentes de datos
14.3 Variables analizadas en las tendencias temporales
14.4 Metodologías estadísticas para analizar tendencias
14.4.1 Tendencia lineal mediante test t de dos colas
14.4.2 Test de Mann-Kendall
14.4.3 Análisis de series de tiempo
14.4.4 Método de Webster
14. 5 Problemas en la detección temporal
14.5.1 Deriva orbital
14.5.2 Degradación del sensor y cambio de plataforma/sensor
14.5.3 Cambios atmosféricos
14.5.4 Estrategias para reducir la incertidumbre
14.6 Tendencias en Argentina
14.7 Conclusiones
Caja 14.1 Tendencia temporal en la productividad primaria neta del océano vista
desde sensores remotos

Capítulo 15- Estudio y seguimiento de los incendios


Carlos Di Bella y Gabriela Posse

15.1 Introducción
15.2 Características asociadas a la ocurrencia del incendio
15.3 Características asociadas a los efectos post incendio
15.3.1 Área quemada
15.3.3 Severidad del incendio
15.4 Características asociadas a los factores previos al incendio
15.4.1 Modelos empíricos
15.4.2 Modelos físicos
Caja 15.1 Patrones continentales de densidad de fuegos en Sudamérica. Caja 15.2
Estimación de superficie quemada en Latinoamérica mediante compuestos Modis.
Caja 15.3 Evaluación potencial de fuegos naturales como alternativa de uso en la
generación de bioelectricidad.

Capítulo 16- Utilización de imágenes de radar en aplicaciones agrícolas y


forestales
Diego de Abelleyra y Santiago R. Verón

16.1 Introducción
16.2 Humedad del suelo
16.3 Producción Agrícola
16.3.1 Clasificación de cultivos
16.3.2 Estimaciones de biomasa y rendimiento de cultivos
16.4 Estimación de biomasa de bosques
16.5 Evaluación y seguimiento de la erosión eólica

Capítulo 17- Actividades Prácticas: ejercitar una problemática ambiental mediante


el uso de Sistemas de información geográfica (SIG)
Mayra Milkovic, Constanza Caride, María Cecilia Conde y José Paruelo

17.1 Contexto
17.2 Planteo del ejercicio
17.3 Herramientas del programa y bases de datos
17.4 Resolución de las preguntas guía
17.5 Consideraciones finales

Referencias
Abreviaturas y Acrónimos

AVHRR: Advanced Very High Resolution Radiometer


BRDF: Bidirectional Reflectance Distribution Factor (distribución de la reflectancia
bidireccional)
DEM: Digital Elevator Models (modelo de elevación digital)
ET: Evapotranspiración
EUR: Eficiencia en el Uso de la Radiación
EVI: Enhanced Vegetation Index
fRFAA: la fracción de la Radiación Fotosintéticamente Activa Absorbida por la
vegetación
GPS: Global Positioning System (Sistema de Posicionamiento Global)
IAF: índice de área foliar
IFOV: Instantaneous Field of View (campo de visión instantáneo)
IR: Infrarrojo
IRc: Infrarrojo cercano
IRm: Infrarrojo medio
Iroc: Infrarrojo de onda corta
IRt: Infrarrojo térmico
ISODATA: Iterative Self Organizing Data Analysis Technique
IVM: Índice de Vegetación Mejorado
IVN: Índice de Vegetación Normalizado
MODIS: Moderate resolution Imaging Spectroradiometer
ND: Nivel digital
NOAA: National Oceanic and Atmospheric Administration
OEM: Onda Electromagnetica
Píxel: Picture X Element
PPN: Productividad Primaria Neta
PPNA: Productividad Primaria Neta Aérea
RADAR: RAdio Detection And Ranging
RFAA: Radiación Fotosintéticamente Activa Absorbida
SE: Servicios Ecosistémicos
SEBAL: Surface Energy Balance Algorithm for Land
TFE: Tipos Funcionales de Ecosistemas
AUTORES

Alcaráz Domingo, dalcaraz@[Link]. Dpto. de Botánica. Facultad de Ciencias, Planta


6 Sección de Biología. Campus Universitario de Fuentenueva. Universidad de
Granada-18071-España.

Beget María Eugenia, mbeget@[Link]. Instituto de Clima y Agua – (INTA).


Los Reseros y Las Cabañas s/n. Hurlingham. Buenos Aires- Argentina.

Blanco Lisandro, lblanco@[Link]. Instituto Nacional de Tecnología


Agropecuaria (INTA). EEA-La Rioja- Argentina.

Cabello Javier, jcabello@[Link]. Dpto. de Biología Vegetal y Ecología. Centro


Andaluz para la Evaluación y Seguimiento del Cambio Global (CAESCG). Universidad
de Almería 04120-España.

Campos Alfredo, acampos@[Link], Instituto de Clima y Agua – (INTA). Los


Reseros y Las Cabañas s/n. Hurlingham. Buenos Aires- Argentina.

Caride Constanza, ccaride@[Link]. Dep. de Métodos Cuantitativos y Sistemas


de Información. Facultad de Agronomía UBA. Av. San Martín 4453. Buenos Aires –
Argentina.

Conde María Cecilia, mconde@[Link].a. Ministerio de Agricultura, Ganadería y


Pesca. Av. Paseo Colón 982. Buenos Aires-Argentina. Dep. de Métodos Cuantitativos
y Sistemas de Información. Facultad de Agronomía, UBA. Av. San Martín 4453.
Buenos Aires – Argentina.

de Abelleyra Diego, deabelle@[Link]. Instituto de Clima y Agua – (INTA). Los


Reseros y Las Cabañas s/n. Hurlingham. Buenos Aires- Argentina.

Di Bella Carlos, [Link]@[Link]. Instituto de Clima y Agua – (INTA). Los


Reseros y Las Cabañas s/n. Hurlingham. Buenos Aires- Argentina. Dep. de Métodos
Cuantitativos y Sistemas de Información. Facultad de Agronomía, UBA. Av. San
Martín 4453. Buenos Aires – Argentina. CONICET.

Ferlijiwskyj Ignacio, [Link]@[Link]. Gerente de Procesamiento,


Análisis y Desarrollo, GeoAgris. Olleros 3252. Buenos Aires-Argentina.
Garbulsky Martín, garbulsky@[Link]. Cátedra Forrajicultura, Facultad de
Agronomía, UBA. Av. San Martín 4453.

García Alfredo, aggarcia@[Link]. Instituto de Clima y Agua – (INTA). Los


Reseros y Las Cabañas s/n. Hurlingham. Buenos Aires- Argentina.

Milkovic Mayra, mmilkovic@[Link]. Dep. de Métodos Cuantitativos y Sistemas


de Información. Facultad de Agronomía, UBA. Av. San Martín 4453. Buenos Aires –
Argentina. Fundación Vida Silvestre Argentina. Defensa 251 6°K. Buenos Aires-
Argentina.

Oesterheld Martín, oesterhe@[Link]. Instituto de Investigaciones Fisiológicas


y Ecológicas vinculadas a la Agricultura (IFEVA)- Facultad de Agronomía, Universidad
de Buenos Aires- (CONICET). Director del Laboratorio de Análisis Regional y
Teledetección (LART)- IFEVA.

Oyarzabal Mariano, oyarzaba@[Link]. Dep. de Métodos Cuantitativos y


Sistemas de Información. Facultad de Agronomía, UBA. Av. San Martín 4453.
Buenos Aires – Argentina. Consultor del Laboratorio de Análisis Regional y
Teledetección (LART)- IFEVA.

Oyonarte Cecilio, coyonart@[Link]. Dpto Edafología. Centro Andaluz para la


Evaluación y Seguimiento del Cambio Global (CAESCG). Universidad de Almería
04120- España.

Paruelo José, paruelo@[Link]. Instituto de Investigaciones Fisiológicas y


Ecológicas vinculadas a la Agricultura (IFEVA)- Facultad de Agronomía, Universidad
de Buenos Aires- (CONICET). Dep. de Métodos Cuantitativos y Sistemas de
Información. Facultad de Agronomía, UBA. Av. San Martín 4453. Buenos Aires –
Argentina. Director del Laboratorio de Análisis Regional y Teledetección (LART)-
IFEVA.

Posse Gabriela, gposse@[Link] .Instituto de Clima y Agua – (INTA). Los


Reseros y Las Cabañas s/n. Hurlingham. Buenos Aires- Argentina.

Sznaider Gustavo, sznaider@[Link]. Dep. de Métodos Cuantitativos y Sistemas


de Información. Facultad de Agronomía UBA. Av. San Martín 4453. Buenos Aires –
Argentina. Director ejecutivo de GeoAgris, Olleros 3252. Buenos Aires-Argentina.
Verón Santiago, veron@[Link]. Instituto de Clima y Agua – (INTA). Los Reseros
y Las Cabañas s/n. Hurlingham. Buenos Aires- Argentina. Dep. de Métodos
Cuantitativos y Sistemas de Información. Facultad de Agronomía, UBA. Av. San
Martín 4453. Buenos Aires – Argentina. CONICET.
Capítulo 1 - Principios básicos de percepción remota

José Paruelo, Santiago R. Verón y Diego de Abelleyra

1.1 Introducción
La teledetección o percepción remota es el proceso de adquisición de datos
y/o información acerca de algunas propiedades de un objeto, superficie o material
por medio de un instrumento alejado (no en contacto directo) de la superficie u
objeto de interés. Generalmente, el concepto se restringe a datos adquiridos
mediante aparatos que miden radiación electromagnética, acústica o campos de
fuerza. La percepción remota, en un sentido más restringido, involucra la detección
y medición de energía electromagnética (comúnmente fotones) que emana de
objetos distantes de manera tal que el usuario puede identificar y categorizar esos
objetos en base a su clase, sustancia o distribución espacial. Esta definición más
específica de percepción remota tiene asociados productos tales como imágenes,
mapas o gráficos.

Los componentes básicos de un sistema de percepción remota incluyen un


módulo de adquisición de datos y uno de extracción de información a partir de esos
datos (Figura 1.1). Si bien los límites entre cada módulo puede en ocasiones
volverse borrosos, en general ambos se separan en el tiempo y el espacio y suelen
tener distintos responsables. El componente de adquisición de datos involucra el
diseño, construcción, calibración, evaluación y operación de sensores. Para extraer
información, los datos generados por los satélites deben ser procesados e
interpretados (Ver Capítulo 6). En el primer módulo están involucradas, en la
enorme mayoría de los casos, las agencias espaciales (nacionales o internacionales)
y las empresas y/o instituciones encargadas de los desarrollos tecnológicos. La
universidad y otros componentes del sistema de ciencia y técnica también
participan en esta etapa del proceso, tanto en el diseño de los sensores y
plataformas o en la solución de problemas técnicos como en la identificación de las
necesidades que el nuevo sensor debería satisfacer o en su evaluación. Por ejemplo,
en Argentina, la Comisión Nacional de Actividades Espaciales (CONAE) y el INVAP,
una empresa del estado nacional y la Provincia de Río Negro, estuvieron a cargo del
diseño y construcción del satélite de SAC-C y de muchos de los sensores que
transporta. Está etapa del proceso de percepción remota está protagonizada
principalmente por físicos e ingenieros.

La etapa de procesamiento de la información va desde la recepción de los


datos registrados por el sensor hasta la transferencia de la información al usuario

2
(Ver Capítulo 6). Esta etapa involucra el trabajo de ingenieros en sistemas, de
estadísticos, físicos y matemáticos para el desarrollo de herramientas que permitan
corregir desde el punto de vista radiométrico y geométrico la información recibida
por los satélites. También necesita de la participación de físicos de la atmósfera,
expertos en ciencias de la Tierra y del Mar para entender las distorsiones que el
paso de la radiación a través de la atmósfera introduce en la señal percibida por el
satélite. Por último, geólogos, ecólogos, agrónomos, oceanógrafos o licenciados en
ciencias ambientales, entre otros, trabajarán en la traducción de los datos
espectrales en información relevante para aplicaciones específicas.

Un sistema de percepción remota requiere también de datos de campo.


Estos contribuirán a mejorar los modelos conceptuales o específicos que permitan
interpretar los datos espectrales en términos de fenómenos biofísicos o
geográficos. Los datos de campo jugarán un papel clave en la evaluación de los
productos derivados del procesamiento de la información espectral.

Los sensores remotos incorporan, en general, la dimensión geográfica al


análisis de los recursos naturales: datos o información localizada en el plano o el
espacio, comúnmente mediante el uso de coordenadas cartesianas. Los datos
corresponden a los valores medidos o registrados de un atributo por un sensor.
Estos corresponden en general, a una señal eléctrica. La información incluye una
transformación e interpretación de los datos de manera tal que ahora es posible
describir un aspecto de la naturaleza de una superficie u objeto. El paso de datos a
información requiere de modelos conceptuales que relacionen la señal percibida y
los procesos o estructuras a describir. A partir de la información
aportada/registrada por un sensor podemos conocer las características de un
objeto o superficie. Se estará, entonces, generando conocimiento.

Los datos aportados por sensores remotos montados en plataformas


satelitales tienen una serie de ventajas. Por un lado, proveen una cobertura
completa de la superficie a estudiar, disminuyendo la necesidad de interpolar o
extrapolar datos. El uso de datos espectrales (y de modelos conceptuales para su
interpretación) permite, por otra parte, la observación de distintas porciones de
territorio usando el mismo protocolo de observación. Una ventaja adicional de los
sistemas de percepción remota es la repetición periódica de las observaciones ya
que la mayor parte de los sistemas disponibles vuelve a registrar información
espectral de la misma porción de la Tierra a intervalos regulares. Todas estas
características tornan a los sistemas de percepción remota como una alternativa

3
muy eficiente en términos económicos y logísticos a la hora de relevar recursos
naturales e identificar sus cambios en el tiempo y el espacio.

1.2. Radiación electromagnética


Los sensores remotos percibirán la radiación electromagnética reflejada o
emitida por la superficie. La radiación es un modo de propagación de la energía a
través del vacío. En un sentido estricto refiere a la energía transportada por ondas
electromagnéticas (i.e. energía radiativa) y está compuesta por partículas
energizadas llamadas cuantos o fotones. La cantidad de energía radiativa por
unidad de tiempo se denomina flujo radiativo y esta expresada en Watts (J/s).

Siempre que una carga eléctrica es acelerada se produce radiación


electromagnética. Ésta puede conceptualizarse como un desplazamiento periódico
que se propaga en el espacio (i.e. una onda) de un campo eléctrico y otro
magnético. Estos campos son ortogonales a sí mismos y perpendiculares a la
dirección de propagación. Generalmente se los representa mediante una función
sinusoidal (Figura 1.2). Los parámetros que caracterizan a una onda
electromagnética son:

Frecuencia (v): tasa de oscilación de una onda y se la representa como el número de


ciclos por unidad de tiempo. Se la mide en Hertz (Hz, 1Hz = 1 ciclo s-1) y longitud de
onda (λ): distancia entre dos ciclos. Se la mide en unidades de distancia tales como
nanómetros o centímetros. La relación entre la longitud de onda y la frecuencia está
dada por la siguiente ecuación:

λ=c/v

donde c es la velocidad de la luz.

Amplitud: distancia en sentido vertical entre una cresta o valle y el eje de abscisas y
se la mide en voltios. La amplitud está relacionada con la cantidad de energía por
unidad de tiempo que transporta la onda.

Polarización: Plano sobre el que oscila el campo eléctrico. Puede ser lineal, elíptica o
circular. Los esquemas de polarización lineal son los más comunes pudiendo ser
vertical u horizontal.

Fase: Ubicación de la cresta del campo eléctrico al emitirse o registrarse la onda. Se


la puede representar como la fracción del período de la onda recibida por la antena

4
luego de haber sido emitida y dispersada por un objeto en el terreno. Se la mide en
grados.

Se acepta que la radiación posee una doble naturaleza que explica de forma
diferente los fenómenos de su propagación (naturaleza ondulatoria) y de su
interacción con la materia (naturaleza corpuscular). Esta dualidad onda/partícula,
postulada inicialmente para la luz, se aplica en la actualidad de manera generalizada
para todas las partículas materiales y constituye uno de los principios básicos de la
mecánica cuántica.

El espectro electromagnético (EM) describe la distribución energética del


conjunto de las ondas electromagnéticas (Figura 1.3). Refiriéndonos
específicamente a un objeto, sustancia o superficie el EM es la radiación emitida
(espectro de emisión) o absorbida (espectro de absorción). Así, un espectro de
absorción/emisión representa la cantidad de energía en función de longitud de
onda asociada a esa radiación. En estudios de percepción remota de sistemas
terrestres se trata con una parte del espectro: la porción visible (por los humanos),
la infrarroja (cercana, media y térmica) y las microondas. La porción
correspondiente al visible y al IR cercano y medio corresponde a las partes
reflectivas del espectro. O sea se trata de radiación proveniente del Sol y que es
reflejada por la superficie terrestre. A toda esa porción del espectro se la suele
denominar radiación de onda corta. El IR térmico o lejano corresponde a radiación
emitida por la Tierra. A esta radiación se la denomina de onda larga. El límite entre
estos dos grandes tipos de radiación (la reflectiva y la emitida por la superficie
terrestre) se ubica entre los 3 y los 4 μm. Las microondas (como se verá en el
capítulo 5) son emitidas por los mismos sensores que las registran (radares y
sensores activos).

Una serie de leyes físicas ayudan a entender mejor la interacción de la


radiación electromagnética (particularmente aquellas provenientes del Sol) con la
superficie terrestre. Para ello, es necesario considerar el espectro de emisión de un
cuerpo negro, o sea de un cuerpo que absorbe toda la energía que incide sobre él.
Ni el Sol ni la Tierra, se comportan como cuerpos negros, sin embargo, conviene
considerar primero el comportamiento de estos cuerpos “ideales”. La figura 1.4
presenta el espectro de emisión (o absorción) de cuerpos negros a distintas
temperaturas en función de la longitud de onda. El cálculo de las curvas
representadas en la figura 1.4 fue uno de los mayores desafíos de la física. Max
Planck logró resolverlo a principios del siglo XX y sus resultados se plasmaron en la
ley que lleva su nombre. La Ley de Planck permite estimar la energía emitida por un

5
cuerpo negro a una temperatura T (º K) en un dado rango de longitudes de onda (o
de frecuencias). Como una función de la longitud de onda se expresa:

I (λ, T) = 2hc2/ λ5 * 1/ (ehc/λkT -1)


donde I (λ, T) es la cantidad de energía por unidad de área, unidad de tiempo
y unidad de ángulo sólido (es decir por el ángulo espacial que abarca un objeto visto
desde un punto dado, que se corresponde con la zona del espacio limitada por una
superficie cónica) emitida en una dada longitud de onda λ (m) (J*s-1*m-2*sr-1*m-1), h
es una constante que se conoce como constante de Planck (J*Hz-1), c es la velocidad
de la luz, T la temperatura del cuerpo negro (oK), e la base de logaritmos naturales y
k es la constante de Boltzmann. Esta ley postula que la energía de quantum es
inversamente proporcional a su longitud de onda.

Otra ley fundamental para entender el comportamiento espectral de un


cuerpo negro fue postulada por Wilhelm Wien. La Ley del desplazamiento de Wien
postula que el espectro de emisión de un cuerpo varía con la temperatura. A mayor
temperatura, menor la longitud de onda de la máxima emitancia:

Λmax = b/T

donde λmax es la longitud de onda que corresponde al pico de emisión en metros. T


es la temperatura del cuerpo negro en grados Kelvin y b es una constante de
proporcionalidad conocida como Constante de Desplazamiento de Wien (2.897
7685 × 10–3 m*K).

De la ley de Planck y Wien surge que el Sol, con una temperatura superficial
de aproximadamente 6000 °K, emite casi toda la radiación en longitudes de onda
entre 0,15 y 4 μm (onda corta). En el caso de la tierra, con una temperatura
superficial promedio de 15ºC (288 K°), la mayor parte de la radiación es emitida
entre 3 y 80 μm (onda larga).

La integral de la curva de emisión de un cuerpo negro es descripta la Ley de


Stefan-Boltzmann. Esta establece que la energía irradiada por unidad de superficie y
por unidad de tiempo por un cuerpo negro (J*s-1*m-2) es directamente proporcional
a su temperatura absoluta (expresada en o Kelvin):

J = ε σ T4

6
en donde ε es la emisividad del cuerpo (para un cuerpo negro = 1) y σ una constante
de proporcionalidad, también llamada de Stefan-Boltzmann. Esta formulación tiene
una aplicación práctica inmediata: en la medida que conozcamos la radiación
emitida por una superficie podemos, invirtiendo la fórmula, calcular su
temperatura.

1.3. Interacciones de la radiación


Para alcanzar la superficie terrestre la radiación proveniente del sol debe
atravesar un medio heterogéneo y variable: la atmósfera. A través de ella la
radiación sufrirá una serie de transformaciones que modificarán cuali y
cuantitativamente la radiación que llega a la superficie. Más aún, para ser detectada
por un sensor a bordo de una plataforma satelital la radiación debe atravesar
nuevamente la atmósfera al ser reflejada. Entender las posibles transformaciones
que puede sufrir la radiación en su doble pasaje por la atmósfera es importante
para describir y entender las propiedades de la superficie a partir de información
espectral.

La radiación al interactuar con sustancias, objetos y superficies (en la


atmósfera o en la superficie del planeta) puede ser absorbida o dispersada (Figura
1.5). La absorción se produce cuando la energía del fotón es utilizada para modificar
el estado orbital, rotacional o vibracional de electrones o moléculas. La dispersión
se define como el cambio en la dirección de propagación de la radiación
electromagnética. Así, la dispersión puede implicar un cambio en el sentido de la
propagación –denominándose a este caso de dispersión como –reflexión- o puede
continuar en el mismo sentido de propagación –trasmisión. La refracción es un caso
particular de transmisión en el cual el cambio en la dirección de propagación –sin
que cambie el sentido- se debe a la diferencia de densidad entre dos medios
generándose también un cambio en la velocidad de propagación (Figura 1.6). La ley
de Snell describe el cambio en el ángulo de la radiación como consecuencia de la
difracción y será proporcional a los medios índices de refracción (n) de los medios.

Los componentes atmosféricos absorberán o dispersarán energía en


determinadas longitudes de onda, reduciendo entonces la cantidad de radiación
que incide sobre la superficie terrestre. El ozono y el oxígeno molecular absorben en
la porción de espectro correspondiente al ultravioleta. Estas moléculas también
absorberán radiación en la porción del infrarrojo. El CO2 y el vapor de agua son
responsables de buena parte de la absorción de la energía incidente en la porción
infrarroja cercana y media del espectro (Figura 1.7). Estos componentes absorben,
además, en la porción térmica del infrarrojo (IRt). En este caso no se trata de

7
energía proveniente del sol sino de radiación emitida por la superficie terrestre o
por otros componentes atmosféricos. La atmósfera entonces será transparente –i.e.
no absorbe ni refleja, transmite- a la radiación visible y a buena parte de la
infrarroja cercana. Por otra parte, la atmósfera resulta opaca (alta absorción) a una
porción importante de la radiación infrarroja térmica. En esta porción del espectro
es posible identificar una banda o “ventana” atmosférica, centrada en 10 um, en la
cual la atmósfera es transparente. La identificación de las porciones del espectro en
donde la transmisibilidad de la atmósfera es alta es de crítica importancia para los
sistemas de observación terrestre ya que los sensores deben diseñarse de manera
de que perciban radiación en esas longitudes de onda. La figura 1.8 ejemplifica la
ubicación de las bandas en las que registra radiación el sensor MODIS respecto del
espectro de emisión del sol medido al tope de la atmósfera y sobre el nivel del mar.

Figura 1.1 Esquema general del proceso de adquisición y extracción de información


en percepción remota.

Figura 1.2 Frecuencia (v) o tasa de oscilación y longitud (λ) o distancia entre crestas
(o valles) de una onda sinusoidal. Se indican ejemplos para dos frecuencias y
longitudes de onda distintos.

Figura 1.3 Longitud de onda, frecuencia y energía de distintas porciones del


espectro electromagnético (EM). GNU free documentation licence.

Figura 1.4 Espectro de emisión (o absorción) de cuerpos negros a distintas


temperaturas (°K). GNU free documentation licence.

Figura 1.5 Esquema de las posibles interacciones de la radiación.

Figura 1.6 Proceso de refracción de una onda de radiación electromagnética


incidiendo con un ángulo θ 1 y formulación de la ley de Snell para describir el
cambio en el ángulo de la radiación debido a este fenómeno.

Figura 1.7 Transmitancia de la atmósfera a distintas longitudes de onda. La barra


indica la porción visible del espectro. GNU free documentation licence.

Figura 1.8 Irradiancia solar al tope de la atmósfera y al nivel del mar. Se indican los
componentes atmosféricos responsable de la absorción y la ubicación de las
bandas del sensor MODIS como rayas verticales. GNU free documentation licence.

8
La situación es diferente para satélites de observación atmosférica. En estos
casos las bandas se ubican en aquellas porciones del espectro de mayor absorción
por parte de aquellos componentes de la atmósfera que se busca estudiar. Por
ejemplo, algunos satélites meteorológicos incluyen bandas en la región de máxima
absorción del vapor de agua de manera de poder cuantificar su contenido en la
atmósfera. La figura 1.9 muestra una imagen del satélite meteorológico Meteosat
que indica en niveles de gris el contenido de vapor de agua de la atmósfera. El
“Total Ozone Mapping Spectrometer” (TOMS) es un sensor diseñado para medir
niveles de ozono a partir de la observación de la reflectancia en la región del
ultravioleta del espectro, en donde esta molécula tiene alta absorción (Figura 1.10).

La radiación que no es absorbida por el cuerpo con el que interacciona


cambia su dirección se dice que sufre una dispersión (Figura 1.5). El tipo de
dispersión dependerá de la relación entre la longitud de onda de la radiación y el
tamaño de la molécula, partícula, objeto o superficie. Se pueden identificar así tres
tipos de dispersión. La dispersión Rayleigh predomina cuando la radiación
interactúa con partículas de tamaño pequeño, menor a su longitud de onda
(moléculas de O2 o NO2 en la atmósfera, por ejemplo). La magnitud de la dispersión
en este caso es inversamente proporcional a la longitud de onda. Así la radiación
azul sufrirá una mayor dispersión (sufrirá mayores cambios en el ángulo de su
trayectoria) que la roja. Esta dispersión es responsable de la coloración azul del
cielo. Cuando la distancia que debe atravesar una onda electromagnética en la
atmósfera aumenta (por ejemplo al amanecer o al atardecer) crece la probabilidad
de sufrir dispersión. Debido a esto en esos momentos del día el cielo adquiere una
coloración rojiza. La dispersión Mie incluye la reflexión y refracción que generan
constituyentes atmosféricos cuyas dimensiones son similares a la longitudes de
onda de la radiación. En general se trata de aerosoles, o sea una mezcla de vapor de
agua, gases y partículas sólidas. La dispersión no selectiva se produce cuando la
onda electromagnética interactúa con objetos cuyo tamaño es mucho mayor que la
longitud de onda (e.g. una gota de agua o partículas grandes de polvo). Esta
dispersión es, por ejemplo, la producida por las nubes en la porción visible del
espectro electromagnético. Dado que la dispersión de este tipo es independiente de
la longitud de onda (afecta a todas por igual) las nubes se verán blancas o grises. Sin
embargo, en la porción del espectro correspondiente a las microondas el tipo de
dispersión que se producirá con las nubes es Rayleigh. La dispersión atmosférica
puede representar una fracción muy importante de la radiación percibida por un
sensor y su magnitud afectará la interpretación que realizamos del comportamiento
espectral de la superficie. Debido a su importancia se han desarrollado diversos

9
algoritmos que buscan corregir la distorsión que introduce la dispersión atmosférica
en la señal generada en la superficie (ver capítulo 6).

Así, se ha visto que cuando la radiación electromagnética interactúa con un


cuerpo puede absorberse o dispersarse (Figura 1.5). Desde el punto de vista de la
teledetección resulta más útil diferenciar la dispersión entre reflexión y transmisión
–es decir según el sentido de la onda redireccionada-. Entonces, al incidir sobre una
superficie u objeto una onda electromagnética (o un flujo de fotones)
experimentará tres posibles reacciones: absorción, reflexión o transmisión. La
energía absorbida contribuirá a aumentar la temperatura de esa superficie u objeto.
La superficie emitirá a su vez radiación (a una longitud de onda mayor que la
radiación absorbida, ver más arriba) de manera proporcional a su temperatura.
Cuando las cantidades de radiación por unidad de área (i. e. densidad de flujo
radiativo expresada en W/m2), reflejadas, transmitidas o absorbidas se refieren a la
densidad de flujo radiativo incidente (irradiancia, W/m2) obtenemos tres
proporciones cuya suma es igual a 1 y que denominamos reflectancia, transmitancia
y absorbancia, respectivamente. En percepción remota, estamos especialmente
interesados en derivar propiedades de la superficie o el objeto a partir de su
reflectancia. Esta nos dará elementos para evaluar como interactúa la radiación
incidente con la superficie.

1.4. Reflectancia bidireccional


Hasta aquí al utilizar el término reflexión nos referíamos a la radiación que
luego de interactuar con un objeto o superficie cambia el sentido de propagación,
es decir, en términos más precisos a la radiación que se propaga en todas las
direcciones de la semiesfera ubicada por encima del plano que contiene al objeto o
superficie. Cuando la reflexión posee un componente direccional (i.e. en una
dirección es mucho mayor que en el resto de las direcciones) se denomina reflexión
especular mientras que cuando la radiación reflejada es igual en todas las
direcciones se dice que una superficie tiene reflexión difusa (Figura 1.11). En el
primer caso, la radiación es reflejada formando un ángulo con la vertical igual al
ángulo de la radiación incidente. Esta reflexión ocurrirá en el caso de superficies
“lisas”, como el agua calma por ejemplo. La reflexión difusa tiene lugar en todas
direcciones y es generada por superficies “rugosas”, como un parche de vegetación
natural. La “rugosidad” de una superficie es un concepto relativo y puede
cuantificarse a partir de la relación entre la altura promedio de las irregularidades
de la superficie y la longitud de onda de la radiación. Así una dada superficie se
percibirá como rugosa cuando la longitud de onda de la radiación reflejada es corta
(por ej. radiación visible) y lisa cuando esta sea larga (por ej. microondas). Esta

10
relación también variará con el ángulo de incidencia de la radiación (ángulo de
iluminación). Cuando el ángulo de incidencia respecto a la normal (perpendicular) a
la superficie sea grande (por ej. de mañana temprano) la superficie se comportará
como rugosa mientras que el ángulo sea pequeño (al mediodía) lo hará como lisa.

Excepto en el caso del agua calma, la mayor parte de las superficies


naturales producen una reflexión difusa de la radiación incidente. Cuando la
superficie se comporta como un difusor perfecto, o sea la radiación es reflejada en
todas las direcciones y en igual magnitud, denominamos a esa superficie como
lambertiana. En estos casos la cantidad de energía reflejada por la superficie que
puede percibirse desde cualquier posición de una semiesfera con centro en el punto
de incidencia de la radiación será igual (Figura 1.12).

El hecho de que la cantidad de radiación reflejada difiera con la dirección de


observación y de iluminación tiene importantes consecuencias en teledetección. La
primera es que no existe un instrumento capaz de medir la radiación reflejada en
todas las direcciones. Por lo tanto cuando registramos la radiación reflejada
estamos en realidad percibiendo la reflexión correspondiente a una dirección dada
por: 1) la posición del sensor, 2) su campo de visión instantáneo (es decir el ángulo
solido a través del cual el sensor registra la radiación) y 3) la distancia al entre la
superficie y el sensor. Un sensor medirá entonces el flujo radiativo (Φ) en una dada
longitud de onda (λ) que sale de una superficie dada (A=pixel) en una dada dirección
(θ) y en un dado ángulo sólido (Ώ):

L λ = (Φ λ / Ώ) / (A * cos θ)

y sus unidades serán [Link]-1. Al dividirse la radiancia (L por la irradiancia


obtenemos entonces una magnitud llamada reflectancia hemisférica direccional.
Por convención se identifica primero las características angulares de la irradiancia
(en este caso hemisférica por poseer un componente de radiación directa y otro
difuso) y en segundo lugar las de la radiancia reflejada. Por último, generalmente se
utilizan modelos de simulación para eliminar el componente difuso de la irradiancia
de manera de obtener la reflectancia bi-direccional, es decir el cociente entre el
flujo radiativo en una dada dirección y el flujo radiativo incidente desde una dada
dirección.

La segunda consecuencia es que, como se puede inferir de lo anterior, la


reflectancia bidireccional registrada por un sensor remoto será diferente según la
dirección de observación e iluminación –excepto para el caso muy poco frecuente

11
de superficies lambertianas-. Esto es particularmente importante en teledetección
debido a que los satélites rara vez observan un punto en la superficie del planeta
con la misma geometría de medición. Por geometría de medición nos referimos
principalmente a: 1) ángulo de observación (i.e. el ángulo formado entre la normal
al sensor y una línea que une el sensor y un sitio en la superficie del planeta) 2)
ángulo de iluminación (o ángulo cenital solar definido como el ángulo formado
entre una línea que une el sol con la vertical en un sitio dado) y 3) ángulo acimutal
relativo (es decir el ángulo formado entre las líneas que unen un punto dado y la
proyección de la posición de sol y del satélite sobre la superficie de la Tierra). Dado
que en teledetección el interés reside en la obtención de información sobre objetos
o superficies, las modificaciones generadas en la reflectancia debido a la geometría
de medición constituyen un obstáculo que se debe eliminar o minimizar.

La función de distribución de la reflectancia bidireccional (FDRB) describe


como varia la reflectancia en cada dirección de la semiesfera según la dirección de
iluminación y la posición relativa del sensor con respecto a la fuente de iluminación.
Conocer esta función reviste mucha importancia para el cálculo del albedo –
definido como la reflectancia en todas las direcciones de la semiesfera- y para
discriminar entre la contribución de la geometría de medición y la contribución del
objeto o superficie a la medición registrada por un sensor satelital. La FDRB se
construye a partir de varias observaciones de un mismo objeto o superficie
realizadas en un periodo de tiempo relativamente corto. En el caso de la misión
MODIS por ejemplo el periodo de observación es de 16 días durante los cuales una
misma superficie es observada con diferentes ángulos de observación, iluminación y
desde diferentes posiciones relativas entre el sensor y el sol. A partir de estas
observaciones es posible ajustar una FDRB mediante la minimización de la
diferencia entre los valores modelados y observados. Como resultado se obtendrá
una “pluma” de reflexión o la aparición de una anisotropía en el volumen definido
por la reflexión de esa superficie en el caso de que ocurra reflexión direccional
mientras que, si se tratara de reflexión difusa o lambertiana, aparecería un
semicírculo indicando que en todas las direcciones de la semiesfera la reflectancia
es la misma (Figura 1.13). Conocer esta función permitirá modelar cual hubiese sido
la reflectancia de una superficie de haber sido observada con una dada geometría
de medición eliminando así este componente de variación de la reflectancia (Ver
ejemplo de aplicación en el Capítulo 6).

1.5 Reflectancia de distintas superficies


Una vez identificados (y eventualmente corregidos) los efectos de la
dispersión atmosférica y de la geometría de medición en las mediciones satelitales

12
se puede proceder a derivar propiedades de los objetos a partir de conocer como es
su comportamiento espectral (ver Capítulo 6). Las diferencias dependerán de una
cantidad de factores ligados a las características químicas, estructurales y
funcionales de las superficies.

La reflectancia de una superficie tendrá un comportamiento diferencial de


acuerdo a la longitud de onda que se trate. Consideremos tres categorías de
superficies con las cuales la radiación proveniente del sol puede interactuar: el
agua, el suelo desnudo (incluimos aquí cualquier sustrato lítico) y la vegetación.
Obviemos por ahora las diferencias propias de cada una de estas superficies.
Cuando sobre un cuerpo de agua incide igual cantidad de radiación azul, verde, roja
e infrarroja observaremos que la reflectancia es pequeña en cualquiera de esas
longitudes de onda pero que es mayor para la radiación azul que para la verde. A su
vez esta última se reflejará más que la roja. La cantidad de radiación reflejada en el
IR será mínima (Figura 1.14a). Este comportamiento está asociado a que buena
parte de la radiación incidente en estas longitudes de onda es transmitida y
absorbida por el cuerpo de agua. Dentro de este patrón general la reflectancia del
agua se verá modificada por la cantidad y el tipo de sedimentos presentes, el
contenido de clorofila y la profundidad y características del fondo.

Si la misma radiación que incidía sobre el agua lo hace sobre el suelo, la


energía reflejada variará en calidad (composición espectral) respecto de la energía
incidente (Figura 1.14b). El suelo será en general, más “brillante” que el agua, o sea,
reflejará más radiación en el visible. La reflectancia aumentará con la longitud de
onda, desde el rojo al infrarrojo. La mineralogía ejerce un fuerte control del
comportamiento reflectivo de los suelos. Por ejemplo, los suelos lateríticos con alto
contenido de óxido férrico (por ejemplo los que encontramos en Misiones) tienen
una mayor reflectancia en la longitud de onda del rojo. La rugosidad de la superficie
del suelo, el contenido de materia orgánica y de agua determinará también la
reflectancia total del suelo, a mayor rugosidad, contenido de agua y/o materia
orgánica más oscuro (menos reflectivo) el suelo.

La vegetación muestra un comportamiento reflectivo particular (Figura


1.14c). Se observa un pico de reflexión en la porción verde del espectro visible, es
por ello que vemos de este color a la vegetación. La absorción será alta y por lo
tanto, la reflectancia baja en las longitudes de onda correspondientes al azul y el
rojo. Esto se debe a que la clorofila tiene su pico de absorción en esas longitudes de
onda. En la zona de transición entre el visible y el infrarrojo cercano (IRc) se produce
un cambio muy marcado en la reflectancia de la vegetación. En un rango pequeño

13
de longitudes de onda (menos de 20 nm) la reflectancia puede aumentar más de 10
veces. Si bien la magnitud puede variar, el pico de reflectancia en el IRc, es típico de
la vegetación fotosintéticamente activa. Este comportamiento está asociado a la
estructura de las hojas, particularmente la del mesófilo. Este tejido incluye
típicamente parénquima en empalizada en contacto con la epidermis y parénquima
lacuoso en la porción central. En esta porción del mesófilo se genera una interfase
sólido-aire-líquido que dispersa la radiación infrarroja cercana. Si bien las plantas
poseen pigmentos que absorben en estas longitudes de onda (fitocromos), estos
están involucrados en la detección de señales de baja intensidad y por lo tanto no
absorben cantidades significativas de radiación en esta porción del espectro.
Además de la cantidad y tipo de pigmentos y de la estructura foliar, otros factores
afectarán la cantidad de radiación reflejada. El estado hídrico de las plantas
modificará la reflectancia en la porción del IR medio. La presencia de una dimensión
vertical en un canopeo hace que otros factores tengan influencia en la respuesta
espectral de la vegetación. La arquitectura del canopeo (tipo, ángulo de inserción y
disposición de las hojas) junto con el ángulo de elevación solar, modificarán la
distribución de la radiación en el canopeo y por lo tanto la cantidad de radiación
reflejada. El material senescente muestra un comportamiento espectral distinto al
de los tejidos verdes como resultado de la ausencia de clorofila y la modificación de
la estructura foliar. El contraste entre la reflectancia en el rojo y el infrarrojo
cercano (IRc) no es evidente en este caso. Algo similar ocurre con los tejidos
leñosos. La presencia de material seco o muerto dentro del canopeo modificará su
comportamiento ya que parte de la radiación será interceptada por un material con
un comportamiento espectral diferente al de las hojas verdes. El material
senescente tiene un comportamiento espectral que en el visible y el IRc similar al
del suelo (capítulo 9). La intensidad y la proporción de radiación difusa y directa
afectarán también la cantidad de radiación que refleja la vegetación. Los modelos
de transferencia de radiación dentro del canopeo permiten entender aspectos
fundamentales de la respuesta espectral a las plantas (capítulo 8).

Los espectros de reflectancia brindan la posibilidad de comparar y


caracterizar el comportamiento de distintas superficies (Figura 1.15). En estos
gráficos se representa la reflectancia (radiación reflejada/radiación incidente) en
función de la longitud de onda. Cómo señalábamos antes, cada superficie
presentará una curva característica a partir de las cuales es posible identificar tipos
individuales de reflectancia. De la observación de las curvas resulta evidente que no
es posible separar simultáneamente las distintas superficies representadas usando
sólo una banda particular del espectro. Si bien es posible separar el agua del suelo o
la vegetación mediante una observación en la porción del IR, nos resulta imposible

14
discriminar entre suelo y vegetación en cualquier porción del espectro visible o del
IR cercano. La variación interna que muestran los suelos y la vegetación hace que en
una banda del espectro ambas superficies puedan reflejar la misma cantidad de
radiación. Esto dependerá como señalábamos, de la cantidad de pigmentos y
estructura de la hoja o del contenido hídrico y de materia orgánica del suelo. Sin
embargo, es posible la separación si se consideran simultáneamente más de una
banda. Por ejemplo, para un mismo valor de reflectancia en el IR cercano, una
superficie vegetada reflejará mucho menos que el suelo en la porción del rojo. El
potencial de la percepción remota de la energía reflejada para discriminar
superficies deriva en buena medida del uso de varias bandas del espectro, llamamos
a este análisis, multiespectral. Las curvas particulares de reflectancia de la figura
1.15 reciben el nombre de “firmas espectrales” ya que pueden ser asociadas a
superficies particulares (capítulo 8).

Figura 1.9 Imagen del satélite meteorológico Meteosat donde los niveles de gris
indican el contenido de vapor de agua de la atmósfera ([Link]
meteosat/[Link]).

Figura 1.10 Ubicación de las bandas en las que se registra la radiación del sensor
TOMS ([Link]

Figura 1.11 Esquema del comportamiento reflectivo de las distintas superficies:


reflexión especular y difusa.

Figura 1.12 Esquema del comportamiento reflectivo de una superficie lambertiana


(difusor perfecto).

Figura 1.13 Anisotropía o “plumas” de reflexión de una superficie. Distribución


angular de la reflectancia en un plano. Los colores representan objetos cuya
reflectancia principalmente posee un componente difuso (verde), un componente
direccional especular (rojo) y un componente intermedio (difuso-direccional) en el
sentido en que está iluminado).

Figura 1.14 Comportamiento reflectivo de distintas superficies: a) agua b) suelo y c)


vegetación. Se representa el comportamiento espectral relativo de las longitudes de
onda azul, verde, roja e infrarroja luego de reflejar en cada superficie.

Figura 1.15 Espectros de reflectancia o “firmas espectrales” de distintas superficies


(hojas verdes, pasto, hojas secas, arena, tierra y canto rodado).

15
Capítulo 2 - Sistemas de Información Geográfica

José Paruelo

2.1 Introducción
Un SIG (Sistema de Información Geográfica), es un sistema capaz de integrar,
crear, almacenar, editar y manejar datos espaciales y atributos asociados. Esto
puede realizarse de diversas maneras pero en la actualidad se recurre a programas
de computación que incorporan algoritmos capaces de realizar las tareas asociadas
a un SIG. El usuario de un SIG puede hacerle preguntas a las base de datos e indagar
cuestiones que sólo pueden ser resueltas al integrar información proveniente de
distintas fuentes. Los SIG son un valioso auxiliar en una enorme cantidad de
disciplinas, tanto básicas como aplicadas. Su papel en el manejo y la organización
del territorio ha adquirido una importancia creciente y hoy en día los SIGs son una
herramienta indispensable en múltiples organizaciones públicas y privadas. El
primer sistema denominado como de información geográfica fue el desarrollado en
1962 en Canadá para el “Canada Land Inventory” (Inventario de Tierras de Canadá).
Este sistema fue diseñado para almacenar mapas digitalizados y atributos de la
superficie georeferenciados con el objetivo de determinar el potencial de uso de los
suelos de Canadá. El sistema incluía información sobre suelos, agricultura,
recreación, vida silvestre, bosques y usos del suelo a una escala 1:250,000. El
responsable de la creación de este sistema fue Roger Tomlinson. A nivel local, y con
mucha menos trascendencia, el artículo de Román et al. (1986) incluido en la Caja
2.1 muestra el desarrollo de un SIG (¡cuando aún no se usaba esa denominación!)
con fines fiscales en la Provincia de Buenos Aires. Los SIG resultan de la
convergencia de varias disciplinas y campos tecnológicos: la geografía, la
cartografía, la geodesia, la teledetección, la matemática, la computación, la
estadística, entre las más destacadas. La difusión que han tenido los SIG se asocia
en buena medida a su capacidad de asimilar datos de fuentes muy diversas y abrir la
puerta a una enorme cantidad de posibilidades de análisis. En sí mismo un SIG no
resuelve un problema, sin embargo crea un entorno de análisis muy poderoso.
Obviamente la capacidad de extraer información y conocimiento de un SIG
dependerá de la claridad de las preguntas formuladas y de los marcos conceptuales
de quien opera el sistema. Si bien los SIG brindan una valiosa ayuda en la
producción de mapas, su finalidad es otra: el análisis.

Una manera alternativa de definir un SIG es a partir de las preguntas que


este tipo de sistemas puede (o debería poder) contestar. Las preguntas que se le
formulan a un SIG pueden ser espaciales (¿Cuál es la mínima distancia entre dos

16
localidades?) o no-espaciales (¿Cuánta gente trabaja en una dada ciudad?). Hay 5
tipos de preguntas generales que pueden contestarse con un SIG, estas se refieren
a:
Localización: en este caso se busca responder preguntas sobre qué hay en
determinado lugar. La respuesta incluye no sólo el nombre de atributo sino sus
coordenadas geográficas.
Condición: se trata preguntas complementarias a las anteriores, es decir
buscar lugares en donde se verifica determinada condición (áreas con humedales
mayores a 100 ha, bosques nativos a más de 100 m de una ruta).
Tendencias: estas preguntas involucran a las anteriores y, además, buscan
diferencias en el tiempo (e.g. en el uso del suelo).
Patrones: son preguntas es más sofisticada que las anteriores y no
involucran sólo a un atributo sino a varios y a sus relaciones espaciales, por ejemplo
uno puede preguntarse si una unidad aparece asociada a otra con más frecuencia
que a una tercera.
Modelado: en este caso la pregunta es del tipo “¿Qué pasa si…?” La
respuesta a este tipo de preguntas implican proyectar el comportamiento del
sistema en el tiempo o el espacio y para ello es necesario no sólo información
geográfica sino también modelos conceptuales y condiciones de contornos que
permitan realizar las proyecciones.

Los SIG están integrados por cinco componentes fundamentales: la


computadora o sistema de cómputo (“hardware”), el sistema de procesamiento
(“software”), los datos, el personal y los métodos de análisis, procesamiento y
despliegue de los datos. El sistema de procesamiento de un SIG proporciona las
funciones y herramientas necesarias para almacenar, analizar y desplegar
información geográfica. Los componentes incluyen: a) un sistema de manejo de
base de datos (SMBD), b) las herramientas para la entrada y manipulación de
información geográfica; c) las herramientas de soporte para consultas, análisis y
visualización geográfica, y d) una interfase gráfica de usuario (GUI, por sus siglas en
inglés) para un fácil acceso a las herramientas.

Obviamente el corazón de un SIG son los datos o la información que


incluyen. Un SIG está pensado para transformar datos en información, es decir para
darle sentido a los datos. El dato indicará el valor de una variable en una dada
locación mientras que la información asociada a ese dato permitirá identificarlo con
un tipo particular de suelos o de vegetación. Para ingresar en un SIG los datos y/o la
información deben ser transformados a un formato susceptible de ser almacenado
en una computadora y ser georeferenciado. Las estructuras de datos digitales en las

17
que puede almacenarse información acerca de un atributo geográfico son
básicamente de dos tipos: raster (o matricial), y vectorial.

Como señalábamos, un SIG es fundamentalmente una herramienta de


análisis. Esta, cómo una balanza o un destornillador, nos permite realizar una serie
de operaciones destinadas a obtener un dado resultado. Como en el caso de una
motosierra o una grúa mecánica, conocer su funcionamiento, estructura, alcance y
limitaciones es importante para sacarle el máximo provecho. Por otro lado, y al
igual que con cualquier herramienta, para usarla eficientemente debemos tener en
claro el objetivo que se persigue. A diferencia de las herramientas que compramos
en una ferretería, en muchos casos estamos directamente involucrados en el diseño
o la construcción del SIG. Para ello nos ayudamos de una variedad de sistemas
(software) especialmente diseñados para asistirnos en estas tareas.

Las personas pueden relacionarse con un SIG de manera diversa. Por un


lado, están quienes participan en el diseño del SIG, definiendo los objetivos del
sistema, el tipo de preguntas a contestar, el grano y la extensión espacial y
temporal, el tipo de datos a cargar. Por el otro, los usuarios a los que está
destinado, el sistema de procesamiento a utilizar, los planes para su uso,
mantenimiento, crecimiento futuro y para la financiación de estas tareas. Si bien el
conocimiento de las herramientas computacionales es de gran ayuda, está etapa
del desarrollo de un SIG puede ser realizada por personas que carecen de destreza
en el uso de los programas específicos. En la etapa de diseño es central la definición
de los objetivos y la visión de cómo operará y para quienes.

La construcción del SIG requiere de técnicos/as especializados y entrenados


en el uso de los sistemas de procesamiento a utilizar. En esta etapa deben
recopilarse los datos a ingresar (mapas analógicos, imágenes de satélite,
clasificaciones digitales, fotogramas aéreos, datos de campo, estadísticas de distinto
tipo, etc.), evaluar su calidad, unificar las proyecciones, proveer coordenadas
geográficas a aquellos datos que no las tengan, etc. y, finalmente, ingresarlos al
sistema. Todas estas etapas requieren de una cuidadosa documentación a fin de
asegurar la repetibilidad de los procesos llevados a cabo. El mantenimiento de una
bitácora es de gran importancia en el proceso de desarrollo de un SIG. La operación
de un SIG incluye todas aquellas tareas relacionadas con la respuesta a las consultas
que realizan los usuarios. El grado de control de los procesos variará por parte del
usuario. De hecho en muchos casos quien diseña, construye y usa el SIG es la misma
persona. En otros casos los usuarios acceden solo a una versión ejecutable del
sistema. Un ejemplo de estos casos son: Google Earth (http:// [Link]

18
/intl/es_ es/earth/) o el mapa de calles de la Ciudad de Buenos Aires
([Link]

2.2 Estructura de un SIG


Un SIG almacena datos e información como una colección de capas
temáticas relacionadas espacialmente (Figura 2.1). La definición de capas permite
ordenar y jerarquizar los datos y la información a incluir en un SIG. Las capas
constituyen entonces piezas importantes del SIG y su definición conceptual es un
aspecto central en su diseño. No todos los datos y la información almacenada en un
SIG deben necesariamente ser geográficos.

La información geográfica contiene una referencia espacial explícita (latitud


y longitud o una coordenada de otro sistema, Gauss Krüger por ejemplo) o implícita
(el código postal). Las referencias implícitas pueden derivarse de referencias
explícitas mediante el proceso de "geocodificación". Las referencias geográficas son
importantes para dar respuesta a preguntas acerca de localización o condición.

Cómo indicábamos antes los sistemas de información geográfica funcionan


con dos tipos fundamentales de información espacial: vectorial y raster (Figura 2.2).
En el formato raster los mapas están representados por una matriz en donde cada
elemento es denominado “píxel” o "celda". Cada píxel queda determinado por sus
coordenadas de archivo y de mapa y por el valor de la variable o el atributo que
representa. En este formato, un punto quedará representado como una celda
completa, una línea por un conjunto de celdas contiguas de sólo un píxel de ancho y
un polígono por un conjunto contiguo de celdas de una o más celdas de ancho. La
representación de elementos tales como caminos o cursos de agua (desde un punto
de vista estético) solo es posible para tamaños de pixeles muy pequeños. Las
dimensiones del píxel se corresponden con la resolución. Esta resolución deberá
entonces guardar relación con aquellos elementos, procesos o estructuras que se
busca representar.

Las imágenes de satélite que se incorporan a un SIG se almacenan en


formato raster. La resolución de la imagen en estos casos varía desde centímetros a
decenas de kilómetros de acuerdo al sensor y de la plataforma usada (ver capítulo
4). Los datos en formato raster podrán ser continuos o cuantitativos, como en el
caso de imagen de satélite, en donde se almacenan valores de reflectancia o
radiancia, o de un modelo digital de elevación del terreno, en donde se incorpora el
valor de la altura sobre el nivel del mar de cada píxel. Los datos podrán ser a su vez
cualitativos o discretos, como en el caso de mapas temáticos, en donde se

19
almacenan códigos de clases. En este último caso, y a diferencia de los datos
continuos, los valores del píxel no representan cantidades y por lo tanto no pueden
tratarse estadísticamente. El valor de un píxel en los casos de archivos raster
discretos representan categorías nominales (e.g. provincias), ordinales (e.g. pobre,
bien o excesivamente drenado en un mapa de suelos) o intervalos de clases (áreas
con menos o más de 1 habitante por km2).

El formato raster es una forma de partir el espacio en porciones regulares


mutuamente excluyentes y que incluyen la totalidad del área de estudio. Una
superficie puede dividirse en teselas, mosaicos o celdas regulares usando otras
formas geométricas además el cuadrado: el hexágono o el triángulo (Figura 2.3). En
el caso del hexágono se minimizará el efecto borde al ser la relación área/perímetro
máxima. Lo contrario ocurrirá con el triángulo. Existe por supuesto la posibilidad de
un “teselado” irregular de la superficie.

Los datos vectoriales están representados por uno o más puntos ordenados
a los cuales se asocia una coordenada de referencia (x, y en dos dimensiones o x, y,
z en 3-D). Cada elemento en un mapa analógico se representa en una de las tres
formas en el archivo vectorial: un punto, una línea o un polígono. Un punto está
representado por un solo par de coordenadas. Una línea está compuesta de un
grupo de coordenadas (puntos) agregadas para formar el elemento que en un mapa
pareciera no tener medidas de ancho (e.g. rutas o arroyos). La representación de
elementos lineales curvos requiere de la “discretización” del trazo. Esto transforma
una curva en una serie de segmentos (una línea quebrada o arco) definidos por
nodos. Un polígono es un conjunto de coordenadas unidas por líneas, en el cual el
primero y el último punto son iguales. El polígono siempre representa un área
cerrada, como por ejemplo unidades de suelos o catastrales. Los archivos
vectoriales tienen asociados atributos, generalmente en una base de datos anexa.
Estos atributos hacen referencia a propiedades del elemento que se está
representando, sea este un punto, una línea o un polígono. Así un pueblo estará
representado por un punto (un registro en la base de datos) con su correspondiente
identificación y coordenadas. Este registro tendrá asociado uno o más campos en la
base de datos en los que se consignan atributos de la entidad (e.g. nombre del
poblado, número de habitantes, etc.). A una línea que representa una ruta se le
puede asociar un nombre o a un polígono un tipo de suelo. La descripción de los
atributos puede ser multidimensional; así el polígono de un dado tipo de suelo
puede contener también información sobre la textura, profundidad, salinidad,
capacidad de uso, etc. La información acerca de los atributos se almacena en bases
de datos separadas de los componentes geográficos o gráficos, pero relacionadas

20
mediante un identificador del atributo particular (un punto, una línea o un
polígono). Cada línea de la base de datos tiene una relación unívoca con un atributo
geográfico. Los atributos se asocian sólo a representaciones vectoriales. La
información gráfica de un mapa digital brinda elementos acerca de cómo se
representa la información. Esta incluye los colores, símbolos, tipos de trazo, etc. con
que se desplegarán los distintos atributos en una pantalla o en el papel.

La mayor parte de los SIG usan estructuras (puntos, líneas y polígonos) con
una topología asociada, es decir con información acerca de conexión o contigüidad
de elementos geográficos. Las propiedades topológicas de un mapa permiten que
aún transformando el mapa (e.g. cambiando la proyección o deformándolo) se
mantengan las relaciones de inclusión y vecindad. Aun cuando la forma y el tamaño
de dos polígonos se modifiquen, no cambiará quien contiene a quién ni quien limita
con quién. El proyecto Worldmapper ([Link]) presenta buenos
ejemplos de mapeo topológico. El mapa de la figura 2.4a corresponde a una
representación plana del planeta en donde el tamaño que corresponde a cada país
es proporcional a su superficie. En la figura 2.4b el área (tamaño) del polígono es
proporcional a la población; en la c el tamaño lo es a la riqueza y en la d a los
servicios de la deuda externa del 2001. Los mapas muestran diferencias muy
llamativas entre sí, sin embargo conservan sus propiedades topológicas: Nepal sigue
estando incluido en el subcontinente indio y limitando al norte con China. Para
lograr dicha consistencia topológica los objetos espaciales deben satisfacer una
serie de reglas: a) cada arco debe estar definido por dos nodos, b) un arco delimita
dos polígonos (derecho e izquierdo), c) cada polígono tiene un límite cerrado
definido por un número finito de secuencias cíclicas y alternadas de nodos y
segmentos, d) en torno a cada nodo existe una secuencia alternada y cíclica de
arcos y polígonos y e) un arco sólo intersecta a sus nodos (Figura 2.5). Las
propiedades topológicas de interior y límite ayudan a definir relaciones entre
elementos espaciales (Figura 2.6).

En años recientes se ha realizado un esfuerzo para estandarizar la


terminología asociada a los objetos espaciales representados en un SIG. En los EEUU
se adoptó en 1992 el Spatial Data Transfer Standard (SDTS). Este protocolo define
13 objetos básicos adimensionales, de una o dos dimensiones. Dos de ellos son
estructuras raster (píxel y celda) y el resto vectores. Las estructuras vectoriales
pueden ser de dos tipos: objetos espaciales solamente geométricos o geométricos y
topológicos (Figura 2.7). Así un punto puede ser un objeto exclusivamente
geométrico cuando representa una localidad o un objeto con topología cuando es
un nodo que conecta dos líneas. La topología de ese nodo identifica el segmento del

21
cual el punto es un extremo. En una línea la topología identifica el nodo inicial y el
final. Los polígonos podrían concebirse, extendiendo los razonamientos anteriores,
como líneas quebradas en las cuales el nodo inicial y final son el mismo. Esta visión
es un poco ingenua y plantea problemas para resolver situaciones frecuentes. Por
ejemplo, en la Figura 2.8a se observa que una secuencia de nodos conectados por
segmentos cuyo nodo inicial y final son los mismos puede definir más de un
polígono. Por otro lado, cuando se busca representar polígonos continuos (Figura
2.8b) muchos de los nodos son compartidos generándose una redundancia en los
datos almacenados ya que un mismo nodo forma parte de la definición de más de
un polígono. A su vez, almacenar polígonos como una secuencia de nodos torna
muy complicados los análisis espaciales del tipo “¿Qué polígono está debajo de
polígono A? El modelo de fronteras indicado en la Figura 2.8c soluciona buena parte
de estos problemas al almacenar líneas fragmentadas no cerradas (arcos) indicando
qué polígono se encuentra a la izquierda y a la derecha de cada arco. En la Figura
2.7 se definen y presentan los objetos incluidos en la SDTS.

Figura 2.1 Esquema general de un SIG indicando las capas temáticas que lo
integran. En este ejemplo el SIG está formado por capas vectoriales (suelos,
distritos geográficos, rutas y partidos) y capas raster (uso de suelo de la campaña
2004-2005 e imagen Landsat del 25 de septiembre del 2004 en combinación falso
color compuesto RGB) correspondientes al partido de Bragado de la provincia de
Buenos Aires.

Figura 2.2 Formatos de archivos en un SIG que está formado por capas vectoriales
(suelos, distritos geográficos, rutas y partidos) y capas raster (uso de suelo de la
campaña 2004-2005 e imagen Landsat del 25 de septiembre del 2004 en
combinación falso color compuesto RGB) correspondientes al partido de Bragado de
la provincia de Buenos Aires.

Figura 2.3 Distintas formas de construir un mosaico (raster) usando diferentes


formas geométricas: triángulo, cuadrado y hexágono.

Figura 2.4 Distintas representaciones de los polígonos que representan países


(tomados de [Link]). a) Cada país es proporcional a su superficie,
b) a la población, c) a la riqueza y d) a los servicios de la deuda externa (2001). A
pesar de cambiar la forma y el tamaño de los polígonos se mantienen las relaciones
de inclusión y vecindad (propiedades topológicas) que permiten reconocer los
distintos países.

22
Figura 2.5 Objetos espaciales: (0) punto o nodo, (1) línea o segmento y (2) polígono,
que permiten establecer reglas topológicas. i) arco definido por dos nodos, ii)
polígono con límite cerrado definido por nodos y segmentos, iii) un arco delimita
dos polígonos (derecho e izquierdo) y iv) secuencia alternada y cíclica de arcos y
polígonos.

Figura 2.6 Propiedades topológicas de interior y límite que permiten definir


relaciones entre elementos espaciales.

Figura 2.7 Estructuras vectoriales estandarizadas (SDTS por sus siglas en inglés
(Spatial Data Transfer Standard) para 13 objetos espaciales de una y dos
dimensiones. Dos de ellos son estructuras raster (píxel y celda) y el resto son
vectoriales. Las estructuras vectoriales pueden ser de dos tipos: objetos espaciales
solamente geométricos o geométricos y topológicos.

Figura 2.8 Distintas representaciones de polígono contiguos. a) nodos conectados


por segmentos cuyo nodo inicial y final son los mismos, b) un mismo nodo forma
parte de la definición de más de un polígono y c) modelo de fronteras que
representa objetos incluidos en las estructuras vectoriales estandarizadas (SDTS por
sus siglas en inglés (Spatial Data Transfer Standard).

Los modelos de representación de datos geográficos (raster y vectorial)


tienen ventajas y desventajas para almacenar datos geográficos y los SIG modernos
pueden manejar ambos modelos (Tabla 2.1). El uso de uno u otro formato debería
basarse en qué estructuras quieren representarse y en los objetivos del trabajo.

Tabla 2.1 Comparación entre las representaciones raster y vectoriales.

Características Formato RASTER Formato VECTORIAL

Estructura de los datos Simple Compleja


Menos compacta Compacta
Procesamiento de imágenes Eficiente Ineficiente

Representación de la Dificultosa Sencilla


topología

23
2.3 La escala y la precisión en mapas digitales
En el capítulo 3 se discuten los conceptos asociados al término escala. En los
mapas digitales, el concepto de escala cartográfica presenta problemas ya que estos
no mantienen un tamaño fijo: pueden magnificarse o reducirse tanto como se
desee en la pantalla. En un SIG, de todas maneras, el concepto de escala
cartográfica sigue siendo fundamental y hace referencia a la escala de los mapas
integrados en él. La escala de los mapas que se incluyen en el SIG fija los límites de
la representación de los productos que de él se deriven.

No sólo la resolución sino diferentes aspectos que definen la calidad de los


mapas incluidos afectan la precisión de los productos generados por un SIG.
Además, la precisión es función del objetivo: un mismo SIG puede ser muy preciso
describiendo la distribución de la vegetación pero poco preciso para representar
límites catastrales. La precisión absoluta de un mapa hace referencia a la relación
entre la posición geográfica de un atributo en el mapa y su verdadera ubicación en
el terreno. La precisión relativa describe la diferencia en la ubicación de dos puntos
en el terreno (distancia y ángulo) y esa misma diferencia en el terreno. La
importancia relativa de ambos tipos de precisión dependerá de los objetivos del
proyecto. En general el conocimiento de la precisión relativa es suficiente. La
precisión de los atributos indica en qué medida la base de datos representa
adecuadamente el atributo al cual se asocia. Una falta de precisión de este tipo
llevaría a asignar una unidad de suelos incorrecta a un polígono o un nombre
equivocado a una línea que representa un curso de agua.

En la evaluación de la precisión de un mapa es necesario considerar la


relación costo-beneficio en términos de esfuerzo, tiempo y dinero. Un aumento en
la precisión implica un aumento en el tiempo, esfuerzo y dinero invertido en el
proyecto. En qué medida esa inversión se justifica dependerá nuevamente de los
objetivos perseguidos por el proyecto. En muchas ocasiones, una precisión muy alta
puede resultar contraproducente en la medida que su logro demora la posibilidad
de dar respuesta a un dado problema. Como con cualquier modelo que pretende
representar una realidad compleja conviene comenzar su construcción con los
datos disponibles y evaluar la sensibilidad de los resultados a la calidad de los
distintos componentes para dirigir más adecuadamente el esfuerzo de mejora. Por
ejemplo, puede evaluarse cuánto mejora la estimación de la superficie afectada por
un dado fenómeno al cambiar la resolución espacial de una dada capa o la
equidistancia de las curvas de nivel en una carta topográfica. El esfuerzo para
aumentar la precisión debería estar orientado a la capa de información a la que el
resultado es más sensible (varía más ante un cambio en la calidad de la capa).

24
Las fuentes de error en los mapas tienen distinto origen y son acumulativas.
Incluyen: a) errores al pasar de una geometría esférica a una planar, b) la medición
de la ubicación en el terreno (por ej. información incorrecta del datum), c) una
incorrecta interpretación cartográfica y d) problemas de digitalización.

2.4 Funcionamiento de un SIG


El funcionamiento de un SIG involucra las tareas de captura e ingreso de
datos que conformaran la base de datos, las consultas a la base de datos, los análisis
espaciales y la visualización de los productos generados.

2.4.1 Captura de datos


Los datos a integrar en un SIG pueden provenir de múltiples fuentes. Una
primera fuente de datos es la observación directa de los fenómenos geográficos
relevantes en el contexto del proyecto en desarrollo. Estas observaciones pueden
involucrar la adquisición de datos a campo a partir de la observación directa de
entidades o fenómenos. Por ejemplo, pueden registrarse a campo la presencia de
una dada especie, la altura del terreno, el trazado de un camino o la forma de un
establecimiento agropecuario o de un área protegida. En este caso, registramos en
el terreno entidades tangibles. A cada una de estas entidades deberá asociárseles
una coordenada geográfica. El uso de un Sistema de Posicionamiento Global (GPS,
por sus siglas en inglés) resulta particularmente útil en este caso (ver Capítulo 3,
Caja 3.1). Las entidades se transformarán en un atributo (un punto, una línea o un
polígono) de un archivo vectorial al cual se le asignará una identificación única. No
solamente registramos en el terreno entidades sino también fenómenos. Un caso
típico es el de los registros pluviométricos. La observación directa incluye también la
que podemos realizar mediante sensores remotos. En este caso, incorporaremos
tanto la información efectivamente registrada (reflectancia o emisión de energía
electromagnética en distintas porciones del espectro) (capítulo 4) como los
resultados del procesamiento de esos datos (por ejemplo índices espectrales,
bandas sintéticas o mapas temáticos) (capítulo 9).

A un SIG se le pueden incorporar datos e información provenientes de otras


fuentes digitales: datos raster en formato continuo (fotos aéreas, modelos digitales
de elevación del terreno, etc.), datos raster categóricos o mapas temáticos
(vegetación, tipos de suelos, usos del suelo, etc.), estadísticas varias (censos de
población, agropecuarios, etc.), datos o información acerca de atributos de registros
vectoriales (nombre de calles, características de un curso de agua, etc.). Una vez
incorporados al SIG denominaremos a cada uno de esos conjuntos de datos capas.
Una capa raster no solamente incluye los datos correspondientes a cada píxel sino

25
también información adicional, por ejemplo el esquema de colores para desplegar
esa imagen en la pantalla o su leyenda. Una capa vectorial incluye las entidades
representadas como puntos, líneas y polígonos y todos los atributos que las
describen.

Los mapas analógicos construidos con otros fines suelen ser particularmente
valiosos cuando se los incorpora a un SIG y se los combina con otras fuentes de
información. Su incorporación requiere su digitalización (manual o a través de su
escaneado), rectificación y georeferenciación.

La figura 2.10 muestra un SIG para un área del noroeste de la Patagonia


(Paruelo et al. 2004). El SIG incluye datos básicos en formato raster (imágenes de los
satélite LANDSAT TM, un modelo digital de elevación del terreno, mapas temáticos
de cobertura del suelo), y en formato vectorial (carreteras (líneas), catastro
(polígonos), pueblos, escuelas y aguadas (puntos)). A cada uno de los archivos
vectoriales se le asocia una base de datos que presenta distintos atributos. La Tabla
2.2 resume las características de las capas incluidas en el SIG. A manera de ejemplo
la Tabla 2.3 muestra la base de datos asociada a polígonos de cada una de las
unidades catastrales.

Tabla 2.2 Características de las capas incluidas en el ejemplo SIG para un área de
Patagonia.

Nombre de la Capa Tipo de Descripción


formato

Imagen Landsat 5 TM Raster 30 x 30m Falso color compuesto

Modelo de elevación Raster 90 X 90m Altura sobre el nivel del mar


digital

Tipos de vegetación Raster 30 x 30m Mapa temático generado a partir


de una imagen
Landsat 5 TM
Productividad Primaria Raster 30 x 30m Imagen generada a partir de IVN
de una imagen
Landsat 5TM

26
Catastro Vector de Nombre, Superficie,
polígonos Partido, Tenencia,
Habitado y Número de
ovejas
Carreteras Vector de líneas Nombre y Tipo

Pueblos Vector de Nombre y Número de


puntos habitantes

Aguadas Vector de Volumen (l/hora)


puntos

Tabla 2.3 Base de datos asociada a los polígonos del vector Catastro donde se indica
el partido, nombre, tipo de tenencia y superficie (ha) de cada estancia del ejemplo
del SIG construido para un área de Patagonia.

2.4.2 Operaciones básicas de un SIG


En términos generales con un SIG pueden realizarse operaciones típicas de
cualquier base de datos, incluyendo o no la dimensión espacial, operaciones que
involucran a una sola capa de información y operaciones multicapa. Por otra parte,
la mayor parte de los SIG ofrecen amplias posibilidades de cambio de formato de
los datos, así capas raster pueden ser transformadas a formato vectorial o
viceversa. Una mirada no exhaustiva a las operaciones que puede realizar un SIG
muestra las siguientes posibilidades:

27
[Link] Selección de datos y búsquedas (Querries)
Como en cualquier base de datos en un SIG pueden seleccionarse datos que
satisfagan determinados criterios. Esta selección puede hacerse interactivamente.
En el ejemplo presentado en la figura 2.9 se seleccionaron todas las clases
correspondientes a la estepa graminosa (Figura 2.10a). La selección, cuando se trata
de variables continuas, puede hacerse fijando límites numéricos. Así por ejemplo,
pueden visualizarse las áreas cuya productividad primaria neta aérea sea mayor a
2000 kgMS/ha/año (Figura 2.10b). Una búsqueda más compleja puede encarase
utilizando operadores lógicos: Y (AND) para indicar intersección, O (OR) para indicar
unión, NO (NOT) para negación y XO (XOR) para indicar exclusión. Los operadores
permiten seleccionar registros en una base de datos usando uno o más atributos. En
la figura 2.10c se muestran los polígonos que corresponden a tenencia Empresarial
ubicados en el partido de Alberdi y cuya superficie es mayor a las 2000 has.

[Link] Cálculos y recodificación


Los cálculos que pueden realizarse en un SIG incluyen la medición de
superficies y distancias de distintos elementos y la operación sobre los valores de
los atributos numéricos o la recodificación de los valores cualitativos. En los
ejemplos anteriores se recuperaron valores de los atributos de un elemento de las
bases de datos pero estos no se modificaron. En muchos casos interesa modificar
los valores de un dado atributo (e.g. para calcular una variable con significado
biofísico o para simplificar la descripción de un atributo). En el SIG de la figura 2.11
por ejemplo, puede transformarse el atributo Índice de Vegetación Normalizado
(IVN) en la fracción de la radiación fotosintéticamente activa absorbida por la
vegetación (fPAR) (capítulo 9) aplicando una transformación lineal de los datos
originales de la forma:

fPAR = a + b * IVN

Alternativamente, se puede simplificar el mapa de vegetación asignando


todas las clases de vegetación xerofítica a la nueva clase “Estepas”, manteniendo las
clases “Bosques”, “Matorrales” y “Praderas” (Figura 2.11). Sobre cada una de las
capas pueden realizarse cálculos más o menos complejos para describir la
heterogeneidad espacial de distintos atributos en distintas porciones del área total.
La tabla 2.4 muestra la altura promedio, máxima y mínima y la desviación estándar
de los cada uno de los establecimientos. Por ejemplo, es posible calcular distintos
índices de paisaje: superficie de cada parche de vegetación, relación área/perímetro
del parche, número de parches en cada predio, etc. Todas estas métricas permiten

28
una detallada descripción de la estructura del paisaje. La Caja 2.2 presenta un
ejemplo del cálculo de estos índices para distintas áreas de la región pampeana.

Tabla 2.4 Cálculo del área (ha), la altura promedio, máxima, mínima, el rango y la
desviación estándar de cada estancia del ejemplo del SIG construido para un área
de Patagonia.

[Link] Análisis de proximidad


Una pregunta frecuente en el manejo de datos espaciales es: ¿cuál es el área
ubicada a menos de una dada distancia de un elemento espacial? En el SIG de la
figura 2.9 este tipo de pregunta puede formularse en relación a la distancia a las
aguadas. La figura 2.11 muestra las áreas ubicadas a menos de 3 km de las aguadas
naturales. Este nuevo mapa surge de generar áreas tampón (o buffer) en torno a los
puntos y las líneas que representan aguadas en el SIG. Los análisis de proximidad
pueden realizarse sobre elementos en formato raster o vectorial (polígonos, líneas o
puntos).

[Link] Análisis de contigüidad


En este caso el interés está en identificar áreas que comparten determinadas
características (valores de un atributo) pero, a diferencia de una selección no
espacial, que además de satisfacer ese criterio sean contiguas. Nuevamente este
análisis puede llevarse a cabo sobre archivos vectoriales (en este caso,
sobrepolígonos o líneas) o sobre archivos raster. La figura 2.12 muestra los parches
resultantes de ubicar áreas que simultáneamente correspondan a la clase “Estepa
graminosa” y estén ubicadas a menos de 1000 m.

29
[Link] Análisis de vecindad
Este tipo de análisis se lleva a cabo en archivos raster y consiste en la
modificación del valor de una celda a partir de los valores de las celdas contiguas en
una ventana bidimensional (para más detalle ver capítulo 6). Este tipo de análisis se
denomina también “filtrado” o “ventana móvil”. Consideremos una celda focal con
coordenadas, supongamos, (5,6) y un valor de 8 (Figura 2.14). Un análisis de
vecindad va a reemplazar el valor por otro que surja de operar con los valores de las
8 celdas vecinas (en caso de usarse una ventana 3x3). Las operaciones incluyen el
promedio, el valor máximo, el mínimo, etc.

[Link] Agregación espacial


En archivos raster en ocasiones es útil reducir el exceso de detalle espacial.
Para ello se define una ventana de un determinado número de celdas agregándose
los valores de las celdas incluidos en cada ventana. Esta agregación puede hacerse
con criterios variables. Se puede elegir el valor máximo, el mínimo, el más
frecuente, el promedio, etc. Este proceso da lugar a un archivo raster con una
resolución espacial (tamaño de píxel) distinta (Figura 2.15).

[Link] Operaciones de superposición


Las capas de un SIG pueden superponerse unas con otras como si fueran
hojas de papel transparente. Esto es extremadamente útil para percibir
determinadas características del sistema. Los SIG pueden ir más allá de esta
superposición visual creando un producto de enorme potencial: una capa
compuesta o sintética. La superposición de dos capas da entonces origen a una
nueva capa con valores que resultan de aplicar reglas lógicas o de realizar
operaciones aritméticas entre las capas originales. Mediante la superposición de
dos capas puede realizarse una selección espacial en una capa de información
usando los límites de otras. Así por ejemplo, puede seleccionarse una porción de un
archivo raster usando como “molde” un polígono correspondiente a una capa
vectorial. Esta función permite eliminar del análisis áreas que no son de interés. En
ocasiones se denomina al polígono que corresponde al área a excluir “máscara” ya
que al eliminar esa porción de la imagen esta resulta “enmascarada”. Por ejemplo,
en la Figura 2.16, el archivo raster correspondiente a un mapa temático de unidades
de vegetación fue cortado usando un polígono que corresponde a una dada unidad
política (el partido de Bragado). De este proceso resulta un archivo de menor
tamaño y en donde las áreas “enmascaradas” tienen valores nulos.

30
Figura 2.9 Ejemplo de un SIG (Sistema de Información Geográfico) para un área de
la Patagonia en donde se despliegan distintas capas de información. Se visualizan
las capas vectoriales correspondientes a carreteras, escuelas, pueblos, aguadas y
catastro y una capa raster en escala de grises donde en gris se observan las zonas
más bajas.

Figura 2.10 Selección de datos y búsquedas (Queries) sobre un mapa temático de


Unidades Fisonómicas de un área de Patagonia. a) selección de las clases
correspondientes a estepa graminosa, b) selección de áreas cuya productividad
primaria neta aérea fuera mayor a 2000 kgMS/ha/año y c) selección de propiedades
cuya tenencia fuera empresarial , ubicados en el partido de Alberdi y cuya superficie
fuera mayor a las 2000 has (los objetos seleccionados se indican en color amarillo).

Figura 2.11 Recodificación de un mapa temático de Unidades Fisonómicas de un


área de Patagonia. A la izquierda se presenta un recorte del mapa original y a la
derecha el mapa donde fueron recodificadas todas las clases de estepa.

Figura 2.12 Análisis de proximidad realizado sobre las aguadas presentes en un área
de Patagonia. Se indican los límites de los establecimientos, la ubicación de las
aguadas y un área buffer de 3 km de radio respecto de las aguadas.

Figura 2.13 Análisis de contigüidad realizado sobre un mapa temático de Unidades


Fisonómicas de un área de Patagonia y la ubicación de aguadas en donde en verde
oscuro se observan los parches resultantes de ubicar áreas de la clase estepa
graminosa ubicadas a menos de 1000 m.

Figura 2.14 Esquema que representa un ejemplo de análisis de vecindad. La imagen


original (formato raster) se modifica a partir de una ventana móvil y da la imagen
resultante.

Figura 2.15 Ejemplo de agregación espacial a partir de una imagen Landsat donde
en a) el tamaño de píxel es 30 m y en b) es de 120 m.

Figura 2.16 Mapa temático de unidades de vegetación (formato raster)


enmascarado con el vector del partido de Bragado, provincia de Buenos Aires. A la
derecha se observa la imagen original y a la izquierda en negro se observan las
áreas enmascaradas (valores nulos).

31
En el caso de archivos vectoriales una operación muy poderosa de
superposición es la intersección. En este caso, la nueva capa tendrá nuevos
polígonos que resultan de la intersección de los polígonos de una con los de otra.
(Figura 2.17). Las operaciones lógicas que se utilizaban para hacer selecciones en
una base de datos o en una capa (Y, O, NO ó XO) pueden realizarse sobre dos o más
capas. El resultado será una capa sintética resultado de las anteriores. Estas
operaciones pueden aplicarse tanto sobre archivos raster como vectoriales. La
siguiente sentencia ilustra la generación de una capa de áreas con distinta aptitud
pastoril en el SIG de la figura 2.9: SI “Unidad fisonómica = Bosque” O (Unidad
fisonómica = Estepa” Y “Productividad Primaria < 1000), entonces “Aptitud = Baja”,
sino “Aptitud = Alta” (Figura 2.18). Este caso sencillo muestra la capacidad de los
operadores lógicos para generar nuevas capas a partir de “tablas de decisión”, o
sea, de la valoración cualitativa de la combinación de dos o más capas. La figura
2.19 ilustra algunas de las posibles superposiciones basadas en operadores lógicos y
un caso de tablas de decisión. La superposición entre capas puede resultar de
operaciones aritméticas entre píxeles y/o polígonos. Por ejemplo, la figura 2.20
ejemplifica algunos de los posibles cálculos que pueden realizarse mediante una
superposición algebraica de capas. Una aplicación particularmente interesante de la
superposición es la detección de cambios en el tiempo en, por ejemplo, la
distribución de un tipo de cobertura del suelo (Caja 2.3).

[Link] Operaciones lineares


Un conjunto diferente de operaciones incluye el cómputo de redes. Una red
es un conjunto de líneas conectadas que representan un dado fenómeno,
usualmente asociado al transporte de algo (personas, contaminantes, agua, etc.). El
análisis de redes generalmente se hace a partir de archivos vectoriales en donde sus
componentes nodos que se conectan y que determinan intersecciones. Las redes
pueden o no tener dirección, en las primeras el movimiento es unidireccional y en
las otras puede ocurrir en ambos sentidos. Los SIG más comunes incluyen varios
tipos de herramientas analíticas para redes. Éstas incluyen la búsqueda del camino
óptimo entre dos puntos de la red y la partición de la red.

En el caso de la búsqueda del camino óptimo se evalúa el costo de distintas


secuencia de elementos contiguos (líneas y nodos) para pasar del origen al destino.
El costo puede quedar representado simplemente por la longitud de la secuencia o
involucrar otros atributos asociados a la resistencia ofrecida por cada segmento de
la red. Un ejemplo sencillo es el de una red caminera en donde cada segmento tiene
restricciones de velocidad máxima. Si el origen y el destino deben unirse en el
menor tiempo posible deberá elegirse un camino que no necesariamente es el más

32
corto sino aquél que combina segmentos en los que se puede circular a mayor
velocidad.

La partición de la red asigna nodos y uniones en determinadas localizaciones


(nodo focal) de acuerdo a criterios definidos por el usuario. Las localizaciones
(nodos) pueden ser desde un centro de salud a una fuente de contaminación. Los
criterios para la asignación variarán en cada caso y deberán tomar en cuenta que se
distribuirá desde o hacia esa localización y la capacidad de producción o
acumulación de contaminantes de la localización. Un aspecto adicional de estos
análisis involucra la evaluación de que parte de la red esta condicionalmente
conectada al nodo focal. La evaluación incluye considerar si existe la conexión física
y si esa conexión física satisface determinados criterios. Por ejemplo, un punto de
un río situado aguas abajo de otro no podrá transferir (conectarse) con un nodo
focal aguas arriba ya que la corriente establece una dirección en los movimientos
(Figura 2.21).

2.5 Dominio espacial de datos puntuales, identificación de límites e Interpolación


de datos
Los datos colectados a campo o los registros de algunas variables son de
naturaleza puntual o cubren una superficie pequeña respecto del área total a
describir. Los registros de precipitación en estaciones meteorológicas son un caso
típico de esta situación. Si bien en muchas ocasiones queremos representar la
cantidad de agua precipitada en un área, los registros con los que contamos
corresponden a un punto. Este problema se nos plantea tanto con variables que
tienen una variación continua en el espacio, la precipitación por ejemplo, como con
otras de variación discreta, una unidad de suelos. El problema surge además cuando
se debe evaluar el área de influencia de un atributo/fenómeno o de una estructura
con una localización puntual (e.g. área de influencia de un hospital). Las alternativas
para resolver este tipo de problemas son variadas y cada una de ellas tendrá
ventajas o desventajas y la elección de la técnica a aplicar dependerá de la
problemática particular.

Una primera alternativa es evaluar el área a la cual el valor de una medición


puntual puede extenderse a partir de datos con una cobertura espacial continua
(fotos aéreas, imágenes de satélite o mapas de variables asociadas). Este es el caso
de por ejemplo, la generalización en el espacio de una observación edáfica (la
descripción de una calicata). Mediante la interpretación de una imagen o de un
fotograma se puede evaluar, en base a una serie de atributos, cuál sería el área a la
cual podría extenderse la observación puntual. Esto da lugar a un polígono que se

33
define como uniforme respecto de ese atributo y así definimos el dominio espacial
del atributo. Con técnicas más sofisticadas, una clasificación de datos espectrales
producirá un mapa de clases a las cuáles se asimilarán observaciones o
descripciones puntuales. Por ejemplo, el resultado de la clasificación de una imagen
Landsat TM de Patagonia puede transformarse en un mapa de vegetación como el
presentado en la figura 2.9 al asignar cada clase a una unidad fisonómica definida a
partir de datos puntuales. La calidad de una generalización de este tipo, dependerá
de la evaluación que se haga de cada una de las clases, vale decir, de la constatación
a partir de datos puntuales independientes (no usados en el proceso de generación
de mapa) de las predicciones hechas por el modelo.

Otra situación se plantea cuando es necesario evaluar la zona de influencia


de un elemento puntual. En este caso se trata de particionar el espacio en porciones
asociadas a puntos distribuidos en él. Por ejemplo, en un Parque Nacional se
encuentran distribuidos una serie de puestos de control (Figura 2.22), ¿qué área
debería controlar cada guardaparque? La definición de Polígonos de Thiessen es una
alternativa para resolver este problema. Los Polígonos de Thiessen definen áreas
individuales de influencia de cada punto (en el caso de la Figura 2.22a, los puestos
de guardaparques) de manera tal que, los límites de cada polígono son
equidistantes de los puntos vecinos. De esta forma, cualquier ubicación dentro del
polígono estará más cerca del punto contenido en él que del resto. Para construir
los polígonos se deben unir entre sí los puntos correspondientes a los puestos de
guardaparques (Figura 2.22a). Sobre las líneas que unen los puntos se traza una
línea perpendicular equidistante de ambos puntos (bisectriz). La intersección de las
bisectrices define los nodos de los polígonos (Figura 2.22b). Esta interpolación
espacial define unidades con límites discretos. De esta manera, un área ubicada
entre dos puestos será asignada a uno u otro guardaparque. Sin embargo, en
muchas ocasiones los límites definidos no se perciben en el campo ya sea por
cuestiones de topografía o por la presencia de barreras (e.g. una zona está más
accesible desde el puesto más lejano). En definitiva los límites pueden no ser tan
netos como en la representación generada en la figura 2.22. La teoría de conjuntos
difusos (o “Fuzzy sets” en inglés) provee una manera de representar objetos o
fenómenos intrínsecamente imprecisos en cuanto a sus límites. Así por ejemplo, un
área ubicada entre dos puestos en la figura 2.22, tendrá distinta probabilidad de ser
visitada por los guardaparque respectivos. Una aproximación discreta determinaría
que el área puede será controlada por uno u otro guardaparque. Una clasificación
basada en conjuntos difusos definirá una probabilidad de control por parte de cada
uno de ellos.

34
Figura 2.17 Esquema representativo de la intersección de dos vectores A y B dando
como resultado el vector C.

Figura 2.18 Ejemplo de operaciones lógicas aplicadas a un archivo raster. Se genera


una capa sintética a partir de la sentencia SI”Unidad fisonómica=Bosque” O (Unidad
fisonómica=Estepa” Y “Productividad Primaria <1000); entonces “Aptitud Baja”, sino
“Aptitud Alta”.

Figura 2.19 Ejemplos de operadores lógicos (recuadro de la izquierda) y un caso de


tablas de decisión (recuadro de la derecha).

Figura 2.20 Posibles cálculos de superposición algebraica de capas. R1 es el


resultado de sumar un número a la matriz A, R2 es la suma de matrices A + B y R3 es
el resultado matricial de (C + D/E) –F.

Figura 2.21 Ejemplo de operaciones lineares en una red donde está determinada la
dirección de la corriente (a) donde la función de rastreo permite realizar búsquedas
de puntos aguas arriba (b) aguas abajo (c) o sin condiciones de dirección (d).

Figura 2.22 a) Ubicación de puestos de guardaparque en un parque nacional, b)


construcción de polígonos de Thiessen que permiten evaluar las zonas de influencia
de cada puesto.

Como se indicaba más arriba muchas variables tienen una variación continua
en el espacio (por ejemplo la precipitación). El problema se plantea al querer
estimar el valor que asumiría la variable en una ubicación en la cual no fue medida
pero que se encuentra entre puntos en donde sí lo fue. En análisis numérico, se
denomina interpolación a la construcción de nuevos puntos partiendo del
conocimiento de un conjunto discreto de puntos. Se trata pues de encontrar una
función de interpolación a partir de n puntos distintos xk llamados nodos. La
interpolación puede ser global cuando se define una función a partir del conjunto
completo de puntos y está se aplica toda el área en la cual se quiere describir esa
variable, es el caso de la generación de superficies de respuesta.

Otro tipo de interpolaciones son denominadas locales. En estos casos las


funciones van siendo aplicadas a un conjunto pequeño de puntos. Algunas formas
de interpolación local que se utilizan con frecuencia son la interpolación bilineal, la
interpolación polinómica, de la cual la anterior es un caso particular, el vecino más
cercano o la convolución cúbica (ver también capítulo 8). Los resultados de aplicar

35
uno u otro método pueden variar. Otra alternativa de interpolación es el “Kriging”,
un método geoestadístico de estimación de puntos que utiliza un modelo de
variograma para la obtención de datos. Esta aproximación geoestadística se basa en
los puntos más próximos se parecen más que a los más lejanos. Supone que la
distribución de las diferencias entre puntos es constante en el área y que depende
de la distancia y la orientación de los puntos. En definitiva, supone que las
diferencias no son constantes sino consistentes en el espacio. El variograma (o
semivariograma) es una herramienta que permite analizar el comportamiento
espacial de una variable sobre un área definida considerando la influencia de los
datos a diferentes distancias. Consiste básicamente en un gráfico de la semivariacia
en función de la distancia entre pares de puntos. La semivariancia de puntos
separados por un intervalo h es una medida de la influencia de puntos ubicados a
esa distancia sobre la variable en cuestión (e.g. la precipitación). El método Kriging
calcula los pesos que se darán a cada punto observado en el cálculo de los a
estimar. Esta técnica de interpolación se basa en la premisa de que la variación
espacial continúa con el mismo patrón.

Caja 2.1 La renta normal potencial de la tierra. Un método de cálculo (Román, et


al. 1986. Realidad económica (Bs As) 72:133-144. Revista de Ciencias Sociales).

INSERTAR Artículo completo en pdf.

Caja 2.2 Evaluación de la estructura (composición y configuración) de los paisajes


y sus cambios (adaptado de Baldi, et al. 2006. Ecology and Society 13(2):6).

La heterogeneidad espacial que presentan los paisajes en general, así como


sus cambios, son usualmente detectados y cuantificados mediante un conjunto de
índices de paisaje que capturan aspectos importantes de dichos patrones en unos
pocos números (O´Neill et al., 1988, O´Neill et al., 1997 , Tischendorf et al., 2001).
Ningún índice en particular puede capturar la totalidad de la complejidad del
arreglo espacial de los parches, y por lo tanto se usa sólo un conjunto de índices
(Dale et al., 1995, Riitters et al., 1995). Estos métodos requieren información de tipo
categórica, como por ejemplo, mapas de cobertura del suelo (Turner et al., 2006).

Para cuantificar la superficie de los cinco tipos de cobertura y uso del suelo
(e.g. la composición del paisaje) y los cambios entre los dos períodos de estudio
(1985-1989/2002-2004), Baldi y Paruelo (2008) generaron, para cada una de las
áreas piloto indicadas en la figura 2.2.1, grillas de cuadrados (ventanas) de 8x8

36
kilómetros cuadrados. El grillado posibilitó el resumen de la información a escala de
celda, facilitando la apreciación de los patrones en el espacio (e.g. análisis
espacialmente explícito) (Baldi et al., 2006). Una unidad de grilla de 6400 has
permite detectar patrones a escala regional y relacionarlos con información
proveniente de las imágenes AVHRR/NOAA.

En función de calcular los restantes índices de paisaje (Tabla 2.2.1), los


mapas de cobertura del suelo fueron levemente modificados mediante la aplicación
de un filtro de modas de 3x3 píxeles; este tipo de filtro es comúnmente utilizado
para suavizar la apariencia de “sal y pimienta” que aparece en las clasificaciones.
Los mapas de cobertura y uso del suelo, filtrados se transformaron de formato
“raster” a formato vectorial. Como el objeto de estudio fueron los pastizales, los
polígonos de las otras cuatro clases fueron descartados. Asimismo, los polígonos
con una superficie inferior a los cuatro píxeles fueron descartados debido a que no
estarían representando parches reales de cobertura, sino artefactos generados
durante el proceso de clasificación. Para apreciar los patrones en el espacio, se
intersectaron los mapas con las grillas antes mencionadas. Sobre los mapas de
cobertura grillados se aplicaron cuatro índices espaciales de “configuración” del
paisaje (a diferencia del porcentaje del paisaje, que es un índice de composición).
Estos índices fueron seleccionados por ser utilizados habitualmente para
caracterizar patrones de paisaje. El índice tamaño efectivo de malla (Jaeger, 2000;
Jaeger, 2001, Saura et al., 2002) considera simultáneamente el tamaño de los
parches y el nivel de disección del paisaje (de la cobertura en cuestión) y
adicionalmente es insensible a la inclusión u omisión de pequeños parches. Refleja
cambios estructurales del paisaje y tiene una respuesta de tipo monotónica a través
de las distintas fases de fragmentación (a mayor tamaño efectivo de malla, menor
es la fragmentación). En este trabajo, se utilizó este índice como una medida única
para captar la fragmentación. Los restantes tres índices se utilizaron como medidas
complementarias, ya que describen en forma más explícita ciertas características de
configuración de los parches de pastizales. El número de parches es una medida
intuitiva y simple acerca del grado de subdivisión de un determinado tipo de
cobertura. Sin embargo, puede llevar a interpretaciones equivocadas debido a que
presenta una relación unimodal con el grado de disturbio. El tamaño medio de
parche es una medida también muy simple relativa a la configuración del paisaje.
Ambos índices son muy sensibles a cambios en el tamaño de la “mínima unidad
mapeable”, e.g. la entidad a ser mapeada más pequeña (Saura, 2002). La relación
perímetro-área busca cuantificar la complejidad de la forma de los parches. Se
obtuvieron así mapas categóricos de todos los índices de paisaje que permitieron
apreciar su grado de fragmentación, para cada una de las áreas pilotos y períodos

37
de estudio. Para cada una de las fechas se resumió esta información por distrito
fitogeográfico, asignando cada uno de las ventanas de las grillas analizadas a un
distrito.

Tabla 2.2.1 Listado de índices de paisaje, sus fórmulas y abreviaturas. Ai = área del
parche, At = área total de la unidad de grilla, Pi = perímetro del parche, n = número
de parches.

Índice Fórmula Unidades Abreviatura


n

∑A i
Porcentaje del paisaje PPAI = 100 i =1 % PPAI
At
Número de parches
NUMP = n parches NUMP
n

Tamaño medio de parche ∑A


i =1
i
hectáreas TMPA
TMPA =
n
n
Pi
Relación perímetro-área RPAR = 100∑ - RPAR
i =1 Ai
n 2
∑ ( Ai )
Tamaño efectivo de malla TEMA = i =1 hectáreas TEMA
At

Los resultados acerca del nivel de fragmentación del paisaje en la actualidad


indican una alta heterogeneidad, tanto entre los distritos fitogeográficos o países
como dentro de los mismos (Figura 2.2.2). Basándose principalmente en el índice
tamaño efectivo de malla para establecer el estado de fragmentación y
considerando la información provista por el conjunto restante de índices de paisaje
utilizados para describir los componentes fundamentales de los patrones de paisaje
(Riitters, 1995), se pueden clasificar las distintas situaciones de fragmentación
según las etapas de Forman (1995) y Jaeger (2000) (Figura 2.2.3). La Pampa
Inundable se encontraría en una etapa de incisión o perforación de la cobertura de
pastizales, con los pastizales constituyendo la matriz del paisaje. Los Campos del
Norte y del Sur se encontrarían en la etapa de perforación o disección; los pastizales
constituyen en estos distritos una cobertura continua, pero existen numerosos
sectores dominados por cultivos o forestaciones (e.g. márgenes del Río Uruguay,
cuenca de la Laguna Merím). En la actualidad las Pampas Interior Oeste y
Mesopotámica se caracterizan por presentar numerosos parches de pastizal de
tamaño intermedio y formas simples, evidenciando la presión de las actividades
agrícolas. Importantes cambios relativos del índice tamaño efectivo de malla se
registraron en estos distritos, en donde la cobertura de pastizales estaría en una

38
etapa de disección o disipación. En las Pampas Austral, Ondulada e Interior Plana
los pastizales se encontrarían en una fase de encogimiento o agotamiento,
caracterizada por la presencia de parches de formas simples, pequeños y aislados.

Figura 2.2.1 Clasificaciones de tipos de cobertura del suelo en 8 áreas piloto de los
Pastizales del Río de la Plata. Las áreas piloto corresponden a escenas Landsat TM
obtenidas entre 1984 y 1989. Los detalles de las clasificaciones se presentan en
Baldi y Paruelo, 2008. El panel inferior muestra la grilla de celdas de 8x8 km con la
que se intersectaron las imágenes raster correspondientes a las clasificaciones.

Figura 2.2.2 Valor de los índices de paisaje usados en el estudio de Baldi, (2007) (ver
tabla 2.2.1) para cada celda de 8x8. Los valores se indican mediante un código de
colores. PPAI es el porcentaje del paisaje, NUMP es el número de parches, TMPA es
el tamaño medio de parche, RPAR es la relación perímetro/área y TEMA es el
tamaño efectivo de la malla (Baldi, 2007).

Figura 2.2.3 a) Representación del proceso de fragmentación y sus diferentes


estados (modificado de Forman (1995) y Jaeger (2000)). En gris se representa la
cobertura original y en blanco las coberturas de origen antrópico. Porciones del
paisaje en el período 2002/2004 en: b) Pampa Inundable, c) Campos del Norte, d)
Pampa Mesopotámica, y e) Pampa Ondulada (Baldi, 2007).

Caja 2.3 Cambios en la cobertura del suelo: su detección y modelado usando SIG y
modelos markovianos (adaptado de Vega, et al. 2009. Agriculture,
Ecosystems & Environment 134:287-292).

La descripción de la dinámica de la cobertura del suelo es elemento clave


para la planificación del uso del territorio. La figura 2.3.1 muestra la distribución de
tipos de cobertura del suelo en los pastizales del Río de la Plata. Esta clasificación se
basa en secuencias multitemporales de imágenes Landsat (Baldi et al. 2006, Baldi y
Paruelo, 2008). La comparación directa de ambas clasificaciones permite cuantificar
los cambios en la superficie de pastizales, cultivos y áreas forestadas (gráficos de
tortas en la figura 2.3.1). El uso de algunas de las herramientas de un SIG permite
extraer más información de la dinámica de cambios. Mediante una operación de
superposición de archivos vectoriales correspondiente a una grilla de 8x8 km y a los
límites de unidades biogeográficas sobre la capa raster de las clasificaciones, es
posible resumir la información de cada celda para cada unidad biogeográfica (Figura
2.3.2). Esto permite resumir la información de cambio por unidad, poniéndose de

39
manifiesto una importante heterogeneidad en la tasa de cambio en la cobertura de
la clase pastizal (Figura 2.3.2). Más aún, la superposición de ambas clasificaciones
define áreas que experimentaron distintas transiciones a lo largo del período
estudiado (Figura 2.3.3a). Así por ejemplo, las áreas amarillas de la figura
corresponden a sitios que eran pastizales y lo siguieron siendo, las rojas a zonas de
cultivos que se mantuvieron como tales y las violetas a pastizales que durante el
período comprendido entre las clasificaciones pasaron a estar cultivadas. A partir de
ese nuevo mapa (la intersección de los anteriores), es posible estimar la dinámica
entre tipos de cobertura (Figura 2.3.3b) y de allí derivar la frecuencia de
transiciones entre tipos de coberturas (Figura 2.3.3c). Estas frecuencias pueden ser
asimiladas a probabilidades de transición entre coberturas de manera de resumir la
dinámica de una celda con una matriz de transiciones A o modelo markoviano
(Figura 2.3.3d). Una propiedad de los modelos markovianos es que puede calcularse
el vector de proporciones estables w, en este caso, la proporción de tipos de
cobertura en el equilibrio (siempre y cuando las probabilidades no cambien).

Figura 2.3.1 Mapas de cobertura del suelo (ver Figura 2.2.1 Caja 2.2) para dos
períodos a) 1985/1989 y b) 2002/2004. A la derecha se indican en gráficos de
“torta” la proporción de los distintos tipos de cobertura en los dos períodos
(Paruelo y Baldi, 2008).

Figura 2.3.2 a) Para cada una de las 3411 unidades de grilla de 8x8 kilómetros de la
clasificación de cobertura del suelo (ver Figura 2.2.1, Paruelo y Baldi, 2008), b) se
extrajo la superficie ocupada por cada una de las cinco clases de uso y cobertura del
suelo y c) se ddiscriminó según distrito fitogeográfico. Los resultados de esta
medida o índice porcentaje del paisaje (PPAI) se presentan en diagramas de tipo
“box plot” d). Estos diagramas resumen dos medidas de tendencia central (media y
mediana), los cuantiles superiores e inferiores y los valores extremos. En el caso de
estudio, los extremos de las cajas representan los cuantiles 0,25 y 0,75, mientras
que los extremos de los bigotes representan los cuantiles 0,05 y 0,95. El panel de
abajo se muestran los diagramas “box plots” para cada distrito y período y la
variación relativa en la cobertura (Baldi, 2007).

Figura 2.3.3 a) Intersección de dos mapas de cobertura del suelo presentadas en la


figura 2.3.1. b) Esquema que representa la dinámica entre tipos de cobertura. c)
Estimación de probabilidades de transición entre tipos de coberturas y modelo
Markoviano (matriz A). d) Cambios en la proporción de tipos de coberturas a lo
largo del tiempo (iteraciones del modelo) y proporciones estables (w). Condiciones

40
de equilibrio del modelo markoviano, λ corresponde al eigenvector de la matriz
(Paruelo [Link], 2010).

41
Capítulo 3 – Cartografía

José Paruelo

3.1 Introducción
La cartografía es tanto el arte de trazar mapas geográficos como la ciencia
que los estudia. Un mapa es una representación bi-dimensional que muestra la
distribución de objetos en el espacio y en relación a la superficie terrestre. Es un
modelo espacialmente explícito, georeferenciado y en un plano de una porción del
planeta. Además de un conjunto de caracteres pictóricos (líneas, símbolos, colores,
puntos cardinales, etc.) un mapa es conocimiento acumulado. El ser humano ha
construido representaciones de la superficie terrestre desde tiempos inmemoriales
(Figura 3.1). Los mapas jugaron y juegan un papel central en la historia de la
humanidad y en nuestra vida diaria. Son ellos, cuando los aceptamos, los que
tornan reales los accidentes geográficos. Representar de manera simplificada la
realidad (muchas veces inaccesibles a nuestros sentidos o lejana en el tiempo) es la
función central de un mapa. Un mapa es conocimiento en la medida que nos
permite acceder a la naturaleza, cualidades y relaciones de entidades geográficas
tangibles (una carretera, un río) o abstractas (el límite entre dos municipios). En tal
sentido, un mapa sintetiza las hipótesis que quienes lo construyeron tenían de una
dada porción de territorio. Esto pone de manifiesto que el mapa no representa
necesariamente lo que efectivamente es sino una percepción de esa realidad. Esa
percepción estará determinada primero por el “sujeto” del mapa, o sea aquello que
se quiere representar: la red vial, la distribución de tipos de vegetación, etc. Una vez
definido el sujeto, la percepción dependerá del conocimiento del sistema que posea
quien construye el mapa, de las herramientas, instrumentos, aproximaciones
metodológicas usadas en el proceso de recolección de datos geográficos, de los
supuestos en los cuales se basa la representación de las entidades geográficas, y de
las técnicas usadas para su construcción. En tal sentido, la construcción de un mapa
es un arte, en tanto y en cuanto resulta de la virtud, disposición y habilidad de
quien/es lo realizan. Las representaciones cartográficas permiten estudiar
fenómenos espaciales, es decir localizarlos, describir los patrones, analizarlos y
explicarlos. La cartografía es entonces un instrumento de representación y
localización de los fenómenos geográficos.

Los mapas pueden ser clasificados en mapas base o de referencia y mapas


temáticos. Los mapas base incluyen a las cartas de navegación, los mapas
topográficos, los catastrales, las cartas viales, etc. (Figura 3.2). En general su
construcción está a cargo de instituciones ofíciales públicas, por ejemplo en la

42
Argentina por el Instituto Geográfico Nacional (IGN). Los mapas temáticos se
apoyan en los mapas base para representar un determinado fenómeno geográfico.
Estos incluyen la distribución de la población, variables climáticas, los tipos de
suelos, el riesgo de degradación ambiental, entre otros (Figura 3.3). La construcción
de mapas temáticos persigue variados objetivos, entre ellos: a) describir patrones
espaciales de variables de interés, b) evaluar cambios en esas variables, c) sintetizar
información y conocimiento, d) generar hipótesis acerca de los procesos
subyacentes, e) integrar información (inventarios integrados en SIG, definición de
unidades ecológicas) y f) gestionar recursos o planificar el uso del territorio.

Los mapas temáticos pueden ser analíticos o sintéticos. Los analíticos


representan la distribución de una o más variables directamente observada. Esta
observación puede haber sido hecha mediante trabajo de campo (censos,
mediciones puntuales), mediante sensores remotos o resultar de la
fotointerpretación. Estas variables pueden ser cuantitativas, por ejemplo la
temperatura o la precipitación, o cualitativas, tal el caso de tipos de suelos. En
general, las variables registradas no pueden ser representadas en un mapa de
manera directa, siendo necesario su procesamiento. Por ejemplo, en el caso de
datos puntuales requiere de protocolos de interpolación de las observaciones (ver
capítulo 2). La Figura 3.4 muestra ejemplos de mapas temáticos analíticos
construidos a partir de datos provenientes de distintas fuentes y usando diferentes
aproximaciones. Los mapas temáticos sintéticos surgen de integrar información,
modelos y experiencia subjetiva. Estos mapas resultan de generalizaciones basadas
en datos empíricos pero altamente dependientes de la elección de las variables y de
los modelos conceptuales a los que adhiere quien construye el mapa. Mapas de uso
potencial del territorio, de unidades geomorfológicas, de riesgo ambiental, etc., son
ejemplos de mapas temáticos sintéticos (Figura 3.5).

3.2 Ubicación en los mapas


La mayor parte de los mapas permiten especificar la ubicación de puntos
sobre la superficie mediante coordenadas. Para un mapa en dos dimensiones, este
sistema de coordenadas puede basarse en las relaciones geométricas entre dos ejes
perpendiculares (sistema cartesiano). En tal caso, puede definirse una grilla en
donde definir la ubicación espacial de las entidades. En geografía se usan
básicamente dos tipos de sistemas de coordenadas: el geográfico y el rectangular,
plano o cartesiano.

La Tierra puede describirse como un elipsoide o geoide, una forma


tridimensional ligeramente diferente de la esfera. Esta forma es el resultado de la

43
rotación en torno a su eje. La esfera no obstante es una alternativa para representar
a nuestro planeta. El sistema de coordenadas geográficas identifica la ubicación de
un atributo a partir de dos valores a pesar de estar localizados sobre tres
dimensiones. Esos dos valores se miden respecto al eje polar de la Tierra y se
denominan latitud y longitud (Figura 3.6). Las líneas de latitud o paralelos se
distribuyen paralelas al ecuador como círculos que rodean el planeta. Los paralelos
se miden en grados (°) y al ecuador se le asignó el valor 0°. Los valores de latitud se
definen como al norte o al sur del ecuador y el valor máximo es 90°. Las líneas de
longitud o meridianos son arcos de círculo que se cruzan en los polos. Hay 180° de
longitud a cada lado del meridiano de origen, al cual se le asigna un valor de 0°. La
longitud se define como este u oeste respecto al meridiano de origen.

3.3 Proyecciones
A pesar de las ventajas fundamentales que como representación geográfica
ofrece el elipsoide, posee también algunas desventajas que dificultan su empleo: no
pueden verse los dos hemisferios al mismo tiempo, si su tamaño es manejable
contiene relativamente poca información pues las áreas aparecen en tamaños muy
reducidos, y aún cuando sean pequeñas, su manejo resulta difícil. De hecho, sería
imposible usarla mientras viajamos. Recurrir a una representación en dos
dimensiones es imprescindible. Sin embargo, esto no está exento de
complicaciones. Representar la verdadera forma de la Tierra en un plano crea un
problema, si se quiere, similar al de envolver con papel un globo. Es inevitable en
este último caso arrugar el papel. La manera en que se arrugará el papel no es
única, cada quien hará pliegues distintos. Pasar las 3 dimensiones del elipsoide a un
plano genera una dificultad análoga. Para contrarrestar este problema los
cartógrafos han desarrollado una serie de procesos y transformaciones
estandarizadas que permite crear mapas en dos dimensiones. Esas
transformaciones crean inevitablemente algún tipo de artefacto, nuestra
percepción de la superficie se ve alterada. El tipo de alteración variará con el
proceso específico de transformación según cómo este altera propiedades
geográficas específicas. Las propiedades alteradas incluyen: la distancia, el área, la
dirección en línea recta entre dos puntos del planeta y el rumbo.

Una proyección puede definirse como una red de paralelos y meridianos


sobre la cual puede ser dibujado un mapa. Para trazar las proyecciones se emplean
algoritmos matemáticos, pero la idea general se basa en la proyección de las
sombras de los meridianos y paralelos de una esfera sobre una superficie que
puede convertirse en plana sin deformaciones, tal como la superficie cilíndrica o la
cónica.

44
El método más sencillo es rodear la esfera con un cilindro, un cono o
colocarla tangencialmente a un plano (Figura 3.7). Sobre el cilindro, el cono o el
plano tangencial se puede proyectar una parte de la red de meridianos y paralelos
desde el centro de la esfera o desde otro punto. Al cortar el cilindro o el cono por su
generatriz y extendiéndolo sobre un plano se obtendrá la proyección. Los sistemas
de proyección se clasifican en base a la deformación que generan al pasar de la
esfera al plano:

Sistemas Equivalentes (o autálicos): cualquier zona tiene la misma superficie en el


plano que en la esfera (a igualdad de escala cartográfica). En cualquier estudio en
donde las variables se refieran a una superficie se debe usar un sistema de
proyección equivalente.

Sistemas Conformes (o isogónicos): cualquier zona el plano tiene la misma forma


que en la esfera. En aplicaciones en donde se deban conservar ángulos y direcciones
se deberá utilizar una proyección conforme.
Sistemas Afilácticos o de Compromiso: no satisfacen por completo las dos
condiciones anteriores.

La Figura 3.8 ilustra las diferencias entre 2 proyecciones, ambas centradas en


36N y 96E, y el mapa sin proyectar de los EEUU. En Argentina se utiliza la proyección
acimutal (sobre un plano tangente) para el área antártica, la proyección
estereográfica polar; la proyección policónica (para mapas a escala 1:500.000 o
menores) y la proyección cilíndrica (Proyección Gauss-Krüger). Una de las
proyecciones más utilizadas es la Mercator. Esta proyección cilíndrica es conforme
pero no equivalente, de hecho se percibe a Groenlandia del mismo tamaño que
Sudamérica cuando esta última es varias veces mayor que la primera. La magnitud
de la distorsión de la superficie es nula en el ecuador y aumenta hacia los polos.
Una alternativa para evitar estas distorsiones es la proyección transversa Mercator.
En este caso el cilindro no es tangente al ecuador sino a un meridiano. Esta
proyección se adapta mejor a casos en donde la región tiene un desarrollo Norte-
Sur.

Figura 3.1 Mapa del mundo de 1154 de Al-Idrisi. Nótese que el sur está ubicado en
la parte superior del mapa. Al-Idrisi fue un cartógrafo y geógrafo árabe que vivió en
Sicilia. Su mapa fue usado en Europa por siglos, Cristóbal Colón utilizó mapas
directamente derivados de su trabajo ([Link]

45
Figura 3.2 Carta topográfica correspondiente a la zona de San Carlos de Bariloche
elaborada por el Instituto Geográfico Militar (Argentina).

Figura 3.3 Mapa de distribución de la precipitación media anual (PMA) en el


Uruguay (Baeza et al., 2006). En escala de grises se observan los rangos de
precipitación.

Figura 3.4 Ejemplos de mapas temáticos analíticos. a) Cambio anual del porcentaje
de las superficies dedicadas a cultivos por partido o departamento, 1988-2002.
Izquierda: cultivos anuales; derecha: todos los cultivos. Fuente: censos
agropecuarios, INDEC (Paruelo et al., 2005). b) Detalle de la heterogeneidad
fisonómico florística de una porción del noroeste de Patagonia. Fuente:
clasificación de una imagen Landsat TM (Paruelo et al., 2005).

Figura 3.5 Ejemplos de mapas temáticos sintéticos. a) Mapas de unidades


geomorfológicos de Uruguay (Panario, 1988). B) Mapa de valores esperados de
señalada ovina en el noroeste de Patagonia (Hall y Paruelo, 2006).

Figura 3.6 Ubicación de paralelos respecto del ecuador (izquierda) y meridianos


respecto al meridiano principal. Debajo se define la latitud y la longitud de un punto
P. GNU free documentation licence.

Figura 3.7 Algunos ejemplos de tipos de proyecciones: de izquierda a derecha:


cónica, cilíndrica y polar. GNU free documentation licence.

Figura 3.8 Mapa político de Estados Unidos proyectado en dos proyecciones


Lambert Cónica Conforme (líneas en azul) y Mercator (líneas en rojo). El mapa en
coordenadas geográficas se indica en color verde. GNU free documentation license.

El sistema internacional de coordenadas planas (rectangular) desarrollado


por el ejército de EEUU “Universal Transverse Mercator UTM)” utiliza, como su
nombre lo indica, una proyección Mercator transversa para representar la
superficie esférica de la tierra en un plano bidimensional. El sistema UTM divide el
planeta en 60 zonas de seis grados con orientación Norte-Sur. Las zonas se numeran
de Este a Oeste desde el meridiano de 180°, entre los 84° de latitud N y los 80° de
latitud S. El meridiano central se ubica en el centro de la faja. La ubicación
(expresada en metros) en cada zona, se mide desde un falso origen relativo a la
intersección del ecuador con el meridiano central de cada zona. Para el Hemisferio
N (HN) el falso origen es 500.000 metros al oeste del meridiano central, sobre el

46
ecuador. Las coordenadas en el sistema UTM en el HN son relativas a ese punto
hacia el este y norte. En el Hemisferio S el origen está a 10.000.000 metros al S y
500.000 m al O del ecuador y del meridiano central (Figura 3.9).

La proyección Gauss-Krügger, empleada por el IGN de Argentina para


confeccionar las cartas topográficas, divide al país en 7 fajas meridianas numeradas
de oeste a este (Figura 3.10) de 3° de ancho (longitud) y 34° de largo (latitud) y
tiene como origen la intersección del Polo Sur con el meridiano central de cada faja.
Arbitrariamente se le asigna al meridiano central el valor de 500.000 metros y al
Polo Sur de 0 metro.

3.4 El concepto de escala y los niveles de percepción


Buena parte de la utilidad de los mapas deriva de su capacidad de
representar una dada superficie en otra mucho menor (una que quepa en el bolsillo
o la mesa de trabajo). La escala cartográfica describe la magnitud de la reducción
que tiene lugar y es igual a la relación entre la distancia entre dos puntos en el
mapa y la distancia entre esos dos mismos puntos en el terreno:

Escala = distancia en el mapa / distancia en el terreno

En general la escala de un mapa se representa como una fracción o razón


(fracción representativa). En el caso de un mapa en donde una unidad (cm)
corresponda a 1.000.000 de esas unidades en él, la superficie de la Tierra la fracción
representativa será 1/1.000.000 (fracción) o 1:1.000.000 (razón). Además de la
descripción verbal o el uso de la fracción representativa los mapas recurren a
escalas gráficas. Es común referirse a los mapas como de “escala pequeña” o
“escala grande”. La figura 3.11 muestra mapas que representan la superficie
terrestre a diferentes escalas: 1:5.000.000, 1:500.000, y 1:250.000. De este grupo, el
mapa construido a 1:250.000 es el de mayor escala, es decir el mapa con mayor
detalle espacial. Nótese que la fracción 1/5.000.000 es menor que 1/250.000.
Sin embargo el término escala tiene una acepción más general que la
cartográfica. La escala, además de la relación entre la distancia en un mapa y la
distancia en el terreno, es la dimensión espacial o temporal a la que se puede
reconocer un proceso. Esta última definición nos habilita a hablar de escalas
temporales y espaciales. La escala así definida incluye dos componentes para su
definición: la extensión y el grano (Figura 3.12). La extensión describe la amplitud de
la ventana espacial o temporal con la que se observa un sistema. A medida que la
extensión aumente la porción de territorio observado aumenta (Figura 3.12). El
grano o resolución por su parte hace referencia a la capacidad de distinguir dos

47
entidades próximas. A medida que el grano aumenta la capacidad de diferenciar
entidades próximas disminuye (Figura 3.12). El tamaño del “píxel” define la
resolución de una imagen. Relacionar fenómenos a distintas escalas es un problema
central en la Ciencia en general. De allí que la elección de la escala de observación
(el grano y la extensión) y la escala de la representación (escala cartográfica) sean
puntos de importancia central en un estudio geográfico.

En Ciencias Ambientales y en Agronomía, el análisis y descripción de la


heterogeneidad involucra distintos niveles de de organización. Para percibir esa
heterogeneidad debe cuidarse que la escala de los procesos a describir y la de la
observación coincidan. Para percibir determinados procesos, como por ejemplo la
invasión por parte de una especie exótica en una dada comunidad y los efectos de
los cambios climáticos sobre la productividad primaria, se requiere no sólo de
observar variables distintas, sino también de hacer las observaciones a diferentes
escalas (grano y extensión) de tiempo y espacio. La correspondencia entre la escala
del proceso y la de la observación pasa a ser una cuestión central. Para lograrlo, es
indispensable plantear claramente los objetivos, el nivel de trabajo, las variables de
interés, la metodología y la representación cartográfica, a los fines de no utilizar,
por ejemplo, métodos muy detallados para el análisis de la vegetación en el nivel
continental, o escalas pequeñas (poco detalladas) para la cartografía de las
comunidades vegetales dentro de un potrero.

Para el estudio de un área en particular se pueden considerar distintos


niveles de percepción de la heterogeneidad espacial, con sus correspondientes
escalas de observación y representación (Figura 3.13). Long (1968) propuso
organizar esos niveles de percepción según una “pirámide” (Figura 3.14) en cada
una de las aristas representa una dimensión distinta: la escala cartográfica, las
unidades de vegetación o ambientales perceptibles, las variables ambientales
determinantes de la heterogeneidad observada, etc.). En la Tabla 3.1, se presenta
una síntesis de estos conceptos.

Tablas 3.1 Síntesis de los niveles de percepción, con las escalas cartográficas, la
heterogeneidad de la vegetación características y las variables del ambiente que
representan los principales controles.

Nivel de Escala Unidades de Variables activas


percepción Vegetación

48
I 1:10.000.000 Continentes y mares Latitud y longitud
II 1:1.000.000 Biomas, zonas de Clima general y relieve
uso del suelo
III 1:100.000 Tipos de vegetación Altitud, clima local,
sustrato
IV 1:10.000 Comunidades Topografía,
características edáficas
V 1:1.000 Stands Relaciones bióticas

3.5 Representación cartográfica


En un mapa temático se representan gráficamente sobre un papel entidades
o fenómenos concretos o abstractos de manera espacialmente explícita. Para ello,
se utilizan variables visuales o sea cambios en la forma, el tamaño, el color, el valor,
el patrón, o la orientación. Las variables visuales buscan diferenciar las entidades y
fenómenos geográficos de acuerdo a su naturaleza e importancia relativa (Figura
3.15).

Figura 3.9 Característica de la zona UTM "29" entre 12 y 6° O. Las zonas se han
separado entre N y S. El meridiano central es el de 9°. Una ubicación geográfica se
calcula a partir del falso origen. Su ubicación en cada hemisferio se indica en el
texto.

Figura 3.10 División de la Argentina en fajas meridionales (Sistema Gauss Krüger).


Nótese que las fajas son de 3° de longitud (ancho) y 34° de longitud (largo). GNU
free documentation license.

Figura 3.11 Mapa de la Provincia de Buenos Aires en tres escalas distintas:


1:5000.000 (izquierda arriba), 1:500.000 (Imagen Modis del 12 julio de 2003) y
1:250.000 (Imagen Landsat 5 TM de 9 de octubre de 2003).

Figura 3.12 Definición de escala: se observan dos tamaños de grano (n) y tres
tamaños de extensión (a).

49
Figura 3.13 Aspectos de la heterogeneidad de la vegetación percibidos en
diferentes escalas espaciales, en un área de pastizales naturales del centro de la
Pampa Deprimida, Pila, Provincia de Buenos Aires (Chaneton, 2005).

Figura 3.14 Pirámide de percepción de los niveles biogeográficos. Cada arista


corresponde a un tipo de unidad biogeográfica o de relación entre la vegetación y
las variables ecológicas activas. Por ejemplo: la arista E1-E5 corresponde a las
escalas de expresión cartográfica para cada nivel, la B1-B5 a las variables ecológicas
preponderantes en cada uno de ellos, y la C1-C5 a las unidades biogeográficas que
correspondan (adaptado de Long, 1968).

Figura 3.15 Esquema conceptual que representa de modo general el proceso de


construcción de un mapa temático.

Mediante cambios en la forma pueden representarse diferencias en la


calidad de distintas entidades. Así las ciudades con menos de un millón de
habitantes se pueden representar con círculos y aquellas con más de esa cantidad
con triángulos. El tamaño de una dada forma geométrica permite una cuantificación
de la variación relativa de una dada entidad o fenómeno. En lugar de usar triángulos
y círculos para representar la cantidad de habitantes se podrían usar círculos de
tamaño proporcional al tamaño de la población. El color de las entidades permite
una descripción tanto de diferencias cualitativas (separar dos provincias) o hacer
una descripción cuantitativa de una variable). La representación de la
heterogeneidad en un mapa mediante colores presenta problemas técnicos -
aspectos físicos, simbólicos, estéticos y fisiológicos del color- complejos además de
la influencia que tiene sobre los costos. Las reglas de utilización también son
complejas e impone al cartógrafo un buen conocimiento de la variable. El valor en
el caso de una imagen blanco y negro corresponde al cociente entre las cantidades
de negro y de blanco percibidas en la superficie de una imagen. En otros casos se
puede hablar de gamas de un dado color (Figura 3.3). El valor está muy asociado
entonces al color. El patrón o trama permite en ocasiones reemplazar a las
variables, color y valor (Figura 3.5). La orientación puede aplicarse sólo a formas
longilíneas variando su inclinación.

El punto es la representación más simplificada de un elemento en un mapa.


Una extensión del uso de puntos es la utilización de iconos. Estos variarán en forma,
tamaño, color u orientación. El punto da una rápida impresión visual que ayuda a la
localización en el espacio pero una pobre estimación cuantitativa de las
características del elemento a describir. El uso de íconos ayuda a una mejor

50
descripción de los aspectos cuantitativos al incluir la posibilidad de cambiar el
tamaño o el color. Una línea en el mapa representa el límite entre dos superficies o
la sucesión de puntos muy próxima. Puede variar en ancho, valor o color. En un
mapa de isolíneas las líneas representadas unen puntos con igual valor de la
variable en cuestión. La descripción de curvas de nivel en un mapa topográfico es
un ejemplo típico de esta técnica. Los valores entre isolíneas pueden determinarse
mediante interpolación lineal. El área es una porción del mapa delimitada por
líneas. Las variables que la describen pueden ser el valor o el color ya que la forma
en este caso no puede variar.

3.6 Medición de la distancia y la dirección en mapas


El pasar de tres a dos dimensiones crea una serie de distorsiones en el área,
la distancia o la dirección en un mapa. Los mapas equidistantes minimizan, pero no
eliminan las distorsiones de distancias, de hecho sólo es posible controlar las
distorsiones a lo largo de líneas de latitud o longitud. En general la distancia es
correcta en la dirección de la latitud. En mapas a escalas 1:125.000 o mayores (e.g.
1:50.000) la distorsión en la determinación de la distancia es insignificante. La
escala cartográfica en estos mapas permite el cálculo de la distancia a partir de
determinar la longitud del segmento que une dos puntos del mapa. Por ejemplo,
una distancia de 5 cm en un mapa a escala 1:100.000 representa 500.000 cm o sea
5000 m. Para medir líneas que no son rectas (e.g. una costa) pueden usarse varios
segmentos pequeños que se colocan sucesivamente sobre la línea a medir. En estos
casos el resultado de la medición será función de la longitud del segmento usado en
la medición. Esto se debe a que estos objetos tienen una naturaleza fractal
(muestran autosimilaridad y su dimensión varía con la escala de la observación). Un
opisómetro permite una medición más ajustada de líneas irregulares. Este
instrumento cuenta con una pequeña rueda y registra la distancia recorrida por
esta. Nuevamente, la distorsión en dirección es poco importante en mapas a escalas
de 1:125.000 o menores.

La dirección se mide en relación a los polos verdaderos (Norte o Sur). Los


polos magnéticos pueden también usarse para medir la dirección. El Polo Norte
Magnético está ubicado a 78.3° Norte, 104.0° Oeste, cerca de la isla Ellef Ringnes en
Canadá. El Polo Sur Magnético se encuentra en la Antártida a 65° Sur, 139° Este. Los
polos magnéticos no son fijos y cambian su posición en el tiempo. Las cartas
topográficas tienen por lo general un diagrama de declinación que describen las
diferencias angulares entre los polos magnéticos y los polos verdaderos. La
dirección del Norte verdadero es paralela a los meridianos. Los diagramas de
declinación de mapas basados en el sistema UTM muestran también el ángulo entre

51
el Polo Norte verdadero y el Norte de la grilla. La determinación en el terreno se
realiza con una brújula, la cual determina la dirección del Norte magnético. El
diagrama de declinación permite convertir esa dirección en direcciones relativas al
Norte verdadero o al de la grilla UTM.

3.7 La construcción de un mapa temático


Diversas instituciones oficiales están a cargo de elaborar mapas base. En
Argentina típicamente el IGN tiene a cargo esta tarea. El profesional en ciencias
ambientales, agronomía, geología, o ciencias afines tendrá frecuentemente que
enfrentar la necesidad de construir mapas temáticos para describir patrones o
procesos de su interés o para hacer explícitas en el espacio hipótesis acerca de ellos.
La figura 3.15 esquematiza el proceso de generación de tales mapas. El primer paso
involucra la definición del objetivo del mapa. Esto requiere, como señalábamos más
arriba, definir con claridad el nivel de percepción en el cual se trabajara. Una vez
identificado el proceso o atributo a representar debe recopilarse toda la
información disponible acerca de él. Por ejemplo, si el atributo es la cobertura del
suelo (cultivos, pasturas, bosques naturales, lagunas, etc.) debemos conocer las
descripciones previas de su heterogeneidad espacial, las estadísticas oficiales, las
clases de cobertura presentes y sus afinidades, el tamaño mínimo, por medio y
máximo de una parcela de cada clase de cobertura, etc. Esto nos ayudará a definir la
leyenda (cuantas y cuáles clases se pretenden representar) el tipo de datos a
adquirir (satelitales, estadísticas oficiales, fotografías aéreas) y el trabajo a campo a
realizar. El trabajo de campo llevará a redefinir la leyenda, por ejemplo, agrupando
algunas clases o creando otras (capítulo 7). A partir de los datos adquiridos y del
trabajo de campo se procederá al análisis y síntesis de la información. Esta involucra
desde el procesamiento de imágenes a la interpolación de datos puntuales
recogidos a campo, pasando por la fotointerpretación o la integración de bases de
datos estadísticas. Del proceso de análisis y procesamiento, y de la construcción y
definición de la leyenda resultará el mapa temático. Antes de usarlo para hacer
predicciones espaciales o acuñarlo como la descripción espacial de un patrón, el
mapa requiere ser ese evaluado. Este proceso se basa en contrastar los patrones
descriptos por el mapa con fuentes independientes, generalmente observaciones
de campo.

Caja 3.1 GPS- Sistema de posicionamiento global

Ubicarse en el terreno ha sido un problema para los humanos desde que


comenzaron a explorar su entorno. A lo largo de la historia la invención de la
brújula, el compás y el desarrollo de la navegación celeste permitió resolver

52
parcialmente el problema. En el caso de quienes trabajan con recursos naturales a
campo, las cintas métricas, brújulas o medidores láser resuelven parcialmente el
problema cuando las superficies son relativamente pequeñas. Estas alternativas
requieren un cierto entrenamiento y son laboriosas y lentas. Más aún, salvo que
existan en la vecindad del área puntos acotados (con coordenadas geográficas) las
mediciones no podrán ser georeferenciadas. El uso de atributos representados en
cartas topográficas fácilmente reconocibles en el terreno (cruces de caminos, por
ejemplo) han resultado (y resultan) un valiosos auxiliar para quienes relevan
recursos naturales.

El Sistema de Posicionamiento Global o Global Positioning System (GPS) es


un Sistema Global de Navegación por Satélite (GNSS) que permite determinar en
cualquier lugar del planeta la posición de un objeto. El NAVSTAR Global Positioning
System (Navigation Signal Timing and Ranging GPS, tal su verdadero nombre) consta
de 24 satélites orbitales ubicados a unos 20.000 km sobre la superficie de la tierra
(Figura 3.1.1). Estos satélites realizan una órbita completa en 12 hs. El sistema fue
desarrollado por el Departamento de Defensa de los Estados Unidos en 1978 y en la
década de los 90 comenzó su uso con fines civiles.

La idea del GPS se basa en sistemas de navegación basados en radio-


frecuencias desarrollados durante la Segunda Guerra Mundial. Cuando la Unión
Soviética lanzó al espacio el Sputnik in 1957 un grupo de científicos
norteamericanos seguían las emisiones de radio del satélite. Esto les permitió
descubrir que gracias al efecto Doppler la frecuencia de la señal aumentaba al
acercarse el satélite y disminuía cuando este se alejaba. A partir de conocer la
localización del sitio desde donde medían la señal podían conocer la posición del
satélite en su órbita midiendo la distorsión Doppler. Lo inverso es también cierto:
conociendo la posición del satélite puede determinarse la posición en la superficie
terrestre.

¿Cómo funciona un GPS? La localización mediante GPS se basa en el


principio geométrico de la triangulación. La triangulación en el terreno se realiza
midiendo distancias, con un GPS las distancias se miden a partir de señales de radio.
Cada satélite transmite un mensaje que contiene información acerca del número
del satélite, su posición en el espacio y el momento en el cual el mensaje fue
enviado. El receptor registra esa información y compara la hora a la cual el mensaje
fue transmitido y recibido. A partir de esa información el receptor calcula la
distancia al satélite. Con la información de un satélite puede determinarse la
distancia a él. Esto define un círculo de posibles ubicaciones del receptor de radio

53
d1 (Figura 3.1.2). A partir de la información aportada por un segundo satélite es
posible restringir las posibles ubicaciones del receptor a 2 puntos (A y B) (Figura
3.1.2). Un tercer satélite permitirá definir la correcta ubicación del receptor. En un
plano es entonces posible determinar la ubicación de un punto a partir de la
ubicación de tres satélites. En un espacio tridimensional serán necesarios 4 puntos.
Cuanto mayor sea el número de satélites que aportan información menor serán los
errores de la determinación de la ubicación.

La medición de la ubicación de un punto está sujeta a errores. Estos derivan


de distintas fuentes. Debido al carácter militar del sistema GPS en su origen, el
Departamento de Defensa de los Estados Unidos se reserva la posibilidad de incluir
un cierto grado de error aleatorio que puede variar de los 15 a los 100 metros. Este
error aleatorio se llama Disponibilidad selectiva (S/A) y fue eliminado el 2 de mayo
del 2000. Aunque actualmente no aplique tal error inducido, la precisión intrínseca
del sistema GPS depende del número de satélites visibles en un momento y
posición determinados. Sin aplicar ningún tipo de corrección y con ocho satélites a
la vista, la precisión es de 6 a 15 metros; pero puede obtenerse más precisión
usando sistemas de corrección (Differential GPS). Otras fuentes de error incluyen el
retraso de la señal en la atmósfera, la señal multiruta, producida por el rebote de la
señal en edificios y montañas cercanos; el número y geometría de los satélites
visibles, errores en el reloj del GPS.

Una de las alternativas para corregir estos errores y aumentar la precisión es


el uso de la corrección diferencial. Esto se basa en el uso de dos receptores GPS que
operan simultáneamente. La corrección puede realizarse en tiempo real o de
manera diferida. En muchos sitios del planeta se utiliza una red de receptores
estacionarios para calcular la diferencia entre la posición verdadera y la
efectivamente medida con el receptor. Esta diferencia es transmitida como una
señal local de frecuencia modulada.

Figura 3.1.1 Representación de los satélites que conforman el NAVSTAR GPS


(Departament of Defense USA).

Figura 3.1.2 Triangulación de señales de radio para ubicar mediante un GPS donde
se representa la distancia al satélite 1 (d1), la distancia al satélite 2 (d2) y la
distancia al satélite 3 (d3). La superposición de los tres círculos de posibles
ubicaciones de cada satélite permite ubicar el punto A.

54
Capítulo 4 - Sensores pasivos y plataformas de observación terrestre

José Paruelo, Alfredo G. García y Carlos M. Di Bella

4.1 Sensores pasivos


Los datos espectrales con los que se construirán las imágenes son
registrados por sensores que están montados sobre distintos tipos de plataformas.
Los sensores, en este caso los espectrales, son dispositivos que registran la radiación
electromagnética que es reflejada o emitida por una determinada superficie. Es
posible agrupar los sensores en dos grandes grupos: los activos y los pasivos. Los
sensores activos registran la radiación que ellos mismos generaron; es decir que el
mismo sensor cumple la función de fuente y receptor de la energía
electromagnética que interacciona con una determinada superficie. Los sensores
pasivos, en cambio, son aquellos en los que la fuente de radiación que interactúa
con la superficie es externa al sensor. En este caso la fuente principal de energía es
el Sol, aunque también podría tratarse de una fuente artificial como por ejemplo
una lámpara. En este capítulo nos ocuparemos de estos últimos: los sensores
pasivos. En el capítulo 5 se describen los sensores activos y las bases de su
funcionamiento.

Existen muchos tipos de sensores pasivos: las cámaras fotográficas, las


cámaras de televisión y los radiómetros. Nos ocuparemos de estos últimos. Los
radiómetros son dispositivos que miden la intensidad de la radiación en distintas
porción del espectro electromagnético. Estos instrumentos cuentan con una parte
óptica, la que define cuál será el área registrada por el sensor, es decir el campo de
visión del instrumento o Field of View (FOV). El FOV, definido como un ángulo, es
constante para cada instrumento. Lo que varía es el campo de visión instantáneo o
Instantaneous Field of View (IFOV), la superficie que el sensor es capaz de observar
en un momento determinado (Figura 4.1). El FOV determinará, junto con la altura
de la órbita, la superficie observada por el sensor. Esa superficie definirá a su vez el
tamaño del píxel de la imagen (resolución espacial del sensor). Otro elemento del
radiómetro es la unidad de filtros, los cuales posibilitan el paso de algunas
radiaciones y bloquean o filtran el paso de otras, permitiendo registrar
determinadas porciones del espectro electromagnético de la radiación reflejada o
emitida por la superficie (capítulo 1). La unidad de filtro puede estar físicamente
incorporada al sensor. La parte óptica del sensor entonces define el campo de visión
y transfiere la energía reflejada o emitida por la superficie a una unidad de filtros
que, o descomponen la luz o eliminan alguna de las bandas de longitudes de onda
que incide en el sensor (Figura 4.2). La presencia de varios filtros permite el registro

55
de distintas longitudes de onda por separado. En estos casos nos referimos al
radiómetro como multiespectral. Cuando los sensores registran energía
electromagnética en bandas muy estrechas (por ejemplo de un nanómetro1) y
además contiguas, el sensor recibe el nombre de hiperespectral o
espectroradiómetro.

Una parte clave del radiómetro es el sensor propiamente dicho, o sea el


dispositivo que se excita y genera una respuesta eléctrica en función de la cantidad
de energía electromagnética en una determinada porción del espectro que incide
en él. Dado que estamos interesados en medidas de radiación, el sensor debe ser
calibrado en laboratorio (pre-vuelo) para convertir a unidades de energía (por
ejemplo flujo de fotones, watts o megajoules, etc.) los cambios en la circulación de
una corriente eléctrica. Finalmente, los radiómetros deben contener una unidad de
registro que puede ser digital (e.g. disco duro, display, etc.) o analógica (agujas en el
microvoltímetro). En los sensores montados a bordo de plataformas satelitales se
utilizan, obviamente, dispositivos digitales. La unidad de registro amplifica y graba
y/o despliega la información. La cantidad y tipo de filtros determinará qué
porciones del espectro registrará el sensor y, consecuentemente el número de
canales o bandas que tendrá la información (tantas como porciones del espectro
sean registradas). La figura 4.2 muestra un prototipo de radiómetro en donde se
indican los distintos componentes. A pesar de su rusticidad la estructura básica es
similar a la de los sensores a bordo de un satélite. Una versión de radiómetro.

Los radiómetros montados a bordo de una plataforma satelital deben


registrar la radiación reflejada o emitida por la superficie terrestre a lo ancho de
una faja definida por la órbita del satélite y el tipo de sensor. Ese ancho es mucho
mayor que el tamaño del píxel que resulta del FOV y de la altura de la plataforma
para poder registrar todos los pixeles incluidos en la banda. Para alcanzar este
objetivo hay distintos tipos de sistemas óptico-electrónicos: los radiómetros de
barrido (scanning radiometers) o los radiómetros de empuje (pushbroom
radiometers). Los radiómetros de barrido cuentan con un espejo móvil que oscila
perpendicularmente a la dirección de la trayectoria permitiendo explorar una franja
de terreno a ambos lados de esta. Con cada movimiento el espejo dirige radiación
de una porción distinta del terreno al/ o a los sensor/es de dicha plataforma (Figura
4.3a). Los radiómetros de empuje, por su parte, cuentan con un arreglo de
detectores que cubren todo el ancho de la franja observada (Figura 4.3b). Al
eliminar la parte móvil (los espejos) de este último tipo de radiómetro disminuyen

1
Nanómetro: milésima parte de un milímetro

56
considerablemente los errores geométricos, lo que permite aumentar la resolución
espacial del sensor. Un problema a tener en cuenta en este tipo de sensores de
empuje es la calibración simultánea que debe realizarse de todos los sensores para
que se comporten de manera consistente entre ellos al momento de la toma de
datos.

4.2 Plataformas
Los sensores pueden ser montados en distintas plataformas. Si el sensor es
operado sobre el terreno, dicha plataforma es denominada “terrestre”. En este caso
puede tratarse de un operador caminando sobre el terreno, una grúa a
determinada altura de la superficie o inclusive sobre un vehículo autopropulsado. Si
el sensor está a bordo de una aeronave, permitiendo volar a distintas alturas y
velocidades, la plataforma es denominada “aerotransportada”. Por último, si la
plataforma se encuentra montada sobre un satélite se la denomina “satelital”.

Las plataformas satelitales permiten obtener datos y generar información


para distintas aplicaciones relacionadas con las ciencias ambientales o agronómicas
tanto de la superficie terrestre como la atmósfera. Las plataformas satelitales
pueden clasificarse en dos grandes grupos de acuerdo al tipo de órbita que
describen: geoestacionarios o cuasi polares.

Los satélites geoestacionarios, por su órbita, acompañan en su movimiento


de rotación a la Tierra. De esta manera el satélite produce un período orbital
idéntico al de la tierra que le permite observar siempre la misma porción del
planeta. Las órbitas de estos satélites son generalmente circulares, geosincrónicas y
ecuatoriales a una altura cercana a los 35.786 kilómetros. Este tipo de plataformas
se utilizan principalmente en aplicaciones meteorológicas, por ejemplo para
estudiar el movimiento de sistemas nubosos y masas de aire. También se han
difundido aplicaciones muy importantes en el seguimiento de fenómenos terrestres
de gran escala como por ejemplo incendios, inundaciones o temperatura de los
océanos. Estos satélites toman registros en intervalos de tiempo muy cortos, del
orden de minutos, permitiendo conocer la dinámica del sistema atmosférica o
terrestre con una alta frecuencia de revisita. Los satélites de órbita polar y cuasi
polar, por su parte, describen respectivamente órbitas meridianas o ligeramente
desplazadas respecto de los meridianos, permitiendo en su recorrido de oeste a
este capturar información de las distintas porciones de la superficie a la misma hora
solar (heliosincronía). Esto se debe a que la velocidad del satélite está sincronizada
con la velocidad de rotación del planeta (Figura 4.4). De esta manera, se logra
minimizar las distorsiones geométricas al observar la superficie con el mismo ángulo

57
del sensor permitiendo tener registros comparables en el tiempo y en el espacio.
Existe una distorsión sistemática que puede corregirse, originada por la variación de
la posición del sol a lo largo del año. Estos satélites orbitan en alturas que van de los
200 a los 1.000 kilómetros de altura respecto de la superficie terrestre.

4.2.1 Resolución de los sistemas de observación terrestre


Los sistemas de observación terrestre (el conjunto de sensores y la
plataforma) pueden ser caracterizados por cinco tipos de resoluciones: la espacial,
la radiométrica, la temporal, la espectral y la angular. Cuando uno debe elegir con
que información satelital trabajará (seleccionar un “protocolo de observación”)
debe evaluar todas las resoluciones en función de los objetivos del trabajo, los
medios disponibles y, por supuesto, de la escala conceptual del análisis que se
realizará en cada caso. El desafío de todos estudio basado en teledetección es que
la escala (la resolución y la extensión, ver capítulo 2) de la observación con la de los
procesos a observar.

La resolución espacial de la información que provee un sensor es una medida


del objeto de menor tamaño que puede percibirse, y por tanto definirá la
posibilidad de discernir objetos o detalles de un determinado tamaño en las
imágenes captadas. En el caso de la percepción remota esta resolución está
asociada al concepto de Píxel (Picture X Element) que es la unidad mínima de
observación en una imagen. Un píxel es la porción de terreno que observa el
radiómetro en función de la altura del sensor con respecto a la Tierra, del ángulo de
visión, de la velocidad de escaneado y de las características ópticas del sensor. La
resolución espacial es una dimensión que define la escala. Esta última representa la
dimensión espacial en la que se puede reconocer un proceso y está asociada con
dos conceptos: uno es la definición del grano y la extensión y el otro la escala
cartográfica. El grano está determinado por el tamaño de la unidad de muestreo, en
el caso de una imagen el pixel. La extensión puede entenderse como la amplitud del
universo de observación, tanto espacial como temporal. La escala cartográfica, por
su parte, es la distancia en un mapa respecto de la distancia en el terreno de esos
mismos atributos (capítulo 2). Los sistemas de observación tienen distintas
resoluciones espaciales, por ejemplo el Aster (15 x 15m), el Landsat TM (30 x 30m) o
el NOAA AVHRR (1000 x 1000 m). Puede ocurrir que las distintas bandas de un
mismo sensor operen con diferentes resoluciones espaciales en función de las
aplicaciones para las que se utilice la información registrada en cada banda. Por
ejemplo el sensor a bordo del sensor Landsat TM, tiene una resolución espacial de
30 metros x 30 metros en las bandas 1, 2, 3, 4, 5 y 7 y de 120 metros x 120 metros
en la banda 6.

58
Existen dos dimensiones asociadas a la resolución espectral. Una de ellas, es
el intervalo de longitudes de onda del espectro electromagnético que puede
registrar un sensor. La otra, es el número de porciones del espectro que puede
registrar el conjunto de sensores que forma parte del sistema. Los sensores pueden
clasificarse como monoespectrales si poseen una sola banda, multiespectrales
cuando poseen de dos a varias bandas o hiperespectrales cuando son capaces de
obtener información simultánea de cientos de bandas con un ancho de banda muy
estrecho (unos pocos nm) para poder separar de forma precisa distintos objetos por
su comportamiento espectral. En la figura 4.5 puede observarse los anchos de
longitudes de onda y la resolución espacial que registran los sensores de los
satélites Landsat y SPOT.

Figura 4.1 Campo de visión del instrumento o Field of View (FOV). El FOV determina,
junto con la altura de la órbita, la superficie observada por el sensor o campo de
visión instantáneo o Instantaneous Field of View (IFOV).

Figura 4.2 Diagrama esquemático de los componentes de un radiómetro espectral,


consistiendo de un sistema óptico, una unidad de filtros, detectores, amplificador
de señal y unidad de registro.

Figura 4.3 Diagrama esquemático de un radiómetro de barrido (A) y un radiómetro


de empuje (B) (Sabins, Jr., F.F., Remote Sensing: Principles and Interpretation, 2nd
Ed., W.H. Freeman).

Figura 4.4 Esquemas de órbitas geosincrónicas (A), cuasi polares (B) y polares (C).
GNU free documentation license.

Figura 4.5 Resolución espectral y espacial de los sensores Landsat MSS, Landsat
TM, Landsat ETM, SPOT HRV, y SPOT HRVIR (Remote Sensing of the Environmet,
John Jensen, Keith C. Clarke Editor, 2000).

La resolución temporal es la periodicidad con la que el sensor adquiere


imágenes de la misma porción de la superficie terrestre, asociado al intervalo de
revisita del satélite. Esta resolución depende de las características orbitales de la
plataforma (altura, velocidad e inclinación) y del diseño del sensor (ángulo de
observación y ángulo de cobertura) (Chuvieco, 1996). La resolución temporal de los
productos no necesariamente coincide con la resolución temporal del sistema de
observación. Por ejemplo, el sensor MODIS, a bordo de las plataformas satelitales

59
AQUA y TERRA, registra información espectral de un mismo sitio de la superficie
terrestre cada 1-2 días dependiendo del sitio y la época del año. Para muchas
aplicaciones la presencia de nubes, por ejemplo, hace que no se disponga de datos
con una frecuencia diaria. A partir de varias imágenes diarias del sensor MODIS, y
mediante la aplicación de algoritmos específicos, pueden construirse compuestos
de determinados productos (por ejemplo el producto MOD13A1 provee
información de índices de vegetación cada 16 días - [Link]
.[Link]/content/view/full/6644). Estos compuestos surgen de seleccionar
mediante reglas que consideran distintos aspectos de la calidad de los datos
(presencia de nubes, ángulo de observación, contaminación atmosférica, etc.) los
mejores píxeles para un dado período (16 días en el ejemplo mencionado). El
producto resultante constará de píxeles provenientes de observaciones de distintos
días.

La resolución radiométrica está asociada a la sensibilidad del sensor, a la


capacidad para detectar variaciones en la radiancia espectral que recibe. A mayor
resolución radiométrica mejor interpretación de la imagen. La resolución
radiométrica se corresponde con el número de valores posibles que pueda asumir la
reflectancia en los valores de cada píxel de la imagen y se relaciona con el pasaje de
una señal analógica registrada por el sensor a valores digitales (números binarios).
Esto implica una discretización del registro. Una digitalización de los valores en un
número de un bit puede asumir sólo valores 0 ó 1. La capacidad de definir más
niveles aumenta exponencialmente con el número de bits del número. En general,
la resolución radiométrica es de 8 bits posibilitando 256 valores (de 0 a 255). Para
determinar el número posible de valores se calculan dos posibilidades (0 ó 1 en
código binario) elevado al número de bits (e.g. 8 bits = 1 byte = 28 = 256
combinaciones posibles de 0 y 1 tomados de a 8).

La resolución angular es el más moderno de los conceptos y el de menor


desarrollo en tecnología aeroespacial. Este concepto hace referencia a la capacidad
de algunos sensores de obtener información para un mismo sitio de la superficie
terrestre desde distintos ángulos de observación. Este tipo de información permite,
entre otras aplicaciones, la modelación de la reflectancia bidireccional. Entre las
plataformas satelitales con este potencial es posible mencionar el sensor ATSR-2
(Along Track Scanning Radiometer).

4.2.2 Algunos ejemplos de plataformas satelitales

[Link] Programa MODIS (Terra y Aqua)

60
Historia
El sensor MODIS (del inglés Moderate resolution Imaging
Spectroradiometer) es un radiómetro hiperespectral montado a bordo de los
satélites pertenecientes a las misiones espaciales Terra (EOS AM-1) y Aqua (EOS
PM-1). Estas misiones espaciales han sido desarrolladas por la NASA (National
Aeronautics and Space Administration) para su sistema global de observación de la
tierra EOS (Earth Observing System), con la colaboración de las agencias
aeroespaciales de Canadá y Japón. La plataforma Terra fue lanzada al espacio el 18
de Diciembre de 1999 y comenzó a registrar datos el 24 de Febrero de 2000. Por su
parte, la plataforma Aqua (llamada de ese modo por el registro de gran cantidad de
información referida al ciclo del agua en la Tierra), fue puesta en órbita el 4 de
Mayo del año 2002.

Estas plataformas incorporan en su carga útil, además del radiómetro


MODIS, una gran variedad de sensores (entre ellos ASTER- Advanced Spaceborne
Thermal Emission and Reflection Radiometer, CERES- Clouds and the Earth's Radiant
Energy System, MISR-, Multi-angle Imaging Spectro Radiometer, entre otros),
permitiendo complementar las observaciones de la superficie terrestre y generar
variables de interés ambiental útiles para el estudio de los procesos globales
relacionados con los cambios en la cobertura de nubes, el balance de radiación, el
ciclo del agua, y las propiedades de las superficies terrestres y oceánicas, y sus
efectos sobre los procesos de cambio climático. Gracias a su elevada resolución
temporal, las imágenes MODIS permiten complementar la información generada
por sensores de alta resolución espacial (como el ETM+ a bordo del satélite Landsat
7).

Características orbitales
Ambas plataformas, AQUA y TERRA, están situadas sobre una órbita
heliosincrónica a 705 kilómetros de altura. La plataforma Terra órbita alrededor de
la tierra de forma tal que durante su fase ascendente (viajando en dirección Sur -
Norte), cruza el Ecuador por la mañana, mientras que la plataforma AQUA cruza la
misma latitud durante la tarde en su trayecto descendente (viajando en dirección
Norte - Sur). Ambos satélites cubren la totalidad de la superficie terrestre con una
frecuencia de, al menos, dos días, aunque en muchas ocasiones la frecuencia es
diaria.

Características del sensor MODIS

61
Este instrumento, diseñado originalmente para una vida útil de 6 años, hace
posible la teledetección hiperespectral de la superficie, ya que es capaz de
discriminar 36 canales ubicados entre el dominio óptico y térmico del espectro
electromagnético (de 0,62 a 1,4 μm). Su resolución espacial varía en función del
canal del que se trate. Las dos primeras bandas, que cubren el rojo e infrarrojo
cercano (IRc) presentan una resolución espacial de 250 metros (canales 1 y 2), las 5
bandas siguientes, de 500 m, se ubican entre el visible y el IRc (canales 3 al 7), y las
restantes 29 bandas correspondientes al visible, infrarrojo cercano (IRc), medio
(IRm) y térmico (IRt) (canales 8 al 36) tienen una resolución espacial de 1 km (Tabla
4.1). Su altura orbital (705 km) y su amplio ángulo de barrido (± 55º) permiten
capturar escenas de 2.330 km de ancho.

Tabla 4.1 Rangos espectrales y resolución espacial de los canales del sensor MODIS.

Banda Longitud de onda Resolución espacial


(nm) (m)
1 620-670 250
2 841-876 250
3 459-479 500
4 545-565 500
5 1230-1250 500
6 1628-1652 500
7 2105-2155 500
8 405-420 1000
9 438-448 1000
10 483-493 1000
11 526-536 1000
12 546-556 1000
13 662-672 1000
14 673-683 1000
15 743-753 1000
16 862-877 1000
17 890-920 1000
18 931-941 1000
19 915-965 1000
20 3660-3840 1000
21 3929-3989 1000

62
22 3929-3989 1000
23 4020-4080 1000
24 4433-4498 1000
25 4.482-4.549 1000
26 1360-1390 1000
27 6535-6895 1000
28 7175-7475 1000
29 8400-8700 1000
30 9580-9880 1000
31 10780-11280 1000
32 11770-12270 1000
33 13185-13485 1000
34 13485-13785 1000
35 13785-14085 1000
36 14085-14385 1000

Productos
Varios productos estándar del sensor MODIS han sido desarrollados para su
uso por parte de científicos de todo el mundo avocados al estudio del medio
ambiente, los Recursos Naturales y los agroecosistemas, por nombrar algunos
ejemplos. El enorme interés que suscitan estos productos para la más diversa gama
de usuarios finales (científicos, ONGs, empresas privadas y públicas, organismos
públicos y privados) radica no sólo en su disponibilidad y accesibilidad libre y
gratuita sino también en la continuidad y confiabilidad de los productos generados
por parte de la comunidad mundial de usuarios. Es posible agrupar los productos
MODIS en los siguientes ítems (NASA 2001):

Variables asociadas Balance del Energía


I) Reflectancia de superficie (MOD09-MYD09): Reflectancias de superficie de
las bandas 1-7, a una resolución espacial variable entre 250 – 5600 m y
una resolución temporal diaria – 8 días.
II) Temperatura de superficie y emisividad (MOD11-MYD11): Temperatura de
superficie y emisividad a una resolución espacial entre 1000-5600 m y
una resolución temporal variable entre 5 minutos y mensual.
III) Reflectancia bidireccional (BDRF) y albedo (MCD43): Albedo y BDRF entre
500-5600 m en compuestos de 16 días

63
Variables asociadas al estudio de los Ecosistema
I) Índices de vegetación (MOD13-MYD13): Índices de vegetación a una
resolución espacial entre 250 y 5600 m compuestos cada 16 o 30 días.
II) Área Foliar (LAI) y Fracción de la Radiación Fotosintéticamente activa (FPAR)
(MOD15-MYD15): LAI y FPAR a una resolución espacial de 1000 metros,
compuestos cada 4 y 8 días.
III) Productividad primaria bruta (MOD17-MYD17): productividad primaria bruta
a una resolución espacial de 1000 metros, compuestos cada 8 días o
anualmente.
IV) Evapotranspiración (MOD16): evapotranspiración y flujo de calor latente a
una resolución espacial de 1000 metros, compuestos cada 8, 16 y 30
días.

Variables asociadas a los cambios en la cobertura del suelo


I) Anomalías de temperatura y Fuegos (MOD14-MYD14): Anomalías de
temperatura y detección de focos de calor a 1000 metros de resolución
espacial cada 5 minutos, diariamente o compuestos cada 8 días.
II) Cobertura del suelo (MOD12-MCD12): dinámica de la cobertura del suelo a
una resolución espacial entre 500 y 5600 metros compuestos
anualmente.
III) Cobertura vegetal y Cambios en la cobertura de vegetación (VCF y VCC)
(MOD44): Cobertura de vegetación (Vegetation Continous Field – VCF) a
una resolución espacial de 250 metros generados anualmente.

[Link] Programa LANDSAT

Historia y características de la misión


El programa Landsat suministra imágenes de alta resolución espacial en
forma continua desde 1972, generando la serie de datos multiespectrales de la
superficie terrestre más antigua y extensa disponible en la actualidad (40 años). En
el presente, el satélite LANDSAT es administrado por el Departamento de Recursos
Naturales de los Estados Unidos (U.S. Geological Survey-USGS) y la Administración
Espacial y Aeronáutica Nacional (NASA) del mismo país.

El primer satélite de la serie LANDSAT (Landsat-1) fue puesto en órbita en


Julio de 1972. Por primera vez, un sistema espacial había sido diseñado
exclusivamente para observar la superficie terrestre con fines civiles. Su misión era
proporcionar en forma repetida datos multiespectrales de alta resolución y de

64
carácter global con el objetivo de realizar el seguimiento y el estudio de los recursos
terrestre del Planeta.

Características orbitales
Las plataformas Landsat-5 y Landsat-7, los más actuales, fueron puestas en
órbita el 1 de marzo de 1984 y el 15 de abril de 1999, respectivamente, y presentan
características orbitales similares. Ambos se sitúan a una altura aproximada de 705
kilómetros y siguen una órbita cuasi polar descendente (en dirección N-S), con una
inclinación de 98.2 grados respecto del Ecuador. Con un período orbital de 99
minutos, realizan aproximadamente 14.5 órbitas diarias, cubriendo la totalidad de
la superficie terrestre (entre los 81° de latitud norte y sur) en 16 días
aproximadamente. Su órbita es además heliosincrónica, lo cual significa que
siempre cruzan la línea del Ecuador entre las 10:00 y las 10:15 horas (hora local).

Es importante destacar que el satélite Terra presenta una configuración


orbital similar a la del Landsat-7, aunque con un espaciamiento de 15 minutos. Es
decir, mientras el cruce ecuatorial de la plataforma Landsat se registra entre 10:00 y
10:15 AM, el de la plataforma Terra ocurre a las 10:30 AM. De este modo, es posible
obtener una gran serie de datos espectrales a escala global y con diferente
resolución espacial (alta (30 m), media (250 m) y baja (1000 m)), adquiridos bajo
condiciones atmosféricas y de la cubierta terrestre casi idénticas.

A lo largo de cada órbita, los sensores montados en la plataforma observan


una franja superficial de 185 km de ancho. La cobertura superficial de pasajes
adyacentes, se superponen en un 7.3 % en el Ecuador. La superposición aumenta a
medida que nos acercamos hacia los Polos, debido al ancho fijo de cada órbita.

Instrumentos de observación
El Landsat-5 transporta dos instrumentos de observación, ambos
exploradores de barrido multiespectral, denominados MSS (del inglés Multispectral
Scanner) y TM (del inglés Thematic Mapper). Por su parte el Landsat-7, incorpora
sólo un instrumento en su carga útil, también un explorador de barrido
multiespectral, denominado ETM+ (del inglés Enhanced Thematic Mapper Plus).

MSS (Multispectral Scanner)


El sensor MSS ha estado presente desde los inicios del programa (a bordo de
las plataformas Landsat-1 a Landsat-5), siendo la serie de imágenes capturadas por
este sensor, la más extensa y la más utilizada hasta la actualidad. Sin embargo este
sensor ha dejado de funcionar en Agosto de 1995.

65
Este instrumento presentaba un ángulo de apertura de 11,56º, lo cual a una
altura orbital de 705 km permitía obtener escenas de aproximadamente 185 km de
ancho. Este sensor presentaba 6 detectores para cada una de las cuatro bandas
(canales) espectrales que era capaz de registrar:

Banda Banda espectral Resolución espacial


4 0.5-0.6 µm 79 m x 82 m
5 0.6-0.7 µm 79 m x 82 m
6 0.7-0.8 µm 79 m x 82 m
7 0.8-1-1 µm 79 m x 82 m

TM (Thematic Mapper)
Este sensor ha sido puesto en órbita a bordo de las plataformas 4 y 5 de la
familia Landsat. Ha sido diseñado, como su nombre lo indica, teniendo como
objetivo principal la cartografía temática, permitiendo la captura de imágenes de
alta resolución espacial (IFOV de 30 m2), separación espectral aguda (7 bandas), alta
fidelidad geométrica y mayor precisión radiométrica (8 bits) que el sensor MSS.
Además de su mayor resolución espectral (número y ancho de bandas) respecto del
sensor MSS, su mejora consistió en la incorporación de un canal de registro en el
infrarrojo medio (IRm), lo cual le da utilidad en aplicaciones geológicas. En
comparación al sensor MSS, el TM presenta 16 detectores por banda, excepto en la
banda térmica para la cual solo requiere 4 detectores debido a su menor resolución
espacial (120 m):

Banda Banda espectral Resolución espacial


1 0.45-0.52 µm 30 m x 30 m
2 0.52-0.60 µm 30 m x 30 m
3 0.63-0.69 µm 30 m x 30 m
4 0.76-0.90 µm 30 m x 30 m
5 1.55-1.75 µm 30 m x 30 m
6 10.4-12.5 µm 120 x 120 m
7 2.08-2.35 µm 30 m x 30 m

ETM+ (Enhanced Thematic Mapper Plus)


Este último instrumento incorpora mejoras técnicas destacables respecto de
sus antecesores, aunque su diseño se encuentra más relacionado con el sensor
ETM, perdido luego del fracaso del lanzamiento del satélite Landsat-6. Dichas
mejoras se refieren a la incorporación de una banda pancromática de alta
resolución espacial (15 m), la mejora en la resolución espacial del canal térmico

66
(banda 6), dos niveles de ganancia para el canal 6 (alto y bajo 6L y 6H), el
perfeccionamiento de su sistema de calibración radiométrica, y la mejora en las
características geométricas de las imágenes “crudas”:

Banda Banda espectral Resolución espacial


1 0.45 - 0.515 µm 30 m x 30 m
2 0.525 - 0.605 30 m x 30 m
3 0.63 - 0.69 µm 30 m x 30 m
4 0.75 - 0.90 µm 30 m x 30 m
5 1.55 - 1.75 µm 30 m x 30 m
6 10.4 - 12.5 µm 60 m x 60 m
7 2.09 - 2.35 µm 30 m x 30 m
PAN 0.50 - 0.90 µm 15 m x 15 m

Productos
En la actualidad gran parte de los productos LANDSAT están disponibles de
manera libre y gratuita en la base de imágenes de la USGS: [Link]

[Link] Programa NOAA

Historia y características de la misión


Los satélites de la serie NOAA (National Oceanic and Atmospheric
Administration) forman actualmente parte del proyecto POES (Polar Operational
Environmental Satellites) llevado adelante por la NASA en cooperación con la
agencia estadounidense, el Reino Unido (UK) y Francia.

El objetivo inicial de estos satélites meteorológicos de órbita polar fue


garantizar la adquisición de información acerca del estado actual de la atmósfera a
largo plazo, con el propósito de realizar análisis del clima y pronósticos del tiempo.
La primera generación de estos satélites, llamada TIROS (Television Infrared
Observation Satellites) se inició en el año 1960 con el lanzamiento de la plataforma
TIROS-1. El éxito del programa TIROS condujo al desarrollo de una segunda
generación de satélites, conocida como ITOS (Improved TIROS Operational System).
El primer satélite de esta nueva serie fue puesto en órbita en el año 1970, y durante
los seis años siguientes lo prosiguieron las plataformas NOAA-1 a NOAA-5. Con esta
serie se mejoraba la capacidad operativa y la calidad de la información adquirida. En
el año 1978, se pone en órbita el satélite TIROS-N, representando el inicio de la
tercera generación de esta familia de satélites, conocida como TIROS-N (TIROS Next

67
Generation). Algunas de las novedades de éstos últimos se refieren a la
incorporación de nuevos instrumentos en su carga útil. Quizás el más interesante de
estos sensores es el denominado AVHRR (Advanced Very High Resolution
Radiometer), un sensor multiespectral diseñado para proporcionar imágenes de
mayor resolución en el nadir (1.1 km), en cinco bandas o canales del espectro. Este
nuevo sensor le confirió al programa interesantes capacidades de aplicación tanto
climáticas y oceanográficas como terrestres. Finalmente, la serie TIROS-N conduce
al desarrollo de la última generación de satélites de este programa, presente hasta
la actualidad, conocida como ATN (Advanced TIROS-N), que se inicia con el
lanzamiento de la plataforma NOAA-8.

Es así como desde el primer satélite de la serie TIROS-N, hasta el último de la


serie Advance TIROS-N (ATN), lanzado en el año 2005, todos los satélites de esta
familia llevan en su carga útil el sensor AVHRR. Esta larga historia del sensor AVHRR
permite disponer de una de las series de información satelital más larga que existe
en la actualidad de baja resolución espacial, suministrando información diaria para
todo el globo, con una resolución espacial variable (Kidwell 1991). Considerando
que esta familia de satélites tuvo como objetivo principal, la obtención de
información meteorológica, su baja resolución espacial ha sido una consecuencia
directa de su corto ciclo de cobertura (aproximadamente 12 horas). Sin embargo,
gracias a la gran solidez en la serie de datos disponibles (satélites operativos desde
la década de 1970), permite monitorear en forma diaria y a escala global el estado
de la vegetación, posibilitando el estudio de fenómenos dinámicos en el campo de
las ciencias terrestres (principalmente ciencias biológicas y agronómicas). Los
satélites NOAA se identifican secuencialmente según su orden de aparición,
seguidos por una letra y un número, antes y después de su lanzamiento,
respectivamente. Así por ejemplo, los satélites llamados NOAA-K y NOAA-L, pasaron
a llamarse NOAA-15 y NOAA-16 una vez puestos en órbita.

Características orbitales
Los satélites NOAA orbitan en forma heliosincrónica a una altura que varía
entre los 833 y 870 km. Ello le permite cubrir un área aproximada de 2.920 km de
lado en una pasada. Cada satélite completa su trayecto orbital en aproximadamente
102 minutos; es decir 14.1 veces por día, siendo el período de revisita de 12 hs.
Gracias a la sincronización de las orbitas de dos satélites (uno par y uno impar) que
operan simultáneamente es posible obtener una resolución temporal de 6 hs. Los
satélites pares cubren las orbitas nocturnas mientras que los impares cubren las
diurnas, de modo de asegurar la observación continua de la tierra. Inicialmente los
satélites pares cruzaban el Ecuador a las 2.30 a.m. y 2.30 p.m. mientras que los

68
impares lo hacían a las 7.30 a.m. y a las 7.30 p.m. Sin embargo, debido a problemas
tales como la degradación de las órbitas desde el lanzamiento y otros ocurridos
durante el lanzamiento de algunos satélites, dichos horarios se ven levemente
modificados.

Sensor AVHRR
El sensor AVHRR inicialmente fue diseñado con el objeto de proporcionar
información sobre el estado actual de la atmósfera (aplicaciones meteorológicas).
Sin embargo, posteriormente se encontraron numerosas aplicaciones en el campo
de la observación terrestre y particularmente en el seguimiento y estudio de los
recursos naturales. Específicamente, se trata de un radiómetro de barrido multi-
espectral que permite registrar la radiación solar reflejada por la superficie terrestre
y la energía térmica radiada desde la tierra. Para ello, cuenta con cinco sensores de
adquisición de datos, correspondientes a distintas regiones del espectro (Rojo,
Infrarrojo cercano, Infrarrojo medio y dos bandas en el Infrarrojo térmico) (capítulo
1).

Debido a su gran aplicabilidad, el radiómetro AVHRR ha sido sometido a


mejoras constantes desde su incorporación en el TIROS-N en 1978, pudiéndose
diferenciar tres generaciones de este sensor: el AVHRR/1 (presente en NOAA-6,
NOAA-8 y NOAA-10) con cuatro canales, el AVHRR/2 (presente en NOAA-7, 9, 11, 12
y14) con cinco canales y el AVHRR/3 (NOAA-15, 16, 17 y 18) con seis. El último de
estos sensores (AVHRR/3) sólo es capaz de transmitir cinco canales en forma
simultánea, por ello los 3a y 3b operan durante el día y la noche, respectivamente.

Con un IFOV de 1.3 miliradianes, el instrumento proporciona imágenes con


una resolución espacial de 1.1 km en el nadir. Un amplio ángulo de apertura focal (±
55.4º) le permite cubrir un ancho de 2.920 km sobre cada órbita, lo cual implica
serios problemas geométricos y radiométricos en las imágenes obtenidas cuando
nos alejamos del nadir. Esto último hace necesario llevar adelante laboriosas tareas
de corrección geométricas y radiométricas, sumadas a las atmosféricas, durante el
preprocesamiento (capítulo 6). Además, es necesario considerar los errores
sistemáticos generados como consecuencia de la degradación de las órbitas desde
el momento de su lanzamiento (Price 1999). Ello provoca cambios en las
condiciones de iluminación y en la hora local del pasaje sobre una región geográfica
determinada. Esto genera la necesidad de homogeneizar las series temporales al
momento de realizar análisis de datos multitemporales (Chuvieco, 2002).

69
Como resultado de estas limitaciones, numerosas series con distinto grado
de procesamiento han sido generadas por diferentes grupos y organismos de
investigación. Existen varios productos con distinto grado de elaboración
provenientes de los sensores AVHRR. Estos productos se pueden dividir en aquellos
que mantienen la información en el formato original, y los que reciben distinto
grado de procesamiento (correcciones geométricas, radiométricas, atmosféricas).

Estos productos se denominan, a saber:


Información original
1. HRPT (High Resolution Picture Transmission)
2. LAC, Área de cobertura local (Local Area Coverage)
3. GAC, Área de cobertura global (Global Area Coverage)
4. APT (Automatic Picture Transmission)

Series producidas
5. PAL (Pathfinder AVHRR Land), series I y II
6. G1KA (Global 1-km AVHRR)
7. LASUR, Reflectancias superficiales (Land Surface Reflectances)
8. GVI, Índice de vegetación global (Global Vegetation Index)
9. GIMMS, Modelado del inventario global y estudios de mapeamiento (Global
Inventory Modeling and Mapping Studies)
10. FASIR, Ajustes de Fourier, corrección del ángulo cenital solar y reconstrucción
por interpolación (Fourier-Adjustment, Solar zenith angle corrected, Interpolated
Reconstructed)
11. LTDR (Land Long Term Data Record)

Las principales características de los productos


1. HRPT (High Resolution Picture Transmission): Imágenes en “bruto” recibidas en
tiempo real por las estaciones terrestres receptoras. Se dispone sólo de imágenes
de extensión variable pero de carácter global, con una resolución espacial de 1.1 x
1.1 km2. Fuente, [Link]
guide/ncdc/docs/klm/html/c4/[Link]
2. LAC, Área de Cobertura Local (Local Area Coverage). Se trata también de
imágenes de alta resolución temporal al igual que las HRPT, su diferencia radica en
que a diferencia de las anteriores, estas son almacenadas a bordo y transmitidas a
la estación receptora durante el pasaje por su área de cobertura
([Link]
3. GAC, Área de Cobertura Global (Global Area Coverage). Se trata de un producto
generado a bordo a partir de un remuestreo de los datos LAC. Se obtienen así,

70
imágenes de menor resolución espacial (4 km2) para toda la tierra
([Link] /klm/html/c4/[Link]).
4. APT (Automatic Picture Transmission). Este formato ha sido especialmente
diseñado para la transmisión de datos analógicos a estaciones de bajo costo. Esta
información es derivada de las imágenes HRPT a resolución media. Cualquiera de
los canales del sensor AVHRR, pueden ser seleccionados y procesados como “Video
A” o “Video B”. Un canal visible (VIS) puede utilizarse para entregar información
durante el día y un canal infrarrojo (IR) puede usarse constantemente (día y noche).
Un segundo canal infrarrojo puede ser reasignado para reemplazar el canal visible
durante las porciones nocturnas de la órbita
([Link]
5. PAL (Pathfinder AVHRR Land), series I y II (James and Kalluri 1994; Saleous et al.
2000; Ouaidrari et al. 2003): Las dos series PAL provienen de las imágenes LAC y
GAC, y recibieron entre otros tratamientos, corrección por Rayleigh, corrección por
vapor de agua y ozono, máscara de nubes, selección de píxeles con valores
máximos, etc. El objetivo de las series ha sido multipropósito, obteniéndose
diferentes productos, entre ellos, reflectancia superficial, temperatura de brillo,
Índice de Vegetación Normalizado y fuegos activos (sólo en la serie II). Esta
información no se encuentra actualmente disponible (http://
[Link]/TG/RS/[Link]).
6. G1KA, (Global 1-km AVHRR) (Teillet et al. 2000): Información global de 1 km de
resolución espacial y 10 días de resolución temporal generada para los períodos
01/04/1992 a 30/09/1993 y 01/02/1995 a 31/12/1995. El objetivo de las series ha
sido multipropósito ([Link]
7. LASUR, Reflectancias superficiales (Land SUrface Reflectances) (Berthelot et al.
1996). Compuestos semanales de 16 km de resolución espacial. El objetivo de la
serie ha sido generar un producto que permita evaluar los cambios en la dinámica
de carbono a escala global.
8. GVI, Índice de vegetación global (Global Vegetation Index). Información global de
15-20 km de resolución espacial y de resolución temporal diaria o semanal
([Link]

A continuación se describen las dos series que incorporan más correcciones


radiométricas y atmosféricas, las cuáles actualmente se encuentran disponibles
para uso académico.

9. GIMMS, Modelado del inventario global y estudios de mapeamiento (Global


Inventory Modeling and Mapping Studies) (Tucker et al. 2003; Los et al. 1994; Los et
al. 2000; Tucker et al. 2005). Esta serie presenta una medida global del IVN para el

71
periodo 1981 a 2003. Entre sus correcciones relativas a la geometría del sensor, la
presencia de aerosoles volcánicos, y otros efectos no relacionados con el cambio de
la vegetación actual. La resolución espacial es de 8 km por píxel y la temporal es de
15 días. Objetivo de la serie: multipropósito ([Link]/data/gimms/).
10. FASIR, Ajustes de Fourier, corrección del ángulo cenital solar y reconstrucción
por interpolación (Fourier-Adjustment, Solar zenith angle corrected, Interpolated
Reconstructed). Esta serie se encuentra corregida entre otras, por las variaciones en
el sensor, aerosoles volcánicos, contaminación por nubes, vapor de agua,
variaciones en el ángulo solar, etc. El producto (IVN) es mensual y con una
resolución espacial de 1º. La serie se encuentra disponible para el período 1982-
1998. Cualquier cambio detectado en la serie GIMMS, pero no detectado en la
FASIR se debería a artefactos (errores) de la primera (Slayback et al. 2003). Objetivo
de la serie: modelos globales de circulación (http: //ignis. [Link]. uk). Baldi et
al. (2009) y Alcaraz-Segura et al. (2010) compararon algunos de estos productos en
cuanto a su capacidad de detectar cambios ecosistémicos.

[Link] Programa SPOT

Historia y características de la misión


El programa espacial civil SPOT (Systeme Pour l’ Observation de la Terre) se
origina dentro del marco de estudios desarrollado por el sistema de observación de
la Tierra, por iniciativa del Centro Nacional de Estudios Espaciales de Francia (CNES,
Centre National d’Etudes Spatiales), en colaboración con Bélgica y Suecia. Este
programa ha tenido como objetivos principales, la exploración de los recursos
terrestres, la detección y el pronóstico de fenómenos climatológicos y
oceanográficos, y el monitoreo de actividades humanas y de fenómenos biológicos,
entre otros.

El primer satélite de esta serie fue lanzado al espacio el 21 de Febrero de


1986. Desde entonces el CNES ha puesto en órbita otros 4 satélites en 1990, 1993,
1998 y 2002. De los cinco satélites que forman parte de esta familia, actualmente
sólo 3 se mantienen operativos, ellos son SPOT-2, SPOT-4 y SPOT-5. El SPOT-1 y
SPOT-3 han sido puestos fuera de servicio en 2003 y 1996, respectivamente. El
primero debido a su gradual pérdida de altura, y el segundo como consecuencia de
una falla en su sistema de estabilización.

Características orbitales
Todos los satélites de la familia SPOT presentan similares características
orbitales: se sitúan a una altura de 832 km, con una inclinación de 98.2º y un

72
período orbital de 101 minutos. Su órbita es heliosincrónica, completando un ciclo
cada 26 días.

Sensores

SPOT-1, 2 y 3
Las plataformas SPOT-1, 2 y 3 incorporan cada una dos sensores idénticos
llamados HRV (High Resolution Visible). Se trata de un sensor óptico electrónico de
exploración por empuje, capaz de operar en dos modalidades: un modo
pancromático, que permite obtener imágenes sobre un canal que se extiende a lo
largo de todo el rango visible del espectro (similar a las típicas fotografías en blanco
y negro) y un modo multiespectral con tres canales relativamente estrechos,
correspondientes a las regiones del verde, rojo e infrarrojo cercano (IRc) del
espectro. La resolución espacial es de 10 y 20 m, correspondientes al primer y
segundo modo, respectivamente. Cada sensor presenta un ancho de barrido de 60
km en el nadir, con una superposición de 3 km entre las escenas tomadas en
simultáneo por ambos sensores. Por lo tanto, es posible adquirir datos de un área
de 117 km de lado para cada órbita que recorre el satélite. Sin embargo, también
existe la posibilidad de alejar del nadir el ángulo de visión de estos sensores, en
forma selectiva desde la estación terrestre. De este modo, es posible realizar una
observación no vertical de cualquier región de interés, apartándose hasta 27º a
ambos lados del nadir. Esto facilita la observación de una misma área en órbitas
sucesivas, reduciendo el período de revisita de 26 a 3 o 2 días (según la latitud de la
que se trate), cuando fuera necesario. Gracias a esta posibilidad, el HRV es capaz de
adquirir pares de imágenes estereoscópicas de un área determinada, otorgándole
una utilidad en el área de la topografía, a través por ejemplo de la realización de
Modelos Digitales de Elevación (DEM, Digital Elevator Models), de hasta 1:50.000
(Toutin y Beaudoin, 1995).

SPOT 4 y 5
El lanzamiento de la plataforma SPOT-4 en 1998 supone varias mejoras en el
conjunto de los instrumentos de percepción remota. Por un lado, el sensor HRV fue
reemplazado por una versión mejorada, pasando a denominarse HRVIR. Este nuevo
sensor presenta como novedad la incorporación de un canal adicional ubicado en la
región IRc del espectro (1.58 µm – 1.75 µm). En este caso, es posible orientar ambos
sensores en forma independiente, siendo posible el registro simultáneo de
imágenes oblicuas y verticales durante el mismo pasaje. Este nuevo instrumento
presenta además mayor autonomía.

73
[Link] Programa SAC

La Comisión Nacional de Actividades Espaciales (CONAE) de la Argentina, en


colaboración con las agencias espaciales de Estados Unidos (NASA), Francia (CNES),
Brasil, Dinamarca e Italia, han desarrollado el programa espacial SAC (Satélites de
Aplicaciones Científicas). La historia del programa SAC se inicia en Diciembre de
1998 cuando se puso en órbita la plataforma SAC-A, el segundo satélite
desarrollado en la Argentina por el INVAP (Sociedad del Estado Argentino). Se trató
de una misión “piloto” que sirvió para poner a prueba los sistemas ópticos, de
energía, de navegación, de transmisión de datos y control terrestre de las futuras
plataformas SAC. El tercer satélite de la serie, el SAC-C, aún se encuentra en
funcionamiento superado ampliamente su expectativa de vida útil desde su
lanzamiento en Noviembre de 2000. Esta plataforma si bien es la tercera de la serie,
fue la primera en llevar en su carga útil instrumentos dedicados a la observación
terrestre. Si bien 11 instrumentos están montados en este satélite, sólo 3 forman
parte del grupo de sensores radiométricos destinados a la observación de la Tierra y
el estudio de los ecosistemas terrestres y marinos. Se trata de tres cámaras o
sensores radiométricos que registran la energía reflejada y/o emitida por la
superficie terrestre en distintas regiones del espectro electromagnético. El éxito del
SAC-C impulsó el desarrollo de una nueva misión espacial llamada SAC-D, el cual se
encuentra actualmente en órbita.

La plataforma SAC-D, también conocida como Aquarius por su principal


instrumento, fue lanzado al espacio el 10 de Junio de 2011. El SAC-D orbita
alrededor de la Tierra en forma polar heliosincrónica a 657 km de distancia y con
una inclinación de 98 grados respecto al Ecuador. Esta configuración le permite
obtener una cobertura global cada 7 días. Orientada al estudio del clima y los
océanos, esta plataforma transporta el novedoso sensor de microondas
desarrollado por la NASA (Aquarius) capaz de mapear a escala global propiedades
de las superficies marinas y oceánicas, tales como salinidad y rugosidad de su
oleaje. Su carga útil incluye además otros 6 instrumentos y un paquete de
demostración tecnológica (TDP). Entre los instrumentos se encuentran el
radiómetro de microondas MWR que permite determinar la velocidad del viento,
las precipitaciones, el contenido de vapor de agua y agua precipitable en la
atmósfera, y la presencia de hielo marino; la cámara infrarroja NIRST orientada al
monitoreo de focos de alta temperatura y la determinación de la temperatura
superficial del mar; y una sonda de radio-ocultación de la atmósfera llamada ROSA,
cuya aplicación principal es la determinación de perfiles atmosféricos de
temperatura, presión y humedad. Asimismo, la plataforma SAC-D cuenta con una

74
cámara de alta sensibilidad (HSC), un sistema de colección de datos trasmitidos
desde estaciones automáticas terrestres de monitoreo ambiental (DCS) y detectores
de radiación cósmica (CARMEN I). Información obtenida de
[Link] y [Link]

75
Capítulo 7- Clasificación de datos espectrales

José Paruelo

7.1 El proceso de clasificación


La acción de clasificar es una parte central de muchas facetas de nuestras
vidas (Bailey, 1994). En distintos aspectos de nuestra vida ordenamos o disponemos
en clases "cosas" en base a una serie de características. Esas “cosas” o entidades
pueden ser muy diferentes, desde tornillos a amistades. La asignación a una
categoría u otra (tornillos cortos o largos, amistades de la infancia o del trabajo) se
basa en características o atributos de esas cosas o entidades. Con frecuencia
llevamos a cabo este proceso sin demasiada reflexión. En esos casos, las entidades
son asignadas a las clases sin hacer explícitas ni enumerar las características en las
cuales nos basamos o si lo hacemos sin definir el nivel o valor de éstas a partir del
cual pertenecen a una clase u otra. En otras identificamos claramente el tipo de
entidad a clasificar (solo tornillos, no clavos ni bulones), definimos los criterios en
los que nos basaremos (largo y tipo de cabeza de los tornillos) y los límites a partir
de los cuales una entidad pertenece a una clase u otra.

El proceso de clasificación busca, de manera consciente o no, ordenar la


heterogeneidad con la que tenemos que tratar. Las clases agrupan entidades
parecidas entre sí, o sea se busca aumentar la homogeneidad dentro de ellas y
aumentar la heterogeneidad entre clases; tratando de que los grupos conformados
sean lo más distintos posible entre ellos. Las clasificaciones nos ayudan a reducir la
complejidad de un conjunto de datos en donde las entidades están definidas por
múltiples atributos. Esto nos permite explorar las similitudes y diferencias entre
entidades y a establecer relaciones, interacciones y tipologías entre ellas.

La taxonomía (del griego ταξις, taxis, "ordenamiento", y νομος, nomos,


"norma" o "regla") es la ciencia de la clasificación en general (Simpson, 1961). Sin
embargo, con mucha frecuencia se asocia sólo a la taxonomía biológica, o sea a la
ciencia de ordenar a los organismos en un sistema de clasificación compuesto por
una jerarquía de taxones anidados. La taxonomía biológica es un ejemplo de un
sistema de clasificación exitoso, ampliamente difundido y aceptado. Como todo
sistema de clasificación, se basa en una serie de reglas y convenciones arbitrarias
pero aceptadas ¿Por qué se aceptan estas convenciones? Básicamente, porque nos
ayudan a ordenar el mundo exterior y a tratar con él. Poder asignar a una categoría
(especie) una dada entidad (un individuo de una planta o un trozo de un hongo) en

111
base a una serie de características (caracteres diagnóstico) es muy útil para tomar
muchas decisiones, por ejemplo si es comestible o no.

En el caso de la taxonomía hablamos de un sistema de clasificación que tiene


base científica porque está basado en observaciones sistemáticas y ordenadas, ha
sido sometido al escrutinio crítico de pares que conocen del tema y evaluado a nivel
de sus predicciones (“si uso estos caracteres diagnóstico, puedo separar un hongo
venenoso de otro que no lo es”). Más allá de su valor, ésta y todas las clasificaciones
son construcciones humanas arbitrarias que buscan encontrar discontinuidades en
la naturaleza. En ocasiones las discontinuidades resultan más o menos claras y
fáciles de percibir y cuantificar y en otras las características de diagnóstico varían de
manera gradual entre extremos. A la hora de clasificar plantas, algunas
características tienen una variación discreta (frutos de un tipo u otro) mientras que
otras varían de manera continua (e.g. la altura o la concentración de un dado
pigmento).

El proceso de clasificación puede ser trivial cuando la cantidad de entidades


es pequeño (una decena de tornillos) y las características a considerar sólo dos o
tres (el largo y el tipo de cabeza). Frecuentemente nos encontramos con situaciones
en donde hay miles o aún millones de entidades y decenas o centenas de atributos.
Se manejan entonces un conjunto de datos en donde cada entidad es descripta por
muchas variables que representan distintas características. Se trata de datos
“multivariados”. En estos casos recurrimos a técnicas estadísticas para identificar
cuáles son las características más útiles para asignar entidades a distintas clases
(variables diagnóstico) y para definir los valores a partir de los cuales una entidad
pertenece a una u otra clase. El proceso de clasificación puede ser visto en términos
estadísticos como un proceso en el cual, minimizamos la varianza dentro de las
clases o grupos y maximizamos la varianza entre grupos. Las técnicas estadísticas de
clasificación son un tipo especial de análisis multivariados, en donde cada entidad
está caracterizada por dos o más atributos o características.

El uso de técnicas estadísticas genera un camino objetivo para definir las


clases. La aplicación del mismo protocolo de análisis dará lugar a las mismas clases.
Sin embargo, un proceso de clasificación de un conjunto de entidades, tiene un
componente subjetivo asociado, por ejemplo, a la elección de los atributos a partir
de los cuales se agrupa. En el ejemplo anterior las entidades (tornillos) pueden ser
asignadas a grupos totalmente distintos si en lugar de largo y tipo de cabeza usamos
como atributos o características para realizar la clasificación el material y el espesor.
¿Cuál de las dos clasificaciones es mejor? Es difícil de decir a priori ya que eso

112
depende del aspecto de la heterogeneidad que se quiera entender. En última
instancia la calidad de la clasificación dependerá de la utilidad que brinda.

7.2 Tipos de clasificaciones


Cuando buscamos asignar entidades (especies, individuos, tornillos, etc.) a
clases nos podemos enfrentar con dos situaciones: la primera corresponde a
situaciones en donde tenemos una definición a priori de las clases y conocemos
casos (entidades) que corresponden a esas clases. El problema en estos casos pasa a
ser la identificación de cuales variables o características y el rango de valores que
deben usarse para asignar nuevas entidades a las clases. Para llevar adelante este
proceso tenemos que entrenar al sistema (generar un algoritmo) presentándole
casos (entidades) en donde se conoce la clase a la que pertenecen y se han medido
todas las características que se van a considerar. El algoritmo permitirá ubicar las
variables más importantes y el rango de valores de cada una de ellas para asignar la
entidad a una de las clases. Se denomina a este tipo de clasificaciones
“supervisadas”. En la segunda situación no se conoce cuál es la manera en que las
entidades se agrupan, ni siquiera en cuantas clases. Es necesario encontrar la
manera en que esa población pueda ser dividida. Arbitrariamente se decide en
cuántas clases, generalmente en un número mayor para luego reagruparlas, y las
clases se asignan a cada de una de ellas buscando que el parecido de las entidades
de cada clase y la diferencia entre clases sea máxima. Este tipo de clasificaciones en
las cuales las clases se establecen en función de las similitudes y diferencias entre
los miembros de la población se denominan “no supervisadas”.

Una manera ligeramente distinta de ver estos dos tipos de clasificaciones


asimila la clasificación supervisada a una clasificación conceptual y la no-
supervisada a una empírica. En el primer caso existe un modelo conceptual claro de
cada una de las clases a definir y de su número. Podemos extender el concepto de
resolución discutido para las dimensiones espacial, temporal, radiométrica y
espectral al plano conceptual (capítulo 4).

La resolución conceptual entonces, queda definida a priori por el número de


clases, los atributos y los límites que las definen. En el caso de una clasificación
empírica, la estructura de los datos define el número de clases y de sus límites.
Ambos tipos de clasificaciones suelen combinarse. A partir de un modelo
conceptual (tipos de bosques) pueden buscarse los casos empíricos (rodales) que
corresponden a cada tipo. Los rodales identificados pueden llevar a modificar las
clases conceptuales. De manera análoga, una clasificación empírica nos puede llevar
por inducción a abstraer un modelo conceptual. Por ejemplo, al encontrar una serie

113
de similitudes entre entidades (rodales forestales) agrupadas en una misma clase
empírica abstraemos el concepto “bosque pluriespecífico caducifolio”. Estas
clasificaciones son definidas como “operacionales” (Bailey, 1984).

La definición de la resolución conceptual con la que se trabajará es


importante para optimizar el proceso de clasificación. Definir cuántas y cuáles clases
se busca representar (e.g. tres tipos de cultivos) permitirá definir mejor la
resolución.

7.3 La clasificación de imágenes de satélites


La clasificación de imágenes es uno de los procesos de tratamiento digital
más comúnmente aplicados a los datos espectrales para generar mapas temáticos
de alguna característica de la superficie. En clasificaciones de imágenes las
entidades a asignar a clases son, en general, píxeles, aunque en ocasiones pueden
clasificarse “objetos” (grupos de píxeles contiguos –e.g. un potrero). Esta asignación
ocurre, en general, en base a las características espectrales de cada píxel, es decir, a
partir de los valores de cuenta digital, radiancia o reflectancia de cada una de las
bandas que compone esa imagen. Cada píxel queda definido como un vector de
tantas dimensiones como bandas registró el sensor a partir del cual se generó la
imagen. Por ejemplo en el caso de una imagen Landsat TM las dimensiones
espectrales de cada píxel son siete (capítulo 4). La visualización de ese vector puede
realizarse de distintas maneras. Hasta ahora hemos representado los datos
espectrales como una imagen, como un espectro de reflectancia (se define así la
firma espectral de un píxel u objeto) (capítulo 1 y 6) y como un hipervolumen de
atributos. En este caso si las dimensiones de los datos son sólo dos, las entidades se
pueden representar en un plano (Figura 7.1).

Un proceso de clasificación puede incluir todas las bandas registradas por un


sensor o sólo alguna de ellas. En ocasiones la clasificación incluye bandas
adicionales sintéticas (e.g índices espectrales, capítulo 9) o información adicional
(e.g datos de un modelo digital de elevación del terreno). Pueden usarse bandas
registradas en una fecha o en varias (clasificaciones multitemporales). En general,
las clasificaciones tratan cada píxel u objeto de manera independiente pero en
ocasiones pueden hacer uso del contexto (los valores de los píxeles contiguos). Lu y
Weng, (2007) presentan una exhaustiva revisión de los distintos tipos de
clasificación de imágenes provistas por satélites.

En todo proceso de clasificación podemos reconocer tres etapas:


entrenamiento, reglas de decisión y evaluación. En primer lugar identificamos una

114
fase de entrenamiento en donde se identifican los criterios a partir de los cuales se
definirán las clases. Estos criterios pueden basarse solo en el uso de los atributos de
las entidades o incorporar información adicional. El resultado de esta fase es
construcción de firmas espectrales. Las firmas espectrales resumen el
comportamiento promedio de los píxeles de una clase en cada una de las bandas o
atributos analizados. Una segunda fase incluye la definición de reglas de asignación
de entidades a las clases (reglas de decisión). En ocasiones la fase de entrenamiento
y la asignación de píxeles son parte de un mismo algoritmo (ver clasificaciones no-
supervisadas) y en otras se diferencian claramente. La evaluación de la clasificación
(mal llamada “validación”) apunta a evaluar (cuali o cuantitativamente) la capacidad
predictiva del producto.

La asignación de píxeles a dos clases distintas (e.g. suelo desnudo o un


cultivo) se basa en diferencias en el valor de algún atributo. Cada píxel es
caracterizado por n dimensiones (bandas). En algunas de esas dimensiones muchos
píxeles presentaran valores similares. Sin embargo, en otras se diferenciaron. Esto
le da particular relevancia a disponer, en un proceso de clasificación, de información
correspondiente a distintas porciones del espectro o sea al uso de información
multiespectral (capítulo 4). Considerando el caso más sencillo, solo dos bandas, el
proceso de clasificación consiste en identificar límites entre los píxeles en el plano
definidos por las dos dimensiones (Figura 7.1). Esta manera de representar los datos
(en el espacio de atributos) nos permite identificar relaciones y límites entre
entidades individuales o grupos de ellas (píxeles en nuestro caso).

7.3.1 Clasificaciones no supervisadas


En este caso las clases son definidas considerando la similitud entre
entidades (píxeles u objetos). Esta similitud se mide a partir de los valores de las
bandas (atributos) que se consideran. Volviendo al gráfico de atributos de la Figura
7.1, es posible observar dos grupos claramente definidos. La distancia (d) entre
píxeles dentro del grupo 1 es menor a la distancia con cualquiera de los píxeles que
pertenecen al grupo 2.

Cuando el número de atributos/bandas es superior a dos o tres la


representación no es sencilla. En estos casos los límites de las clases se definen a
partir de un algoritmo que busca, minimizar las diferencias en los valores de los
atributos de los píxeles dentro de una clase y maximizar las diferencias del
promedio de los atributos de una clase con las del resto. Por estar basada en datos
espectrales, llamamos a la diferencia en los valores de los atributos entre píxeles o
entre clases (grupo de píxeles) distancia espectral (d). Si bien hay muchas maneras

115
de calcular la similitud espectral de dos píxeles (a y b), una medida muy usada es la
distancia euclideana.

d ab = SQR (SUM 1, n (ai-bi) 2

Si la cantidad de bandas (n) es igual a 2, como en la figura 7.1, la fórmula no


es más que el teorema de Pitágoras.

Uno de los algoritmos que se utilizan para realizar este tipo de clasificaciones es el
ISODATA (Acrónimo de Iterative Self Organizing Data Analysis Technique) (Tou y
González, 1974). Este método usa las distancias espectrales a través de un método
secuencial para iterativamente, clasificar los píxeles. Los agrupamientos resultantes
son evaluados en términos de su similitud y en base a esto se redefine el criterio
para cada clase y se clasifica nuevamente. Considerando nuevamente el ejemplo de
la figura 7.1, el método ISODATA toma el conjunto de puntos y define a partir de los
valores medios y de la varianza total, centroides o medias para la cantidad de
grupos que el operador hubiera indicado (Figura 7.2). En el comienzo los centroides
o medias están distribuidos regularmente en torno de la media general. Para cada
uno de los píxeles, el algoritmo calculará la distancia espectral a cada centroide y
asignará el píxel al grupo cuyo centroide este más próximo. Una vez cumplida la
primera iteración se recalcularán los centroides del grupo como el promedio de los
píxeles incluidos en cada clase. En la siguiente iteración se calculará la distancia
espectral de cada píxel al nuevo centroide y se reasignarán algunos píxeles (aquellos
que queden más cerca del centroide de otro grupo) (Figura 7.3). El proceso se repite
hasta que la cantidad de píxeles que cambian de clase alcance un valor umbral
(convergencia) o hasta que se alcance un número máximo de iteraciones. Otras
alternativas para llevar a cabo clasificaciones no-supervisadas son: el método k-
means o los métodos basados en redes neuronales artificiales (Self Ordering Map,
SOM).

El resultado de una clasificación no-supervisada es una imagen en donde


cada uno de los píxeles fue asignado a una clase (Figura 7.3). El patrón resultante no
tendrá significado en términos biofísicos, o sea las clases no tienen una
interpretación. La correspondencia entre las clases espectrales y las unidades de
cobertura del suelo debe establecerse a posteriori mediante un proceso de
etiquetado de clases espectrales. En este proceso, y usando datos de campo, el
operador establece la correspondencia entre uno o más clases espectrales y tipos
de cobertura (e.g. suelo desnudo, agua, bosque, etc.). Obviamente el producto de
este etiquetado de clases espectrales requiere de una evaluación basada en datos

116
de terreno independientes. El principal uso de las clasificaciones no supervisadas,
no obstante, es proveer una descripción preliminar del territorio. En tal sentido, son
un auxiliar muy importante en la planificación de las tareas de campo para obtener
datos para clasificaciones supervisadas o evaluaciones sobre el terreno. Un uso
particular de las clasificaciones no supervisadas es el de definición de unidades
funcionales (e.g. tipos funcionales de ecosistemas) a partir de índices o variable
biofísicas derivadas de sensores remotos. En este caso la interpretación es directa
ya que las clases pueden ser caracterizadas en base valores medios de las variables
usadas (e.g. productividad primaria, evapotranspiración, estacionalidad, etc.). La
caja 7.2 presenta dos ejemplos de clasificaciones no supervisadas de interpretación
directa.
7.3.2 Clasificaciones supervisadas
Como se indicaba más arriba, las clasificaciones supervisadas se utilizan
cuando tenemos una definición a priori de las clases y conocemos casos (entidades)
que corresponden a esas clases. Para llevar adelante este tipo de clasificaciones se
necesita conocimiento previo del área, tener identificadas las clases temática (e.g.
tipos de coberturas) que se busca definir y sobre todo, se cuenta con información
de campo (denominadas áreas de entrenamiento). La figura 7.4 esquematiza los
pasos o etapas que involucra una clasificación supervisada.

Las áreas de entrenamiento pueden definirse a partir de observaciones


realizadas a campo con la ayuda de un GPS para lograr una correcta ubicación de
estas áreas en la imagen o a partir de otras cartografías que disponga el operador.
La identificación de las áreas de entrenamiento debe cubrir razonablemente el
rango de variación de cada clase a mapear. Así, si una de las clases son cultivos de
trigo, deberán registrase lotes en distintas condiciones, no solamente aquellos que
presenten valores de cobertura altos o bajos.

Cuando se identifica un área homogénea de una clase en el terreno, y


dependiendo de la resolución espacial del sensor/plataforma a utilizar en la
clasificación, se estarán incluyendo varios píxeles (Figura 7.5). Estos píxeles sin
embargo no son independientes. De hecho estuvieron sometidos al mismo manejo,
comparten una historia de uso, tipo de suelo, etc. Esto determina que los valores
muestren autocorrelación. Para evitar el sesgo que derivaría de esto en la definición
de las firmas espectrales se deberá trabajar con el promedio de los valores
espectrales de toda el área. Las distintas muestras para una dada clase deberán
corresponder a áreas disjuntas de las cuales no se sospeche (o se hubiera evaluado)
la ausencia de correlación espacial.

117
Una vez identificadas las área de entrenamiento de cada clase se extraerá la
información espectral de cada área (Figura 7.5) y se calculará el promedio y la
dispersión (desvío estándar) de cada una de las clases a definir (Figura 7.6). A partir
de los promedios y desvíos de dichas muestras de entrenamiento se elaborarán las
firmas espectrales de cada clase (Figura 7.7). En el ejemplo, la dimensión de los
datos es sólo 2, correspondiente a las bandas del Rojo y el IR en el espectro
electromagnético. Ténganse presente que la definición de las firmas incluye
identificar los valores promedios de cada atributo o banda y también su variabilidad
(indicada como una barra en la figura 7(d)).

Una vez elaboradas las firmas, estas deben ser evaluadas en cuanto a su
capacidad de discriminar las distintas clases que se quieren identificar. Como
resultado de esta evaluación es posible que algunas muestras espectrales sean
redundantes o se superpongan entre sí y por lo tanto deban ser eliminadas,
renombradas o inclusive puedan ser agrupadas (dos o más clases).

Existen varios métodos de evaluación de las firmas espectrales. En el método


de “la elipse” se representan secuencialmente en gráficos de dos dimensiones las
combinaciones de todas las bandas a usar en la clasificación (Figura 7.7). En los
gráficos se representa la posición de los valores medios y los desvíos estándares (u
otra medida de dispersión) de todos los puntos de cada una de las clases usadas en
el proceso de entrenamiento. Los desvíos estándar permiten definir entonces una
elipse en torno de los promedio de cada clase. La superposición de las elipses de las
distintas clases en cada uno de los pares de bandas permite evaluar la
superposición espectral de las muestras que representarán a cada una de las clases.
En el ejemplo de la Figura 7.7, las clases se separaran muy poco al evaluar las firmas
en las bandas 1 y 2 pero resultan diferentes si se consideran las bandas 3 y 4. Una
aproximación cuantitativa involucra el cálculo de la separabilidad de las firmas a
través del cálculo de la distancia espectral entre pares. Dos métodos
frecuentemente utilizados para analizar la separabilidad de las clases (ERDAS, 1999)
son la divergencia transformada y la distancia de Jeffries-Matusita (Caja 7.1).

Una vez evaluadas las firmas y aceptada su capacidad de discriminar las


clases que se pretende cartografiar, se deben definir las reglas a partir de las cuales
se asignarán los píxeles a cada clase. Esto implica comparar los valores espectrales
de cada píxel de la imagen con cada una de las firmas espectrales definidas (Figura
7.8). Obviamente los valores espectrales de los píxeles no serán idénticos a los de
ninguna de las firmas por lo que se deberá decidir a qué clase será asignado cada
píxel. A grandes rasgos, las reglas de decisión pueden agruparse en No-

118
Paramétricas y Paramétricas. En este último caso, las reglas están basadas en
estadísticas que comparan al píxel con la muestra espectral, mientas que, en las No-
Paramétricas es independiente de las propiedades del píxel. Es decir, si el píxel está
incluido en los límites de la firma será asignado a una clase. La asignación del píxel
se realiza mediante algoritmos de decisión de complejidad variable y cada uno de
ellos, con ventajas y desventajas. Entre los algoritmos que se basan en reglas No
Paramétricas el más común es el Método del Paralelepípedo. Para tomar la decisión
acerca de la pertenencia de un píxel a una determinada clase se define un límite
superior y uno inferior para cada banda espectral (Figura 7.9a). Al hacer lo mismo
para un par de bandas queda definido un paralelepípedo para cada clase espectral.
Estos límites pueden ser definidos por: a) el operador a través del conocimiento
espectral de las muestras, b) tomando los valores máximos y mínimos de cada
muestra de entrenamiento o c) calculando el valor medio y estableciendo un
número variable de desvíos estándares por encima o por debajo de dicho valor
(algo así como la figura 7.9a). Aquellos píxeles que se encuentren comprendidos
dentro de los límites, serán asignados a dicha clase, mientras que, los que se
encuentren en áreas de superposición o fuera de todas las clases, podrán ser
clasificados como “no clasificados” o buscar otra regla paramétrica para decidir su
clasificación. Este método es fácil, simple y útil como primera aproximación. Sin
embargo, muchos píxeles pueden resultar fuera de la clasificación (cuadrados en la
figura 7.9a) o quedar incluidos en más de un paralelepípedo (circulo en la figura
7.9a). Las formas que definen los límites de las clases pueden no ser regulares y en
base al conocimiento del operador, se definen polígonos de formas arbitrarias
(Figura 7.9b). Entre las reglas Paramétricas para la asignación de píxeles a las clases
definidas dos métodos son los más frecuentemente usados, el de las Distancias
Mínimas y el de Máxima Verosimilitud. El primer método calcula la distancia
espectral entre un píxel candidato, caracterizado por sus valores espectrales, y el
valor medio de la firma espectral de cada clase. De esta manera, se busca la clase
cuya distancia espectral sea mínima con respecto al píxel a asignar (Figura 7.10a).
Este método es muy rápido en términos de procesamiento y ningún píxel queda sin
clasificar. Sin embargo, no tiene en cuenta la variabilidad de las clases espectrales.
En el segundo método, cada píxel tiene una probabilidad de pertenecer a una
determinada clase espectral asumiendo que todas las clases tienen una distribución
normal y la misma probabilidad de pertenecer a cualquiera de las clases. Esta
probabilidad se define en base a las funciones de densidad de probabilidad
calculadas a partir de los valores de dispersión de los píxeles incluidos en las áreas
de entrenamiento (Figura 7.10b). Este es el más preciso de los métodos pero el más
lento en términos de procesamiento.

119
7.4. Evaluación de la clasificación
Una clasificación como la presentada en la figura 7.11 es una primera
hipótesis de la distribución de las clases de cobertura de suelo en el área de estudio.
Como toda hipótesis debe ser evaluada a fin de poder usarla con un nivel aceptable
de confianza. Una primera evaluación de la clasificación surge de observar los
patrones generales, o sea cómo se distribuyen, agrupan y relacionan las clases
cartografiadas. Esto requiere de información auxiliar, por ejemplo topográfica,
geomorfológica, etc. La aparición de, por ejemplo, cultivos de maíz en la cima de un
cerro o humedales anegados permanentemente indica fallas graves en la
clasificación y hacen innecesaria una evaluación más en profundidad. Ya en esta
etapa se debe revisar todo el proceso de clasificación (flechas laterales en la figura
7.4).

Si los patrones generales son razonables, o sea, representan de manera


general la distribución esperada de las clases, se debe proceder a realizar una
evaluación a nivel de las predicciones. Para esto, se identifican áreas para las cuales
se cuenta con información del terreno (“verdad terrestre”) y se las compara con la
predicción de nuestra clasificación. Obviamente, la comparación debe realizarse
para un número lo suficientemente grande de casos como para poder calcular una
frecuencia de aciertos. Esta frecuencia será asimilada a la probabilidad de acertar, o
sea, decir que un área pertenece a una clase. Un aspecto crítico de la evaluación es
que los datos de terreno a utilizar sean independientes de los usados en el proceso
de entrenamiento y definición de las firmas espectrales. Además, deben
minimizarse los problemas de autocorrelación entre las observaciones. Por ejemplo,
el uso de píxeles individuales puede aumentar el número de observaciones pero
todos aquellos píxeles incluidos en un mismo potrero no resultan independientes.

La comparación de los valores predichos (generados por la clasificación) y los


observados en el terreno (datos de campo, mal llamados en ocasiones “verdad
terrestre”) debe hacerse para todas las clases definidas. A partir de estos datos es
posible armar una tabla de contingencia o matriz de confusión (Figura 7.12). En esta
matriz o tabla cuadrada de dimensión NxN, donde N es el número de clases definido
por el usuario, las columnas corresponden a los valores observados y los de las filas
(en el mismo orden) a los predichos por la clasificación. Los datos de campo
georrefenciados (muestra de evaluación) que el operador ha obtenido sobre el
terreno o a través de otra fuente de información confiable (e.g. observaciones en
fotografías aéreas o imágenes de muy alta resolución) son ubicados sobre la imagen
clasificada, obteniéndose para cada sitio, el valor predicho por la clasificación. Un
píxel correctamente clasificado estará ubicado en la diagonal de esta matriz (e.g.

120
Campo = Agua/ Clasificación = Agua), mientras que, en cualquiera de las otras
ubicaciones dentro de la matriz se tratará de errores de asignación. En la matriz se
consignarán en cada ubicación la frecuencia de observaciones en cada combinación.
Por ejemplo, el número de áreas que corresponden a cuerpos de agua clasificada en
la Clase 1 se consignará en el elemento 1,1 de la matriz, los cuerpos de agua
clasificados en la Clase 2 se consignarán en el elemento 1,2. Para evaluar el grado
de confiabilidad de la clasificación se calculan una serie de indicadores que evalúan
el error de omisión (subestimación de los píxeles que realmente deberían
pertenecer a una clase), el error de comisión (sobrestimación de los píxeles que
realmente deberían pertenecer a una clase, y el error o fiabilidad total del proceso.
¿Qué nos indican estos errores? Básicamente, la probabilidad de equivocarnos
cuando hacemos una inferencia sobre la ubicación de una clase en el espacio a
partir de la clasificación. Los errores de comisión en una clase corresponden a
“falsos positivos” o errores de Tipo I. Los errores de omisión corresponden a los
“falsos negativos” o errores de Tipo II.

Figura 7.1 Representación de los datos espectrales de una imagen en el espacio de


los atributos (bandas). Los puntos rojos corresponden al promedio de los píxeles
incluidos en líneas punteadas. D y d son las distancias espectrales entre los
centroides y dos píxeles respectivamente.

Figura 7.2 Representación de los datos espectrales de una imagen en el espacio de


los atributos (bandas) y secuencia del proceso de definición de límites en el procese
de clasificación ISODATA. Los puntos rojos corresponden al promedio de los píxeles
de las clases definidas. Las líneas separan píxeles de clases distintas en dos
iteraciones sucesivas (a y b).

Figura 7.3 Clasificación no supervisada con algoritmo ISODATA de 6 clases de una


porción de una escena Landsat 5 TM.

Figura 7.4 Esquema general del proceso de clasificación.

Figura 7.5 Ubicación de áreas de entrenamiento (a) y extracción de datos


espectrales (b) en una clasificación supervisada.

Figura 7.6 Cálculo de estadísticas (c) y representación gráficas de firmas espectrales


(d) en una clasificación supervisada.

121
Figura 7.7 Método de la elipse para evaluar firmas espectrales en el espacio de los
atributos (banda 1 y 2). El cuadrado y el triangulo son el promedio de los píxeles
incluidos en esa clase y la elipse se computa a partir del desvío estándar en ambas
bandas.

Figura 7.8 Esquema general del proceso de clasificación supervisada.

Figura 7.9 Método del paralelepípedo o polígono para la asignación de píxeles a


clases.

Figura 7.10 Método de la distancia mínima y de máxima verosimilitud para la


asignación de píxeles a clases. Los puntos rojos corresponden a los centroides o
promedio de las clases definidas (firma espectral).

Figura 7.11 Clasificación supervisada de la misma porción de la imagen Landsat 5


TM presentada en la figura 7.3. Los píxeles se asignaron a las clases mediante el
algoritmo de máxima verosimilitud.

Figura 7.12 Tabla de contingencia para la evaluación de una clasificación a nivel de


las predicciones

7.5. Comentarios Finales

Lo expuesto en el capítulo muestra que no hay una sola manera de realizar


una clasificación. En general, las clasificaciones de datos espectrales son una etapa
en la construcción de un mapa temático (capítulos 2 y 3) o sea de un modelo
geográfico. Cómo todo modelo, el mapa (y la clasificación en la que se basa) es una
caricatura de la realidad y en tal sentido la determinará de manera imperfecta. La
calidad de una clasificación (y de un modelo en general) estará asociada a los
objetivos perseguidos. La capacidad de predecir algún aspecto particular (no todos)
de esa realidad determinará su utilidad. Una misma clasificación puede ser muy útil
para ubicar todos los cuerpos de agua de un área pero incapaz de discriminar entre
tipos de pastizales. Un ecólogo acuático o un hidrólogo la encontrará muy útil y un
ecólogo de pastizales inservible.

Más allá del objetivo perseguido al realizar una clasificación, la variedad de


técnicas presentadas muestra que no hay una única manera de hacer una
clasificación. Las cajas 7.2, 7.3 y 7.4 presentan ejemplos en donde algunas de las
técnicas presentadas se combinan de distinta manera para describir la

122
heterogeneidad espacial de un área. Puede ser de manera supervisada o no, usando
todas las bandas disponibles o sólo alguna de ellas, asignar píxeles a las clases
mediante la distancia mínima o el método de la máxima verosimilitud, etc. Esto
lleva a resultados distintos. ¿Cuál será mejor? La evaluación de la capacidad
predictiva mediante la tabla de contingencia es uno de los criterios más importantes
a considerar. La interpretabilidad de las firmas espectrales de las clases en términos
biofísicos es un criterio complementario importante.

Caja 7.1 Métodos de evaluación de la separabilidad de firmas espectrales

De acuerdo a Swain y Davis (1978), la divergencia transformada se calcula


con la siguiente fórmula:

en donde;

i y j = firmas (clases) comparadas


Ci = la matriz de covarianza de la firma i
i = el vector promedio de la firma i
tr = la traza (la suma de los elementos de la diagonal principal) de la matriz
T = la función transpuesta

La divergencia transformada le da un peso exponencialmente decreciente a


un aumento en la distancia entre clases. Los valores de TD varían entre 0 y 2000,
valores superiores a 1900 indican una buena separación y por debajo de 1700 una
separación pobre (Jensen, 1996).

La distancia de Jeffries-Matusita es otro índice que mide la separabilidad


entre clases considerando tanto las diferencias entre las medias de las clases como
la dispersión de los valores en torno a ella. Se calcula como:

123
i y j = firmas (clases) comparadas
Ci = la matriz de covarianza de la firma i
I = el vector promedio de la firma i
ln = the natural logarithm function
|Ci |= el determinante de la matriz C i

La mayor parte de los sistemas de procesamiento de imágenes incorporan


los cálculos de algunos de estos índices de separabilidad.

Caja 7.2 Caracterización funcional de los ecosistemas semiáridos del


Parque Natural de Cabo de Gata-Níjar (adaptado de Fernández y Piñeiro, 2008.
Ecosistemas 17:64-78).

El sureste ibérico comprende la región más árida de Europa occidental y


cuenta con una de las pocas áreas subdesérticas protegidas del continente, el
Parque Natural de Cabo de Gata-Níjar (Escribano et al., 2008). A fin de contar con
una descripción funcional a la escala en la que se manifiesta la heterogeneidad
fisiográfica y de vegetación, se llevó a cabo una clasificación del Parque Natural
Cabo de Gata-Níjar basada en los valores de IVN, albedo y Ts estimados a partir de
dos imágenes del satélite Landsat obtenidas en invierno y verano (ver capítulo 9). La
estimación de la similitud funcional entre unidades del territorio se basó en la
agrupación de todos los píxeles de la imagen mediante una clasificación no
supervisada basada en la distancia entre valores funcionales para las seis variables,
i.e. valores estimados de IVN, albedo y Ts en dos fecha. Para ello, se usó el método
de agrupación no jerárquica ISODATA. Previo a este cálculo, se estandarizó cada una
de las seis variables por su rango, de forma que la contribución parcial de las
distintas variables fuera similar. Mediante este método se generaron 40
agrupamientos caracterizados por su comportamiento biofísico en las dos fechas de
estudio, reduciendo así la variabilidad funcional inicial antes de abordar la
clasificación ecosistémica. El objetivo de la clasificación no-supervisada fue reducir

124
la heterogeneidad de las entidades (píxeles) presentes en el área llevándola a 40
tipos de comportamiento funcional.

En un segundo paso, se calculó la distancia euclídea entre los valores medios


de todos los atributos funcionales (de IVN, albedo y Ts en cada fecha) medidos en
los 40 agrupamientos iniciales. La identificación final de clases funcionales se realizó
tras una selección semi-arbitraria del punto de corte óptimo en el árbol de
clasificación de un análisis cluster a partir de dichas distancias (Figura 7.2.1),
persiguiendo una clasificación de entre 8 y 12 clases distintas con las cuales se había
decidido trabajar. De esta forma se identificaron 10 clases funcionales de
ecosistemas en el parque Cabo de Gata y se confeccionó un mapa de su distribución
espacial (Figura 7.2.2). Perelman et al., (2005) provee una descripción de los
métodos de clasificación jerárquicos y sus aplicaciones en estudios de vegetación.

Figura 7.2.1 Diagrama del árbol de clasificación obtenido a partir de 40


agrupamientos iniciales, mostrando el punto de corte donde se obtuvieron las 10
clases funcionales utilizadas en el análisis (línea roja) (Fernández y Piñeiro, 2008).

Figura 7.2.2 Mapa de la distribución de las clases funcionales de ecosistemas en el


Parque Natural Cabo de Gata-Níjar (Fernández y Piñeiro, 2008).

Caja 7.3 Utilización de firmas espectrales de alta resolución temporal para la


elaboración de mapas de uso agrícola y estimaciones de superficie cultivada a
escala de lote en Argentina y Uruguay (adaptado de Bagnato, et al. 2012).

Conocer la distribución y superficie sembrada con cultivos agrícolas es


información crítica para instituciones gubernamentales en la planificación de
políticas agrarias y la definición de bases para el ordenamiento territorial rural, para
investigadores en la construcción de modelos de funcionamiento ecosistémico y
para productores en la toma de decisiones. Aún así, Argentina y Uruguay no
cuentan en la actualidad con estimaciones confiables, continuas y espacialmente
explícitas. Las estadísticas agrícolas realizadas por organismos oficiales derivan de
información provista por informantes calificados y la metodología por la cual se
determina la superficie sembrada no está debidamente documentada (Paruelo et
al., 2004). Alternativamente el monitoreo de cultivos agrícolas con sensores
remotos tiene la potencialidad de proveer estimaciones confiables y
económicamente plausibles a lo largo de grandes extensiones de territorio
(Castillejo-González et al., 2009). A pesar del creciente interés, los enormes

125
esfuerzos realizados globalmente y los logros alcanzados tales como los avances en
capacidad de procesamiento computacional, la mayor disponibilidad de sensores e
índices espectrales y el desarrollo de algoritmos más eficientes, no se cuenta aún
con metodologías repetibles que permitan realizar estimaciones cada año en
grandes extensiones de territorio, tales como las que involucra toda la región
agrícola Argentina.

Bagnato et al., (2012) presentan un protocolo, desarrollado en conjunto por


el INTA y la FAUBA, basado en datos provistos por sensores remotos y monitoreo a
campo para la estimación de la superficie sembrada por los principales cultivos,
espacialmente explicita a escala de lote, con error de estimación conocido e
incluyendo toda la región agrícola de Argentina y Uruguay. El proceso de generación
de mapas de uso agrícola y la estimación de superficie cultivada en extensas áreas
requiere la definición de estratos homogéneos (Figura 7.3.1, cuadro lila). Los
estratos homogéneos son unidades con paisajes, clima y sistemas de cultivos
similares. Los estratos fueron generados integrando un mapa de grandes unidades
de vegetación en Argentina y de unidades geomorfológicas en Uruguay y grillas
hexagonales de 64.000 ha clasificadas según el porcentaje de agricultura e índices
de paisaje como el número y tamaño de parches que presentaban (Figura7.3.2).

La clasificación del uso del suelo se realizó utilizando firmas espectrales de


alta resolución temporal obtenidas del sensor MODIS a partir de relevamientos a
campo y sistematizadas en una base de datos denominada “Fenoteca espectral”
(Figura 7.3.1, cuadros celeste y naranja). Una Fenoteca Espectral es una base de
datos geográfica en la que cada registro representa la firma fenológica de una
cobertura en una determinada situación (fecha de siembra, grado de fertilización,
clima, pastoreo, etc.). El comportamiento de índices de vegetación (IVN o EVI) de un
determinado píxel a lo largo de una estación de crecimiento es denominado “firma
fenológica” ya que permite analizar la dinámica de los cambios estacionales de la
vegetación, en este caso, la evolución de la intercepción de radiación
fotosintéticamente activa durante ese lapso de tiempo (Figura 7.3.3). Conociendo
los cultivos presentes en esa región y su comportamiento fenológico, se puede
determinar entonces a qué cultivo/s podría estar asociada esa firma y, por lo tanto,
identificar el cultivo. Dado que existe cierta variabilidad espacial y temporal,
resultado de los diferentes manejos, el clima, la topografía, etc., la firma fenológica
de una misma cobertura suele variar en el espacio y el tiempo. Por eso, es de suma
importancia contar con gran cantidad de firmas fenológicas obtenidas a partir de
relevamientos exhaustivos en los que se haya registrado la cobertura de todos los

126
lotes en un recorrido predeterminado para poder conocer la variabilidad existente
dentro de una misma y entre diferentes coberturas del suelo.

Con la base de datos de las firmas espectrales por cobertura se construye un


árbol de decisión. Este es un proceso de clasificación binaria que repetidamente
divide un conjunto de datos en subgrupos sobre la base de una regla lógica en cada
nodo del árbol. Numerosos trabajos señalan la inexactitud y las complicaciones al
generar clasificaciones a nivel de píxel (Espindola et al., 2006; Peña-Barragán et al.,
2011 y Ursani et al. 2012). Utilizando imágenes de alta resolución espacial (e.g.
Landsat 5TM), se segmenta el territorio en unidades de cierta homogeneidad que
mejor representan las unidades de manejo agrícolas-ganaderas (lotes). Sobre dichas
unidades, se extraen los píxeles MODIS que se encuentran completamente
contenidos en un segmento, eliminando los píxeles mezclados y reduciendo el
efecto borde. Los píxeles puros seleccionados son clasificados con el árbol de
decisión y el resultado es asignado a nivel de lote según la clase mayoritaria
representada en cada segmento. La clasificación es evaluada utilizando la matriz de
confusión a partir de los datos relevados a campo en la campaña que se ha
clasificando. A partir del mapa de uso agrícola, se estima la superficie cultivada
mediante el método de regresión. El objetivo del método, es generar una ecuación
con la cual se corregirá el valor de superficie para cada clase arrojada por la
clasificación. La variable independiente (X) es la superficie estimada a partir de la
clasificación y la variable dependiente (Y) es la superficie muestreada a campo. Con
las regresiones calculadas para cada clase, se ajusta la superficie obtenida en la
clasificación corrigiendo sub o sobrestimaciones. El resultado, es la superficie
correspondiente a cada clase ajustada por regresión (Figura7.3.4). Las figuras 7.3.5 y
7.3.6 muestran dos mapas con la clasificación del uso del suelo para la zona agrícola
de Salta y Uruguay utilizando la metodología propuesta.

Figura 7.3.1 Esquema completo de la metodología utilizada para la generación del


mapa de uso agrícola y estimación de la superficie cultivada. Notar los 3 insumos
principales: Muestreo a campo, para la generación de la Fenoteca, evaluación de la
exactitud de la clasificación y corrección por método de regresión; Imágenes de alta
resolución espacial para delimitación de lotes mediante el proceso de
segmentación; Imágenes de alta resolución temporal para la generación de estratos
homogéneos, alimentación de la Fenoteca espectral y clasificación supervisada con
árbol de decisión (Bagnato et al., 2012).

127
Figura 7.3.2 Esquema de los principales insumos, procesos y resultados en la
generación de mapas de uso agrícola y estimación de superficie cultivada.

Figura 7.3.3 Mapa de Paisajes Agrícolas Homogéneos según el porcentaje de


agricultura, obtenidos de una clasificación no supervisada de imágenes del sensor
MODIS en hexágonos de 64.000 hectáreas.

Figura 7.3.4 Esquema de la base de datos geográfica - FENOTECA - con información


sistematizados por año, campaña y cobertura a nivel de píxel MODIS con identidad
de lote digitalizado a mano alzada sobre imágenes de alta resolución espacial. Sobre
el mapa se observa en negro todos los muestreos realizados a nivel de lote. El
grafico A muestra ejemplos de firmas espectrales promedio para una campaña de
verano y en el B se ven firmas espectrales para el cultivo de trigo mostrando la
variabilidad existente para una campaña.

Figura 7.3.5 Mapa de uso Agrícola de la campaña de verano 2011-2012 para la


provincia de Salta, obtenido utilizando datos de la FENOTECA y evaluado en una
matriz de confusión con datos de muestreos a campo de esa misma campaña.

Figura 7.3.6 Mapa de uso agrícola y coberturas naturales de la campaña de verano


2011-2012 obtenido según la metodología propuesta.

Caja 7.4 Cartografía de las comunidades de pastizal en Uruguay (adaptado de


Baeza, et al. 2011. Bases ecológicas y tecnológicas para el manejo de
pastizales. INIA Serie FPTA 26 pp 33-54).

Baeza et al., (2011) describen la variación espacial de los pastizales naturales


de las cuatro regiones geomorfológicas de Uruguay predominantemente ganaderas,
a partir de clasificaciones supervisadas de imágenes de satélite y censos de
vegetación realizados a campo. Los censos fueron georreferenciados y utilizados
para clasificar imágenes Landsat TM de dos fechas distintas (primavera- verano)
aprovechando diferencias fenológicas en la vegetación. En total se cartografiaron
aproximadamente 8.000.000 ha, un 46% del territorio uruguayo.

Se realizaron compuestos multitemporales (superposición de las imágenes


de las diferentes fechas en una misma escena) y mosaicos (ensamblaje de distintas
imágenes que cubren, al menos, parte del mismo territorio) para cada región

128
geomorfológica. Para cada región cartografiada se contó entonces, con una imagen
multitemporal de 12 bandas (6 bandas reflectivas por cada fecha, todas las bandas
del sensor menos la térmica), que cubría toda el área de interés.

El primer paso para llevar a cabo una clasificación supervisada es el


desarrollo de un esquema conceptual de clasificación. Éste se define como el
conjunto de clases o categorías de interés para ser identificadas y discriminadas
(Curran, 1985). Por ello, se definieron categorías que corresponden a las unidades
de pastizales naturales definidas en el análisis fitosociológico, además de un
conjunto de coberturas/usos del suelo que permitieran caracterizar el resto de la
heterogeneidad de las áreas, (e.g. monte nativo, forestación, cultivos de invierno y
verano, agua, etc.). Para cada una de las clases definidas se digitalizaron polígonos
de entrenamiento para realizar las clasificaciones y polígonos de control para
evaluarlas con datos independientes. En el caso de las categorías de pastizal, los
polígonos de entrenamiento y los de control, corresponden a los «stands» de
vegetación relevados durante los censos realizados a campo, cuya posición en el
espacio se registró mediante GPS. Los polígonos de entrenamiento y los de control
de las restantes categorías de cobertura/uso del suelo se generaron mediante
fotointerpretación de las imágenes. Se uso como regla de decisión la de máxima. A
cada una de las clasificaciones resultantes se le aplicó un filtro modal móvil de 3 x 3
píxeles para eliminar el efecto “sal y pimienta”.

Las clasificaciones fueron evaluadas mediante la construcción y análisis de


una matriz de contingencia entre el resultado de la clasificación y la información de
los píxeles correspondientes a los polígonos de control digitalizados. Esto permitió
calcular el error total y global, el coeficiente Kappa y los errores de omisión y
comisión. El coeficiente Kappa mide la diferencia entre la clasificación realizada y la
esperada simplemente por azar. Un valor de Kappa igual a 1 indica un acuerdo
pleno entre la realidad y el mapa, mientras un valor cercano a 0 sugiere que el
acuerdo observado es puramente debido al azar.

El 81,6% de la superficie cartografiada correspondió a pastizales naturales


(6.6 millones de ha) (Figura 7.4.1). La cobertura de pastizales naturales fue mínima
(69,3%) en la Cuenca Sedimentaria del Noreste y máxima (91,5%) en la Cuesta
Basáltica. Los mapas generados, discriminan entre dos unidades de pastizal en
todas las regiones analizadas. Estas diferentes unidades mostraron una asociación a
escala regional con las características de los suelos, fundamentalmente con el agua
potencialmente disponible en los mismos. Las cartografías generadas presentaron
un acierto global de entre 95,3 y 99,4%.

129
Figura 7.4.1 Mapa de cobertura/uso del suelo para las cuatro regiones relevadas.
Pastizal I y II refiere a las diferentes unidades de pastizales naturales y representan
unidades distintas en las diferentes regiones. C ver: Cultivo de verano; C inv: Cultivo
de invierno; D. Cultivo: Doble cultivo; P. Implantadas: Praderas implantadas; S.
Desnudo: Suelo desnudo en ambas fechas de adquisición de las imágenes; Monte:
Monte nativo; Roca: Afloramientos rocosos (Baeza et al., 2011).

130
Capítulo 9 - Estimación de variables biofísicas a partir de datos
espectrales

José Paruelo y Constanza Caride

9.1 Introducción
Los sensores remotos han sido valiosos auxiliares de los ecólogos en las
últimas décadas. El uso más frecuente de estas herramientas ha sido la
caracterización estructural del paisaje. En general, se ha recurrido a la
interpretación visual de imágenes (capítulo 6) y la clasificación digital (capítulo 8).
En estos casos, un atributo de la superficie terrestre (e.g. un tipo dado de
cobertura) se relaciona con un comportamiento espectral determinado (valores de
reflectancia o emisión de la superficie terrestre en distintas longitudes de onda) sin
conocer los mecanismos del vínculo. Este uso de la información provista por los
sensores remotos tiene un enorme impacto ya que brinda la posibilidad de, por un
lado, describir la heterogeneidad estructural del territorio y por otro, describir
patrones espaciales de las categorías estructurales. La identificación de patrones
espaciales es un paso crucial en la elaboración de hipótesis acerca de los controles
de procesos ecológicos.

Los datos provistos por los satelites proveen entonces datos cuantitativos y
espacialmente continuos de la superficie y en tal sentido, son mucho más que una
fotografía. La Ecología como ciencia ha usado la teledetección en una gran variedad
de estudios (ver síntesis en Wessman, 1992; Kerr y Ostrovsky, 2003; Pettorelli et al.,
2005). Grigera et al., (2007) presenta un ejemplo en donde los aspectos funcionales
de los ecosistemas han sido incorporados a la toma de decisiones agronómicas
(capítulo 12). Cabello et al., (2012) sintetiza el uso de la teledetección en la biología
de la conservación (ver Caja 11.1).

Entre las diferentes alternativas que permitirían hacer un uso más eficiente
de la información generada por sensores a bordo de satélites, en este capítulo se
pone énfasis en la descripción de procesos biofísicos a nivel de ecosistema. En la
primera parte del capítulo se caracteriza el vínculo entre funcionamiento
ecosistémico y la teledetección, se definen los principales índices espectrales y las
variables biofísicas utilizadas en la caracterización funcional de ecosistemas.
Finalmente, se discute la aplicación de estas variables en el modelado del
funcionamiento ecosistémico, específicamente de la productividad primaria y de la
evapotranspiración.

149
9.2 Funcionamiento ecosistémico y Teledetección
El funcionamiento ecosistémico se refiere al intercambio de materia y
energía entre la comunidad biótica y la atmósfera (Virginia y Wall, 2001). Su
caracterización involucra entonces la medición de flujos. Estos incluyen, entre otros,
la productividad primaria neta aérea (PPNA), la evapotranspiración (ET), la
productividad neta del ecosistema, la mineralización neta de N y las pérdidas
totales de nutrientes. Entre estas variables la PPNA y su dinámica estacional
adquieren particular relevancia dado que sintetizan muchos otros aspectos del
funcionamiento ecosistémico. En las últimas décadas, la proliferación de diversas
técnicas (eddy covariance, isótopos estables, sensores remotos, etc.) ha permitido
mejorar la medición directa de diversos aspectos del funcionamiento ecosistémico
(Sala et al., 2000). Pese a estos avances, cuestiones logísticas limitan el número y
tipo de flujos a usar en la caracterización del funcionamiento ecosistémico. Por otro
lado, el grado de intangibilidad que estas variables conservan, mayor que el que se
asocia a, por ejemplo, el inventario de especies, ha limitado su difusión.

La caracterización funcional de los ecosistemas, complementaria de la


estructural, presenta algunas características particularmente atractivas en estudios
ecológicos, especialmente a escala regional. Por un lado, permiten una valoración
cuantitativa directa de los servicios ecosistémicos, en especial de aquellos definidos
como de soporte (productividad primaria, dinámica del agua) (Millenium
Assessment, 2003). Por otro, los atributos funcionales suelen responder más rápido
a los cambios en las condiciones ambientales debido a la inercia en la respuesta de
los atributos estructurales (Pennington, 1986; Milchunas y Lauenroth, 1995). Por
ejemplo, en muchas áreas del planeta se han detectado aumentos en las ganancias
de C durante las últimas dos décadas (Hicke et al., 2002; Nemani et al., 2003;
Paruelo et al., 2004) pero, sin embargo, en la mayoría de las áreas que
experimentan esos cambios, la fisonomía de la vegetación no ha experimentado
modificaciones detectables (capítulo 14). El uso de datos espectrales provistos por
sensores remotos para caracterizar el funcionamiento ecosistémico agrega una
serie de ventajas. La teledetección permite disponer de una cobertura completa del
territorio y no es necesario, por lo tanto, definir protocolos de intra o extrapolación
de observaciones puntuales (Paruelo et al., 2001; Alcaraz et al., 2006). La creciente
disponibilidad de sensores y plataformas que proveen los datos espectrales
necesarios para el cálculo de atributos funcionales del ecosistema con distinta
resolución espacial, permite el estudio de un mismo proceso (e.g. la
evapotranspiración o la productividad primaria) a distintas escalas espacio-
temporales usando el mismo protocolo de observación (capítulo 4). La
caracterización funcional amplía y complementa el uso más tradicional de los

150
sensores remotos para descripciones estructurales basadas en clasificaciones y
fotointerpretación.

9.3 Índices espectrales y variables sintéticas


El proceso de generación de una aplicación concreta de la información
espectral implica la “traducción” de la medición de radiación reflejada o emitida
realizada por el satélite en una variable o índice con un significado biofísico (Figura
9.1). Si bien los cálculos específicos variarán con la resolución espectral con la que
se trabaje, la traducción tiene una serie de aspectos en común. Cuando se trata de
radiación reflejada (visible e infrarrojo cercano (IRc) y medio (IRm)) el primer paso
incluye el cálculo de la reflectancia o sea el cociente entre lo registrado por el
sensor (expresado en unidades de radiancia) y la radiación incidente sobre la
superficie (capítulo 6). En el caso de energía emitida en la porción térmica del
infrarrojo (IRt), la inversión de la Ley de Stephan-Boltzmann (que postula que la
radiación emitida por un cuerpo es proporcional a su temperatura a la cuarta
potencia) permite la estimación de la temperatura superficial a partir de datos
provistos por sensores remotos (capítulo 1).

El análisis del comportamiento espectral de las superficies en las distintas


porciones del espectro electromagnético (bandas) permite derivar algunos índices o
variables sintéticas asociadas a procesos biofísicos. Estas resultan de operaciones
algebraicas con bandas correspondientes a distintas porciones del espectro
electromagnético. Algunos de estos índices y variables incluyen el Índice de
Vegetación Normalizado (IVN), el Índice de Vegetación Mejorado (IVM), el Índice de
Reflectancia Fotoquímica (IRF) y el albedo de la superficie. Todos estos índices
pueden relacionarse de manera directa con atributos biofísicos de la superficie (e.g.
la fracción de la radiación fotosintéticamente activa absorbida por los tejidos verdes
(fRFAA) o la eficiencia en el uso de la radiación (EUR)) (Figura 9.1).

9.3.1 El Índice de Vegetación Normalizado


Varios índices espectrales han sido propuestos como estimadores de la
presencia y condición de la vegetación (Choudhury, 1987; Baret y Guyot, 1991;
Ridao et al., 1998; Fensholt et al., 2004), sin embargo, el Índice de Vegetación
Normalizado (o Normalized Difference Vegetation Index, NDVI o IVN) ha sido y es el
más usado. La primera cita bibliográfica de este índice corresponde a Rouse et al.,
(1973), un investigador de Texas A&M University en los EEUU. Sin embargo, fue
Compton Tucker, del Goddard Space Flight Center de la NASA, quien instauró al IVN
como un descriptor de la vegetación (Tucker, 1979; Tucker et al., 1985). El IVN
integra dos aspectos claves del comportamiento espectral de los tejidos

151
fotosintéticos: la baja reflectancia en longitudes onda correspondientes al rojo
(debido a la absorción por parte de la clorofila) y la alta reflectancia en la porción
del (IRc) infrarrojo cercano (debido a la estructura del mesofilo de las hojas). El IVN
se calcula como:

IVN = (IRc – R) / (IRc + R)

donde R e IRc corresponden a la reflectancia en la porción roja e infrarrojo cercano


del espectro electromagnético, respectivamente (Figura 9.2). El IVN es equivalente
a la relación simple (RS = IRc/R), IVN = (RS - 1) / (RS + 1). El IVN ha mostrado tener
una fuerte relación con la biomasa (Tucker, 1977; Gerberman et al., 1984; Ripple,
1985; Sellers, 1985), el índice de área foliar (IAF) (Curran, 1983; Asrar et al., 1984;
Baret et al., 1989) o la productividad primaria neta aérea (PPNA) (Prince, 1991;
Paruelo et al., 1997). Estas relaciones dieron lugar a numerosas aplicaciones del IVN
en estudios de ecología regional, que en Iberoamérica incluyen clasificaciones de
tipos de cobertura (Guerschman et al., 2003, Paruelo et al., 2004; Baldi et al., 2006;
Baldi y Paruelo, 2008), definición de Tipos Funcionales de Ecosistemas (Paruelo et
al., 2001; Alcaráz et al., 2006; Baeza et al., 2006), evapotranspiración (Di Bella et al.,
2000; Nosetto et al., 2005), estimaciones de densidad de herbívoros (Oesterheld et
al., 1998; Posse y Cingolani, 2000, 2004) o de sus parámetros demográficos (Hall y
Paruelo, 2006).

Pero, ¿qué aspecto de la vegetación “mide” efectivamente el IVN? Diversos


trabajos han demostrado tanto desde una perspectiva teórica como empírica que
este índice es un estimador linear de la fracción de radiación fotosinteticamente
activa absorbida por los tejidos verdes (fRFAA) (Baret y Guyot, 1991; Sellers et al.,
1992; Gamon et al., 1995; Myneni et al., 1995). En base a consideraciones teóricas,
Sellers et al., (1992) demostraron que la naturaleza exponencial de la relación entre
fRFAA y el índice de área foliar (IAF) puede ser descrita mediante un coeficiente de
extinción (kfRFAA) que muestra la atenuación de la radiación en el dosel. El IVN
también se relaciona con el IAF de manera exponencial y esta relación se caracteriza
a su vez por un coeficiente de extinción kIVN (Asrar et al., 1984). Como los valores
de kRFAA y de kIVN son similares, fRFAA e IVN están linealmente relacionados
(Sellers et al., 1992). Estos mismos autores muestran que los modelos teóricos de
transferencia radiativa en un dosel indican que la RFAA puede ser estimada si se
conoce la cantidad de radiación reflejada en el visible y en una longitud de onda
para la cual el coeficiente de extinción sea el doble que el de la luz visible (que
disperse mucha más radiación). Esa longitud de onda corresponde al IR cercano
(capítulo 8).

152
La relación entre el IVN y variables de estado como el IAF o la biomasa
dependen de la arquitectura de la cubierta vegetal y de la cantidad de material
senescente presente. La relación entre IVN y fRFAA está mucho menos afectada por
la presencia de material senescente que la relación entre el IVN y la cobertura o el
índice de área foliar. Di Bella et al., (2004) investigaron la influencia del material
senescente sobre el IVN y la fRFAA de todo el dosel y de la porción verde aislando
ambos tipos de tejido (Figura 9.3a). El IVN de los tejidos verdes (debajo del material
senescente) se mantuvo constante pero el de todo el dosel disminuyó (Figura 9.3b).
La fRFAA de todo el dosel (tejidos verdes y senescentes) disminuyó ligeramente con
el aumento del IVN a causa de un aumento del albedo (cruces en figura 9.3c). La
fRFAA de los tejidos verdes mantuvo una relación linear y positiva con el IVN de
todo el dosel (Figura 9.3c).

Entre los índices espectrales derivados del IVN se encuentra el Perpendicular


Vegetation Index (PVI: Richardson y Wiegand, 1977), el Soil-Adjusted Vegetation
Index (SAVI: Huete, 1988), el Atmospherically Resistant Vegetation Index (ARVI:
Kaufman y Tanre, 1992) y el Global Environment Monitoring Index (GEMI: Pinty y
Verstraete, 1992). La difusión de estos índices, principalmente debido a la
necesidad de datos adicionales a la reflectancia en el R y el IR, ha sido limitada. La
tabla 9.1 resume algunas de las características de estos índices.

Tabla 9.1 Características de índices espectrales.

Ventajas/
Indice Abreviación Formula Referencia
Desventajas
Es el más efectivo
en remover el
Perpendicular
efecto del suelo en Richardson y
Vegetation PVI (N-aR-b)/√((a2+1))
superficies con Wiegand 1977
Index
índices de área
foliar (IAF) bajos.
Corrige por la
variación en la
reflectancia del
Soil-Adjusted suelo, donde L es
Vegetation SAVI (1+L)(N-R)/(N+R+L) un coeficiente que Huete 1988
Index varía de 0 con altos
valores de IAF a 1
con bajos valores
de IAF.
Atmospherically (N-RB)/(N+RB) Corrige por Kaufman y
ARVI
Resistant cambios en la Tanre 1992

153
Vegetation donde transmisión
Index atmosférica. β
RB=R-β(B-R) corrige R en
función de las
diferencias entre R
y B)
α(1-0.25α)-(ρ_1- Reduce los efectos
0.125)/(1-ρ_1 ) relativos de las
Global
perturbaciones Pinty y
Environment
GEMI donde atmosféricas Verstraete
Monitoring
mientras mantiene 1992
Index
(2(ρ22-ρ12) + 1.5 ρ2 + 0.5 la información de
ρ1/ ρ2 + ρ1 + 0.5 la cubierta vegetal.

Una de las mayores ventajas del IVN es la posibilidad de calcularlo a partir de


la información provista por la mayoría de los sensores de las plataformas de
observación terrestre y muchos de los satélites meteorológicos (capítulo 4). La
normalización del índice, por otra parte reduce el efecto de diferencia en
iluminación de la superficie, sombra de nubes, algunas distorsiones asociadas a la
topografía, etc. El IVN exhibe, no obstante, algunos problemas relacionados con la
saturación a altos niveles de biomasa y con su sensibilidad al sustrato debajo del
dosel.

El valor del IVN de una misma superficie y en la misma fecha calculado con
datos provistos por diferentes sensores, en general no será igual (Tabla 9.2). Las
bandas correspondientes al Rojo y al Infrarrojo cercano (IRc) de los distintos
sensores, al estar centradas en distintos valores del espectro electromagnético y
tener distinto ancho, darán lugar a valores de IVN diferentes. Esta variación en la
resolución espectral de los sensores determinará diferencias que, en ocasiones,
pueden enmascarar señales importantes.

Tabla 9.2 Valor de IVN de dos coberturas para una misma superficie y una misma
fecha según diferentes sensores.

Sensor Vegetación Suelo desnudo


Landsat TM 0.828 0.02
Modis 0.831 0.02
AVHRR 0.803 0.038

154
9.3.2 El Índice de Vegetación Mejorado
El Índice de Vegetación Mejorado IVM (Enhanced Vegetation Index, EVI)
(Huete et al., 2002) es similar al IVN pero incorpora la banda del azul para
“optimizar” la señal de la vegetación, particularmente en niveles altos de biomasa.
El IVM busca a su vez desacoplar la señal del sustrato y la vegetación y minimizar la
influencia de la atmósfera. Fue desarrollado específicamente para el sensor MODIS
y se expresa como

EVI = 2.5 x (IRc - R) / (IR + C1 x R – C2 x A + L)

donde A, R e IRc son las reflectancias corregidas atmosféricamente


correspondientes a la porción del azul (459-479 nm), del rojo (620-670 nm) y del
infrarrojo cercano (841-876 nm) del espectro electromagnético, respectivamente
(Figura 9.2). L es un ajuste de acuerdo al sustrato que tiene en cuenta la
transferencia de la radiancia roja e infrarroja a través de la cubierta vegetal. C1 y C2
son coeficientes que tienen en cuenta la presencia de aerosoles y que usan la banda
correspondiente al azul para corregir la reflectancia en la porción roja. Los
coeficientes adoptados en el algoritmo del sensor MODIS son L = 1, C1 = 6 y C2 =
7.5. A partir del año 2000, con el lanzamiento de los satélites Terra y Aqua (ambos
equipados con el sensor MODIS) por parte de la NASA, se ha generalizado el uso del
IVM en análisis ecológicos regionales.

9.3.3 Índice de Reflectancia Fotoquímico


Gamon et al., (1992) propusieron el Índice de Reflectancia Fotoquímico IRF
(Photochemical Reflectance Index, PRI) para evaluar cambios en el rendimiento
cuántico o la eficiencia en el uso de la radiación de la vegetación:

IRF = (R531 – R570)/(R531 + R570)

siendo R531 y R570 las reflectancias en esas respectivas longitudes de onda (Figura
9.2). Este índice se basa en que parte de la energía absorbida por la clorofila en la
fotosíntesis se pierde como calor o fluorescencia. Un cambio en la tasa fotosintética
va a afectar la fluorescencia y la disipación de energía y por lo tanto, la medición de
la fluorescencia, provee una medida de la eficiencia fotoquímica de la fotosíntesis o
del rendimiento cuántico (o sea: moles C fijados / moles de fotones incidentes)
(Peñuelas et al., 1995). El rendimiento cuántico es un determinante importante de
la Eficiencia en el Uso de la Radiación (EUR). La fluorescencia bajo luz ambiente (F) y
bajo un pulso de saturación de luz (F*), permiten estimar la eficiencia fotoquímica
del sistema fotosintético cómo (F-F*)/F*. Estos cambios en fluorescencia generan

155
una respuesta en la reflectancia en el entorno de los 531 nm. La eficiencia
fotoquímica está relacionada a su vez con la interconversión de las xantofilas y con
cambios en la conformación de los cloroplastos. Ambos aspectos generan una
respuesta diferente en la absorbancia en 505 y 529 nm (Peñuelas et al., 1995). El IRF
estaría entonces capturando esas respuestas. La banda correspondiente a 570 nm
no presenta respuesta a estos factores y se la incluye como una referencia.

Si bien numerosos estudios de campo o en condiciones controladas


muestran una buena correlación entre la EUR y el IRF (Filella et al., 1996; Guo y
Trotter, 2004; Inoue y Peñuelas, 2006; Nichol et al., 2006; Nakaji et al., 2007), el uso
del IRF estuvo limitado por la disponibilidad de sensores a bordo de satélites con
una resolución espectral que incluyera bandas centradas en los 531 y 570 nm. Aún
cuando el sensor MODIS no cuenta con una banda centrada en los 570 nm, el IRF
calculado usando como referencia otras bandas (bandas MODIS 1,620–670 nm,
4,545–565 nm, 12, 546–556 nm y 13, 662–672 nm) y la banda 11 de este sensor
(531 nm) muestra una alta correlación con estimaciones de Eficiencia en el Uso de
la Radiación (EUR) estimadas en campo (Drolet et al., 2005). Garbulsky et al., (2008)
muestran que el Índice de Reflectancia Fotoquímica (PRI), calculado a partir de la
reflectancia obtenida con el sensor MODIS, presentó una alta correlación con la
variabilidad estacional de la EUR estimada a escala de ecosistema con técnicas de
covarianza turbulenta (eddy covariance) en dos bosques mediterráneos, a lo largo
de cinco años. Si bien es necesario resolver algunos problemas metodológicos, el
IRF tiene un enorme potencial para estimar la EUR del dosel (Grace et al., 2007).

9.3.4 Albedo
El albedo es uno de los atributos más importante en la caracterización del
balance de energía de la superficie y cambios en su magnitud tienen consecuencias
en procesos climáticos y biofísicos (Dickinson, 1995). Su estimación es crítica en
muchas aplicaciones ecológicas, por ejemplo, la evaluación de impactos de cambios
en el uso del suelo en la cantidad total de energía que ingresa al ecosistema. Los
sensores con una resolución espectral tal que provea varias bandas en la porción
reflectiva del espectro permiten la descripción de la variación de este atributo en el
tiempo y el espacio. Muchos estudios han relacionado el albedo de onda corta
medido en el terreno con observaciones remotas, o con los resultados de modelos
de transferencia radiativa (Russell et al., 1997, Stroeve et al., 1997). Liang, (2000)
aplicó un algoritmo que permite separar la reflectancia de la superficie en distintas
bandas en simulaciones de modelos de transferencia radiativa. Este ejercicio lo
realizó para distintas superficies diferentes y una gran variedad de condiciones
atmosféricas. Esto le permitió desarrollar una serie de formulas que permiten

156
calcular el albedo total, el visible o el del IR cercano a partir de las bandas reflectivas
de varios sensores incluyendo ASTER, AVHRR, ETM+/TM, GOES y MODIS. En el caso
de Landsat TM y ETM, las ecuaciones propuestas por Liang para albedo de onda
corta (alb OC) y visible (alb VIS) son las siguientes:

alb OC = 0.356 x B1 + 0.130 x B3 + 0.373 x B4 + 0.085 x B5 + 0.072 x B7 – 0.0018

alb VIS = 0.443 x B1 + 0.317 x B2 + 0.240 x B3

en donde Bi corresponde a las bandas 1,2,3,4,5 y 7 de los sensores TM y ETM+ a


bordo de los satélites de la serie Landsat.

9.4 El modelado de procesos ecosistémicos


Dos procesos ecosistémicos clave pueden ser descriptos a partir de los
índices espectrales o de las variables sintéticas descritas más arriba la productividad
primaria neta y la evapotranspiración (Figura 9.1). Discutiremos a continuación los
modelos conceptuales en los que se basan estas estimaciones.

9.4.1 Productividad Primaria Neta (PPN)


Monteith, (1972) propuso que la productividad primaria neta (PPN) de una
cubierta vegetal es proporcional a la cantidad total de radiación fotosintéticamente
activa incidente (RFA), a la fracción de esa radiación interceptada por los tejidos
verdes (fRFA) y a la eficiencia en el uso de la radiación (EUR):

PPN (g.m-2.año-1) = RFA (MJ. m-2.año-1) x fRFAA x EUR ([Link]-1)

Este modelo, conceptualmente muy sólido, no pudo tener una aplicación


operativa inmediata dada las dificultades que plantea la estimación en campo de la
radiación fotosintéticamente activa absorbida (RFAA) por el canopeo. La estimación
de RFAA implica la medición de la radiación incidente, la reflejada por el canopeo, la
transmitida y la reflejada por el suelo. Por lo menos tres problemas hacen compleja
la estimación de la RFAA por los tejidos verdes: (i) el tamaño del canopeo (e.g. un
bosque con árboles de más de 20 m), (ii) la presencia de material no
fotosintetizante (ramas, hojas senescentes) y (iii) la heterogeneidad espacial de las
cubiertas vegetales. Cómo se indicaba antes, la fRFAA puede ser estimada a partir
del IVN o del IVM. La forma precisa de esa relación varía entre biomas, y una serie
de relaciones semi-empíricas han sido propuestas: (a) lineares (Choudhury, 1987;
Goward y Huemmrich, 1992; Ruimy et al., 1994, Moreau et al., 2003) (b) no-lineares

157
(Potter et al., 1993; Sellers et al., 1994) y (c) una combinación de ambas (Los et al.,
2000).

En el caso de métodos lineales se fija un valor máximo de IVN o IVM al cual


corresponde un fRFAA de 95%. Este valor puede ser el máximo IVN registrado o el
correspondiente al percentil 98. Valores de IVN o IVM superiores al valor del
percentil 98 corresponderán a una fRFAA de 95%. Para la situación de intercepción
0 (FRFAA = 0) (suelo desnudo) se asume un valor de los índices espectrales (e.g. IVN
= 0.01). Piñeiro et al., (2006) para pastizales del Río de la Plata en Argentina y
Uruguay usa la siguiente ecuación:

fRFAA = min [(1.38 x IVN) - 0.014), 0.95].

Para métodos no lineares, Potter et al., (1993), recomiendan valores


máximos y mínimos de IVN de 0.67 y 0.004, respectivamente. Esto equivale a una
relación IR/R (RS) de 5.13 y 1.08. La ecuación no-lineal toma la siguiente forma:

fRFAA = min [RS / (RSmax - SRmin) ) SRmin /(SRmax - SRmin), 0.95]

Para un pastizal o cultivo, la EUR tiene un máximo comparable con el


rendimiento fotosintético a nivel de hoja en condiciones óptimas. Sin embargo, las
bajas temperaturas y las restricciones hídricas y nutricionales, entre otros factores,
reducen en el campo el valor máximo de EUR (Prince, 1991; Field et al., 1995;
Gamon et al., 1995; Gower et al., 1999; Nouvellon et al., 2000). La estimación
empírica de la EUR requiere de la medición simultánea de la PPN (generalmente la
PPN aérea) y de la RFAA. La síntesis de las mediciones de EUR llevadas a cabo en
distintos sistemas muestra una importante variación entre biomas (Ruimy et al.,
1994; Field et al., 1995). Field et al., (1995) indican EUR que van de 0.270 [Link]-1
para desiertos a 0.708 [Link]-1 para selvas tropicales. La EUR varía a su vez
estacionalmente. Piñeiro et al., (2006) muestran (para pastizales) variaciones de
EUR entre estaciones que van de 0.2 a 1.2 [Link]-1. Estos autores elaboraron un
modelo que permite estimar las variaciones estacionales de la EUR para los
pastizales del Río de la Plata en Sudamérica a partir de variables climáticas. La EUR
aumenta con la precipitación y disminuye con la temperatura. Como señalábamos
más arriba la EUR puede, además, ser estimada de manera directa por medio de
sensores remotos a través del IRF.

La posibilidad de usar información suministrada por sensores remotos para


estimar dos factores clave del modelo de Monteith (fRFAA y EUR) hace que la

158
estimación de la PPN mediante el modelo de Monteith sea no sólo
conceptualmente sólida sino también operativamente posible. Running et al.,
(2000) muestran el desarrollo de estimaciones globales de PPN a partir de esta
aproximación usando datos provistos por los sensores MODIS. El capítulo 12
describe en detalle el uso del modelo de Monteith para estimar la PPNA de sistemas
forrajeros. En él se discuten distintas aproximaciones para calcular la EUR.

9.4.2 Evapotranspiración
La estimación de la evapotranspiración mediante el uso de sensores remotos
se basa en el balance energético de la superficie terrestre:

Rn – (L ET + H + G + S + P) =0 => Rn = L ET + H + G + S + P

Donde:
Rn es la radiación neta (W/m2)
LET es el flujo de calor latente (W/m2)
L es el calor latente de vaporización (2.49 x 106 W/m2mm a 20°C)
ET es la evapotranspiración (mm)
H es el flujo de calor sensible (W/m2)
G es el flujo de calor geotérmico (W/m2)
S es la energía acumulada en el canopeo (W/m2)
P es la energía utilizada en el proceso de fotosíntesis (W/m2)

Despejando la ET para su cálculo (considerándola término residual del


balance) la fórmula queda de la siguiente forma:

ET = Rn – H – G – S – P
L

La radiación neta (Rn) (W/m2) es la energía utilizada por los diferentes


procesos que tienen lugar en la superficie terrestre y se calcula como la diferencia
entre la radiación entrante y la radiación saliente del sistema. En la práctica, la
radiación se denomina de dos maneras diferentes según las longitudes de onda que
se consideren. Esta división no es arbitraria sino que tiene un fundamento físico. La
radiación de onda corta comprende la radiación de longitudes de onda entre 0.1 a
3-4µm aproximadamente y es la emitida por el sol. Esta integra a los rayos
ultravioletas, al visible (azul, verde y rojo) y al infrarrojo cercano (IRc). La radiación
de onda larga (3-4µm a 100 µm/1mm aproximadamente) es la emitida por la tierra
o la atmósfera, y comprende las longitudes de onda denominadas infrarrojo medio

159
(IRm) o térmico (IRt) (capítulo 1). Así, la fórmula para calcular la radiación neta que
participa en el balance se puede expresar como:

Rn= (Rs↓ + Rl↓) – (Rs↑ + Rl↑)

donde: Rs↓ es la radiación de onda corta entrante, Rl↓ es la radiación de onda


larga entrante, Rs↑ es la radición de onda corta saliente y Rl↑ es la radición de
onda larga saliente, todas expresadas en W/m2.

El calor sensible (H) (W/m2), es la energía que recibe un cuerpo que, sin
cambiar su estado físico, aumenta su temperatura y permite elevar la temperatura
de la atmósfera por convección y turbulencia del aire. El calor sensible calienta la
capa de la atmósfera en forma inmediata y local, mientras que la energía del calor
latente (L) de vaporización (2.49 x 106 W/m2mm a 20°C) puede ser transferida a la
atmósfera más tarde y en un lugar diferente, cuando y donde este vapor de agua se
condense para formar las nubes y dar origen a las precipitaciones.

En zonas húmedas, dependiendo del tipo de vegetación y su estado de


crecimiento, el flujo geotérmico (G) (W/m2) puede ser muy pequeño ya que la
presencia de plantas actúa como aislante excluyendo la mayor parte de la radiación
solar directa que llega a la superficie del suelo. Sin embargo, en zonas áridas y semi-
áridas, o en zonas con escasa cobertura vegetal, el flujo geotérmico diario es un
componente importante en la ecuación del balance (Idso et al., 1975).

La energía acumulada en la vegetación (S) (W/m2), depende de su


arquitectura, altura y densidad de cobertura. En las forestaciones esta puede
presentar valores de entre el 6 y el 10 % de la radiación neta, siendo un factor de
importancia en estos sistemas (Moore y Fish, 1986; Masataka et al., 2003), pero se
considera despreciable en canopeos menores a los 8 metros (Wilson et al., 2002).
La energía utilizada en el proceso fotosintético (P) (W/m2), representa solo
un pequeño porcentaje de la radiación neta, en promedio menos del 3%, por lo que
no suele ser incluida en el balance.

Según Courault et al., (2003), los modelos utilizados para la estimación de la


evapotranspiración mediante el uso de sensores remotos pueden separarse en tres
categorías: i) los métodos empíricos directos, ii) los métodos residuales del balance
de energía y iii) los métodos indirectos. Cada categoría tiene determinadas
características (Tabla 9.3).

160
Los métodos empíricos directos son más sencillos de utilizar pero menos
precisos y sólo pueden aplicarse en la zona en que fueron generados. Los métodos
residuales del balance de energía son en general, un poco más complejos pero muy
versátiles dado que el cálculo de los distintos componentes o la relación entre ellos
pueden realizarse en forma directa (empírica) o indirecta (modelos físicos). Los
métodos indirectos son los más sofisticados ya que describen de manera muy
detallada y a intervalos de tiempo muy cortos -segundos u hora-, todos los procesos
físicos que participan en la evapotranspiración. Esto implica que se debe disponer
de una gran cantidad de información para utilizarlos. Las ventajas de los métodos
indirectos sobre el resto de los modelos son: i) que pueden ser aplicados a otras
regiones si se posee información sobre los diferentes parámetros de la zona y ii)
que generan variables intermedias, pudiendo utilizar éstas como valores de entrada
a otros modelos de simulación en donde se estime por ejemplo, el crecimiento de la
vegetación. A continuación mencionaremos brevemente los modelos más
difundidos de las distintas clases.

Tabla 9.3 Características de las diferentes categorías de modelos para el cálculo de


ET según Courault et al., (2003).

Resolución
Categoría Complejidad Cálculos Precisión Aplicación
temporal
Métodos
Baja/
empíricos Baja Empíricos Local Diaria
media
directos
Métodos
Empíricos y
que utilizan Baja/ Local/ Mensual/
con base Media
el balance media global Diaria
física
de energía
Métodos Con base Hora/minuto
Alta Alta Global
indirectos física segundo

[Link] Los métodos empíricos directos


Son aquellos en los cuales la información satelital es ingresada directamente
al modelo para el cálculo de la ET. Dentro de esta metodología encontramos una
relación sencilla y ampliamente utilizada, generada por Jackson et al., (1977)
denominada método simplificado. Este método estima la evapotranspiración diaria
(ETd) integrando la diferencia instantánea (i) entre la temperatura superficial del
suelo (Ts) y la temperatura del aire (Ta):

161
ETd = Rnd - B (Ts – Ta) i n

La base teórica del modelo es el balance de energía ya mencionado y se


utiliza la información satelital para la obtención de Ts y la información de estaciones
meteorológicas para estimar Rnd y Ta. El modelo tiene dos supuestos: i) que la
relación entre el calor sensible (H) y la radiación neta (Rn) permanecen constante a
lo largo del día y ii) que el flujo geotérmico (G) es nulo. Para su aplicación debe
disponerse o realizarse mediciones directas para ajustar los valores de B y n, ya que
se suponen constantes dependientes del tipo de cobertura y el sitio. Estos
coeficientes no están disponibles para una gran cantidad de sitios por lo que limitó
el uso del modelo. Sin embargo, Carlson et al., (1995) observaron a partir de
simulaciones con modelos denominados SVAT (Soil Vegetation Atmosphere
Transfer Model), que los coeficientes “B” y “n” eran muy poco sensibles a los
cambios de la velocidad del viento y la rugosidad, factores que influyen en la
cobertura vegetal. A su vez, Choudhury et al., (1994) propusieron la relación entre
la cobertura vegetal y el índice verde normalizado (IVN) como el cociente:

N* = (IVN – IVN0)
(IVNs – IVN0)

donde IVN0 es el valor del suelo desnudo y IVNs es el valor de una cobertura del
100%. De este modo, se pudo estimar el porcentaje de cobertura vegetal a partir de
escalar los valores de IVN. A partir de esta información, Carlson et al., (1995),
generaron las relaciones entre los coeficientes B y n y el índice verde normalizado
escalado (N*) en dos ecuaciones que permitieron resolver de forma sencilla la
estimación de estos coeficientes:

B= 0.0109 + 0.051 (N*)

n= 1.067 – 0.372 (N*)

Con respecto al valor de Ta, Carlson y Buffum, (1989), propusieron que la


misma fuera la correspondiente a una altura de 50 metros, donde las condiciones
atmosféricas en general tienen menos variabilidad.

[Link] El método de balance energético o método residual


Este método combina tanto relaciones empíricas como modelos físicos para
el cálculo de los diferentes parámetros, o la relación entre ellos. Dentro de esta
categoría se han desarrollando varios modelos. Entre ellos podemos mencionar al

162
propuesto por Bastiaanssen et al., (1998 a, b) que se denomina SEBAL (Surface
Energy Balance Algorithm for Land) y al desarrollado por Roerink et al., (2000) que
se denomina con el nombre de S-SEBI (Simplified Surface Energy Balance Index).

El modelo SEBAL tiene una aproximación intermedia ya que utiliza tanto


relaciones empíricas como modelos físicos para la parametrización de los distintos
componentes del algoritmo. Ha sido diseñado para estimar la partición de energía a
nivel regional con mínima información de campo. El modelo requiere mapas de
radiación incidente, temperatura superficial, albedo e IVN, estos últimos tres
generados a partir de imágenes. A su vez, el modelo requiere que se identifiquen
superficies secas y húmedas dentro del área de estudio para determinar valores
límite del flujo de calor sensible. A partir de las estimaciones anteriores y la fracción
evapotranspirativa (EF)2 se dervia el flujo de calor latente (Gomez, 2005). En la
figura 9.4 se muestra un diagrama de las etapas seguidas por el modelo para el
cálculo de la ET.

En el modelo S-SEBI, al igual que en el anterior, la estimación del flujo


geotérmico se realiza de manera empírica y los flujos de calor sensible y latente no
son independientes, estimándose a partir de la fracción evapotranspirativa. No sólo
deben estar presentes superficies secas y húmedas dentro del área de estudio, sino
que también se asumen condiciones atmosféricas constantes. Este modelo
introduce una nueva metodología en la estimación de EF basada en una relación
entre la temperatura y los valores de albedo de una superficie.

Desde principios de la década del ´90 se ha comenzado a desarrollar una


metodología denominada “el método del triángulo” (Smith y Choudhury, 1991;
Moran et al., 1994; Gillies et al., 1997; Sandholt et al., 2002) que actualmente está
teniendo gran difusión en la estimación de la fracción evapotranspirativa (EF) y
puede ser utilizada en los modelos mencionados anteriormente. Este método se
basa en parametrizar empíricamente la relación entre la temperatura superficial Ts
y los valores de IVN. Al eliminar las áreas de nubes y los cuerpos de agua, la
distribución en el espacio (Ts-IVN) de los valores de temperatura y de IVN de cada
píxel forman un triangulo, de allí su nombre (Figura 9.5).

Dentro del triángulo quedan determinadas distintas áreas. En el área


izquierda del triángulo, es decir con valores bajos de IVN, la mayor parte de la

2
Fracción de la energía neta disponible en la superficie terrestre que se destina al proceso de
evapotranspiración.

163
energía destinada a la ET se utiliza en el proceso de evaporación ya que la cobertura
vegetal es baja. Lo contrario sucede en el área derecha con valores altos de IVN
donde la mayor parte de la energía destinada a la ET se utiliza en el proceso de
transpiración. A su vez, la energía que llega a la superficie eleva la temperatura
(calor sensible). Sin embargo, en la parte inferior del triángulo, lo que mantiene los
valores de temperatura bajos es el hecho de que la energía se disipa principalmente
como calor latente. En esta última relación se observa la dependencia de la
temperatura superficial con el contenido hídrico del suelo que es la base teórica del
cálculo que estima la fracción evapotranspirativa (EF).

Se denomina Borde húmedo a las situaciones donde la disponibilidad de


agua para la ET es ilimitada (en la figura 9.5, el eje horizontal). En estas situaciones
la temperatura superficial permanece mínima y constante en un gradiente de IVN.
Se denomina Borde seco a las situaciones donde la disponibilidad de agua para la ET
es nula (en la figura 9.5, la hipotenusa del triángulo). En estas situaciones la
temperatura superficial es máxima y disminuye a medida que aumenta el IVN. De
esta manera, puede determinarse qué porcentaje de la energía incidente se destina
a cada uno de los dos procesos (calor sensible o latente) al ubicar cada píxel dentro
del espacio Ts-IVN y al registrar su ubicación con respecto a los valores de los
bordes seco y húmedo. En general, se genera un “triangulo universal” que no
dependa de las condiciones ambientales y donde los ejes estén entre 0 y 1. Una
característica importante de esta metodología es que la distribución triangular se
mantiene con configuraciones casi idénticas a la de la fracción evapotranspirativa a
pesar de que existan cambios en la radiación neta, en la temperatura del aire o en
el momento de toma de datos del sensor (Carlson, 2007).

Wang et al., (2006), propusieron considerar la amplitud térmica (diferencia


entre la Ts del mediodía y la medianoche) en vez de la Temperatura superficial para
generar el espacio Ts-IVN. La base teórica de esta propuesta es que, el efecto del
contenido hídrico del suelo o de la vegetación más que afectar a la temperatura
superficial en valores absolutos, afecta la inercia de la superficie porque, con
contenidos hídricos mayores, la temperatura tiende a mantenerse constante. En la
práctica, se puede llevar a cabo mediante sensores que monitorean la misma área
tanto de día como de noche. El Sensor MODIS, ubicado en las plataformas Terra y
Aqua presenta esta posibilidad.

[Link] Los métodos indirectos


Son aquellos que describen el intercambio entre el suelo, la planta y la
atmósfera mediante el modelado de procesos físicos que ocurren en cada uno de

164
los compartimentos. También se los denomina modelos determinísticos. Según el
detalle del proceso que se describa (si se separa el suelo de las plantas o si se
consideran una o varias capas en el intercambio suelo-atmósfera) pueden generarse
diferentes grados de complejidad (Figura 9.6). A mayor descripción de los diferentes
procesos son necesarios un mayor número de parámetros y de su precisión.
Algunos de los parámetros pueden ser estimados mediante sensores remotos.
Courault et al., (2003), menciona tres maneras de utilizar esta información espacial
y temporalmente explícita en los modelos: a) utilizar los valores como variables de
entrada del modelo, b) corregir el curso de las diferentes variables para que estas se
correspondan, de estar disponibles, con los valores proporcionados por los sensores
remotos (asimilación secuencial), c) volver a correr el modelo cambiando ciertos
parámetros para que los valores resultantes ajusten con todos los proporcionados
por los sensores remotos (asimilación variacional).

Los modelos más difundidos con esta metodología son los denominados
SVAT (Soil-Vegetation-Atmosphere Transfer models) que incluyen infinidad de
variantes. Uno de los mayores problemas para el uso de imágenes en estos modelos
es su resolución espacial ya que al describir los procesos de forma tan detallada que
los valores obtenidos a partir de píxeles de varios metros de lado que incluyen
diferentes coberturas no son adecuados. Los principales parámetros que se extraen
de información satelital son: el índice de área foliar, el albedo y la emisividad entre
otros.

9.5 Aplicaciones en estudios ecológicos


La posibilidad de estimar flujos de C y agua mediante sensores remotos
brinda enormes posibilidades en estudios ecológicos regionales ya que permite
cuantificar variables ecosistémicas de manera directa sobre áreas extensas sin
necesidad de recurrir a protocolos de extrapolación de mediciones puntuales. El uso
de estimaciones de variables ecosistémicas funcionales derivadas de la
teledetección tiene varios antecedentes en la literatura (ver Kerr y Ostrovsky, 2003;
Petorelli et al., 2005). Petorelli et al., (2005), resumen los atributos que pueden
calcularse a partir de las curvas estacionales de IVN derivadas de datos
suministrados por plataformas con alta resolución temporal (AVHRR/NOAA o
MODIS, por ejemplo) (Tabla 9.3; Figura 9.2.1). Las Cajas 9.1, 9.2 y 9.3 presentan
ejemplos en donde la estimación de variables biofísicas se aplica a la evaluación de
distintos aspectos del funcionamiento ecosistémico.

165
Figura 9.1 Secuencia de pasos para la generación de Atributos funcionales que
permiten caracterizar el funcionamiento ecosistémico a partir de la información
provista por los sensores remotos.

Figura 9.2 Firma espectral de dos superficies, una vegetada y otra, suelo desnudo.
Se indica con flechas las longitudes de onda (nm) utilizadas para el cálculo de los
índices espectrales referidos (IVN, IRF e IVM).

Figura 9.3 Influencia del material senescente sobre el IVN y la fRFAA. (A) Diseño del
experimento manipulativo. (a) vista de perfil del diseño experimental. I, D, G son las
posiciones donde se realizaron las mediciones. (b) vista vertical de las nueve
mediciones radiométricas efectuadas (círculos: campo de visión del sensor) y las
cinco replicas de las mediciones de PAR (barras grises). (B) Relación entre la fracción
cubierta por material senescente y las mediciones de IVN en dos posiciones 1-
Rombos llenos: medido sobre la cubierta de material senescente integrando el
efecto de este y la biomasa verde inferior (posición I) 2-Cuadrados vacios: medido
bajo la cubierta de material senescente (posición D). Las barras de error
representan 1 DS de las nueve mediciones. (C) Fracción de la RFA absorbida (fRFAA)
en función del IVN. Cruz: absorbida por todo el canopeo Círculo: absorbida por la
biomasa verde.

Figura 9.4 Principales componentes del modelo SEBAL (Surface Energy Balance
Algorithm for Land) que convierte las mediciones de energía reflejada y emitida
registradas por el sensor en valores de ET e indicadores de humedad del suelo
(Bastiaanssen, 1998a).

Figura 9.5 Relación Temperatura superficial/IVN (Lambin & Ehrlich 1996 en


Sandholt et al., 2002). De esta figura se deriva el llamado “método del triangulo”
utilizado para estimar la fracción evapotranspirativa (EF).

Figura 9.6 Estructura esquemática de modelos SVAT de una o varias capas donde
(gvi: conductancia superficial de la capa vegetación i; H: flujo de calor sensible; Hs:
flujo de calor sensible de la superficie del suelo; Hvi: flujo de calor sensible de la
capa vegetación i; hvi: coeficiente de intercambio turbulento de la capa vegetación
i; LE: flujo de calor latente; LEs: flujo de calor latente de la superficie del suelo; Levi:
flujo de calor latente de la capa vegetación i; qa: humedad del aire; qaci: humedad
del aire dentro de la capa vegetación i; r*: resistencia superficial; ra: resistencia
aerodinámica; Rg: radiación solar global; Ta: temperatura del aire; Taci:
temperatura del aire dentro de la capa vegetación i) (Olioso et al., 1999).

166
Caja 9.1 Evapotranspiración

Como ejemplo de la utilización de sensores remotos aplicados a la


estimación de ET se describirán dos trabajos: uno que genera un modelo para la
estimación de la ET a nivel regional (región Pampeana) a partir de imágenes AVHRR-
NOAA (Di Bella et al., 2000) y otro en el cual se utilizan imágenes Landsat ETM+ de
diferentes fechas para comparar la ET en diferentes momentos de distintos tipos de
cobertura (forestación vs. pastizal) en la provincia de Entre Ríos (Nosetto et al.,
2005).

i) Estimación de la evapotranspiración en la Región Pampeana de Argentina


utilizando imágenes NOAA AVHRR (Di Bella et al., 2000).
El objetivo del trabajo fue la generación de un modelo empírico para la
estimación de la ET a nivel regional a partir de un modelo de regresión múltiple e
imágenes del sensor AVHRR ubicado sobre la plataforma NOAA. Para la regresión se
utilizaron la temperatura superficial y el IVN de compuestos decádicos con una
resolución espacial de 8Km x 8Km, desde julio de 1982 a enero de 1983, época en la
cual la región sufrió una sequía severa. Las imágenes de temperatura se corrigieron
atmosféricamente mediante el modelo de Split Window propuesto por Sobrino et
al., (1991). Se eligieron 6 sitios (Concepción del Uruguay, Gualeguaychú, Laboulaye,
Pergamino, Rafaela, San Pedro) que disponían de información meteorología para los
cuales, mediante un balance hídrico, se estimó la ET mensual para validar el
modelo. Los mismos incluyen todos los tipos de uso del suelo presentes en la
región, desde pastizales a agricultura intensiva.

El modelo generado fue (R2= 0.7535; n=41; P<0.0001):

ET (mm) = -88.3439 + 1.77636 Ts (ºC) + 286.406 IVN

La validación cruzada (tanto espacial como temporal) del modelo mostró


una subestimación del mismo para los mayores valores de ET mencionando el
hecho de la saturación del IVN como una de las posibles causas. De todas maneras,
el modelo aporta una mejora a la estimación de la ET a nivel regional dado que la
información de estaciones meteorológicas es escasa y dispersa.

Figura 9.1.1 Estimaciones de la evapotranspiración (ET) a partir de la interpolación


de registros de una red de estaciones meteorológicas (a) y estimada a partir de
percepción remota, sensor NOAA-AVHRR para el mes de diciembre de 1982 (b) (Di
Bella et al., 2000).

167
ii) Cambio en el uso del suelo y las pérdidas de agua: el caso de la forestación de
pastizales a lo largo de un gradiente textural en Argentina central. (Nosetto et al.,
2005)
El objetivo del trabajo fue comparar los patrones de ET de las forestaciones y
los pastizales. Para ello se utilizaron 7 imágenes Landsat ETM+ despejadas del Path-
Row 225-082 distribuidas a lo largo de 3 años asegurándose una amplia inclusión de
variabilidad en la disponibilidad hídrica. Las imágenes fueron geométricamente
corregidas con el método de Puntos de control (Ground Control Point) (Eastman,
1999). Para minimizar los efectos atmosféricos, las bandas no térmicas se
corrigieron radiométricamente con el método de sustracción del objeto oscuro
(Chavez, 1989) mientras que a las térmicas se les aplicó el algoritmo de la ventana
(mono-window, Qin et al., 2001). Se estimó para cada imagen la ET diaria con el
modelo simplificado propuesto por Jackson et al., (1977). La radiación neta se
estimó con un modelo semi-empírico (Shuttleworth, 1993) y el albedo utilizado en
este con el modelo empírico propuesto por Liang, (2000). La temperatura a 50
metros se estimó a partir de la temperatura registrada a 1,5 metros en una estación
meteorológica ubicada en el centro de la imagen según Campbell y Norman, (1998).
Los parámetros B y n se obtuvieron a partir de los valores de índice verde
normalizado con la metodología propuesta por Carlson et al., (1995). Los resultados
mostraron que las forestaciones evapotranspiraron más que los pastizales en todas
las fechas, siendo este valor del 81% en promedio. La ET fue más estable en el
tiempo en las forestaciones que en los pastizales (coeficientes de variación entre
fechas: 35,5 % forestación; 49,2% pastizal; P<0.0001).

Caja 9.2 Definición de Tipos Funcionales de Ecosistemas

Un objetivo frecuente en Ecología es describir la diversidad de entidades


biológicas (ya sean genes, especies o ecosistemas). En el caso de los ecosistemas, la
escala a la cual se manifiestan los atributos que los definen (flujos de materia y
energía) hace particularmente difícil su caracterización. Los “tipos funcionales de
ecosistemas” (TFE) identifican grupos que comparten características relacionadas
con la dinámica de los intercambios de materia y energía entre la biota y la
atmósfera y que además, responden de manera semejante ante factores
ambientales (Soriano y Paruelo, 1992). Los TFE equivalen, a un nivel jerárquico
superior, a los tipos funcionales de plantas (TFP). La identificación de TFE ha
permitido describir los patrones regionales de las ganancias de C por parte de la
vegetación y la diversidad funcional de los ecosistemas templados de Sudamérica

168
(Paruelo et al., 2001; Baeza et al., 2006) e ibéricos (Alcáraz et al., 2006). En este
último caso la definición de TFE se basó en el IVN obtenido de imágenes obtenidas
por los satélites AVHRR/NOAA para el período 1982 y 1999. Cada unidad de
muestreo (cada píxel de 64 km2) se caracterizó por medio de la curva estacional de
IVN promedio para el período. De dicha curva se extrajeron los siguientes atributos
funcionales (ver figura 9.2.1): 1) la integral anual (IVN-I), un estimador de la
absorción total de radiación por parte de los tejidos verdes, obtenida como la media
de los 12 valores mensuales de IVN, 2) el rango relativo anual (RREL), un indicador
de la estacionalidad en la absorción de radiación (la diferencia entre el máximo y el
mínimo IVN, dividida por la integral) y 3) el mes con máximo IVN (MMAX), que
describe la fenología —la variación con las estaciones— de la vegetación. La
absorción de la radiación (el principal determinante de la productividad primaria)
(IVN-I) decrece desde el NO al SE, con valores mayores en el N y NO peninsular
(región atlántico-pirenaica) y en las altas montañas mediterráneas (Figura 9.2.1a).
La estacionalidad (RREL) es baja en los territorios atlánticos y en las montañas
mediterráneas, mientras que es alta en los picos de la Cordillera Cantábrica y los
Pirineos, en los grandes ríos, las llanuras agrícolas, los humedales y el sudeste árido
(Figura 9.2.1b). El momento del máximo IVN (MMAX) fue el verano en el N y NO
ibéricos y en las altas montañas, humedales y regadíos de la región mediterránea, el
otoño e invierno temprano en el resto de las áreas montañosas y la primavera en
las zonas semiáridas, depresiones fluviales y llanuras continentales (Figura 9.2.1c).

La categorización de los gradientes de estas características y su combinación


permitió agrupar los píxeles en unidades funcionales (TFE) que integran en un solo
mapa (Figura 9.2.2) todos los patrones de intercepción de radiación descritos. No se
puede hablar de correspondencia total entre tipos funcionales y estructura de la
vegetación: algunas áreas pertenecientes a un TFE pueden presentar distinta
estructura, y otras con igual estructura pueden tener diferente dinámica y por
tanto, pertenecer a dos TFE. La correlación entre los TFE y los usos antrópicos del
suelo en un 15 % del territorio ibérico, pone de manifiesto el impacto humano
sobre el funcionamiento ecosistémico. El bioclima resultó ser el principal control en
los TFE asociados con la vegetación menos modificada por la intervención humana:
el 22 % de la Península.

Figura 9.2.1 Patrones geográficos de los atributos funcionales derivados de la curva


anual del índice verde normalizado a)integral anual de IVN un estimador de la
productividad b) rango relativo anual de IVN, indicador de la estacionalidad c) mes
del máximo valor de IVN, descriptor de la fenología (Paruelo et al., 2005).

169
Figura 9.2.2 Unidades funcionales (TFE) derivadas de la combinación de todos los
patrones de intercepción de radiación descriptos en la Figura 9.2.1 (Paruelo et al.,
2005).

Caja 9.3 Evaluación de la desertificación

Uno de los problemas ambientales sobresalientes de este siglo es la


desertificación. De hecho, en 2006 el PNUMA (Programa de Naciones Unidas para el
Medio Ambiente), dedicó el día del medio ambiente a este problema. La definición
de este concepto no ha estado exenta de controversias. Glantz y Orlovsky, (1983),
recopilaron más de 100 definiciones de desertificación que involucran múltiples
escalas de tiempo y espacio y frecuentemente sugieren interpretaciones dispares. Si
bien hoy existe cierto consenso en torno a la definición de desertificación de las
Naciones Unidas (Reynolds y Stafford Smith, 2002) este adelanto no ha sido
suficiente para eliminar la percepción de que la desertificación es un mito. La falta
de una metodología que permita estimar la extensión e intensidad de la
desertificación de manera objetiva junto con la utilización caprichosa de las
estimaciones existentes por parte de la prensa y el ámbito científico y político
(Reynolds y Stafford Smith, 2002; Thomas, 1997), continúan generando
escepticismo en la sociedad. Verón et al., (2006), revisaron las metodologías para la
estimación de la desertificación e identificaron como un particular adelanto el uso
de indicadores de funcionamiento ecosistémico. La degradación de la tierra a la que
hace referencia la definición de las Naciones Unidas (1994), constituye la pérdida o
reducción de la productividad biológica o económica y de la complejidad de los
ecosistemas. La productividad primaria neta (un atributo funcional clave de los
ecosistemas) puede ser utilizada como un buen estimador de la productividad
biológica ya que representa toda la energía disponible para el resto de los
organismos y está muy asociada a aspectos estructurales (e.g. biomasa de
herbívoros, materia orgánica del suelo, diversidad de especies) y funcionales (e.g.
ciclo de los principales nutrientes o productividad secundaria) de los ecosistemas.
Prince et al., (1998) y Nicholson et al., (1998), fueron de los primeros en usar
variables ecosistémicas como indicadoras de la desertificación. Para ello,
recurrieron a la eficiencia en el uso de la precipitación (EUP), o sea el cociente entre
la productividad primaria neta aérea y la precipitación anual. Este índice había sido
sugerido por Le Houérou, (1984), pero Prince et al., (1998), lo tornan operativo al
estimar la productividad primaria mediante sensores remotos. Prince et al., (1998)
argumenta que la desertificación aumenta las pérdidas por escurrimiento y
evaporación en detrimento de la transpiración, lo cual reduciría la productividad

170
primaria. Prince et al., (1998) y Nicholson et al., (1998) a partir de mediciones de
EUP concluyen que no existe evidencia de una desertificación extensiva en el Sahel
(África) ya que esta variable no muestra una tendencia decreciente en el tiempo.

En un estudio en la porción más árida de Europa (Almería, España), Paruelo


et al., (2005), encuentran que la RFAA, estimada con el IVN calculado a partir de
datos de los sensores AVHRR/NOAA, tiene una relación significativa con la suma de
la precipitación de la estación de crecimiento presente y de las dos previas. Más
aún, cuando se comparan áreas protegidas y no protegidas, aquellas con mayor
modificación antrópica (fuera de los parques), tienen una menor sensibilidad a
cambios en la precipitación que aquellas bajo protección. Estos autores proponen la
pendiente de la relación entre RFAA y la precipitación (Respuesta Marginal de la
Precipitación, RMP) como la base de un sistema de monitoreo del deterioro en
sistemas áridos y semiáridos. Verón et al., (2006), extiende este concepto y sugiere
el uso combinado de la RMP y la EUP para evaluar la desertificación. La
disponibilidad de datos de precipitación y de estimaciones de productividad
primaria neta o RFAA en base a sensores remotos asegura su aplicación a escala
regional. Estos indicadores de desertificación, al estar basados en variables
funcionales, tienen una mayor capacidad de percibir procesos de deterioro
incipientes que aquellos basados en características edáficas (signos de erosión, por
ejemplo), dando mayores posibilidades a acciones de remediación o restauración
antes de que ocurran cambios irreversibles.

171

También podría gustarte