Cours Télédéction
Cours Télédéction
GEORES
Armand MBAIRESSEM
Expert en SIG et Télédétection
mbairessemarmand@[Link]
Le système visuel
Le Système biologique qui nous permet de
voir est un système de télédétection.
La rétine est constituée par des cônes et des
bâtonnets, ces cellules visuelle
transforment l’énergie électromagnétique
en influx nerveux sensitif qui sera transmis
au cerveau par le nerf optique par toute une
série de réactions chimiques.
L’oeil envoie l’information au cerveau ;
Ce dernier décompose la lumière en trois
bandes de couleurs différentes et il refait la synthèse en combinant ces trois couleur et en
déduit une seule.
Les satellites, eux donnent une information générale, n’augmentant pas la quantité
d’information sur le point intéressant.
Comparaison œil satellite
OEil Capteurs
Cellules visuelles Les canaux (XS et Pan)
Cerveau La station de réception
Cerveau
En télédétection, on utilise les propriétés physique des objets observés, en
particulier leurs propriétés optiques, pour acquérir de l’information sur la
nature de ces objets. Cette information est portée vers le système
d’observation à l’aide d’un rayonnement électromagnétique, comme la
lumière.
La télédétection
Qu'est-ce que la télédétection ?
« La télédétection est la technique qui, par l'acquisition
d'images, permet d'obtenir de l'information sur la surface de
la Terre sans contact direct avec celle-ci. La télédétection
englobe tout le processus qui consiste à capter et à
enregistrer l'énergie d'un rayonnement électromagnétique
émis ou réfléchi, à traiter et à analyser l'information, pour
ensuite mettre en application cette information. »
Source : CCT
Définitions
«La télédétection est "l'ensemble des connaissances
et techniques utilisées pour déterminer des
caractéristiques physiques et biologiques d'objets
par des mesures effectuées à distance, sans contact
matériel avec ceux-ci ».
Elle utilise les propriétés d'émission ou de rayonnement
des ondes électromagnétiques par les objets.
La télédétection est le plus souvent appliquée à
l'observation de la Terre, mais peut aussi concerner
d'autres planètes, étoiles, galaxies...
La télédétection, c’est…
« La science et la technique permettant d’obtenir
une information utile sur un objet, une scène ou
un phénomène à travers l’analyse de données
acquises par un système qui n’est pas en contact
avec l’objet, la scène, ou le phénomène étudié. »
Lillesand, Thomas M. and Ralph W. Kiefer,
"RemoteSensingand Image Interpretation", John
Wileyand Sons, Inc, 1979, pp610.
ETAPES DU PROCESSUS DE
TELEDETECTION
1. Source d'énergie ou d'illumination (A) - Tout
processus de télédétection nécessite une source
d'énergie pour illuminer la cible.
2. Rayonnement et atmosphère (B)
- Durant son parcours entre la source d'énergie et la cible, le
rayonnement interagit avec l'atmosphère. Une seconde
interaction se produit lors du trajet entre la cible et le
capteur.
3. Interaction avec la cible (C)
- Une fois parvenue à la cible, l'énergie interagit avec la
surface de celle-ci. La nature de cette interaction dépend
des caractéristiques du rayonnement et des propriétés de la
surface.
4. Enregistrement de l'énergie par le capteur (D) -
Une fois l'énergie diffusée ou émise par la cible, elle doit
être captée à distance (par un capteur qui n'est pas en contact avec la cible) pour être enfin enregistrée.
Source d'énergie
L’acquisition d’images est l'interaction entre trois
éléments fondamentaux
une source d'énergie
une cible
une plate-forme
d’acquisition
Capteur
Source
d'énergie
Adaptée de : [Link]
Le rayonnement
électromagnétique
Energie transportée dans l'espace sous forme d'ondes ou
de particules composé d'un champ électrique (E) et d'un
champ magnétique (M)
Source d'énergie
Le rayonnement électromagnétique
Longueur d'onde (λ en m)
Longueur d'un cycle d'une onde, distance entre deux crêtes successives
d'une onde
Mesurée en mètres ou sous-multiples
Fréquence (v en Hz)
Nombre d'oscillations par unité de
temps
Inversement proportionnelles
C=λv
C = vitesse de la lumière
Source d'énergie
Source : Gonzales et Woods 2002
Les sources du rayonnement varient également selon le domaine du
spectre:
- le rayonnement ultraviolet, visible ou infrarouge est émis par les
corps, objets ou surfaces en fonction de leur température :
rayonnement solaire (U.V., visible et proche infrarouge),
rayonnement terrestre (infrarouge thermique).
- les rayonnements de très courte longueur d’onde (rayons
gamma, rayons X) sont produits par les restructurations des
noyaux des atomes (radioactivité).
- les rayonnements visible, infrarouge ou microonde peuvent être
produits artificiellement par vibration ou rotation des molécules
(fluorescence, lasers, four à microondes).
- les rayonnements de grande longueur d’onde sont produits par
des oscillations électroniques (antennes).
L’onde électromagnétique
L’onde électromagnétique simple (monochromatique, plane). Elle se caractérise par :
- la période T : c’est le temps au bout duquel le champ électrique ou magnétique retrouve sa valeur à partir d’un instant
quelconque, c’est à dire effectue un cycle. L’unité est la seconde.
- la fréquence, désignée par la lettre : c’est le nombre de cycles par unité de temps.
L’unité de fréquence est le Hertz (Hz). Un Hz équivaut à un cycle par seconde. Les ondes
22 utilisées en télédétection se caractérisent par des fréquences très élevées mesurées en
multiples du Hz (kHz, MHz ou GHz –gigahertz)
- la longueur d’onde ou amplitude : elle est exprimée par une unité de longueur, le mètre ou ses sous-multiples, en particulier :
le micron ou micromètre : μm. 1μm = 10-6m
et le nanomètre : nm. 1nm = 10-9m
13/10/2017 26
Entre la longueur d’onde et la fréquence existe la relation classique: = c où c est la vitesse de
propagation du rayonnement dans le vide (vitesse de la lumière): c = 3 . 108 m.s-1
L’onde électromagnétique
Champs électrique et magnétique d'une onde plane.
Les lois physiques de la propagation des ondes
électromagnétiques dans les divers milieux
traversés
–UV -radio
UV Transferts de
charge dans les
Radio
cristaux
RMN
Absorption par les
Stimulation atomes H
gaz
par ondes Radio
Sources Gamma
astronomiques (sursauts
galactiques)
Tomographie
(absorption des
rayons X)
Source d'énergie
Le rayonnement électromagnétique
Ultraviolet
plus petites ondes en télédétection
Certains matériaux, surtout des
roches et minéraux, entrent en
fluorescence ou émettent de la
lumière visible quand illuminés par
l’ultraviolet
Source : CCT
Source d'énergie
Le rayonnement électromagnétique
Visible
très petite partie du REM
de 0,4 à 0,7 μm
De 400 à 700 nm
très grande partie du REM est
invisible à l'œil nu, mais peut être
captée!
Source : CCT
Source d'énergie
Le rayonnement électromagnétique
Visible
Le rouge à la plus grande longueur d'onde
Le violet a la plus courte
Le prisme réfracte la lumière de façon différente
selon la longueur d'onde
Source d'énergie
Le rayonnement
électromagnétique
L'infrarouge (0,7 à 100 μm)
deux catégories
IR réfléchi
utilisé de la même façon que le visible
de 0,7 à 3 μm
IR émis ou thermique
Rayonnement émis sous forme de
chaleur par la surface de la Terre et autres de 3 à 100 μm
Source d'énergie
Le rayonnement électromagnétique
Les hyperfréquences
micro-ondes
les plus grandes longueurs d'onde utilisées
en télédétection
de 1 mm à 1 m
de l'infrarouge thermique aux ondes radio
12.24 cm : 2450 MHz pour chauffer sa
soupe !
Bande S
Source : CCT
Source d'énergie
Propriétés des ondes électromagnétiques
fondamentales en télédétection
la réflexion
l’absorption
la transmission
la diffusion
l'émission
autres propriétés
la diffraction La réfraction
la polarisation
l'effet Doppler
important en télédétection RADAR notamment
Source d'énergie
Propriétés des ondes électromagnétiques
la réflexion
un corps qui reçoit un REM peut en réfléchir une partie
albédo : énergie solaire réfléchie par une portion d'espace
terrestre (% réfléchie)
spéculaire ou diffuse
Source : [Link]
Source d'énergie
Propriétés des ondes électromagnétiques
l’absorption
un corps qui reçoit un REM peut en absorber une partie
cette énergie absorbée est transformée et modifie l'énergie
interne du corps
peut augmenter la température interne du corps
les grosses molécules de l'atmosphère (ozone, bioxyde de
carbone et vapeur d'eau) absorbent l'énergie de diverses
longueurs d'onde
Source d'énergie
Propriétés des ondes électromagnétiques
la transmission
un corps qui reçoit un REM peut en transmettre une partie
un objet transparent à une transmittance élevée dans les
longueurs d'ondes visibles
une surface d'eau pure ou le feuillage d'arbres sont des exemples
de surfaces susceptibles de transmettre une partie du REM
Source d'énergie
Propriétés des ondes électromagnétiques
la diffusion
très grande importance en télédétection
des particules microscopiques dans l'atmosphère amènent la
diffusion dans toutes les directions d'une partie du REM
le REM traversant ce milieu peut alors être considérablement
transformé.
environ 25% du rayonnement solaire qui traverse l'atmosphère
est diffusé
peut être beaucoup plus important lorsque l'atmosphère est chargé
en aérosols et vapeur d'eau
Source d'énergie
Propriétés des ondes électromagnétiques
trois types de diffusion
diffusion de Rayleigh
diffusion de Mie
diffusion non-sélective
Source d'énergie
diffusion de Rayleigh
lorsque la taille des particules est inférieure à la longueur
d'onde du rayonnement
particules de poussière ou molécules d'azote ou d'oxygène
disperse et dévie de façon plus importante les courtes
longueurs d'onde
c’est pourquoi
le ciel est bleu
forme de
diffusion
prédominante
dans les
couches
Source : CCT
supérieures de l'atmosphère.
Source d'énergie
diffusion de Mie
les particules sont presque aussi grandes que la longueur d'onde
du rayonnement
poussière, pollen, fumée et eau
affecte les plus grandes longueurs d'onde
surtout dans les couches inférieures de l'atmosphère où les
grosses particules sont plus abondantes
Source d'énergie
diffusion non-sélective
lorsque les particules sont beaucoup plus grosses que la longueur
d'onde
gouttes d'eau et grosses particules de poussière
"non-sélective" car toutes les longueurs d'onde sont dispersées
les gouttes d'eau de l'atmosphère dispersent le bleu, le vert, et le
rouge de façon presque égale, ce qui produit un rayonnement
blanc
c'est pourquoi le brouillard et les nuages nous paraissent blancs.
Source d'énergie
Propriétés des ondes électromagnétiques
l'émission
tout corps dont la température thermodynamique est supérieure
au zéro absolu (-273 °C) émet un rayonnement
électromagnétique
l'émetteur, appelé aussi source, peut être le soleil, le capteur
(RADAR, LIDAR) ou encore la cible (infrarouge thermique).
Source d'énergie
Propriétés des ondes électromagnétiques
Déviation de la direction de propagation d'un rayonnement
lorsque celui-ci frappe un obstacle ou traverse un trou, une
Source : [Link]
Source d'énergie
Propriétés des ondes électromagnétiques
La réfraction
Déviation de la trajectoire d’une onde électromagnétique lors de
son passage d'un milieu à un autre (Snell's Law)
Source : [Link]
Source d'énergie
Propriétés des ondes électromagnétiques
la polarisation
concerne la variation du plan d’oscillation de l’onde produite par
les plans d’eau, les feuilles, les aérosols contenus dans
Transmission/Absorption atmosphérique
Source : Space Telescope Science Institute Source : [Link]
Source : [Link]
Identification
Source : CCT
Interactions avec la cible
Chaque objet possède des propriétés spécifiques
Identification
Source : [Link]
Interactions avec la cible
Chaque objet possède des propriétés spécifiques
Identification
Source : [Link]
Interactions avec la cible
Un même objet possède des propriétés variables !
État des cultures
Source : [Link]
Variations de la réflectance des sédiments Variations de la réflectance des sédiments selon le selon
la granulométrie et l’humidité : taux de couverture végétale :
OURAGAN n.m.
(esp. huracân d’une langue
caraïbe)
➔ M
AR
ILY
N
20 JUILLET 96
[NOAA/STARIMSAT/CCT]
Les pré-traitements
Avant de créer des relations entre des mesures au sol, ou
toute autre forme de données, et la réponse aux pixels de
l’image, les images de télédétection doivent être corrigées
pour correspondre géométriquement au territoire (et aux
données).
Cette correction (rectification) est un procédé géométrique
dans lequel l’image est déformée et/ou dégradée afin de la
rendre plus réaliste/représentative de la scène originale.
(Lillesand and Kiefer, 1987)
Les pré-traitements
Restauration et rectification des images
Corrections radiométriques et atmosphériques
Corrections géométriques
Amélioration d’images et le filtrage du bruit
Les pré-traitements
Corrections radiométriques et atmosphériques
Le signal électromagnétique mesuré traverse deux fois l’atmosphère
terrestre
bruits atmosphériques
Irrégularités du capteurs
rayures, lignes manquantes …
Ces corrections sont normalement effectuées
par le fournisseur d’images
Source : [Link]
Les pré-traitements
Les corrections géométriques
Corrections des distorsions géométriques dues aux variations
de la géométrie Terre-capteur
Transformation des données en vraies coordonnées sur la
surface de la Terre
Les pré-traitements
Les corrections géométriques
Corrections des distorsions géométriques dues aux variations de la
géométrie Terre-capteur
Rotation de la Terre durant l’acquisition
Capacité limitée du taux d’acquisition des capteurs
Large champs de vision de certains capteurs
Courbure de la Terre
Les capteurs ne sont pas idéaux Variation de la plate-forme :
altitude, attitude et vitesse
Effet panoramique dues à la géométrie de l’image
Incertitudes de la position exacte de la plate-forme
Les pré-traitements
Les corrections géométriques
Transformation des données en vraies coordonnées sur la surface de la
Terre
ex: latitude, longitude
Corrections géométriques
Deux méthodes pour corriger géométriquement les images :
1-Modèle de navigation de la plate-forme
consiste à transformer les images après avoir appliqué un modèle
mathématique des paramètres géométriques de l’enregistrement de la scène
Chaque plate-forme possède son propre modèle de navigation
Selon le rapport de calibrage du survol
Permet d’identifier précisément la géométrie de la prise d’image –
orientation interne
Corrections géométriques
Source : [Link]
Corrections géométriques
on
Source : [Link]
Corrections géométriques
Prise de points d'appui
Points de contrôle au sol (GCP)
Points d’appuis, de calage ou d’amer
G (u,v) = f(m,n) h (m,n ; u,v)
Orientation absolue (externe)
Source : [Link]
Source : [Link]
Algorithmes de reéchantillonnage
Reéchantillonnage des valeurs des pixels
pour affecter à l'image crée, des valeurs de pixel les plus
proches possible de ceux de l'ancienne image
Plus proche voisin
le pixel le plus proche dans l'image d'origine
Interpolation bilinéaire
moyenne des 4 plus proches voisins (2x2)
Interpolation cubique (convolution)
moyenne des 16 plus proches voisins (4x4)
Autres fonctions de transfert
on
Interpolation bilinéaire
Interpolation cubique
cti
e
ét
léd
Té
Plus proche voisin
Corrections géométriques
Orthorectification
Vise principalement à corriger les déformations de la
photographie liées à la projection de l’axe optique (non
perpendicularité), aux effets du relief de l’objet
photographié, et à la projection conique (le plus souvent
centrale)
Le fichier image obtenu est corrigé à partir des paramètres
d’orientation, de points de calage connus en XYZ et du
Modèle Numérique de Terrain.
Échelle et directions constantes
Vue ORTHOGONALE donc du NADIR partout !
Corrections géométriques
Orthorectification
Corrections géométriques
Orthorectification
on
Orthorectification
Adapté de [Link]
Corrections géométriques
Possibilités dans PCI
l'apparence de
l'imagerie pour aider l'interprétation et l'analyse visuelles.
Les fonctions de rehaussement permettent l'étirement des
contrastes pour augmenter la distinction des tons entre les
différents éléments d'une scène, et le filtrage spatial pour
rehausser (ou éliminer) les patrons spatiaux spécifiques sur
une image.
• Les transformations d'images sont des opérations
similaires à ceux de rehaussement de l'image. Cependant,
alors que le rehaussement de l'image qui est normalement
appliqué à une seule bande de données à la fois, la
transformation de l'image combine le traitement des
données de plusieurs bandes spectrales. Des opérations
arithmétiques (c'est-à-dire addition, soustraction,
multiplication, division) sont faites pour combiner et
transformer les bandes originales en de "nouvelles" images
qui montrent plus clairement certains éléments de la scène.
Nous allons examiner certaines de ces opérations incluant
les diverses méthodes de rapport de bande aussi appelé
rapport spectral et un procédé appelé analyse des
composantes principales qui est utilisée pour mieux
représenter l'information en imagerie multispectrale.
Traitement
interprétation
Traitement interprétation
• Les opérations de classification et d'analyse
d'image sont utilisées pour identifier et
classifier numériquement des pixels sur une
image. La classification est habituellement
faite sur des banques de données
multispectrales (A), et ce procédé donne à
chaque pixel d'une image une certaine classe
ou thème (B) basé sur les caractéristiques
statistiques de la valeur de l'intensité du pixel.
Il existe une variété d'approches prises pour
faire une classification numérique. Nous
allons brièvement décrire deux approches
générales qui sont souvent utilisées, soit la
classification supervisée et la classification
non supervisée.
Corrections géométriques
• Les opérations de pré-traitement, parfois
appelées restauration et rectification
d'image, sont conçues pour corriger les
distorsions géométriques et radiométriques
des plates-formes et capteurs spécifiques. Les
corrections radiométriques peuvent être
nécessaires à cause des variations dans
l'illumination et dans la géométrie de visée
d'une scène, des conditions atmosphériques,
du bruit et de la réponse du capteur. Chacun
de ces facteurs variera selon le capteur et la
plate-forme utilisés, et selon les conditions
d'acquisition des données. Aussi, il peut être
souhaitable de convertir et de calibrer les
données avec une unité de rayonnement ou
réflexion connue (absolue) pour faciliter la
comparaison entre les données
Corrections géométriques
• Des variations dans la géométrie
d'illumination et de visée entre les images
(pour les capteurs optiques) peuvent être
corrigées par la modélisation de la relation
géométrique et la distance entre les aires de
la surface terrestre observées, le Soleil et le
capteur. Ceci est souvent requis pour pouvoir
faire des comparaisons plus rapides entre des
images prises par différents capteurs à
différentes dates ou heures, ou pour faire des
mosaïques d'images avec un seul capteur en
maintenant les conditions d'illumination
uniformes d'une scène à l'autre
• Corrections géométriques
Diverses méthodes de corrections atmosphériques peuvent être
appliquées, allant de
Modèles très détaillés des conditions atmosphériques durant
l'acquisition des données, jusqu'à un simple calcul basé seulement
sur les données de l'image. Un exemple de cette dernière méthode
consiste à examiner l'intensité observée (valeur numérique du pixel)
dans une région ombragée ou un objet très sombre (tel un grand lac
clair -A) et à déterminer la valeur minimale (B) pour chacune des
bandes spectrales. La correction est appliquée en soustrayant la
valeur minimale observée, de tous les pixels dans chaque bande.
Puisque la diffusion dépend de la longueur d'onde (chapitre 1), la
valeur minimale variera d'une bande à l'autre. Cette méthode est
basée sur la supposition que la réflexion de ces éléments est très
petite, voire nulle si l'atmosphère est claire. Les valeurs plus petites
que zéro que l'on pourrait observer sont dues à la diffusion
atmosphérique.
• Le bruit dans une image peut être causé par des irrégularités ou
des erreurs dans la réponse du capteur, ou par la transmission et
l'enregistrement des données. Les formes les plus communes de
bruits sont les rayures, le rubanement systématique et les lignes
manquantes (B). Ces deux effets devraient être corrigés avant
qu'un rehaussement ou une classification ne soient appliqués.
Les rayures étaient fréquentes dans les premières données
Landsat, à l'époque des six détecteurs MSS, à cause de la
variation et de la dérive
Corrections
géométriques
• Nous avons vu que toute les imageries de télédétection sont
sujettes à des distorsions géométriques. Ces distorsions
peuvent être dues à différents facteurs, notamment la
perspective des capteurs optiques, le mouvement du
système de balayage, le mouvement de la plate-forme,
l'altitude, l'orientation et la vitesse de la plate-forme, le
relief du terrain, la courbure et la rotation de la Terre. Les
corrections géométriques sont appliquées pour compenser
ces distorsions afin que la représentation géométrique de
l'imagerie soit aussi proche que possible de la réalité.
Plusieurs de ces variations sont systématiques ou
prévisibles, et on peut en tenir compte par une
modélisation précise du mouvement de la plate-forme et
du capteur, et par la relation géométrique entre la
plateforme et la Terre
Corrections géométriques
• L'avantage d'appliquer une correction
géométrique à une image avant de l'analyser et
de l'interpréter est qu'une image corrigée
permet de mesurer les distances et la superficie
des caractéristiques de l'image. Ceci est
particulièrement pratique pour différentes
utilisations des images où des mesures assez
précises sont nécessaires, comme dans le
domaine de la cartographie des milieux
urbains. De plus, les coordonnées
géographiques des caractéristiques peuvent
ainsi être déterminées. Quand une image est
liée géométriquement à des coordonnées
géographiques connues, elle peut être
combinée avec d'autres données de sources
numériques
Analyse et interprétation des
images : Rehaussement
• On applique le rehaussement des images afin de
faciliter l'interprétation visuelle et la
compréhension des images. Les images
numériques ont l'avantage de nous permettre de
manipuler assez facilement les valeurs enregistrées
pour chaque pixel. Même s'il est possible
d'effectuer les corrections radiométriques pour les
effets de l'illumination solaire, les conditions
atmosphériques et les caractéristiques des
instruments utilisés avant de distribuer les images
aux usagers
• Cette variation importante dans la réponse
spectrale des différents types de cibles (ex. : forêt,
désert, neige, eau, etc.) rend impossible
l'application d'une correction radiométrique
générale capable d'optimiser le contraste et les
niveaux d'intensité dans chacune des conditions. Il
faut donc faire un ajustement différent des tons en
fonction de l'utilisation et de l'état de chacune des
images.
Histogramm
e
La distribution des
radiométries dans une image
est rarement gaussienne : les
histogrammes
unidimensionnels sont
souvent bi- ou tri- modaux et
totalement dissymétriques
(peu de valeurs à droite), il
arrive même que deux
populations bien distinctes
ressortent directement sur
l’histogramme.
seuillage
• A partir des histogrammes unidimensionnels de
l’image, on peut aisément pratiquer
une segmentation, voire une classification
rudimentaire et cela par une opération toute
simple appelée le seuillage.
• Le seuillage effectué avec un seuil unique revient à une opération de binarisation
. Soit
I(x,y), la valeur radiométrique du pixel de coordonnées (x,y) dans l’image,
si I(x,y) > T ,
• T étant le seuil fixé, le pixel prend la valeur 1, sinon il prend la valeur 0. Les pixels
ont
été classés en deux catégories, on a créé une image binaire en noir et blanc
Seuillage
• L'opération dite de "seuillage simple"
consiste à mettre à zéro tous les pixels
ayant un niveau de gris inférieur à une
certaine valeur (appelée seuil, en anglais
treshold) et à la valeur maximale les pixels
ayant une valeur supérieure. Ainsi le
résultat du seuillage est une image binaire
contenant des pixels noirs et blancs, c'est la
raison pour laquelle le terme de
binarisation est parfois employé. Le
seuillage permet de mettre en évidence des
formes ou des objets dans une image.
Toutefois la difficulté réside dans le choix
du seuil à adopter.
Seuillage
Rehaussement d’images
• En manipulant la distribution des niveaux d'intensité
(appelés aussi les tons de gris) dont l'histogramme est la
représentation graphique sur l'ensemble des valeurs
admissibles pour une image, il est possible de produire
différents types de rehaussement. Il existe plusieurs
méthodes qui permettent de rehausser le contraste et les
détails d'une image. Nous n'en décrirons que quelques-
unes. La méthode la plus simple est un rehaussement
linéaire du contraste. Afin d'appliquer cette méthode, on
identifie les limites supérieures et inférieures d'intensité
représentées sur l'histogramme (les valeurs minimales et
maximales), et à l'aide d'une transformation linéaire, on
étire ces valeurs sur l'ensemble des valeurs disponibles.
Dans notre exemple, la valeur minimale des données
initiales dans l'histogramme est de 84 et la valeur maximale
est de 153. Ces 70 niveaux n'occupent qu'un tiers des 256
valeurs disponibles. Un
rehaussement linéaire étire de façon uniforme cet intervalle
afin d'utiliser la totalité des valeurs de 0 à 255. Ce procédé
rehausse le contraste dans l'image en pâlissant davantage les
régions claires de l'image et en assombrissant davantage les
régions plus foncées. Ceci facilite l'interprétation visuelle. Le
graphique suivant montre l'augmentation du contraste dans
une image avant (image du haut) et après (image du bas) un
rehaussement linéaire.
Rehaussement d’images
L'augmentation du contraste
dans une image avant (image
du haut) et après (image du
bas) un rehaussement linéaire
Rehaussement d’images
• Dans d'autres cas, il peut être préférable de
rehausser le contraste dans une portion
spécifique de l'histogramme. Par exemple,
supposons que dans l'image de l'embouchure
d'une rivière, les régions où il y a de l'eau
occupent les valeurs numériques dans
l'intervalle de 40 à 76. Pour rehausser les
détails de l'eau, pour voir les variations dans
la quantité de sédiments en suspension par
exemple, nous pourrions étirer cette petite
portion de l'histogramme représentant l'eau
(40 à 76) sur l'ensemble des valeurs disponibles (0 à 255). Tous
les autres pixels ayant des valeurs d'intensité initiales plus
grandes que 76 auront une valeur de 255 et ceux ayant des
valeurs d'intensité inférieures à 40 auront une valeur de 0. Les
détails dans les autres régions de l'histogramme seront donc
perdus. Cependant, les détails sur l'eau seront grandement
rehaussés
Rehaussement d’images :
Filtre
• Les filtres spatiaux représentent une autre méthode de
traitement numérique utilisées pour le rehaussement d'une
image. Ces filtres sont conçus de façon à faire ressortir ou à
supprimer des caractéristiques spécifiques d'une image en se
basant sur leur fréquence spatiale. La fréquence spatiale est
liée au concept de texture dont nous avons discuté à la
section 4.2. Elle fait référence à la fréquence de variation des
différents tons qui apparaissent dans une image. Les régions
d'une image où la texture est "rugueuse" sont les régions où
les changements dans les tons sont abrupts; ces régions ont
une fréquence spatiale élevée. Les régions "lisses" ont une
variation des tons qui est plus graduelle sur plusieurs pixels;
ces régions ont une fréquence spatiale faible. La méthode de
filtrage spatial consiste à déplacer une "fenêtre" d'une
dimension de quelques pixels (ex. : 3 sur 3, 5 sur 5, etc.) au-
dessus de chaque pixel de l'image. On applique alors un
traitement mathématique utilisant les valeurs des pixels sous
la fenêtre et on remplace la valeur du pixel central par le
résultat obtenu. La fenêtre est déplacée le long des colonnes
et des lignes de l'image, un pixel à la fois, répétant le calcul
jusqu'à ce que l'image entière ait été filtrée. En modifiant le
calcul effectué à l'intérieur de la fenêtre, il est possible de
rehausser ou de supprimer différents types de
caractéristiques présents dans une image..
Rehaussement d’images :
Filtre
Un filtre passe-bas est conçu afin de mettre en évidence les régions assez
grandes et homogènes ayant des pixels d'intensité similaire. Ce filtre
réduit les plus petits détails d'une image. Il est donc utilisé pour lisser une
image. Les filtres moyenneur et médian, souvent utilisés avec les images
radars (nous les avons décrits au chapitre 3), sont des exemples de filtre
passe-bas. Les filtres passe-haut font le contraire : ils sont utilisés pour
raviver les petits détails d'une image. Un filtre passe-haut peut par
exemple se définir en appliquant premièrement un filtre passe-bas à une
image pour ensuite soustraire le résultat de l'image originale, ce qui
produit une nouvelle image dans laquelle les détails ayant une fréquence
spatiale élevée sont rehaussés.
Rehaussement d’images:
Filtre
Les filtres directionnels ou les filtres détectant les contours sont utilisés
pour rehausser les caractéristiques linéaires d'une image comme les routes
ou les limites des champs. Ces filtres peuvent aussi être conçus pour
rehausser des caractéristiques ayant une certaine orientation dans l'image.
Ces filtres ont de nombreuses applications en géologie pour la détection de
structures géologiques linéaires
La transformation
d'images
• La transformation d'images est un procédé qui
implique la manipulation de plusieurs bandes
de données, que ce soit pour transformer une
image provenant d'un capteur multispectral ou
pour transformer plusieurs images de la même
région prises à des moments différents
(données multitemporelles). La transformation d'images
génère une "nouvelle" image en combinant les différentes
sources d'information de manière à rehausser certaines
caractéristiques ou certaines propriétés des données qui
sont moins évidentes dans l'image originale.
Rapport de bandes
• La division d'image ou le calcul de rapports spectraux est aussi une
transformation d'images très commune. La division d'image permet de
rehausser des variations subtiles dans la réponse spectrale de
différents types de surface. L'image qui résulte du calcul des rapports
entre les données provenant de deux bandes spectrales différentes,
présente un rehaussement des variations, la pente des courbes de
réflectance spectrale, entre les deux bandes spectrales qui pourraient
autrement être masquées par la variation dans l'intensité de leurs
pixels. L'exemple qui suit illustre le concept des rapports spectraux. La
végétation réfléchit fortement dans le proche infrarouge lorsqu'elle est
en santé et absorbe fortement dans la portion du spectre
électromagnétique du rouge visible. Les autres types de surface
comme la terre et l'eau ont des réflexivités presque égales dans ces
deux zones du spectre. Une image des rapports spectraux entre les
images de la bande 7 (proche infrarouge, 0,8 à 1,1 micron) divisée par
la bande 5 (rouge, 0,6 à 0,7 micron) des données de Landsat MSS
aurait des valeurs beaucoup plus grandes que 1,0 pour la végétation et
des rapports autour de 1.0 pour la terre et l'eau. Il est donc facile de
faire la différence entre la végétation et les autres types de surface en
utilisant cette
transformation. Ce type de transformation nous permet aussi
d'identifier des régions où la végétation subit un stress et n'est pas
saine, car ces régions ont une réflectance plus basse dans le proche
infrarouge
Rapport de bande
• Un autre avantage de l'utilisation des
rapports spectraux est la réduction de
l'effet de variation de l'illumination
solaire causé par la topographie. Le
simple fait de calculer des valeurs
relatives (des rapports) plutôt que des
valeurs absolues d'intensité produit cette
réduction des effets topographiques. Par
exemple, la réflectance absolue d'une
forêt couvrant une montagne dépend de
son orientation par rapport à
l'illumination du Soleil.
Cependant, le rapport entre la réflexivité
provenant des deux
bandes spectrales
est sensiblement le
même
ACP
• Les données de bandes multispectrales différentes ont souvent une
corrélation très élevée et contiennent de l'information similaire. Par
exemple, les capteurs de la bande 4 et 5 de Landsat MSS (vert et rouge
respectivement) produisent des images d'apparence visuelle très
semblable étant donné que la réflectance pour le même type de surface
est presque identique. Des transformations d'images basées sur des
traitements statistiques complexes des données multispectrales
peuvent être utilisées pour réduire la redondance des données et la
corrélation entre les bandes. L'analyse des composantes principales est
une transformation de ce genre. Le but de cette transformation est de
réduire le nombre de dimensions (nombre de bandes) et de produire
une compression de l'information de plusieurs bandes dans un nombre
plus restreint de bandes. Les "nouvelles" bandes qui résultent de cette
compression statistique sont appelées composantes. Ce procédé vise à
maximiser (statistiquement) la quantité d'information (ou variance)
des données originales dans un nombre restreint de composantes. Par
exemple, l'analyse des composantes principales, peut transformer des
données provenant de sept bandes du capteur TM/Landsat (Thematic
Mapper) de façon à ce que les trois principales composantes de la
transformation contiennent plus de 90% de l'information contenue
dans les sept bandes initiales. L'interprétation et l'analyse de ces trois
composantes, en les combinant visuellement ou numériquement, est
plus simple et plus efficace que l'utilisation des sept bandes initiales.
L'analyse des composantes principales ou d'autres transformations
complexes peuvent être utilisées comme techniques de rehaussement
visuel pour faciliter l'interprétation ou pour réduire le nombre de
bandes qui seront fournies comme données d'entrée à une procédure de
classification numérique.
Classification
• Un analyste qui tente de classer les caractéristiques
d'une image, utilise les éléments de l'interprétation
visuelle pour identifier des groupes homogènes de
pixels qui représentent des classes intéressantes de
surfaces. La classification numérique des images
utilise l'information spectrale contenue dans les
valeurs d'une ou de plusieurs bandes spectrales
pour classifier chaque pixel individuellement. Ce
type de classification est appelé reconnaissance de
regroupements spectraux. Les deux façons de
procéder (manuelle ou automatique) ont pour but
d'assigner une classe particulière ou thème (par
exemple : eau, forêt de conifères, maïs, blé, etc.) à
chacun des pixels d'une image. La "nouvelle" image
qui représente la classification est composée d'une
mosaïque de pixels qui appartiennent chacun à un
thème particulier. Cette image est essentiellement
une représentation thématique de l'image
originale.
Classification
• Lorsqu'on parle de classes, il faut faire la distinction entre des
classes d'information et des classes spectrales. Les classes
d'information sont des catégories d'intérêt que l'analyste
tente d'identifier dans les images, comme différents types de
cultures, de forêts ou d'espèce d'arbres, différents types de
caractéristiques géologiques ou de roches, etc. Les classes
spectrales sont des groupes de pixels qui ont les mêmes
caractéristiques (ou presque) en ce qui a trait à leur valeur
d'intensité dans les différentes bandes spectrales des données.
L'objectif ultime de la classification est de faire la
correspondance entre les classes spectrales et les classes
d'information. Il est rare qu'une correspondance directe soit
possible entre ces deux types de classes. Des classes spectrales
bien définies peuvent apparaître parfois sans qu'elles
correspondent nécessairement à des classes d'information
intéressantes pour l'analyse. D'un autre côté, une classe
d'information très large (par exemple la forêt) peut contenir
plusieurs sous-classes spectrales avec des variations
spectrales définies. En utilisant l'exemple de la forêt, les sous-
classes spectrales peuvent être causées par des variations dans
l'âge, l'espèce, la densité des arbres ou simplement par les
effets d'ombrage ou des variations dans l'illumination.
L'analyste a le rôle de déterminer de l'utilité des différentes
classes spectrales et de valider leur correspondance à des
classes d'informations utiles
Classification
• Les méthodes de seuillage bien qu’intéressante s
restent insuffisantes dans de
• nombreux cas.
Il faut donc utiliser des
méthodes un peu plus élaborées pour
améliorer ILLUSTRATION DES DEUX TYPES DE
• la précision de CLASSIFICATIONS : À GAUCHE NONla
SUPERVISÉE, À DROITE SUPERVISÉE. classification.
Classification/ identification
des classes
Classification
• Les méthodes de classification les plus communes peuvent être
séparées en
deux grandes catégories : les méthodes de classification
supervisée et les méthodes de classification non
supervisée. Lors de l'utilisation d'une méthode de
classification supervisée, l'analyste identifie des échantillons
assez homogènes de l'image qui sont représentatifs de
différents types de surfaces (classes d'information). Ces
échantillons forment un ensemble de donnéestests. La
sélection de ces données-tests est basée sur les connaissances
de l'analyste, sa familiarité avec les régions géographiques et les
types de surfaces présents dans l'image. L'analyste supervise
donc la classification d'un ensemble spécifique de classes. Les
informations numériques pour chacune des bandes et pour
chaque pixel de ces ensembles sont utilisées pour que
l'ordinateur puisse définir les classes et ensuite reconnaître des
régions aux propriétés similaires à chaque classe. L'ordinateur
utilise un programme spécial ou algorithme afin de déterminer
la "signature" numérique de chacune des classes. Plusieurs
algorithmes différents sont possibles. Une fois que l'ordinateur
a établi la signature spectrale de chaque classe à la classe avec
laquelle il a le plus d'affinités. Une classification supervisée
commence donc par l'identification des classes d'information
qui sont ensuite utilisées pour définir les classes spectrales qui
les représentent.
Classification Non
supervisée
• La classification non supervisée procède de la façon
contraire. Les classes spectrales sont formées en
premier, basées sur l'information numérique des
données seulement. Ces classes sont ensuite associées,
par un analyste, à des classes d'information utile (si
possible). Des programmes appelés algorithmes de
classification sont utilisés pour déterminer les groupes
statistiques naturels ou les structures des données.
Habituellement, l'analyste spécifie le nombre de
groupes ou classes qui seront formés avec les données.
De plus, l'analyste peut spécifier certains paramètres
relatifs à la distance entre les classes et la variance à
l'intérieur même d'une classe. Le résultat final de ce
processus de classification itératif peut créer des classes
que l'analyste voudra combiner, ou des classes qui
devraient être séparées de nouveau. Chacune de ces
étapes nécessite une nouvelle application de
l'algorithme. L'intervention humaine n'est donc pas
totalement exempte de la classification non supervisée.
Cependant, cette méthode ne commence pas avec un
ensemble prédéterminé de classes comme pour la
classification supervisée.
Classification Non
supervisée
• Dans les méthodes de classification non
supervisée, le traitement se fait
uniquement sur les données numériques
de l’image : il n’y a pas de classes définies
a priori dès le départ. Une fois la
segmentation effectuée
• Les étapes de la classification sont
modélisées sur un diagramme, appelé
dendrogramme : on peut y identifier les
classes qui ont fusionné pour créer une
classe plus importante et évaluer la
distance entre les différentes classes
(deux classes extrêmement éloignées
tarderont à être réunies dans une classe
plus importante).
• L’analyse de ce diagramme peut aider à
déterminer le nombre de classes le plus
intéressant à obtenir, par visualisation du
résultat sur l’image, notamment
Classification Non
supervisée
ETAPES D’UNE CLASSIFICATION ASCENDANTE
HIÉRARCHIQUE
Classification Non
supervisée
• Dans les premières années de la
télédétection, quand toutes les données
provenaient de photographies
aériennes, la possibilité d'intégrer des
données de différentes sources était
plutôt limitée. Aujourd'hui, la plupart
des données, provenant de divers
capteurs, sont disponibles en format
numérique, ce qui fait de l'intégration
des données une méthode commune
pour l'interprétation et l'analyse. L'intégration des données
est une méthode qui implique la combinaison de données
provenant de différentes sources afin d'en extraire une plus
grande quantité et une meilleure qualité d'information. Les
données combinées peuvent inclure des données
multitemporelles, des données de plusieurs résolutions, des
données de plusieurs capteurs et des données de plusieurs
types
Classification supervisée
• L'intégration des données multitemporelles a déjà
été présentée à la section 4.6 lorsque nous avons
discuté de la soustraction d'image. Les images
acquises à des heures différentes sont intégrées
ensemble afin d'identifier les zones de
changement. La détection de changements
multitemporels peut être effectuée à l'aide de
méthodes simples, comme cette dernière, ou à
l'aide d'approches plus complexes comme des
comparaisons de classifications multiples ou des
classifications utilisant des ensembles de données
multitemporelles intégrées.
• L'intégration de données provenant de différents
capteurs exige que les données soient
géométriquement liées entre elles ou à des
coordonnées géographiques communes. Ceci
permet aussi d'intégrer des données d'autres
sources aux données de télédétection.
Classification supervisée
IMAGE SPOT ET RÉSULTAT DE SA CLASSIFICATION PAR
HYPERCUBES
Classification supervisée
IMAGE SPOT ET
RÉSULTAT DE SA
CLASSIFICATION
PAR maximum
de
vraisemblance
Classification supervisée
Sans doute la plus utilisée, la
classification par maximum
de vraisemblance découle
d’une méthode probabiliste
: pour chaque pixel on
détermine sa probabilité
d’appartenir à une classe
plutôt qu’à une autre.
On s’appuie sur la règle de
Bayes : P(Ci/p)=
P(p/Ci)*P(Ci)/P(p),
avec P(Ci/p) = probabilité d’être
dans la classe i sachant qu’on
est le pixel p,
P(p/Ci) = probabilité d’être le
pixel p sachant qu’on se trouve
dans la classe i,
P(Ci) = probabilité d’appartenir à
la classe i et P(p) = probabilité
d’être le pixel p.
On affecte donc p à la classe i si
P(p /Ci)*P(Ci)> P(p/Cj)*P(Cj)
pour toute classe j.
Classification supervisée
Intégration de données
d’autres
sources
•Les données provenant de plusieurs
capteurs peuvent aussi être combinées,
ce qui nous amène à introduire le
concept de la fusion de données
multicapteurs. La combinaison de
données optiques multispectrales à des
images radars est un très bon exemple de
cette technique. Ces deux types de
représentations spectrales de la surface
présentent des informations complémentaires. Les
données optiques fournissent une information spectrale
détaillée, utile pour faire la différence entre deux types de
surfaces, tandis que les images radars mettent en
évidence les détails structuraux de la surface.
Conclusion
• La combinaison des données de différentes sources et de différents
types que nous venons de décrire, ne constitue que la pointe de
l'iceberg pour l'intégration de données et l'analyse. Dans un
environnement numérique, où toutes les sources de données sont
géométriquement liées à une base géographique commune, le
potentiel pour l'extraction de l'information est très grand. Ceci définit
le principe de l'analyse numérique dans un système d'information
géographique (SIG). Toutes les données qui peuvent être repérées
dans un système de coordonnées géographiques communes sont
susceptibles d'être utilisées dans ce type d'environnement. Un MEN
n'est qu'un exemple de ce type de données. Des cartes de types de sols,
de classes de surfaces, de types de forêts, du réseau routier, etc. en sont
des exemples parmi tant d'autres. Il est aussi possible d'utiliser dans
un SIG, le résultat d'une classification de données de télédétection
sous forme de carte afin de faire la mise à jour des cartes existantes. En
résumé, l'analyse de diverses sources de données combinées permet
d'en extraire de meilleures et plus précises informations. On profite
donc d'une synergie entre les types de données. Les utilisations et le
potentiel de cette analyse sont incalculables. Dans le prochain et
dernier chapitre, nous présenterons des exemples d'utilisation des
données de télédétection où plusieurs de ces exemples font usage de
l'intégration de données de plusieurs sources.
Bibliographie
• Bariou, R., 1978 : Manuel de télédétection (photos aériennes, images radar,
thermographies, • imagerie satellite), Ed. Sodipe, Paris.
• Bakis, H. et Bonin, M., 2000 : La photographie aérienne et spatiale, PUF Que
sais-je ?, n°
• 1700, Paris, 127 p.
• Bonn, F., Rochon, G., 1992 : Précis de télédétection, Volume 1, Principes et
méthodes, Ed.
• AUPELF-UREF, Presses Universitaires du Québec, Montréal.
• Bonn, F., Rochon, G., 1992 : Précis de télédétection, Volume 2, Applications
thématiques,
• Ed. AUPELF-UREF, Presses Universitaires du Québec, Montréal.
• Couzy, A., 1981 : La télédétection, PUF Que sais-je ?, n°1919, Paris, 128 p.
• Minvielle, E. et Souiah, SA., 2003. L'analyse statistique et spatiale : statistiques,
• cartographie, télédétection, SIG. Nantes : Temps. 284 p.
• Robin, M., 1996 : La télédétection, des satellites aux systèmes d’information
géographique,
• Nathan coll. Fac, Paris, 318 p.
• Verger, F., 1982 : L’observation de la Terre par les satellites, PUF Que sais-je ?, n°
1989,
• Paris, 128 p.
références
• Cours de Michel - Claude Girard et Colette Girard
• [Link]
on/cours Centre Canadien de Télédétection
• [Link]
• Cours de la NASA (National Aeronautics and
Space Administration) • [Link]
• Gratuites :
• – Monde (Landsat, ASTER)
• [Link]
[Link]
• – Amérique du Sud (Landsat, SPOT, CBers)
• – [Link]