0% ont trouvé ce document utile (0 vote)
533 vues207 pages

Cours Télédéction

Ce document décrit les principes de base de la télédétection, en comparant le système visuel humain aux satellites, et en expliquant les étapes du processus de télédétection ainsi que les propriétés physiques du rayonnement électromagnétique utilisé.

Transféré par

naharbarkaikelleimi
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
533 vues207 pages

Cours Télédéction

Ce document décrit les principes de base de la télédétection, en comparant le système visuel humain aux satellites, et en expliquant les étapes du processus de télédétection ainsi que les propriétés physiques du rayonnement électromagnétique utilisé.

Transféré par

naharbarkaikelleimi
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

TELEDETECTION

GEORES

Armand MBAIRESSEM
Expert en SIG et Télédétection
mbairessemarmand@[Link]
Le système visuel
 Le Système biologique qui nous permet de
voir est un système de télédétection.
 La rétine est constituée par des cônes et des
bâtonnets, ces cellules visuelle
transforment l’énergie électromagnétique
en influx nerveux sensitif qui sera transmis
au cerveau par le nerf optique par toute une
série de réactions chimiques.
 L’oeil envoie l’information au cerveau ;
 Ce dernier décompose la lumière en trois
bandes de couleurs différentes et il refait la synthèse en combinant ces trois couleur et en
déduit une seule.
 Les satellites, eux donnent une information générale, n’augmentant pas la quantité
d’information sur le point intéressant.
Comparaison œil satellite

OEil Capteurs
Cellules visuelles Les canaux (XS et Pan)
Cerveau La station de réception

Cerveau
En télédétection, on utilise les propriétés physique des objets observés, en
particulier leurs propriétés optiques, pour acquérir de l’information sur la
nature de ces objets. Cette information est portée vers le système
d’observation à l’aide d’un rayonnement électromagnétique, comme la
lumière.

La télédétection
 Qu'est-ce que la télédétection ?
« La télédétection est la technique qui, par l'acquisition
d'images, permet d'obtenir de l'information sur la surface de
la Terre sans contact direct avec celle-ci. La télédétection
englobe tout le processus qui consiste à capter et à
enregistrer l'énergie d'un rayonnement électromagnétique
émis ou réfléchi, à traiter et à analyser l'information, pour
ensuite mettre en application cette information. »
Source : CCT
Définitions
«La télédétection est "l'ensemble des connaissances
et techniques utilisées pour déterminer des
caractéristiques physiques et biologiques d'objets
par des mesures effectuées à distance, sans contact
matériel avec ceux-ci ».
Elle utilise les propriétés d'émission ou de rayonnement
des ondes électromagnétiques par les objets.
La télédétection est le plus souvent appliquée à
l'observation de la Terre, mais peut aussi concerner
d'autres planètes, étoiles, galaxies...
La télédétection, c’est…
« La science et la technique permettant d’obtenir
une information utile sur un objet, une scène ou
un phénomène à travers l’analyse de données
acquises par un système qui n’est pas en contact
avec l’objet, la scène, ou le phénomène étudié. »
Lillesand, Thomas M. and Ralph W. Kiefer,
"RemoteSensingand Image Interpretation", John
Wileyand Sons, Inc, 1979, pp610.
ETAPES DU PROCESSUS DE
TELEDETECTION
 1. Source d'énergie ou d'illumination (A) - Tout
processus de télédétection nécessite une source
d'énergie pour illuminer la cible.
 2. Rayonnement et atmosphère (B)
- Durant son parcours entre la source d'énergie et la cible, le
rayonnement interagit avec l'atmosphère. Une seconde
interaction se produit lors du trajet entre la cible et le
capteur.
3. Interaction avec la cible (C)
- Une fois parvenue à la cible, l'énergie interagit avec la
surface de celle-ci. La nature de cette interaction dépend
des caractéristiques du rayonnement et des propriétés de la
surface.
4. Enregistrement de l'énergie par le capteur (D) -
Une fois l'énergie diffusée ou émise par la cible, elle doit
être captée à distance (par un capteur qui n'est pas en contact avec la cible) pour être enfin enregistrée.

 5. Transmission, réception et traitement (E) 


- L'énergie enregistrée par le capteur est transmise,
souvent par des moyens électroniques, à une
station de réception où l'information est
transformée en images (numériques ou
photographiques).
 6. Interprétation et analyse (F)
- Une interprétation visuelle et/ou numérique de
l'image traitée est ensuite nécessaire pour extraire
l'information que l'on désire obtenir sur la cible.
 7. Application (G)
- La dernière étape du processus consiste à utiliser
l'information extraite de l'image pour mieux
comprendre la cible, pour nous en faire découvrir de
nouveaux aspects ou pour aider à résoudre un
problème particulier.
Propriétés physiques du rayonnement
électromagnétique
Source d'énergie
 Le rayonnement électromagnétique
 Une source d'énergie sous forme de rayonnement
électromagnétique est nécessaire pour illuminer la cible, à
moins que la cible ne produise elle-même cette énergie.
 Le soleil est très souvent cette source
 Capteurs actif vs passif

Source d'énergie
 L’acquisition d’images est l'interaction entre trois
éléments fondamentaux
 une source d'énergie
 une cible
 une plate-forme
d’acquisition
 Capteur

Source
d'énergie
Adaptée de : [Link]
 Le rayonnement
électromagnétique
Energie transportée dans l'espace sous forme d'ondes ou
de particules composé d'un champ électrique (E) et d'un
champ magnétique (M)
Source d'énergie
 Le rayonnement électromagnétique
 Longueur d'onde (λ en m)
 Longueur d'un cycle d'une onde, distance entre deux crêtes successives
d'une onde
 Mesurée en mètres ou sous-multiples
 Fréquence (v en Hz)
 Nombre d'oscillations par unité de
temps
 Inversement proportionnelles
 C=λv
 C = vitesse de la lumière
Source d'énergie
Source : Gonzales et Woods 2002
Les sources du rayonnement varient également selon le domaine du
spectre:
- le rayonnement ultraviolet, visible ou infrarouge est émis par les
corps, objets ou surfaces en fonction de leur température :
rayonnement solaire (U.V., visible et proche infrarouge),
rayonnement terrestre (infrarouge thermique).
- les rayonnements de très courte longueur d’onde (rayons
gamma, rayons X) sont produits par les restructurations des
noyaux des atomes (radioactivité).
- les rayonnements visible, infrarouge ou microonde peuvent être
produits artificiellement par vibration ou rotation des molécules
(fluorescence, lasers, four à microondes).
- les rayonnements de grande longueur d’onde sont produits par
des oscillations électroniques (antennes).
L’onde électromagnétique
L’onde électromagnétique simple (monochromatique, plane). Elle se caractérise par :

- la période T : c’est le temps au bout duquel le champ électrique ou magnétique retrouve sa valeur à partir d’un instant
quelconque, c’est à dire effectue un cycle. L’unité est la seconde.

- la fréquence, désignée par la lettre : c’est le nombre de cycles par unité de temps.
L’unité de fréquence est le Hertz (Hz). Un Hz équivaut à un cycle par seconde. Les ondes
22 utilisées en télédétection se caractérisent par des fréquences très élevées mesurées en
multiples du Hz (kHz, MHz ou GHz –gigahertz)

- la longueur d’onde ou amplitude : elle est exprimée par une unité de longueur, le mètre ou ses sous-multiples, en particulier :
le micron ou micromètre : μm. 1μm = 10-6m
et le nanomètre : nm. 1nm = 10-9m
13/10/2017 26
Entre la longueur d’onde et la fréquence existe la relation classique: = c où c est la vitesse de
propagation du rayonnement dans le vide (vitesse de la lumière): c = 3 . 108 m.s-1

L’onde électromagnétique
Champs électrique et magnétique d'une onde plane.
Les lois physiques de la propagation des ondes
électromagnétiques dans les divers milieux
traversés

 L’essentiel de la physique nécessaire au


télédétecteur consiste dans la manière dont se
comporte ce rayonnement au niveau de:
 La source
 Le sol
 Le capteur
 Les différents milieux traversés
Utilisation du rayonnement électromagnétique
en télédétection.

Les sources du rayonnement électromagnétique


Les sources intégrées au capteur: les capteurs actifs
Les sources intégrées au capteur
Source : Cavayas 2005
Le spectre électromagnétique

–UV -radio
UV Transferts de
charge dans les
Radio
cristaux
RMN
Absorption par les
Stimulation atomes H
gaz
par ondes Radio

Sources Gamma
astronomiques (sursauts
galactiques)

Tomographie
(absorption des
rayons X)
Source d'énergie
 Le rayonnement électromagnétique
 Ultraviolet
 plus petites ondes en télédétection
 Certains matériaux, surtout des
roches et minéraux, entrent en
fluorescence ou émettent de la
lumière visible quand illuminés par
l’ultraviolet

Source : CCT
Source d'énergie
 Le rayonnement électromagnétique
 Visible
 très petite partie du REM
 de 0,4 à 0,7 μm
 De 400 à 700 nm
 très grande partie du REM est
invisible à l'œil nu, mais peut être
captée!

Source : CCT
Source d'énergie
 Le rayonnement électromagnétique
 Visible
 Le rouge à la plus grande longueur d'onde
 Le violet a la plus courte
 Le prisme réfracte la lumière de façon différente
selon la longueur d'onde

Violet : 0.4 - 0.446 μm


Bleu : 0.446 - 0.500 μm
Vert : 0.500 - 0.578 μm
Jaune : 0.578 - 0.592 μm
Orange : 0.592 - 0.620 μm
Rouge : 0.620 - 0.7 μm

Source d'énergie
 Le rayonnement
électromagnétique
 L'infrarouge (0,7 à 100 μm)
 deux catégories

 IR réfléchi
 utilisé de la même façon que le visible
 de 0,7 à 3 μm
 IR émis ou thermique
 Rayonnement émis sous forme de
chaleur par la surface de la Terre et autres de 3 à 100 μm
Source d'énergie
 Le rayonnement électromagnétique
 Les hyperfréquences
 micro-ondes
 les plus grandes longueurs d'onde utilisées
en télédétection
 de 1 mm à 1 m
 de l'infrarouge thermique aux ondes radio
 12.24 cm : 2450 MHz pour chauffer sa
soupe !
 Bande S
Source : CCT
Source d'énergie
 Propriétés des ondes électromagnétiques
 fondamentales en télédétection
 la réflexion
 l’absorption
 la transmission
 la diffusion
 l'émission
 autres propriétés
 la diffraction La réfraction
 la polarisation
 l'effet Doppler
 important en télédétection RADAR notamment
Source d'énergie
 Propriétés des ondes électromagnétiques
 la réflexion
 un corps qui reçoit un REM peut en réfléchir une partie
 albédo : énergie solaire réfléchie par une portion d'espace
terrestre (% réfléchie)
 spéculaire ou diffuse

Source : [Link]
Source d'énergie
 Propriétés des ondes électromagnétiques
 l’absorption
 un corps qui reçoit un REM peut en absorber une partie
 cette énergie absorbée est transformée et modifie l'énergie
interne du corps
 peut augmenter la température interne du corps
 les grosses molécules de l'atmosphère (ozone, bioxyde de
carbone et vapeur d'eau) absorbent l'énergie de diverses
longueurs d'onde

Source d'énergie
 Propriétés des ondes électromagnétiques
 la transmission
 un corps qui reçoit un REM peut en transmettre une partie
 un objet transparent à une transmittance élevée dans les
longueurs d'ondes visibles
 une surface d'eau pure ou le feuillage d'arbres sont des exemples
de surfaces susceptibles de transmettre une partie du REM

Source d'énergie
 Propriétés des ondes électromagnétiques
 la diffusion
 très grande importance en télédétection
 des particules microscopiques dans l'atmosphère amènent la
diffusion dans toutes les directions d'une partie du REM
 le REM traversant ce milieu peut alors être considérablement
transformé.
 environ 25% du rayonnement solaire qui traverse l'atmosphère
est diffusé
 peut être beaucoup plus important lorsque l'atmosphère est chargé
en aérosols et vapeur d'eau

Source d'énergie
 Propriétés des ondes électromagnétiques
 trois types de diffusion
 diffusion de Rayleigh
 diffusion de Mie
 diffusion non-sélective
Source d'énergie
 diffusion de Rayleigh
 lorsque la taille des particules est inférieure à la longueur
d'onde du rayonnement
 particules de poussière ou molécules d'azote ou d'oxygène
 disperse et dévie de façon plus importante les courtes
longueurs d'onde
 c’est pourquoi
le ciel est bleu
 forme de
diffusion
prédominante
dans les
couches

Source : CCT
supérieures de l'atmosphère.

Source d'énergie
 diffusion de Mie
 les particules sont presque aussi grandes que la longueur d'onde
du rayonnement
 poussière, pollen, fumée et eau
 affecte les plus grandes longueurs d'onde
 surtout dans les couches inférieures de l'atmosphère où les
grosses particules sont plus abondantes

Source d'énergie
 diffusion non-sélective
 lorsque les particules sont beaucoup plus grosses que la longueur
d'onde
 gouttes d'eau et grosses particules de poussière
 "non-sélective" car toutes les longueurs d'onde sont dispersées
 les gouttes d'eau de l'atmosphère dispersent le bleu, le vert, et le
rouge de façon presque égale, ce qui produit un rayonnement
blanc
 c'est pourquoi le brouillard et les nuages nous paraissent blancs.
Source d'énergie
 Propriétés des ondes électromagnétiques
 l'émission
 tout corps dont la température thermodynamique est supérieure
au zéro absolu (-273 °C) émet un rayonnement
électromagnétique
 l'émetteur, appelé aussi source, peut être le soleil, le capteur
(RADAR, LIDAR) ou encore la cible (infrarouge thermique).

Source d'énergie
 Propriétés des ondes électromagnétiques
 Déviation de la direction de propagation d'un rayonnement
lorsque celui-ci frappe un obstacle ou traverse un trou, une

 Diffraction au travers d’un nuage


chargé de fines gouttelettes d’eau >
 Diffraction du son

Source : [Link]
Source d'énergie
 Propriétés des ondes électromagnétiques
 La réfraction
 Déviation de la trajectoire d’une onde électromagnétique lors de
son passage d'un milieu à un autre (Snell's Law)
Source : [Link]

Source d'énergie
 Propriétés des ondes électromagnétiques
 la polarisation
 concerne la variation du plan d’oscillation de l’onde produite par
les plans d’eau, les feuilles, les aérosols contenus dans

l’atmosphère … ou les filtres !


Source : [Link]

Interactions avec l'atmosphère


 Le rayonnement doit traverser l'atmosphère
 Les particules et les gaz dans l'atmosphère peuvent
dévier ou bloquer le rayonnement incident.
 Causés par les mécanismes de
diffusion et d'absorption
Interactions avec
l'atmosphère
 Diffusion et absorption
 La diffusion se produit lors de
l'interaction entre le
rayonnement incident et les
particules ou les grosses molécules de gaz
présentes dans l'atmosphère.
 L'absorption survient lorsque les grosses
molécules de l'atmosphère (vapeur d'eau, dioxyde
de carbone et ozone) absorbent l'énergie de
diverses longueurs d'onde.
Interactions avec l'atmosphère
Absorption atmosphérique

Transmission/Absorption atmosphérique
Source : Space Telescope Science Institute Source : [Link]

Interactions avec la cible


 En télédétection, l’interaction du REM avec les
objets se résume donc à trois phénomènes :
 Absorptance
 Transmittance
 Réflectance
Interactions avec la cible
Source : [Link]
Interactions avec la cible
Chaque objet possède des propriétés spécifiques

Source : [Link]
 Identification

Source : CCT
Interactions avec la cible
Chaque objet possède des propriétés spécifiques
 Identification

Source : [Link]
Interactions avec la cible
Chaque objet possède des propriétés spécifiques
Identification
Source : [Link]
Interactions avec la cible
Un même objet possède des propriétés variables !
 État des cultures

Source : [Link]

Les comportements spectraux


Les comportements spectraux
Variations de la réflectance spectrale de surfaces caractéristiques de la zone
intertidale (Bassin d’Arcachon, d’après Lafon et Froidefond, 1997) :

Variations de la réflectance des sédiments Variations de la réflectance des sédiments selon le selon
la granulométrie et l’humidité : taux de couverture végétale :

Il convient de ne pas confondre la réflectance spectrale des surfaces et leur albédo :


- L’albédo désigne la capacité de la surface de la Terre à réfléchir l’énergie reçue du Soleil dans toute l’étendue
du spectre solaire ; il a surtout son intérêt en climatologie.
- La réflectance spectrale correspond aux variations de la réflectance selon les longueurs d’onde du domaine
solaire. Elle constitue une caractéristique des surfaces terrestres utilisée en télédétection dans le domaine
spectral solaire.
Réflectances spectrales caractéristiques de trois grands
types de surfaces naturelles (d’après Lillesand et Kiefer).
L’image
L’image est un ensemble de données numérique attachées à une zone plane de

l’image satellite est vue


sous un angle variable
il y a déformation
Compensation de la distorsion
pour la mise en
correspondance
géométrie connue
Images panchromatiques

PÉNINSULE DU SINAI (STS-50)

OURAGAN BONNIE, OCÉAN ATLANTIQUE


(STS-47-151-618)
Images monochromatiques
"ESSEX COUNTY", SUD ONTARIO
RIVIÈRE ROUGE, INONDATION 1996

OURAGAN n.m.
(esp. huracân d’une langue
caraïbe)
➔ M
AR
ILY
N

GOES-8 IR 19 SEP 95 GOES-8 IR 3 OCT 95


OP
AL

GOES8/VISIBLE 26 OCT 98 GOES-8 INFRARED 28 OCT 98


➔ MITCH ➔
SAGUENAY - Inondation 1996
PHOTOGRAPHIE AU SOL [CCT]

20 JUILLET 96
[NOAA/STARIMSAT/CCT]

RIVIÈRE AUX SABLES PRÈS DE JONQUIÈRE


[CCT]
El Niño [l’enfant terrible de
Jocelyne Blouin
]
GOES-8 IR 8 JAN 98
Images radar
[Link]
RADARSAT
GLACES - ÎLES DE
DÉTECTION DELA MADELEINE
BATEAU [CCT] [CCT]

IRVING WHALE [CCT]


TEMPÊTE [rf."Gerry Roufs reste introuvable"]
Classification des produits selon la résolution spatiale
• L’image panchromatique
•L’image multispectrale
•L’image hyperspectrale
L’image panchromatique
L’image multispectrale
L’image hyperspectrale
Quatre grands types d’émulsions sont couramment
utilisés pour la télédétection ; elles se distinguent par
leur sensibilité à une bande spectrale particulière

- l’émulsion panchromatique est sensible aux rayonnements de longueur d’onde inférieure à


0,7 μm (ou 700 nm) et couvre donc l’ensemble du spectre visible.
- l’émulsion infrarouge noir et blanc a une sensibilité étendue dans l’infrarouge proche
jusqu’à 0,95 µm. Un filtre permet de sélectionner les grandes longueurs d’onde au-delà de
0,6 µm.
- l’émulsion couleur est constituée de trois couches superposées, colorées respectivement en
jaune, magenta et cyan, qui sont les couleurs complémentaires du bleu, du vert et du
rouge.
Ces couches sont donc sensibles successivement aux longueurs d’onde
courtes (bleu), moyennes (vert) et longues (rouge) du spectre visible. Au développement,
par synthèse soustractive des trois couleurs primaires (bleu, vert et rouge) à partir des
complémentaires (jaune, magenta, cyan), on reconstitue la couleur naturelle des objets et
des surfaces. L’image couleur offre une beaucoup plus grande richesse d’interprétation
que l’image noir et blanc.
- l’émulsion infrarouge couleur (dite aussi fausse couleur) repose sur le même principe
que
la couleur. La sensibilité des trois couches jaune, magenta et cyan est décalée dans le
spectre vers les longueurs d’onde du vert, du rouge et de l’infrarouge. Sur ce type de
produits, la végétation active se distingue en rouge et les surfaces en eau en noir. Les
utilisations sont semblables à celles de l’infrarouge noir et blanc, avec une plus
grande richesse dans l’interprétation.
Les qualités des radiomètres sont exprimées par le terme de résolution qui désigne
plusieurs réalités différentes :
- la résolution spectrale désigne l’aptitude d’un capteur à discerner des bandes de
longueur d’onde différente; elle dépend surtout de la qualité des dispositifs
optiques (filtres).
- la résolution radiométrique d’un capteur désigne sa capacité à distinguer, dans
une bande spectrale définie, des différences de luminance plus ou moins
grandes. - la résolution spatiale dépend du champ instantané d’observation du
capteur (IFOV = Instantaneous Field Of View). Celui-ci détermine, selon
l’altitude de l’avion ou du satellite porteur, les dimensions de la surface terrestre
qui est vue à un moment donné. Ce champ est imposé par la sensibilité des
capteurs, puisque l’intensité du rayonnement à mesurer dépend de la surface
visée, et la bande spectrale concernée, puisque l’énergie transportée par un
rayonnement décroît avec la longueur d’onde. La résolution spatiale détermine
finalement la taille du pixel, élément le plus petit qui peut être distingué sur
l’image finale. La résolution est toujours plus faible pour les radiomètres
infrarouge thermique (120 m pour Landsat TM, 1 km pour NOAA AVHRR) ou
microondes (15 km). Le système de balayage par un dispositif mécanique (miroir
oscillant ou tournant) et le mouvement du vecteur (satellite ou avion) impose à
l’imagerie des radiomètres des distorsions géométrique importantes : les données
de télédétection ne sont jamais, avant un traitement spécifique, superposables à
une carte.
Géométrie de l’image
 Photographie aérienne
 Comme on le constate, les photographies aériennes
comportes de nombreuses déformations géométriques et ce
sont ces déformations que nous devrons corriger avant de
faire usage de cette information dans un SIG
Restauration et rectification des images

 Les pré-traitements
 Avant de créer des relations entre des mesures au sol, ou
toute autre forme de données, et la réponse aux pixels de
l’image, les images de télédétection doivent être corrigées
pour correspondre géométriquement au territoire (et aux
données).
 Cette correction (rectification) est un procédé géométrique
dans lequel l’image est déformée et/ou dégradée afin de la
rendre plus réaliste/représentative de la scène originale.
(Lillesand and Kiefer, 1987)

Les pré-traitements
 Restauration et rectification des images
 Corrections radiométriques et atmosphériques
 Corrections géométriques
 Amélioration d’images et le filtrage du bruit
Les pré-traitements
 Corrections radiométriques et atmosphériques
 Le signal électromagnétique mesuré traverse deux fois l’atmosphère
terrestre
 bruits atmosphériques
 Irrégularités du capteurs
 rayures, lignes manquantes …
 Ces corrections sont normalement effectuées
par le fournisseur d’images

Source : [Link]
Les pré-traitements
 Les corrections géométriques
 Corrections des distorsions géométriques dues aux variations
de la géométrie Terre-capteur
 Transformation des données en vraies coordonnées sur la
surface de la Terre

Les pré-traitements
 Les corrections géométriques
 Corrections des distorsions géométriques dues aux variations de la
géométrie Terre-capteur
 Rotation de la Terre durant l’acquisition
 Capacité limitée du taux d’acquisition des capteurs
 Large champs de vision de certains capteurs
 Courbure de la Terre
 Les capteurs ne sont pas idéaux Variation de la plate-forme :
 altitude, attitude et vitesse
 Effet panoramique dues à la géométrie de l’image
 Incertitudes de la position exacte de la plate-forme

Les pré-traitements
 Les corrections géométriques
 Transformation des données en vraies coordonnées sur la surface de la
Terre
 ex: latitude, longitude

Corrections géométriques
Deux méthodes pour corriger géométriquement les images :
 1-Modèle de navigation de la plate-forme
 consiste à transformer les images après avoir appliqué un modèle
mathématique des paramètres géométriques de l’enregistrement de la scène
 Chaque plate-forme possède son propre modèle de navigation
 Selon le rapport de calibrage du survol
 Permet d’identifier précisément la géométrie de la prise d’image –
orientation interne

Corrections géométriques
Source : [Link]

Corrections géométriques
on

Source : image labo 3


Corrections géométriques
 Deux méthodes pour corriger géométriquement les images :
 2- Prise de points d'appui
 Pour chaque point m,n d’une image f(m,n) on trouve u,v dans un autre
système de coordonnées g(u,v) au moyen d’une fonction de transfert h

Source : [Link]
Corrections géométriques
 Prise de points d'appui
 Points de contrôle au sol (GCP)
 Points d’appuis, de calage ou d’amer
 G (u,v) = f(m,n) h (m,n ; u,v)
 Orientation absolue (externe)
Source : [Link]

Prise de points d'appui


 Première étape
 Identifier les coordonnées de plusieurs points distincts
sur l’image sur la source de référence et l'image à corriger
 points d’appuis, de calage ou d’amer
 La source de référence peut être un ensemble de points
connus et référencés (points géodésiques, relevés GPS...),
une carte topographique ou encore une image satellite
géoréférencée
Prise de points d'appui
 Deuxième étape
 Calculer la relation entre points sources et points de références
 Plus il y a de déformations et plus il faut utiliser un modèle de
déformation de degré élevé (ex: un polynôme à degré élevé)
Prise de points d'appui
 Troisième étape
 Appliquer le modèle de déformation sur l’image à corriger
pour créer une nouvelle image dans le référentiel choisi
 L'ancienne et la nouvelle grille ne correspondant pas, il est donc
nécessaire d'appliquer un algorithme de reéchantillonnage
Modèle de déformation

Déformation des images


Plus proche voisin Interpolation cubique
Source : [Link]
Prise de points d'appui
 Quatrième étape
 Reéchantillonnage des valeurs
des pixels de l’image

Source : [Link]
Algorithmes de reéchantillonnage
 Reéchantillonnage des valeurs des pixels
 pour affecter à l'image crée, des valeurs de pixel les plus
proches possible de ceux de l'ancienne image
 Plus proche voisin
 le pixel le plus proche dans l'image d'origine
 Interpolation bilinéaire
 moyenne des 4 plus proches voisins (2x2)
 Interpolation cubique (convolution)
 moyenne des 16 plus proches voisins (4x4)
 Autres fonctions de transfert
on
Interpolation bilinéaire

Interpolation cubique

cti
e
ét
léd

Plus proche voisin

Algorithmes de rééchantillonnage Source:[Link]


Corrections géométriques
 Les corrections géométriques
 En zone de fortes variations d'altitude, il est également
possible, en plus de toutes ces opérations, de corriger les
images en prenant en compte le relief
 On utilise un modèle numérique d'altitude, ce qui accroît
davantage la précision spatiale des images
 Ce procédé s'appelle "orthorectification"

Corrections géométriques
 Orthorectification
 Vise principalement à corriger les déformations de la
photographie liées à la projection de l’axe optique (non
perpendicularité), aux effets du relief de l’objet
photographié, et à la projection conique (le plus souvent
centrale)
 Le fichier image obtenu est corrigé à partir des paramètres
d’orientation, de points de calage connus en XYZ et du
Modèle Numérique de Terrain.
 Échelle et directions constantes
 Vue ORTHOGONALE donc du NADIR partout !
Corrections géométriques

Orthorectification

Source : Présentation PCI Geomatica


Corrections géométriques
Corrections géométriques
Corrections géométriques
Corrections géométriques
Géométrie du
captage
Source : Présentation PCI Geomatica
Corrections géométriques
 Géométrie du captage
 Effet de l’orthorectification
Source : Présentation PCI Geomatica

Corrections géométriques
Orthorectification
on
Orthorectification
Adapté de [Link]

Corrections géométriques
 Possibilités dans PCI

 Orthorectification: { Aerial photography


 Modèle de plate-forme Satellite orbital
+ points d’appui
+ DEM Rational functio
 Points d’appui {Thin plate spline
+ DEM
 Pourquoi utiliser un Modèle de plate-forme ?
 Pas d’orthorectification

 Points d’appui seul { Polynomial (2-D)


Traitement interprétation

Améliorer l'apparence de l'imagerie


• Traitement interprétation
Les fonctions de rehaussement ont pour but d'améliorer

l'apparence de
l'imagerie pour aider l'interprétation et l'analyse visuelles.
Les fonctions de rehaussement permettent l'étirement des
contrastes pour augmenter la distinction des tons entre les
différents éléments d'une scène, et le filtrage spatial pour
rehausser (ou éliminer) les patrons spatiaux spécifiques sur
une image.
• Les transformations d'images sont des opérations
similaires à ceux de rehaussement de l'image. Cependant,
alors que le rehaussement de l'image qui est normalement
appliqué à une seule bande de données à la fois, la
transformation de l'image combine le traitement des
données de plusieurs bandes spectrales. Des opérations
arithmétiques (c'est-à-dire addition, soustraction,
multiplication, division) sont faites pour combiner et
transformer les bandes originales en de "nouvelles" images
qui montrent plus clairement certains éléments de la scène.
Nous allons examiner certaines de ces opérations incluant
les diverses méthodes de rapport de bande aussi appelé
rapport spectral et un procédé appelé analyse des
composantes principales qui est utilisée pour mieux
représenter l'information en imagerie multispectrale.
Traitement
interprétation
Traitement interprétation
• Les opérations de classification et d'analyse
d'image sont utilisées pour identifier et
classifier numériquement des pixels sur une
image. La classification est habituellement
faite sur des banques de données
multispectrales (A), et ce procédé donne à
chaque pixel d'une image une certaine classe
ou thème (B) basé sur les caractéristiques
statistiques de la valeur de l'intensité du pixel.
Il existe une variété d'approches prises pour
faire une classification numérique. Nous
allons brièvement décrire deux approches
générales qui sont souvent utilisées, soit la
classification supervisée et la classification
non supervisée.

Corrections géométriques
• Les opérations de pré-traitement, parfois
appelées restauration et rectification
d'image, sont conçues pour corriger les
distorsions géométriques et radiométriques
des plates-formes et capteurs spécifiques. Les
corrections radiométriques peuvent être
nécessaires à cause des variations dans
l'illumination et dans la géométrie de visée
d'une scène, des conditions atmosphériques,
du bruit et de la réponse du capteur. Chacun
de ces facteurs variera selon le capteur et la
plate-forme utilisés, et selon les conditions
d'acquisition des données. Aussi, il peut être
souhaitable de convertir et de calibrer les
données avec une unité de rayonnement ou
réflexion connue (absolue) pour faciliter la
comparaison entre les données
Corrections géométriques
• Des variations dans la géométrie
d'illumination et de visée entre les images
(pour les capteurs optiques) peuvent être
corrigées par la modélisation de la relation
géométrique et la distance entre les aires de
la surface terrestre observées, le Soleil et le
capteur. Ceci est souvent requis pour pouvoir
faire des comparaisons plus rapides entre des
images prises par différents capteurs à
différentes dates ou heures, ou pour faire des
mosaïques d'images avec un seul capteur en
maintenant les conditions d'illumination
uniformes d'une scène à l'autre

• Corrections géométriques
Diverses méthodes de corrections atmosphériques peuvent être
appliquées, allant de
Modèles très détaillés des conditions atmosphériques durant
l'acquisition des données, jusqu'à un simple calcul basé seulement
sur les données de l'image. Un exemple de cette dernière méthode
consiste à examiner l'intensité observée (valeur numérique du pixel)
dans une région ombragée ou un objet très sombre (tel un grand lac
clair -A) et à déterminer la valeur minimale (B) pour chacune des
bandes spectrales. La correction est appliquée en soustrayant la
valeur minimale observée, de tous les pixels dans chaque bande.
Puisque la diffusion dépend de la longueur d'onde (chapitre 1), la
valeur minimale variera d'une bande à l'autre. Cette méthode est
basée sur la supposition que la réflexion de ces éléments est très
petite, voire nulle si l'atmosphère est claire. Les valeurs plus petites
que zéro que l'on pourrait observer sont dues à la diffusion
atmosphérique.
• Le bruit dans une image peut être causé par des irrégularités ou
des erreurs dans la réponse du capteur, ou par la transmission et
l'enregistrement des données. Les formes les plus communes de
bruits sont les rayures, le rubanement systématique et les lignes
manquantes (B). Ces deux effets devraient être corrigés avant
qu'un rehaussement ou une classification ne soient appliqués.
Les rayures étaient fréquentes dans les premières données
Landsat, à l'époque des six détecteurs MSS, à cause de la
variation et de la dérive
Corrections
géométriques
• Nous avons vu que toute les imageries de télédétection sont
sujettes à des distorsions géométriques. Ces distorsions
peuvent être dues à différents facteurs, notamment la
perspective des capteurs optiques, le mouvement du
système de balayage, le mouvement de la plate-forme,
l'altitude, l'orientation et la vitesse de la plate-forme, le
relief du terrain, la courbure et la rotation de la Terre. Les
corrections géométriques sont appliquées pour compenser
ces distorsions afin que la représentation géométrique de
l'imagerie soit aussi proche que possible de la réalité.
Plusieurs de ces variations sont systématiques ou
prévisibles, et on peut en tenir compte par une
modélisation précise du mouvement de la plate-forme et
du capteur, et par la relation géométrique entre la
plateforme et la Terre

Le processus de correction géométrique consiste à


identifier des coordonnées de l'image (c'est-à-dire ligne et colonne) de
plusieurs points clairement distincts, appelés points de contrôle au sol
(PCS), sur l'image à corriger (A -A1 à A4) et à les assortir à leur véritable
position en coordonnées au sol (par exemple en latitude et longitude). Les
vraies coordonnées au sol sont habituellement mesurées à partir d'une carte
(B - B1 à B4), soit sur papier ou en format numérique. Ceci est une correction
de type "image-à-carte". Une fois que plusieurs couples de PCS bien
distribuées ont été identifiés, l'information est traitée par l'ordinateur pour
déterminer les équations de transformation à être appliquées aux
coordonnées originales (ligne et colonne) pour obtenir les nouvelles
coordonnées au sol. La correction géométrique peut aussi être effectuée d'une
image à une autre image plutôt qu'à des coordonnées géographiques. Cette
méthode s'appelle correction enregistrement image-à-image, et on l'utilise
souvent avant d'effectuer les différents procédés de transformation qui seront
présentés dans la section 4.6.
Corrections
géométriques
• Pour effectuer une correction géométrique de l'image originale, on
applique un procédé appelé rééchantillonnage afin de déterminer
la valeur numérique à placer dans la nouvelle localisation du pixel
de l'image de sortie corrigée. Le processus de rééchantillonnage
calcule la nouvelle valeur du pixel à partir de sa valeur originale
dans l'image non corrigée. Il existe trois principales méthodes de
rééchantillonnage : le plus proche voisin, l'interpolation
bilinéaire et la convolution cubique. La méthode du plus proche
voisin utilise la valeur numérique du pixel de l'image originale qui
se trouve le plus près de la localisation du nouveau pixel dans
l'image corrigée. C'est la méthode la plus simple et elle n'altère pas
la valeur originale, mais elle peut produire une duplication des
pixels ou une perte de certaines valeurs. Cette méthode a aussi
tendance à produire des images bruitées. L'interpolation bilinéaire
prend une moyenne pondérée par la distance des quatre pixels de
l'image originale les plus près du nouveau pixel. Le procédé de
moyenne altère la valeur originale des pixels et crée une valeur
complètement nouvelle sur l'image finale. Ceci peut être nuisible si
d'autres procédés, tels que la classification basée sur la réponse
spectrale, doivent être faits. Dans ce cas, il peut être préférable
d'appliquer le
rééchantillonnage après le processus de classification. Le processus
de convolution cubique va encore plus loin et calcule la moyenne
pondérée par la distance sur un bloc de seize pixels à partir de l'image
originale entourant la localisation du nouveau pixel de sortie.
Comme pour l'interpolation bilinéaire, cette méthode résulte en de
nouvelles valeurs de pixels. Cependant, ces deux méthodes
produisent des images à l'apparence plus douce, contrairement à la
méthode du plus proche voisin
Corrections géométriques
• L'avantage d'appliquer une correction
géométrique à une image avant de l'analyser et
de l'interpréter est qu'une image corrigée
permet de mesurer les distances et la superficie
des caractéristiques de l'image. Ceci est
particulièrement pratique pour différentes
utilisations des images où des mesures assez
précises sont nécessaires, comme dans le
domaine de la cartographie des milieux
urbains. De plus, les coordonnées
géographiques des caractéristiques peuvent
ainsi être déterminées. Quand une image est
liée géométriquement à des coordonnées
géographiques connues, elle peut être
combinée avec d'autres données de sources
numériques

Corrections géométriques
• L'avantage d'appliquer une correction
géométrique à une image avant de l'analyser et
de l'interpréter est qu'une image corrigée
permet de mesurer les distances et la superficie
des caractéristiques de l'image. Ceci est
particulièrement pratique pour différentes
utilisations des images où des mesures assez
précises sont nécessaires, comme dans le
domaine de la cartographie des milieux
urbains. De plus, les coordonnées
géographiques des caractéristiques peuvent
ainsi être déterminées. Quand une image est
liée géométriquement à des coordonnées
géographiques connues, elle peut être
combinée avec d'autres données de sources
numériques
Analyse et interprétation des
images : Rehaussement
• On applique le rehaussement des images afin de
faciliter l'interprétation visuelle et la
compréhension des images. Les images
numériques ont l'avantage de nous permettre de
manipuler assez facilement les valeurs enregistrées
pour chaque pixel. Même s'il est possible
d'effectuer les corrections radiométriques pour les
effets de l'illumination solaire, les conditions
atmosphériques et les caractéristiques des
instruments utilisés avant de distribuer les images
aux usagers
• Cette variation importante dans la réponse
spectrale des différents types de cibles (ex. : forêt,
désert, neige, eau, etc.) rend impossible
l'application d'une correction radiométrique
générale capable d'optimiser le contraste et les
niveaux d'intensité dans chacune des conditions. Il
faut donc faire un ajustement différent des tons en
fonction de l'utilisation et de l'état de chacune des
images.

Analyse et interprétation des


images Rehaussement
• Dans une image brute, les
informations utiles sont souvent
contenues dans un ensemble
restreint de valeurs numériques
parmi les valeurs possibles (256
dans le cas de données à 8 bits). Le
rehaussement des contrastes se fait
en changeant les valeurs initiales
de façon à utiliser toutes les valeurs
possibles, ce qui permet
d'augmenter le contraste entre les
cibles et leur environnement. Pour
bien comprendre comment
fonctionne ce type de
rehaussement, il faut premièrement comprendre le concept de
l'histogramme d'une image.
Analyse et interprétation des
images Rehaussement
• Un histogramme est une représentation
graphique des valeurs numériques d'intensité
qui composent une image. Ces valeurs (de 0 à
255 pour des données à 8 bits) apparaissent le
long de l'axe des x du graphique. La fréquence
d'occurrence de
chacune de ces
valeurs est
présenté le long de l'axe des y.

Lien entre image et


histogramme
• Une image est
composée de pixels.
Chacun d’eux possède
une valeur
radiométrique par
canal qui compose
l’image.

Histogramm
e
La distribution des
radiométries dans une image
est rarement gaussienne : les
histogrammes
unidimensionnels sont
souvent bi- ou tri- modaux et
totalement dissymétriques
(peu de valeurs à droite), il
arrive même que deux
populations bien distinctes
ressortent directement sur
l’histogramme.

seuillage
• A partir des histogrammes unidimensionnels de
l’image, on peut aisément pratiquer
une segmentation, voire une classification
rudimentaire et cela par une opération toute
simple appelée le seuillage.
• Le seuillage effectué avec un seuil unique revient à une opération de binarisation
. Soit
I(x,y), la valeur radiométrique du pixel de coordonnées (x,y) dans l’image,
si I(x,y) > T ,
• T étant le seuil fixé, le pixel prend la valeur 1, sinon il prend la valeur 0. Les pixels
ont
été classés en deux catégories, on a créé une image binaire en noir et blanc

Seuillage
• L'opération dite de "seuillage simple"
consiste à mettre à zéro tous les pixels
ayant un niveau de gris inférieur à une
certaine valeur (appelée seuil, en anglais
treshold) et à la valeur maximale les pixels
ayant une valeur supérieure. Ainsi le
résultat du seuillage est une image binaire
contenant des pixels noirs et blancs, c'est la
raison pour laquelle le terme de
binarisation est parfois employé. Le
seuillage permet de mettre en évidence des
formes ou des objets dans une image.
Toutefois la difficulté réside dans le choix
du seuil à adopter.
Seuillage
Rehaussement d’images
• En manipulant la distribution des niveaux d'intensité
(appelés aussi les tons de gris) dont l'histogramme est la
représentation graphique sur l'ensemble des valeurs
admissibles pour une image, il est possible de produire
différents types de rehaussement. Il existe plusieurs
méthodes qui permettent de rehausser le contraste et les
détails d'une image. Nous n'en décrirons que quelques-
unes. La méthode la plus simple est un rehaussement
linéaire du contraste. Afin d'appliquer cette méthode, on
identifie les limites supérieures et inférieures d'intensité
représentées sur l'histogramme (les valeurs minimales et
maximales), et à l'aide d'une transformation linéaire, on
étire ces valeurs sur l'ensemble des valeurs disponibles.
Dans notre exemple, la valeur minimale des données
initiales dans l'histogramme est de 84 et la valeur maximale
est de 153. Ces 70 niveaux n'occupent qu'un tiers des 256
valeurs disponibles. Un
rehaussement linéaire étire de façon uniforme cet intervalle
afin d'utiliser la totalité des valeurs de 0 à 255. Ce procédé
rehausse le contraste dans l'image en pâlissant davantage les
régions claires de l'image et en assombrissant davantage les
régions plus foncées. Ceci facilite l'interprétation visuelle. Le
graphique suivant montre l'augmentation du contraste dans
une image avant (image du haut) et après (image du bas) un
rehaussement linéaire.
Rehaussement d’images
L'augmentation du contraste
dans une image avant (image
du haut) et après (image du
bas) un rehaussement linéaire

Rehaussement d’images
• Dans d'autres cas, il peut être préférable de
rehausser le contraste dans une portion
spécifique de l'histogramme. Par exemple,
supposons que dans l'image de l'embouchure
d'une rivière, les régions où il y a de l'eau
occupent les valeurs numériques dans
l'intervalle de 40 à 76. Pour rehausser les
détails de l'eau, pour voir les variations dans
la quantité de sédiments en suspension par
exemple, nous pourrions étirer cette petite
portion de l'histogramme représentant l'eau
(40 à 76) sur l'ensemble des valeurs disponibles (0 à 255). Tous
les autres pixels ayant des valeurs d'intensité initiales plus
grandes que 76 auront une valeur de 255 et ceux ayant des
valeurs d'intensité inférieures à 40 auront une valeur de 0. Les
détails dans les autres régions de l'histogramme seront donc
perdus. Cependant, les détails sur l'eau seront grandement
rehaussés

Rehaussement d’images :
Filtre
• Les filtres spatiaux représentent une autre méthode de
traitement numérique utilisées pour le rehaussement d'une
image. Ces filtres sont conçus de façon à faire ressortir ou à
supprimer des caractéristiques spécifiques d'une image en se
basant sur leur fréquence spatiale. La fréquence spatiale est
liée au concept de texture dont nous avons discuté à la
section 4.2. Elle fait référence à la fréquence de variation des
différents tons qui apparaissent dans une image. Les régions
d'une image où la texture est "rugueuse" sont les régions où
les changements dans les tons sont abrupts; ces régions ont
une fréquence spatiale élevée. Les régions "lisses" ont une
variation des tons qui est plus graduelle sur plusieurs pixels;
ces régions ont une fréquence spatiale faible. La méthode de
filtrage spatial consiste à déplacer une "fenêtre" d'une
dimension de quelques pixels (ex. : 3 sur 3, 5 sur 5, etc.) au-
dessus de chaque pixel de l'image. On applique alors un
traitement mathématique utilisant les valeurs des pixels sous
la fenêtre et on remplace la valeur du pixel central par le
résultat obtenu. La fenêtre est déplacée le long des colonnes
et des lignes de l'image, un pixel à la fois, répétant le calcul
jusqu'à ce que l'image entière ait été filtrée. En modifiant le
calcul effectué à l'intérieur de la fenêtre, il est possible de
rehausser ou de supprimer différents types de
caractéristiques présents dans une image..

Rehaussement d’images :
Filtre
Un filtre passe-bas est conçu afin de mettre en évidence les régions assez
grandes et homogènes ayant des pixels d'intensité similaire. Ce filtre
réduit les plus petits détails d'une image. Il est donc utilisé pour lisser une
image. Les filtres moyenneur et médian, souvent utilisés avec les images
radars (nous les avons décrits au chapitre 3), sont des exemples de filtre
passe-bas. Les filtres passe-haut font le contraire : ils sont utilisés pour
raviver les petits détails d'une image. Un filtre passe-haut peut par
exemple se définir en appliquant premièrement un filtre passe-bas à une
image pour ensuite soustraire le résultat de l'image originale, ce qui
produit une nouvelle image dans laquelle les détails ayant une fréquence
spatiale élevée sont rehaussés.
Rehaussement d’images:
Filtre
Les filtres directionnels ou les filtres détectant les contours sont utilisés
pour rehausser les caractéristiques linéaires d'une image comme les routes
ou les limites des champs. Ces filtres peuvent aussi être conçus pour
rehausser des caractéristiques ayant une certaine orientation dans l'image.
Ces filtres ont de nombreuses applications en géologie pour la détection de
structures géologiques linéaires

La transformation
d'images
• La transformation d'images est un procédé qui
implique la manipulation de plusieurs bandes
de données, que ce soit pour transformer une
image provenant d'un capteur multispectral ou
pour transformer plusieurs images de la même
région prises à des moments différents
(données multitemporelles). La transformation d'images
génère une "nouvelle" image en combinant les différentes
sources d'information de manière à rehausser certaines
caractéristiques ou certaines propriétés des données qui
sont moins évidentes dans l'image originale.

Rapport de bandes
• La division d'image ou le calcul de rapports spectraux est aussi une
transformation d'images très commune. La division d'image permet de
rehausser des variations subtiles dans la réponse spectrale de
différents types de surface. L'image qui résulte du calcul des rapports
entre les données provenant de deux bandes spectrales différentes,
présente un rehaussement des variations, la pente des courbes de
réflectance spectrale, entre les deux bandes spectrales qui pourraient
autrement être masquées par la variation dans l'intensité de leurs
pixels. L'exemple qui suit illustre le concept des rapports spectraux. La
végétation réfléchit fortement dans le proche infrarouge lorsqu'elle est
en santé et absorbe fortement dans la portion du spectre
électromagnétique du rouge visible. Les autres types de surface
comme la terre et l'eau ont des réflexivités presque égales dans ces
deux zones du spectre. Une image des rapports spectraux entre les
images de la bande 7 (proche infrarouge, 0,8 à 1,1 micron) divisée par
la bande 5 (rouge, 0,6 à 0,7 micron) des données de Landsat MSS
aurait des valeurs beaucoup plus grandes que 1,0 pour la végétation et
des rapports autour de 1.0 pour la terre et l'eau. Il est donc facile de
faire la différence entre la végétation et les autres types de surface en
utilisant cette
transformation. Ce type de transformation nous permet aussi
d'identifier des régions où la végétation subit un stress et n'est pas
saine, car ces régions ont une réflectance plus basse dans le proche
infrarouge

Rapport de bande
• Un autre avantage de l'utilisation des
rapports spectraux est la réduction de
l'effet de variation de l'illumination
solaire causé par la topographie. Le
simple fait de calculer des valeurs
relatives (des rapports) plutôt que des
valeurs absolues d'intensité produit cette
réduction des effets topographiques. Par
exemple, la réflectance absolue d'une
forêt couvrant une montagne dépend de
son orientation par rapport à
l'illumination du Soleil.
Cependant, le rapport entre la réflexivité
provenant des deux
bandes spectrales
est sensiblement le
même
ACP
• Les données de bandes multispectrales différentes ont souvent une
corrélation très élevée et contiennent de l'information similaire. Par
exemple, les capteurs de la bande 4 et 5 de Landsat MSS (vert et rouge
respectivement) produisent des images d'apparence visuelle très
semblable étant donné que la réflectance pour le même type de surface
est presque identique. Des transformations d'images basées sur des
traitements statistiques complexes des données multispectrales
peuvent être utilisées pour réduire la redondance des données et la
corrélation entre les bandes. L'analyse des composantes principales est
une transformation de ce genre. Le but de cette transformation est de
réduire le nombre de dimensions (nombre de bandes) et de produire
une compression de l'information de plusieurs bandes dans un nombre
plus restreint de bandes. Les "nouvelles" bandes qui résultent de cette
compression statistique sont appelées composantes. Ce procédé vise à
maximiser (statistiquement) la quantité d'information (ou variance)
des données originales dans un nombre restreint de composantes. Par
exemple, l'analyse des composantes principales, peut transformer des
données provenant de sept bandes du capteur TM/Landsat (Thematic
Mapper) de façon à ce que les trois principales composantes de la
transformation contiennent plus de 90% de l'information contenue
dans les sept bandes initiales. L'interprétation et l'analyse de ces trois
composantes, en les combinant visuellement ou numériquement, est
plus simple et plus efficace que l'utilisation des sept bandes initiales.
L'analyse des composantes principales ou d'autres transformations
complexes peuvent être utilisées comme techniques de rehaussement
visuel pour faciliter l'interprétation ou pour réduire le nombre de
bandes qui seront fournies comme données d'entrée à une procédure de
classification numérique.

Classification
• Un analyste qui tente de classer les caractéristiques
d'une image, utilise les éléments de l'interprétation
visuelle pour identifier des groupes homogènes de
pixels qui représentent des classes intéressantes de
surfaces. La classification numérique des images
utilise l'information spectrale contenue dans les
valeurs d'une ou de plusieurs bandes spectrales
pour classifier chaque pixel individuellement. Ce
type de classification est appelé reconnaissance de
regroupements spectraux. Les deux façons de
procéder (manuelle ou automatique) ont pour but
d'assigner une classe particulière ou thème (par
exemple : eau, forêt de conifères, maïs, blé, etc.) à
chacun des pixels d'une image. La "nouvelle" image
qui représente la classification est composée d'une
mosaïque de pixels qui appartiennent chacun à un
thème particulier. Cette image est essentiellement
une représentation thématique de l'image
originale.
Classification
• Lorsqu'on parle de classes, il faut faire la distinction entre des
classes d'information et des classes spectrales. Les classes
d'information sont des catégories d'intérêt que l'analyste
tente d'identifier dans les images, comme différents types de
cultures, de forêts ou d'espèce d'arbres, différents types de
caractéristiques géologiques ou de roches, etc. Les classes
spectrales sont des groupes de pixels qui ont les mêmes
caractéristiques (ou presque) en ce qui a trait à leur valeur
d'intensité dans les différentes bandes spectrales des données.
L'objectif ultime de la classification est de faire la
correspondance entre les classes spectrales et les classes
d'information. Il est rare qu'une correspondance directe soit
possible entre ces deux types de classes. Des classes spectrales
bien définies peuvent apparaître parfois sans qu'elles
correspondent nécessairement à des classes d'information
intéressantes pour l'analyse. D'un autre côté, une classe
d'information très large (par exemple la forêt) peut contenir
plusieurs sous-classes spectrales avec des variations
spectrales définies. En utilisant l'exemple de la forêt, les sous-
classes spectrales peuvent être causées par des variations dans
l'âge, l'espèce, la densité des arbres ou simplement par les
effets d'ombrage ou des variations dans l'illumination.
L'analyste a le rôle de déterminer de l'utilité des différentes
classes spectrales et de valider leur correspondance à des
classes d'informations utiles

Classification
• Les méthodes de seuillage bien qu’intéressante s
restent insuffisantes dans de
• nombreux cas.
Il faut donc utiliser des
méthodes un peu plus élaborées pour
améliorer ILLUSTRATION DES DEUX TYPES DE
• la précision de CLASSIFICATIONS : À GAUCHE NONla
SUPERVISÉE, À DROITE SUPERVISÉE. classification.
Classification/ identification

des classes
Classification
• Les méthodes de classification les plus communes peuvent être
séparées en
deux grandes catégories : les méthodes de classification
supervisée et les méthodes de classification non
supervisée. Lors de l'utilisation d'une méthode de
classification supervisée, l'analyste identifie des échantillons
assez homogènes de l'image qui sont représentatifs de
différents types de surfaces (classes d'information). Ces
échantillons forment un ensemble de donnéestests. La
sélection de ces données-tests est basée sur les connaissances
de l'analyste, sa familiarité avec les régions géographiques et les
types de surfaces présents dans l'image. L'analyste supervise
donc la classification d'un ensemble spécifique de classes. Les
informations numériques pour chacune des bandes et pour
chaque pixel de ces ensembles sont utilisées pour que
l'ordinateur puisse définir les classes et ensuite reconnaître des
régions aux propriétés similaires à chaque classe. L'ordinateur
utilise un programme spécial ou algorithme afin de déterminer
la "signature" numérique de chacune des classes. Plusieurs
algorithmes différents sont possibles. Une fois que l'ordinateur
a établi la signature spectrale de chaque classe à la classe avec
laquelle il a le plus d'affinités. Une classification supervisée
commence donc par l'identification des classes d'information
qui sont ensuite utilisées pour définir les classes spectrales qui
les représentent.

Classification Non
supervisée
• La classification non supervisée procède de la façon
contraire. Les classes spectrales sont formées en
premier, basées sur l'information numérique des
données seulement. Ces classes sont ensuite associées,
par un analyste, à des classes d'information utile (si
possible). Des programmes appelés algorithmes de
classification sont utilisés pour déterminer les groupes
statistiques naturels ou les structures des données.
Habituellement, l'analyste spécifie le nombre de
groupes ou classes qui seront formés avec les données.
De plus, l'analyste peut spécifier certains paramètres
relatifs à la distance entre les classes et la variance à
l'intérieur même d'une classe. Le résultat final de ce
processus de classification itératif peut créer des classes
que l'analyste voudra combiner, ou des classes qui
devraient être séparées de nouveau. Chacune de ces
étapes nécessite une nouvelle application de
l'algorithme. L'intervention humaine n'est donc pas
totalement exempte de la classification non supervisée.
Cependant, cette méthode ne commence pas avec un
ensemble prédéterminé de classes comme pour la
classification supervisée.

Classification Non
supervisée
• Dans les méthodes de classification non
supervisée, le traitement se fait
uniquement sur les données numériques
de l’image : il n’y a pas de classes définies
a priori dès le départ. Une fois la
segmentation effectuée
• Les étapes de la classification sont
modélisées sur un diagramme, appelé
dendrogramme : on peut y identifier les
classes qui ont fusionné pour créer une
classe plus importante et évaluer la
distance entre les différentes classes
(deux classes extrêmement éloignées
tarderont à être réunies dans une classe
plus importante).
• L’analyse de ce diagramme peut aider à
déterminer le nombre de classes le plus
intéressant à obtenir, par visualisation du
résultat sur l’image, notamment
Classification Non
supervisée
ETAPES D’UNE CLASSIFICATION ASCENDANTE
HIÉRARCHIQUE

Classification Non
supervisée
• Dans les premières années de la
télédétection, quand toutes les données
provenaient de photographies
aériennes, la possibilité d'intégrer des
données de différentes sources était
plutôt limitée. Aujourd'hui, la plupart
des données, provenant de divers
capteurs, sont disponibles en format
numérique, ce qui fait de l'intégration
des données une méthode commune
pour l'interprétation et l'analyse. L'intégration des données
est une méthode qui implique la combinaison de données
provenant de différentes sources afin d'en extraire une plus
grande quantité et une meilleure qualité d'information. Les
données combinées peuvent inclure des données
multitemporelles, des données de plusieurs résolutions, des
données de plusieurs capteurs et des données de plusieurs
types

Classification supervisée
• L'intégration des données multitemporelles a déjà
été présentée à la section 4.6 lorsque nous avons
discuté de la soustraction d'image. Les images
acquises à des heures différentes sont intégrées
ensemble afin d'identifier les zones de
changement. La détection de changements
multitemporels peut être effectuée à l'aide de
méthodes simples, comme cette dernière, ou à
l'aide d'approches plus complexes comme des
comparaisons de classifications multiples ou des
classifications utilisant des ensembles de données
multitemporelles intégrées.
• L'intégration de données provenant de différents
capteurs exige que les données soient
géométriquement liées entre elles ou à des
coordonnées géographiques communes. Ceci
permet aussi d'intégrer des données d'autres
sources aux données de télédétection.
Classification supervisée
IMAGE SPOT ET RÉSULTAT DE SA CLASSIFICATION PAR
HYPERCUBES

Classification supervisée

IMAGE SPOT ET
RÉSULTAT DE SA
CLASSIFICATION
PAR maximum
de
vraisemblance

Classification supervisée
Sans doute la plus utilisée, la
classification par maximum
de vraisemblance découle
d’une méthode probabiliste
: pour chaque pixel on
détermine sa probabilité
d’appartenir à une classe
plutôt qu’à une autre.
On s’appuie sur la règle de
Bayes : P(Ci/p)=
P(p/Ci)*P(Ci)/P(p),
avec P(Ci/p) = probabilité d’être
dans la classe i sachant qu’on
est le pixel p,
P(p/Ci) = probabilité d’être le
pixel p sachant qu’on se trouve
dans la classe i,
P(Ci) = probabilité d’appartenir à
la classe i et P(p) = probabilité
d’être le pixel p.
On affecte donc p à la classe i si
P(p /Ci)*P(Ci)> P(p/Cj)*P(Cj)
pour toute classe j.
Classification supervisée
Intégration de données
d’autres
sources
•Les données provenant de plusieurs
capteurs peuvent aussi être combinées,
ce qui nous amène à introduire le
concept de la fusion de données
multicapteurs. La combinaison de
données optiques multispectrales à des
images radars est un très bon exemple de
cette technique. Ces deux types de
représentations spectrales de la surface
présentent des informations complémentaires. Les
données optiques fournissent une information spectrale
détaillée, utile pour faire la différence entre deux types de
surfaces, tandis que les images radars mettent en
évidence les détails structuraux de la surface.

Conclusion
• La combinaison des données de différentes sources et de différents
types que nous venons de décrire, ne constitue que la pointe de
l'iceberg pour l'intégration de données et l'analyse. Dans un
environnement numérique, où toutes les sources de données sont
géométriquement liées à une base géographique commune, le
potentiel pour l'extraction de l'information est très grand. Ceci définit
le principe de l'analyse numérique dans un système d'information
géographique (SIG). Toutes les données qui peuvent être repérées
dans un système de coordonnées géographiques communes sont
susceptibles d'être utilisées dans ce type d'environnement. Un MEN
n'est qu'un exemple de ce type de données. Des cartes de types de sols,
de classes de surfaces, de types de forêts, du réseau routier, etc. en sont
des exemples parmi tant d'autres. Il est aussi possible d'utiliser dans
un SIG, le résultat d'une classification de données de télédétection
sous forme de carte afin de faire la mise à jour des cartes existantes. En
résumé, l'analyse de diverses sources de données combinées permet
d'en extraire de meilleures et plus précises informations. On profite
donc d'une synergie entre les types de données. Les utilisations et le
potentiel de cette analyse sont incalculables. Dans le prochain et
dernier chapitre, nous présenterons des exemples d'utilisation des
données de télédétection où plusieurs de ces exemples font usage de
l'intégration de données de plusieurs sources.

Bibliographie
• Bariou, R., 1978 : Manuel de télédétection (photos aériennes, images radar,
thermographies, • imagerie satellite), Ed. Sodipe, Paris.
• Bakis, H. et Bonin, M., 2000 : La photographie aérienne et spatiale, PUF Que
sais-je ?, n°
• 1700, Paris, 127 p.
• Bonn, F., Rochon, G., 1992 : Précis de télédétection, Volume 1, Principes et
méthodes, Ed.
• AUPELF-UREF, Presses Universitaires du Québec, Montréal.
• Bonn, F., Rochon, G., 1992 : Précis de télédétection, Volume 2, Applications
thématiques,
• Ed. AUPELF-UREF, Presses Universitaires du Québec, Montréal.
• Couzy, A., 1981 : La télédétection, PUF Que sais-je ?, n°1919, Paris, 128 p.
• Minvielle, E. et Souiah, SA., 2003. L'analyse statistique et spatiale : statistiques,
• cartographie, télédétection, SIG. Nantes : Temps. 284 p.
• Robin, M., 1996 : La télédétection, des satellites aux systèmes d’information
géographique,
• Nathan coll. Fac, Paris, 318 p.
• Verger, F., 1982 : L’observation de la Terre par les satellites, PUF Que sais-je ?, n°
1989,
• Paris, 128 p.

références
• Cours de Michel - Claude Girard et Colette Girard
• [Link]
on/cours Centre Canadien de Télédétection
• [Link]
• Cours de la NASA (National Aeronautics and
Space Administration) • [Link]
• Gratuites :
• – Monde (Landsat, ASTER)
• [Link]
[Link]
• – Amérique du Sud (Landsat, SPOT, CBers)
• – [Link]

Vous aimerez peut-être aussi