Traitements des images numériques M.
AIT KBIR
I Généralités sur les images numériques
Généralement, une image est une reproduction exacte ou analogique d’un être ou d’une
chose. Parmi les objets image :
o Images physiques visibles : de nature volatiles (optiques, électro-optique …) ou
permanentes (clichés photographiques, dessin, documents imprimés … ).
o Images physiques non visibles : images optiques hors du domaine du visible (vue
infra-rouge, spectre de physique) ou représentation de tout paramètre physique
non directement visible.
o Les images mathématiques continues ou discrètes représentées par des
matrices de nombres.
Traiter une image, c’est en faire extraire ou apparaître une information utile. Le domaine de
création des images artificielles ou des images de synthèse ne fait pas partie du traitement
d’images. Une chaine de vision par ordinateur peut être schématisée comme suit :
Le traitement des images numériques vise la modification, l’analyse ou la compréhension de
l’image dans le but de doter les machines de capacités visuelles. Ceci passe par la
segmentation de l’image, l’extraction des attributs puis la prise d’une décision (vision
automatique par ordinateur, robotique …).
MST/Cycle ingénieur 2021-2022
Traitements des images numériques M. AIT KBIR
I.1 Traitement d’images et vision par ordinateur
Vision par ordinateur : est un traitement haut-niveau qui opère sur des entités d’ordre
symbolique associées à une réalité extraite de l’image. Exemples : Stéréo-vision,
reconnaissance des formes, compréhension d’image … .
Traitement d’images : est un traitement bas-niveau qui opère sur les grandeurs calculées à
partir des valeurs attachés à chaque pixel de l’image sans faire une relation avec la réalité
qu’il représente. Exemples : Modification de contraste, binarisation, rehaussement,
restauration, détection de contours, segmentation … .
Parmi les grandes classes de traitement d’images on peut citer :
o Amélioration de la qualité de l’image
o Restauration d’une image dégradée par divers processus
o Segmentation d’image
o Compression d’image
I.2 Notion de la couleur
La couleur est le résultat de l'action conjuguée de :
o La source lumineuse (La lumière est une onde électromagnétique, se propageant
dans l'espace et le temps)
o La géométrie d'observation
o La scène et ses caractéristiques physiques
o L'œil de l'observateur
o Le cerveau de l'observateur
Domaine du spectre électromagnétique :
Le spectre visible (1) ou spectre optique est la partie du spectre électromagnétique visible
pour l'œil humain. La couleur varie en fonction de la longueur d’onde entre 380 et 780 nm
(nanomètres), ci-dessous le spectre visible obtenu par décomposition de la lumière blanche
par un prisme.
1
http://fr.wikipedia.org/wiki/Spectre_visible
2
MST/Cycle ingénieur 2021-2022
Traitements des images numériques M. AIT KBIR
En radio, la vitesse v est celle de la lumière c, égale à près de 300 000 000 m/s.
Newton a constaté en 1666 qu’un prisme permet de décomposer la lumière
polychromatique. En effet, celle-ci sortait du prisme avec plusieurs déviations et couleurs
différentes. Il a déduit en particulier que la lumière blanche est composée de toutes les
couleurs.
I.2.1 Anatomie de l’œil humain
Les rayons lumineux qui parviennent à l’œil, sont captés par des photorécepteurs au niveau
de la rétine (2), pour se transformer en un influx nerveux qui empreinte le chemin des nerfs
optiques pour arriver au cerveau. Ces photorécepteurs sont formés de deux types de
cellules sensorielles : les bâtonnets qui permettent de voir dans les faibles conditions
d'éclairage (vision nocturne) et les cônes de forte concentration au centre de la rétine qui
sont adaptés à l'éclairage du jour (vision diurne). La zone d’où part le nerf optique ne capte
pas la lumière (elle est appelée tache aveugle).
2
http://fr.wikipedia.org/wiki/R%C3%A9tine
3
MST/Cycle ingénieur 2021-2022
Traitements des images numériques M. AIT KBIR
La décomposition de la couleur en rouge, vert et bleu est due à l’adaptation de ces couleurs aux 3
types de cônes (L: Long, M: Middle et S: Short) qui réceptionnent la lumière dans l’œil humain.
Les cônes L, sensibles aux ondes longues (700nm), donc le rouge
Les cônes M, sensibles aux ondes moyennes (546nm), donc le vert
Les cônes S, sensibles aux ondes courtes (436 nm), donc le bleu
L’absorption de la lumière par les cônes de l’œil humain justifie l’utilisation de l’espace couleur RGB
qui est le plus lié au système visuel humain.
I.2.2 Systèmes de représentation de la couleur
- Système additif
On combine trois couleurs primaires (rouge, vert et bleu) par addition pour obtenir les
autres couleurs (couleurs secondaires) du spectre du visible.
Pour les scanners, les moniteurs de télévision et les moniteurs d’ordinateur, cette synthèse
se fait en projetant des spots lumineux sur un fond noir.
MST/Cycle ingénieur 2021-2022
Traitements des images numériques M. AIT KBIR
Bleu + Vert = Cyan
Bleu + Rouge = Magenta
Vert + Rouge = Jaune
Bleu + Vert + Rouge = Blanc
- Système soustractif
Ce système suppose la présence de toutes les couleurs au départ (fond blanc). La
combinaison des trois couleurs primaires : le CYAN , le MAGENTA et le JAUNE , permet
l'obtention de toutes les couleurs par soustraction de couleurs. Ce système est utilisé en
imprimerie, en dessin et en peinture.
La superposition des trois couleurs donne le noir (
Le fond est blanc en l'absence de couleur).
Il existe plusieurs modèles colorimétriques ou espaces colorimétriques :
RGB (moniteur)
CMY (imprimante)
HSV(retouche d’images)
YUV( vidéo analogique PAL et SECAM)
YIQ (vidéo analogique NTSC)
MST/Cycle ingénieur 2021-2022
Traitements des images numériques M. AIT KBIR
- Espace RGB (RVB)
Toute couleur est obtenue en ajoutant différentes quantités de rouge, de vert et de bleu.
Ces quantités de rouge, de vert et de bleu peuvent être exprimées sous forme de
pourcentage, sous forme d’une valeur dans [0, 1] ou sous forme d’un nombre non signé
codé sur 8 bits, valeurs dans {0, 1, 2, …,255}.
- Système HSV
Système issu des travaux du peintre Albert Munsell (1858-1918). H(Hue=Teinte),
S(Saturation) et V(Value= Luminance) permettent de décrire respectivement la couleur, la
pureté d'une couleur et la part du noir ou du blanc dans la couleur.
Une diminution de la saturation d’une couleur la fera tendre vers le gris (axe du cylindre).
- Système CMY
MST/Cycle ingénieur 2021-2022
Traitements des images numériques M. AIT KBIR
Le système CMY (Y : Yellow en anglais) ou encore CMJ (J : Jaune en français) utilise le
principe de la synthèse soustractive des couleurs, il est à la base de la plupart des
imprimantes.
Pour imprimer en rouge, on utilise les valeurs CMY (0, 1, 1) ou M absorbe le vert Y absorbe
le bleu. De ce fait M+Y absorbe tout sauf le rouge.
En pratique, on utilise le système CMYK (K pour Black), on parle ici de quadrichromie. En
effet, une encre noire est ajoutée, car le système CMY ne peut générer un noir parfait.
I.3 Principe de la caméra
L’objectif a pour but de déterminer la qualité de la prise de vue. Il est composé de :
Diaphragme : détermine l’intensité de la lumière qui passe par l’objectif et permet d’agir sur
la profondeur de champs.
Lentille : déterminer la trajectoire de la lumière en faisant converger les rayons lumineux
vers un capteur dans le cas d’une caméra numérique.
La focale ou zoom : permet la mise au point de l’image. Pour une focale courte, les lentilles
sont proches du plan image, le champ de vision est large et le grossissement est faible.
Inversement, le champ de vision est restreint pour une focale longue et le grossissement est
important.
MST/Cycle ingénieur 2021-2022
Traitements des images numériques M. AIT KBIR
Lors de l'appui sur le déclencheur, l'obturateur s'ouvre afin de laisser passer la lumière par l'objectif.
Un obturateur électronique va s’ouvrir ensuite pour découvrir le capteur numérique qui enregistrera
l’image. Les trois paramètres qui contrôlent la quantité de lumière reçue par le capteur numérique :
La valeur de l’ouverture du diaphragme
La vitesse d’obturation
La sensibilité du capteur numérique
Par analogie avec l’œil humain la caméra comprend les éléments suivants :
Œil Caméra
Cristallin Lentille
Iris Diaphragme
Rétine Capteur CCD
I.3.1 Les capteurs CCD
Les capteurs CCD (Charge Coupled Device ou capteur à transfert de charge) sont des
composants électroniques semi-conducteurs qui permettent de transformer l’énergie
lumineuse des photons en électrons. Deux types de systèmes :
- Le système couleur Mono-CCD
Chaque pixel de l’image est rendu par 4 photosites d’un même capteur. Une mosaïque de
filtres colorés est placée au dessus de la matrice de photosites. Les photosites sont
regroupés par 4 et chacun est spécialisé dans une composante de couleur. A quatre, ils
donnent les trois composantes couleurs du pixel de l’image. Il y a plus de vert pour tenir
compte du fait que l'œil humain est plus sensible au vert qu'aux autres couleurs.
- Le système couleur Tri-CCD
MST/Cycle ingénieur 2021-2022
Traitements des images numériques M. AIT KBIR
Dans ce système on utilise 3 capteurs CCD. La lumière qui arrive par l’objectif est projetée
sur 3 capteurs CCD différents à l’aide d’un système de prismes.
I.3.2 Les capteurs CMOS
Les capteurs CMOS (Complementary Metal Oxide Semiconductors): des dispositifs gravés
sur des puces de silicium. Cette famille de capteurs est caractérisée par un faible coût, faible
consommation d’énergie et plus rapide que les capteurs CCD.
I.4 Acquisition d’une image
La plupart des systèmes d’imagerie optique utilisent des caméras dont l’élément
photosensible est un semi-conducteur, exemple d’une caméra CCD qui est un assemblage
de photodiodes délivrant chacune une intensité lumineuse d’un point de l’image (pixel). Ces
dispositifs produisent une image numérique directement exploitable par un ordinateur. Les
caméras CCD sont les dispositifs d’acquisition les plus utilisés dans l’industrie et les
laboratoires de recherche.
La résolution d’une image est définie par le nombre de pixels par unité de surface de la
structure à numériser (classiquement en dpi (dots per inch) ou ppp (points par pouce)). Ce
paramètre est défini lors de la numérisation et dépend principalement des caractéristiques
de la caméra. Plus le nombre de pixels par unité de longueur de la structure à numériser est
MST/Cycle ingénieur 2021-2022
Traitements des images numériques M. AIT KBIR
élevé, plus la quantité d’information qui décrit cette structure est importante. Elle définit
donc le degré de détail qui va être représenté sur cette image.
Une image de 1*1 pouce scannée à 100 dpi aura une taille de (100 pixels X 100 pixels). Sur
l'écran d'un ordinateur, la résolution spatiale est d'environ 75 dpi (25 dpi pour un écran de
télévision de 20 pouces). Elle passe à 300 dpi pour une imprimante, une dizaine de milliers
de dpi pour une diapositive.
Pour numériser une image il faut passer par les deux étapes suivantes :
I.4.1 L’échantillonnage
L'échantillonnage consiste à prélever de façon périodique des échantillons du signal. Par
Exemple : pour une image satellite, 1 pixel représente 1 mètre au sol.
Une résolution trop faible peut causer des problèmes de repliement (Apparition d'effet
d’escaliers sur les contours obliques).
Fréquence d’échantillonnage :
Le théorème de Shannon suppose qu’il faut échantillonner un signal analogique à une fréquence fe
au minimum double de la fréquence maximum utile f0 du signal analogique : fe=2xf0 (1/f0 est la taille
du plus petit détail pertinent dans le cas de l’image). Ceci suppose toutefois d’utiliser un filtre passe-
10
MST/Cycle ingénieur 2021-2022
Traitements des images numériques M. AIT KBIR
bas parfait de fréquence de coupure égale à fe/2, ce qui permet de reconstruire le signale de
manière exacte.
I.4.2 La quantification
L’opération de quantification permet de diviser l'échelle des intensités en un nombre de
plages de valeurs, chaque intensité lumineuse située dans cette plage est remplacée par une
valeur représentant l'amplitude moyenne de la plage. Chaque valeur est ensuite codée sur
un certain nombre de bits.
Une quantification trop faible peut causer des problèmes de faux contours.
I.5 Type d’images Bitmap
Une image couleur est la composition de trois images en niveaux de gris sur trois
composantes. On définit donc trois plans de niveaux de gris, un rouge, un vert et un bleu. La
couleur finale est obtenue par synthèse additive de ces trois composantes.
Pour certains calculs sur les images, le résultat peut ne pas être entier, il est donc préférable
de définir l'image de départ et l'image résultat comme des images à valeurs réelles (On
parle ici d’une image vraies couleurs). En général, une image à valeurs réelle est telle que le
niveau de gris est un réel compris entre 0.0 et 1.0. Si on suppose que chaque pixels peut
prendre une valeur dans le RGB comprise entre 0 et 255 (soit 256*256*256 possibilités),
l’image peut contenir 216 16 millions de couleurs différentes.
Le problème reconnu par une image de 16 millions de couleurs est la taille qui est très
grande. On peut résoudre le problème en utilisant une palette de couleur attachée à
l’image. Chaque pixel va non plus véhiculer le code couleur RGB qui lui est affecté, mais
11
MST/Cycle ingénieur 2021-2022
Traitements des images numériques M. AIT KBIR
simplement un chiffre compris entre 0 et 255. A chacun de ces chiffres va correspondre une
couleur, définie par son code RGB stocké dans la palette des couleurs de l’image (on parle
de couleurs indexées).
Une image en niveaux de gris autorise un dégradé de gris entre le noir et le blanc. En
général, on code le niveau de gris sur un octet (8 bits) soit 256 nuances de dégradé.
Une image binaire est une image où chaque point peut prendre uniquement deux valeurs.
Exemple, les pixels noirs (0) et pixels blancs (1). Le niveau de gris est codé sur un bit (Binary
digIT).
I.5.1 Formats d’images
- Format vectoriel
Dans ce format les données de l’image sont décrites par des formes géométriques qui vont pouvoir
être décrites d’un point de vue mathématique : Dessin, CAO, Police de caractères. Exemples :
Dessins Word, VRML, CDR (CorelDraw). Les logiciels qui manipulent ces formats utilisent une série
de commandes pour tracer des objets simples (lignes, polygones,…). Par exemple pour tracer une
ligne : point de départ, point d’arrivée ; pour tracer un triangle : 3 sommets, la couleur de
remplissage, la couleur du contour … .
Pour ce type d’images, pas repliement lorsqu’on manipule l’objet graphique.
Format Bitmap
Ce format traite l’image en tant que matrice de pixels de différentes profondeurs :
Binaire: I(x,y) {0,1}
12
MST/Cycle ingénieur 2021-2022
Traitements des images numériques M. AIT KBIR
Niveau de gris: I(x,y) [0, 255]
Couleur: IR(x,y) IV(x,y) IB(x,y) [0, 255]x[0, 255]x[0, 255]
I.5.2 Format des Fichiers images
- Format GIF (Graphics Interchange Format )
Image compressée avec algorithme LZW (Lempel-Ziv & Welch) sous
licence Unisys (gratuit sauf pour fin commerciale)
Palette de couleur de maxi 256 couleurs
Petits fichiers Utilisé pour les sites Internet
Peu adapté pour la photographie. Utilisé pour les dessins.
Possibilité de transparences
Possibilité d'empiler les images pour en faire un gif animé
- Format PCX (Paintbrush)
Bien adapté aux dessins
Image compressée avec algorithme RLE (Run Length Encoding)
13
MST/Cycle ingénieur 2021-2022
Traitements des images numériques M. AIT KBIR
La plupart des fichiers PCX utilisent une palette de couleur (Max de 256
couleurs), mais étendu depuis aux images 24 bits
- Format BMP (BitMaP de Microsoft)
Format brut (“raw”) ou binaire
Image NON compressée gros fichiers
De 2 à 16 millions de couleurs
Papiers peints, icônes… de Windows (rapide mais gros)
- Format TIFF (Tagged Image File Format)
Très “ouvert”, permet différents formats, différentes options et
compressions (différenciable par des “tags”)… donc pas très standard
Pixel 24 bits (16,7 millions de couleurs)
Difficile pour un logiciel de supporter tous les TIFF
- JPEG (Joint Photographic Experts Group)
Utilisé pour les images couleurs 24 bits
Forte compression mais avec perte (compréssée jusqu’à 25 fois)
Basée sur la transformée cosinus discrète (DCT) 2D de sous-images 8 x 8
I.5.3 Méta-données
Certains formats d’images comme JPEG, TIFF, PSD, Raw et autres, peuvent intégrer pleins
d’informations techniques, qu’on peut utiliser pour retrouver facilement des photos. Ce qui permet
de cataloguer ces dernières sans faire appel à une base de données propriétaire, on peut citer EXIF,
IPTC, XMP, DIG35 Dublin Core etautres.
14
MST/Cycle ingénieur 2021-2022
Traitements des images numériques M. AIT KBIR
I.5.3.1 Méta-données IPTC
33 métadonnées de type interne développées par International Press and Telecommunications
Council, une organisation internationale créée en 1965 pour développer et promouvoir des
standards d'échange de données à destination de la presse
<metadata>
<object_name>champ.jpg </>
<keywords> photo aérienne,champ, region blé </>
<realise_date> 2004-8-8 </>
<realise_time> 13:15:40 </>
<!-- c’est l’auteur de l’image --!>
<by_line> fred </>
<city> cardassonne </>
<country> France </>
<!-- c’est le titre de l’image --!>
<headline> opération de contrôle </>
<caption> control des champs de la région de … aucun incident </>
<image_type> JPEG </> …
</metadata>
I.5.3.2 Méta-données EXIF
EXIF (EXchangeable Image File) est un format définissant les informations d'ordre technique
contenues dans les fichiers image, apparaît-le plus souvent dans les images JPEG capturées avec des
appareils photo numériques.
<metadata>
<image_width> 600 </>
<image_lenght> 200 </>
<compression> JPEG </>
<image_description> champ.jpg </>
<make> Acme </> <!-- appareil photo --!>
<model> M1000 </>
<strip_offsets> carcassonne </>
<orientation> north </>
<date_time> 2004-8-8 13:15:40 </>
<flash> false </>
<subject_aera> opération de contrôle </>
<color_space> RGB </>
</metadata>
15
MST/Cycle ingénieur 2021-2022