0% ont trouvé ce document utile (0 vote)
320 vues15 pages

Introduction aux Images Numériques

Ce chapitre traite des images numériques, y compris leur définition, leurs formats, leur résolution et leurs couleurs. Il fournit des détails techniques sur la numérisation et la quantification des images.

Transféré par

dammak chifa
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
320 vues15 pages

Introduction aux Images Numériques

Ce chapitre traite des images numériques, y compris leur définition, leurs formats, leur résolution et leurs couleurs. Il fournit des détails techniques sur la numérisation et la quantification des images.

Transféré par

dammak chifa
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Chapitre II : Les images numériques Ingénieur Docteur Seddik Hassene

‘(
Chapitre II

LES IMAGES NUMERIQUES

I. QU’EST CE QU’IMAGE NUMÉRIQUE


Une image peut être considérée comme une fonction I(X) défini sur un espace
multidimensionnel. X est un vecteur de cet espace définissant une position ( exp. X(x1, x2)
dans le 2D) et I (X) est une valeur scalaire.
Les fonctions image sont échantillonnées pour former des ensembles de points (pixels,
PICTURE Elements). Une image numérique est composée de ces unités élémentaires
(appelés pixels) qui représentent chacun une portion de l'image. En général le maillage
d’échantillonnage est rectangulaire (mais il peut être aussi triangulaire ou plus complexe).
Une image est définie par deux propriétés principales:
- Le nombre de pixels qui la compose en largeur et en hauteur (qui peut varier
presque à l’infinie).
- L'étendu des teintes de gris ou des couleurs que peut prendre chaque pixel (on
parle de dynamique de l'image).

Toutes les données correspondant aux informations contenues dans l'image sont
structurées d'une certaine façon afin de permettre leur stockage. Il existe un grand nombre
de formats d’images, tous ces formats ne correspondent ni plus ni moins qu'à une
structuration particulière des données concernant l'image.

1. Echantillonnage et résolution

L’échantillonnage de l’image peut être plus ou moins fin ( 64 × 64 ou 128 × 128 ou


4092 × 4092 , ..... ou 523 × 765 ) mais chaque pixel va représenter une certaine partie de la
scène réelle, plus ou moins grande mesurée par ce qu’on appelle la résolution (spatiale) de
l’image.

2. Quantification

La fonction image est elle-même discrétisée selon les valeurs des pixels I(i,j) :
- 1 bit 0,1 image binaire « mono-chromatique »
- 8 bits 0,1,2, .....255 images niveaux de gris classique
- 16 bits 0,1,2,…65535 images d'astronomie

II. INTRODUCTION AUX FORMATS D'IMAGES


Un format d'image comprend en général un en-tête qui contient des données sur l'image
(taille de l'image en pixels par exemple) suivie des données de l'image. La structuration des
données est différente pour chaque format d'image.

8
Chapitre II : Les images numériques Ingénieur Docteur Seddik Hassene

Quelques précautions à prendre concernant les formats d'images :


- Il est important, dans la mesure du possible, de bannir les formats propriétaires et
de leur préférer des formats libres de tous droits,
- Il faut prendre garde aux différentes versions que peut recouvrir un format
particulier. C'est notamment le cas pour le format TIFF qui varie selon les versions et qui
fait que certaines versions de TIFF ne sont pas reconnues par certains logiciels.

1. Principaux formats d’images

- Bitmap : est le format d'image standard pour Windows, généralement sans


compression. Une image bitmap est constituée des différents pixels qui sont placés
dans une grille comme une mosaïque. La plupart des photographies et photos d'écran
digitales sont des images bitmap. Une image bitmap ne peut pas être redimensionnée
sans perte de qualité.

- JPEG : est un format d’image compressé avec perte. Le but premier de l'algorithme
utilisé est de permettre un taux de compression important dans le but que les
modifications apportées sur l'image ne soient pas visibles à l'œil (ce qui est vrai pour
les taux de compression les plus faibles mais moins vrai pour les taux de compression
les plus élevés). Il est cependant possible de plus ou moins compresser les données.
L'utilisateur peut faire varier le taux de compression de 1% (qualité la meilleure) à
99% (qualité la moins bonne).

- GIF : Ce format est sous brevet Unisys. Il s'agit donc d'un format "propriétaire". Il ne
supporte que 256 couleurs. Son format de compression dépendra du nombre de zone
homogène qui facilitera la compression et de l’orientation de l’image (car la lecture
des bits se fait de façon linéaire, en commençant par le coin du haut gauche.

- TIFF : Ce format d'images peut être avec ou sans compression. De plus, il existe
différents modes de compressions (sans perte) possibles que l'on peut choisir (ou pas)
lors de l'enregistrement du fichier. Toutes ces possibilités expliquent la multitude des
formats TIFF que l'on peut rencontrer et qui est à l'origine de problèmes de
compatibilités entre logiciels.

- PNG :( Portable Network Graphic) Ce format d’image a été créer pour remplacer le
GIF et JPEG en raison d’une meilleur efficacité de sa méthode de compression de ses
fonctions de colorisation et de la présence d’une couche transparente. Il réunit presque
tous les avantages du JPEG et ceux du GIF.
- PICT : est un format vectoriel interne au fonctionnement du Macintosh. Il peut
contenir des éléments graphiques ou des images numérisées. C'est un format facile
d'utilisation et reconnu par un grand nombre de logiciels autant sur environnement
Macintosh que sur Windows. Les images PICT peuvent être ouvertes avec Quick
Time (Picture Viewer).
- AI : Ce format est importable sous Photoshop et peut être converti en images bitmap
de la taille de votre choix.
2. Images matricielles ou images vectorielles

Une image numérique en elle-même est en fait un concept tout à fait abstrait (des
données numériques) qui ne trouve une signification à nos yeux qu'à la visualisation
lorsque l'on utilise un logiciel adéquat.

9
Chapitre II : Les images numériques Ingénieur Docteur Seddik Hassene

Les images numériques sont des images matricielles (une image numérique est en
fait une matrice (un tableau de pixels).
Il existe un autre type d'images numériques, les images vectorielles, dont le
principe est de représenter, autant que cela est possible de le faire, les données de l'image
par des formes géométriques qui vont pouvoir être décrites d'un point de vue
mathématique. L'usage de prédilection de ce type d'images concerne les schémas qu'il est
possible de générer avec certains logiciels de dessin.

3. La résolution d’une image numérique

La résolution d'une image est définie par un nombre de pixels par unité de longueur de
la structure à numériser (classiquement en dpi dots per inches ou ppp points par pouce).
Ce paramètre est défini lors de la numérisation et dépend principalement des
caractéristiques du matériel utilisé lors de processus de numérisation.
Plus le nombre de pixels est élevé par unité de longueur de la structure à numériser, plus la
quantité d'informations qui décrit cette structure est importante et plus la résolution est
élevée. La résolution d'une image numérique définit le degré de détail qui va être
représenté sur cette image.

Les phénomènes de numérisation dépendent des 2 équations suivantes :


 (X*résolution) = x pixels
 (Y*résolution) = y pixels

Où X et Y représente la taille (en pouces ou mètres) de la structure à numériser, où


résolution représente la résolution de numérisation, et où x et y représente la taille (en
pixels) de l'image.

Exemple 1
Un image de 5×5 pouce scannée a 100 dpi aura une taille x,y de 500 pixels sur 500 pixels
(5×100) × (5×100) = 500 pixels sur 500 pixels. (pouce=inch)

Exemple 2
Considérons un disque de 1 cm de diamètre et utilisons un scanner à plat à différentes
résolutions :

Résolution 300 dpi 150 dpi 100 dpi 50 dpi 25 dpi 12 dpi
Taille de
l'image en 123*120 61*60 40*40 20*19 9*9 4*4
pixels
Taille
3600 1600 400 81 16
théorique 14700 octets
octets octets octets octets octets
en octets

Table 1 : Résolution pixeliques

10
Chapitre II : Les images numériques Ingénieur Docteur Seddik Hassene

La taille en pixels (nombre de pixels) diminue en fonction de la résolution ce qui


est logique. De plus la taille X,Y fixe d'objet à numériser et à dynamique constante, la
taille en octets de l'image (ici calculée de façon théorique) est fonction de la résolution.

Lorsque la résolution diminue, la précision diminue également.

Exemple 3
Considérons une image à 72 pixels/pouces, réduite à une résolution de 48 px/pouces, puis à
24px/pouce.

72 px/p 48 px/p 24 px/p

Fig.1 Différentes résolutions d’images

Fig.2 Résolution VS échantillonnage

11
Chapitre II : Les images numériques Ingénieur Docteur Seddik Hassene

Image prise au microscope électronique d'un Image de la même scène (avec zoom X5)
alliage métallique

Fig.3 Image 22 × 41 de la même scène (avec zoom X10)

III. LES IMAGES COULEURS

Afin de pouvoir manipuler correctement des couleurs et échanger des informations


colorimétriques il est nécessaire de disposer de moyens permettant de les catégoriser et de
les choisir. Ainsi, il n'est pas rare d'avoir à choisir la couleur d'un produit avant même que
celui-ci ne soit fabriqué. Dans ce cas, une palette de couleurs est présentée, dans laquelle la
couleur convenant le mieux au besoin est choisie. La plupart du temps le produit (véhicule,
bâtiment, etc.) possède une couleur qui correspond à celle choisie.
En informatique, de la même façon, il est essentiel de disposer d'un moyen de
choisir une couleur parmi toutes celles anglais RGB, utilisables. Or la gamme de couleurs
possibles est très vaste et la chaîne de traitement de l'image passe par différents
périphériques : par exemple un numériseur (scanner), puis un logiciel de retouche d'image
et enfin une imprimante. Il est donc nécessaire de pouvoir représenter de façon fiable la
couleur afin de s'assurer de la cohérence entre ces différents périphériques.

12
Chapitre II : Les images numériques Ingénieur Docteur Seddik Hassene

On appelle ainsi «espace de couleurs» la représentation mathématique d'un


ensemble de couleurs. Il en existe plusieurs, parmi lesquels les plus connus sont :
 Le codage RGB (Rouge, Vert, Bleu, ou Red, Green, Blue).
 Le codage TSL (Teinte, Saturation, Luminance, en anglais HSL, Hue, Saturation, Luminance).
 Le codage CMYK.
 Le codage CIE.
 Le codage YUV.
 Le codage YIQ.

Le spectre de couleurs qu'un périphérique d'affichage permet d'afficher est appelé


gamut ou espace colorimétrique. Les couleurs n'appartenant pas au gamut sont appelées
couleurs hors-gamme. S'il existe plusieurs modes de représentation de la couleur, le plus
utilisé pour le maniement des images numériques est le RVB : Rouge, Vert, Bleu (R, V,
B). Cet espace couleur est basé sur la synthèse additive des couleurs, c'est à dire que le
mélange des trois composantes (R, V, B) donne une couleur.
Il existe différents types d'images couleurs en fonction du nombre de bits utilisés pour
le stockage de couleurs.

1. Images vraies couleurs ou 24 bits


Appellation trompeuse car dans le monde numérique où, tout est fini, il est impossible
de rendre compte de l’infinie. Le procédé est simple, chaque pixel peut prendre une valeur
dans le RVB comprise entre 0 et 255. Ce qui donne 16 millions de possibilités : 256 × 256
x 256 = 16 000 000.

Fig.4 Image de 16 millions de pixels

2. Images en 256 couleurs


La couleur d’un pixel n’est plus codée sur 3 octets mais seulement sur 1 octet. Sa
valeur est comprise entre 0 et 255. A chacun de ces chiffres va correspondre une couleur,
définie par son code RVB et stockée dans une palette avec les données de l'image (on parle
de couleurs indexées). Lors de la visualisation de l'image, la correspondance se fait entre le
numéro de la couleur affecté à chaque pixel (compris entre 0 et 255) et le code couleur
RVB correspondant.

Fig.5 Image de 256 couleurs

13
Chapitre II : Les images numériques Ingénieur Docteur Seddik Hassene

3. Images 3D
Ces images peuvent évidemment être d’un des deux types définis précédemment ( N/B
ou couleur). Des images 3D sont des images qui représentent une scène en trois dimensions. Le
« pixel » est alors appelé un voxel , et représente un volume élémentaire. Des exemples
d’images de ce type se rencontrent dans les images médicales. Les images tomographiques
axiales sont ainsi des images construites à partir de plusieurs radiographies faites sous des
angles de vue différents

Fig.6 Image projeté 3D

4. Le codage RGB

Le codage RGB, mis au point en 1931 par la Commission Internationale de l'Eclairage


(CIE) consiste à représenter l'espace des couleurs à partir de trois rayonnements
monochromatiques de couleurs :

 rouge (de longueur d'onde égale à 700,0 nm),


 vert (de longueur d'onde égale à 546,1 nm),
 bleu (de longueur d'onde égale à 435,8 nm).

Cet espace de couleur correspond à la façon dont les couleurs sont généralement
codées informatiquement, ou plus exactement à la manière dont les tubes cathodiques des
écrans d'ordinateurs représentent les couleurs.

Ainsi, le modèle RGB propose de coder sur un octet chaque composante de couleur, ce
qui correspond à 256 intensités de rouge, 256 intensités de vert et 256 intensités de bleu,
soient 16777216 possibilités théoriques de couleurs différentes, c'est-à-dire plus que ne
peut en discerner l'œil humain (environ 2 millions). Toutefois, cette valeur n'est que
théorique car elle dépend fortement du matériel d'affichage utilisé.

Etant donné que le codage RGB repose sur trois composantes proposant la même
gamme de valeur, on le représente généralement graphiquement par un cube dont chacun
des axes correspond à une couleur primaire :

14
Chapitre II : Les images numériques Ingénieur Docteur Seddik Hassene

Fig.7 Cube RGB additif et soustractif


5. Le codage HSL

Le modèle HSL (Hue, Saturation, Luminance, ou en français TSL), s'appuyant sur les
travaux du peintre Albert H. Munsell (qui créa l'Atlas de Munsell), est un modèle de
représentation dit "naturel", c'est-à-dire proche de la perception physiologique de la
couleur par l'oeil humain. En effet, le modèle RGB aussi adapté soit-il pour la
représentation informatique de la couleur ou bien l'affichage sur les périphériques de sortie,
ne permet pas de sélectionner facilement une couleur. En effet, le réglage de la couleur en
RGB dans les outils informatiques se fait généralement à l'aide de trois glisseurs ou bien de
trois cases avec les valeurs relatives de chacune des composantes primaires, or
l'éclaircissement d'une couleur demande d'augmenter proportionnellement les valeurs
respectives de chacune des composantes. Ainsi le modèle HSL a-t-il été mis au point afin
de pallier à cette lacune du modèle RGB. Le modèle HSL consiste à décomposer la couleur
selon des critères physiologiques :

 la teinte (en anglais Hue), correspondant à la perception de la couleur (T-shirt


mauve ou orange),
 la saturation, décrivant la pureté de la couleur, c'est-à-dire son caractère vif ou terne
(T-shirt neuf ou délavé),
 la luminance, indiquant la quantité de lumière de la couleur, c'est-à-dire son aspect
clair ou sombre (T-shirt au soleil ou à l'ombre).

Voici une représentation graphique du modèle HSL, dans lequel la teinte est
représentée par un cercle chromatique et la luminance et la saturation par deux axes :

Fig.8 Codage TSL

15
Chapitre II : Les images numériques Ingénieur Docteur Seddik Hassene

Il existe d'autres modèles naturels de représentation proches du modèle HSL :


 HSB : Hue, Saturation, Brightness soit Teinte, Saturation, Brillance en français. La
brillance décrit la perception de la lumière émise par une surface.
 HSV : Hue, Saturation, Value soit Teinte, Saturation, Valeur en français
 HSI : Hue, Saturation, Intensity soit Teinte, Saturation, Intensité en français
 HCI : Hue, Chrominance, Intensity soit Teinte, Chrominance, Intensité

6. Le codage CMY

Le codage CMY (Cyan, Magenta, Yellow, ou Cyan, Magenta, Jaune en français,


soit CMJ) est à la synthèse soustractive, ce que le codage RGB est à la synthèse additive.
Ce modèle consiste à décomposer une couleur en valeurs de Cyan, de Magenta et de Jaune.
L'absence de ces trois composantes donne du blanc tandis que leur ajout donne du noir.
Toutefois, le noir obtenu par l'ajout des trois couleurs Cyan, Magenta et Jaune n'étant que
partiellement noir en pratique (et coûtant cher), les imprimeurs rajoutent une composante
d'encre noire que l'on appelle noir pur. On parle alors de quadrichromie, ou modèle CMYK
(Cyan, Magenta, Jaune, Noir pur, ou en français CMJN).

7. Le codage CIE
Les couleurs peuvent être perçues différemment selon les individus et peuvent être
affichées différemment selon les périphériques d'affichage. La Commission Internationale
de l'Eclairage (CIE) a donc défini des standards permettant de définir une couleur
indépendamment des périphériques utilisés. A cette fin, la CIE a défini des critères basés
sur la perception de la couleur par l'œil humain, grâce à un triple stimulus.
En 1931 la CIE a élaboré le système colorimétrique xyY représentant les couleurs
selon leur chromaticité (axes x et y) et leur luminance (axe Y). Le diagramme de
chromaticité (ou diagramme chromatique), issu d'une transformation mathématique
représente sur la périphérie les couleurs pures, c'est-à-dire les rayonnements
monochromatiques correspondant aux couleurs du spectre (couleurs de l'arc en ciel),
repérées par leur longueur d'onde. La ligne fermant le diagramme (donc fermant les deux
extrémités du spectre visible) se nomme la droite des pourpres, car elle correspond à la
couleur pourpre, composée des deux rayonnements monochromatiques bleu (420 nm) et
rouge (680 nm) :

Fig.9 Codage CIE

16
Chapitre II : Les images numériques Ingénieur Docteur Seddik Hassene

On représente généralement le gamut d'un dispositif d'affichage en traçant dans le


diagramme chromatique un polygone renfermant toutes les couleurs qu'il est capable de
produire.
Toutefois ce mode de représentation purement mathématique ne tient pas compte
des facteurs physiologiques de perception de la couleur par l'oeil humain, ce qui résulte en
un diagramme de chromaticité laissant par exemple une place beaucoup trop large aux
couleurs vertes.
En 1960 la CIE mit au point le modèle Lu*v*.
Enfin en 1976, afin de remédier aux lacunes du modèle xyY, la CIE développe le
modèle colorimétrique La*b* (aussi connu sous le nom de CIELab), dans lequel une
couleur est repérée par trois valeurs :
 L, la luminance, exprimée en pourcentage (0 pour le noir à 100 pour le blanc)
 a et b deux gammes de couleur allant respectivement du vert au rouge et du bleu au
jaune avec des valeurs allant de -120 à +120.
Le mode Lab couvre ainsi l'intégralité du spectre visible par l'oeil humain et le
représente de manière uniforme. Il permet donc de décrire l'ensemble des couleurs visibles
indépendamment de toute technologie graphique. De cette façon il comprend la totalité des
couleurs RGB et CMYK, c'est la raison pour laquelle des logiciels tels que PhotoShop
utilisent ce mode pour passer d'un modèle de représentation à un autre.
Il s'agit d'un mode très utilisé dans l'industrie, mais peu retenu dans la plupart des logiciels
étant donné qu'il est difficile à manipuler.
Les modèles de la CIE ne sont pas intuitifs, toutefois le fait de les utiliser garantit
qu'une couleur créée selon ces modèles sera vue de la même façon par tous !

8. Le codage YUV

Le modèle YUV (appelé aussi CCIR 601) est un modèle de représentation de la


couleur dédié à la vidéo analogique. Il s'agit du format utilisé dans les standards PAL
(Phase Alternation Line) et SECAM (Séquentiel Couleur avec Mémoire). Le paramètre Y
représente la luminance (c'est-à-dire l'information en noir et blanc), tandis que U et V
permettent de représenter la chrominance, c'est-à-dire l'information sur la couleur. Ce
modèle a été mis au point afin de permettre de transmettre des informations colorées aux
téléviseurs couleurs, tout en s'assurant que les téléviseurs noir et blanc existant continuent
d'afficher une image en tons de gris.
Voici les relations liant Y à R, G et B, U à R et à la luminance, et enfin V à B et à la
luminance :
 Y = 0.299R + 0.587 G + 0.114 B
 U = -0.147R - 0.289 G + 0.436B = 0.492 (B - Y) (1)
 V = 0.615R -0.515G -0.100B = 0.877 (R-Y)

Ainsi U est parfois noté Cr et V noté Cb, d'où la notation YCrCb.

9. Le codage YIQ

Le modèle YIQ est très proche du modèle YUV. Il est notamment utilisé dans le
standard vidéo NTSC (utilisé entre autres aux États-Unis et au Japon).

Le paramètre Y représente la luminance. I et Q représentent respectivement


l'Interpolation et la Quadrature. Les relations entre ces paramètres et le modèle RGB sont
les suivantes :

17
Chapitre II : Les images numériques Ingénieur Docteur Seddik Hassene

 Y = 0.299 R + 0.587 G + 0.114 B


 I = 0.596 R - 0.275 G - 0.321 B (2)
 Q = 0.212 R - 0.523 G + 0.311 B

IV. LA SELECTION DES COULEURS DANS UN LOGICIEL

La plupart des logiciels graphiques offrent des moyens de sélectionner une couleur
de manière interactive. La principale est souvent le nuancier, c'est-à-dire la présentation
des couleurs dans un tableau dans lequel elles sont classées par nuances :

Fig.10 Sélection des couleurs

De plus en plus de logiciels intègrent toutefois des outils plus performants


permettant de choisir une couleur parmi une vaste gamme. Ainsi, dans le sélectionneur de
couleur ci-dessous, la teinte est représentée par un disque chromatique, tandis que la
luminance est représentée par un sélecteur vertical donnant les nuances de la couleur allant
du noir au blanc.

Fig.11 Sélection TSL

18
Chapitre II : Les images numériques Ingénieur Docteur Seddik Hassene

Dans le sélecteur ci-dessous par contre, la teinte est présentée en abscisses du


sélecteur de gauche, et la saturation est en ordonnée. Le sélecteur de droite permet de
régler la luminosité :

Fig.12 Sélection RGB

1. Facteur GAMMA:
On appelle facteur gamma le critère définissant le caractère non linéaire de
l'intensité lumineuse d'un élément.
Ainsi la luminance d'un écran d'ordinateur est non linéaire dans la mesure où :
 l'intensité lumineuse qu'il émet n'est pas linéairement proportionnelle à la tension
appliquée, mais correspond à une courbe fonction du gamma de l'écran
(généralement compris entre 2,3 et 2,6) :
I ~ Vgamma
 l'intensité lumineuse perçue par l'œil n'est pas proportionnelle à la quantité de
lumière effectivement émise
Du fait de la non linéarité des tubes cathodiques, une correction de gamma est nécessaire
dans le traitement des images vidéo.
Afin de remédier à cet effet et obtenir une reproduction satisfaisante de l'intensité
lumineuse, il est possible de compenser la luminance en appliquant une transformation
appelée «correction gamma».

Fig.13 Transformation Gamma

Un tube cathodique (ou CRT, cathode ray tube), par exemple, convertit un signal vidéo en
lumière de façon non linéaire, car le canon d'électrons qu'il contient est un dispositif à
19
Chapitre II : Les images numériques Ingénieur Docteur Seddik Hassene

réponse non linéaire. L'intensité de lumière I est liée à la tension source VS suivant la
formule approchée :

I ≈ K. V (3)

Où γ est la lettre grecque gamma, et k une constante dépendant de l'alimentation de


chauffage du canon à électrons, et du luminophore utilisé, le gain étant contrôlé par la
tension d'accélération. Pour un tube CRT, γ vaut environ 2,5. Par coïncidence, ceci résulte
dans l'échelle homogène perçue dans le diagramme en haut de cette page.

Par simplicité, considérons l'exemple d'un tube monochrome. Dans ce cas, quand un signal
vidéo de 0,5 (représentant le gris médian) alimente l'affichage, l'intensité ou brillance
perçue n'est que de 0,21 environ (ce qui donne un gris sombre). Le noir pur (0,0) et le
blanc pur (1,0) sont les seuls tons qui ne soient pas affectés par l’exposant gamma. Pour
compenser cet effet, la fonction de transfert inverse (correction de gamma) est parfois
appliquée au signal vidéo de sorte que la réponse de bout en bout devienne linéaire. En
d'autres termes, le signal transmis subit une distorsion délibérée - dès la production de
l'image, par exemple, en caméra - de sorte que, après que le dispositif d'affichage le
distorde à nouveau, le spectateur puisse voir la luminosité attendue. L'inverse de la
fonction ci-dessus est simplement une autre fonction gamma :

( / )
V ≈K (4)

où VC est la tension corrigée et VS est la tension source (provenant par exemple d'une
caméra ou un enregistreur vidéo), et k’/k une constante de gain. Dans l'exemple du tube
cathodique, 1/γ est 1/2,5 soit 0,4.
Un tube cathodique couleur reçoit trois signaux vidéo (rouge, vert et bleu) et en général
chaque couleur a sa propre valeur de gamma, notée γR, γV ou γB. Cependant, dans les
affichages les plus simples, une seule valeur de γ est utilisée et ajustable pour chacune des
trois couleurs composantes.
D'autres dispositifs d'affichage ont des valeurs différentes de gamma : par exemple,
l'affichage d'une Game Boy Advance a un gamma élevé entre 3 et 4 dépendant des
conditions de luminosité ambiante. Dans les affichages à cristaux liquides (LCD) tels que
les panneaux d'affichage des ordinateurs portables, la relation entre le signal de tension VS
et l’intensité I est fortement non linéaire et ne peut pas être décrite par une simple valeur
gamma alors que les écrans à plasma permettent un transfert linéaire. Cependant, ces
affichages appliquent tous une courbe spécifique de correction à la tension d'entrée afin
d'approcher au mieux le comportement d'un moniteur cathodique à fonction de transfert où
γ=2,5. En enregistrement de télévision NTSC, γ est 2,2. En effet les images produites sont
a priori corrigées pour la diffusion sur tube cathodique.
Ainsi à chaque périphérique d'affichage correspond une transformation gamma,
pouvant elle-même être adaptée à la perception de l'utilisateur.

2. La gestion des couleurs


Il est facile de comprendre l'intérêt du respect des couleurs d'une image lors du
passage de celle-ci via plusieurs périphériques (chaîne numérique composée par exemple
d'un scanner, d'un logiciel de traitement d'image, puis d'une imprimante) afin de s'assurer
que l'image en fin de chaîne de traitement possède des couleurs proches de l'image
d'origine. On appelle «gestion de la couleur» l'ensemble des opérations nécessaires afin de
garantir la bonne conservation des couleurs d'une image.
20
Chapitre II : Les images numériques Ingénieur Docteur Seddik Hassene

Afin de pouvoir garantir la cohérence des couleurs il est essentiel d'étalonner (ou calibrer)
l'ensemble des matériels de la chaîne numérique. Le calibrage (ou étalonnage) d'un
matériel consiste ainsi à décrire dans un fichier, appelé profil ICC (International Color
Consortium), l'ensemble des couleurs qu'il est capable d'acquérir ou de produire (il s'agit
donc de son gamut) dans un espace de couleur indépendant (par exemple CIE Lab )
Ce profil ICC est intégré dans l'image et véhicule l'ensemble des transformations
qu'elle a subi le long de la chaîne de traitement, à la manière d'un carnet de suivi.

3. Perception de l’intensité lumineuse dans une image et son contraste :


« LOIE DE WEBER »

La perception de l’intensité lumineuse dans une image n’est pas linéaire en fonction
de la valeur de cette intensité. De plus la variation de cette intensité est souillée par une
limite de perception fondée sur la capacité humaine de distinguer deux intensités
lumineuses différentes. Cette capacité est basée sur la loi de Weber.

Brillance des pixels


∆I=K

256
∆I=K*I
0

Position

Fig.14 Régime de variation de l’intensité perçu

∆I / I
Variation relative

2%

Intensité I
Fig.15 Limite de perception d’une différence entre I et I+∆I (Contraste minimum)
Brillance

Intensité I

21
Chapitre II : Les images numériques Ingénieur Docteur Seddik Hassene

Fig.16 Brillance perçu = α log I

L’ajout de bits de transparence est définit sur 1 bit (elle vaut 0 ou 1), ou sur 8 bits
donc compris entre 0 et 255 tel que 0 : Opacité totale ou valeur d’intensité nulle. On
supposant : i(x,y) = valeur d’un point de l’image ; t(x,y) = valeur de la transparence ;
o(x,y) = valeur de l’image finale ; on aura : o(x,y)=i(x,y) + t(x,y)
On peut avoir alors une transparence par tout ou rien ou même une série ordonnée
ou aléatoire de transparences.

4. Contraste

C’est l’opposition marquée entre deux régions d’une image, plus précisément entre les
régions sombres et les régions claires de cette image. Le contraste est défini en fonction
des luminances de deux zones d’images.
Si L1 et L2 sont les degrés de luminosité respectivement de deux zones voisines A1 et A2
d’une image, le contraste C est défini par le rapport :

C= (5)

22

Vous aimerez peut-être aussi