Fonctionnement du capteur CCD
Fonctionnement du capteur CCD
le capteur CCD et
son optique
jean-philippe muller
Version 05/2002
Digital video
Sommaire
jean-philippe. muller
Digital video
Figure 1.
Schéma
fonctionnel
d’un
photoscope
numérique.
L‘étude du schéma fonctionnel d’un photoscope montre qu’il comprend 3 grandes parties :
le bloc optique avec ses lentilles, son capteur d’image, ses réglages et ses automatismes
le bloc de traitement numérique qui compresse les données issues du capteur
le dispositif d’enregistrement qui est en général une carte mémoire
Figure 2.
Schéma
fonctionnel
d’un caméscope
numérique.
Cette subdivision se retrouve également sur le caméscope, avec quelques différences au niveau du
traitement numérique qui s’applique maintenant à une image animée, et du support d’enregistrement
qui est le plus souvent une bande magnétique.
Le caméscope doit également s’occuper du traitement et de l’enregistrement du son, ce qui n’est pas
le cas dans le photoscope (sauf pour ceux qui peuvent enregistrer de courtes séquences MPEG).
jean-philippe. muller
Digital video
Le bloc optique d’un photoscope ou d’un caméscope, qui est le premier étage de traitement de l’image
est constitué :
des lentilles permettant de projeter l’image sur le capteur CCD, avec le réglage de la mise au
point ou focus
d’un dispositif de zoom qui déplace certaines des lentilles et permet ainsi de passer d’un plan
large à un plan étroit
éventuellement d’un stabilisateur optique qui compense les tremblements de main et fournit
une image filmée stable
d’un filtre optique qui adapte le signal lumineux au capteur d’image
du capteur CCD (ou parfois CMOS) qui va transformer le signal lumineux reçu en signal
électrique (ce capteur est quelquefois remplacé par un séparateur optique suivi de 3 capteurs)
Figure 3.
Structure du
bloc optique
dans une
caméra mono-
CCD.
La sensibilité spectrale des capteurs d’image s’étend assez largement dans l’infrarouge, ce qui
constitue un avantage et un inconvénient :
possibilité de photographier ou de filmer sous très faible éclairement, ce qui peut être utile
pour les caméras de surveillance (fonction NightShot chez Sony)
les IR ne sont pas focalisés au même endroit que la lumière visible, ce qui crée des
interférences au niveau du capteur et du moirage
Figure 4.
Sensibilité
spectrale de
l’œil et des
capteurs CCD
et CMOS.
un passe-bas fréquentiel au Niobate de lithium qui arrête le rayonnement infrarouge (ce filtre
est escamoté lorsqu’on active la fonction NightShot)
un filtre quart-d’onde qui redonne une polarisation circulaire à tous les rayons incidents et
permet ainsi un fonctionnement correct du séparateur optique
un passe-bas spatial qui introduit un très léger flou en éliminant les détails très fins de la scène
filmée, évitant ainsi des effets parasites liés à l’échantillonnage spatial par le capteur
jean-philippe. muller
Digital video
La scène à photographier ou à filmer peut être projetée simplement sur le capteur à l’aide d’une lentille
convergente définie par sa distance focale f.
Figure 5.
Création d’une
image par une
lentille
convergente.
Pour que l’image A’B’ soit sur le capteur, il faut donc faire varier la position de la lentille par rapport au
capteur, soit OA’ : c’est le réglage de mise au point ou focus.
Figure 6.
Principe de la
mise au point.
jean-philippe. muller
Digital video
L’image de l’objet est projetée sur la surface du capteur CCD caractérisé par sa taille exprimée en
pouces.
Figure 7.
Les tailles de
capteurs.
Pour faire varier la taille de l’image projetée sur le capteur, il faut pouvoir changer la distance focale de
la lentille.
Figure 8.
Ajustement de
la taille de
l’image par
variation de la
focale.
En changeant la distance focale et en déplaçant la lentille pour refaire la mise au point, la taille de
l’image varie et permet d’utiliser au mieux la surface du capteur. Pour cela, on peut :
changer d’objectif et passer d’une courte focale à une longue focale (téléobjectif)
utiliser un objectif à focale variable ou « zoom »
jean-philippe. muller
Digital video
5-L’objectif standard
En dehors des équipements très bons marchés qui se contentent d’une mise au point fixe et ne
proposent pas de zoom, la plupart des photoscopes et caméscopes sont équipés d’objectifs pouvant
associer jusqu’à une vingtaine de lentilles.
une lentille d’entrée X, dont le léger déplacement, manuel ou motorisé, va assurer le focus
une deuxième lentille dont le déplacement va assurer le zoom
une troisième lentille fixe Y
l’iris D ou diaphragme, qui dose la quantité de lumière reçue par le capteur
un groupe de lentilles R, fixes en général, qui achève la focalisation de la scène sur le capteur
Figure 9.
Fonctionnement
de l’objectif
normal.
On utilise souvent dans les photoscopes et caméscopes un objectif à mise au point interne dans lequel
l’agencement des lentilles est un peu différent :
le groupe de lentilles assurant la mise au point est dissocié de la partie frontale de l’optique
les éléments frontaux sont donc totalement immobiles
cette configuration rend possible l’utilisation de pare-soleils rectangulaires, et surtout de filtres
polarisants
cette configuration permet aussi une meilleure protection du mécanisme de mise au point
Remarque : le zoom optique ne doit pas être confondu avec le zoom numérique, qui est simplement
réalisé en agrandissant une partie de l’image numérique. Le zoom numérique agrandit donc aussi les
pixels et engendre forcément une perte de définition de l’image.
jean-philippe. muller
Digital video
⇒ le zoom est actionné par un moteur pas-à-pas, dont la position est contrôlée par un potentiomètre
linéaire. La commande est manuelle.
Figure 10.
La mécanique
de réglage du
zoom.
⇒ lamise au point est actionnée par un autre moteur pas-à-pas et un mécanisme semblable . La
commande est manuelle ou automatique (autofocus).
⇒ le diaphragme ou iris est en actionné par un cadre mobile piloté par le contrôleur de l’appareil,
avec possibilité de débrayage de l’automatisme.
Figure 11.
La mécanique
de commande
de l’iris.
La commande de l’iris est élaborée par le circuit contrôleur à partir du signal issu du capteur CCD,
intégré sur la partie centrale de l’image, qui donne ainsi une image de la quantité de lumière reçue par
le capteur CCD. L’état d’ouverture de l’iris est souvent mesuré par des capteurs à effet Hall.
Figure 12.
L’électronique
de commande
de l’iris.
Si le signal fournit par le capteur CCD est trop faible malgré un iris ouvert au maximum, l’introduction
d’une amplification s’avère quelquefois nécessaire.
jean-philippe. muller
Digital video
7-L’autofocus
Tous les caméscopes et photoscopes modernes sont équipés d’un système de focalisation automatique
qui peut être :
actif, par utilisation d’infra rouge ou d’ultra sons (technique de moins en moins utilisée)
passif, par analyse du signal vidéo issu du capteur CCD
Lorsqu’une image est bien focalisée, elle contient un maximum de détails, qui correspondent à des
fréquences élevées dans le spectre du signal vidéo.
Figure 13.
Mise au point
et spectre du
signal vidéo.
Ceci est mis à profit par de nombreux fabricants pour réaliser un dispositif de mise au point
automatique :
le signal en sortie du CCD est séparé en deux bandes de fréquences qui se chevauchent
à l’aide de fenêtres temporelles, on sélectionne les informations relatives à différentes parties
de l’image
l’amplitude des composantes est détectée et utilisée par le contrôleur pour commander le
focus
Figure 14.
Principe de
l’électronique
d’autofocus.
jean-philippe. muller
Digital video
Sur une optique classique, qu'il s'agisse d'une focale fixe ou d'un zoom, la mise au point se fait par
rotation et déplacement de la lentille frontale.
la rotation est commandée par un moteur dont la démultiplication amène une certaine lenteur
de l’autofocus
impossibilité d’utiliser des filtres polarisants et des pare-soleils rectangulaires fixés sur l’objectif
risques de dégradation du mécanisme d’autofocus en cas de choc sur la lentille frontale
Avec l’objectif à mise au interne ou Inner Focus, celle-ci est effectuée par le déplacement d'un groupe
de lentilles à l’arrière du zoom.
Figure 15.
Structure de
l’objectif à
mise au point
interne.
Ce type d’objectif équipe la grande majorité des caméscopes et photoscopes actuels, avec les
avantages et les inconvénients suivants :
« plus » le déplacement est linéaire et la course beaucoup plus courte que dans une optique
classique, ce qui assure une mise au point plus rapide
« moins » les zooms Inner Focus ne gardent pas aussi bien le point sur l'ensemble des
focales que les zooms à mise au point classique
Rappelons que lorsque l'on a fait le point avec un zoom traditionnel en position téléobjectif, cette mise
au point est valable pour toutes les focales du zoom et n'est pas à refaire tant que la distance sujet-
caméscope ne change pas, ce qui n'est plus vrai avec un zoom Inner Focus.
jean-philippe. muller
Digital video
⇒ la stabilisation électronique, qui fait appel à l’analyse numérique de l’image, maintient l’objet filmé
immobile en recadrant l’image en fonction du mouvement. Cette technique entraîne forcément une
légère perte de définition de l’image (perte de surface de l’ordre de 15 %)
Figure 16.
Principe de la
stabilisation
par recadrage.
⇒ la stabilisation optique permet une stabilisation sans perte de définition grâce à l’utilisation d’un
prisme variable selon une technique mise au point par Sony et Canon.
Figure 17.
Principe de
fonctionnement
du stabilisateur
optique.
le prisme variable est capable de corriger des tremblements dont les variations d' angle peuvent
être de plus ou moins 1,50 degré verticalement et horizontalement autour de l'axe optique
deux capteurs (détecteurs piézoélectriques) mesurent l'amplitude des mouvements du
caméscope, l'un dans le sens vertical, l'autre dans le sens horizontal
les informations recueillies sont numérisées et traitées par un microprocesseur qui calcule les
corrections à apporter et envoie les ordres nécessaires à deux solénoïdes qui, reliés aux bagues
extérieures du prisme, commandent les déplacements verticaux et horizontaux de ce dernier
Le stabilisateur optique comprenant des pièces mécaniques, il est plus coûteux et son usage est
réservé aux caméscopes haut de gamme.
jean-philippe. muller
Digital video
Le capteur d’image se présente sous la forme d’un circuit intégré ayant sur sa face supérieure une zone
d’analyse composée de plusieurs centaines de milliers de sites photosensibles.
Figure 18.
KODAK KAF-4202 Full Frame Image Sensor
Capteur d’image
Kodak.
Pixels (HxV) 2048 x 2048
Imager Size (HxV mm) 18.4 x 18.4
Pixel Size (HxV µm) 9.0 x 9.0
Monochrome
Dark current <10pA/cm2 (25°C)
Le nombre de photosites est lié bien-sûr à la résolution de l'image, de 350000 pour une résolution VGA
de 640x480 à 3300000 pour 2048x1536 , voire plus.
Le capteur d’image est, dans sa forme de base, construit sur un substrat de silicium dopé P et chaque
photosite est délimité par une fine électrode métallique.
Figure 19.
Structure de
base d’un
photosite.
Le substrat dopé P contient des porteurs positifs (trous) majoritaires (a). Si on applique une polarisation
positive sur l’électrode métallique, ces porteurs seront repoussés et il se crée une zone de déplétion
dont la hauteur dépend de la tension appliquée (b et c).
Figure 20.
Fonctionnement
d’un photosite.
Chaque fois qu’un photon arrive dans le substrat, il y crée une paire électron-trou (d). L’électron est
attiré par l’électrode et se trouve piégé dans la zone de déplétion.
A la fin du temps d’intégration (typiquement 20 ms), la charge totale recueillie dans la zone de déplétion
(e) est proportionnelle à l’intensité lumineuse reçue.
Chaque photosite se comporte donc comme un condensateur de faible valeur qui se charge au cours
du temps sous l’effet de l’éclairement.
jean-philippe. muller
Digital video
La charge accumulée à la fin du temps d’intégration doit maintenant être transférée dans un registre
pour être lue et participer à l’élaboration du signal vidéo.
Figure 21.
Le mécanisme
de transfert
des charges.
En appliquant des signaux comparables à des horloges décalées à des électrodes contiguës, on peut
donc déplacer les charges à travers un grand nombre de cellules, avec une perte de charge très faible.
Ce mécanisme de transfert de charge utilisé dans ces dispositifs CCD (charge coupled devices) est
aussi exploité dans des registres à décalage analogiques et des dispositifs de mémorisation analogique
de la voix (répondeurs téléphoniques).
jean-philippe. muller
Digital video
Dans un capteur CCD, chaque photosite est associé à une cellule de stockage :
les cellules de stockage sont organisées en colonnes formant des registres verticaux, qui
alternent avec les colonnes de photocapteurs
les cellules photosensibles sont séparées par des stoppeurs de canal (CSG : Channel Stopper
Gate) empêchant la diffusion des charges d' une cellule vers les voisine
et par des drains d'évacuation (OFD . Overflow Drain) dans lesquels sont écoulées les charges
en excès produites par une forte illumination
chaque cellule photosensible est isolée de sa cellule de stockage par une porte de lecture
(ROG : Read Out Gate) au travers de laquelle les charges vont circuler
Figure 22.
Détail de la
structure d’un
capteur CCD.
Etape 1 : pendant la durée d’intégration ( durée de la trame pour un caméscope) l'énergie lumineuse
fournie par l'optique est traduite en énergie électrique et les charges s'accumulent dans les cellules
photosensibles proportionnellement à la lumière reçue.
Etape 2 : durant un bref instant (dans un caméscope : intervalle de suppression trame séparant la fin
de l'analyse d'une trame et le début de la suivante) une impulsion de forte amplitude est appliquée
simultanément sur les électrodes de toutes les cellules de stockage.
Etape 3 : la différence de potentiel établie entraîne alors un déplacement latéral simultané de toutes les
charges des photocapteurs vers les registres de transfert, qui sont évidemment masqués de la lumière.
Etape 4 : à l’issue de l' intervalle de suppression trame, les zones de déplétion des photocapteurs sont
vidées, et donc prêtes à recevoir de nouvelles charges provenant de l’analyse de l’image suivante.
jean-philippe. muller
Digital video
Les capteurs CCD Sony utilisent tous le mode de lecture des photosites à transfert interligne qui
fonctionne de la façon suivante :
Figure 23.
Le capteur CCD
à transfert
interligne.
Dans un photoscope, le temps d’intégration peut varier dans une large gamme et l’image est lue en une
fois ( CCD progressif).
Dans un caméscope, l’intégration peut être faite soit pour la durée de l’image ( 40 ms ), soit pour la
trame (20 ms ).
Figure 24.
Les 2 modes
d’intégration
dans un
caméscope.
Le mode intégration image, à cause de son temps d’intégration plus long, donne une meilleure
sensibilité et est donc bien adaptée au traitement des images fixes.
Le mode intégration trame, à cause de son temps d’intégration plus court, est plus adapté au traitement
des images animées et permet d’éviter le flou dans une certaine mesure.
Si les mouvements à analyser sont rapides, il sera nécessaire de diminuer encore le temps d’intégration
en faisant intervenir l’obturateur électronique.
jean-philippe. muller
Digital video
A la lecture d’une ligne après l’autre, le registre horizontal est vidé et les paquets de charges sont
transférés sur la grille d’un transistor MOS servant de convertisseur charge-tension.
Figure 25.
Impulsion parasite
Principe de la V
conversion
charge-tension. V
Interrupteur
de reset Niveau de référence
Niveau vidéo
Lecture d’un
sortie pixel
Charges transférées
C R
C ~ 0.7 pF
V ~1µV/e-
L’information « niveau vidéo » n’est pas disponible en permanence sur la source du transistor, il faut
donc prévoir un dispositif d’échantillonnage, qui va s’affranchir également des dérives possibles du
niveau de référence.
Figure 26.
Elaboration du
signal vidéo. R E/B1
R Signal
vidéo
Ampli de
E/B3
différence
V
Niveau vidéo
E/B : échantillonneur-bloqueur
Le signal vidéo ainsi produit correspond alors ,ligne par ligne, à l’éclairement des différents photosites.
Grâce au masquage de certains photosites en bordure de la surface sensible, le niveau du noir est
parfaitement connu.
Figure 27.
Allure du signal
vidéo lors de la
lecture d’une
ligne.
jean-philippe. muller
Digital video
15-L’obturateur électronique
Dans des conditions d’éclairement intense, ou pour des objets de déplaçant rapidement, il est
nécessaire de diminuer le temps d’intégration.
Figure 28.
Le principe de
l’obturateur
électronique.
les pixels restent continuellement soumis à la source lumineuse, mais seules les charges
emmagasinées au cours de la période utile d'intégration sont transférées vers les registres de
stockage. Les charges créées pendant la période d' obturation sont éliminées.
l'analyse est toujours réalisée au rythme de 50 trames par seconde, mais chacune de ces
trames est saisie avec un temps de pose plus court.
il est évident que plus la durée d' obturation est élevée, plus il faut de lumière pour maintenir un
même niveau de luminosité d' image. La perte de sensibilité inhérente à la mise en service de
l'obturateur électronique impose donc de travailler avec une ouverture de diaphragme plus
élevée, au détriment de la profondeur de champ.
en mode normal, le temps d'exposition en intégration trame est de 1/50 s. Toutes les caméras
ème
possèdent aujourd'hui des vitesses d'obturation de 1/100, 1/250, 1/500, 1/1000 et 1/2000 s.
Par ailleurs, la plupart des obturateurs électroniques peuvent être activés en mode continu sur une
certaine plage, généralement de 50 Hz à plus de 100 Hz. Ce mode permet notamment d'éliminer la
barre noire horizontale qui apparaît lors de la reprise d' un écran informatique.
Figure 29.
Durée
d’intégration et
aspect de Aspect de l’image
l’image.
jean-philippe. muller
Digital video
Les premières caméras CCD équipées de capteurs utilisant la technologie MOS dont il a été question
jusqu'ici.
Sony a développé un nouveau type de capteurs CCD à structure HAD (Hole Accumulated Diode = diode
à accumulation de trous).
Figure 30.
Structure du
capteur HAD.
Microlentille
Filtre de couleur
électrodes
silice
p
n
Zone sensible p+
n
p
p
n-Si
Barrière
Cellule de
stockage
Chaque cellule élémentaire du capteur HAD renferme une couche photosensible en silicium dopé n, sur
laquelle est déposée une couche intermédiaire dopée P qui constitue la zone HAD.
Le tout est déposé sur une base de substrat N, qui forme le drain d'évacuation des charges
excédentaires. Cette structure apporte les améliorations suivantes :
le renvoi dans la profondeur de la puce du drain d'évacuation, qui était précédemment attenant
à la cellule photosensible permet d’augmenter d’autant la taille de la surface sensible et ainsi
d’augmenter la sensibilité
la couche p placée au-dessus de la zone sensible absorbe les électrons créés par l’agitation
thermique, d’où un courant d’obscurité réduit au moins d’un facteur 10
Figure 31.
Distribution des
potentiels et
capteur HAD en
coupe.
jean-philippe. muller
Digital video
La diminution de la taille des capteurs entraîne une diminution de la surface des photosites, et donc de
la sensibilité du capteur.
Figure 32.
Les
microlentilles
associées aux
photosites.
L’ajout d’une lentille interne permet de gagner encore en sensibilité en concentrant de façon optimale la
lumière arrivant sur le capteur vers le photosite.
Figure 33.
L’ajout de
lentilles
internes.
Toutes ces améliorations ont permis une croissance régulière de la sensibilité des capteurs CCD Sony.
jean-philippe. muller
Digital video
Pour obtenir une image en couleur, il faut analyser la scène filmée selon les 3 couleurs primaires RVB.
Une première solution possible est de placer derrière l’objectif un séparateur optique équipé de miroirs
semi-transparents dichroïques qui acheminent vers 3 capteurs CCD identiques les parties du spectre
lumineux correspondant à chaque couleur.
Figure 35.
La séparation
des 3 couleurs
dans la caméra
tri-CCD.
Les 3 capteurs CCD fournissent les 3 signaux vidéo RVB, à partir desquels il sera facile de fabriquer le
signal de luminance et les 2 signaux de couleur R-Y et B-Y.
Cette technique donne les meilleurs résultats, mais reste réservée au matériel haut de gamme, car
l’utilisation de 3 capteurs CCD rend la solution onéreuse.
Modèle Spécificités
Sony DCR-VX2000
Sony DCR-TRV900
3 capteurs CCD de 450 000 pixels
Ecran large de 3,5" / Viseur couleur
Super Steady Shot optique
Zoom optique x12 Zoom numérique x48
Entrées et sorties numérique / analogique
Capture de photos sur disquette (lecteur
fourni) ou sur Memory Stick (en option)
Son numérique PCM (12 et 16 bits)
jean-philippe. muller
Digital video
Si, pour des raisons de coût, on ne souhaite utiliser qu’un seul capteur, il faudra surmonter chaque
photosite d’un filtre pour l’affecter à une couleur donnée.
L’introduction d’un filtre RVB de Bayer appelé aussi filtre en mosaïque conduira inévitablement à une
perte de définition au niveau de chaque couleur :
le nombre de photosites sensibles au vert est deux fois plus élevé que ceux sensibles au bleu
ou au rouge, ce qui correspond à la sensibilité de l’œil
le dématriçage permet d’abord de séparer les informations correspondant aux 3 couches de
couleurs
une étape suivante d’interpolation utilisant des algorithmes mathématiques plus ou moins
élaborés permet alors d’affecter une valeur RVB à chaque pixel
Figure 36.
Le filtre RVB
de Bayer.
Les capteurs CCD Sony sont disponibles équipés de différents filtres, et en particulier celui à couleurs
primaires RVB.
Figure 37.
Exemple de
capteur Sony
muni d’un filtre
RVB de Bayer.
Ce type de filtre à couleurs primaires a été historiquement le premier filtre en mosaïque utilisé dans les
capteurs CCD.
Puis il a été une peu délaissé au profit des filtres à couleurs complémentaires, qui donnent au capteur
une sensibilité légèrement supérieure.
Avec les progrès introduits entre autres par Sony sur le plan de la sensibilité, on assiste actuellement à
un retour en force des capteurs à couleurs primaires qui permettent une analyse des couleurs proche
de la perfection.
jean-philippe. muller
Digital video
Au lieu des 3 couleurs RVB, certain filtres sont constitués d’une mosaïque de cellules Jaune, Cyan,
Magenta et Vert :
Figure 38.
Les filtres de
couleurs Le filtre laisse passer et arrête
complémentaires.
le rouge et le
Jaune le bleu
vert
le bleu et le
Cyan le rouge
vert
le rouge et le
Magenta le vert
bleu
le rouge et
Vert le vert
le bleu
La mosaïque des filtres colorés, qui privilégie toujours le vert, est disposée de la façon suivante :
Figure 39.
Exemple de
capteur muni
d’un filtre
G-Mg-Ye-Cy.
Le signal vidéo d’une ligne, obtenu en additionnant les informations de 2 rangées de photosites, est
donc constituée des informations suivantes :
Le circuit de dématriçage permet, en utilisant des combinaisons de ces informations des interpolations
et des retards, de reconstituer l’intensité des 3 couleurs R,V et B, puis le signal de luminance Y et les
deux informations de couleur R-Y et B-Y.
L’algorithme de restitution des couleurs est un peu plus complexe que celui utilisé avec une mosaïque à
couleurs primaires.
jean-philippe. muller
Digital video
Nous avons déjà vu que le signal analogique en sortie du capteur CCD est affecté d’un certain nombre
de signaux parasites et que l’information concernant un photosite n’est présente que pendant un temps
limité.
Figure 40.
Allure du signal
en sortie du
capteur CCD.
à un circuit générateur d’horloge qui lui fournit les signaux de synchronisation dont il a besoin
à un préamplificateur, qui ajuste le gain pour avoir un niveau de signal correct malgré les
variations du niveau d’éclairement
à un échantillonneur-bloqueur qui prend les échantillons du signal sortant du capteur et du
niveau de référence qui peut fluctuer
Ces échantillons peuvent alors être convertis en numérique ( sur 8, 10,12 ou 14 bits selon la précision
recherchée), et le circuit de dématriçage peut reconstituer par interpolation les données de couleurs
manquantes selon le type de filtre à couleurs primaires ou complémentaires utilisé par le capteur.
Figure 41.
Les circuits de
traitement
associés au
capteur CCD.
Le circuit de traitement numérique fournit à sa sortie les signaux de luminance Y et de couleur R-Y et
B-Y sous forme numérique et éventuellement analogique.
jean-philippe. muller
Digital video
Le coût de revient élevé des capteurs CCD provient de la fabrication spéciale nécessitée par les circuits
de transfert de charge.
Le capteur CMOS, fabriqué comme un circuit CMOS classique et donc à coût plus faible que le CCD,
présente un certain nombre d’avantages :
comme pour le CCD, la cible comporte des photosites organisées en ligne et en colonnes
la charge des photosites est validée par l'intermédiaire d'une ligne d'adressage
la technologie CMOS permet l'intégration des opérateurs analogiques (amplificateurs) ou
numériques (adressage) sur la même puce de semi-conducteur
il est facilement envisageable d'adresser, séparément ou par bloc, les cellules élémentaires
la consommation reste très faible ( un CCD demande 2–5 watts, comparé aux 20–50 mW pour
les CMOS avec de même nombre de pixel )
Figure 42.
Structure de
principe du
capteur d’image
CMOS.
Le gros inconvénient est le mélange entre les signaux de commande et grandeur mesurée source de
bruit (parasites) dans l'image finale. C'est la raison pour laquelle :
on a intégré dans la cellule un élément actif qui permet de diminuer cet effet
l'intégration d'un élément actif dans la cellule a pour inconvénient de réduire d'autant la
surface sensible offerte, les meilleurs capteurs actuels arrivant à un taux de 30%
Figure 43.
Disposition des
photosites dans
le capteur
CMOS.
Les capteurs CMOS sont surtout utilisés pour le moment dans les appareils à faible coût et ne rivalisent
pas encore avec les capteurs CCD.
Mais l'intégration sur une seule puce de la matrice de photo-détecteurs, de la commande, du CAN et
quelques autres fonctions annexes ( comme dans la puce W6850 de la société VISION ayant une taille
d'image de 1000 X 800 pixels) ouvre des horizons intéressants.
jean-philippe. muller
Digital video
La "coloration" d'une source lumineuse peut être exprimée par la température de couleur, qui est la
température, exprimée en kelvin, à laquelle il faudrait élever le corps noir pour qu'il produise une lumière
dont la répartition énergétique spectrale soit la même.
Figure 44.
Spectre du
rayonnement du
corps noir en
fonction de la
température.
Une source à température basse produit une lumière chaude, plus riche en longueurs d'ondes longues
(rouge), alors que la lumière naturelle du soleil (5200 K environ) a un spectre assez bien équilibré :
l’œil a la capacité de s’adapter aux différents types d’éclairage et reconnaît une surface
blanche quel que soit le type d’éclairage.
le capteur CCD mesure les niveaux RVB réels reçus, ce qui se traduira par une dominante
rouge-jaune sous un éclairage au tungstène, et verte avec des tubes fluorescents.
Pour compenser les problèmes causés par les variations de température de couleur de la source, les
appareils numériques font une balance des blancs qui consiste à introduire un ajustement du gain sur
les voies « Rouge » et « Bleu ».
Figure 45.
Principe de la
balance des
blancs dans un
caméscope
analogique.
Cette compensation peut se fait à partir de mesures dans plusieurs zones de l’image (AWB), ou avec
des coefficients correcteurs établis lors des réglages d’usine, ou en mode manuel en visant une
surface blanche.
jean-philippe. muller
Digital video
De nombreux traitements et corrections sont apportés à l’image, dans le photoscope comme dans le
caméscope, pour améliorer la qualité de l’image :
la correction de « flare », défaut se manifestant par une dégradation du noir en gris quand la
quantité de lumière captée par l’objectif est importante. Ce défaut est causé par une diffusion
parasite de lumière à l’intérieur de l’objectif.
la correction des « taches au noir », défaut se manifestant par une coloration parasite des
plages noires de l’image et lié au courant d’obscurité des photosites ( dépend de la
température)
la correction des « taches au blanc », défaut se manifestant par une coloration parasite des
plages blanches de l’image, lié aux défauts de l’objectif (influence de la longueur d’onde sur la
déviation des rayons, vignettage…)
la correction des pixels défectueux. Avec le temps, le courant d’obscurité de certains pixels
peut augmenter, ce qui se traduira par l’apparition permanente de points R, V ou B sur l’image.
On peut détecter ces photosites défectueux en comparant la valeur d’un pixels à tous ses
voisins (pour une couleur donnée) et remplacer le pixel par le précédent, ou par une moyenne
locale.
Capteur
d’image
Traitement
analogique
ADC Display
Interpolation Traitement
de couleur de l’affichage
Transformation
RVB/YCrCb
Stockage
Figure 46.
Traitements et
corrections de
l’image.
jean-philippe. muller
Digital video
jean-philippe. muller
Digital video
jean-philippe. muller
Digital video
jean-philippe. muller
Image numérique :
les compressions
JPEG, DV et MPEG2
jean-philippe muller
Version 05/2002
Digital video
Sommaire
jean-philippe. muller
Digital video
Le signal analogique produit par les 3 capteurs CCD est numérisé ( de 8 à 12 bits selon la précision
recherchée) et, dans les dispositifs mono-CCD, le circuit de dématriçage reconstitue, par interpolation
les données de couleurs manquantes.
On dispose donc d’une image échantillonnée selon les 3 couleurs RVB, qui peut facilement être
transformée par un circuit de matriçage au standard YUV appelé aussi Y-Cr-Cb.
Figure 1.
L’image au
standard YUV.
elle est utilisée dans de nombreuses applications professionnelles, notamment avec les
magnétoscopes et les caméscopes analogiques Betacam
elle est à l'origine de la majorité des formats numériques (même grand public comme le DV).
l’image couleur produite par le photoscope ou le caméscope est décrite par 3 matrices de
valeurs numériques, l’une concernant la luminance, et deux autres pour la couleur
Le poids total de ces informations peut-être considérable puisqu’une image photographique de taille
1200x960, codée sur 14 bits occupe 1200x960x3x14 = 48,38 Mbits
Ces poids importants expliquent la nécessité d’une compression qui permettra, avec une perte de
qualité visuelle minime, d’obtenir une image numérisée ayant un encombrement beaucoup plus faible et
don c plus facile à stocker sur un support.
Figure 2.
La place de la
compression
dans le
photoscope
numérique.
Le développement d’algorithmes de compression très évolués comme le JPEG basé sur la Transformée
en Cosinus Discrète permet de transformer les informations relatives à une image en un fichier
comprimé beaucoup plus léger.
jean-philippe. muller
Digital video
Les images numériques peuvent être enregistrées sous plusieurs formes de fichiers informatiques. Voici
les caractéristiques des formats les plus courants.
⇒ le format RAW
cette dénomination désigne le format de fichier brut utilisé par les appareils photographiques
numériques et contient les informations directement issues du capteur CCD
chaque fabricant d’appareil utilise un format RAW spécifique, et propose un logiciel de lecture
adapté pour lire ses images (interpolation des couleurs manquantes, etc …)
les fichiers RAW permettent d'exploiter la totalité des informations issues du capteur CCD : le
codage des données s’effectue généralement sur 12 bits ou plus au lieu de 8 pour les autres
types de fichiers
c’est le format des images produites en mode haute qualité par les appareils photo
numériques, qui garde toutes les informations de l’image originale
il gère les fichiers en mode RVB ou CMJN (cyan, magenta, jaune, noir), il est très utilisé par les
professionnels de l'image mais donne des fichiers images très volumineux
une compression sans perte de données par algorithme LZW est possible, mais le poids de
l'image n'est réduit que de 50% environ.
il utilise une méthode de compression des données dite “destructive”, qui consiste à ne retenir
que les informations clés de l’image suivant des algorithmes puissants et à supprimer les
autres informations
un rapport de compression de 1 / 4 permet d’obtenir des fichiers peu volumineux sans perte de
qualité visible
un rapport de compression élevé fournira des fichiers peu volumineux mais avec une perte de
qualité importante
la norme JPEG permet un taux de compression ajustable, mais ce taux est en général fixé par
le fabriquant dans un photoscope
des modifications et enregistrements successifs d’un fichier JPEG dégradent la qualité de
l’image finale, par la répétition des traitements de compression
LZW : Algorithme de compression mis en place par Lempel, Ziv et Welch, Il s’agit d’un codage
entropique. Au cours du traitement d’un fichier, il indexe les chaînes de motifs qu’il rencontre, puis si
cette chaîne se retrouve plus loin dans le fichier, il rappelle la valeur de l’index
jean-philippe. muller
Digital video
L’œil humain n'est pas un organe parfait et certaines de ses caractéristiques ont été mises à profit pour
réduire la quantité de données nécessaires pour décrire une image, et ce déjà en télévision
analogique :
l’œil est plus sensible aux détails en noir et blanc qu'aux détails colorés
la réduction de la bande passante des composantes couleur est bien tolérée par l’œil jusqu'à
une valeur égale à 25 % de celle de la luminance
c’est pourquoi la bande passante en télédiffusion analogique a été fixée à 6 MHz pour la
luminance et à 1,5 MHz pour chacune des composantes couleur.
Cette réduction de la chrominance reste toujours valable aujourd'hui, même pour les nouveaux formats
vidéo numériques grand public.
Pour une image numérique couleur, la réduction des informations « couleur » se traduit par un sous-
échantillonnage des signaux Cr et Cb :
Figure 4.
Réduction des
échantillons de
couleur.
Une image numérique en couleur de taille 1200x960 par exemple, est décrite en RVB par 3 matrices de
1200x960, soit T = 3456000 valeurs.
Après sous-échantillonnage de la couleur, elle est donc décrite par 3 matrices de tailles différentes :
Figure 5.
Codage YUV
d’une image
couleur.
jean-philippe. muller
Digital video
Image de luminance
800x600
9 bits/pixel
Taille : 4,32 Mbits
Images Cr et Cb
400X300
9 bits/pixel
Taille : 1,08 Mbits
chacune
Image finale en YCrCb Taille : 800x600 Digitalisée sur 9 bits/pixel Taille totale : 6,48 Mbits
jean-philippe. muller
Digital video
Nous avons vu qu’une image couleur peut être représentée par 3 images à niveaux de gris dans la
représentation YCrCb.
Chacune de ces 3 matrices est décomposée en blocs de 8x8 pixels qui vont tous subir le même
traitement mathématique.
Figure 6.
Découpage des
matrices en
blocs 8x8.
une transformation linéaire, appelée transformée en cosinus discrète ou DCT (Discret Cosine
Transform) est réalisée sur chaque bloc, ce qui donne chaque fois une nouvelle matrice 8x8
la DCT concentre l’information sur l’image en haut et à gauche de la matrice
les coefficients de la transformée sont ensuite quantifiés à l ’aide d‘une table de 64 éléments
définissant les pas de quantification
cette table permet de choisir un pas de quantification important pour certaines composantes
jugées peu significatives visuellement et jouer sur le taux de compression de l’image souhaité
des codages appropriés sont ensuite appliqués aux données pour produire un flux binaire le
plus léger possible
Figure 7.
Les étapes de
la compression
JPEG.
jean-philippe. muller
Digital video
La transformée en cosinus discrète est une transformation mathématique nécessitant des calculs
simples qui transforme un bloc de 8x8=64 données de luminance ou de couleur X(i,j) en un autre bloc
de 8x8=64 données Z(k,l).
Figure 8.
Le calcul de la
DCT.
Figure 9.
Contribution des
coefficients de
la DCT à
l’aspect du bloc.
pour un bloc correspondant à une zone unie (64 pixels identiques) , le bloc transformé aura un
seul coefficient non nul : le Z(0,0)
pour une zone d’image formée de 8 traits horizontaux alternativement clairs et sombres, le bloc
transformé aura un seul coefficient non nul, le Z(7,0)
D’une façon générale, seul quelques coefficients dans le coin supérieur gauche du bloc transformé ont
une valeur significative, les autres coefficients du tableau étant pratiquement nuls et pourront être
négligés : c’est l’intérêt de la DCT.
jean-philippe. muller
Digital video
Pour cela, elle réduit chaque valeur de la matrice DCT en la divisant par un nombre (quantum), fixé par
une table (matrice 8 x 8) de quantification :
La matrice de quantification peut être fixe pour tous les blocs de l’image, ou valable pour une région de
l’image (ensemble de blocs).
Les coefficients les moins importants pour la restitution de l’image sont "amoindris" en divisant chaque
élément par l'élément correspondant de la table de quantification. Ainsi les hautes fréquences
s'atténuent rapidement.
Figure 10. 1 1 2 4 8 16 32 64
Exemple de 1 1 2 4 8 16 32 64
matrice de
quantification.
2 2 2 4 8 16 32 64
4 4 4 4 8 16 32 64
8 8 8 8 8 16 32 64
16 16 16 16 16 16 32 64
32 32 32 32 32 32 32 64
64 64 64 64 64 64 64 64
La valeur du quantum peut être d‘autant plus élevée que l‘élément correspondant de la matrice DCT
contribue peu à la qualité de l’image, donc qu‘il se trouve éloigné du coin supérieur gauche ( i=j=0).
Figure 11.
Matrice de 150 80 40 14 4 2 1 0 150 80 20 4 1 0 0 0
coefficients DCT 92 75 36 10 6 1 0 0 92 75 18 3 1 0 0 0
avant et après
quantification. 52 38 26 8 7 4 0 0 26 19 13 2 1 0 0 0
12 8 6 4 2 1 0 0 3 2 2 1 0 0 0 0
4 3 2 0 0 0 0 0 1 0 0 0 0 0 0 0
2 2 1 1 0 0 0 0 0 0 0 0 0 0 0 0
1 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
La qualité de l’image compressée, et donc le taux de compression, peuvent être ajustés en choisissant
des matrices de quantification adéquates :
en choisissant des tailles de pas de quantification très élevés, le résultat est un taux de
compression important pour une qualité d’image médiocre
en choisissant des tailles de pas petites la qualité de l’image reste excellente et les taux de
compression n’auront rien d’extraordinaire.
jean-philippe. muller
Digital video
Figure 12.
Les étapes de la
compression
JPEG d’une
image.
jean-philippe. muller
Digital video
Figure 13.
Les étapes de la
compression
JPEG d’une
image.
jean-philippe. muller
Digital video
Le codage de la matrice DCT quantifiée se fait en parcourant les éléments dans l’ordre imposé par une
séquence particulière appelée séquence zigzag :
on lit les valeurs en zigzags inclinés à 45° en commençant par le coin supérieur gauche et en
finissant en bas à droite
cette séquence a la propriété de parcourir les éléments en commençant par les basses
fréquences et de traiter les fréquences de plus en plus hautes
puisque la matrice DCT contient beaucoup de composantes de hautes fréquences nulles,
l’ordre de la séquence zigzag va engendrer de longues suites de 0 consécutives
Ceci facilite de nouveau les étapes de compression suivantes : les codages RLC et VLC.
Figure 14.
La lecture en
zigzag d’un bloc
DCT.
Deux mécanismes sont ensuite mis en œuvre pour comprimer la matrice DCT quantifiée et diminuer
sans pertes ma masse des informations présentes:
si une image contient une suite assez longue de pixels identiques, il devient intéressant de
répertorier le couple nombre/valeur de couleur
les longues suites de « 0 » par exemple sont codées en donnant le nombre de 0 successifs
le coefficient Z(0,0) correspondant à la valeur moyenne de la teinte du bloc est souvent proche
de celui du bloc précédent
on code alors simplement la différence avec la valeur du coefficient du bloc précédent
les valeurs non nulles seront codées en utilisant une méthode de type statistique
on a intérêt à coder sur un petit nombre de bits les valeurs qui sont les plus utilisées et à
réserver des mots binaires de plus grande longueur aux valeurs les plus rares.
Figure 15.
La réduction des
données en
JPEG.
jean-philippe. muller
Digital video
L’image compressée selon la norme JPEG est donc constituée de données numériques concernant les
coefficient des blocs de DCT quantifiés, de la ou des tables de quantification et de données
complémentaires.
Figure 16.
Organisation du
flux binaire
JPEG.
La norme de compression JPEG est un standard très efficace, mais pas sans inconvénients :
Figure 17.
Les effets de la
compression
JPEG sur le
texte.
Une réduction de débit excessive, à cause d'une requantification grossière, implique que le signal vidéo
à l'extrémité du bloc ne s'adapte pas à celui du bloc adjacent. Il en résulte un phénomène de
quadrillage, car les limites du bloc TCD deviennent visibles comme une mosaïque.
Figure 18.
Les effets
quadrillage
typique du
JPEG.
jean-philippe. muller
Digital video
Dans le caméscope, la dimension de l’image reste limitée à la taille standard 720x576 et le problème de
poids vient surtout de la fréquence de répétition (25 images par seconde) :
pour une image RVB de 720x576, sur 8 bits, le poids est P = 720x560x3x8 = 9,6768 Mbits
soit avec 25 images/seconde, un débit de D = 250 Mbits/s
Pour diminuer la taille du flot de données nécessaires à une séquence vidéo, plusieurs standards de
compression peuvent être utilisés :
⇒ le Motion JPEG
c’est une extension du JPEG qui permet de traiter des séquences d’images, utilisé dans les
caméscopes DV
il se contente de considérer une séquence vidéo comme une succession d’images fixes,
chacune d’elles compressée séparément en utilisant le standard JPEG.
chaque image étant compressée indépendamment des autres, le MJPEG permet le montage à
l’image près
le taux de compression standard obtenu est de 5, soit un débit de 25 Mbits/s pour l’image
il se base sur les similitudes existant entre plusieurs images successives (redondance
temporelle) pour atteindre des taux de compression bien plus importants que le MJPEG
le MPEG2 a été conçu pour traiter des séquences d’images entrelacées et produire des vidéos
de qualité satisfaisante avec un débit allant de 4 à 15 Mbits/seconde.
les utilisations principales de MPEG-2 sont la TV satellite, la TV câble et le DVD
le processus de compression est beaucoup plus complexe que le MJPEG et nécessite donc
une puissance de calcul supérieure, ce qui explique son apparition récente dans les
caméscopes
le MPEG travaille avec sur des groupes d’images (12 en général) et n’est donc pas adapté
pour faire du montage à l’image près
Figure 19.
Schéma
fonctionnel
d’un caméscope
numérique.
jean-philippe. muller
Digital video
L’œil humain n'est pas un organe parfait et certaines de ses caractéristiques ont été mises à profit pour
réduire la quantité de données nécessaires pour décrire une image, et ce déjà en télévision
analogique :
Cette réduction de la chrominance reste toujours valable aujourd'hui, même pour les nouveaux formats
vidéo numériques grand public.
Le format de base pour l’image numérique est le [Link] utilisé par la majorité des équipements vidéo :
jean-philippe. muller
Digital video
Afin de réduire le débit d'information à diffuser et à enregistrer, il existe deux formats sous
échantillonnés : le [Link] et le [Link]. Ces formats sont notamment utilisés par les magnétoscopes DV et
comportent moins d'information de chrominance.
dans le [Link], les échantillons de couleur ne sont pris en compte qu’une ligne sur 2
dans le [Link], on garde un échantillon de couleur sur 4 par ligne
Figure 21.
Les 2 types de
réductions des
données de
couleur.
⇒ le format professionnel DVCPRO s'appuie sur la norme 4.1.1, c'est-à-dire avec une fréquence
d'échantillonnage de 13,5 MHz pour la composante de luminance et de 3,375 MHz pour chacune des
deux composantes couleur (quantification sur 8 bits).
⇒ le DV grand public s'appuie sur des normes différentes, suivant la partie du monde qui est
concernée. Pour les USA et tous les pays en 525 lignes 60 Hz, la norme retenue est le [Link] et pour les
autres régions du globe en 625/50 Hz, la norme retenue est le 4.2.0. La qualité obtenue est
comparable.
Figure 22.
La famille des
Type d'échantillonnage Taux de
Audio
standards DV. vidéo compression
2 canaux
Y, Cr et Cb sur 8 bits
DV [Link] en 625 L 5:1 intra image
16 bits/48 kHz
(Sony ,autres) ou 4 canaux
[Link] en 525 L
12 bits/32 kHz
2 canaux
Y, Cr et Cb sur 8 bits
DVCam [Link] en 625 L 5:1 intra image
16 bits/48 kHz
(Sony) ou 4 canaux
[Link] en 525 L
16 bits/32 kHz
DVCPro 25 Y, Cr et Cb sur 8 bits
5:1 intra image
2 canaux
(Panasonic) [Link] 16 bits/48 kHz
Dans un caméscope numérique européen, les échantillons RVB de l’image en couleur de départ
(720x576) sont transcodés sous la forme Y, Cr et Cb, puis les signaux Cr et Cb sont sous-
échantillonnés en [Link].
Figure 23.
Représentation
de l’image
numérique DV.
jean-philippe. muller
Digital video
Figure 24.
Image au
format [Link].
Figure 25.
Détail au
format [Link].
L’image suivante représente le même détail, mais filmé avec un caméscope à la norme [Link] et montre
que l’information de couleur est valable pour un carré de 4 pixels.
Figure 26.
Détail au
format [Link].
jean-philippe. muller
Digital video
Comme pour une compression JPEG, l'image vidéo YUV est découpée en 9720 blocs :
Ces blocs sont regroupés par 6 pour former un macrobloc, qui sont eux-mêmes entrelacés, puis
assemblés par groupes de 5 pour former des unités de compression caractérisé par la même table de
quantification :
La compression DV d’une image utilise donc 324 matrices de quantifications, pas forcément toutes
différentes, et se différencie en cela de la compression MJPEG qui n’utilise qu’une matrice par image,
comme en JPEG.
Figure 27.
L’image est
formée de 2
trames.
Pour optimiser la réduction de débit par rapport au contenu de la scène à coder, une détection de
mouvement est effectuée entre les deux trames d'une image :
s'il y a peu de mouvement d'une trame à l'autre, la compression est réalisée sur l'ensemble des
6480 blocs 8x8 de l'image Y
si le mouvement d'une trame à l'autre est trop prononcé, la compression est effectuée
indépendamment sur chaque trame, sur des blocs de 8 x 4 (3240 pour chaque trame)
Le codage DV laisse chaque image indépendante des autres et se prête sans aucune difficulté au
montage à l'image près.
Tant que l’on se contente de facteurs de compression relativement faibles (de 2 à 5) il peut s’appliquer
à du travail de production ou de postproduction de qualité et, optimisé, il est quasi transparent.
Toutefois, lorsque le facteur de compression devient plus important (au delà de 10), la dégradation des
images devient telle qu’elle est aisément perceptible par l’œil. En outre, ces dégradations s’additionnent
d’une génération à l’autre, jusqu’à devenir rapidement inacceptables.
jean-philippe. muller
Digital video
Tout le traitement de compression/décompression DV est implémenté sur un seul circuit qui bénéficie
d’un coût de revient intéressant du fait de sa production massive.
Configurable en [Link] ou [Link], ce circuit est utilisé aussi bien dans les produits DV grand public que
dans les équipements broadcast aux formats DVCAM et DVCPRO.
Figure 28.
Exemples de
circuits de
compression -
décompression
DV.
jean-philippe. muller
Digital video
Le son capté par les microphones est numérisé après préamplification et filtrage anti-repliement, mais
ne subit aucune compression.
Figure 29.
Acquisition du
son dans le
caméscope.
le nombre de bits N sur lequel va être codé un échantillon qui est de 12 ou 16 bits
la fréquence d’échantillonnage fe qui peut être choisie égale à 48 kHz ou à 32 kHz
Figure 30.
Bruit introduit
par la
digitalisation du
son.
Le rapport signal/bruit après cette opération de quantification dépend du nombre de bits N par la
relation :
Les deux fréquences d’échantillonnage possibles en DV correspondent donc à deux niveaux de qualité :
Les données numériques audio sont traitées comme les données vidéo et donc inscrits par les têtes
rotatives sur la bande magnétique.
jean-philippe. muller
Digital video
Pour dépasser le facteur de compression de 5 du DV, il faut se baser sur les similitudes existant entre
plusieurs images successives, ce qui a donné naissance au standard MPEG :
Figure 31.
format taille débit qualité applications
Les standards
MPEG. SIF 360X288
MPEG1 non entrelacé 320x240 …
1,5 Mbits/s Basse (VHS) photoscopes
Vidéo TV satellite
4 à 15 Mbits/s moyenne à
MPEG2 numérique 720x576
selon la qualité élevée
DVD
[Link] microMV
La compression MPEG1 utilisée dans certains photoscopes s’applique à des images à définition réduite
part rapport à une image vidéo normale :
Figure 32.
Le format SIF
du MPEG1.
La séquence est décomposée en 3 types d’images qui sont regroupées en GOP (Group of images) :
⇒ les images I (Intra coded frames) : codées uniquement en utilisant le codage JPEG, sans se
soucier des images qui l'entourent. Elles sont nécessaires car ce sont elles qui assurent la cohésion de
l'image et permettent une prise en route du flux
⇒ les images P (Predictive coded frames), qui ont 50% du poids d’une I, serviront à leur tour
d'images de référence. Ces images sont prédites par extrapolation à partir de la précédente image de
référence (image I ou P) par compensation de mouvement.
⇒ les images B (Bidirectionally predictive coded frames), qui ont 15% du poids d’une I, sont obtenues
par interpolation des différences à partir des images I et P situées avant et après. Cette liberté
supplémentaire permet d'obtenir une compensation d'animation améliorée.
Figure 33.
Les groupes
d’images dans le
standard MPEG.
Les séquences d'images sont donc dans la pratique codées suivant une suite d'images I B et P :
jean-philippe. muller
Digital video
L'estimation de mouvement consiste à construire une image à partir d'une image précédente et
d'informations relatives aux déplacements de ses composantes, ce qui est plus « économique » :
Figure 34.
Fonctionnement
de l’estimation
de mouvement.
Pour une image B, le processus est analogue mais s’appuie sur l’image précédente et l’image suivante.
Figure 35.
Les images I, P
et B.
L’estimation de mouvement repose sur un concept simple, mais c’est la phase la plus complexe du
codage MPEG et nécessite une puissance de calcul importante.
jean-philippe. muller
Digital video
Figure 36.
Structure du
codeur MPEG2.
après démultiplexage, les images Intra sont décodées, déquantification avec des modes
programmés, puis DCT inverse
les vecteurs mouvement et les données de différence sont utilisés pour fabriquer les images
Prédites à partir des images de référence
les images Bidirectionnelles sont alors calculées
les images sont enfin replacées dans leur ordre naturel
Figure 37.
Structure du
décodeur
MPEG2.
jean-philippe. muller
Digital video
Si le principe de fonctionnement du MPEG2 est très voisin du MPEG, il apporte cependant un grand
nombre d’améliorations parmi lesquelles :
Figure 38.
Caméscope au
standard
microMV. Capteur CCD : 1/6 '' - 800.000 pixels
400.000 effectifs en mode camera
Sensibilité : 7 Lux
Objectif : Optique Carl Zeiss / filtre de 30mm
Obturateur : Mode auto / 1/3 à 1/600
Time code / data code : Non / Oui
Doublage son : Non
Format image : MPEG2
Format son : Format MPEG1 audio layer 2
Entrée/sortie numérique [Link] MPEG2
Sony a opté pour ce format MPEG2 pour les nouveaux caméscopes au format microMV :
les cassettes DV sont remplacées par les micro MV, trois fois plus petites. Un gain de place qui
permet à Sony de proposer des caméscopes - le DCRIP-5 et le DCR IP-7 - encore plus
compacts (47 x 103 x 80 mm) et légers (370 g avec batteries) que les caméscopes miniDV.
plus petites, les cassettes Micro MV ont logiquement une capacité moindre : elles ne stockent
que 6,5 Go, contre 12,2 pour le DV. Mais elles font appel au MPEG-2, qui a un taux de
compression au moins deux fois plus élevé que le DV et qui permet d’obtenir des images au
moins aussi bonnes.
grâce à MPEG2, le Memory Stick de 64 Mo peut stocker près de cinq minutes de vidéo depuis
le DCR-IP7.
Le Micro MV a un autre atout, car chaque séquence vidéo est enregistrée dans un fichier séparé.
Inconvénient :
lorsqu’on se déplace d’une séquence à l’autre sur la bande Micro MV, il faut
0,8 seconde à la tête de lecture pour lire le fichier suivant.
Avantages :
les fichiers séparés permettent de créer des vignettes et d'accéder directement
aux séquences directement depuis l’écran LCD en couleurs de 2,5 pouces qui
équipe le caméscope.
jean-philippe. muller
Digital video
La norme MPEG définit plusieurs niveaux de compression audio, utilisant chacun les mêmes principes
de base, de manière plus ou moins élaborée :
⇒ la sensibilité de l’oreille dépend de la fréquence : le son S1 sera entendu, alors que le son
S2, en-dessous du seuil d’audition, ne sera pas perçu
Figure 39.
Courbe de
sensibilité
naturelle de
l’oreille humaine.
⇒ le masquage temporel : certains sons intenses en masquent d'autres plus faible, qu’il est donc
inutile de numériser. Cet effet de masquage est aussi valable par rapport à des évènements audio
précédents et suivant un son intense.
Figure 40.
Masquage
temporel des
sons faibles.
⇒ le masquage fréquentiel : un son intense de fréquence donnée empêche l’audition des sons de
fréquences voisines
Figure 41.
Masquage
fréquentiel des
sons faibles.
La compression MPEG utilise ces propriétés de l’oreille humaine pour réduire la quantité de données
nécessaires à la numérisation d’une voie audio, sans trop en dégrader la qualité.
jean-philippe. muller
Digital video
Le signal musical modifie en permanence la courbe de sensibilité de l’oreille et rend certains sons
inaudibles par effet de masquage.
Le signal audio est digitalisé sur 12 bits dans le cas du microMV, avec une fréquence d’échantillonnage
de 48 kHz, et les échantillons obtenus sont groupés par paquets de 384 échantillons, soit 8 ms de
musique.
Figure 42.
Modification de
la courbe de
sensibilité par
les sons
intenses.
Figure 43.
Structure du
codeur audio
MPEG.
jean-philippe. muller
Image numérique :
l’enregistrement
de l’image
jean-philippe muller
Version 05/2002
Digital video
Sommaire
jean-philippe. muller
Digital video
Ce récapitulatif couvre les systèmes de stockage les plus communs pour les appareils numériques.
Microdrive
CompactFlash Type I et II
SmartMedia
Memorystick
jean-philippe. muller
Digital video
L'utilisation du numérique dans les domaines du son, de l'image et de la vidéo génère une énorme
quantité de données :
Ces besoins de stockage ont été à l’origine de différents modèles de cartes mémoires ( CompactFlash,
SmartMedia …) offrant des capacités de plus en plus élevée et allant actuellement jusqu’à 512 Moctets.
Proposé par Sony et adopté maintenant par d’autres constructeurs, la carte mémoire Mémorystick est
utilisée dans les photoscopes et les caméscopes, mais aussi dans un grand nombre de produits comme
les ordinateurs portables, les assistants personnels, les lecteurs MP3 et les téléphones cellulaires.
Figure 1.
Le Memorystick
16 Mo de Sony.
Le nombre d’images qui peuvent être stockées sur un Memorystick dépend évidemment de sa capacité,
mais aussi de la taille de l’image et du format d’enregistrement RAW, TIFF ou JPEG.
Tous les PC n’étant pas équipés de lecteurs Memorystick, il a fallu développer un certain nombre
d’interfaces pour pouvoir transférer les images de la carte mémoire vers le PC.
Figure 2.
Les interfaces
pour
Memorystick.
jean-philippe. muller
Digital video
Les constructeurs de matériel informatique disposaient déjà depuis longtemps de la RAM, moyen de
stockage de l'information à la fois électronique et réinscriptible à l'infini, mais ne conservant les données
que lorsqu’elle est alimentée.
A la charnière des années 80-90, plusieurs fabricants d'électronique parmi les plus importants (Intel,
Texas Instruments, Fujitsu) se sont penchés sur ce problème et ont mis au point la technologie de la
mémoire flash :
Figure 3.
Principe de la
cellule de
mémoire Flash.
La mémoire Flash est basée sur un type de circuit électronique comportant un transistor MOS pour
chacune de ces cellules :
Le terme de flash provient ainsi des capacités très rapides d'écriture et d'effacement des données
pouvant aller jusqu’à 1.5 Mo/s.
jean-philippe. muller
Digital video
Le Memorystick est la version Sony de la carte mémoire flash et possède les caractéristiques
particulières suivantes :
taille très réduite pour le modèle standard ( 21.5 x 50 x 2.8mm ) et encore plus faible pour le
Memorystick Duo (20 x 31 x 1.6 mm)
capacités disponibles allant de 8 Mo à 128 Mo
connecteur fiable à faible nombre de broches (10) grâce à l’utilisation d’une liaison série rapide
( horloge maximale à 20 MHz )
vitesse maximale d’écriture 1,5 Mbits/s et de lecture 2,45 Mbits/s
Figure 4.
Caractéristiques
physiques du
Memorystick.
Le Memorystick est équipé d’un interrupteur permettant de protéger les données écrites contre un
effacement accidentel.
Figure 5.
Structure
interne du
Memorystick.
Le Memorystick est composé de la mémoire flash, et d’un contrôleur qui assure les rôles de conversion
série-parallèle, d’adaptation des signaux aux différents types de mémoires et de correction des erreurs.
jean-philippe. muller
Digital video
Figure 6.
Le brochage du
connecteur.
Les lignes de bus sont tirées à la masse par des résistance de pull-down de 100 kΩ.
La tension d’alimentation comprise entre 2,7 et 3,6V, avec une consommation moyenne de 4,5 mA
descendant à 130 µA en mode veille
Figure 7.
Les
caractéristiques
électriques.
jean-philippe. muller
Digital video
La carte mémoire communique avec le système hôte par l’intermédiaire d’un bus à 3 fils :
Figure 8.
Le bus série du
Memorystick.
Le protocole des échanges de données entre le système hôte et la carte Memorystick est le suivant
pour la lecture :
Figure 9.
Les protocoles
d’échanges.
Dans une opération d’écriture, les données sont envoyées durant BS2 et le Busy-Ready durant BS3.
jean-philippe. muller
Digital video
De nombreuses évolutions de ces modules mémoire sont envisagées, pour des applications qui vont
au-delà de la fonction de mémorisation.
Figure 10.
Quelques
évolutions des
cartes
mémoires Sony. Le Mémorystick Duo
20 x 31 x 1.6 mm
L'Infostick
Figure 11.
Insertion du
Memorystick
dans le
photoscope.
jean-philippe. muller
Digital video
Comme pour le standard VHS, les données numériques sont inscrites sur la bande en diagonale par
rapport à l’axe de la bande.
En DV comme en Digital 8 et en microMV, ces pistes sont inscrites par deux têtes diamétralement
opposées montées sur un tambour rotatif incliné (4 têtes à 90° en Digital8).
Figure 12.
Enregistrement
par têtes
tournantes.
V = π.D.n – Vb
Cette vitesse relative tête-bande détermine directement la fréquence de coupure haute du système
d’enregistrement.
A cause du débit élevé des données numériques à enregistrer, la bande passante du système
d’enregistrement doit être nettement plus élevée que pour les magnétoscopes analogiques.
jean-philippe. muller
Digital video
La bande magnétique est composée d ‘une double couche de métal évaporé (cobalt pur) recouverte
d’un revêtement protecteur.
Figure 15.
Constitution de
la bande DV à
métal évaporé.
Deux tailles de cassettes sont disponibles, qui correspondent aux standards DV et miniDV.
Figure 16.
Caractéristiques
mécaniques des
cassettes DV.
Les cassettes DV sont équipées d’une puce mémoire de 4 kbits qui peut contenir une petite table des
matières du tournage avec la date, l’heure, les index, les réglages caméra …
Figure 17.
La mémoire et
son connecteur.
jean-philippe. muller
Digital video
Sur la bande de largeur 6,35 mm, les données sont enregistrées comme en VHS par des têtes placées
sur un tambour de diamètre D = 2,17 cm tournant à 9000 tours/minute, soit n = 150 tours/seconde :
Figure 18.
Format
d’enregistrement
DV.
Comme pour tous les formats vidéo numériques et contrairement au VHS, le DV fait appel au processus
de segmentation, qui consiste à découper une image en plusieurs segments et à enregistrer chaque
segment sur une piste :
une image est découpée en 10 segments dans les systèmes à 525 lignes (elle s'étale donc sur
10 pistes) et en 12 segments dans les systèmes à 625 lignes (répartition sur 12 pistes)
dans les deux cas, 300 pistes sont inscrites en une seconde (10 pistes x 30 i/s en 525 lignes,
et 12 pistes x 25 i/s en 625 lignes)
Figure 19.
Segmentation
d’une image.
jean-philippe. muller
Digital video
Lancé en I999 par Sony, le DigitaI8 est un format grand public qui établit une passerelle entre le DV et
le 8mm/Hi8.
Le Digital8 reprend Ies spécifications du DV en termes de traitement vidéo et audio numérique, mais
utilise comme support d'enregistrement une cassette Hi8 classique, avec comme atouts :
Côté mécanique, les deux modes de fonctionnement Digital8 et Hi-8 sont prévus :
Figure 20.
Le format
d’enregistrement
D8.
Le Digital8 code les données identiquement au DV' avec une segmentation de l'image sur 12 pistes,
mais profite de la largeur supérieure de la bande Hi8 (8mm contre 6,35 en DV) pour inscrire les pistes
numériques. deux par deux, dans le prolongement l'une de l'autre.
Deux fonctions offertes par le DV ne sont pas assurées par les équipements Digital8 :
jean-philippe. muller
Digital video
Une tête magnétique est constituée d'un noyau magnétique en ferrite (forte perméabilité magnétique,
électriquement isolante donc pas de courants de Foucault) et d'un bobinage.
Figure 21.
Structure d’une
tête magnétique
vidéo.
Les performances de l’enregistrement magnétiques sont limitées par des phénomènes physiques aux
deux extrémités du spectre :
⇒ à la lecture une tête magnétique est avant tout une bobine d'induction munie d’un entrefer qui joue
le rôle d’une fente de captage du champ magnétique. La fem induite dans le bobinage est :
Φ/dt = -Φ
e = - dΦ Φo.ω
ωcos(ω
ωt) si le flux est sinusoïdal
En conséquence, les signaux continus ne passent pas, les signaux de basse fréquence passent mal,
les fréquences élevées passent mieux. Il faut donc faire en sorte que les signaux enregistrés aient une
composante continue minimale et un contenu basse fréquence assez faible.
δ
fc = V/δ
Cet effet d’entrefer introduit une chute très rapide du gain après la coupure.
Figure 22.
Courbe de
réponse d’un
système DV ou
Digital8.
Dans le cas des caméscopes DV et Digital8 (vitesse tête-bande de 10,2 et 9,39 m/s):
La bande passante utile du système d’enregistrement va donc de 100 kHz environ à 20 MHz.
jean-philippe. muller
Digital video
Pour les standards Digital8 et DV, le signal vidéo compressé initial caractérisé par un débit de
25Mbits/s va subir un certain nombre de traitements avant l’enregistrement :
A l’issue de ces traitements, le débit binaire du signal à enregistrer sur la bande est de 41,85 Mbits/s.
Le codage de canal a pour rôle de mettre les données vidéo et audio sous la forme d'un signal série
adapté à I'enregistrement magnétique.
Figure 23.
Le code NRZI. Bits 0 0 1 0 1 1 1 1 0 1 0 0 0 0 1 0
NRZ
Clock
NRZI
Le DV utilise un code S-NRZI ou NRZI brouillé (Scramble Non Return to Zero Inversion) qui a des
propriétés intéressantes :
le code NRZ est un codage robuste, qui nécessite une bande passante faible par rapport à
d’autres codages
un « 1 » est représenté par un changement de niveau et un « 0 » par l’absence de changement
de niveau
l’embrouillage minimise les longues suites de O ou de 1, réduisant ainsi les composantes
basses fréquences du flux numérique
à cause de la largeur de l’entrefer, le flux magnétique inscrit sur la bande a une forme
trapézoïdale
le signal fourni par la tête à la lecture est formé d’impulsions positives et négatives, suivant le
sens de la transition
un dispositif de décodage à seuil récupère les informations binaires
Figure 24.
Enregistrement
et lecture des
données sur la
bande.
jean-philippe. muller
Digital video
Le spectre du signal binaire S-NRZI enregistré sur la bande montre qu’il est compatible avec la bande
passante du système d’enregistrement DV :
S-NRZI
Manchester,
Manchester différentiel
On constate que le codage NRZI est particulièrement économique en bande passante par rapport à
d’autres types de codages, ce qui explique son utilisation quasi systématique dans toutes les
applications d’enregistrement magnétique.
Figure 26.
Quelques codes
possibles.
Chacun de ces codes a ses spécificités au niveau du spectre, de la facilité de récupération de l’horloge,
de la complexité des circuits de codage et de décodage, et sont utilisés dans des applications
particulières.
jean-philippe. muller
Digital video
Lorsque la tête de lecture n’a pas la même orientation que la tête d’enregistrement ( erreur d’azimutage)
la fréquence de coupure diminue.
Si l’azimut de la tête magnétique a varié d’un angle α entre l’enregistrement et la lecture, la nouvelle
fréquence de coupure f’c du système vaut :
v
f 'c = avec v : vitesse relative tête/bande et h la largeur de la piste
[Link] (α )
Cet effet d’azimutage est mis à profit dans le magnétoscope et le caméscope pour diminuer la diaphotie
entre deux piste lues par deux têtes ayant une orientation différente .
Figure 27.
Les deux têtes
magnétiques sur
le tambour ont
des azimuts
différents.
L’enregistrement du signal vidéo se fait alternativement par deux têtes à l’azimut différent (+ ou – 20 °
dans le cas du DV).
Figure 28.
Alternance de
l’azimut à
l’enregistremen.
Chaque piste est donc entourée par deux pistes enregistrées avec un azimut différent, ce qui limite la
lecture parasite des pistes adjacentes.
En effet pour une différence d’azimut de 40°, la fréquence de coupure s’abaisse à : f’c = 1,2 MHz, ce
qui rend impossible la lecture d’une piste « B » par une tête « A ».
jean-philippe. muller
Digital video
Pour assurer le positionnement des têtes sur les piste, le DV et le Digital8 font appel, comme le
standard Hi8, à un système de recherche d'alignement automatique :
une fréquence pilote est superposée à la modulation en utilisant des bits qui ne sont pas
utilisés pour la vidéo
sur chaque piste à l'enregistrement différentes valeurs de fréquences sont utilisées
successivement
les têtes de lecture sont légèrement plus larges que les pistes, chaque tête lit la fréquence
associée à la piste explorée, ainsi que les fréquences inscrites sur les deux pistes voisines
tant que la tête est parfaitement centrée sur la piste lue, les niveaux des fréquences latérales
recueillis sont identiques
dès qu'un décentrage tête/piste se produit, les niveaux de ces fréquences latérales sont
différents et le système produit un signal de correction qui agit sur la vitesse du cabestan
Figure 29.
Principe du suivi
de piste.
A part le bloc optique-capteur, le traitement numérique du signal dans le caméscope peut donc être
décomposé en plusieurs blocs :
Figure 30.
Traitement du
signal dans le
caméscope.
jean-philippe. muller
Digital video
La nouvelle gamme de caméscopes Sony au format microMV présente les caractéristiques suivantes :
Les têtes de lecture utilisent la technologie des têtes magnéto résistives utilisées dans les disques durs
de PC.
Figure 32.
La tête de
lecture magnéto
résistive.
Ce type de tête présente un certain nombre d’avantages par rapport aux têtes de lecture « ferrite »
traditionnelles :
la tête de lecture contient un capteur à base de NiFe dont la résistance change d'état en
fonction de l’aimantation de la bande
le capteur lit cette variation de champ magnétique avec une sensibilité au moins 5 fois plus
importante que les têtes magnétiques conventionnelles
le capteur fournit une tension proportionnelle au champ magnétique et pas au flux, ce qui rend
la courbe de réponse plate, supprime la nécessité de l’égalisation et règle le problème de la
lecture des très basses fréquences
Figure 33.
Fonctionnement
de la tête de
lecture magnéto
résistive.
jean-philippe. muller
Digital video
Le disque réinscriptible CDRW est un support d’enregistrement de grande capacité, de faible coût, et
lisible sur la plupart des lecteurs de CDROM actuels.
Il est donc tout à fait normal qu’il soit apparu comme mémoire dans les appareils photos et les
caméscopes (Hitachi).
Figure 34.
Photoscope
utilisant un SONY MCV-CD200(CDRW)
CDRW.
Appareil photo numérique doté d'un capteur CCD
Super HAD de 2,1 millions de pixels, d'un mode
film et d'un support d'enregistrement sur CD-RW
153 Mo.
237 (1600x1200)
1300 (640x480)
Le CD-RW utilise les changements de phase de la couche métallique pressée dans l'âme du disque
entre deux couches diélectriques:
Figure 35.
Le sillon de
guidage inscrit
sur le CDRZ
vierge.
Afin que le faisceau laser incident puisse se positionner et décrire une spirale lors de l'enregistrement,
un sillon (groove) est tracé dans le substrat :
la compatibilité avec les blocs optiques laser standards est assurée quand ce sillon a une
largeur typique de 600 nm pour une profondeur de 100 nm, la section étant en forme de U
pour asservir la vitesse de rotation du disque à une vitesse linéaire constante, le sillon oscille
autour de la spirale constituant sa position moyenne (wobble of the groove) avec une amplitude
typique de 30 nm et une longueur d'onde de 60 µm
la vitesse linéaire est nominale quand une longueur d'onde (reproduite par une variation de flux
du faisceau réfléchi) est lue en 45,35 µs, ce qui correspond à une fréquence de référence de
22,05 kHz.
En fait, l'oscillation de la spirale du sillon n'a pas une longueur d'onde constante de 60 µm mais varie en
fonction de la position sur le disque. Le graveur est ainsi capable de déterminer la durée enregistrée et
la durée restant disponible pour une autre cession d'enregistrement.
La modulation de l'oscillation de la spirale du sillon est appelée APIT (absolute time in pre groove).
jean-philippe. muller
Digital video
Pour les opérations de lecture et d’écriture, le disque est éclairée par une diode laser à semi-
conducteur à arséniure de gallium :
ce composant est réalisé autour d’une jonction P-N polarisée en direct et constituant une cavité
résonante.
la diode laser émet une puissance lumineuse variable selon l’opération entre 2 et 14 mW et le
courant qu’elle consomme est de l’ordre de 50 à 60 mA.
ce courant augmente lors du vieillissement de la diode laser et peut atteindre 100 mA : on peut
alors considérer que la diode laser est épuisée et il faut procéder au remplacement du bloc
optique( durée de vie de l’ordre de 6000h)
Figure 36.
Effet de la
régulation de
puissance sur le
courant de la
diode.
Pour pouvoir réguler la puissance émise par la diode laser, il faut la mesurer, ce qui se fait par
l’intermédiaire d’une photodiode montée dans le boîtier de la diode laser.
Figure 37.
Structure d’une
diode laser.
Figure 38.
Géométrie du
trajet optique
dans un lecteur
CD.
jean-philippe. muller
Digital video
Avant d’être enregistrées sur le disque, les données binaires relatives à l’image vont subir, comme dans
le cas de la bande magnétique, un certain nombre de traitements avant l’enregistrement :
ajout de codes correcteurs d’erreurs par bits de parité et Reed-Solomon qui permettent de
réparer des erreurs de faible longueur
brassage des données pour se protéger des macro-défauts (rayure du disque, trace de doigts,
défaut de fabrication, etc.) pouvant entraîner la perte d'un ou plusieurs octets de données
transcodage évitant des cuvettes trop courtes (codage 8-14) : par exemple, l'octet 0111 0010
est transposé en 10010010000010 de telle sorte qu'entre deux niveaux 1 successifs il puisse y
avoir au moins deux niveaux 0 et au plus dix niveaux 0.
codage NRZI : le passage d'une absence de cuvette à une cuvette correspond à un niveau 1.
La longueur des cuvettes enregistrés sur le disque s'en trouve allongée
Figure 39.
Codage 8-14
utilisé pour les
CD.
Lors de l’écriture, le changement de phase nécessite une élévation de température de l’ordre de 500 à
700 ° localisée au point d’impact du faisceau, ce qui correspond à une puissance lumineuse comprise
entre 8 et 14 mW.
échauffe localement le matériau polycristallin et le fait passer le l’état cristallin à l’état amorphe
il en résulte une perte de réflectivité du « sandwich » qui passe de 25% (cristallin) à 15%
(amorphe)
on a ainsi créé l’équivalent d’une cuvette
Figure 40.
L’enregistrement
des données sur
un CDRW.
jean-philippe. muller
Digital video
A la lecture, un rayon lumineux de faible puissance ( typiquement 1 à 2 mW) issu de la diode laser est
focalisé par un dispositif optique sur le disque, se réfléchit soit sur le disque, soit au fond de la cuvette,
est séparé en deux rayons par un prisme double et revient vers un capteur constitué de 4 photodiodes.
Figure 41.
Le dispositif de
lecture du CDRW.
Le signal en sortie de la photodiode cible a alors l’allure suivante quand le disque tourne :
Figure 42.
Le signal électrique
en sortie du
détecteur optique.
Le signal présenté est celui relevé sur un CD audio pour lequel les variations d’éclairement de la cible
varient de façon importante en présente de cuvettes.
Pour un CDRW, les variations d’éclairement sont beaucoup plus faibles, et les variations
correspondantes du signal en sortie du capteur optique beaucoup plus faible. Le rapport signal/bruit est
donc beaucoup moins favorable.
jean-philippe. muller
Digital video
Voici un exemple concret montrant la structure d’un bloc optique Sony, qui est un variante du système
décrit précédemment :
le faisceau principal de la diode laser est divisé en trois faisceaux par la lentille de diffraction
le faisceau central le plus intense sert à l’écriture et à la lecture
la lentille cylindrique déforme la tache éclairant la cible formée de 4 photodiodes A,B,C et D
placées en carré qui seront éclairées différemment
les deux faisceaux latéraux éclairent 2 autres photodiodes E et F et servent au suivi de piste
Figure 43.
Structure du
système optique à
triple faisceau
FOP de Sony.
L’électronique de lecture du signal numérique régule l’intensité du faisceau laser et utilise les signaux
issus des cellules A,B,C, D, E et F pour extraite l’information utile.
Figure 44.
Interface laser
utilisant un
CXA1081M de
Sony
jean-philippe. muller
Digital video
23-L’asservissement de focalisation
Outre la lecture du signal numérique, le bloc optique doit aussi permettre l’asservissement de la
focalisation du faisceau laser et le suivi de la piste ( tracking ).
La régulation de focalisation utilise un dispositif optique qui dévie le faisceau réfléchi arrivant sur la cible
qui comporte 4 zones sensibles A,B,C et D.
⇒ la lentille de focalisation est trop basse, le point de focalisation est en dessous du miroir du CD. Les
faisceaux émergeant éclairent plus fortement les photodiodes B et C de la cible. Le système réagit en
déplaçant la lentille de focalisation.
Figure 45.
Technique
d’asservissement
de la focalisation
du faisceau laser.
Inversement, si la focalisation est trop haute, ce sont les photodiodes A et D qui reçoivent davantage de
lumière.
⇒ la focalisation est correctement réalisée, les quatre photodiodes de la cible sont également
éclairées.
Figure 46.
Focalisation du
faisceau laser
correcte.
L’exploitation des signaux issus des capteurs A,B,C et D permet de réaliser l’asservissement de
focalisation.
jean-philippe. muller
Digital video
Quand le spot principal est bien placé dans le sillon, la quantité de lumière constituant les faisceaux
latéraux réfléchis est identique et les 4 photodiodes reçoivent une quantité de lumière identique.
Figure 47.
Eclairement des
cibles quand le spot
est sur la piste.
L’existence d’une erreur de piste entraîne une dissymétrie dans les faisceaux émergents, et les
photodiodes A et B sont moins éclairées que les photodiodes C et D.
L’asservissement de position de la tête de lecture peut alors réagir et replacer la tête optique
exactement sous le sillon.
Figure 48.
Effet d’une
erreur de piste.
jean-philippe. muller
Image numérique :
l’afficheur LCD
jean-philippe muller
Version 05/2002
Digital video
Sommaire
jean-philippe. muller
Digital video
La lumière est une onde électromagnétique composée d'un champ électrique E et d'un champ
magnétique B. L’œil n’est sensible qu’à la composante électrique.
Figure 1.
Les champs dans
l’onde
électromagnétique.
la lumière naturelle ou non polarisée, pour laquelle il n' y a pas de direction particulière et les
vecteurs champs électriques prennent des directions aléatoires.
la lumière polarisée pour laquelle tous les champs E sont parallèles à une direction particulière
appelée direction de polarisation
La lumière d’intensité Io peut être polarisée soit par un filtre appelé polaroïd (matière plastique formée
de longues molécules parallèles ) ou par simple réflexion sur un miroir.
Figure 2.
Polarisation et
analyse de la
lumière.
Si on place un deuxième polaroïd sur le trajet de la lumière polarisée, l’intensité en sortie sera maximale
(intensité Io/2) lorsque les 2 polaroïds sont alignés et nulle quand ils sont croisés : c’est la loi de Malus.
Figure 3.
Lumière en
sortie de
polariseurs
croisés.
jean-philippe. muller
Digital video
Les cristaux liquides ont été découverts en 1888 par le botaniste autrichien H. Reinitzer. Comme leur
nom ne l’indique pas, les cristaux liquides ne sont pas des cristaux :
la plupart des cristaux liquides sont des composés organiques avec des molécules allongées
en forme de bâtonnets
ils ne présentent ni les arêtes vives, ni les facettes lisses et brillantes qui caractérisent ce qu'on
appelle communément les cristaux.
en revanche, ils possèdent des propriétés d'organisation des molécules qui se traduisent par
des caractéristiques optiques particulières et qui les rapprochent de l' état cristallin
Figure 4.
Molécule de
cristal liquide
et exemple
d’alignement.
Dans l'état naturel, les molécules se disposent spontanément d' une manière ordonnée avec leurs axes
grossièrement parallèles.
Prenons l'exemple du Cholesteryl Myristate, composé de carbone et d'hydrogène, et utilisé par Reinitzer
lors de ses expériences en 1888:
à 20 degrés on est en phase solide, les molécules du cristal sont rangées avec un ordre de
position et d' orientation
à 71 degrés, le solide fond, mais le " liquide" résultant est trouble, l'ordre positionnel a disparu
mais toutes les molécules ont plus ou moins gardé leur orientation d'origine.
à 85 degrés, le liquide trouble devient clair, on a obtenu une phase liquide classique où ne
subsiste aucun ordre
Figure 5.
Les 3 états des
cristaux
liquides.
Pour les afficheurs à cristaux liquides, on utilise des substances qui sont à l’état de cristaux liquides à la
température ordinaire.
jean-philippe. muller
Digital video
Il est possible de "piloter" la direction des molécules de cristaux liquides par divers moyens :
Lorsqu'on dispose une couche de cristal liquide sur une plaque gravée de fins sillons parallèles (couche
d'alignement), les molécules s'orientent parallèlement à ces sillons
Figure 6.
Alignement
mécanique des
molécules de
cristal liquide.
Lorsqu'on enferme une couche de cristaux liquides entre deux plaques gravées de sillons orientés dans
deux directions différentes, l' orientation des molécules (à l' état de repos) passe progressivement de la
direction (1) à la direction (2}. Elle fait donc apparaître une torsion.
C'est ce qu'on appelle un cristal liquide "Twisted Nematic", qu'on pourrait traduire par nématique tordu.
Ces molécules alignées vont avoir des propriétés spéciales dans le domaine optique puisqu’elles vont
faire tourner la direction de polarisation de la lumière.
Si on soumet le cristal liquide à une tension électrique, l’orientation des molécules se modifie sous
l’action du champ électrique.
Figure 7.
Alignement
électrique des
molécules de
cristal liquide.
Remarque : en jouant sur la valeur de la tension appliquée, il est possible d’obtenir des situations
intermédiaires dans lesquelles seule une partie des rayons incidents voit sa direction de polarisation
modifiée.
jean-philippe. muller
Digital video
En intercalant une cellule de ce type entre deux polariseurs croisés, on peut fabriquer un dispositif à
transmittance optique variable :
au repos, les cristaux liquides font tourner l’axe de polarisation de la lumière qui peut donc
traverser le dispositif
l’application d’une tension entre les deux plaques de verre aligne les molécules sur le champ et
empêche la rotation de la polarisation : la lumière ne traverse plus le dispositif
Figure 8.
Principe de
l’interrupteur à
cristaux
liquides.
On pourra donc utiliser l’interrupteur optique ainsi constitué pour afficher sur un écran des zones
sombres ou claires :
⇒ qui reproduisent la forme des électrodes : c’est le principe utilisé dans les afficheurs à points ou à
segments.
Figure 9.
Exemple
d’afficheur LCD
à segments.
⇒ qui peuvent être adressées de façon matricielle en x,y pour former une image quelconque : c’est la
technique utilisée dans les écrans LCD graphiques .
jean-philippe. muller
Digital video
Sur un écran à structure matricielle, les pixels sont repérés par les lignes et les colonnes :
⇒ commande par matrice passive : les électrodes X son déposés sur la plaque inférieure et les
électrodes Y sur la plaque supérieure.
Figure 10.
Structure de
l’afficheur à
matrice
passive.
L’application d’une tension entre une électrode X et une électrode Y crée un champ électrique dans la
cellule située au croisement des 2 électrodes.
⇒ commande par matrice active : les électrodes X et Y sont formées sur le même substrat que les
transistors, alors que le substrat opposé est recouvert d’une électrode continue.
Le transistor est du type « Thin Film Transistor », les signaux de commande sont appliqués sur les
grilles (lignes X) et les niveaux vidéo sur les drains (lignes Y).
Figure 11.
Structure de
l’afficheur à
matrice active.
La fabrication de ce type d’écran est bien-sûr plus délicate, mais la qualité d’affichage et la rapidité sont
bien supérieures à celles apportées par les écrans à matrice passive.
Figure 12.
Le transistor
TFT.
jean-philippe. muller
Digital video
L’affichage des différents niveaux de luminance de l’image est basé sur le principe suivant :
On pourra donc commander la luminosité du pixel en jouant sur la tension de polarisation qui lui est
appliquée : les afficheurs à cristaux liquides nécessitent donc une commande analogique.
Figure 13.
Caractéristique
de commande
d’un afficheur
LCD.
Remarques :
Pour pallier à ces problèmes, on a amélioré les écrans TN (Twisted nematic) en utilisant des matériaux
sophistiqués dans des écrans qui allient rapidité satisfaisante et plage de commande correcte :
le STN (Super Twisted nematic) dans lesquels les cristaux liquides introduisent une rotation de
la polarisation de l’ordre de 210 degrés
l’ECB (Electrically controlled birefringence), technique développée par Sony, qui met en œuvre
un seul polariseur et un éclairage par la face avant
Figure 14.
Structure de
l’afficheur ECB
de Sony.
jean-philippe. muller
Digital video
Les couleurs sont obtenues en utilisant des filtres de couleurs vert rouge et bleu, les trois couleurs
primaires, comme sur un tube cathodique.
A définition identique, l’afficheur LCD couleur doit donc comporter 3 fois plus de cellules qu’un afficheur
monochrome.
Figure 15.
Principe de
l’afficheur
couleur.
En ajustant les intensités des faisceaux sortant des cellules rouge, verte et bleue on pourra afficher un
grand nombre de couleurs.
Figure 16.
Exemples
d’affichages de
différentes
couleurs.
Figure 17.
Structure de
l’afficheur
couleur à
matrice active.
jean-philippe. muller
Digital video
Sur le schéma interne de cet afficheur, on peut remarquer les particularités suivantes :
les transistors de commande sont doublés, ce qui permet de rattraper un éventuel défaut de
fabrication
les registres à décalages sont synchronisés avec le balayage ligne et trame
le signal vidéo échantillonné est appliqué sur les différentes colonnes (drains des transistors
doubles) par le registre à décalage horizontal
la conduction d’un transistor double est commandée par la tension de grille issue du registre
vertical (sélection de la ligne)
jean-philippe. muller
Digital video
Les deux configurations des écrans LCD sont les écrans réflectifs et ceux utilisant un rétro-éclairage.
Au repos, la lumière traverse le cristal avant de subir une réflexion dans le miroir et de repasser à
travers le cristal : on observe un point blanc. Quand on applique une tension, on observe un point
noir (la lumière est bloquée avant la réflexion).
Cette lumière traverse ou non le cristal en fonction de la polarisation appliquée. Ce type d'écran
LCD donne une meilleure intensité de l'écran, surtout avec peu de lumière ambiante, mais
consomme plus d'énergie qu'un écran réflectif.
Figure 19.
Principe de
l’afficheur à
rétro éclairage.
Différents dispositifs comme l’éclairage latéral sont mis en oeuvre pour réduire la profondeur de
l’afficheur.
Figure 20.
L’éclairage
latéral.
Remarque : alors que les afficheurs monochromes sont disponibles en réflexion ou en transmission, les
écrans couleurs, compte tenu des effets de réfraction dans la cellule, ne peuvent être employés qu’en
transmission.
jean-philippe. muller
Digital video
Le dispositif de commande doit fournir à l’écran LCD-TFT les signaux vidéo, d'horloge et des signaux de
synchronisation horizontale et verticale permettant de réaliser les balayages.
Figure 21.
L’électronique
de commande
d’un afficheur
LCD.
A partir des signaux vidéo Y, R-Y et B-Y, le traitement est en général le suivant :
une matrice permet de retrouver les signaux de couleurs primaires R, V et B qui seront
équilibrés (balance des blancs) et alignés (clamp) sur une composante continue ajustable par
l'utilisateur en fonction d'un réglage de lumière
une correction de gamma est nécessaire afin de linéariser la réponse globale de la chaîne de
traitement de l'image
il est ensuite nécessaire de produire des signaux de commande à valeur moyenne nulle pour
ne pas risquer de détruire l'afficheur par électrolyse des cristaux liquides. Ceci est réalisé par
les circuits d'alignement et d'inversion associés au circuit de polarité.
Figure 22.
Les signaux de
commande.
lors des manipulations, il faut respecter les recommandations et considérer que les surfaces de
verre sont fragiles, ne supportant pas les chocs ni les déformations
les écrans LCD étant sensibles aux décharges électrostatiques, il est donc déconseillé de
procéder à une manipulation sur les connecteurs pouvant interrompre l'horloge ou les signaux
de synchronisation en fonctionnement
jean-philippe. muller
Digital video
Le circuit Sony CXA3572R est destiné à piloter les afficheurs LCD pour photoscopes numériques
ACX306 et ACX312.
Figure 23.
Un chipset
d’affichage.
jean-philippe. muller
Digital video
jean-philippe. muller
Digital video
Une nouvelle technologie d'affichage lumineux fait ses premiers pas : contrairement aux écrans en verre
actuels, ils sont souples, en plastique et bon marché.
Les écrans OLED (organic light-emitting diodes) ont une structure très simple :
des anodes et des cathodes disposées en lignes et en colonnes pour un adressage matriciel
un sandwich de substances organiques émettant de la lumière lorsqu’elles sont traversées par
un courant
la couleur de la lumière produite dépend de la composition chimique de la substance
organique
Figure 25.
Le principe de
l’afficheur
OLED.
On retrouve dans les écrans OLED les deux technologies des écrans LCD :
Par rapport aux afficheurs à cristaux liquides, les afficheurs OLED ont d’énormes avantages :
les OLEDs sont auto-lumineux et ne nécessitent aucun rétro-éclairage. Ceci élimine le besoin
de tubes fluorescents et facilite la construction d'écrans plus fins et compacts.
un défaut dans la commande se traduit par un pixel sombre, ce qui est peu gênant
ils procurent un niveau de brillance et de finesse impossible à atteindre par d'autres techniques
enfin l'OLED offre un large angle de vision (jusqu'à 160°), même en pleine lumière
Figure 26.
Les avantages
des afficheurs
OLED.
Les écrans couleur OLED commencent à équiper les téléphones portables GSM à afficheurs couleur et
de nombreuses études montrent que ce type d’écran va progressivement remplacer les écrans LCD
sur les équipements portables comme les caméscopes , les photoscopes, les assistants personnels et
les PC grâce à leurs qualités et à cause de leur coût de fabrication plus bas.
jean-philippe. muller