Comprendre la Caméra et ses Composants
Comprendre la Caméra et ses Composants
François Preghenella
Sommaire
1. Le Capteur CCD ................................................................................................................. 1
1.1. Un peu d'histoire .......................................................................................................... 1
1.2. Présentation générale ................................................................................................... 1
1.3. Détection ...................................................................................................................... 1
1.4. Principe du transfert des charges ................................................................................. 6
1.4.1. Structure en XY .................................................................................................... 2
1.4.2. Structure interline transfert (CCD IT) .................................................................. 3
1.4.3. Structure frame transfert (CCD FT) ..................................................................... 4
1.4.4. La structure frame interline transfert (CCD FIT) ................................................. 4
1.5. Les côtés moins des CCD ............................................................................................ 5
1.5.1. Le smear ............................................................................................................... 5
1.5.2. Manque de sensibilité au bleu .............................................................................. 6
1.5.3. Le bruit ................................................................................................................. 6
1.5.4. Inefficacité de transfert ......................................................................................... 6
1.5.5. Aliasing (ou moiré) .............................................................................................. 6
1.6. Les côtés plus des CCD ............................................................................................... 7
2. La chaîne optique ............................................................................................................... 9
2.1. L'objectif zoom ............................................................................................................ 9
2.2. Les commandes ......................................................................................................... 10
2.2.1. La mise au point ................................................................................................. 10
2.2.2. Le zoom .............................................................................................................. 10
2.2.3. L'iris .................................................................................................................... 10
2.2.4. Le tirage optique................................................................................................. 10
2.2.5. Les options ......................................................................................................... 11
3. LA CHAINE OPTIQUE À L'INTERIEUR DE LA CAMERA ...................................... 12
3.1. Les filtres fixes .......................................................................................................... 12
3.1.1. Le filtre infrarouge. ............................................................................................ 12
3.1.2. Le filtre quart d’onde.......................................................................................... 12
3.1.3. Le filtre passe-bas ............................................................................................... 13
3.1.4. Les filtres mobiles .............................................................................................. 13
3.1.5. Le bloc capteur avec le séparateur dichroïque. .................................................. 14
3.1.6. Les capteurs d'images ......................................................................................... 15
3.2. LES CARACTERISTIQUES ET LES DEFAUTS DE LA CHAINE OPTIQUE .... 16
3.2.1. Le vignettage ...................................................................................................... 16
3.2.2. Non uniformité ou taches au blanc ..................................................................... 16
La camera II
3.2.3. Les aberrations chromatiques ............................................................................. 16
3.2.4. Le taux de lumière parasite ou flare (réflexion parasite).................................... 16
3.2.5. Le traitement électronique .................................................................................. 17
3.2.6. Généralités .......................................................................................................... 17
4. Les types de cameras et leurs configurations ................................................................... 23
4.1. Les types de caméras ................................................................................................. 23
4.1.1. Production .......................................................................................................... 24
4.1.2. Les configurations portables .............................................................................. 25
4.2. Caméras EFP ............................................................................................................. 25
4.2.1. GENERALITES ................................................................................................. 25
4.2.2. Configurations .................................................................................................... 26
4.2.3. Description d'un ensemble ................................................................................. 27
4.2.4. La correction colorimetrique .............................................................................. 28
4.2.5. La régie de production........................................................................................ 28
4.3. Reportage ................................................................................................................... 28
4.3.1. Les caméras bi-bloc ............................................................................................ 28
4.3.2. Les "Combo" ...................................................................................................... 28
4.3.3. Caméras ENG ..................................................................................................... 29
4.4. Scientifiques .............................................................................................................. 30
4.4.1. Les caméras compactes ...................................................................................... 30
4.4.2. Les "paluche" ..................................................................................................... 30
4.4.3. Descriptions ........................................................................................................ 30
5. Les optiques ...................................................................................................................... 31
5.1. Les formats d'optiques ............................................................................................... 31
6. Les types d'optiques ......................................................................................................... 31
6.1. Les optiques de studio ............................................................................................... 31
6.2. Les optiques portables ............................................................................................... 32
6.3. Les optiques légères................................................................................................... 32
6.4. Les adaptateurs optiques ............................................................................................ 32
7. Les liaisons ....................................................................................................................... 32
7.1. Les liaisons triaxiales................................................................................................. 32
7.2. Les liaisons multiconducteurs (multicore) ................................................................ 32
7.3. Les liaisons sans fil .................................................................................................... 33
8. Les modes de réglages et de mise en œuvre..................................................................... 33
8.1. Les réglages de base .................................................................................................. 33
8.2. Le signal de test ......................................................................................................... 33
La camera III
8.3. Le gain vidéo ............................................................................................................. 33
8.4. Les taches au noir ...................................................................................................... 33
8.5. Les taches au blanc .................................................................................................... 34
8.6. Le niveau de noir ....................................................................................................... 34
8.7. Les contre-tops (black puises) ................................................................................... 34
8.8. Le flare ....................................................................................................................... 34
8.9. Le Gamma ................................................................................................................. 35
8.10. Le compresseur de blanc (Knee)............................................................................ 35
8.11. Le réglage des écrêteurs (Clip) .............................................................................. 35
8.12. Le matriçage colorimétrique (Masking) ................................................................ 35
8.13. La correction de contour ........................................................................................ 35
8.14. Les réglages auxiliaires .......................................................................................... 36
8.15. La recette technique ............................................................................................... 36
9. Les mesures video ............................................................................................................ 36
9.1. La sensibilité .............................................................................................................. 36
9.2. Mire de test Thomson. ............................................................................................... 36
9.3. La résolution .............................................................................................................. 37
9.4. Le rapport signal/bruit ............................................................................................... 37
9.5. La distorsion géométrique ......................................................................................... 37
9.6. La convergence (registration) .................................................................................... 37
9.7. La restitution du CCD................................................................................................ 37
9.8. Les réglages de la chaîne vidéo ................................................................................. 37
10. FIABILITE .................................................................................................................... 37
10.1. Réaction aux vibrations.......................................................................................... 37
10.2. Connexions ............................................................................................................ 37
10.3. Tenue en température ............................................................................................. 38
11. L'OPTIQUE ...................................................................................................................... 38
11.1. Contrôle de pièces mobiles .................................................................................... 38
11.2. Le viseur................................................................................................................. 38
11.2.1. Vérification de l'image.................................................................................... 38
11.2.2. Les indications associées ................................................................................ 38
12. Vérification globale ....................................................................................................... 38
12.1. Les commandes ...................................................................................................... 38
12.2. Les liaisons ............................................................................................................. 38
12.3. Les automatismes ................................................................................................... 38
13. LES CONTROLES PROPRES AUX CAMERAS EFP ............................................... 39
La camera IV
13.1. Les liaisons ............................................................................................................. 39
13.2. L'interchangeabilité ................................................................................................ 39
13.3. Les pupitres de contrôles ....................................................................................... 39
14. LES CONTROLES PROPRES AUX CAMERAS ENG .............................................. 39
14.1. Le contrôle du magnétoscope ................................................................................ 39
14.2. La mise en œuvre des caméras ............................................................................... 39
14.2.1. LES REGLAGES ET CONTROLES ............................................................. 39
15. Mise en œuvre spécifique des cameras studio EFP ....................................................... 41
16. Mise en œuvre spécifique des cameras studio eng ........................................................ 41
17. Mire de titrage ............................................................................................................... 43
La camera V
1. Le Capteur CCD
1.1. Un peu d'histoire
La première expérimentation date de 1960, quand Horton présente son scannister : c'est un réseau de
photodiodes disposées sur une ligne et balayées par une tension en dents de scie. Ce n'est qu'en 1967 que RCA
et Plessey proposent mieux : une matrice de 180 X 180 photo éléments adressés par des registres de balayage
intégrés en fines couches. L'adressage devient réalité par un registre à décalage analogique grâce aux travaux
de Sangster et Teer de Philips en 1969. Mais c'est en 1970 que Boyle et Smith de Bells labs donnent un
aboutissement à ces dix années de recherches en inventant le dispositif à transfert de charges CCD qui intègre
complètement les fonctions de conversion optoélectrique et de lecture de l'information. On assiste depuis à
une constante évolution de cette technologie qui, non contente d'avoir fait exploser le marché des caméras
grand public, tente lentement mais sûrement de s'imposer dans le domaine professionnel.
1.3. Détection
L'image optique est focalisée sur la
zone image du capteur. Chaque
cellule photosensible de cette zone
image est composée d'une épaisseur
de cristal de silicium surplombée
d'une couche de dioxyde de silicium.
Le tout est recouvert par une
électrode métallique qui sert à
polariser la cellule. Sous l'action de la
lumière, chaque photon du rayon
lumineux pénétrant dans le substrat
de silicium créera une paire électron-
trou. D'autre part, la polarisation de
la cellule donne naissance à un champ électrique qui va séparer l'électron du trou. La charge électrique ainsi
recueillie dans la zone de déplétion sera proportionnelle au nombre de photons ayant pénétré dans le substrat.
La camera Page 1
1.4. Principe du transfert des charges
On se rappelle que sur une ligne de la zone image, on compte entre 500 et plus de 700 cellules comme celle
présentée plus haut, juxtaposées les unes aux autres. La polarisation de la cellule permettant de stocker dans la
zone de déplétion la charge caractéristique de la lumière reçue.
Si l'on polarise la cellule
adjacente (celle où doit être
transférée la charge) avec une
tension plus élevée, la zone de
déplétion qui y sera créée
sera alors plus importante. De
par leur couplage, la
différence de polarisation des
deux cellules infiniment
proches crée un champ
électrique favorisant le
transfert des charges d'une
cellule vers l'autre.
L'illustration ci contre montre
mieux qu'une longue explication, comment les
charges peuvent ainsi être déplacées de cellule
en cellule, à une fréquence bien définie, jusqu'au
système de lecture.
Aujourd'hui, on distingue quatre structures
permettant le transfert des charges depuis le
pixel où elles ont été créées jusqu'au système de
lecture. Nous présentons chacune d'entre-elles.
1.4.1. Structure en XY
Ce type d'adressage est réalisé à partir de
l'association de chaque pixel à un transistor
MOS, commandé par la grille et servant
d'interrupteur.
Durant le temps d'intégration, le transistor
reste fermé. La charge alors accumulée dans
chaque cellule est ensuite transférée grâce à
l'ouverture du transistor jusqu'à
l'amplificateur de sortie. Le registre à
décalage vertical adresse les grilles des
transistors de chaque ligne permettant ainsi le
passage d'une ligne à l'autre jusqu'au registre
à décalage horizontal amenant les charges, à
la fréquence ligne, vers la sortie.
La camera Page 2
1.4.2. Structure interline transfert (CCD IT)
Dans cette structure, chaque cellule photosensible est
reliée, via un interrupteur, à un registre à décalage
vertical, lui-même aboutissant sur un registre à
décalage horizontal vers la sortie. Les senseurs sont
isolés les uns des autres par des barrières de
protection. Chacun d'entre eux est d'autre part relié à
un drain de surcharge servant à évacuer le trop plein
de charges que provoquerait un sur éclairement. A la
fin du temps d'intégration, c’est-à-dire tous les 1/50e
seconde, chaque pixel est vidé de sa charge qui est
instantanément transférée dans le registre à décalage
vertical caché par un masque opaque. Celui-ci les
achemine alors, à chaque suppression ligne, vers le
registre horizontal qui les envoie vers l'amplificateur
de sortie. Là, on dispose alors d'une analyse
échantillonnée point par point de l'image. La capacité du
drain d'évacuation est malgré tout assez limitée. Les
ondes de grande longueur (rouge, infrarouge) issues
d'une lumière intense engendreront un surplus
d'électrons trop important pour être canalisé par ce
drain d'évacuation. Ceux-ci iront directement dans les
registres verticaux où une information rouge sera donc
ajoutée au contenu initial. Ce phénomène,
communément appelé « smear » se traduira alors sur
l'image par une barre verticale rouge traversant la zone
suréclairée. Nous aurons l'occasion d'en reparler plus
loin.
On distingue par ailleurs deux façons de transférer la
charge de chaque pixel en vue de respecter l'entrelacé
du balayage TV :
Frame intégration : l'analyse d'une ligne de pixel sur
deux (soit de la moitié des pixels à chaque trame) induit
une résolution dynamique assez moyenne.
Field intégration : l'analyse de tous les pixels à chaque trame réduit, certes, la résolution verticale (l'entrelacé
est alors obtenu par la moyenne de deux points) mais rend meilleure la résolution dynamique (le temps
d'intégration, qui est de 40 ms pour la méthode frame intégration, est ici de 20 ms).
La camera Page 3
1.4.3. Structure frame transfert (CCD FT)
Cette structure est composée d'une partie dite d'analyse constituée par des photo éléments, et d'une zone de
stockage composée d'autant de joints que de pixels constituant la zone image, L'intégration des charges par les
photocapacités MOS se fait pendant une période trame. A la fin de ce temps, toutes les charges accumulées
sont simultanément transférées dans la zone mémoire.
Ensuite, ligne à ligne, elles sont envoyées dans le
registre horizontal de sortie afin d’être lues, tandis
qu'une autre trame est analysée par les photo
senseurs.
Ce système offre l'avantage de disposer d'un pas
d'échantillonnage plus important que celui de la
structure IT. Il s'affranchit en effet de la place occupée
par les registres à décalages verticaux présents dans la
structure à transfert de ligne. Le transfert de toutes les
charges dans la zone mémoire se faisant
simultanément le temps d'intégration est de 20 ms. Le
principal défaut de ce système réside dans la nécessité
d'utiliser un obturateur mécanique (shutter), afin de
masquer les photo éléments pendant le transfert des
charges de la zone image vers la zone mémoire et de
conserver la définition verticale. Le phénomène de
smear quant à lui est dû à des recouvrements entre le
temps d'analyse de l'image et le temps de transfert des
charges. La minimisation de ce temps de transfert n'est
pas suffisante, à elle seule, pour réduire ce défaut.
La camera Page 4
1.4.4.1. L'obturateur électronique
Dans le but d'améliorer les performances de la
technologie FIT, il a été conçu un obturateur
complètement électronique. Par analogie à la
photographie, il offre la possibilité de contrôler
le temps d'exposition, c'est-à-dire, pour nous,
le temps d'intégration du capteur. On peut
ainsi décider d'une durée utile d'exposition par
une modification de la durée d'obturation (les
pixels restant en permanence soumis à une
source lumineuse).
Les charges créées pendant cette durée utile
d'exposition sont, comme nous l'avons vu,
transférées rapidement dans la zone mémoire
lors de l'intervalle vertical. Cependant, les
charges créées pendant la durée d'obturation
déterminée seront acheminées par les registres
verticaux, vers un collecteur de grande
capacité les conduisant à la masse. Ainsi, le
registre de sortie ne contiendra que les
électrons crées au cours du temps d'exposition
choisi. La fréquence d'analyse, quant à elle,
reste fixée à 50 trames par seconde ; c'est la
durée de chaque instantané qui est variable. Voici comment on pourrait schématiser la réalisation d'un
obturateur électronique. Durant la phase (1 ) du signal carré (B) dite d'obturation, le transistor T est saturé. Il se
comporte donc comme un court-circuit pour les électrons non utiles qu'il conduit à la masse. Pendant la phase
(2) dite d'exposition, le transistor T est bloqué. Les électrons issus du photo senseur vont vers le système
d'échantillonnage. Signalons, même si cela semble évident, que plus le temps d'obturation est élevé (donc
temps d'ouverture faible), plus l'ouverture de l'iris devra être importante. Le tableau suivant donne un exemple
de relation entre la vitesse d'obturation et l'ouverture du diaphragme. Le phénomène de smear, quant à lui, est
aussi directement lié à la vitesse d'obturation. Il est amené à disparaître quand le temps d'exposition diminue.
1.5.1. Le smear
On a déjà parlé de ce phénomène qui permet à coup sûr, à l'image,
de reconnaître l'utilisation
d'une caméra CCD. On a vu pour chaque structure quelle en était la
cause. Pour l'atténuer, on utilise par exemple un canal dopé qui sert
de barrière de potentiel sous le registre vertical, limitant ainsi la
diffusion des charges par le canal de transfert. La structure FIT avec
obturateur est celle qui offre la meilleure protection contre le
smear.
Le blooming
C'est un défaut que caractérise un halo circulaire entourant une
surface fortement éclairée. En effet, le nombre important
d'électrons que génère une lumière intense dépassera la capacité
d'accumulation du pixel. Le surplus d'électrons ira alors trouver
refuge dans les pixels qui cerclent ceux frappés par un suréclairement. Le remède adopté pour réduire ce
phénomène réside en la création de puits de potentiel juxtaposant les pixels et permettant l'évacuation des
charges qui « débordent ».
La camera Page 5
1.5.2. Manque de sensibilité au bleu
Les ondes de longueurs proches de
celles du bleu détiennent un
pouvoir de pénétration dans la
structure élémentaire
relativement faible. Afin de
renforcer ce pouvoir de
pénétration, les constructeurs ont
choisi différentes solutions :
diminution de l'épaisseur de
l'électrode pour les uns, de celle
du substrat pour les autres
(produisant dans ce dernier cas
l'éclairement côté substrat). Sony
semble avoir considérablement
amélioré la sensibilité au
rayonnement bleu avec son
nouveau chip (ICX034AL).
1.5.3. Le bruit
On distingue deux sortes de bruits pour un capteur CCD. Tout d'abord le bruit dû à l'agitation thermique. Celle-
ci crée des charges parasites en obscurité qui constituent alors des informations fausses à la lecture. Le bruit
spatial, quant à lui est fixe. Il est causé par des imperfections de construction qui amènent des différences de
caractéristiques entre chaque pixel. Le bruit se traduit par un courant résiduel au noir. Pour le réduire, un puits
de potentiel est placé sous le registre de transfert. D'autre part on obtient un niveau de noir de référence, donc
stable en obturant une partie des pixels.
La camera Page 6
1.6. Les côtés plus des CCD
Nous ne nous intéressons ici qu'aux caméras tri-CCD qui sont les seules à pouvoir rivaliser avec les caméras à
tubes dans le domaine professionnel. Signalons toutefois à titre informatif l'existence de caméras à un ou deux
CCD, dans lesquelles l'image optique passe par des filtres mosaïque afin que son traitement puisse se faire à
partir de trois images R,V,B. Elles constituent l'ensemble du marché grand public. Nous allons à présent
exposer les différents avantages qu'apporte le CCD par rapport au tube.
Tout d'abord la taille On les complétera en indiquant que le poids (2 g) et la consommation (0,5W) d'un chip
CCD sont nettement inférieurs à ceux d'un tube (respectivement 300 g et 10W). L'alimentation est réduite à
une simple tension continue d'une vingtaine de volts alors
que les bobines des tubes nécessitaient des hautes tensions allant
jusqu'à 1000 V. D'autre part, le système d'analyse de l'image se
réduisant ici à un boîtier DIL, de nombreux avantages en découlent.
On citera notamment une bonne résistance aux chocs et vibrations,
ainsi qu'une appréciable indépendance vis-à-vis des champs
magnétiques.
Si l'on s'intéresse à présent au fonctionnement du CCD, on voit un
avantage incommensurable en la suppression des réglages de
convergences. Enfin ! Finies les corrections astreignantes à apporter
séparément à la trajectoire de chaque faisceau de balayage sur
chaque tube pour obtenir une superposition la plus correcte
possible des trois images. Terminés aussi les problèmes de
concentration et d'alignement. Avec la technologie CCD, pour
obtenir une simultanéité absolue d'analyse des trois images, il suffit
de piloter le déplacement des charges de chaque capteur par une
seule et unique tension d'horloge. Les capteurs étant fixés une fois
pour toutes en laboratoire sur le séparateur optique, la géométrie
et la super position des trois images R, V, B qu'ils fourniront ne
pourront qu'être exactes en tous points de l'écran. Il va sans dire
que le réglage du tirage des tubes n'a pas d'équivalent dans une
caméra CCD. L'analyse de la zone image de chaque capteur est donc
uniforme et identique pour les trois images R, V, B, contrairement à
l'analyse de la cible pour les caméras à tubes. De ce fait, l'image ne
sera jamais tachée dans les noirs. Les caméras CCD sont donc dispensées des circuits de corrections taches au
noir et de cornes. Très appréciable car en dépit des systèmes de corrections par microprocesseur, les caméras à
tubes les plus performantes présentaient quand même quelques distorsions qu'on était contraint d'accepter
tant leur correction se présentait inextricable. La rémanence aux faibles lumières, autre défaut du tube, était
compensée par la lumière en pluie qui éclairait en permanence la cible. Cette lumière en pluie n'a plus de
raison d'être dans une CCD. En effet, le photosenseur se vide complètement de ses charges à chaque
impulsion, ceci quel que soit le type de structure dans lequel il se trouve. Il n'y a donc plus de « mémoire de
La camera Page 7
l'image précédente ». La réponse en faibles lumières d'une caméra CCD est très satisfaisante. Parallèlement, la
rémanence du tube aux forts éclairements qui était minimisée par le circuit d'ABO ne se retrouve pas dans un
CCD. Une cellule silicium peut en effet accepter des écarts de luminance cent fois supérieurs à ce que peut
accepter la cible d'un tube. Donc pas d'effet de comète, pas de circuit d'ABO et, dans un cas extrême de très
fort éclaire-ment, pas de marquage, voire de détérioration de la zone image d'un CCD. La résolution dynamique
est aussi un atout considérable acquis par la caméra CCD, notamment grâce à l'obturateur électronique qui
permet une conservation remarquable des détails sur une image en mouvement. Sur la caméra à tubes, le
temps d'exposition n'étant pas dissocié du temps de lecture, un objet en mouvement rapide est accompagné
d'un traînage approximatif d'autant plus apparent que l'objet est lumineux. Dans une caméra CCD, le temps
d'intégration pouvant être réduit (le temps de lecture restant fixe), on obtiendra par ailleurs un ralenti des plus
piqués.
La résolution horizontale qui dépend directement du nombre de pixels sur la zone image, tend à être
améliorée. Notons enfin qu'une augmentation du nombre de pixels aura aussi pour conséquence de diminuer
le pas d'échantillonnage, donc d'augmenter la fréquence d'échantillonnage, réduisant ainsi le phénomène
d'aliasing. Subsistent encore toutes les corrections visant à compenser les défauts apportés par l'ensemble
optique de la caméra : le flare (diffraction des rayons lumineux qui ne traversent pas toutes les parties optiques
en restant parfaitement parallèles), les taches au blanc (différence de transmission des parties optiques), et le
masking (impossibilité de reproduire les lobes négatifs des courbes de sensibilités).
La compression des blancs appliquée sur le signal de plus grande dynamique fourni par une caméra CCD
contribuera à faire mieux ressortir les zones sous-exposées, noyées dans un ensemble très lumineux dont le
contraste sera conservé. Notons enfin que si la caméra CCD transforme un signal spatial en un signal temporel,
réalisant ainsi le même travail que sa grande sœur à tubes, elle délivre un signal analogique mais...
échantillonné.
Déjà une marche gravie dans l'ascension inévitable qui va tous nous mener à la télévision numérique.
La camera Page 8
2. La chaîne optique
La chaîne optique est constituée de l'objectif zoom fixé à la caméra par la monture et à l'intérieur de la caméra
d'un jeu de filtres fixes et mobiles, d'un système de séparation des couleurs et bien sûr du ou des capteurs
d'image.
La figure ci dessus illustre la chaîne optique d'une caméra broadcast standard.
La figure ci dessus illustre le schéma simplifié d'une optique avec l'iris et le doubleur de focale. L'iris est chargé
de limiter la quantité de lumière qui passe à travers l'optique, il est situé devant le groupe principal. Le
doubleur de focale est constitué d'un groupe de lentilles et s'insère entre les deux parties du groupe principal.
La camera Page 9
Une optique en télévision se caractérise par sa focale de base (position grand angle...) suivi de son rapport de
focale indiquant sa focale en position téléobjectif. La référence 14*9, par exemple, indique qu'il s'agit d'une
optique zoom dont la focale varie de 9 à 126 mm (14*9).
2.2.2. Le zoom
La variation de focale est contrôlée par la deuxième bague qui est
reliée au barillet. Celui-ci forme un cylindre contenant des rainures
avec un profil précis. Celles-ci guident les deux groupes de lentilles
du variateur, et donc, la variation du rapport de grossissement. Le
contrôle du zoom est souvent motorisé afin d'assurer des variations
de manière précise et "fluide".
2.2.3. L'iris
L'ouverture se commande par la bague de diaphragme. Un système
de lamelles à profil complexe permet, par le mouvement de ces
dernières, de faire varier la quantité de lumière avant le bloc
principal. L'assemblage des lamelles décrit un volet à diamètre
variable. Les graduations varient de 1 (pleine ouverture) à C
(fermeture). Chaque graduation étant obtenue par la multiplication
de la racine carrée de 2 (1,414) de la valeur précédente (fl, fl,4, f2,8,
f4, f5,6, f8, fll,fl6, f22, f32...).
Cette échelle complexe à manier est simplement liée à la relation entre la superficie et le diamètre de
l'ouverture de l'iris. Pour une variation de + 1,4 du diamètre, la surface aura doublé. Donc, à chaque
graduation, la caméra recevra le double de lumière (de f2 à f2,8 par exemple). Il est courant de voir aussi des
graduations plus fines qui ne sont que des sous-multiples des unités mentionnées plus haut ("demi-diaph" ou
"quart de diaph" pour les initiés). La commande de diaphragme peut être manuelle ou automatique. Dans ce
dernier cas, un système d'asservissement contrôle l'ouverture grâce à une information de niveau issue de la
caméra (voir le chapitre concernant les automatismes de la caméra).
La camera Page 10
2.2.5. Les options
Une optique pourra contenir un doubleur de focale
intégré, qui comme son nom l'indique, permet de
doubler le rapport de zoom par deux. Un 14*9
pourra donc avoir une valeur de focale maximum de
252 mm). Ce doubleur est constitué d'un groupe de
lentilles qui prend place dans le groupe optique
principal. Sa mise en position se fait par
l'intermédiaire d'un levier.
La figure ci-dessous récapitule l'ensemble des
commandes simples sur une vue extérieure
d'optique standard.
La camera Page 11
3. LA CHAINE OPTIQUE À L'INTERIEUR DE LA CAMERA
3.1. Les filtres fixes
La camera Page 12
3.1.3. Le filtre passe-bas
Contrairement au tube de prise qui délivrait un signal continu
issu du balayage de la surface sensible, les capteurs CCD
délivrent une suite d'échantillons issus du transfert des
charges de chaque point d'image du capteur (pixel). L'analyse
de l'image peut donc être considérée comme un
échantillonnage, et par ce fait, répond aux lois associées. La
première de ces lois concerne le fait que la fréquence
d'échantillonnage doit être au moins deux fois supérieure à la
fréquence du signal à analyser (loi de Shanon). La figure ci-
contre illustre trois cas de figure :
> Un échantillonnage incorrect avec une fréquence
d'échantillonnage trop basse, le résultat n'est plus
représentatif du signal original,
> Un échantillonnage à la même fréquence que le signal
original ; le signal résultat est correct dans seulement
quelques cas (Freq E en phase avec freq A) mais peut être
totalement erroné dans les cas extrêmes,
> Un processus correct (rapport de fréquence supérieur à 2) ;
le signal est représentatif du signal original même s'il
comporte encore un taux d'erreur non négligeable. Pour
revenir au sujet qui nous intéresse, la caméra CCD, il faudra
donc veiller à ce que la fréquence d'échantillonnage (le
nombre de pixels par ligne du CCD) soit au moins deux fois
supérieure à la fréquence du signal à analyser (l'image issue
de l'optique). En fait, c'est la fréquence de l'image qui est
limitée. En effet, la fabrication des capteurs ayant certaines
contraintes, il est difficile et surtout très coûteux de fabriquer
des capteurs à très très haute densité (pour la TV haute
définition, par exemple) et il serait d'autre part quelque peu
stupide que le signal en sortie de CCD ne soit pas cohérent
avec la norme TV.
La limitation de la fréquence de l'image issue de l'objectif est
effectuée par le filtre passe-bas. Les caractéristiques de celui-ci sont liées au type de capteurs ou tout du moins
au nombre de pixels du capteur pour un format d'image donné. Ce type de filtre utilise la propriété de certains
minéraux, comme le cristal de quartz ou le gypse à pouvoir
dédoubler un rayon lumineux. Cette propriété s'appelle la
biréfringence. Un rayon lumineux va se dédoubler par une
double réfraction. L'écart entre les deux points obtenus
étant lié à l'orientation et à l'épaisseur de la lamelle de
cristal. Le résultat sera de dédoubler des faisceaux
lumineux très fins alors que de larges faisceaux lumineux
ne seront que peu modifiés. Cette opération peut donc
s'apparenter à un filtrage des hautes fréquences (passe-
bas). Dans la réalité, les fabricants utilisent souvent
plusieurs couches de cristal très fines astucieusement orientées afin d'obtenir un filtrage dans tous les axes.
La camera Page 13
verrons plus loin qu'une correction électronique est complémentaire pour parfaire les réglages. Sur les caméras
ne disposant que d'une roue porte filtre, une combinaison de filtres colorés et de filtres gris permettent de
s'adapter à la majorité des cas. Une combinaison typique est :
• position 1 : 3 200° K (pas de filtre)
• position 2 : 5 600° K + 1/4 ND (filtre ambre + gris 1/4 de neutre)
• position 3 : 5 600° K (filtre ambre)
• position 4 : 5 600° K + 1/16 ND (filtre ambre + gris 1/16° de neutre).
Nous pouvons observer que la répartition permet de s'adapter aux conditions de tournage extérieur où
l'intensité est très variable. Les caméras avec deux roues porte filtres associent souvent des filtres spéciaux dits
"à effets" (filtre à étoiles).
Les roues porte filtres sont quelquefois montées sur tourelles motorisées qui sont télécommandables pour
des utilisations de studio.
La camera Page 14
3.1.6. Les capteurs d'images
Les capteurs définissent bien sûr la frontière entre l'optique et l'électronique. Pour achever la description de la
chaîne optique, un point reste à abor der. Il s'agit du positionnement des capteurs sur les blocs CCD. Les
fabricants ont rapidement trouvé une astuce pour augmenter la résolution de l'image finale. Le décalage
spatial des capteurs permet d'améliorer l'acquisition. En fait, les
capteurs bleu et rouge sont décalés en horizontal de la valeur d'un
demi pixel par rapport au capteur vert. La figure ci contre illustre
l'avantage de ce système qui fonctionne seulement parce que les
signaux RVB seront mélangés ultérieurement, dans la correction de
détail notamment. La combinaison des trois signaux issue des capteurs
permet donc d'obtenir pratiquement un échantillonnage sur le double
de points par ligne. Le traitement des trois voies étant tout de même
assez isolé ; l'augmentation de résolution apportée par ce système est
limitée.
La camera Page 15
3.2. LES CARACTERISTIQUES ET LES DEFAUTS DE
LA CHAINE OPTIQUE
La courbe de transfert de la modulation MTF comme chaque
composant, les parties optiques et notamment les objectifs ont des
caractéristiques limitées. Le MTF (modulation transfert functions)
caractérise le rapport de contraste que restitue l'optique d'alternance
noir/blanc correspondant à des fréquences données.
En bref, il s'agit de la faculté qu'a l'optique à transmettre une plage de
fréquences, la plus large possible.
3.2.1. Le vignettage
Ce défaut est visible par une non uniformité de l'image transmise. Il
peut se traduire par des bords d'image plus sombres que le centre.
Notamment, si le format de l'image délivré par l'optique est inférieur au
format d'analyse des capteurs.
La camera Page 16
3.2.5. Le traitement électronique
La figure illustre le synoptique simplifié d'une caméra CCD conventionnelle. Nous pouvons observer les grands
blocs du traitement électronique : les capteurs d'images CCD ; l'échantillonnage ; le système de pilotage des
CCD ; les différentes étapes du traitement : uniformité (tâches au noir et au blanc), les gains, le contour, le
matriçage colorimétrique, les noirs avec la correction de flare et de contre tops, le compresseur des blancs, le
gamma, l'écrêtage ; le bloc de codage avec le générateur de mire de barre ; le système de générateur de pente
et de parabole (correction de tâches) ; le générateur de synchronisation ; l'alimentation ; le viseur ; l'ensemble
d'automatismes associant les commandes et les asservissements. Les chapitres suivants ont pour objectif de
décrire les fonctions de base de chaque sous élément. Ceci sans rentrer dans les réglages traités dans le
quatrième volet. La description ne sera que fonctionnelle car une étude plus poussée dans le domaine
électronique dépasserait le stade de la vulgarisation.
3.2.6. Généralités
La camera Page 17
l'information de modulation associée au niveau de tension continue à cause des capacités associées aux
liaisons. La solution réside par une transmission de la modulation sans niveau continu entre les étapes. A
chaque étape de traitement ce niveau est restitué par les circuits de clamp. Ceci par une mise à la référence
que re présente le niveau de suppression (0,33 V) situé au-dessus du niveau de synchronisation (0 à 0,3 V). Le
niveau de modulation variant aux niveaux nominaux entre 0 et 0,7 V (niveau de vision).
3.2.6.4. L'échantillonnage
Comme nous l'avons déjà dit le CCD délivre un signal analogique et ne devrait pas nécessiter d'échantillonnage
pour une caméra analogique. Mais en fait le capteur ne délivre qu'un signal de faible amplitude mélangé à des
informations parasites liées au fonctionnement du CCD. Il faudra donc "trier" les informations utiles parmi le
signal total, c'est le rôle qu'assume un double échantillonnage corrélé. Ce mot poétique désigne une méthode
d'acquisition des informations qui élimine les informations parasites par l'association de deux circuits prélevant
chacun l'information d'une façon complémentaire. L'étape suivante consistera à une préamplification du signal
vidéo pour que celui-ci soit suffisamment élevé pour limiter les effets de signaux parasites dans les liaisons et
les cartes de traitement.
La camera Page 18
3.2.6.7. Correction de l'uniformité au noir (taches au noir)
Ce circuit permet de compenser les défauts d'uniformité de
l'ensemble de correction issus d'un ensemble générant des
signaux en forme de rampe (dent de scie) et de parabole sont
mélangés aux signaux RVB afin de parfaire un niveau constant
au noir quelle que soit la zone d'image concernée.
La camera Page 19
3.2.6.11. La correction de contour
La correction de contour est sans doute devenue un des réglages les plus significatifs dans les caméras
modernes. En effet, les caméras à tubes comportaient beaucoup d'autres réglages qui intervenaient de
manière cruciale dans le rendu de l'image ; il faut noter que les dernières générations de caméras à tubes
offraient de bonnes performances de définition. Alors qu'il a fallu améliorer les traitements de contour pour les
caméras CCD, parce qu'elles offraient des
définitions médiocres et parce que le CCD
implique, comme nous l'avons déjà
mentionné, une acquisition similaire à un
échantillonnage ; les tubes permettaient
d'avoir une analyse continue et donc des
contours de forme lissée (sans défaut
d'aliasing). Le traitement de contour appelé
aussi correction de détail a donc beaucoup
évolué afin d'apporter le "piqué" nécessaire
en minimisant les défauts associés à cette
correction. Le but du traitement de contour
est de rendre les fronts plus raides,
donnant ainsi des contours de forme
apparemment plus nets. Cette astuce
permet de rendre subjectivement de la
définition à une image. Sans cette
correction, obtenir des contours bien
marqués donc des transitions parfaites, demande, entre autres, des capteurs de très hautes densités associées
à une bonne optique et un traitement irréprochable. Mais même dans ce cas idyllique la correction de détail
permet d'ajuster le "piqué" et la texture que l'on veut donner à son image. Pour résumer, la correction de
détail est nécessaire dans les caméras courantes et elle devient un traitement additionnel à connotation
artistique pour les caméras haut de gamme. Le signal de la voie verte est prélevé comme signal de base (sur les
caméras haut de gamme les voies rouge et bleu peuvent aussi être utilisées pour la correction). Le front du
signal, dans l'exemple illustré, est volontairement incliné afin de montrer le principe de la correction. Ce signal
est retardé deux fois afin d'obtenir ainsi trois signaux décalés dans le temps. La soustraction du signal initial
(OH) par le signal retardé deux fois (2 H) afin d'obtenir un signal différentiel qui sera additionné au signal
1 H. Le résultat de cette addition montre l'apport de la correction de contour, la transition est plus accentuée
avec un pic négatif avant ce front montant et un pic positif après. Ces pics constituent le principal inconvénient
pour la qualité de l'image. Malgré le fait qu'il accentue subjectivement la netteté de l'image et surtout que l'on
s'est malheureusement habitué à ces images très "dures" (avec une définition artificielle marquée). Une partie
de signal est d'abord filtrée et modulée pour être retardée dans des lignes à retard de 64 µs pour obtenir les
signaux 1 H et 2 H. Ces signaux démodulés sont mélangés au signal initial comme décrit précédemment pour
obtenir le signal de détail vertical. Le signal 1 H démodulé est ensuite envoyé vers deux gammes de système de
retard pour élaborer le signal de correction horizontale. Le fait de travailler sur deux gammes de retards
permet d'obtenir une correction sur plusieurs gammes de fréquences. Ce traitement supplémentaire permet
de varier l'effet de la correction horizontale sur l'image ; il est d'ailleurs courant de voir aujourd'hui des
caméras utilisant trois gammes de retard. Les deux signaux de correction (horizontal et vertical) sont mixés
pour obtenir une correction équilibrée dans les deux directions. Ce réglage est communément H/V ratio. Le
résultat de ce mélange est traité par un amplificateur limiteur qui réduit l'amplitude des pics de correction. Un
La camera Page 20
réglage baptisé "Level Depend" permet de limiter la correction dans les bas niveaux, est associé à cet étage de
traitement. Le réglage de "crispening" permet d'ajuster l'écrêtage des signaux de faible amplitude, permettant
de réduire dans une certaine mesure le bruit dans l'image. Cette correction varie selon le niveau de gain utilisé
(0,9 ou 18 dB) car le bruit varie avec celui-ci. L'étage final permet de doser la quantité du signal de détail qui
sera envoyé aux trois voies RVB avant et après le traitement de gamma.
La camera Page 21
le deuxième, l'efficacité avec laquelle il va agir. Le premier s'appelle le coude (knee en anglais, ce qui signifie
genou et complique la compréhension mais c'est comme cela). Le deuxième est baptisé la pente (slope en
anglais).
3.2.6.20. L'alimentation
Ce bloc alimente tous les circuits en basse tension à partir d'une source extérieure. Ceci avec une tension
constante, quelles que soient les variations de la source extérieure (dans une certaine mesure évidemment et
cela sans protéger des inversions de polarité).
3.2.6.21. Le viseur
C'est un organe primordial car il sert à contrôler le cadrage mais il constitue aussi le seul outil de référence
pour l'opérateur (en dehors des procédures de contrôle). Il devra donc restituer le contenu de l'image avec un
contraste correct et avec une bonne résolution pour le contrôle de la mise au point. De plus les caméras
modernes permettent d'afficher de nombreux paramètres liés à la prise de vue et au bon fonctionnement de
la caméra (gestion des alarmes). Le viseur comprend une alimentation haute tension pour alimenter le tube
cathodique qui reste le composant le plus performant pour un contrôle précis de l'image.
L'ensemble d'automatismes associe les commandes et les asservissements. C'est aujourd'hui le cœur (ou la
tête !) des caméras modernes. Il gère l'ensemble des commandes, des automatismes (l'asservissement de l'iris,
par exemple) et le contrôle des circuits. On peut considérer que le système d'automatismes gère l'interface
La camera Page 22
entre l'opérateur et le traitement électronique de la caméra. Il intègre aussi la mise en forme et le contrôle des
informations visibles dans le viseur (générateur de caractères et contrôle des voyants d'alarmes).
La camera Page 23
4.1.1. Production
La camera Page 24
Les caméras portables avec optiques lourdes constituent aujourd'hui une configuration très populaire. Si ce
sont les fabricants d'optiques qui ont introduit des châssis mécaniques permettant de fixer une caméra
portable sur une optique lourde, nombre de fabricants de caméras proposent dans leur catalogue des châssis
de ce type. Ceci en optimisant cette configuration par des circuits électriques et des options mécaniques
intégrées au châssis. L'avantage de cette solution est bien sûr de pouvoir configurer sa caméra en fonction du
besoin (lourde ou portable).
Ces configurations doivent associer, en dehors de l'optique et de la caméra, le châssis mécanique et un boîtier
d'alimentation en énergie pour l'optique. Certains châssis intègrent des circuits électroniques supplémentaires
et une fixation pour des viseurs de grande taille, permettant ainsi de disposer, si la caméra intègre certaines
fonctions, de configurations similaires aux caméras lourdes pour l'exploitant.
4.2.1. GENERALITES
Ces caméras sont, comme il a été
mentionné dans le chapitre précédent,
destinées à être traitées par une régie de
mélange vidéo. La sortie de cette régie
étant directement reliée à un émetteur lors
des émissions en direct et/ou à des
magnétoscopes pour une diffusion
ultérieure ou des archives. L'utilisation de
plusieurs caméras simultanément entraîne
un certain nombre de contraintes :
> Le raccord colorimétrique. Comme les
caméras, la plupart du temps, filment les
mêmes objets dans un seul décor et que la
commutation entre les caméras est
souvent rapide, il est nécessaire que la
restitution des caméras entre elles soit
absolument parfaite pour que l'œil ne
puisse percevoir de différences entre les
différents points de vue de la scène filmée.
En effet si l'œil ne peut que difficilement
percevoir de petites différences de restitution de deux scènes différentes ou la restitution d'un objet avec un
certain décalage de temps, il est très sensible aux variations de teintes et de contrastes. Comme dans le cas
d'un tournage multicaméras les images s'enchaînent rapidement, il est donc nécessaire de parfaire les réglages
des caméras en direct pour minimiser les différences de restitution. Pour cela les caméras doivent être
parfaitement étalonnées avant le tournage et réglées en direct par un ingénieur vision car de nombreux
paramètres interfèrent sur le rendu de la caméra (optique, types d'éclairage, lumières incidentes, rendu des
matières).
• L'interfaçage avec la régie. En plus du signal noble de la caméra à destination du mélangeur vidéo, il
faut associer les sorties vidéo destinées aux contrôles techniques, les entrées de signaux de
synchronisation pour verrouiller les caméras sur une même référence car toutes les sources en entrée
La camera Page 25
de mélangeur doivent être
synchrones. Il faudra aussi
interfacer la caméra avec le réseau
d'interphonie pour que les
cadreurs puissent communiquer
avec la régie, de la même manière
la voie de commande doit
échanger les signaux de
commande issus des pupitres de
réglages.
• La liaison avec la voie de
commande. Les contraintes de
tournage ne cessent de croître et
la distance entre les caméras et la
régie est de plus en plus grande.
Les caméras doivent donc intégrer
des circuits complexes pour gérer des liaisons qui dépassent souvent le kilomètre.
4.2.2. Configurations
Le synoptique de la figure 2 décrit une structure typique de caméra de studio.
• Les caméras
La caméra lourde est dans une configuration typique alors que la caméra portable bien qu'associée à une
optique légère est dans une configuration fixe car elle est équipée d'un viseur EFP. Ce viseur de taille moyenne
(écran de 12 cm) permet à un opérateur de manipuler confortablement la caméra sur trépied à l'aide des deux
déports de commande de l'optique (mise au point et zoom) fixés sur les deux branches de la tête du trépied.
Une configuration EFP légère est aussi souvent pratiquée. Elle consiste à utiliser le viseur à l'œilleton. Le
cadreur ajustant la mise au point avec la main gauche directement sur l'optique. La commande de zoom étant
elle gérée par un déport de commande situé sur une branche de la tête du trépied. Cette position ou
l'opérateur se trouve sur le côté de la caméra permet de pouvoir passer rapidement en position portée car il
suffit de déconnecter la commande de zoom avant de désolidariser la caméra du trépied. Il faut noter que la
dimension du viseur en version fixe est importante, car en cas d'utilisation d'optique lourde les dimensions des
déports de commande obligent le cadreur à s'éloigner de la caméra. Dans ce cas un viseur de 18 cm est
souhaitable.
• La liaison
Le type de liaison diffère avec le niveau de gamme des caméras ; en institutionnelle les versions
multiconducteurs sont très répandues. En broadcast se sont les versions triaxiales qui sont souvent préférées
{voir chapitre liaisons). La liaison entre la voie de commande et la caméra véhicule l'ensemble des signaux
nécessaires à la caméra, toutes les sorties utilisables de celle-ci, ainsi que tous les signaux d'interphonie et
l'alimentation en énergie de la caméra.
• Les voies de commandes
Leur rôle est double. Premièrement elle permettent de corriger et d'adapter les signaux en fonction de la
longueur et du type de liaison utilisée vers la caméra. Deuxièmement, c'est l'interface avec tout
l'environnement technique. La voie de commande doit donc intégrer toute la connectique et les circuits de
correction et de modulation pour permettre à la caméra d'échanger ces signaux avec la régie et la salle
technique.
• Les pupitres de correction colorimétrique
Ces pupitres permettent d'ajuster les réglages de caméras pendant la prise de vue. Il y a autant de pupitres
colorimétriques que de caméras car rien ne remplace pour l'exploitant le fait d'avoir un repère physique par
caméra et par réglage. Si certaines tentatives de pupitres centralisés de correction ont bien été faites, elles ne
font pas, loin s'en faut l'unanimité.
• Le pupitre de réglage centralisé
En opposition au pupitre de correction, le pupitre de réglage permet d'ajuster les caméras non pas pendant
mais avant la prise de vue. Le fait de pouvoir grouper des commandes à destination de plusieurs caméras peu
permettre alors une plus grande souplesse d'exploitation. Certains de ces pupitres permettent de recopier des
valeurs de correction d'une caméra sur une autre, cette fonction, forte utile, prend toute sa dimension lorsque
les caméras utilisent des traitements numériques (référence stable). La plupart de ces pupitres de réglage
centralisés intègrent des fonctions de visualisation de message d'erreurs et d'auto diagnostique. Ces pupitres
sont destinés aux réglages techniques alors que les pupitres de corrections colorimétriques seront associés aux
réglages à connotations artistiques. Si ces pupitres sont peu populaires en France, ils trouvent leur place chez
nos voisins et sont souvent utilisés comme poste de responsable technique en tant que "superviseur". Il peut
La camera Page 26
contrôler globalement les réglages des caméras pendant le direct. Cette utilisation est efficace en cas de
tournage où le nombre important de caméras implique la présence de plusieurs ingénieurs vision gérant les
pupitres de correction colorimétriques, le responsable technique permettant alors d'assurer l'homogénéité des
différents groupes de caméras.
Les liaisons entre les pupitres et la voie de commande varient beaucoup en fonction des constructeurs. Les plus
modernes intègrent des bus de commande de type informatique avec identification de chaque pupitre comme
élément du réseau.
La camera Page 27
plus avoir un retour d'écoute du programme audio en sortie de console audio. Des circuits annexes permettent
de "ramener" à la régie des liaisons audio afin d'optimiser le nombre de câbles à tirer, ce qui est très
appréciable en tournage extérieur. De la même manière une sortie vidéo associée à une sortie de puissance
permet de brancher un moniteur de faible consommation sur le terrain.
• La salle technique
C'est là où se trouve la voie de commande. En décrivant l'ensemble des liaisons y étant raccordées nous allons
pouvoir appréhender finement les détails de raccordement de la caméra. Tout d'abord les signaux de sortie de
la caméra sont :
o La ou les sorties nobles à destination du mélangeur.
o Les sorties de contrôle pour le moniteur et l'oscilloscope (avec un signal de commutation associé
pour voir les trois signaux de base sur l'écran de l'oscilloscope). La ou les sorties audio
(modulation passant en transit par la caméra où issue du micro intégré à la caméra). Les signaux
de sortie se répartissent de la manière suivante :
o Entrée "genlock", signal de synchronisation (référence).
Retour trucage, issu du mélangeur, permet éventuellement au cadreur de visionner dans le viseur une image
de préparation permettant d'ajuster un cadrage de la caméra qui se situe dans une image composée par le
mélangeur vidéo.
Ecoute programme ; c'est la modulation à destination des casques d'interphonie de la caméra pour l'écoute du
son final.
o Le signal "Tally" ; c'est un signal de commande issu du mélangeur vidéo qui permet au cadreur et aux
personnes filmées de savoir qu'elles sont sélectionnées dans la composition de l'image finale du
mélange vidéo (elles sont à l'antenne). Ceci par le moyen de voyant de couleur conventionnellement
rouge qui s'illumine (d'où le terme le rouge antenne). Les liaisons bidirectionnelles se définissent ainsi
o Les liaisons d'interphonie ou liaisons d'ordre qui permettent de communiquer pour la coordination
artistique (post production), les aspects techniques et bien sûr les postes de cadreur et d'assistant.
Les liaisons de commande avec les pupitres de correction colorimétrique ou le pupitre de réglage centralisé.
• Les liaisons caméra.
4.3. Reportage
La camera Page 28
reportage du monde entier. Si le fait d'avoir à immobiliser la caméra complète pour une panne d'une des
parties, a provoqué aux débuts la réticence des utilisateurs, leurs avantages (poids, encombrement...) et leur
fiabilité ont permis d'imposer ce type de caméscope sur le marché.
Les caméras scientifiques sont elles aussi répertoriées en deux catégories un peu arbitraires car certains
constructeurs proposent des caméras compactes de petites dimensions que l'on associe à la catégorie des
caméras miniatures dites "paluche".
4.3.3.1. GENERALITES
Après les structures complexes des cameras EFP type "usine a gaz" nous allons étudier les caméras de
reportage. Si l'utilisation d'une caméra isolée directement raccordée à un enregistreur semble infiniment plus
simple il ne faut pas oublier que les configurations ENG doivent être autonomes et il faudra donc pouvoir
gérer contrôler l'ensemble de la chaîne vidéo (l'acquisition à l'enregistrement). Nous alIons donc parcourir les
configurations 1es plus typiques et l'environnement d'une caméra de reportage. Le prochain article nous
éclairera plus précisément sur l'aspect de mise en œuvre et sur les réglages associés à ces caméras.
4.3.3.2. Configurations
La figure 4 illustre les trois principaux types de caméras de reportage : La caméra avec enregistreur séparé. Les
techniques des magnétoscopes n'ont permis que récemment d'avoir des enregistreurs de petit volume, c'est
l'avènement du betacam ou du format m qui date d'une dizaine d'années qui a en effet permis d'associer dans
un ensemble compact la caméra et magnétoscope. Avant les utilisateurs avaient recours à un ensemble caméra
d'un côté magnétoscope de l'autre réunis par une lia son multiconducteur.
Cette configuration reste toutefois utilise pour différentes raisons :
• Optique
Sur les optiques légères il est possible d'utiliser des "matte box" qui peuvent recevoir des filtres de toutes
natures en plus des filtres directement adaptables sur l'optique.
• La prise de son
Les caméras de reportage peuvent être associées directement à des micros (en plus du micro directement fixé
sur le viseur) ou recevoir le signal mélangé issu d'une mixette gérée par un ingénieur du son. La liaison avec la
mixette pouvant être filaire ou HF par l'intermédiaire d'un émetteur/récepteur. Il est à noter qu'une entrée
micro peut également être associée à une liaison HF.
• L'énergie
C'est un problème primordial, compromis entre le poids et l'autonomie. Les sources d'alimentation pouvant
être des batteries directement fixées à la caméra, des ceintures-batteries raccordées par un cordon ou une
alimentation secteur dans le cas de tournage fixe.
Enregistrement extérieur
Il est quelquefois possible de raccorder un deuxième magnétoscope pour assurer un enregistrement de
sécurité ou pour augmenter l'autonomie de l'enregistrement.
• Le contrôle
Un moniteur peut être associé pour que des personnes autour de la caméra puissent contrôler l'image. Une
télécommande de réglage peut aussi dans certains cas permettre d'affiner le réglage de la caméra avec un
contrôle sur le moniteur.
La camera Page 29
4.3.3.4. Tournage multicaméra en ENG
C'est une configuration qui permet en gardant une structure légère de filmer avec plusieurs caméras une
scène. Les équipements de contrôle décrits au chapitre précédent (moniteur et pupitre de réglage) sont
interconnectés afin de constituer un poste de contrôle technique. Il est en effet possible, pour les raisons
décrites au début du chapitre EFP, de contrôler finement toutes les caméras entre elles si elles filment le
même sujet. Ceci étant surtout vrai avec des caméras analogiques, les caméras à traitement numérique
permettant de reproduire plus facilement la restitution de plusieurs caméras par recopie des fichiers de
réglages.
4.4. Scientifiques
4.4.3. Descriptions
Ces caméras permettent par leur petit volume et leur prix limité de multiplier les points de vue lors d'un
tournage multicaméra ou de disposer des caméras dans des endroits inaccessibles pour les caméras
conventionnelles. Si ces avantages ont permis d'obtenir des images spectaculaires elles ont toutefois un certain
nombre d'inconvénients :
• La qualité
Il n'y a pas de secret, le faible encombrement et le prix implique une baisse de qualité par rapport à des
caméras conventionnelles professionnelles. Le fait qu'elles n'utilisent souvent qu'un CCD de petite taille est
déjà un paramètre important en terme de rendu d"image. Pour cela leur exploitation est souvent associée à
des prises de vue complémentaires passant rapidement au mélange final.
• Le type de signaux prévu pour des utilisations scientifiques ; il faut souvent convertir leurs signaux
dans des configurations. Par exemple, leurs sorties sont souvent RVB alors que la plupart des régies
utilisent des signaux YUV ou numériques.
• Les formats optiques
Ces caméras utilisent des optiques tiers de pouce ou demi pouce en monture C (voir chapitre suivant) alors que
les caméras broadcast utilisent souvent des optiques 2/3 de pouce à baïonnette. Ceci oblige, bien sûr, à utiliser
ces caméras avec leur format d'origine en prenant bien soin de contrôler l'angle de prise vue pour chaque
application.
• Les automatismes
Les utilisations scientifiques demandent des images exploitables dans la majorité des cas alors que les
utilisations TV impliquent d'abord la qualité et l'homogénéité entre les caméras. Il faut donc prendre un soin
particulier à déverrouiller les automatismes de ces caméras qui, si ils rendent de grands services pour leur
utilisation première, impliquent des variations de restitution souvent inacceptables en télévision.
La correction "auto white", par exemple, optimise la balance des blancs en continu pour restituer la teinte la
plus claire comme un blanc, même si aucun blanc ne se trouve dans l'image !
La camera Page 30
5. Les optiques
5.1. Les formats d'optiques
En dehors de leur type par application (voir chapitre suivant) les optiques se caractérisent par plusieurs
paramètres : La valeur de focale de base : Elle s'exprime en mm et correspond à l'angle d'ouverture de champ
par rapport à la dimension du capteur (une optique avec un focale de 9 mm sur une caméra 2/3 de pouce
donnera un angle de prise de vue d'environ 52° alors que la même optique donnera un angle de 44° sur une
caméra 1/2 pouce).
Pour rappel, l'angle de champ est égal à :
Angle de champ = 2 tangente (taille du capteur/focale).
• Le rapport de zoom
Pour les optiques à focale variable (zoom) il exprime le rapport entre la focale de base et la focale maximum.
Un 15*9 aura donc comme focale de base 9 mm et comme focale maximum 135 mm (15*9= 135 mm).
• La monture
C'est le type de fixation de l'optique sur la caméra. Elle est de deux types à vis sur les caméras scientifiques
(monture C) et à baïonnette sur les caméras TV (Monture K). Ces types de monture varient en fonction du
format d'image.
• Le format d'image
Les optiques sont prévues pour un type de caméra caractérisé, entre autres, par son format de capteur. Il
faudra donc prendre soin à ce que l'optique soit adaptée à la caméra, non pas seulement pour le problème de
monture (voir paragraphe suivant) mais aussi par le format de ces capteurs. Il est possible dans certains cas
d'adapter les optiques, en utilisant, par exemple, une optique 2/3 de pouce sur une caméra avec capteur 1/2"
car la couverture de champ de l'optique est supérieure à la dimension des CCD (l'angle de prise vue serait
toutefois modifié dans le rapport des tailles de CCD. Le cas contraire (une optique 1/2" avec une caméra 2/3")
impliquerait une mauvaise couverture de champ qui se traduirait par un vignettage très visible
(assombrissement des bords l'image). Rappelons pour information que la taille des principaux formats est :
o CCD 2/3" > Horizontal = 8,8 mm ; Vertical = 6,6 mm > Diagonale = 11 mm
o CCD 1/2" > Horizontal = 6,4 mm ; Vertical = 4,8 mm > Diagonale = 8 mm
• le rapport entre les deux formats ainsi définis est de 27,2 %
Le tirage optique détermine la distance entre la dernière lentille de l'optique (la plus proche de la caméra) et le
capteur d'image (plan film ou surface sensible). Le tirage mécanique détermine lui la distance entre le plan
d'appui de l'optique et le plan film. Le tirage est donné dans l'air, ce qui ne correspond pas à une réalité
physique en pratique car entre l'optique et les capteurs se trouvent bien sûr les filtres et le séparateur
dichroïque. Le tirage est une donnée importante car il est possible d'adapter des optiques en rallongeant la
distance de tirage par des bagues mais l'inverse nécessite des convertisseurs de champs optique (à moins de
taper très fort mais nous ne garantissons pas le résultat). Il est à noter que le tirage optique est ajustable par le
réglage du même nom et qu'il permet de parfaire la bonne adaptation de l'optique sur la caméra. Tirage dans
l'air des principales montures :
• C 2/3" = 17,52 mm
• K 1/2" = 38 mm
• K 2/3" = 48 mm
La camera Page 31
6.2. Les optiques portables
Ces optiques sont limitées en rapport de zoom bien que les derniers progrès des verres optiques ont permis
d'atteindre des caractéristiques très intéressantes (entre des grands angles de focale 5,2 en 2/3" ou des
rapports de zoom de plus de 20 fois). Ces optiques sont alimentées en énergie directement par les caméras
portables.
7. Les liaisons
Nous avons déjà évoqué les deux types de liaisons filaires que sont les liaisons triaxiales et les liaisons
muliticonducteur. Nous clôturerons ce chapitre et cet article avec une description sommaire des liaisons sans fil
(hautes fréquences).
La camera Page 32
7.3. Les liaisons sans fil
Depuis quelques années ce type de liaison est de plus en plus utilisé. Elles permettent de s'affranchir du câble
qui réduit la mobilité ou de transmettre des images sur de grandes distances. Leurs coûts et la complexité de
leur mise en œuvre en limitent toutefois l'utilisation. En effet, les gammes de fréquences qu'elles utilisent, 1,5
à 3,5 GHz demandent beaucoup de savoir-faire pour les personnes qui les mettent en œuvre. Les gammes de
fréquences qu'elles utilisent nécessitent d'avoir des liaisons point à point sans obstacle, ce qui n'est pas
toujours aisé à mettre en œuvre. Chaque type de liaison HF possède ses avantages et ses inconvénients :
• La liaison fixe permet d'avoir une bonne efficacité car la liaison est directive mais la liaison fixe ne peut
s'appliquer que dans certains cas.
• La liaison directionnelle avec suivi automatique est sans doute la solution la plus élégante mais reste
très coûteuse à fabriquer.
La liaison directionnelle avec suivi manuel permet de profiter des avantages de liaison directionnelle sans le
coût de fabrication du suivi automatique, mais elle oblige à des dépenses de fonctionnement plus importantes.
De plus, leur exploitation demande un personnel performant.
La liaison omnidirectionnelle est simple à mettre en œuvre et utilise des équipements plus simples à fabriquer
mais la faible performance de la liaison demande une grande puissance de transmission et donc une
consommation en énergie accrue.
Les solutions résident donc dans le panachage des types de transmission qui sont :
• Emission directionnelle avec suivi manuel/réception omnidirectionnelle afin d'optimiser la liaison sans
avoir besoin de trop de puissance à l'émission (et donc de porter des batteries trop lourdes).
• Emission avec suivi automatique/réception avec suivi manuel, cette liaison directionnelle est très
efficace car elle permet à l'opérateur d'être autonome tout en gardant
une bonne qualité de liaison. Mais l'émetteur miniature avec suivi automatique reste cher et difficile à
fabriquer.
La camera Page 33
important de vérifier plusieurs fois chacune des directions afin d'optimiser le réglage. Un compromis sera atteint
quand l'image sera la plus uniforme possible. Il existe quelques fois des signaux de correction additionnels qui
affectent seulement les bords extrêmes de l'image (souvent baptisés "cornes").
8.8. Le flare
Cette correction permet de corriger le niveau de noir en
fonction du contenu de l'image. Cet étage compense entre
autre la diffusion optique dans l'objectif et le bloc des
capteurs en évitant qu'une zone de fort niveau affecte le
niveau de noir. Le réglage typique utilise deux mires : une
constituée de 10 % de blanc et 90 % de noir (le velours noir
collé sur du polystyrène expansé, par exemple) et la
suivante avec 90 % de noir et 10% de blanc. Le niveau de
noir devant rester stable dans les deux cas. L'utilisation
d'une seule mire peut suffire. On fait alors varier le rapport
noir/blanc en faisant bouger la caméra. Cette opération
permet de vérifier non seulement les valeurs extrêmes mais aussi les valeurs intermédiaires. Il faut toutefois
prendre garde aux rayons incidents de l'éclairage qui en variant peuvent modifier le taux de flare.
La camera Page 34
8.9. Le Gamma
Ce réglage s'effectue sur une mire avec une échelle de gris. En ajustant le niveau vidéo correspondant au fond
de la mire à une valeur donnée (plus ou moins 420 mV en général). Ce réglage affecte donc les zones
intermédiaires du signal. La pente initiale de gamma peut être aussi ajustable pour les valeurs de signal
proches du noir. Son réglage est un compromis entre la restitution des bas niveaux et le niveau de bruit
apparent dans l'image.
La camera Page 35
8.14. Les réglages auxiliaires
• Le niveau de Zebra : Ce réglage permet de fixer le niveau vidéo à partir duquel le circuit de Zebra va
commencer à hachurer les zones prédéfinies correspondant au niveau de blanc ou aux teintes chair
claires. Ceci uniquement dans le viseur. Il peut s'ajuster sur le signal de mire de barre visualisée dans le
viseur.
• L'iris automatique : Deux réglages permettent de régler l'asservissement de l'ouverture de la bague de
diaphragme en automatique. Le premier permet d'ajuster l'amplitude de contrôle par rapport au niveau
vidéo. >Le deuxième réglage permet de faire un compromis entre la valeur moyenne du signal et sa valeur
crête. Ces deux réglages permettent de restituer un niveau d'iris convenable pour la majorité des cas de
tournage. Il est utile d'avoir pris des repères afin de restituer rapidement un réglage satisfaisant car le
compromis n'est pas toujours aisé à trouver. Une mire sur fond noir, que l'on filme avec plusieurs types de
cadrage en prenant des repères de position de bague d'iris, est une opération simple et efficace. Les
réglages du viseur et de l'optique seront décrits dans le chapitre La mise en œuvre des caméras car ils
concernent essentiellement des opérations à la charge de l'opérateur.
La camera Page 36
9.3. La résolution
Comme la sensibilité, deux valeurs sont souvent données. La première est la résolution en lignes TV, elle se
mesure sur une mire de résolution où l'on vérifie quelle est la fréquence maximum que la caméra restitue.
C'est-à-dire, pour que la modulation restituée soit au moins de 5% du niveau d'amplitude maximum. La
deuxième valeur s'exprime en taux de modulation de la caméra. C'est cette mesure qui est employée en
broadcast. Elle s'effectue de la manière suivante : sur une mire multifréquence, on ajuste le niveau vidéo pour
que le niveau nominal corresponde au pavé de basse fréquence (0,5 MHz) . On mesure l'amplitude relative de
la restitution du pavé de fréquence à 5 MHz. Cette mesure effectuée sans correction de contour s'exprime
donc en taux de modulation à 5 MHz (valeur typique 65 % en RVB au centre de l'image, ce qui correspond à
une résolution d'environ 700 lignes TV).
10. FIABILITE
10.1. Réaction aux vibrations
Bien que difficiles à appréhender quelques opérations simples peuvent mettre en évidence des problèmes de
jeunesse. La mise en évidence de faux contacts peut être décelée, par exemple, en observant la réaction de la
caméra lorsque, à l'aide d'un maillet en caoutchouc on donne de petits coups à différents endroits de la
caméra (attention à la présence du mot "petits" devant "coups" qui apporte une nuance non négligeable).
Cette opération est à déconseiller avec les magnétoscopes mais peut être appliquée avec précaution sur les
têtes de caméra EFP.
10.2. Connexions
Le contrôle des connexions peut être rapidement effectué en manipulant plusieurs fois celles-ci.
La camera Page 37
10.3. Tenue en température
Le passage en étuve, bien que laborieux, est aussi une étape
possible de la recette avec deux paramètres variables : la
température et le taux d'humidité. Il faut noter que les
indications contenues dans les notices en matière de taux
d'humidité sont données sans dépose de condensation (dépose
qui se produit lorsque la température baisse rapidement dans
une atmosphère humide). Ce test peut aussi permettre de
vérifier la bonne tenue en température des réglages.
11. L'OPTIQUE
11.1. Contrôle de pièces mobiles
Ce test sera effectué en manipulant l'ensemble des commandes
de l'optique en position manuel et par l'intermédiaire des
servomoteurs.
Une attention particulière sera portée à la fluidité des commandes et surtout au bruit produit par les pièces
mécaniques ou électriques de l'objectif. En effet, l'objectif est le seul élément qui fait du bruit dans une caméra
sans enregistreur (en dehors des circuits d'intercommunications et des opérateurs eux-mêmes !). Un niveau
sonore excessif de l'optique pourrait être très gênant dans certaines configurations de tournage.
11.2. Le viseur
La camera Page 38
13. LES CONTROLES PROPRES AUX CAMERAS EFP
13.1. Les liaisons
Comme le précédant article nous l'a montré une configuration EFP comprend de nombreuses liaisons au niveau de la
tête de caméra et de la voie de commande. Les tests de chacune d'elles seront effectués avec le contrôle des
niveaux. Les liaisons d'intercommunications seront testées avec les casques qui seront utilisés avec la caméra. La
liaison entre la caméra et la voie de caméra (triaxiale ou multiconducteur) sera testée avec plusieurs longueurs.
13.2. L'interchangeabilité
Un contrôle des systèmes sera effectué en échangeant les têtes de cameras avec les voies de commandes et
les adaptateurs éventuels afin de s'assurer de la bonne homogénéité de l'ensemble des réglages.
La camera Page 39
14.2.1.1.4. Le réglage du viseur
Le viseur constitue l'élément de référence pour le cadreur. Spécialement en cas de tournage en reportage qui ne
comprend que rarement des systèmes de contrôle extérieurs à la caméra. L'opérateur devra donc vérifier l'état de
son viseur avant la prise de vue :
• Le réglage vidéo : avec une mire de barre visualisée dans le viseur on prendra bien soin d'ajuster le réglage
de Brightness et de Contrast afin que l'échelle de gris soit bien contrastée et linéaire.
• Le réglage de Peaking : ce système peut aider à la mise au point en accentuant les contours mais peut se
révéler dangereux s'il n'a pas été vérifié avant le tournage. En effet, la correction peut être très efficace et
le cadreur, s'il n'est pas habitué, trouvera toutes ses images bien définies. Même si, en fait, la plupart
d'entre elles seront vite considérées comme floues à la relecture. Les opérateurs ont donc le reflex de
manipuler la correction de Peaking pour jauger son efficacité avant de filmer.
Les viseurs dits sportifs, avec visée oculaire, possèdent un réglage de dioptrie qui permet de compenser les carences
des opérateurs. Le réglage de la bague de dioptrie peut être simplifié en optimisant la visualisation des caractères
restitués dans le viseur.
La camera Page 40
15. Mise en œuvre spécifique des cameras studio EFP
Les systèmes de tournage multicaméra sont associés à des équipements déjà décrits dans le précédent article. La
complexité des systèmes actuels a l'avantage de mettre à disposition des techniciens de nombreuses possibilités de
réglages. Certains d'entre eux sont délicats à maîtriser, le plus grand soin devra donc être apporté aux réglages
préliminaires. Les réglages d'exploitation (pendant le tournage) concernent essentiellement les balances
colorimétriques, l'iris et le niveau de noirs. Les pupitres colorimétriques donnent aussi accès aux circuits de mémoires
de scènes, aux roues portes-filtre... mais aussi à des réglages primaires comme le niveau de gamma, le knee, ou le
black strech qui modifie la pente initiale de gamma. Avant le tournage EFP, il faudra ajuster :
• Le phasage de la caméra par rapport à la régie en phase luminance et sous-porteuse (en
analogique).
• Les réglages de base, caméra par caméra mais aussi vérifier les réglages des caméras entre elles.
• La mise en mémoire éventuelle de mémoires de scènes qui peuvent êtres préparées pendant les réglages
ou les répétitions. Ces mémoires de scènes permettent de restituer l'ensemble des réglages d'exploitation
de la caméra.
Et vérifier l'ensemble des liaisons de la voie de commande vers la régie et toutes les liaisons vers la caméra,
avec par exemple :
• L'essai des circuits d'interphonie.
• Le test de commande de l'optique (iris).
• Le retour vidéo vers la caméra.
• Le signal de rouge (dans le viseur et devant la caméra).
Il faudra aussi contrôler l'état des circuits de commande des pupitres et étalonner ses équipements de contrôle
comme le moniteur et les oscilloscopes.
La camera Page 41
La camera Page 42
17. Mire de titrage
La camera Page 43