Introduction au Multimédia
Année Universitaire 2023-2024
ASWR
Introduction au MULTIMEDIA
Profil : Licence Informatique Niveau : 1 Durée :
13 semaines
Option : ASWR Heures /Semaine : 2h00’’
cours
Objectif : Se familiariser avec le concept de multimédia et connaitre les
principes de fonctionnement de chaque type de média comme le son,
image et vidéo et les appliquer.
Pré requis : connaissances générales en informatique de base.
Moyens pédagogiques :
• Vidéo projecteur, tableau
• Exposé oral,
• Support de cours et TP
Sommaire
CHAPITRE 1 : LE MULTIMEDIA
1. DEFINITIONS ...............................................................................
.......
2. LES TYPES DE
MEDIA .........................................................................
3. DOMAINES D’APPLICATIONS
MULTIMEDIA..................................... 4. COMPOSANTES DE BASE
: ...............................................................
CHAPITRE 2 : L’IMAGE
1. NOTION DE
COULEUR : ....................................................................
2
Introduction au Multimédia
2. NOTIONS
IMPORTANTES. ..................................................................
3. LES DIFFERENTS MODES
COLORIMETRIQUES. .................................
4. LA REPRESENTATION ET LE CODAGE DES
COULEURS ....................
5. DESCRIPTION
D’IMAGE ....................................................................
6. FORMAT
D'IMAGES ...........................................................................
7. COMPRESSION DE
DONNEES ..........................................................
CHAPITRE 3 : LE SON
1. PROPAGATION DU
SON .................................................................
2. CARACTERISTIQUES DU
SON .........................................................
3. LE TRAITEMENT DIGITAL DU
SON ....................................................
4. LA LECTURE EN
CONTINU ...............................................................
Département Technologies de l’Informatique
5. LA CARTE DE
SONS ..........................................................................
6. LES FORMATS
AUDIO .......................................................................
7. CINEMA
MAISON .............................................................................
8. LE SON
MULTICANAL .......................................................................
9. COMPRESSION DES
SONS ...............................................................
Introduction au Multimédia
CHAPITRE 4 : LA VIDEO
1.
GENERALITES ..............................................................................
...... 2. LA COMPRESSION
VIDEO ...............................................................
3. LES FORMATS
VIDEO .......................................................................
4. QUELQUES SUPPORTS DE LA
VIDEO ...............................................
Chapitre I : Le multimédia
Enoncé de l’objectif général : Présenter les concepts généraux du
multimédia, définir multimédia et son centre d’activité et les normes
générales
Objectifs Elément de contenu Moyens Méthodolog
spécifiques ie
Ce cours vise à :
Présenter la • • Définir média Tableau Formative
multimédia • Enumérer les médias et
Présenter le multimédia support
•
de cours
Présenter les applications
multimédia
Définir les • Enumérer les périphériques Tableau Formative
concepts d’acquisition et
généraux • Enumérer les périphériques support
de stockage, entrée et de cours
sortie
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 3
4
Département Technologies de l’Informatique Introduction au Multimédia
Le multimédia
Le multimédia est apparu vers la fin des années 1980, avec les
vidéodisques analogiques pour stocker des images, vidéo et son.
La première réalisation numérique est faite avec Hypercard de
Macintosh d’Apple.
Il faudra attendre la fin des années 1990 avec l'arrivée de méthodes
de compression de son et de vidéo, ainsi qu'une certaine montée en
puissance des ordinateurs personnels, pour atteindre simultanément des
qualités semblables aux différents autres médias réunis.
Aujourd'hui on utilise le mot multimédia pour désigner toute
application utilisant ou servant à travailler sur au moins un média
spécifique.
1. DEFINITIONS
:« Technologie de l’information permettant la manipulation simultanée de
sons, d’images et de textes, au moyen d’un seul ensemble informatique et
de façon interactive ».
Il faut faire la différence entre le contenant : ordinateurs, matériels,
câbles..., et le contenu : l'information délivrée, transmise, diffusé.
2. LES TYPES DE MEDIA
Une caractéristique importante d’un système multimédia est le traitement
intégré de plusieurs types de données appelés médias qui peuvent avoir
une dépendance temporelle (médias continus) ou une indépendance
temporelle (médias discrets).
a. Définition Média
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 5
Département Technologies de l’Informatique Introduction au Multimédia
Un média est un moyen de présenter ou de communiquer des informations
(texte, image, son, vidéo…). Chaque média possède un moyen de stockage
comme le papier pour le texte et les cassettes pour la vidéo
Le média digital est la représentation des médias par les systèmes de
l’information qui sera manipulé, sauvegardé ou transmise par un réseau
informatique
b. Types de données
Plusieurs modes de représentation des données multimédia sont possibles,
elles concernent :
i. Les données de
type texte
Le texte est souvent la forme de donnée la plus utilisée dans une
application. Seules quelques applications hautement spécialisées pourront
se passer de texte. La saisie de texte peut se faire de différentes manières
dont les plus communes sont la saisie au moyen : d’un clavier, OCR
(Optical Character Recognition), ou la reconnaissance de caractères
effectués à partir de documents digitalisés.
ii. Les données de
type graphique Elles peuvent être:
- de purs dessins informatiques en 2D ou 3D (fixes),
- des images digitalisées (fixes),
- des images vidéo digitalisées (fixes),
- des séquences vidéo (animées),
- des images de synthèse (animées).
iii. Les données de type sonore
Le son est une information sous forme de sensation auditive engendrée par
une vibration acoustique.
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 6
Département Technologies de l’Informatique Introduction au Multimédia
c. Médias discrets
Ceux qui n’ont aucune dépendance temporelle, comme le texte, les
graphiques, les images fixes, qui seront appelés médias discrets ;
l’information contenue est donnée exclusivement par l’ensemble des
éléments individuels qui le compose, sans aucune référence temporelle.
Leur traitement, même s’il doit se faire dans un temps contraint par
l’application, n’est pas conditionné par des contraintes temporelles,
l’intégrité des données d’un média discret étant indépendante du temps.
Leur volume
est aussi limité.
d. Médias continus
Ceux qui ont une dépendance temporelle, comme le son, la musique, la
vidéo, qui seront appelés médias continus. L’information qu’ils contiennent
ne peut se comprendre que par rapport aux évolutions temporelles de
grandeurs
physiques. Leur traitement est critique du point de vue temporel.
e. Caractéristiques des médias continus
Les signaux manipulés dans les systèmes multimédias, et notamment les
signaux temporels, ne correspondent pas à des données ordinaires, celles-ci
sont caractérisées par :
• un volume très important : Le débit de la vidéo (non comprimée)
se situe entre 140 et 216 Mbits/s, celui de l’audio tel que le type CD de
l’ordre de 1,4 Mbits/s, la parole 64 Kbits/s. La nécessité de la
compression apparaît assez rapidement pour de nombreuses
raisons.
• un flux continu : Il en découle des aspects temps réel,
synchronisation et contrôle des flux très importants.
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 7
Département Technologies de l’Informatique Introduction au Multimédia
• des qualités de services spécifiques : Par exemple, en terme de
taux d’erreur, si la vidéo s’accommode de taux modérés, l’audio sera
plus exigeant et nécessitera des taux plus faibles.
3. DOMAINES D’APPLICATIONS MULTIMEDIA
a. Applications grand public
• magazines, journaux en ligne
• musée interactif, encyclopédies et livres électroniques
• jeux vidéo : jeu d'aventure, de stratégie, d'action, réalité
virtuelle ;
• Enseignement assisté par ordinateur (EAO) : enseignement à
distance, didacticiel ;
• Animation : dessin animé, image de synthèse.
b. Applications professionnelles
• Présentation d’entreprise, Formation à la carte, formation à
distance
• Commerce électronique
• Domaine médical
• Construction (architecture, simulation, visite virtuelle) et
Conception assistée par ordinateur (CAO) ;
• Éditeur Web, Graphisme : infographie, dessin bitmap et vectoriel ;
• Musique, Montage, Publication assistée par ordinateur ;
• VoIP ; Visio-conférence.
4. COMPOSANTES DE BASE :
L’ordinateur est un équipement indispensable pour la manipulation des
données multimédia, il sert pour acquérir de l’information, la traiter, la
stocker et de la divulguer. En plus de l’unité centrale, il existe des
périphériques pour gérer.
a. Périphériques d’entrée
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 8
Département Technologies de l’Informatique Introduction au Multimédia
Leur rôle est de gérer les flux d’information vers l’ordinateur en captant de
l’information et de fournir les données et de transmettre les commandes de
l’utilisateur.
Exemple : clavier, souris, crayon optique, écran tactile, joystick.
i. Périphériques d’entrée spécifiques au son
❖ La carte son
Conversion analogique / numérique et conversion numérique /
Figure 1 : Carte
son
analogique du son
❖ Le microphone
Convertit les vibrations sonores en signaux analogiques en vue
d’enregistrement
Figure 2 : Microphone
ii. Périphériques d’entrée spécifiques à l’image
❖ le scanner
Appareil qui permet d'analyser une image pour attribuer une valeur numérique à
chacun de ses points. L'image est soumise au balayage d'un rayon lumineux ; un
capteur transforme la lumière réfléchie en un signal électrique qui est transféré à
un ordinateur, pour y être ensuite sauvegardé, traité ou analysé. L'appareil prend
souvent la forme d'une tablette sur laquelle le document doit être posé, mais il
existe aussi des numériseurs à main et des stylos numériseurs.
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 9
Département Technologies de l’Informatique Introduction au Multimédia
Figure 3 : Le
Scanner
❖ l’appareil photo numérique
Un appareil photo numérique prend des photos électroniques par l'intermédiaire de
son capteur (CCD, CMD ou CMOS) et les stockent généralement sur un support de
stockage amovible (Memory Stick, MultiMedia Card, Mémoire flash, Secure Digital,
SmartMedia..) ce qui élimine la pellicule photo traditionnelle. C'est la définition du
capteur qui conditionne la qualité de l'image reproduite.
Les photos stockées dans les cartes mémoire peuvent être exploitées de
différentes façons :
• La carte peut rester dans votre appareil photo et les photos sont
transférées vers l'ordinateur via un cordon.
• La carte peut s'insérer directement dans votre imprimante photo sans
passer par votre PC.
• La carte peut s'insérer dans une disquette adaptatrice que vous glissez
ensuite dans votre ordinateur.
iii. Périphériques d’entrée spécifiques à la vidéo
❖ Carte d’acquisition vidéo
Convertit les signaux vidéo analogiques en données numériques :
l’acquisition vidéo nécessite le décodage de la couleur puis la conversion
des signaux de luminance en signal numérique.
Figure 4 : Carte d’acquisition vidéo
❖ la Webcam
Caméra de qualité généralement assez faible, elle est directement liée à
l’ordinateur par un port USB ou FIREWIRE, elle est directement reliée à
l’ordinateur pour lui transmettre des images fixes ou animés.
C’est un moyen de communication sur Internet.
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 10
Département Technologies de l’Informatique Introduction au Multimédia
Figure 5 : Webcam
b. Périphériques de stockage
i. Les disques magnétiques : Disque recouvert d'une couche
magnétique où sont enregistrées les données. Apparus en 1956 (IBM)
de taille 5 Mo, aujourd’hui jusqu’à 2 Go.
ii. Les disques optiques non réinscriptibles : Disque où sont
enregistrées des données lisibles par un procédé optique. Il peut
sauvegarder plusieurs Go de données numériques Ce sont des
supports comparables aux disques magnétiques Il existe 3
catégories de disques optiques numériques : Disques non
réinscriptibles (WORM) ; Les disques optiques compacts (CD-ROM) ;
Les disques magnéto-optiques réinscriptibles.
Figure 6 :disque optique
iii. Les disquettes magnéto-optiques : Apparus en 1990 «floptical»
ou FMO. Leurs caractéristiques principales sont :
• 21 Mo (disquette spéciale 31/2 p) de mémoire ;
• 80 ms (200 ms pour lecteur de disquette magnétique !) de temps
de réponse ;
• 1250 pistes/pouce (135 pistes/pouce sur une disquette HD).
iv. Le vidéodisque : L’ancêtre du CD-ROM, c’est le vidéodisque,
apparu dans les laboratoires de Philips au début des années 70 :
l’enregistrement et la lecture des données étaient effectués sans
aucun contact avec le support, par l’intermédiaire d’un faisceau
laser.
Le vidéodisque est aussi appelé CD-vidéo ou Laserdisc. Le
vidéodisque original permet l'enregistrement de la vidéo analogique
et du son analogique sur un support en plexiglas gravé de la même
façon que les
CD audio. Le disque est lu à partir du centre et en allant vers
l'extérieur.
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 11
Département Technologies de l’Informatique Introduction au Multimédia
v. Le CD Audio : Apparu en 1982 Le Compact Disc Digital audio
(CDDA) est venu révolutionner le monde des mélomanes. Inventé
par Philips, consigné dans un livre de standardisation (« Red Book »)
en association avec Sony.
Lors de pressage usine des données, le laser creuse des minuscules trous
(microcuvettes) sur un disque en rotation. Les microcuvettes constituent
une piste unique en spirale. La capacité du CD Audio est de 650 Méga
octets ce qui correspond à un peu plus de 70 mn. de musique (en mode
stéréo, codé à
44,1 Khz sur 16 bits).
Figure 7 : CD Audio
vi. Le CD ROM : Le standard CD-ROM fut établi en 1984 quand le
standard du CD audio fut modifié pour permettre l'accès de cette
technologie aux PC. Les bits sont stockés d'une façon permanente
sur un CD sous la forme de creux moulés physiquement dans la
surface d'une couche en plastique recouverte d'aluminium
réfléchissant (ou d'or, ou d'argent). Les CD sont extrêmement
durables car aucun élément du lecteur optique ne touche la surface
du disque.
Avec une capacité de stockage de 700 Mo et un temps d'accès de 80 ms à
120 ms suivant la position des bits sur le disque et un taux de transfert de 5
Mo/s font des CD-ROM des médias particulièrement bien adaptés pour les
grandes présentations multimédias et les logiciels.
Le CD se compose de trois couches superposées. La couche principale qui
est la plus épaisse est en polycarbonate, un plastique résistant et
transparent (1). Ce plastique laisse passer la lumière émise par le laser lors
de la lecture d'un CD. On trouve ensuite une couche métallique
réfléchissante (2) très souvent en aluminium qui va réfléchir la lumière
émise par le laser. Il y a par-dessus tout ça une couche de vernis protecteur
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 12
Département Technologies de l’Informatique Introduction au Multimédia
qui vient protéger le métal de l'agression des Ultraviolets (3). Par-dessus le
tout, on trouve la surface imprimée qui sert à habiller le disque (4)
Lors de la lecture d'un CD de ce type, le faisceau laser traverse la couche de
polycarbonate et rencontre ou non un creux. Le faisceau est ensuite réfléchi
par la couche métallique. Le passage d'un creux à une bosse ou d'une bosse
à un creux représente un 1 dans le langage binaire. Le reste représente un
0. La lumière du laser est alors fortement déviée (on dit qu'elle est
réfractée), de telle sorte que la dose de lumière renvoyée par la couche
réfléchissante est minime.
Le lecteur comprend alors qu'il s'agit d'un 1. La longueur du motif qui suit,
qu'il soit bosse ou creux, donne la longueur du nombre de 0 situés après. La
succession de 0 et de 1 permet ensuite de lire le contenu du disque. A noter
que contrairement aux disques durs, un CD n'a qu'une seule piste organisée
en spirale.
vii. Le MiniDisc
Lancé par Sony en 1992. Amélioration du CD audio ; Permet
l’enregistrement par l’utilisateur. Diminution de la taille du disque ;
Incompatibilité avec le CD audio : Dimension : 6,4 cm ; 74 minutes de son
numérique ; Vitesse de 1,4 m/s
Figure 9 : Mini disc
viii. Le DVD
Le DVD-ROM (Digital Versatile Disc - Read Only Memory) est en fait un CD-
ROM dont la capacité est bien plus grande Capacité (de 4,7 Go à 17 Go)
Ceci est dû au fait que les alvéoles du DVD sont beaucoup plus petites
(0,4µ avec un espacement de 0.74µ contre 1.6µ et 1.83µ pour le CD-ROM).
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 13
Département Technologies de l’Informatique Introduction au Multimédia
Figure 10 : DVD
Les DVD existent en version "double couche", ces disques sont constitués
d'une couche transparente à base d'or et d'une couche réflexive à base
d'argent. Leur intérêt est que la capacité de ces DVD est bien supérieure à
celle des DVD simple couche.
Pour lire ces données, le laser du lecteur de DVD possède deux intensités :
* lorsque l'intensité est faible, le rayon se réfléchit sur la surface en or,
c'est à dire sur la première couche et ne la traverse pas.
* lorsqu'on augmente l'intensité du laser, le faisceau traverse la
première couche en or et se réfléchit sur la deuxième couche, qui est en
argent.
Voici les normes les plus couramment utilisées :
▪ DVD -R : DVD réinscriptible une fois d'une capacité de 4.7 Go
▪ DVD +R : DVD réinscriptible une fois d'une capacité de 4.7 Go. Il en
existe des modèles dont la capacité est doublée grâce à une
deuxième couche. On les nomme la plupart du temps DL (Dual
Layer).
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 14
Département Technologies de l’Informatique Introduction au Multimédia
▪ DVD -RW : pareil au DVD -R mais réinscriptible jusqu'à 1000 fois. ▪
DVD +RW : pareil au DVD +R mais réinscriptible jusqu'à 1000 fois.
ix. Les HD DVD
HD DVD (High Density Digital Versatile Disc) traduit en français comme
disque numérique polyvalent de haute densité. Tout comme pour le CD et le
DVD, les données étaient stockées sous forme numérique, sur un disque de
12 cm de diamètre. Le « HD » du nom fait également référence à la Haute
définition, les films stockés sur ces disques pouvant effectivement être en
HD.
Le HD DVD a une capacité par couche de 15 Go, soit un total de 30 Go avec
un HD DVD double couche. La couche de protection (qui protège la couche
de données) des disques HD DVD fait 0,6 mm d’épaisseur (la même que
celle du DVD). Cette technologie utilise une diode laser fonctionnant à une
longueur d’onde de 405 nm pour lire et écrire les données.
x. Le disque Blu-Ray
Le disque Blu-ray ou Blu-ray Disc (abréviation officielle BD, autre
dénomination B-RD) est un format de disque numérique breveté et
commercialisé par l’industriel japonais Sony permettant de stocker et
restituer des vidéogrammes en Haute Définition. Sa dénomination provient
du type de rayon laser qu’il exploite, de couleur spectrale proche du bleu.
Son principal concurrent, le HD DVD lancé par Toshiba avec le soutien de
Microsoft a été officiellement abandonné en février 2008. Plus tard Toshiba
rejoindra officiellement le consortium Blu-ray et présentera lors de l'IFA
2009 sa première platine Blu-ray, la BDX2000E.
Le Blu-ray exploite un rayon laser bleu-violet (longueur d’onde λ = 405 nm),
Par comparaison avec le laser Infrarouge (λ = 780 nm) utilisé pour le CD et
le laser rouge (λ =650/635 nm) utilisé pour le DVD, le Blu-ray permet de
stocker plus d’informations sur la même surface grâce à un rayon plus fin
(diamètre du spot laser : 290 nm) induisant des sillons de gravure plus
petits et plus rapprochés (écart : 320 nm) et des alvéoles plus courts
(longueur minimale : 149 nm — 135 nm pour le modèle 27 Go actuellement
abandonné).
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 15
Département Technologies de l’Informatique Introduction au Multimédia
xi. Les cartes mémoire :
Développées par Intel en 1983
Première carte : Toshiba en 1985
Une carte mémoire est une unité de stockage de données numériques
utilisée le plus souvent pour le stockage des clichés numériques dans les
appareils photo numériques, pour la sauvegarde de parties sur consoles de
jeux vidéo, mais aussi dans des lecteurs de musique ou des appareil
électroniques professionnels te
Les capacités existantes aujourd'hui sont de 16 Mo jusqu’à 8 Go Bientôt
vont apparaître les cartes 10 et 12 Go
Figure 11 : Carte mémoire
c. Les périphériques de sortie
i. L’écran
Un moniteur est un périphérique de sortie usuel d'un ordinateur. C'est
l'écran où s'affichent les informations saisies ou demandées par l'utilisateur
et générées ou restituées par l'ordinateur, sous forme de texte et d'images
en deux dimensions avec éventuellement un effet à trois dimensions. Le
texte et les images peuvent être fixes ou animés.
Sur certains systèmes, l'écran peut aussi servir de périphérique d'entrée :
L’utilisateur peut choisir une action en touchant la partie correspondante de
l'écran, si le système le prévoit ; on parle alors d'écran tactile.
❖ L’écran a tube cathodique (CRT)
Un écran à tube cathodique est un tube sous vide où l'on place un
dispositif d'extraction et d'accélération d'électrons constitué d'un filament
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 16
Département Technologies de l’Informatique Introduction au Multimédia
chauffé, de cathodes et d'anodes soumises à une différence de tension
créant un champ électrique accélérant les électrons. Ces derniers viennent
frapper un des bords plats, l'écran, sur lequel on a déposé une couche
fluorescente couverte de petits éléments phosphorescents d'une couleur
vert, rouge ou bleue (appelés lumiphores) réagissant au choc des
électrons.
Chaque lumiphore est ainsi un point lumineux que l'on appelle pixel. Il
s'agit du plus petit point pouvant être affiché par l'écran. Le mélange des
trois couleurs de base (rouge, vert, bleu) permet de reconstituer toutes les
couleurs visibles.
Figure 12 : écran CRT
❖ L’écran à cristaux liquides (LCD)
L’écran à cristaux liquides (affichage à cristaux liquides ACL ou LCD, liquid
crystal display, en anglais) est le principal composant des moniteurs plats
aussi appelés TFT pour Thin-film transi.
Il utilise la polarisation de la lumière grâce à des filtres polarisants et la
variation de l’orientation de certains cristaux liquides en fonction du champ
électrique. Du point de vue optique, l'écran à cristaux liquides est un
dispositif passif (il n'émet pas de lumière) dont la transparence varie :il doit
donc être éclairé.
La technologie LCD est basée sur un écran composé de deux plaques
transparentes entre lesquelles est coincée une couche de liquide contenant
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 17
Département Technologies de l’Informatique Introduction au Multimédia
des molécules qui ont la propriété de s'orienter lorsqu'elles sont soumises à
du courant électrique et donc de permettre ou non le passage d'une
couleur.
Figure 13 : écran LD
❖ L’écran à PLASMA
Un écran à plasma est un écran plat dont la lumière est créée par du phosphore
excité par une décharge de plasma entre deux plaques de verre.
Les écrans Plasma fonctionnent à peu près de la même manière que les lumières
néon ou fluorescentes - ils utilisent l’électricité pour illuminer un gaz.
❖ Caractéristiques du moniteur
▪ La Définition : c'est le nombre de pixels que l'écran peut afficher, ce nombre
de points est généralement compris entre 640 points en longueur et 480
points en largeur et 1600x1200.
▪ La Taille : Elle se calcule en mesurant la diagonale de l'écran et est exprimée
en pouces. Un pouce vaut 2.54 cm.
▪ Le Pas de Masque : C'est la distance qui sépare deux lumiphores. Plus celle-
ci est petite plus l'image est nette. Évitez donc les écrans dotés d'un pas de
masque de
0.28 ou plus.
▪ Le Temps de Réponse (ou Temps de Rémanence) : Utilisé uniquement
pour les écrans plats, il s'agit du temps que met un pixel noir pour passer à
l'état blanc ou inversement.
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 18
Département Technologies de l’Informatique Introduction au Multimédia
Chapitre II : L’image
Enoncé de l’objectif général
Décrire les principales caractéristiques de l’image
Objectifs Elément de contenu Moyens Méthodologi
spécifiques e
Ce cours vise à :
• Présenter les
caractéristiques de
reconnaître les l’image (couleur, - Tableau et Formative
différents types résolution, taille…) support de
d’image, • Différentier Image cours
vectorielle et
matricielle
• Les modes colorimétriques
distinguer les • Définir les formats
formats de l’image gif, jpeg, png,TIFF
et reconnaître • Comparer les - Tableau et Formative
l’usage formats d’image support de
• Expliquer l’ulilité cours
Comprendre le • Citer les différents - Tableau et
principe de types de support de
compression
compression de cours Formative
• Expliquer l’utilité
l’image
L’image
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 19
Département Technologies de l’Informatique Introduction au Multimédia
L’image est une perception visuelle d’un objet donné par une surface
réfléchissante de lumière et de couleurs.
Grâce à la cornée (l'enveloppe translucide de l'œil) et de l'iris (qui en
se fermant permet de doser la quantité de lumière), une image se forme
sur la rétine. Celle-ci est composée de petits bâtonnets et des cônes.
Les bâtonnets permettent de percevoir la luminosité et le
mouvement, tandis que les cônes permettent de différencier les couleurs. Il
existe en réalité trois sortes de cônes : Une sorte pour le Rouge, Une sorte
pour le Vert et Une sorte pour le Bleu.
La couleur est provoquée par la lumière que captent nos yeux, mais elle
naît et ne naît que- dans notre cerveau : La couleur est une perception du
cerveau.
1. NOTION DE COULEUR :
La couleur de la lumière est caractérisée par sa longueur d'onde. On
caractérise généralement la longueur d'onde d'un phénomène oscillatoire
par la relation: λ=(1/C*T). Avec : λ : longueur d'onde, C : désigne la célérité
de l'onde ,T :désigne la période de l'onde (en secondes).
L'œil humain est capable de voir des lumières dont la longueur d'onde est
comprise entre 400 et 700 nanomètres. En dessous de 400 nm se trouvent
des rayonnements tels que les ultraviolets, au-dessus de 700 on trouve les
rayons infrarouges .
La couleur est caractérisée par une teinte, Saturation et Luminosité ou (T S
L) La teinte est un attribut qui décrit immédiatement une couleur pure,
comme le rouge pur, le bleu pure, etc. La teinte définit la couleur elle-
même.
-La saturation est un attribut qui décrit l'altération d'une couleur pure
avec le blanc ou un niveau de gris. Elle mesure la proportion de couleur
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 20
Département Technologies de l’Informatique Introduction au Multimédia
pure par rapport au blanc. Elle représente le facteur de pureté de la
couleur. Cette notion permet de distinguer le rose du rouge.
-La luminosité (intensité, nuance) est un attribut qui qualifie la luminosité
d'une couleur. La luminosité détermine l'intensité lumineuse émise par la
couleur (Couleur claire ou foncée. La couleur blanche est composée des
couleurs du spectre. La couleur d'un objet correspond à la longueur d'onde
que cet objet réfléchit ou transmet ; car les autres rayons de la lumière
blanche sont absorbés.
2. NOTIONS IMPORTANTES.
2.1. Taille d'une image
La taille d'une image est définie par le nombre de pixels qui la composent
verticalement et horizontalement. Ex : une image de 550x300 pixels (un
pixel est le plus petit élément qui compose une image). C'est une manière
absolue de chiffrer la taille de l'image. A ne pas confondre avec la place
qu'occupe l'image sur l'écran ! La place que prend l'image sur l'écran
dépend de la résolution du moniteur.
2.2. Résolution d’une image
Ce terme répond à deux définitions :
1/ Résolution = capacité de définition du moniteur : On peut choisir entre
plusieurs résolutions d'affichage du moniteur. ex, sous Windows: 640x480,
800x600, 1024x768. Si la taille de l'image dépasse la résolution du
moniteur, cette image ne peut pas être affichée à 100% sur l'écran
2/ Résolution = nombre de pixels par pouce : On utilise l'unité "ppp" =
"pixel par pouce" Ou en anglais "dpi" = "dots per inch" A savoir qu'un
pouce est à peu près égal à 2,5 cm. Cette notion est utile lorsqu'on passe
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 21
Département Technologies de l’Informatique Introduction au Multimédia
d'un support physique à un support numérique (ex: une image scannée), ou
inversement (quand on scanne une image) :
• Si on veut scanner une image de 1 pouce sur 1 pouce (soit 2,5 cm
sur 2,5 cm) : si on scanne avec une résolution de 150 ppp, on obtient
une image de 150x150 ; avec une résolution de 300 ppp, l'image
sera de 300x300.
• On a une image de 300x300 que l'on veut imprimer. Si lors de
l'impression on a une résolution de 300 ppp, l'image obtenue sur
papier sera de 1 pouce sur 1 pouce ; une résolution de 150 ppp
donnera une image de 2 pouces sur 2 pouces.
Exercice 1 : On a une image de 10 cm sur 5 cm que l'on scanne avec une
résolution de 300 dpi. Quelle sera alors la taille de l'image ?
Exercice 2 : On a une image de 600x600 que l'on veut imprimer. On veut
que l'image imprimée soit de 10 cm sur 10 cm. Comment doit-on choisir la
résolution lors de l'impression ?
Figure 14 : Résolution d’une image
3. LES DIFFERENTS MODES COLORIMETRIQUES.
Une image n’est pas seulement définie par sa taille, elle est aussi
définie par son mode. On entend par mode un type particulier
d'organisation des couleurs de l'image. Les modes les plus courants sont :
bitmap, niveaux de gris, couleurs indexées, RVB et CMJN.
3.1. Mode RVB
C'est le mode le plus couramment utilisé. Il est idéal pour l'affichage sur
l'écran. Une image RVB est composée de trois couches de couleurs : rouge,
verte et bleue. En fait chaque pixel d'une image RVB est un mélange de ces
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 22
Département Technologies de l’Informatique Introduction au Multimédia
trois couches dans des proportions différentes : une certaine quantité de
rouge, de bleu ou de vert (de 0 à 255).
La combinaison de ces trois couches permet, par synthèse additive,
d'obtenir toutes les autres couleurs. Le mode RVB est utilisé dans les cas
suivants :
• lorsque l'image est destinée à un affichage sur écran, pour le Web par
exemple ;
• pour une impression sur imprimante personnelle, si celle-ci est conçue
pour afficher des images RVB (ce qui est le cas de beaucoup
d'imprimantes, mais vérifier tout de même);
Correspondance :
Roug
Vert bleu Couleur Obtenu
e
000 000 000 Noir
255 255 255 Blanc
255 000 000 rouge claire
128 000 000 rouge foncé
255 255 000 jaune claire
128 128 000 jaune foncé
3.2. Mode CMJN
CMJN signifie Cyan, Magenta, Jaune et Noir. C'est le mode utilisé pour
une impression en quadrichromie (impression obtenue par mélange d'encre
de ces quatre couleurs). Donc il sera exclusivement employé pour une
image destinée à être imprimée selon ce mode.
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 23
Département Technologies de l’Informatique Introduction au Multimédia
Il faut savoir que le spectre de couleurs des images CMJN est moins
important que celui des images RVB. Lorsqu'on convertit une image RVB en
image CMJN, les couleurs non imprimables sont converties en couleurs
imprimables. Il ne faut pas convertir à la légère une image RVB en mode
CMJN, l'image en serait altérée.
3.3. Couleurs indexées
Les modes RVB et CMJN permettent de disposer de 16 millions de
couleurs, le mode Couleurs indexées n'en permet que 256. Dans ce mode
est créée une table (ou index) de 256 couleurs au maximum. Cette table
répertorie toutes les couleurs possibles de l'image. Puis on attribue à
chaque pixel une valeur de 1 à 256, correspondant à l'une des couleurs de
la table.
3.4. Mode Lab
Le mode Lab est très particulier : ce mode permet d'obtenir des couleurs
identiques quel que soit le support (moniteur, imprimante personnelle ou
offset), c'est-à-dire que la gamme de couleurs qu'il permet est plus
étendue que celle des modes RVB et CMJN. Bien entendu, puisque l’écran
fonctionne en mode RVB, on ne peut pas afficher l’ensemble des couleurs
données par le mode Lab.
- Une image Lab est composée de trois couches : la couche de luminance L
correspond aux niveaux de lumière de l’image ; les deux couches de
chrominance a et b définissent les couleurs de l’image mais ne
correspondent pas à une perception naturelle des couleurs.
Le mode Lab est cependant peu usité dans la pratique. Il est utilisé comme
intermédiaire par Photoshop lors de la conversion d’un mode à un autre.
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 24
Département Technologies de l’Informatique Introduction au Multimédia
3.5. Mode Niveaux de gris
Dans ce mode il n’y a que 256 nuances de gris, allant du noir au blanc.
On convertit une image en Niveaux de gris lorsque l’on traite une image en
Noir et Blanc ou que l’image est destinée à être imprimée en noir et blanc.
Ainsi on économise de la mémoire.
3.6. Mode Bitmap
C’est le mode le plus simple : un pixel est soit allumé (dans ce cas il est
blanc), soit éteint (il est noir). Les images Bitmap ne sont donc pas
particulièrement nuancées.
4. LA REPRESENTATION ET LE CODAGE DES
COULEURS
4.1. Synthèse additive
Toutes les couleurs peuvent être produites à partir de trois couleurs
primaires en faisant varier l’intensité de chacune de ces couleurs. La
synthèse additive consiste à reproduire les couleurs à partir de trois
sources lumineuses. Les couleurs primaires sont dans ce cas le rouge, le
vert et le bleu (RVB ou RGB en anglais)
Figure 15 : synthèse
additive
4.2. Synthèse soustractive
Avec la méthode de la synthèse soustractive, les couleurs sont générées à
partir d’une seule source lumineuse blanche devant laquelle on superpose
trois filtres colorés. Les couleurs primaires sont alors le cyan, le magenta et
le jaune
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 25
Département Technologies de l’Informatique Introduction au Multimédia
(CMJ ou CMY) Figure 16 : Synthèse
soustractive
5. DESCRIPTION D’IMAGE
Deux principes sont applicables pour décrire une image :
1) le premier considère l'image comme un rectangle constitué de points
élémentaires de couleur uniforme, les pixels. Décrire l'image revient alors à
préciser la couleur de chaque point. Le fichier graphique sera une liste de
nombres binaires, correspondants à ces couleurs, précédée par un en-tête
(header) décrivant la méthode utilisée. On peut en effet imaginer plusieurs
façons de décompter les points. Ce principe est celui des images dites
numériques ou bitmap
2) le deuxième considère l'image comme un ensemble de figures
élémentaires pouvant être décrites par des données mathématiques
(coordonnées de points, tangentes en un point d'une courbe, etc.). Le
fichier décrit ces différentes figures, véritables "objets" graphiques
indépendants les uns des autres. Ce principe est celui des images dites
vectorielles image bitmap doit être considérée comme un ensemble de
petits carrés-unités de couleur uniforme, les pixels. Une image plein écran
en résolution "VGA"
(résolution courante pour les écrans standards) est c
5.1. Le dessin Bitmap
Le dessin bitmap porte ce nom car il s'agit simplement de travailler avec
des pixels. Le pixel un point qui peut avoir une valeur de couleur et de
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 26
Département Technologies de l’Informatique Introduction au Multimédia
transparence .Les images qui sont très souvent utilisées sur Internet sont
composées d'un nuage de pixels ("picture element", il en va de même
pour les images numérisées et les photos numériques.
Figure 17 : Présentation d’un pixel
Le logiciel de dessin bitmap va permettre de sélectionner ces pixels
pour ensuite les manipuler, changer leur couleur, etc. Ce type d'image et
de logiciel convient parfaitement pour la retouche photographique,
Une image matricielle est composée d’une grille de points) où chaque
pixel possède une position et une couleur. Ex: 640*480
L'ensemble des points figure un dessin (ex: une photo, une carte…) sous
forme d'un rectangle.
Un dessin bitmap est tracé en "escalier" donc le Zoom délicat voire même
impossible, composé d’une seule couche visible et la modification très
délicate
POUR :
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 27
Département Technologies de l’Informatique Introduction au Multimédia
autorise la CONTRE :
qualité Les fichiers sont encombrants.
photographique. Leur agrandissement provoque un effet de
mosaïque (les pixels agrandis deviennent des
carrés visibles).
La création d'une image "à la souris" est difficile.
Usage conseillé d'un périphérique de numérisation
: scanner, digitaliseur, appareil photonumérique...
Les retouches sont délicates : effacer un élément
de l'image crée un "trou".
5.2. Les images Vectorielles :
Les formats vectoriels décrivent l'image en une série d'objets ou formes
géométriques (lignes, ellipses, polygones, etc.) dont les propriétés
permettent de recréer l'image à partir d'instructions précisées.
3 types de données graphiques
• points isolés → objets ponctuels
• lignes isolées → objets linéaires
• surfaces isolées → objets surfaciques
L'information contenue dans le fichier d'un format vectoriel est composée
par des commandes qui permettent de dessiner les formes particulières qui
constituent l’image : appelées vecteurs ou couples de points associés.
L'information décrira, par exemple, la position, l'épaisseur et la couleur
d'une ligne à tracer.
Donc dans une image en format vectoriel, chaque forme est définie par une
équation mathématique. Les fichiers image en mode point sont faits d'une
mosaïque d'éléments d'image appelés pixels. Chaque pixel contient les
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 28
Département Technologies de l’Informatique Introduction au Multimédia
informations concernant la couleur d'un point de l'image en particulier. La
combinaison de tous les pixels forme l'image.
Les fichiers image en mode point sont habituellement très lourds à cause
de la quantité d'information que contient chaque pixel et du grand nombre
de pixels nécessaires pour obtenir une image de qualité. Pour ces raisons,
un format vectoriel est souvent à privilégier par rapport à un format image
en mode point, sauf lorsque le type d'information ne s'y prête pas.
Caractéristiques :
• Se caractérise par son aspect "VIRTUEL", l’image est (ré)calculée à
chaque affichage. Possibilité de transformer les fichiers en mode
bitmap.
• Nécessité d’un PC puissant pour les images complexes.
• Pire que pour le Bitmap : presque chaque logiciel propose son
format. Les formules mathématiques utilisées variant
considérablement, il est presque impossible de récupérer et de
convertir une image vectorielle provenant d'un autre programme.
Encore plus que les Bitmap, les
Formats vectoriels évoluent et il n'est pas toujours facile de lire un
fichier avec une extension théoriquement reconnue...
• Ce type de format permet d'éditer les différents objets d'une image
indépendamment : les images peuvent être modifiées sans perte de
Résolution et la taille des fichiers est relativement petite.
• Ces équations mathématiques font en sorte qu'une illustration
vectorielle peut être redimensionnée sans pour autant subir une
altération. Donc contrairement aux images bitmap, il n'y a pas d'effet
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 29
Département Technologies de l’Informatique Introduction au Multimédia
de pixellisation lors de l'agrandissement d'un dessin vectoriel, qui
peut être affiché ou imprimé à n'importe quelle résolution.
• Une illustration vectorielle n'est pas tributaire de la résolution du
périphérique de sortie. Seuls les dégradés de couleurs et les couleurs
contenus dans l'illustration peuvent être sensibles à la résolution du
périphérique.
POUR : CONTRE :
Les fichiers sont petits. Inutilisables pour des
Les images sont redimensionnables sans images complexes, des
perte de qualité, les courbes sont lissées photographies.
quelque soit l'échelle d'affichage.
Non reconnues par les
Les retouches sont aisées puisque les navigateurs Internet et par
différents éléments de l'image sont certains logiciels
indépendants. multimédia.
image image bitmap
vectorielle
Figure 18 : image vectorielle et image bitmap
6. FORMAT D'IMAGES
Un format d'image comprend en général un en-tête qui contient des
données sur l'image (taille de l'image en pixels par exemple) suivie des
données de l'image. La structuration des données est différente pour
chaque format d'image.
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 30
Département Technologies de l’Informatique Introduction au Multimédia
6.1. JPEG (Joint Photo Expert Group)
JPEG est une norme reconnue par l'ISO. Elle définit le codage des images
numériques dans le format JFIF, JPEG File Interchange Format, qui utilise
une méthode de compression destructrice. L'extension des images au
format JFIF est .jpg ou .jpeg.
Ce format est libre de droits. Ce format permet une représentation en
vraies couleurs (16 millions).
6.2. JPEG 2000
La norme JPEG 2000 définit le codage des images numériques et est
destinée à supplanter la norme JPEG. L'extension des images au format JPEG
2000 est .jp2. L'originalité du JPEG 2000 est qu'il permet de compresser les
images avec ou sans perte(s) d'informations. La norme ne décrit
cependant que la méthode de décompression qui doit être utilisée pour les
images de ce format.
6.3. PNG (Portable Network Graphics)
Le PNG est un format d'images numériques libre de droits, normalisé par
l'ISO, qui utilise la compression sans perte. L'extension des images PNG est
.png.
Avant l'étape de compression, des filtres sont appliqués à chaque ligne de
l'image. Ces filtres servent à modifier les octets de l'image pour optimiser sa
compression. Il existe cinq types principaux de filtres. Chaque ligne de
l'image peut se voir associé à un de ces types de filtres. A l'étape de
compression, les octets qui composent chaque ligne de l'image sont
précédés d'un octet qui indique le type de filtre utilisé. Ensuite, les images
sont compactées par l'algorithme de flate qui est une combinaison du LZ77
et du codage de Huffman. Pour une qualité d'image semblable, les images
PNG ont une taille beaucoup plus petite comparée à celle des images au
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 31
Département Technologies de l’Informatique Introduction au Multimédia
format GIF. Mais, dès que le codage des images PNG s'effectue sur plus de 8
bits, ce format est supplanté par le JPEG et le JPEG 2000. Néanmoins, les
images PNG peuvent être codées jusqu'à 48 bits ce qui rend leur palette
très riche en nuances.
6.4. GIF (Graphics Interchange Format)
Ce format est sous brevet Unisys. Il s'agit donc d'un format "propriétaire
créé à la fin des années 80 dans le but d'optimiser la transmission des images
sur Internet. C'est un format propriétaire. L'extension des images GIF
est .gif.
Le GIF utilise la méthode de compression non destructrice du LZW. Les
couleurs de l'image sont indexées dans une palette (le dictionnaire).
Chaque pixel de l'image GIF référence l'indice de sa couleur dans la
palette. Les images GIF sont codées sur maximum 8 bits. Par conséquent,
la palette sera composée de 256 couleurs différentes au plus.
6.5. TIFF : (Tag Image File Format)
Format de compression de type RVB ce format est de moins en moins utilisé
sur le WEB. L'avantage de ce format est de supporter tous les modes de
compression standards. Mais l’implémentation de ce format reste assez
lourde, à cause, justement, de tous les Tags nécessaires au codage de
l'image.
6.6. Tableau récapitulatif
Bitmap/ Compression Nombre Animation Transparenc
vectoriel des données de Affichag s e
couleurs e
progres
sif
JPEG Bitmap Oui, réglable 16 millions Oui Non Non
(avec perte)
GIF Bitmap Oui (sans 256 (palette) Oui Oui Oui
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 32
Département Technologies de l’Informatique Introduction au Multimédia
perte)
PNG Bitmap Oui (sans de 256 à 16 Oui Non Oui
perte) millions
( couche
alpha)
TIFF Bitmap Oui (sans 16 millions Non Non Non
perte) ou non
7. COMPRESSION DE DONNEES
La compression consiste à réduire la taille physique de blocs
d'informations. Un compresseur utilise un algorithme qui sert à optimiser
les données en utilisant des considérations propres au type de données à
compresser ; un décompresseur est donc nécessaire pour reconstruire les
données originelles grâce à l'algorithme inverse de celui utilisé pour la
compression.
La méthode de compression dépend intrinsèquement du type de données à
compresser : on ne compressera pas de la même façon une image qu'un
fichier audio...
7.1. Caractérisation de la compression
La compression peut se définir par le quotient de compression, c'est-à-dire
le quotient du nombre de bits dans l'image compressée par le nombre de
bits dans l'image originale.
Le taux de compression, souvent utilisé, est l'inverse du quotient de
compression, il est habituellement exprimé en pourcentage.
Enfin le gain de compression, également exprimé en pourcentage, est le
complément à 1 du taux de compression :
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 33
Département Technologies de l’Informatique Introduction au Multimédia
7.2. Types de compressions et de méthodes
7.2.1. Compression physique et logique
La compression physique agit directement sur les données ; il s'agit
ainsi de regarder les données redondantes d'un train de bits à un autre.
La compression logique par contre est effectuée par un raisonnement
logique en substituant une information par une information équivalente.
7.2.2. Compression symétrique et asymétrique
Dans le cas de la compression symétrique, la même méthode est
utilisée pour compresser et décompresser l'information, il faut donc la
même quantité de travail pour chacune de ces opérations. C'est ce type de
compression qui est généralement utilisée dans les transmissions de
données.
La compression asymétrique demande plus de travail pour l'une des
deux opérations, on recherche souvent des algorithmes pour lesquels la
compression est plus lente que la décompression. Des algorithmes plus
rapides en compression qu'en décompression peuvent être nécessaires
lorsque l'on archive des données auxquelles on n'accède peu souvent (pour
des raisons de sécurité par exemple), car cela crée des fichiers compacts.
7.2.3. Compression avec pertes
La compression avec pertes se permet d'éliminer quelques informations
pour avoir le meilleur taux de compression possible, tout en gardant un
résultat qui soit le plus proche possible des données originales. C'est le cas
par exemple de certaines compressions d'images ou de sons, telles que le
MP3
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 34
Département Technologies de l’Informatique Introduction au Multimédia
En revanche, les données multimédias (audio, vidéo) peuvent tolérer un
certain niveau de dégradation sans que les capteurs sensoriels (œil,
tympan, etc.) ne discernent une dégradation significative.
La compression avec pertes est aussi appelée communément compression
destructrice. La compression avec pertes utilise des algorithmes qui
compressent les données en les dégradant. Autrement dit, après la
décompression des données, celles-ci sont moins nombreuses que celles
utilisées pour la compression. Pour éviter que ces dégradations soient
perçues par les utilisateurs, les concepteurs d'algorithmes pour la
compression destructrice se basent sur les limites de perception au niveau
de l'ouïe et de la vue chez l'être humain.
Les algorithmes de compression destructrice sont utilisés pour compresser
des données graphiques, audio et vidéo. Ils ne pourraient être appliqués sur
des données textuelles ou sur celles d'un programme au risque de les
rendre illisibles ou inexécutables.
Voici trois méthodes utilisées pour la compression avec pertes :
• La transformée en cosinus discrète
La transformée en cosinus discrète est une fonction mathématique
complexe dont il existe plusieurs variantes. Elle est utilisée pour la
compression destructrice des données, notamment pour les sons aux
formats Vorbis, WMA et MP3 et pour les images et les vidéos suivant
les normes JPEG et MPEG.
Lors de l'opération de compression des données dans ces différents
formats, l'algorithme transforme les pixels de l'image ou les
échantillons
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 35
Département Technologies de l’Informatique Introduction au Multimédia
de la séquence audio en fréquences. Les fréquences qui ne
correspondent pas à des données pertinentes pour l'œil ou l'oreille
humaine sont éliminées par l'algorithme.
• La compression par ondelettes
La compression par ondelettes, aussi appelée DWT (Discrete Wavelet
Transform) est une méthode basée sur la théorie mathématique de
l’analyse du signal : les ondelettes sont un ensemble de signaux
élémentaires à partir desquels on peut reconstruire un signal
complexe. La compression par ondelettes consistera donc à
décomposer l’image perçue comme un signal en un ensemble
d’images de plus petite résolution. Ce procédé, qui repose sur la
différence entre zones de contrastes forts et zones de contrastes
faibles, se développe en trois phases :
Tout d’abord, on procède à une transformation de l’image en
ondelettes selon un schéma à plusieurs niveaux, processus
relativement complexe qui est détaillé ci-dessous.
Ensuite, on réalise une quantification des informations. Lors de cette
phase, les détails qui se situent au-dessous d’un certain seuil sont
purement et simplement éliminés. C’est donc à ce niveau que se
produit la perte d’informations. Enfin, on termine en codant les
informations.
La décompression des images s’opère par le schéma inverse : les
informations sont tout d’abord décodées pour fournir un ensemble à
plusieurs niveaux d’ondelettes qui permet la reconstitution
progressive de l’image.
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 36
Département Technologies de l’Informatique Introduction au Multimédia
L’opération de transformation de l’image initiale en ondelettes
demande quant à elle quelques explications. Son fonctionnement
repose sur une série de cycles successifs à deux temps (voir schéma
cidessous). Dans un premier temps, on moyenne les pixels de
l’image d’origine deux à deux en suivant l’axe horizontal. On obtient
ainsi une image A, sous-échantillonnée dans le sens horizontal et
dont la largeur est évidemment la moitié de celle de l’image
d’origine. Sur base de celle-ci, on va construire une seconde image
A’ en sens horizontal en calculant cette fois les erreurs entre l’image
d’origine et l’image sous échantillonnée. Dans un second temps, on
va moyenner les pixels des deux images obtenues deux à deux en
suivant l’axe vertical cette fois, avant de déterminer une nouvelle
fois les erreurs engendrées lors de cette opération. Au terme de ce
cycle, on obtient quatre images dont la résolution est la moitié de
celle de l’image d’origine. La première de ces images, AA, fruit des
sous-échantillonnages horizontal puis vertical sans correction, est
une image d’approximation, tandis que les trois autres images AA’,
A’A et A’A’, fruits des calculs d’erreurs successifs, contiennent les
détails de l’image d’origine. Une fois ce premier sous niveau obtenu,
on recommence autant de fois que nécessaire le procédé en
reprenant chaque fois comme base la première sous image obtenue
(AA, puis BB, puis CC, etc.).
La compression par ondelettes, particulièrement appropriée pour les
images, est vraisemblablement la méthode de compression la plus
performante à l’heure actuelle et est la base du JPEG 2000. Ses
avantages sont multiples : elle permet une compression 50 à 100 fois
plus importante que le JPEG, offre une meilleure définition des détails
et permet un téléchargement progressif de l’image.
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 37
Département Technologies de l’Informatique Introduction au Multimédia
La compression fractale (uniquement appliquée aux images)
La compression fractale est un procédé qui s’applique uniquement aux
images. Il repose sur la géométrie fractale de Benoît Mandelbrot. Le format
des images compressées par ce procédé n’est à l’heure actuelle pas
standardisé et n’est donc pas reconnu par les navigateurs. Il se reconnaît
par l’extension .fif. Principe de fonctionnement :
Le principe général est très simple à comprendre : l’idée est que toute
image est un ensemble fini de transformations géométriques (rotations,
translations, agrandissements, réductions) appliquées aux sous-ensembles
de motifs identiques et de tailles variables qui la composent. La
compression fractale consiste donc à remplacer l’image toute entière par
une série de formules mathématiques qui permettent de la recomposer
dans son entièreté. Le succès de l’opération de compression est par
conséquent proportionnel à l’importance des propriétés géométriques de
l’image. Plus celles-ci sont nombreuses, moins le nombre de formules
mathématiques sera conséquent. On comprend dès lors pourquoi la
compression fractale se prête fort bien au traitement des paysages par
exemple. Evidemment, aucune image ne peut se résumer strictement à
ensemble de propriétés géométriques appliquées à des blocs. C’est donc
au niveau de la délimitation de ces derniers qu’a lieu une perte
d’informations. Ce procédé comporte des avantages certains, mais
également certains inconvénients.
Avantages :
• La compression est complètement indépendante de la taille de
l’image puisque ce sont les propriétés géométriques qui sont seules
prises en considération.
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 38
Département Technologies de l’Informatique Introduction au Multimédia
• L’image ainsi découpée en blocs de tailles variables en fonction de
ses propriétés géométriques est vectorisée, ce qui évite les effets de
pixellisation commun au JPEG par exemple. Notons qu’à
l’agrandissement de l’image reconstituée, on peut remarquer un
certain effet de flou qui rend sensible la perte engendrée par la
compression.
Désavantages :
• Les formules gèrent la transformation géométrique des blocs, mais
sont incapables de gérer l’apparition et la disparition pure et simple
de ceuxci. Ce procédé ne se prête donc pas au traitement de la
vidéo, qui se caractérise par une succession d’images parfois
radicalement
différentes.
• Si le processus de décompression d’une image est aussi rapide
qu’avec d’autres méthodes et algorithmes, le temps de calcul
nécessaire à la compression est en revanche particulièrement plus
important. A titre d’exemple, une compression fractale peut prendre
jusqu’à 50 fois plus de temps qu’une compression JPEG pour la
même image.
7.2.4. La compression sans perte
La compression sans perte est aussi appelée compression non destructive
ou encore compactage. La compression sans perte utilise des algorithmes
qui compressent les données sans les dégrader. Autrement dit, après la
décompression des données, celles-ci sont identiques à celles utilisées
pour la compression.
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 39
Département Technologies de l’Informatique Introduction au Multimédia
Ces algorithmes de compactage sont utilisés pour compresser tous types
de données : des données textuelles, des images, du son, des
programmes, etc.
Voici trois méthodes principales de compression sans perte :
Le codage de Huffman
•
Cette technique de compression sans perte a hérité du nom de son
inventeur, David Huffman. Elle repose sur le codage statistique d'un fichier
octet par octet. Plus les octets apparaissent souvent, plus les codes qui les
remplacent sont courts. Selon ce point de vue, le codage de Huffman peut
être comparé au code Morse. Le codage de Huffman peut être réalisé sur le
mode adaptatif, semi-adaptatif ou non adaptatif.
Le codage de Huffman est utilisé pour la compression du son au format
MP3 et des images aux formats PNG et JPEG.
Principe de fonctionnement :
L'algorithme parcourt les données d'un fichier et examine chaque octet
ainsi que le nombre fois où ce dernier apparaît.
Ensuite, l'algorithme construit un arbre (ou graphe). La construction de
l'arbre s'effectue en commençant par ses feuilles jusqu'à sa racine. Pour
ce faire, les octets sont classés par ordre décroissant de fréquence
d'apparition. Chaque fréquence d'apparition correspond donc à un octet
et constitue les feuilles de l'arbre. Elles sont alors liées deux par deux
pour former les nœuds du graphe jusqu'à ce qu'il n'y ait plus qu'un seul
nœud, soit la racine. Les nœuds sont ainsi formés par la somme de
chaque fréquence d'apparition de ses deux feuilles ou de ses deux
nœuds
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 40
Département Technologies de l’Informatique Introduction au Multimédia
descendants directs. Puis, les branches de l'arbre - c'est à dire les liens
qui unissent les nœuds - se voient attribuer soit le chiffre 1, soit le
chiffre 0 selon ce principe : le lien qui unit le nœud signifiant la
fréquence la plus élevée avec son nœud-ascendant se voit attribuer le
chiffre 1, les autres le chiffre 0. En fin de compte, les octets compressés
sont par codés par les chiffres attribués aux liens, qui sont alignés en
remontant depuis le nœud-racine jusqu'aux feuilles terminales.
Le Run-lenght encoding ou RLE
Cette méthode de compression sans perte code les données en y
recherchant des successions d'octets identiques. Le RLE est utilisé pour
compresser des images codées sur un faible nombre de bits car, dans
ce type d'image, il est fréquent de trouver des pixels contigus
identiques. La méthode RLE est utilisée pour la compression des images
au format PCX, dans une version du format BMP ainsi qu'au format JPEG.
Principe de fonctionnement :
L'algorithme du RLE parcourt les données et recherche les octets
identiques qui se suivent. Lorsqu'il trouve un même octet répété
successivement au moins x fois, il crée une paire de données composée
du nombre de
répétitions suivi de l'octet en question.
La compression RLE est efficace pour compresser des données où les
répétitions d'éléments consécutifs sont nombreuses ce qui n'est pas
toujours le cas. C'est pourquoi, lorsque le nombre de répétition est trop
petit (c'est à dire s'il est inférieur à x), l'algorithme ajoute un caractère
spécial dans le couple de données (nombre de répétition de l'octet,
octet).
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 41
Département Technologies de l’Informatique Introduction au Multimédia
Par exemple, dans une image codée sur 1 bit, les pixels de l'image
peuvent prendre 2 valeurs soit le noir (codée par 1) soit le blanc (codé
par 0). Si x = 5, la séquence de pixels
"00000111100110011000011111111" devient, une fois compressée,
"5041#20#10#20#104081".
La méthode de compression RLE (Run Length Encoding, parfois notée
RLC pour Run Length Coding) est utilisée par de nombreux formats
d'images (BMP, PCX, TIFF). Elle est basée sur la répétition d'éléments
consécutifs.
Le principe de base consiste à coder un premier élément donnant le
nombre de répétitions d'une valeur puis le compléter par la valeur à
répéter. Ainsi selon
ce principe la chaîne "AAAAAHHHHHHHHHHHHHH" compressée donne
"5A14H". Le gain de compression est ainsi de (19-5)/19 soit environ 73,7%.
La famille des Lempel-Ziv-*
Cette famille est un ensemble de techniques de compression sans perte
qui utilisent un dictionnaire et où les codes signifient les indices des
séquences d'octets placées dans le dictionnaire.
Ce sont Abraham Lempel et Jakob Ziv qui ont inventé, en 1977, le
premier algorithme de compression de cette famille sous le nom de
Lempel-Ziv-77 ou LZ77. LZ77 connut rapidement une nouvelle version :
le LZ78. Dans les années 80, Terry Welch modifia les LZ* pour créer le
Lempel-Ziv-Welch ou LZW.
Chapitre III : Le Son
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 42
Département Technologies de l’Informatique Introduction au Multimédia
Enoncé de l’objectif général :
Décrire les principales caractéristiques du son, comprendre le principe de la
numérisation d’un signal et comparer les différents formats du son.
Objectifs Elément de contenu Moyens Méthodolog
spécifiques ie
Ce cours vise à :
• Définir son - Tableau et
• Présenter les support de
reconnaître les Formative
caractéristiques du son cours
caractéristiques (Hauteur, timbre et
d’un son volume)
• Enoncer le principe de
propagation du son
• Fonctionnement de la
carte son
énoncer le • échantillonnage - Tableau et Formative
traitement support de
numérisé du son cours
distinguer entre les Comparer entre les
formats de fichiers différents formats
sonores - Tableau et Formative
sonores.
support de
cours
Le Son
Le son est une onde produite par la vibration mécanique d'un
support fluide ou solide et propagée grâce à l'élasticité du milieu
environnant sous forme d'ondes longitudinales.
Un son est la sensation provoquée sur nos oreilles par de l'air en
déplacement, c'est-à-dire des vibrations d'air. Pour que l'air vibre il faut
que quelque chose l'agite, c'est le rôle joué par la source sonore.
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 43
Département Technologies de l’Informatique Introduction au Multimédia
1.PROPAGATION DU SON
Dans un milieu compressible, le plus souvent dans l'air, le son se
propage sous forme d'une variation de pression crée par la source sonore.
Notons que seule la compression se déplace et non les molécules d'air, Les
ondes sonores se déplacent à environ 344 mètres par seconde dans de l'air
à 20 °C.
Le son ne se propage pas dans le vide, car il n'y a pas de matière
pour supporter les ondes produites, le son se propageant grâce aux
déplacements des molécules d'air. C'est une onde dite longitudinale, car
les points matériels se déplacent dans le même sens que le déplacement
de l'onde
2.CARACTERISTIQUES DU SON
Un son est caractérisé essentiellement par trois paramètres : la hauteur, le
timbre et le volume.
2.1. Hauteur
La hauteur est le paramètre qui permet de différencier un son aigu d'un
son grave. La caractéristique d'un son aigu est qu'il fera vibrer l'air plus
souvent qu'un son grave. On dit qu'un son aigu a une fréquence élevée
alors qu'un son grave a une fréquence basse.
La fréquence d'un son s'exprime en hertz, c'est-à-dire le nombre de
vibrations par seconde. Un son qui vibre à une fréquence de 1000
vibrations seconde à une fréquence de 1000 Hz.
L'oreille humaine répond aux fréquences allant de 20 Hz à 20 Khz.
2.2. Timbre
Le timbre est le paramètre qui permet de différencier un son d'un autre
son.
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 44
Département Technologies de l’Informatique Introduction au Multimédia
Figure 20 : son grave et son aigu
Un piano a un timbre différent de celui d'un violon, peu importe la
fréquence. Ceci nous permet d'introduire la notion d'onde. L'onde est en
quelque sorte la représentation graphique des mouvements que fait notre
tympan lorsqu'il est actionné par des vibrations d'air. La hauteur d'un son a
une influence directe sur la forme de son onde.
La première onde représente un son grave, la deuxième un son aigu. Toute
onde, aussi complexe soit-elle, peut être décomposée en une somme
d'ondes sinusoïdales élémentaire qu'on appelle harmoniques. Toutes ces
harmoniques additionnées donnent le timbre d'un instrument.
L'harmonique la plus grave se nomme fondamentale ou harmonique 1 et
c'est celle que retient l'oreille pour identifier la note jouée, les autres
harmoniques servent à l'habillage du son et à la personnalisation du
timbre. Le diagramme en barres permet d'identifier les
harmoniques présentes dans un timbre.
Figure 21 : les harmoniques d’un timbre
2.3. Volume
Le volume est la force avec laquelle l'air frappe le tympan. Sur une forme
d'onde, il se traduit par une amplitude plus grande :
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 45
Département Technologies de l’Informatique Introduction au Multimédia
Figure 22 : volume fort et volume faible
L'amplitude (le volume) des différentes harmoniques constituant un son
change au cours du temps : le son peut être fort ou doux Dans l'air,
l'amplitude correspond aux variations de pression de l'onde.
En acoustique l'intensité se mesure en décibels (dB).
2.4. Espace-temps
Comme tous les phénomènes perçus, le temps joue un rôle fondamental
pour l'acoustique Il existe même des relations très étroites entre l'espace
et le temps, vu que le son est une onde qui se propage dans l'espace au
cours du temps.
On distingue trois grandes classes de signaux acoustiques :
• périodiques, dont la forme se répète à l'identique dans le temps ;
• aléatoires, qui n'ont pas de caractéristiques périodiques.
• impulsionnels : qui ne se répètent pas dans le temps et ont une
forme déterminée.
3.LE TRAITEMENT DIGITAL DU SON
3.1. L’échantillonnage
Pour être traité par un ordinateur, un son doit être sous forme digitale, il
faut procéder alors à une conversion analogique – numérique : c’est
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 46
Département Technologies de l’Informatique Introduction au Multimédia
l’acquisition. La conversion s'effectue par échantillonnage : on prélève à
des intervalles de temps réguliers des échantillons du son et on les traduit
en chiffres.
Figure 23 : échantillonnage d’un son
Un son digitalisé est donc une approximation d'un son analogique.
Un microphone convertit les variations de pressions de l'air en signaux
électriques qui, reliées a un convertisseur analogique-numérique (CAN ) qui
va numériser ce signal à pas régulier, le transformer en une suite de
nombres.
Deux paramètres caractérisent un son échantillonné : la qualité et la
résolution. La qualité est déterminée par la fréquence d'échantillonnage ;
plus la fréquence est élevée, plus on prélève d'échantillons et par
conséquent meilleure est la qualité. La résolution est déterminée par la
plage de valeurs que peuvent prendre les échantillons, et elle est d'autant
plus élevée qu'on dispose de bits. Donc, plus fréquence et résolution seront
élevées, plus le son digitalisé ressemblera au son original.
Exemple le CD audio est une succession d'échantillons à raison de 44100
échantillons par seconde sur 16 bits de résolution.
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 47
Département Technologies de l’Informatique Introduction au Multimédia
3.2. Quantification :
Numériser un signal analogique (par exemple audio) implique qu'on doit le
coder à l'aide d'un nombre fini de symboles ; c'est l'opération de
quantification. Le nombre fini de symboles implique une quantité de
valeurs possibles du signal limitée. Quantifier un signal revient à
approximer sa valeur instantanée par la valeur discrète la plus proche. On
commet donc une erreur.
Plus le nombre de valeurs numériques possibles est élevé, plus la valeur
discrète sera proche de la valeur instantanée ; le signal quantifié sera donc
plus fidèle
à l'original.
Par exemple, un signal codé sur 8 bits peut prendre 256 valeurs
différentes, sur 16 bits, on passe à 65536 valeurs possibles et sur 24 bits,
16777216 valeurs. On utilise généralement un nombre de pas de
quantification étant une puissance de deux, ce qui permet de le coder
facilement en binaire.
Rapport signal-sur-bruit de quantification
Lorsque l'on effectue une approximation du signal original, on commet
forcément une erreur relativement à la représentation originale du signal.
Cette erreur est appelée erreur de quantification.
A cette erreur de quantification est associée, lors de l'écoute, une
perturbation, que l'on appelle bruit de quantification.
L'effet du bruit de quantification relativement au signal original constitue
ce que l'on nomme le rapport signal-sur-bruit de quantification.
Formule de Shannon pour le calcul de rapport signal-sur-bruit: D
= W * log2 (1+ S/B)
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 48
Département Technologies de l’Informatique Introduction au Multimédia
Avec :
D : débit en bps
W : bande passante
S : signal
B : bruit
Exemple :
…………………………………………………………………………………………………………………………………………………………..
…………………………………………………………………………………………………………………………………………………………..
…………………………………………………………………………………………………………………………………………………………..
…………………………………………………………………………………………………………………………………………………………..
…………………………………………………………………………………………………………………………………………………………..
…………………………………………………………………………………………………………………………………………………………..
4.LA LECTURE EN CONTINU
La lecture en continu (en anglais : streaming), aussi appelée diffusion de
flux continu, désigne un principe utilisé principalement pour l'envoi de
contenu en léger différé. Très utilisée sur Internet, elle permet la lecture
d'un flux audio ou vidéo (cas de la vidéo à la demande) au fur et à mesure
qu'il est diffusé. Elle s'oppose ainsi à la diffusion par téléchargement de
fichiers qui nécessite de récupérer l'ensemble des données d'un extrait
vidéo avant de pouvoir l'écouter ou le regarder. Néanmoins la lecture en
continu est, du point de vue théorique, un téléchargement, mais le
stockage est provisoire et n'apparaît pas directement sous forme de fichier
sur le disque dur du destinataire. Les données sont téléchargées en
continu dans la mémoire vive (RAM), sont analysées à la volée par
l'ordinateur et rapidement transférées dans un lecteur multimédia (pour
affichage) puis remplacées par de nouvelles données.
5.LA CARTE DE SONS
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 49
Département Technologies de l’Informatique Introduction au Multimédia
Figure 24 : carte de son intégrée
Une carte de son est une carte d'extension d'ordinateur qui traite
les signaux audio qui sortent de l'ordinateur pour les envoyer vers les
hautparleurs. Mais elle peut également servir à interpréter les signaux
audio qui entrent dans l'ordinateur (micro, entrée ligne, etc.). Dans ce cas,
elle transforme un signal analogique en signal numérique.
Aujourd'hui, une carte son standard possède une sortie stéréo au format
mini jack, une entrée ligne stéréo ainsi qu'une prise micro. Ce type de
carte sera suffisant pour une utilisation bureautique, ou bien encore surfer
sur Internet et écouter un peu de musique occasionnellement.
D'autres cartes offrent le double stéréo. Sous Windows, cela n'a que peu
d'intérêt, on pourra simplement brancher deux paires d'enceintes.
Par contre, dans les jeux vidéo ou même dans les DVD Vidéo, chaque voix
pourra être gérée indépendamment si le logiciel le permet.
La carte son repose sur :
• Un processeur DSP (Digital Signal Processor) pour le traitement des
signaux audio (écho, distorsion, distribution des différents sons sur
les sorties)
• Un convertisseur analogique-numérique pour numériser des signaux
externes (micro ...),
• un convertisseur numérique-analogique pour restituer les signaux
audibles vers les enceintes ou le casque.
• une interface MIDI pour communiquer avec des synthétiseurs
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 50
Département Technologies de l’Informatique Introduction au Multimédia
Deux grands standards se sont imposés dans le domaine de son : AdLib
et Sound Blaster (SB). De ces deux standards, celui qui s’est imposé
comme standard commercial est Sound Blaster de Creative Labs.
Une carte limitée à 8 bits (première génération) ne permettra que le son
mono. Il faut un minimum de 16 bits pour obtenir réellement un son stéréo
et une qualité digitale (CD audio) de reproduction.
Aujourd’hui, les cartes ont pour la plupart 32 ou 64 bits et un taux
d’échantillonnage qui permet la reproduction en Dolby avec effet cinéma
maison. La différence essentielle entre une carte de 16, 32 ou 64 bits est le
nombre de voix ou le nombre de table de reproduction disponible. Plus
vous avez de voix, plus les effets sonores seront impressionnants, parce
que reproduit avec plus de détails.
6. LES FORMATS AUDIO
Dans un format donné, les fichiers sont déclinés en plusieurs taux de
compression qui induisent des niveaux de qualité sonore et des poids de
fichier très différents. En théorie, plus le taux de compression est haut,
moins le fichier est comprimé. La qualité de ce fichier comprimé s'approche
de la celle du fichier non comprimé. Par contre, plus le taux de
compression est bas, plus le rendu sonore perd de sa qualité.
6.1. CDA (Compact Disc Audio)
Il s'agit de l'extension qui apparaît sur les pistes des CD audio lorsqu'ils
sont insérés dans le lecteur CD-ROM.
Le suffixe des fichiers créés est .cda
Pour Non comprimé, forcément qualité CD
Contre Volumineux,
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 51
Département Technologies de l’Informatique Introduction au Multimédia
6.2. WAV (Waveform Audio Vector)
Mis au point par Microsoft et IBM, ce format mono ou stéréo est l'un des
plus répandus. Le format "Disque compact" 44.1 kHz, 16 bits et stéréo
nous servira de référence pour le calcul du poids et ratio des autres
formats.
Le suffixe des fichiers créés est .wav. Le format de données comprend :
– 44 octets d'en-tête permettant une identification.
– Une structure les organisant.
– Le codage des données.
Pour Non comprimé (pour la version PCM)
Contre limité à 2 Go
6.3. AIFF (Audio Interchange Format File)
Equivalent du format Wav dans le monde Macintosh. Le suffixe des fichiers
créés est .aif
Non comprimé,
Fichiers son de haute qualité
Pour Devenu le premier format d’échange
multiplateformes.
Jusqu'à 44,1 kHz en 16 bits.
Très volumineux, une variante l'AIFF-C permet de
Contre
comprimer la taille jusqu'à 6x.
6.4. MP3 (MPEG-1 Layer III)
MP3 est l'abréviation de Mpeg- 1 Audio Layer 3. Cet algorithme de compression
prend naissance en 1987. L'ISO en fera un standard dans les années 92-93. La
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 52
Département Technologies de l’Informatique Introduction au Multimédia
couche (Layer) III est la couche la plus complexe. Elle est dédiée à des
applications nécessitant des débits faibles d'où une adhésion très rapide du
monde internet à ce format de compression. Les taux de compression (ratio) sont
d'ordinaire de 1 pour 10 (1:10) (1:4 à 1:12). Très rapide à l'encodage. Ceci est
obtenu par suppression de zones dans la bande passante dont les
fréquences sont inaudibles par l’oreille humaine.
• De nombreux lecteurs permettent la restitution des fichiers .mp3 :
WinAmp,
Nad mp3 Player,UnrealPlayer, JetAudio, etc. Le suffixe des fichiers créés est
.mp3
Pour Grande compatibilité,
Qualité soit disant équivalente au CD, a un débit de
192Kbits/s = 1,44 Mo/min [CD : 10 Moctets/min]
Compression destructive avec problèmes dans les aiguës,
Contre
lors d'un ré-encodage on passe par un fichier .wav .
6.5. AAC (Advanced Audio Coding) ou MPEG-2
AAC
Il fait partie des successeurs du MP3. L'AAC, est une extension du MPEG-
2 et a été amélioré en MPEG-4, MPEG-4 Version 2 et MPEG-4 Version 3. Il a
été reconnu fin avril 1997. Le suffixe des fichiers créés est
.aac, .mp4, .m4a
Très bon codec destructif (mieux que MP3 et
Pour
WMA),
Contre Durée d'encodage importante
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 53
Département Technologies de l’Informatique Introduction au Multimédia
6.6. WMA (Windows Media Audio)
Créé par Microsoft à partir des recommandations MPEG 4 en 1999, ce
format est utilisé par le logiciel Windows Media Player. Ce format est lié à
une gestion pointue des droits d'auteurs (DRM ou Digital Right
Management) qui permet de définir par exemple une durée de vie limitée
pour les fichiers ou d'interdire les possibilités de gravure. Il existe plusieurs
versions du codec (wma7.1, wma9, wma pro). Le suffixe des fichiers créés
est .wma
Pour bonne compatibilité, meilleure compression que le MP3.
Souvent illisible sur lecteurs portables, à cause de la
Contr
gestion des droits et des restrictions dans le format
e
wma.
6.7. AU (Audio Unix)
Format assez bien répandu grâce à Unix et Linux. La fréquence
d'échantillonnage est comprise entre 1 kHz et 200 kHz. Mais les players ne
lisent principalement que trois fréquences d’échantillonnage : 8012.821
(codec entré), 22050 et 44100 hertz. Le suffixe des fichiers créés est .au
6.8. Real Audio
Format propriétaire adapté aux débits limités de Internet pour la
diffusion de sons ou de vidéos en streaming. Peuvent être lus grâce à
l’application spécifique RealPlayer (en version commerciale ou
shareware). Le suffixe des fichiers créés est .ra .rm ou .ram
6.9. Quicktime
Destiné à l’origine à l’environnement Macintosh. Il est aujourd’hui
disponible sur PC et peut être utilisé pour réaliser du streaming. Le
suffixe des fichiers créés est .MOV ou .QT
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 54
Département Technologies de l’Informatique Introduction au Multimédia
6.10. Le format MIDI
MIDI (Musical Instrument Digital Interface) est une norme développée
par les fabricants de synthétiseurs au début des années 1980 pour
permettre l'interconnexion de 16 instruments de musique électroniques
et on indique sur quelle note jouer, sur quel instrument, à quel volume,
etc.
Les données MIDI ne sont pas des données audios, mais des instructions de
déclenchement et de déroulement de sons générés par un synthétiseur.
L'avantage de cette technique tient dans la taille des données à
transmettre qui sont bien plus légères que de l'audio numérisé, mais le
résultat écouté par l'utilisateur dépend fortement de la qualité des sons
implémentés sur sa carte audio.
Les limitations de ce format sont :
• Restriction à la musique.
• La qualité de la musique :
Dépend du périphérique utilisé pour la jouer en particulier le
nombre de canaux).
▪ Le codage des instruments n'est pas normalisé :
Par exemple : un morceau de violon peut être interprété par un
saxophone sur un autre synthétiseur.
▪ Obligation d'utiliser des sons déjà existants :
"Impossible " d'intégrer un son créé par le musicien (échantillonné
ou réellement synthétisé).
7. CINEMA MAISON
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 55
Département Technologies de l’Informatique Introduction au Multimédia
Le Cinéma maison (en anglais Home cinema ou Home theater) est une
minisalle de cinéma qui s'installe chez soi, réalisée en général avec les
meilleures solutions de confort, d'acoustique et de restitution du son Hifi et
d'image vidéo grand format. Le cinéma maison est adapté au visionnage
d'émissions télévisées et de films (sur DVD notamment ou plus récemment
support Haute définition), à l'écoute de musique, ou encore à la pratique
du jeu vidéo.
Le terme est parfois utilisé pour décrire un ensemble comprenant un
simple téléviseur associé à un système acoustique à quatre enceintes ou
plus et à un lecteur de dvd.
Son
• Amplificateur(Stéréo, Dolby Digital, LC Concept, DTS, SDDS, Dolby
Pro
Logic, Dolby Pro Logic 2)
• Enceintes satellites 2.1, 5.1, 6.1, 7.1 ... :
• Deux enceintes avants pour les ambiances et la musique
• Une enceinte centrale pour les dialogues
• Deux enceintes latérales pour les effets sonore surround (Dolby
surround par exemple)
• Deux enceintes arrière pour les effets sonore surround
• Un Caisson de basse pour appuyer les enceintes dans les sons graves
et
infra
Source Image
• Démodulateur de Télévision Numérique par Satellite
• Démodulateur Télévision Numérique Terrestre TNT
• Magnétoscope (VHS et SVHS ou numérique avec disque dur ...)
• Lecteur de CD
• Lecteur de DVD
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 56
Département Technologies de l’Informatique Introduction au Multimédia
• Lecteur de DIVX
• Micro ordinateur Multimédia
• Lecteur de film haute définition
Diffusion d'image
• Télévision à haute définition, format 16/9
• Écran plasma
• Écran LCD
• Vidéo projecteur
• Rétroprojecteur
8. LE SON MULTICANAL
Le son a bouleversé l'équipement des salles de cinéma. Ces dernières
années, les nombreux cinémas Multiplex ont ainsi permis de faire remonter
la pente à cette industrie.
Il est logique que, les films bénéficiant de bandes son de plus en plus
sophistiquées, les concepteurs cherchent à trouver des moyens de
restituer cette richesse à domicile. Les laboratoires Dolby ont toujours été
à la pointe de ces travaux. On leur doit la plupart des standards du
moment. La société Lucas Film a participé à ce développement en mettant
au point le label THX qui définit une extension du standard Dolby. Afin de
s'y retrouver parmi tous ces labels et formats, voici quelques informations
synthétiques
Les anciens formats sont encore proposés sur certains DVD ou sur
les VHS, pour les films n'utilisant pas les encodages multicanaux. On
trouve ainsi les symboles de signal mono ou stéréo.
Le Dolby Surround utilise quatre
voies distinctes : une voie mono
centrale prédominante (pour la
compatibilité avec les salles et les récepteurs mono), deux canaux
frontaux pour latéraliser la bande sonore. Ces pistes ont peu de
différence avec la voie centrale (entre 30 et 40 dB en ProLogic alors
que les premiers décodeurs ne les distinguaient que de 7 dB. Le 4eme
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 57
Département Technologies de l’Informatique Introduction au Multimédia
canal, dit de surround, est monophonique même s'il est distribué sur
deux enceintes arrières. Le canal d'infra-grave n'est pas encodé dans le
signal mais simplement produit par filtrage et addition des quatre
canaux. Le Dolby Surround a fait le succès du LaserDisc dans lequel
les 4 signaux sont matricés sur 2 canaux. C'est ce même codage (Left
Total/Right Total) qui est utilisé pour diffuser des films Surround en
Nicam. Le signal arrière a une bande passante réduite (100Hz à 7kHz).
Dolb y ProLogic
Le Dolby Pro Logic est une
extension du décodage Dolby Surround. Le décodeur Dolby Pro
Logic ajoute une voie centrale, afin que le son paraisse plus central.
Cette enceinte centrale reproduit typiquement les voix des acteurs.
Ce système augmente également la séparation des voies de droite
et de gauche. Deux voies arrières reproduisent l'image sonore en
trois dimensions.
Avec un tel décodeur, Nous avons donc besoin de 5 enceintes pour un
réel confort d’écoute.
Ce système tend aujourd'hui à être dépassé depuis l'arrivée du Dolby
Digital ou Dolby AC3.
Dolby Pro logic II
Les laboratoires Dolby ont développé ces dernières années de
nombreuses technologies adaptées à la diffusion de signaux
multicanaux. Le plus utilisé aujourd’hui est le Dolby Digital, qui
offre une qualité exceptionnelle de séparation des canaux, grâce à la
technologie numérique. Cependant, le Dolby Digital, nécessite
une source digitale (DVD généralement) et un encodage Dolby Digital. Le Dolby Pro logic ou Dolby
Surround est ‘l’ancêtre’ analogique du Dolby Digital. La différence tient dans le niveau de séparation des
canaux, ne dépassant pas 37 dB (dû à la technologie de déphasage employée), à une bande passante
limitée dans les effets arrières (de 100 Hz à 7 000 Hz) et à deux voies arrières exactement identiques
(mono).
Le Pro logic II améliore beaucoup les lacunes du Pro Logic original :
- Il permet une lecture en multi-canal de sources stéréo standards sans
encodage
- La bande passante des voies d’effet arrière est améliorée - La
séparation des canaux est meilleure
- Le Dolby Pro Logic II est entièrement compatible avec les encodages
Pro Logic et Surround.
Avec quels supports utiliser le Dolby Pro Logic II ?
Le Dolby Pro Logic II propose 3 modes de fonctionnement :
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 58
Département Technologies de l’Informatique Introduction au Multimédia
- Music
- Movie
- Panorama
- Un procédé ‘Phantom’ permet également de créer l’effet en l’absence
d’enceintes surround.
On peut considérer que le résultat est intéressant surtout pour le cinéma, même à partir de sources
VHS. En revanche, le résultat à partir de sources musicales stéréo n’est pas toujours intéressant, il
faut ‘essayer’. Certains disques sont recommandés pour fonctionner avec ce système. Dans tous les
cas, deux réglages permettent d’ajuster le résultat du Pro Logic II en fonction de votre installation et
de la source que vous utilisez.
Le Dolby
Digital
Virtual Speaker est
conçu pour donner
la sensation d'un
son surround
enveloppant avec
une simple paire
d'enceintes. Ce
procédé de traitement numérique du signal simule les décalages temporels et les réflexions en
les diffusant par les 2 seules enceintes frontales. Un mode large permet de donner l'impression
que les enceintes sont plus écartées que leurs positions réelles. Ce procédé est
complémentaire des système Dolby Digital et Dolby ProLogic.
Le THX est une évolution du Dolby Surround. Il
repose sur une conception spéciale et
rigoureuse de l'installation. Lucas Film
souhaitait, en proposant le THX, que toutes les
salles (de cinéma, puis privées) restituent correctement les efforts de ses
ingénieurs.
Le Dolby Digital est un système de son numérique
utilisant 5 canaux. Appelé AC-3 (pour les appareils
grand-public) et SR-D
(dans les salles), il utilise un système de compression numérique très performant. Ce
taux peut atteindre 12:1 pour un débit de 384kbps (échantillonnage 24 bits/48 kHz). Tous
les canaux sont indépendants et large bande. On devrait donc, pour tirer correctement
parti du Dolby Digital, utiliser 5 enceintes identiques et un sub.
Le DTS est la réponse de Steven Spielberg à Georges Lucas. Le Digital Theater
System est très proche du Dolby Digital. Son principal avantage est qu'il
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 59
Département Technologies de l’Informatique Introduction au Multimédia
compresse beaucoup moins le signal - 4 fois
moins - et numérise le son sur 20 bits au lieu
de 16. Il offre ainsi
une qualité de son bien meilleure au prix d'un débit nettement
supérieur (1411 kbps).
Le THX Ultra est une extension du THX pour
garantir une qualité meilleure: grande
puissance sur tous les canaux, niveau de
105dB sans distorsion... Auparavant conçu pour les studios
d'enregistrement, ce format est disponible aujourd'hui chez l'amateur
passionné.
Le THX Select est une déclinaison plus facile à vivre du THX pour garantir une
bonne qualité tout en utilisant des enceintes plus petites et plus faciles à placer.
Les évolutions actuelles
Dolby propose maintenant le Dolby Pro Logic II (cf. ci-
dessus), une évolution du Dolby Pro logic classique
destiné à améliorer la restitution des supports encodés
en Doly Pro Logic, Dolby Surround ou des sources
simplement stéréo. Cependant, les nouvelles évolutions
intègrent maintenant une voie centrale arrière. C’est le
cas du Dolby Digital EX, du DTS ES et du THX EX.
Cette voie centrale ne représente pas un canal
supplémentaire encodé numériquement, mais reprend
le procédé analogique de déphasage entre les voies
arrières existantes sur les systèmes actuels pour recréer une voie centrale arrière.
Pour bénéficier de cette voie arrière, il faut que le support soit
encodé avec le procédé en question. Le procédé THX conseille
l’usage d’une nouvelle paire d’enceintes bipolaires en fond de salle.
Pour bénéficier de cette voie arrière supplémentaire, il faut que le
support soit encodé avec cette option.
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 60
Département Technologies de l’Informatique Introduction au Multimédia
Certains amplificateurs proposent ce format 6.1 chargé de stabiliser
l'image sonore sur l'arrière. La 6e voie n'est pas présente dans le
signal d'origine mais calculée par le décodeur.
Le SDDS (ou Sony Dynamic Digital Sound). Sony a mis au point un
format spécifique pour les grandes salles. Réservé aux
professionnels pour encore quelques temps (aucun lecteur DVD ne
le supporte), il utilise une compression de type ATRAC (comme les
MD). Parmi ses nombreux avantages, il peut gérer de 2 (96kHz/24
bits) à 8 canaux (48kHz/16bits). Il est donc compatible THX-Ultra.
9. COMPRESSION DES SONS
Quand il s’agit de diffuser du matériel sonore de haute qualité en temps
réel (streaming) par voie hertzienne ou par câble, le débit exigé pose de
sérieux problèmes…
• La diffusion d’un programme musical de qualité CD exige de disposer
d’un débit d’environ 180ko par seconde !
D’où la nécessité de compresser ces fichiers. Quand il s’agit de diffuser
du matériel sonore de haute qualité en temps réel (streaming) par voie
hertzienne ou par câble, le débit exigé pose de sérieux problèmes… La
diffusion d’un programme musical de qualité CD exige de disposer d’un
débit d’environ 180ko par seconde ! D’où la nécessité de compresser
ces
fichiers.
Le principe de compression de sons est de retirer des données audio les
fréquences inaudibles par l'oreille humaine capable de discerner des sons
entre 0.20Khz et 20Khz.
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 61
Département Technologies de l’Informatique Introduction au Multimédia
Chapitre IV : La vidéo
Enoncé de l’objectif général :
Décrire les principales caractéristiques de la vidéo, les différents modes de
compression.
Objectifs Elément de contenu Moyens Méthodologi
spécifiques e
Ce cours vise à :
• Définir vidéo
• Présenter la vidéo
- Tableau et Formative
analogique
support de
distinguer entre la • Définir PAL/SACAM et
vidéo analogique et la NTSC cours
vidéo numérique , • Présenter la vidéo
numérique
• Les signaux vidéo à
composantes
• Eliminer la redondance
spatiale
reconnaître les - Tableau et Formative
• Eliminer la redondance
différents modes de support de
temporelle
compression cours
Reconnaitre les Citer les formats
différents formats vidéo avi, mpeg,
- Tableau et Formative
vidéo ra,mov
support de
cours
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 62
Département Technologies de l’Informatique Introduction au Multimédia
Comparer les DVD, VCD, SVCD
différentes
- Tableau et Formative
technologies de support de
stockage vidéo . cours
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 63
Département Technologies de l’Informatique Introduction au Multimédia
La Vidéo
Une vidéo est une succession d'images à une certaine cadence. L'œil
humain a comme caractéristique d'être capable de distinguer environ 20
images par seconde. Ainsi, en affichant plus de 20 images par seconde, il
est possible de tromper l'oeil et de lui faire croire à une image animée.
On caractérise la fluidité d'une vidéo par le nombre d'images par
secondes, exprimé en FPS (Frames per second, en français trames par
seconde). D'autre part la vidéo au sens multimédia du terme est
généralement accompagnée de son, c'est-à-dire de données audios.
1. GENERALITES
Il existe deux grandes familles de systèmes vidéo : les systèmes vidéo
analogiques et les systèmes vidéo numériques.
1.1. La vidéo analogique
La vidéo analogique représente l'information comme un flux continu de
données analogiques, destiné à être affichées sur un écran de télévision. Il
existe plusieurs normes pour la vidéo analogique qui se partagent le
monde. Historiquement, les différences de codage du signal ont été
imposées par des contraintes techniques et notamment par la fréquence
du courant électrique (50 Hz en Europe, 60 Hz aux USA et au Japon).
Ces trois standards ont toutefois une particularité commune : l’affichage
entrelacé des images. Chaque image est affichée en deux temps : les
lignes impaires sont affichées en premier, suivies de lignes paires. Comme
les tubes utilisés pour les écrans de télévision présentent une certaine
rémanence
(persistance du point lumineux à l’écran après l’arrêt du signal qui l’a
généré),
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 64
Département Technologies de l’Informatique Introduction au Multimédia
Figure 25 : Principe de l’affichage entrelacé sur écran de
NTSCtélévision
La norme NTSC (National Television Standards Committee), utilisée aux
EtatsUnis et au Japon, utilise un système de 525 lignes entrelacées à 30
images/sec (donc à une fréquence de 60Hz).
8% des lignes servent à synchroniser le récepteur. Ainsi, étant donné que
le NTSC affiche un format d'image 4:3, la résolution réellement affichée
est de 640x480.
Figure 26 : norme NTSC
PAL/SECAM
Le format PAL/SECAM (Phase Alternating Line/Séquentiel Couleur avec
Mémoire), utilisé en Europe pour la télévision hertzienne, permet de coder
les vidéos sur 625 lignes (576 seulement sont affichées car 8% des lignes
servent à la synchronisation). à raison de 25 images par seconde à un
format 4:3
Or à 25 images par seconde, de nombreuses personnes perçoivent un
battement dans l'image. Ainsi, étant donné qu'il n'était pas possible
d'envoyer plus d'informations en raison de la limitation de bande
passante, il a été décidé d'entrelacer les images, c'est-à-dire d'envoyer en
premier lieu les lignes paires, puis les lignes impaires.
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 65
Département Technologies de l’Informatique Introduction au Multimédia
Grâce à ce procédé appelé "entrelacement", le téléviseur PAL/SECAM
affiche
secondes.
50 champs par seconde (à une fréquence de 50 Hz), soit 2x25 images en
deux
Figure 27 : norme PAL/SECAM
1.2. La vidéo numérique
Est constituée d’une suite de trames formées d'une matrice
rectangulaire de pixels. Le principe de balayage utilisé est sensiblement le
même que pour la vidéo analogique mais l’entrelacement n'est
généralement pas utilisé en vidéo numérique puisque les moniteurs
rafraîchissent l'écran 75 fois par seconde ou plus.
2. LA COMPRESSION VIDEO
Le principe fondamental de la compression vidéo est de réduire autant que
possible les redondances d'informations dans les données. Dans une
séquence vidéo, il existe deux sortes de redondances :
• La redondance spatiale : Réside dans chaque image prise
indépendamment des autres. On peut diminuer cette redondance en
codant chaque image séparément en JPEG. Cette approche est
parfois la seule utilisée lorsqu'on a besoin de pouvoir accéder de
façon aléatoire (c'est-à-dire non séquentielle) à chaque image
individuellement, comme par exemple lors d'un montage vidéo. On
parle alors de MJPEG (Motion JPEG).
• La redondance temporelle : Si deux images qui se suivent dans
une séquence vidéo sont quasiment identiques : c'est la redondance
temporelle. Le but est alors de ne stocker que ce qui est modifié lors
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 66
Département Technologies de l’Informatique Introduction au Multimédia
du passage d'une image à une autre. Les images ainsi compressées
sont de deux types :
o les images I (images Intracodées) sont des images complètes
codées en JPEG, on les appelle aussi images-clés.
o Les images P (images Prédictives) ne contiennent que les
pixels modifiés par rapport à l'image précédente
Figure 28 : compression spatiale et compression temporelle
Enfin, une séquence vidéo ne se compose pas seulement d'images,
mais aussi de son. Il y a donc deux flux à gérer : le flux vidéo et le flux
sonore.
Les normes de compression vidéo (comme MPEG) ont donc trois parties
: une partie vidéo, une partie audio, et une partie système qui gère
l'intégration des deux premières.
Les codeurs/décodeurs vidéo et audio travaillant indépendamment l'un
de l'autre, la partie système est là pour résoudre le problème de
multiplexage et démultiplexage.
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 67
Département Technologies de l’Informatique Introduction au Multimédia
2.1. Les signaux vidéo à composantes
La vidéo à composantes séparées est également appelée vidéo en
composantes, S-Vidéo, Y/C ou YCbCr. C'est un signal vidéo dont la
luminance et la chrominance sont séparées, ce qui supprime la
dégradation de l'image due à l'interférence entre ces deux signaux Les
principaux signaux vidéo à composantes sont :
2.1.1. Le standard S-Video
Le standard S-Video (pour « Sony Video »), parfois appelé Y/C, est un
mode de transmission vidéo à composantes séparées utilisant des câbles
distincts pour faire transiter les informations de luminance (luminosité) et
de chrominance (couleur). Une connexion S-Video permet d'offrir une
qualité de vidéo optimale en envoyant simultanément les 576 lignes de
l'image, sans entrelacement (en une seule fois).
On trouve ainsi ce type de connecteurs sur les camescopes ou
magnétoscopes haut de gamme S-VHS, les caméras Hi8 ou tout
simplement sur la majorité des cartes graphiques possédant une sortie TV.
Cependant, le signal S-Vidéo ne permettant de transporter que le signal
vidéo, il est nécessaire d'utiliser un câble audio séparé pour le transport
des données audio.
Il faut noter toutefois que les prises péritels récentes permettent
également de transporter un signal S-Vidéo. Il existe d'ailleurs des
adaptateurs permettant de connecter un câble S-Vidéo et des connecteurs
RCA audio sur une prise péritel, au prix d'une dégradation supplémentaire
du signal.
2.1.2. Le standard YUV
Le standard YUV (appelé aussi CCIR 601), auparavant baptisée
YCrCb (Y Cr Cb), est un modèle de représentation de la couleur dédié à la
vidéo analogique. Il se base sur un mode de transmission vidéo à
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 68
Département Technologies de l’Informatique Introduction au Multimédia
composantes séparées utilisant trois câbles différents pour faire transiter
les informations de luminance (luminosité) et les deux composantes de
chrominance (couleur). Il s'agit du format utilisé dans les standards PAL
(Phase Alternation Line) et SECAM (Séquentiel Couleur avec Mémoire).
Le paramètre Y représente la luminance (c'est-à-dire l'information en
noir et blanc), tandis que U et V permettent de représenter la
chrominance, c'est-à-dire l'information sur la couleur. Ce modèle a été mis
au point afin de permettre de transmettre des informations colorées aux
téléviseurs couleurs, tout en s'assurant que les téléviseurs noir et blanc
existant continuent d'afficher une image en tons de gris.
2.1.3. Le codage YIQ
Le modèle YIQ est très proche du modèle YUV. Il est notamment utilisé
dans le standard vidéo NTSC (utilisé entre autres aux États-Unis et au
Japon).Le paramètre Y représente la luminance. I et Q représentent
respectivement l'Interpolation et la Quadrature.
2.1.4. Le M-JPEG
Le principe du Motion JPEG (noté MJPEG ou M-JPEG, à ne pas confondre
avec le MPEG) consiste à traiter chaque image d’une séquence vidéo
séparément au moyen d’un algorithme JPEG. Le taux de compression
obtenu est relativement modéré et plus faible que celui du MPEG puisque
seule la redondance spatiale est traitée au sein de chaque image, sans
que l’on intervienne sur la redondance temporelle (on a simplement une
succession d’images JPEG). Le codage séparé de chaque image permet
néanmoins de comprendre tout l’intérêt de ce format pour les
professionnels de la vidéo. Le traitement par image permet une plus
grande capacité d’édition du flux et offre d’excellentes conditions de
travail au montage. Ainsi, son débit de 8 à 10 Mbps le rend utilisable dans
les studios de montage numérique.
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 69
Département Technologies de l’Informatique Introduction au Multimédia
L’évolution de ce format est le M-JPEG 2000, issu du JPEG 2000, lui-même
basé sur les techniques algorithmiques de compression par transformation
en ondelettes. Notons aussi que le M-JPEG 2000, à l’instar du JPEG 2000,
permet de travailler avec ou sans pertes.
2.1.5. Le MPEG
Dans la plupart des séquences vidéo, la majorité des scènes sont fixes ou
bien changent très peu, c'est ce qui s'appelle la redondance temporelle.
Il suffit donc de ne décrire que le changement d'une image à l'autre. C'est
là la différence majeure entre le MPEG (Moving Pictures Experts Group) et
le MJPEG. Cependant cette méthode aura beaucoup moins d'impact sur
une scène d'action. Le groupe MPEG a été établi en 1988 dans le but de
développer des standards internationaux de compression, décompression,
traitement et codage d'images animées et de données audio.
Il existe plusieurs standards MPEG :
le MPEG-1 est un standard pour la compression des données vidéos
et des canaux audio associés (jusqu'à 2 canaux pour une écoute
stéréo). Il permet le stockage de vidéos à un débit de 1.5Mbps dans
une qualité proche des cassettes VHS sur un support CD appelé VCD
(Vidéo CD).
La compression temporelle repose sur la définition de trois types d'images,
au sein d'une séquence vidéo :
▪ Les images-clé (aussi appelées I-frames en anglais) sont
compressées individuellement et indépendamment de leur
relation aux autres images de la séquence. L'élimination de la
redondance spatiale au sein de l'image se fait au moyen d'une
transformée en cosinus discrète (DCT) des blocs de 8x8 pixels
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 70
Département Technologies de l’Informatique Introduction au Multimédia
qui la composent, suivie d'une quantisation puis d'un codage
RLE.
▪ Les images prédites (aussi appelées P-frames en anglais)
sont compressées au moyen du principe dit de compensation
de mouvement, qui vise à éliminer la redondance temporelle
entre l'image prédite et l'image-clé qui la précède. L'idée est
de coder différemment les macroblocs qui composent l'image
prédite en fonction du fait qu'ils sont identiques ou différents à
ceux de l'image-clé. Les macroblocs qui diffèrent sensiblement
sont codés de la même manière qu'un macrobloc dans une
image-clé, tandis que ceux qui sont identiques ou presque à
ceux de l'image antérieure sont codés référentiellement.
▪ Les images bidirectionnelles (aussi appelées B-frames en
anglais) sont compressées de manière identique aux images
prédites. La différence avec celles-ci réside dans le fait que les
macroblocs sont codés référentiellement à une image qui
précède ou à une image qui suit. Les images suivantes doivent
donc déjà se trouver en mémoire pour que soit réalisée la
reconstruction de l'image bidirectionnelle. La très faible
quantité de macroblocs qui ne peuvent être référencés soit par
une image qui précède, soit par une image qui suit, explique le
gain considérable d'espace lors de l'opération de compression.
Le flux vidéo est donc compressé de la sorte, en générant une suite
d'images du type IBBPBBPBBPBBI.
• le MPEG-2, un standard offrant une qualité élevé à un débit pouvant
aller jusqu'à 40 Mbps, et 5 canaux audio surround.
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 71
Département Technologies de l’Informatique Introduction au Multimédia
• le MPEG-4, un standard destiné à permettre le codage de données
multimédia sous formes d'objets numériques, afin d'obtenir une plus
grande interactivité, ce qui rend son usage particulièrement adapté
au Web et aux périphériques mobiles.
• le MPEG-7, un standard visant à fournir une représentation standard
des données audio et visuelles afin de rendre possible la recherche
d'information dans de tels flux de données. Ce standard est ainsi
également intitulé Multimedia Content Description Interface.
3.LES FORMATS VIDEO
3.1. .AVI (Vidéo For Windows)
Format vidéo de Windows. Applications à utiliser pour ouvrir ces fichiers :
Lecture directe avec le lecteur multimédia de Windows. Cette extension,
grâce au logiciel libre sert pour les fichiers vidéo compressés notamment
le format DivX permettant d'obtenir des fichiers peu volumineux
facilement échangeable tout en ayant une bonne qualité. Lecture directe
avec le lecteur multimédia de Windows
3.2. .MPEG .MPG (Moving Picture Expert Group)
Norme publique très répandu sur l'Internet, il est généralement
visualisable en différé. La norme MPEG-1 est utilisée pour les diffusions sur
CD-Rom (format quart d'écran) tandis que le format MPEG-2 est utilisé
pour les DVD vidéo, et sert de base à la diffusion sur les chaînes
numériques. Il vous faut un ordinateur relativement musclé avec une carte
graphique qui booste le processeur. Pour le MPEG-2 il faut investir dans
une carte de décompression spécialisée ou sur un logiciel de
décompression adapté.
3.3. .MOV .QT (QuickTime Movie)
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 72
Département Technologies de l’Informatique Introduction au Multimédia
Développé par Apple, concurrent du .AVI de Windows, il est très répandu
sur l'Internet et sur toutes les plates-formes visant le statut de standard
universel. Applications à utiliser pour ouvrir ces fichiers : Lecture directe
avec le lecteur QuickTime.
3.4. .RA (Real Audio)
Format propriétaire pour la diffusion en direct de séquences sonores et
vidéo par l'Internet. Application à utiliser pour ouvrir ces fichiers :
RealPlayer (version shareware ou commerciale)
3.5. VDO (VDO Live)
Format propriétaire pour la diffusion en direct de séquences vidéo par
l'Internet. Applications à utiliser pour ouvrir ces fichiers : VDO player ou
plug-in adapté.
3.6. VIV (Video Active)
Format propriétaire pour la diffusion en direct de séquences vidéo
par l'Internet. Ces fichiers très compacts sont de qualité d'image
médiocre. Applications à utiliser pour ouvrir ces fichiers : VIV player
ou plug-in adapté.
3.7. Tableau des principaux formats vidéo
Format /
Utilisation Logiciel / support
extension
Chaque composante audio ou vidéo peut être
compressée par n'importe quel codec (DIvX et
AVI / .avi Tous les logiciels de
mp3).
C'est un "conteneur" très pratique, le plus utilisé. lecture vidéo.
Un format conteneur de Microsoft et sa famille de
WMV/ .wm codecs vidéo. On le trouve souvent chez des vidéos
Windows Media
v
en streaming ou en téléchargement. Player.
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 73
Département Technologies de l’Informatique Introduction au Multimédia
Format conteneur d'Apple, pouvant contenir un très
MOV / .mo
large choix de codec, y compris haute
v Quicktime.
définition.
Les codecs vidéo les plus utilisés. Permet de Nécessite
DivX et diviser par 6 la taille d'un film en DVD sans trop de l'installation des
perte de qualité.
Xvid codecs DivX / Xvid à
Xvid est le concurrent libre de DivX.
jour,
Se lit avec VLC, Media
Player Classic et
MKV / .mkv Format conteneur russe, pouvant contenir de très
autres après
.mka .mks nombreux codecs.
l'installation des
Codecs.
H264 /
Codec utilisé pour la haute définition. Se Se lit avec la majorité
MPEG 4
retrouve dans les Blu-ray. des lecteurs vidéo
AVC
format natif d'Adobe Flash Player, Le
FLV / .flv s'ouvre avec VLC.
format Flash Video, utilisé sur Internet
Real Video RealPlayer ou
/ Codec video propriétaire de Real Networks. RealAlternative
.rmvb
4.QUELQUES SUPPORTS DE LA VIDEO
4.1. Le DVD
DVD signifie Digital Video Disc, renommé Digital Versatil Disc. Il a été
développé en 1995 par un consortium regroupant 10 constructeurs. Il faut
distinguer les DVD Audio, DVD vidéo (lecture sur TV)et DVD-ROM, capable
de stocker environ de 4.7 Go (monocouche simple face) à 17 Go (double
couche double face).
Le DVD supporte les normes MPEG-1 et MPEG-2, en la résolution est de
720x576 en PAL (x480 en NTSC).
Un DVD vidéo est constitué de plusieurs répertoires, celui correspondant à
des données relatives à la vidéo est le répertoire video_TS. Se trouvent
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 74
Département Technologies de l’Informatique Introduction au Multimédia
dans ce répertoire, les fichiers VOB (Video OBjects), comprenant un flux
MPEG-2 et le multiplexage des pistes audio et sous-titres, les fichiers IFO
contenant les informations relatives à la durée du film, ses pistes audios,
le format d’encodage ou le séquençage des fichiers VOB,
4.2. Les SVCD (Super Vidéo CD) et VCD (Vidéo
CD)
Le SVCD est un compromis entre la qualité du DVD et du VCD, le tout sur
un support CD. VCD : résolution 352x288 et norme MPEG-1. SVCD :
résolution 576x480 (PAL) ou 480x480 (NTSC) et MPEG-2, en CBR et VBR.
Les 2 codent le son en MPEG-1 Layer II mais le SVCD permet également de
coder en MPEG 2 multicanal 5.1.
Le VCD est né en 1993 (le SVCD en 2000) pour faire tenir 1 heure de vidéo
sur un CD avec la même interactivité qu’offrent les CD audio. Les 2
fichiers, vidéo MPEG-1 et audio MPEG-1 Layer 2 stéréos 16 bits, sont
multiplexés en 1 fichier .dat. Le démultiplexage fournit un fichier .mv1 et
un autre .mp2.
Le VCD contient les répertoires CDI (pour le programme qui permet de lire
le VCD sur les lecteurs CD-I de Philips), EXT (fichiers utiles pour le CDI),
MPEGAV qui contient les séquences AVSEQOx.DTA avec x le numéro de la
séquence, SEGMENT qui contient des fichiers d’index images pour les
menus et diaporamas, et enfin le répertoire VCD qui contient les
informations sur le volume. Sur un SVCD, le répertoire MPEGAV se nomme
MPEG2.
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 75