0% ont trouvé ce document utile (0 vote)
319 vues75 pages

Multimédia

Multimedia

Transféré par

sarahazeek
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats DOCX, PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
319 vues75 pages

Multimédia

Multimedia

Transféré par

sarahazeek
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats DOCX, PDF, TXT ou lisez en ligne sur Scribd

Introduction au Multimédia

Année Universitaire 2023-2024

ASWR

Introduction au MULTIMEDIA
Profil : Licence Informatique Niveau : 1 Durée :
13 semaines

Option : ASWR Heures /Semaine : 2h00’’


cours

Objectif : Se familiariser avec le concept de multimédia et connaitre les


principes de fonctionnement de chaque type de média comme le son,
image et vidéo et les appliquer.

Pré requis : connaissances générales en informatique de base.

Moyens pédagogiques :
• Vidéo projecteur, tableau

• Exposé oral,
• Support de cours et TP

Sommaire
CHAPITRE 1 : LE MULTIMEDIA
1. DEFINITIONS ...............................................................................
.......
2. LES TYPES DE
MEDIA .........................................................................
3. DOMAINES D’APPLICATIONS
MULTIMEDIA..................................... 4. COMPOSANTES DE BASE
: ...............................................................

CHAPITRE 2 : L’IMAGE
1. NOTION DE
COULEUR : ....................................................................

2
Introduction au Multimédia

2. NOTIONS
IMPORTANTES. ..................................................................
3. LES DIFFERENTS MODES
COLORIMETRIQUES. .................................
4. LA REPRESENTATION ET LE CODAGE DES
COULEURS ....................
5. DESCRIPTION
D’IMAGE ....................................................................
6. FORMAT
D'IMAGES ...........................................................................
7. COMPRESSION DE
DONNEES ..........................................................

CHAPITRE 3 : LE SON
1. PROPAGATION DU
SON .................................................................
2. CARACTERISTIQUES DU
SON .........................................................
3. LE TRAITEMENT DIGITAL DU
SON ....................................................
4. LA LECTURE EN
CONTINU ...............................................................

Département Technologies de l’Informatique

5. LA CARTE DE
SONS ..........................................................................
6. LES FORMATS
AUDIO .......................................................................
7. CINEMA
MAISON .............................................................................
8. LE SON
MULTICANAL .......................................................................
9. COMPRESSION DES
SONS ...............................................................
Introduction au Multimédia

CHAPITRE 4 : LA VIDEO
1.
GENERALITES ..............................................................................
...... 2. LA COMPRESSION
VIDEO ...............................................................
3. LES FORMATS
VIDEO .......................................................................
4. QUELQUES SUPPORTS DE LA
VIDEO ...............................................

Chapitre I : Le multimédia
Enoncé de l’objectif général : Présenter les concepts généraux du
multimédia, définir multimédia et son centre d’activité et les normes
générales

Objectifs Elément de contenu Moyens Méthodolog


spécifiques ie
Ce cours vise à :

Présenter la • • Définir média Tableau Formative


multimédia • Enumérer les médias et
Présenter le multimédia support

de cours
Présenter les applications
multimédia

Définir les • Enumérer les périphériques Tableau Formative


concepts d’acquisition et
généraux • Enumérer les périphériques support
de stockage, entrée et de cours
sortie

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 3

4
Département Technologies de l’Informatique Introduction au Multimédia

Le multimédia
Le multimédia est apparu vers la fin des années 1980, avec les
vidéodisques analogiques pour stocker des images, vidéo et son.

La première réalisation numérique est faite avec Hypercard de


Macintosh d’Apple.

Il faudra attendre la fin des années 1990 avec l'arrivée de méthodes


de compression de son et de vidéo, ainsi qu'une certaine montée en
puissance des ordinateurs personnels, pour atteindre simultanément des
qualités semblables aux différents autres médias réunis.

Aujourd'hui on utilise le mot multimédia pour désigner toute


application utilisant ou servant à travailler sur au moins un média
spécifique.

1. DEFINITIONS
:« Technologie de l’information permettant la manipulation simultanée de
sons, d’images et de textes, au moyen d’un seul ensemble informatique et
de façon interactive ».

Il faut faire la différence entre le contenant : ordinateurs, matériels,


câbles..., et le contenu : l'information délivrée, transmise, diffusé.

2. LES TYPES DE MEDIA


Une caractéristique importante d’un système multimédia est le traitement
intégré de plusieurs types de données appelés médias qui peuvent avoir
une dépendance temporelle (médias continus) ou une indépendance
temporelle (médias discrets).

a. Définition Média

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 5


Département Technologies de l’Informatique Introduction au Multimédia

Un média est un moyen de présenter ou de communiquer des informations


(texte, image, son, vidéo…). Chaque média possède un moyen de stockage
comme le papier pour le texte et les cassettes pour la vidéo

Le média digital est la représentation des médias par les systèmes de


l’information qui sera manipulé, sauvegardé ou transmise par un réseau
informatique
b. Types de données

Plusieurs modes de représentation des données multimédia sont possibles,


elles concernent :

i. Les données de
type texte
Le texte est souvent la forme de donnée la plus utilisée dans une
application. Seules quelques applications hautement spécialisées pourront
se passer de texte. La saisie de texte peut se faire de différentes manières
dont les plus communes sont la saisie au moyen : d’un clavier, OCR
(Optical Character Recognition), ou la reconnaissance de caractères
effectués à partir de documents digitalisés.

ii. Les données de


type graphique Elles peuvent être:

- de purs dessins informatiques en 2D ou 3D (fixes),

- des images digitalisées (fixes),

- des images vidéo digitalisées (fixes),

- des séquences vidéo (animées),

- des images de synthèse (animées).

iii. Les données de type sonore


Le son est une information sous forme de sensation auditive engendrée par
une vibration acoustique.

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 6


Département Technologies de l’Informatique Introduction au Multimédia

c. Médias discrets

Ceux qui n’ont aucune dépendance temporelle, comme le texte, les

graphiques, les images fixes, qui seront appelés médias discrets ;


l’information contenue est donnée exclusivement par l’ensemble des
éléments individuels qui le compose, sans aucune référence temporelle.

Leur traitement, même s’il doit se faire dans un temps contraint par
l’application, n’est pas conditionné par des contraintes temporelles,
l’intégrité des données d’un média discret étant indépendante du temps.
Leur volume

est aussi limité.


d. Médias continus
Ceux qui ont une dépendance temporelle, comme le son, la musique, la
vidéo, qui seront appelés médias continus. L’information qu’ils contiennent
ne peut se comprendre que par rapport aux évolutions temporelles de
grandeurs

physiques. Leur traitement est critique du point de vue temporel.

e. Caractéristiques des médias continus

Les signaux manipulés dans les systèmes multimédias, et notamment les


signaux temporels, ne correspondent pas à des données ordinaires, celles-ci
sont caractérisées par :

• un volume très important : Le débit de la vidéo (non comprimée)


se situe entre 140 et 216 Mbits/s, celui de l’audio tel que le type CD de
l’ordre de 1,4 Mbits/s, la parole 64 Kbits/s. La nécessité de la
compression apparaît assez rapidement pour de nombreuses
raisons.
• un flux continu : Il en découle des aspects temps réel,
synchronisation et contrôle des flux très importants.

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 7


Département Technologies de l’Informatique Introduction au Multimédia

• des qualités de services spécifiques : Par exemple, en terme de


taux d’erreur, si la vidéo s’accommode de taux modérés, l’audio sera
plus exigeant et nécessitera des taux plus faibles.

3. DOMAINES D’APPLICATIONS MULTIMEDIA


a. Applications grand public

• magazines, journaux en ligne

• musée interactif, encyclopédies et livres électroniques

• jeux vidéo : jeu d'aventure, de stratégie, d'action, réalité


virtuelle ;

• Enseignement assisté par ordinateur (EAO) : enseignement à

distance, didacticiel ;

• Animation : dessin animé, image de synthèse.

b. Applications professionnelles

• Présentation d’entreprise, Formation à la carte, formation à


distance

• Commerce électronique

• Domaine médical

• Construction (architecture, simulation, visite virtuelle) et


Conception assistée par ordinateur (CAO) ;

• Éditeur Web, Graphisme : infographie, dessin bitmap et vectoriel ;


• Musique, Montage, Publication assistée par ordinateur ;

• VoIP ; Visio-conférence.

4. COMPOSANTES DE BASE :
L’ordinateur est un équipement indispensable pour la manipulation des
données multimédia, il sert pour acquérir de l’information, la traiter, la
stocker et de la divulguer. En plus de l’unité centrale, il existe des
périphériques pour gérer.

a. Périphériques d’entrée

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 8


Département Technologies de l’Informatique Introduction au Multimédia

Leur rôle est de gérer les flux d’information vers l’ordinateur en captant de
l’information et de fournir les données et de transmettre les commandes de

l’utilisateur.

Exemple : clavier, souris, crayon optique, écran tactile, joystick.

i. Périphériques d’entrée spécifiques au son

❖ La carte son
Conversion analogique / numérique et conversion numérique /

Figure 1 : Carte
son
analogique du son

❖ Le microphone
Convertit les vibrations sonores en signaux analogiques en vue

d’enregistrement
Figure 2 : Microphone

ii. Périphériques d’entrée spécifiques à l’image

❖ le scanner
Appareil qui permet d'analyser une image pour attribuer une valeur numérique à
chacun de ses points. L'image est soumise au balayage d'un rayon lumineux ; un
capteur transforme la lumière réfléchie en un signal électrique qui est transféré à
un ordinateur, pour y être ensuite sauvegardé, traité ou analysé. L'appareil prend
souvent la forme d'une tablette sur laquelle le document doit être posé, mais il
existe aussi des numériseurs à main et des stylos numériseurs.

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 9


Département Technologies de l’Informatique Introduction au Multimédia

Figure 3 : Le
Scanner
❖ l’appareil photo numérique
Un appareil photo numérique prend des photos électroniques par l'intermédiaire de
son capteur (CCD, CMD ou CMOS) et les stockent généralement sur un support de
stockage amovible (Memory Stick, MultiMedia Card, Mémoire flash, Secure Digital,
SmartMedia..) ce qui élimine la pellicule photo traditionnelle. C'est la définition du
capteur qui conditionne la qualité de l'image reproduite.

Les photos stockées dans les cartes mémoire peuvent être exploitées de
différentes façons :
• La carte peut rester dans votre appareil photo et les photos sont
transférées vers l'ordinateur via un cordon.
• La carte peut s'insérer directement dans votre imprimante photo sans
passer par votre PC.
• La carte peut s'insérer dans une disquette adaptatrice que vous glissez
ensuite dans votre ordinateur.

iii. Périphériques d’entrée spécifiques à la vidéo

❖ Carte d’acquisition vidéo


Convertit les signaux vidéo analogiques en données numériques :
l’acquisition vidéo nécessite le décodage de la couleur puis la conversion
des signaux de luminance en signal numérique.

Figure 4 : Carte d’acquisition vidéo

❖ la Webcam
Caméra de qualité généralement assez faible, elle est directement liée à
l’ordinateur par un port USB ou FIREWIRE, elle est directement reliée à
l’ordinateur pour lui transmettre des images fixes ou animés.
C’est un moyen de communication sur Internet.

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 10


Département Technologies de l’Informatique Introduction au Multimédia

Figure 5 : Webcam

b. Périphériques de stockage
i. Les disques magnétiques : Disque recouvert d'une couche
magnétique où sont enregistrées les données. Apparus en 1956 (IBM)
de taille 5 Mo, aujourd’hui jusqu’à 2 Go.

ii. Les disques optiques non réinscriptibles : Disque où sont


enregistrées des données lisibles par un procédé optique. Il peut
sauvegarder plusieurs Go de données numériques Ce sont des
supports comparables aux disques magnétiques Il existe 3
catégories de disques optiques numériques : Disques non
réinscriptibles (WORM) ; Les disques optiques compacts (CD-ROM) ;
Les disques magnéto-optiques réinscriptibles.

Figure 6 :disque optique

iii. Les disquettes magnéto-optiques : Apparus en 1990 «floptical»


ou FMO. Leurs caractéristiques principales sont :
• 21 Mo (disquette spéciale 31/2 p) de mémoire ;
• 80 ms (200 ms pour lecteur de disquette magnétique !) de temps
de réponse ;
• 1250 pistes/pouce (135 pistes/pouce sur une disquette HD).

iv. Le vidéodisque : L’ancêtre du CD-ROM, c’est le vidéodisque,


apparu dans les laboratoires de Philips au début des années 70 :
l’enregistrement et la lecture des données étaient effectués sans
aucun contact avec le support, par l’intermédiaire d’un faisceau
laser.

Le vidéodisque est aussi appelé CD-vidéo ou Laserdisc. Le


vidéodisque original permet l'enregistrement de la vidéo analogique
et du son analogique sur un support en plexiglas gravé de la même
façon que les
CD audio. Le disque est lu à partir du centre et en allant vers
l'extérieur.

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 11


Département Technologies de l’Informatique Introduction au Multimédia

v. Le CD Audio : Apparu en 1982 Le Compact Disc Digital audio


(CDDA) est venu révolutionner le monde des mélomanes. Inventé
par Philips, consigné dans un livre de standardisation (« Red Book »)
en association avec Sony.

Lors de pressage usine des données, le laser creuse des minuscules trous
(microcuvettes) sur un disque en rotation. Les microcuvettes constituent
une piste unique en spirale. La capacité du CD Audio est de 650 Méga
octets ce qui correspond à un peu plus de 70 mn. de musique (en mode
stéréo, codé à
44,1 Khz sur 16 bits).

Figure 7 : CD Audio

vi. Le CD ROM : Le standard CD-ROM fut établi en 1984 quand le


standard du CD audio fut modifié pour permettre l'accès de cette
technologie aux PC. Les bits sont stockés d'une façon permanente
sur un CD sous la forme de creux moulés physiquement dans la
surface d'une couche en plastique recouverte d'aluminium
réfléchissant (ou d'or, ou d'argent). Les CD sont extrêmement
durables car aucun élément du lecteur optique ne touche la surface
du disque.

Avec une capacité de stockage de 700 Mo et un temps d'accès de 80 ms à


120 ms suivant la position des bits sur le disque et un taux de transfert de 5
Mo/s font des CD-ROM des médias particulièrement bien adaptés pour les
grandes présentations multimédias et les logiciels.

Le CD se compose de trois couches superposées. La couche principale qui


est la plus épaisse est en polycarbonate, un plastique résistant et
transparent (1). Ce plastique laisse passer la lumière émise par le laser lors
de la lecture d'un CD. On trouve ensuite une couche métallique
réfléchissante (2) très souvent en aluminium qui va réfléchir la lumière
émise par le laser. Il y a par-dessus tout ça une couche de vernis protecteur

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 12


Département Technologies de l’Informatique Introduction au Multimédia

qui vient protéger le métal de l'agression des Ultraviolets (3). Par-dessus le


tout, on trouve la surface imprimée qui sert à habiller le disque (4)

Lors de la lecture d'un CD de ce type, le faisceau laser traverse la couche de


polycarbonate et rencontre ou non un creux. Le faisceau est ensuite réfléchi
par la couche métallique. Le passage d'un creux à une bosse ou d'une bosse
à un creux représente un 1 dans le langage binaire. Le reste représente un
0. La lumière du laser est alors fortement déviée (on dit qu'elle est
réfractée), de telle sorte que la dose de lumière renvoyée par la couche
réfléchissante est minime.
Le lecteur comprend alors qu'il s'agit d'un 1. La longueur du motif qui suit,
qu'il soit bosse ou creux, donne la longueur du nombre de 0 situés après. La
succession de 0 et de 1 permet ensuite de lire le contenu du disque. A noter
que contrairement aux disques durs, un CD n'a qu'une seule piste organisée
en spirale.

vii. Le MiniDisc
Lancé par Sony en 1992. Amélioration du CD audio ; Permet
l’enregistrement par l’utilisateur. Diminution de la taille du disque ;
Incompatibilité avec le CD audio : Dimension : 6,4 cm ; 74 minutes de son
numérique ; Vitesse de 1,4 m/s

Figure 9 : Mini disc

viii. Le DVD
Le DVD-ROM (Digital Versatile Disc - Read Only Memory) est en fait un CD-
ROM dont la capacité est bien plus grande Capacité (de 4,7 Go à 17 Go)
Ceci est dû au fait que les alvéoles du DVD sont beaucoup plus petites
(0,4µ avec un espacement de 0.74µ contre 1.6µ et 1.83µ pour le CD-ROM).

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 13


Département Technologies de l’Informatique Introduction au Multimédia

Figure 10 : DVD

Les DVD existent en version "double couche", ces disques sont constitués
d'une couche transparente à base d'or et d'une couche réflexive à base
d'argent. Leur intérêt est que la capacité de ces DVD est bien supérieure à
celle des DVD simple couche.

Pour lire ces données, le laser du lecteur de DVD possède deux intensités :

* lorsque l'intensité est faible, le rayon se réfléchit sur la surface en or,


c'est à dire sur la première couche et ne la traverse pas.

* lorsqu'on augmente l'intensité du laser, le faisceau traverse la


première couche en or et se réfléchit sur la deuxième couche, qui est en
argent.

Voici les normes les plus couramment utilisées :

▪ DVD -R : DVD réinscriptible une fois d'une capacité de 4.7 Go

▪ DVD +R : DVD réinscriptible une fois d'une capacité de 4.7 Go. Il en


existe des modèles dont la capacité est doublée grâce à une
deuxième couche. On les nomme la plupart du temps DL (Dual
Layer).

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 14


Département Technologies de l’Informatique Introduction au Multimédia

▪ DVD -RW : pareil au DVD -R mais réinscriptible jusqu'à 1000 fois. ▪


DVD +RW : pareil au DVD +R mais réinscriptible jusqu'à 1000 fois.

ix. Les HD DVD


HD DVD (High Density Digital Versatile Disc) traduit en français comme
disque numérique polyvalent de haute densité. Tout comme pour le CD et le
DVD, les données étaient stockées sous forme numérique, sur un disque de
12 cm de diamètre. Le « HD » du nom fait également référence à la Haute
définition, les films stockés sur ces disques pouvant effectivement être en
HD.

Le HD DVD a une capacité par couche de 15 Go, soit un total de 30 Go avec


un HD DVD double couche. La couche de protection (qui protège la couche
de données) des disques HD DVD fait 0,6 mm d’épaisseur (la même que
celle du DVD). Cette technologie utilise une diode laser fonctionnant à une
longueur d’onde de 405 nm pour lire et écrire les données.

x. Le disque Blu-Ray
Le disque Blu-ray ou Blu-ray Disc (abréviation officielle BD, autre
dénomination B-RD) est un format de disque numérique breveté et
commercialisé par l’industriel japonais Sony permettant de stocker et
restituer des vidéogrammes en Haute Définition. Sa dénomination provient
du type de rayon laser qu’il exploite, de couleur spectrale proche du bleu.

Son principal concurrent, le HD DVD lancé par Toshiba avec le soutien de


Microsoft a été officiellement abandonné en février 2008. Plus tard Toshiba
rejoindra officiellement le consortium Blu-ray et présentera lors de l'IFA
2009 sa première platine Blu-ray, la BDX2000E.
Le Blu-ray exploite un rayon laser bleu-violet (longueur d’onde λ = 405 nm),
Par comparaison avec le laser Infrarouge (λ = 780 nm) utilisé pour le CD et
le laser rouge (λ =650/635 nm) utilisé pour le DVD, le Blu-ray permet de
stocker plus d’informations sur la même surface grâce à un rayon plus fin
(diamètre du spot laser : 290 nm) induisant des sillons de gravure plus
petits et plus rapprochés (écart : 320 nm) et des alvéoles plus courts
(longueur minimale : 149 nm — 135 nm pour le modèle 27 Go actuellement
abandonné).

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 15


Département Technologies de l’Informatique Introduction au Multimédia

xi. Les cartes mémoire :


Développées par Intel en 1983

Première carte : Toshiba en 1985

Une carte mémoire est une unité de stockage de données numériques


utilisée le plus souvent pour le stockage des clichés numériques dans les
appareils photo numériques, pour la sauvegarde de parties sur consoles de
jeux vidéo, mais aussi dans des lecteurs de musique ou des appareil
électroniques professionnels te

Les capacités existantes aujourd'hui sont de 16 Mo jusqu’à 8 Go Bientôt


vont apparaître les cartes 10 et 12 Go

Figure 11 : Carte mémoire

c. Les périphériques de sortie


i. L’écran
Un moniteur est un périphérique de sortie usuel d'un ordinateur. C'est
l'écran où s'affichent les informations saisies ou demandées par l'utilisateur
et générées ou restituées par l'ordinateur, sous forme de texte et d'images
en deux dimensions avec éventuellement un effet à trois dimensions. Le
texte et les images peuvent être fixes ou animés.
Sur certains systèmes, l'écran peut aussi servir de périphérique d'entrée :
L’utilisateur peut choisir une action en touchant la partie correspondante de
l'écran, si le système le prévoit ; on parle alors d'écran tactile.

❖ L’écran a tube cathodique (CRT)


Un écran à tube cathodique est un tube sous vide où l'on place un
dispositif d'extraction et d'accélération d'électrons constitué d'un filament

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 16


Département Technologies de l’Informatique Introduction au Multimédia

chauffé, de cathodes et d'anodes soumises à une différence de tension


créant un champ électrique accélérant les électrons. Ces derniers viennent
frapper un des bords plats, l'écran, sur lequel on a déposé une couche
fluorescente couverte de petits éléments phosphorescents d'une couleur
vert, rouge ou bleue (appelés lumiphores) réagissant au choc des
électrons.

Chaque lumiphore est ainsi un point lumineux que l'on appelle pixel. Il
s'agit du plus petit point pouvant être affiché par l'écran. Le mélange des
trois couleurs de base (rouge, vert, bleu) permet de reconstituer toutes les
couleurs visibles.

Figure 12 : écran CRT

❖ L’écran à cristaux liquides (LCD)


L’écran à cristaux liquides (affichage à cristaux liquides ACL ou LCD, liquid
crystal display, en anglais) est le principal composant des moniteurs plats

aussi appelés TFT pour Thin-film transi.

Il utilise la polarisation de la lumière grâce à des filtres polarisants et la


variation de l’orientation de certains cristaux liquides en fonction du champ
électrique. Du point de vue optique, l'écran à cristaux liquides est un
dispositif passif (il n'émet pas de lumière) dont la transparence varie :il doit

donc être éclairé.

La technologie LCD est basée sur un écran composé de deux plaques


transparentes entre lesquelles est coincée une couche de liquide contenant

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 17


Département Technologies de l’Informatique Introduction au Multimédia

des molécules qui ont la propriété de s'orienter lorsqu'elles sont soumises à


du courant électrique et donc de permettre ou non le passage d'une

couleur.

Figure 13 : écran LD

❖ L’écran à PLASMA
Un écran à plasma est un écran plat dont la lumière est créée par du phosphore
excité par une décharge de plasma entre deux plaques de verre.

Les écrans Plasma fonctionnent à peu près de la même manière que les lumières
néon ou fluorescentes - ils utilisent l’électricité pour illuminer un gaz.

❖ Caractéristiques du moniteur
▪ La Définition : c'est le nombre de pixels que l'écran peut afficher, ce nombre
de points est généralement compris entre 640 points en longueur et 480
points en largeur et 1600x1200.

▪ La Taille : Elle se calcule en mesurant la diagonale de l'écran et est exprimée


en pouces. Un pouce vaut 2.54 cm.

▪ Le Pas de Masque : C'est la distance qui sépare deux lumiphores. Plus celle-
ci est petite plus l'image est nette. Évitez donc les écrans dotés d'un pas de
masque de

0.28 ou plus.

▪ Le Temps de Réponse (ou Temps de Rémanence) : Utilisé uniquement


pour les écrans plats, il s'agit du temps que met un pixel noir pour passer à
l'état blanc ou inversement.

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 18


Département Technologies de l’Informatique Introduction au Multimédia

Chapitre II : L’image

Enoncé de l’objectif général

Décrire les principales caractéristiques de l’image

Objectifs Elément de contenu Moyens Méthodologi


spécifiques e
Ce cours vise à :

• Présenter les
caractéristiques de
reconnaître les l’image (couleur, - Tableau et Formative
différents types résolution, taille…) support de
d’image, • Différentier Image cours
vectorielle et
matricielle
• Les modes colorimétriques
distinguer les • Définir les formats
formats de l’image gif, jpeg, png,TIFF
et reconnaître • Comparer les - Tableau et Formative
l’usage formats d’image support de
• Expliquer l’ulilité cours

Comprendre le • Citer les différents - Tableau et


principe de types de support de
compression
compression de cours Formative
• Expliquer l’utilité
l’image

L’image
Eliézer Djynal KINANGA (Exp. Réseau Cisco) 19
Département Technologies de l’Informatique Introduction au Multimédia

L’image est une perception visuelle d’un objet donné par une surface
réfléchissante de lumière et de couleurs.

Grâce à la cornée (l'enveloppe translucide de l'œil) et de l'iris (qui en


se fermant permet de doser la quantité de lumière), une image se forme
sur la rétine. Celle-ci est composée de petits bâtonnets et des cônes.

Les bâtonnets permettent de percevoir la luminosité et le


mouvement, tandis que les cônes permettent de différencier les couleurs. Il
existe en réalité trois sortes de cônes : Une sorte pour le Rouge, Une sorte
pour le Vert et Une sorte pour le Bleu.
La couleur est provoquée par la lumière que captent nos yeux, mais elle
naît et ne naît que- dans notre cerveau : La couleur est une perception du
cerveau.

1. NOTION DE COULEUR :
La couleur de la lumière est caractérisée par sa longueur d'onde. On
caractérise généralement la longueur d'onde d'un phénomène oscillatoire
par la relation: λ=(1/C*T). Avec : λ : longueur d'onde, C : désigne la célérité
de l'onde ,T :désigne la période de l'onde (en secondes).

L'œil humain est capable de voir des lumières dont la longueur d'onde est
comprise entre 400 et 700 nanomètres. En dessous de 400 nm se trouvent
des rayonnements tels que les ultraviolets, au-dessus de 700 on trouve les
rayons infrarouges .

La couleur est caractérisée par une teinte, Saturation et Luminosité ou (T S


L) La teinte est un attribut qui décrit immédiatement une couleur pure,
comme le rouge pur, le bleu pure, etc. La teinte définit la couleur elle-
même.

-La saturation est un attribut qui décrit l'altération d'une couleur pure
avec le blanc ou un niveau de gris. Elle mesure la proportion de couleur

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 20


Département Technologies de l’Informatique Introduction au Multimédia

pure par rapport au blanc. Elle représente le facteur de pureté de la


couleur. Cette notion permet de distinguer le rose du rouge.

-La luminosité (intensité, nuance) est un attribut qui qualifie la luminosité


d'une couleur. La luminosité détermine l'intensité lumineuse émise par la
couleur (Couleur claire ou foncée. La couleur blanche est composée des
couleurs du spectre. La couleur d'un objet correspond à la longueur d'onde
que cet objet réfléchit ou transmet ; car les autres rayons de la lumière
blanche sont absorbés.

2. NOTIONS IMPORTANTES.
2.1. Taille d'une image
La taille d'une image est définie par le nombre de pixels qui la composent
verticalement et horizontalement. Ex : une image de 550x300 pixels (un
pixel est le plus petit élément qui compose une image). C'est une manière
absolue de chiffrer la taille de l'image. A ne pas confondre avec la place
qu'occupe l'image sur l'écran ! La place que prend l'image sur l'écran
dépend de la résolution du moniteur.

2.2. Résolution d’une image


Ce terme répond à deux définitions :

1/ Résolution = capacité de définition du moniteur : On peut choisir entre


plusieurs résolutions d'affichage du moniteur. ex, sous Windows: 640x480,
800x600, 1024x768. Si la taille de l'image dépasse la résolution du
moniteur, cette image ne peut pas être affichée à 100% sur l'écran

2/ Résolution = nombre de pixels par pouce : On utilise l'unité "ppp" =


"pixel par pouce" Ou en anglais "dpi" = "dots per inch" A savoir qu'un
pouce est à peu près égal à 2,5 cm. Cette notion est utile lorsqu'on passe

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 21


Département Technologies de l’Informatique Introduction au Multimédia

d'un support physique à un support numérique (ex: une image scannée), ou


inversement (quand on scanne une image) :

• Si on veut scanner une image de 1 pouce sur 1 pouce (soit 2,5 cm


sur 2,5 cm) : si on scanne avec une résolution de 150 ppp, on obtient
une image de 150x150 ; avec une résolution de 300 ppp, l'image
sera de 300x300.
• On a une image de 300x300 que l'on veut imprimer. Si lors de
l'impression on a une résolution de 300 ppp, l'image obtenue sur
papier sera de 1 pouce sur 1 pouce ; une résolution de 150 ppp
donnera une image de 2 pouces sur 2 pouces.
Exercice 1 : On a une image de 10 cm sur 5 cm que l'on scanne avec une
résolution de 300 dpi. Quelle sera alors la taille de l'image ?

Exercice 2 : On a une image de 600x600 que l'on veut imprimer. On veut


que l'image imprimée soit de 10 cm sur 10 cm. Comment doit-on choisir la
résolution lors de l'impression ?

Figure 14 : Résolution d’une image

3. LES DIFFERENTS MODES COLORIMETRIQUES.


Une image n’est pas seulement définie par sa taille, elle est aussi
définie par son mode. On entend par mode un type particulier
d'organisation des couleurs de l'image. Les modes les plus courants sont :
bitmap, niveaux de gris, couleurs indexées, RVB et CMJN.

3.1. Mode RVB


C'est le mode le plus couramment utilisé. Il est idéal pour l'affichage sur
l'écran. Une image RVB est composée de trois couches de couleurs : rouge,
verte et bleue. En fait chaque pixel d'une image RVB est un mélange de ces

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 22


Département Technologies de l’Informatique Introduction au Multimédia

trois couches dans des proportions différentes : une certaine quantité de


rouge, de bleu ou de vert (de 0 à 255).

La combinaison de ces trois couches permet, par synthèse additive,


d'obtenir toutes les autres couleurs. Le mode RVB est utilisé dans les cas
suivants :

• lorsque l'image est destinée à un affichage sur écran, pour le Web par
exemple ;

• pour une impression sur imprimante personnelle, si celle-ci est conçue


pour afficher des images RVB (ce qui est le cas de beaucoup
d'imprimantes, mais vérifier tout de même);

Correspondance :
Roug
Vert bleu Couleur Obtenu
e

000 000 000 Noir

255 255 255 Blanc

255 000 000 rouge claire

128 000 000 rouge foncé

255 255 000 jaune claire

128 128 000 jaune foncé

3.2. Mode CMJN


CMJN signifie Cyan, Magenta, Jaune et Noir. C'est le mode utilisé pour
une impression en quadrichromie (impression obtenue par mélange d'encre
de ces quatre couleurs). Donc il sera exclusivement employé pour une
image destinée à être imprimée selon ce mode.

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 23


Département Technologies de l’Informatique Introduction au Multimédia

Il faut savoir que le spectre de couleurs des images CMJN est moins
important que celui des images RVB. Lorsqu'on convertit une image RVB en
image CMJN, les couleurs non imprimables sont converties en couleurs
imprimables. Il ne faut pas convertir à la légère une image RVB en mode
CMJN, l'image en serait altérée.

3.3. Couleurs indexées


Les modes RVB et CMJN permettent de disposer de 16 millions de
couleurs, le mode Couleurs indexées n'en permet que 256. Dans ce mode
est créée une table (ou index) de 256 couleurs au maximum. Cette table
répertorie toutes les couleurs possibles de l'image. Puis on attribue à
chaque pixel une valeur de 1 à 256, correspondant à l'une des couleurs de
la table.

3.4. Mode Lab


Le mode Lab est très particulier : ce mode permet d'obtenir des couleurs
identiques quel que soit le support (moniteur, imprimante personnelle ou
offset), c'est-à-dire que la gamme de couleurs qu'il permet est plus
étendue que celle des modes RVB et CMJN. Bien entendu, puisque l’écran
fonctionne en mode RVB, on ne peut pas afficher l’ensemble des couleurs
données par le mode Lab.

- Une image Lab est composée de trois couches : la couche de luminance L


correspond aux niveaux de lumière de l’image ; les deux couches de
chrominance a et b définissent les couleurs de l’image mais ne
correspondent pas à une perception naturelle des couleurs.

Le mode Lab est cependant peu usité dans la pratique. Il est utilisé comme
intermédiaire par Photoshop lors de la conversion d’un mode à un autre.

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 24


Département Technologies de l’Informatique Introduction au Multimédia

3.5. Mode Niveaux de gris


Dans ce mode il n’y a que 256 nuances de gris, allant du noir au blanc.
On convertit une image en Niveaux de gris lorsque l’on traite une image en
Noir et Blanc ou que l’image est destinée à être imprimée en noir et blanc.
Ainsi on économise de la mémoire.

3.6. Mode Bitmap


C’est le mode le plus simple : un pixel est soit allumé (dans ce cas il est
blanc), soit éteint (il est noir). Les images Bitmap ne sont donc pas
particulièrement nuancées.

4. LA REPRESENTATION ET LE CODAGE DES


COULEURS
4.1. Synthèse additive
Toutes les couleurs peuvent être produites à partir de trois couleurs
primaires en faisant varier l’intensité de chacune de ces couleurs. La
synthèse additive consiste à reproduire les couleurs à partir de trois
sources lumineuses. Les couleurs primaires sont dans ce cas le rouge, le
vert et le bleu (RVB ou RGB en anglais)

Figure 15 : synthèse
additive

4.2. Synthèse soustractive


Avec la méthode de la synthèse soustractive, les couleurs sont générées à
partir d’une seule source lumineuse blanche devant laquelle on superpose
trois filtres colorés. Les couleurs primaires sont alors le cyan, le magenta et
le jaune

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 25


Département Technologies de l’Informatique Introduction au Multimédia

(CMJ ou CMY) Figure 16 : Synthèse


soustractive
5. DESCRIPTION D’IMAGE
Deux principes sont applicables pour décrire une image :

1) le premier considère l'image comme un rectangle constitué de points


élémentaires de couleur uniforme, les pixels. Décrire l'image revient alors à
préciser la couleur de chaque point. Le fichier graphique sera une liste de
nombres binaires, correspondants à ces couleurs, précédée par un en-tête
(header) décrivant la méthode utilisée. On peut en effet imaginer plusieurs
façons de décompter les points. Ce principe est celui des images dites
numériques ou bitmap

2) le deuxième considère l'image comme un ensemble de figures


élémentaires pouvant être décrites par des données mathématiques
(coordonnées de points, tangentes en un point d'une courbe, etc.). Le
fichier décrit ces différentes figures, véritables "objets" graphiques
indépendants les uns des autres. Ce principe est celui des images dites
vectorielles image bitmap doit être considérée comme un ensemble de
petits carrés-unités de couleur uniforme, les pixels. Une image plein écran
en résolution "VGA"

(résolution courante pour les écrans standards) est c

5.1. Le dessin Bitmap


Le dessin bitmap porte ce nom car il s'agit simplement de travailler avec
des pixels. Le pixel un point qui peut avoir une valeur de couleur et de

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 26


Département Technologies de l’Informatique Introduction au Multimédia

transparence .Les images qui sont très souvent utilisées sur Internet sont
composées d'un nuage de pixels ("picture element", il en va de même
pour les images numérisées et les photos numériques.

Figure 17 : Présentation d’un pixel

Le logiciel de dessin bitmap va permettre de sélectionner ces pixels


pour ensuite les manipuler, changer leur couleur, etc. Ce type d'image et
de logiciel convient parfaitement pour la retouche photographique,

Une image matricielle est composée d’une grille de points) où chaque


pixel possède une position et une couleur. Ex: 640*480

L'ensemble des points figure un dessin (ex: une photo, une carte…) sous
forme d'un rectangle.

Un dessin bitmap est tracé en "escalier" donc le Zoom délicat voire même
impossible, composé d’une seule couche visible et la modification très
délicate

POUR :

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 27


Département Technologies de l’Informatique Introduction au Multimédia

autorise la CONTRE :
qualité Les fichiers sont encombrants.
photographique. Leur agrandissement provoque un effet de
mosaïque (les pixels agrandis deviennent des
carrés visibles).

La création d'une image "à la souris" est difficile.


Usage conseillé d'un périphérique de numérisation
: scanner, digitaliseur, appareil photonumérique...
Les retouches sont délicates : effacer un élément
de l'image crée un "trou".

5.2. Les images Vectorielles :


Les formats vectoriels décrivent l'image en une série d'objets ou formes
géométriques (lignes, ellipses, polygones, etc.) dont les propriétés
permettent de recréer l'image à partir d'instructions précisées.

3 types de données graphiques

• points isolés → objets ponctuels

• lignes isolées → objets linéaires


• surfaces isolées → objets surfaciques

L'information contenue dans le fichier d'un format vectoriel est composée


par des commandes qui permettent de dessiner les formes particulières qui
constituent l’image : appelées vecteurs ou couples de points associés.
L'information décrira, par exemple, la position, l'épaisseur et la couleur
d'une ligne à tracer.

Donc dans une image en format vectoriel, chaque forme est définie par une
équation mathématique. Les fichiers image en mode point sont faits d'une
mosaïque d'éléments d'image appelés pixels. Chaque pixel contient les

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 28


Département Technologies de l’Informatique Introduction au Multimédia

informations concernant la couleur d'un point de l'image en particulier. La


combinaison de tous les pixels forme l'image.

Les fichiers image en mode point sont habituellement très lourds à cause
de la quantité d'information que contient chaque pixel et du grand nombre
de pixels nécessaires pour obtenir une image de qualité. Pour ces raisons,
un format vectoriel est souvent à privilégier par rapport à un format image
en mode point, sauf lorsque le type d'information ne s'y prête pas.

Caractéristiques :
• Se caractérise par son aspect "VIRTUEL", l’image est (ré)calculée à
chaque affichage. Possibilité de transformer les fichiers en mode
bitmap.

• Nécessité d’un PC puissant pour les images complexes.

• Pire que pour le Bitmap : presque chaque logiciel propose son


format. Les formules mathématiques utilisées variant
considérablement, il est presque impossible de récupérer et de
convertir une image vectorielle provenant d'un autre programme.
Encore plus que les Bitmap, les

Formats vectoriels évoluent et il n'est pas toujours facile de lire un


fichier avec une extension théoriquement reconnue...
• Ce type de format permet d'éditer les différents objets d'une image
indépendamment : les images peuvent être modifiées sans perte de

Résolution et la taille des fichiers est relativement petite.

• Ces équations mathématiques font en sorte qu'une illustration


vectorielle peut être redimensionnée sans pour autant subir une
altération. Donc contrairement aux images bitmap, il n'y a pas d'effet

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 29


Département Technologies de l’Informatique Introduction au Multimédia

de pixellisation lors de l'agrandissement d'un dessin vectoriel, qui


peut être affiché ou imprimé à n'importe quelle résolution.

• Une illustration vectorielle n'est pas tributaire de la résolution du


périphérique de sortie. Seuls les dégradés de couleurs et les couleurs
contenus dans l'illustration peuvent être sensibles à la résolution du
périphérique.

POUR : CONTRE :
Les fichiers sont petits. Inutilisables pour des
Les images sont redimensionnables sans images complexes, des
perte de qualité, les courbes sont lissées photographies.
quelque soit l'échelle d'affichage.
Non reconnues par les
Les retouches sont aisées puisque les navigateurs Internet et par
différents éléments de l'image sont certains logiciels
indépendants. multimédia.

image image bitmap


vectorielle

Figure 18 : image vectorielle et image bitmap

6. FORMAT D'IMAGES
Un format d'image comprend en général un en-tête qui contient des
données sur l'image (taille de l'image en pixels par exemple) suivie des
données de l'image. La structuration des données est différente pour
chaque format d'image.

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 30


Département Technologies de l’Informatique Introduction au Multimédia

6.1. JPEG (Joint Photo Expert Group)


JPEG est une norme reconnue par l'ISO. Elle définit le codage des images
numériques dans le format JFIF, JPEG File Interchange Format, qui utilise
une méthode de compression destructrice. L'extension des images au
format JFIF est .jpg ou .jpeg.

Ce format est libre de droits. Ce format permet une représentation en


vraies couleurs (16 millions).

6.2. JPEG 2000


La norme JPEG 2000 définit le codage des images numériques et est
destinée à supplanter la norme JPEG. L'extension des images au format JPEG
2000 est .jp2. L'originalité du JPEG 2000 est qu'il permet de compresser les
images avec ou sans perte(s) d'informations. La norme ne décrit
cependant que la méthode de décompression qui doit être utilisée pour les
images de ce format.

6.3. PNG (Portable Network Graphics)


Le PNG est un format d'images numériques libre de droits, normalisé par
l'ISO, qui utilise la compression sans perte. L'extension des images PNG est
.png.

Avant l'étape de compression, des filtres sont appliqués à chaque ligne de


l'image. Ces filtres servent à modifier les octets de l'image pour optimiser sa
compression. Il existe cinq types principaux de filtres. Chaque ligne de
l'image peut se voir associé à un de ces types de filtres. A l'étape de
compression, les octets qui composent chaque ligne de l'image sont
précédés d'un octet qui indique le type de filtre utilisé. Ensuite, les images
sont compactées par l'algorithme de flate qui est une combinaison du LZ77
et du codage de Huffman. Pour une qualité d'image semblable, les images
PNG ont une taille beaucoup plus petite comparée à celle des images au

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 31


Département Technologies de l’Informatique Introduction au Multimédia

format GIF. Mais, dès que le codage des images PNG s'effectue sur plus de 8
bits, ce format est supplanté par le JPEG et le JPEG 2000. Néanmoins, les
images PNG peuvent être codées jusqu'à 48 bits ce qui rend leur palette
très riche en nuances.
6.4. GIF (Graphics Interchange Format)
Ce format est sous brevet Unisys. Il s'agit donc d'un format "propriétaire
créé à la fin des années 80 dans le but d'optimiser la transmission des images
sur Internet. C'est un format propriétaire. L'extension des images GIF
est .gif.

Le GIF utilise la méthode de compression non destructrice du LZW. Les


couleurs de l'image sont indexées dans une palette (le dictionnaire).
Chaque pixel de l'image GIF référence l'indice de sa couleur dans la
palette. Les images GIF sont codées sur maximum 8 bits. Par conséquent,
la palette sera composée de 256 couleurs différentes au plus.

6.5. TIFF : (Tag Image File Format)


Format de compression de type RVB ce format est de moins en moins utilisé
sur le WEB. L'avantage de ce format est de supporter tous les modes de
compression standards. Mais l’implémentation de ce format reste assez
lourde, à cause, justement, de tous les Tags nécessaires au codage de
l'image.

6.6. Tableau récapitulatif


Bitmap/ Compression Nombre Animation Transparenc
vectoriel des données de Affichag s e
couleurs e
progres
sif

JPEG Bitmap Oui, réglable 16 millions Oui Non Non


(avec perte)
GIF Bitmap Oui (sans 256 (palette) Oui Oui Oui

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 32


Département Technologies de l’Informatique Introduction au Multimédia

perte)

PNG Bitmap Oui (sans de 256 à 16 Oui Non Oui


perte) millions
( couche
alpha)

TIFF Bitmap Oui (sans 16 millions Non Non Non


perte) ou non

7. COMPRESSION DE DONNEES
La compression consiste à réduire la taille physique de blocs
d'informations. Un compresseur utilise un algorithme qui sert à optimiser
les données en utilisant des considérations propres au type de données à
compresser ; un décompresseur est donc nécessaire pour reconstruire les
données originelles grâce à l'algorithme inverse de celui utilisé pour la
compression.

La méthode de compression dépend intrinsèquement du type de données à


compresser : on ne compressera pas de la même façon une image qu'un

fichier audio...

7.1. Caractérisation de la compression


La compression peut se définir par le quotient de compression, c'est-à-dire
le quotient du nombre de bits dans l'image compressée par le nombre de
bits dans l'image originale.

Le taux de compression, souvent utilisé, est l'inverse du quotient de


compression, il est habituellement exprimé en pourcentage.

Enfin le gain de compression, également exprimé en pourcentage, est le


complément à 1 du taux de compression :

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 33


Département Technologies de l’Informatique Introduction au Multimédia

7.2. Types de compressions et de méthodes


7.2.1. Compression physique et logique
La compression physique agit directement sur les données ; il s'agit
ainsi de regarder les données redondantes d'un train de bits à un autre.

La compression logique par contre est effectuée par un raisonnement


logique en substituant une information par une information équivalente.

7.2.2. Compression symétrique et asymétrique


Dans le cas de la compression symétrique, la même méthode est
utilisée pour compresser et décompresser l'information, il faut donc la
même quantité de travail pour chacune de ces opérations. C'est ce type de
compression qui est généralement utilisée dans les transmissions de
données.

La compression asymétrique demande plus de travail pour l'une des


deux opérations, on recherche souvent des algorithmes pour lesquels la
compression est plus lente que la décompression. Des algorithmes plus
rapides en compression qu'en décompression peuvent être nécessaires
lorsque l'on archive des données auxquelles on n'accède peu souvent (pour
des raisons de sécurité par exemple), car cela crée des fichiers compacts.

7.2.3. Compression avec pertes


La compression avec pertes se permet d'éliminer quelques informations
pour avoir le meilleur taux de compression possible, tout en gardant un
résultat qui soit le plus proche possible des données originales. C'est le cas
par exemple de certaines compressions d'images ou de sons, telles que le
MP3

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 34


Département Technologies de l’Informatique Introduction au Multimédia

En revanche, les données multimédias (audio, vidéo) peuvent tolérer un


certain niveau de dégradation sans que les capteurs sensoriels (œil,
tympan, etc.) ne discernent une dégradation significative.

La compression avec pertes est aussi appelée communément compression


destructrice. La compression avec pertes utilise des algorithmes qui
compressent les données en les dégradant. Autrement dit, après la
décompression des données, celles-ci sont moins nombreuses que celles
utilisées pour la compression. Pour éviter que ces dégradations soient
perçues par les utilisateurs, les concepteurs d'algorithmes pour la
compression destructrice se basent sur les limites de perception au niveau
de l'ouïe et de la vue chez l'être humain.

Les algorithmes de compression destructrice sont utilisés pour compresser


des données graphiques, audio et vidéo. Ils ne pourraient être appliqués sur
des données textuelles ou sur celles d'un programme au risque de les
rendre illisibles ou inexécutables.

Voici trois méthodes utilisées pour la compression avec pertes :

• La transformée en cosinus discrète


La transformée en cosinus discrète est une fonction mathématique
complexe dont il existe plusieurs variantes. Elle est utilisée pour la
compression destructrice des données, notamment pour les sons aux
formats Vorbis, WMA et MP3 et pour les images et les vidéos suivant
les normes JPEG et MPEG.
Lors de l'opération de compression des données dans ces différents
formats, l'algorithme transforme les pixels de l'image ou les
échantillons

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 35


Département Technologies de l’Informatique Introduction au Multimédia

de la séquence audio en fréquences. Les fréquences qui ne


correspondent pas à des données pertinentes pour l'œil ou l'oreille
humaine sont éliminées par l'algorithme.

• La compression par ondelettes


La compression par ondelettes, aussi appelée DWT (Discrete Wavelet
Transform) est une méthode basée sur la théorie mathématique de
l’analyse du signal : les ondelettes sont un ensemble de signaux
élémentaires à partir desquels on peut reconstruire un signal
complexe. La compression par ondelettes consistera donc à
décomposer l’image perçue comme un signal en un ensemble
d’images de plus petite résolution. Ce procédé, qui repose sur la
différence entre zones de contrastes forts et zones de contrastes
faibles, se développe en trois phases :

Tout d’abord, on procède à une transformation de l’image en


ondelettes selon un schéma à plusieurs niveaux, processus
relativement complexe qui est détaillé ci-dessous.

Ensuite, on réalise une quantification des informations. Lors de cette


phase, les détails qui se situent au-dessous d’un certain seuil sont
purement et simplement éliminés. C’est donc à ce niveau que se
produit la perte d’informations. Enfin, on termine en codant les
informations.

La décompression des images s’opère par le schéma inverse : les


informations sont tout d’abord décodées pour fournir un ensemble à
plusieurs niveaux d’ondelettes qui permet la reconstitution
progressive de l’image.

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 36


Département Technologies de l’Informatique Introduction au Multimédia

L’opération de transformation de l’image initiale en ondelettes


demande quant à elle quelques explications. Son fonctionnement
repose sur une série de cycles successifs à deux temps (voir schéma
cidessous). Dans un premier temps, on moyenne les pixels de
l’image d’origine deux à deux en suivant l’axe horizontal. On obtient
ainsi une image A, sous-échantillonnée dans le sens horizontal et
dont la largeur est évidemment la moitié de celle de l’image
d’origine. Sur base de celle-ci, on va construire une seconde image
A’ en sens horizontal en calculant cette fois les erreurs entre l’image
d’origine et l’image sous échantillonnée. Dans un second temps, on
va moyenner les pixels des deux images obtenues deux à deux en
suivant l’axe vertical cette fois, avant de déterminer une nouvelle
fois les erreurs engendrées lors de cette opération. Au terme de ce
cycle, on obtient quatre images dont la résolution est la moitié de
celle de l’image d’origine. La première de ces images, AA, fruit des
sous-échantillonnages horizontal puis vertical sans correction, est
une image d’approximation, tandis que les trois autres images AA’,
A’A et A’A’, fruits des calculs d’erreurs successifs, contiennent les
détails de l’image d’origine. Une fois ce premier sous niveau obtenu,
on recommence autant de fois que nécessaire le procédé en
reprenant chaque fois comme base la première sous image obtenue
(AA, puis BB, puis CC, etc.).

La compression par ondelettes, particulièrement appropriée pour les


images, est vraisemblablement la méthode de compression la plus
performante à l’heure actuelle et est la base du JPEG 2000. Ses
avantages sont multiples : elle permet une compression 50 à 100 fois
plus importante que le JPEG, offre une meilleure définition des détails
et permet un téléchargement progressif de l’image.

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 37


Département Technologies de l’Informatique Introduction au Multimédia

La compression fractale (uniquement appliquée aux images)


La compression fractale est un procédé qui s’applique uniquement aux
images. Il repose sur la géométrie fractale de Benoît Mandelbrot. Le format
des images compressées par ce procédé n’est à l’heure actuelle pas
standardisé et n’est donc pas reconnu par les navigateurs. Il se reconnaît
par l’extension .fif. Principe de fonctionnement :

Le principe général est très simple à comprendre : l’idée est que toute
image est un ensemble fini de transformations géométriques (rotations,
translations, agrandissements, réductions) appliquées aux sous-ensembles
de motifs identiques et de tailles variables qui la composent. La
compression fractale consiste donc à remplacer l’image toute entière par
une série de formules mathématiques qui permettent de la recomposer
dans son entièreté. Le succès de l’opération de compression est par
conséquent proportionnel à l’importance des propriétés géométriques de
l’image. Plus celles-ci sont nombreuses, moins le nombre de formules
mathématiques sera conséquent. On comprend dès lors pourquoi la
compression fractale se prête fort bien au traitement des paysages par
exemple. Evidemment, aucune image ne peut se résumer strictement à
ensemble de propriétés géométriques appliquées à des blocs. C’est donc
au niveau de la délimitation de ces derniers qu’a lieu une perte
d’informations. Ce procédé comporte des avantages certains, mais
également certains inconvénients.

Avantages :
• La compression est complètement indépendante de la taille de

l’image puisque ce sont les propriétés géométriques qui sont seules


prises en considération.

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 38


Département Technologies de l’Informatique Introduction au Multimédia

• L’image ainsi découpée en blocs de tailles variables en fonction de


ses propriétés géométriques est vectorisée, ce qui évite les effets de
pixellisation commun au JPEG par exemple. Notons qu’à

l’agrandissement de l’image reconstituée, on peut remarquer un


certain effet de flou qui rend sensible la perte engendrée par la
compression.

Désavantages :
• Les formules gèrent la transformation géométrique des blocs, mais

sont incapables de gérer l’apparition et la disparition pure et simple


de ceuxci. Ce procédé ne se prête donc pas au traitement de la
vidéo, qui se caractérise par une succession d’images parfois
radicalement

différentes.

• Si le processus de décompression d’une image est aussi rapide


qu’avec d’autres méthodes et algorithmes, le temps de calcul
nécessaire à la compression est en revanche particulièrement plus
important. A titre d’exemple, une compression fractale peut prendre
jusqu’à 50 fois plus de temps qu’une compression JPEG pour la
même image.

7.2.4. La compression sans perte


La compression sans perte est aussi appelée compression non destructive
ou encore compactage. La compression sans perte utilise des algorithmes
qui compressent les données sans les dégrader. Autrement dit, après la
décompression des données, celles-ci sont identiques à celles utilisées
pour la compression.

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 39


Département Technologies de l’Informatique Introduction au Multimédia

Ces algorithmes de compactage sont utilisés pour compresser tous types


de données : des données textuelles, des images, du son, des
programmes, etc.

Voici trois méthodes principales de compression sans perte :

Le codage de Huffman

Cette technique de compression sans perte a hérité du nom de son
inventeur, David Huffman. Elle repose sur le codage statistique d'un fichier
octet par octet. Plus les octets apparaissent souvent, plus les codes qui les
remplacent sont courts. Selon ce point de vue, le codage de Huffman peut
être comparé au code Morse. Le codage de Huffman peut être réalisé sur le
mode adaptatif, semi-adaptatif ou non adaptatif.

Le codage de Huffman est utilisé pour la compression du son au format


MP3 et des images aux formats PNG et JPEG.

Principe de fonctionnement :
L'algorithme parcourt les données d'un fichier et examine chaque octet
ainsi que le nombre fois où ce dernier apparaît.

Ensuite, l'algorithme construit un arbre (ou graphe). La construction de


l'arbre s'effectue en commençant par ses feuilles jusqu'à sa racine. Pour
ce faire, les octets sont classés par ordre décroissant de fréquence
d'apparition. Chaque fréquence d'apparition correspond donc à un octet
et constitue les feuilles de l'arbre. Elles sont alors liées deux par deux
pour former les nœuds du graphe jusqu'à ce qu'il n'y ait plus qu'un seul
nœud, soit la racine. Les nœuds sont ainsi formés par la somme de
chaque fréquence d'apparition de ses deux feuilles ou de ses deux
nœuds

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 40


Département Technologies de l’Informatique Introduction au Multimédia

descendants directs. Puis, les branches de l'arbre - c'est à dire les liens
qui unissent les nœuds - se voient attribuer soit le chiffre 1, soit le
chiffre 0 selon ce principe : le lien qui unit le nœud signifiant la
fréquence la plus élevée avec son nœud-ascendant se voit attribuer le
chiffre 1, les autres le chiffre 0. En fin de compte, les octets compressés
sont par codés par les chiffres attribués aux liens, qui sont alignés en
remontant depuis le nœud-racine jusqu'aux feuilles terminales.

Le Run-lenght encoding ou RLE

Cette méthode de compression sans perte code les données en y


recherchant des successions d'octets identiques. Le RLE est utilisé pour
compresser des images codées sur un faible nombre de bits car, dans
ce type d'image, il est fréquent de trouver des pixels contigus
identiques. La méthode RLE est utilisée pour la compression des images
au format PCX, dans une version du format BMP ainsi qu'au format JPEG.

Principe de fonctionnement :

L'algorithme du RLE parcourt les données et recherche les octets


identiques qui se suivent. Lorsqu'il trouve un même octet répété
successivement au moins x fois, il crée une paire de données composée
du nombre de

répétitions suivi de l'octet en question.

La compression RLE est efficace pour compresser des données où les


répétitions d'éléments consécutifs sont nombreuses ce qui n'est pas
toujours le cas. C'est pourquoi, lorsque le nombre de répétition est trop
petit (c'est à dire s'il est inférieur à x), l'algorithme ajoute un caractère
spécial dans le couple de données (nombre de répétition de l'octet,
octet).

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 41


Département Technologies de l’Informatique Introduction au Multimédia

Par exemple, dans une image codée sur 1 bit, les pixels de l'image
peuvent prendre 2 valeurs soit le noir (codée par 1) soit le blanc (codé
par 0). Si x = 5, la séquence de pixels
"00000111100110011000011111111" devient, une fois compressée,
"5041#20#10#20#104081".

La méthode de compression RLE (Run Length Encoding, parfois notée


RLC pour Run Length Coding) est utilisée par de nombreux formats
d'images (BMP, PCX, TIFF). Elle est basée sur la répétition d'éléments
consécutifs.

Le principe de base consiste à coder un premier élément donnant le


nombre de répétitions d'une valeur puis le compléter par la valeur à
répéter. Ainsi selon

ce principe la chaîne "AAAAAHHHHHHHHHHHHHH" compressée donne

"5A14H". Le gain de compression est ainsi de (19-5)/19 soit environ 73,7%.

La famille des Lempel-Ziv-*

Cette famille est un ensemble de techniques de compression sans perte


qui utilisent un dictionnaire et où les codes signifient les indices des
séquences d'octets placées dans le dictionnaire.

Ce sont Abraham Lempel et Jakob Ziv qui ont inventé, en 1977, le


premier algorithme de compression de cette famille sous le nom de
Lempel-Ziv-77 ou LZ77. LZ77 connut rapidement une nouvelle version :
le LZ78. Dans les années 80, Terry Welch modifia les LZ* pour créer le
Lempel-Ziv-Welch ou LZW.

Chapitre III : Le Son

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 42


Département Technologies de l’Informatique Introduction au Multimédia

Enoncé de l’objectif général :


Décrire les principales caractéristiques du son, comprendre le principe de la
numérisation d’un signal et comparer les différents formats du son.

Objectifs Elément de contenu Moyens Méthodolog


spécifiques ie

Ce cours vise à :

• Définir son - Tableau et


• Présenter les support de
reconnaître les Formative
caractéristiques du son cours
caractéristiques (Hauteur, timbre et
d’un son volume)
• Enoncer le principe de
propagation du son

• Fonctionnement de la
carte son
énoncer le • échantillonnage - Tableau et Formative
traitement support de
numérisé du son cours

distinguer entre les Comparer entre les


formats de fichiers différents formats
sonores - Tableau et Formative
sonores.
support de
cours

Le Son
Le son est une onde produite par la vibration mécanique d'un
support fluide ou solide et propagée grâce à l'élasticité du milieu
environnant sous forme d'ondes longitudinales.

Un son est la sensation provoquée sur nos oreilles par de l'air en


déplacement, c'est-à-dire des vibrations d'air. Pour que l'air vibre il faut
que quelque chose l'agite, c'est le rôle joué par la source sonore.

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 43


Département Technologies de l’Informatique Introduction au Multimédia

1.PROPAGATION DU SON
Dans un milieu compressible, le plus souvent dans l'air, le son se
propage sous forme d'une variation de pression crée par la source sonore.
Notons que seule la compression se déplace et non les molécules d'air, Les
ondes sonores se déplacent à environ 344 mètres par seconde dans de l'air
à 20 °C.

Le son ne se propage pas dans le vide, car il n'y a pas de matière


pour supporter les ondes produites, le son se propageant grâce aux
déplacements des molécules d'air. C'est une onde dite longitudinale, car
les points matériels se déplacent dans le même sens que le déplacement
de l'onde

2.CARACTERISTIQUES DU SON
Un son est caractérisé essentiellement par trois paramètres : la hauteur, le
timbre et le volume.

2.1. Hauteur
La hauteur est le paramètre qui permet de différencier un son aigu d'un
son grave. La caractéristique d'un son aigu est qu'il fera vibrer l'air plus
souvent qu'un son grave. On dit qu'un son aigu a une fréquence élevée
alors qu'un son grave a une fréquence basse.

La fréquence d'un son s'exprime en hertz, c'est-à-dire le nombre de


vibrations par seconde. Un son qui vibre à une fréquence de 1000
vibrations seconde à une fréquence de 1000 Hz.

L'oreille humaine répond aux fréquences allant de 20 Hz à 20 Khz.

2.2. Timbre
Le timbre est le paramètre qui permet de différencier un son d'un autre
son.

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 44


Département Technologies de l’Informatique Introduction au Multimédia

Figure 20 : son grave et son aigu

Un piano a un timbre différent de celui d'un violon, peu importe la


fréquence. Ceci nous permet d'introduire la notion d'onde. L'onde est en
quelque sorte la représentation graphique des mouvements que fait notre
tympan lorsqu'il est actionné par des vibrations d'air. La hauteur d'un son a
une influence directe sur la forme de son onde.

La première onde représente un son grave, la deuxième un son aigu. Toute


onde, aussi complexe soit-elle, peut être décomposée en une somme
d'ondes sinusoïdales élémentaire qu'on appelle harmoniques. Toutes ces
harmoniques additionnées donnent le timbre d'un instrument.
L'harmonique la plus grave se nomme fondamentale ou harmonique 1 et
c'est celle que retient l'oreille pour identifier la note jouée, les autres
harmoniques servent à l'habillage du son et à la personnalisation du
timbre. Le diagramme en barres permet d'identifier les

harmoniques présentes dans un timbre.

Figure 21 : les harmoniques d’un timbre

2.3. Volume
Le volume est la force avec laquelle l'air frappe le tympan. Sur une forme
d'onde, il se traduit par une amplitude plus grande :

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 45


Département Technologies de l’Informatique Introduction au Multimédia

Figure 22 : volume fort et volume faible

L'amplitude (le volume) des différentes harmoniques constituant un son


change au cours du temps : le son peut être fort ou doux Dans l'air,
l'amplitude correspond aux variations de pression de l'onde.

En acoustique l'intensité se mesure en décibels (dB).

2.4. Espace-temps
Comme tous les phénomènes perçus, le temps joue un rôle fondamental
pour l'acoustique Il existe même des relations très étroites entre l'espace
et le temps, vu que le son est une onde qui se propage dans l'espace au
cours du temps.

On distingue trois grandes classes de signaux acoustiques :

• périodiques, dont la forme se répète à l'identique dans le temps ;

• aléatoires, qui n'ont pas de caractéristiques périodiques.

• impulsionnels : qui ne se répètent pas dans le temps et ont une


forme déterminée.

3.LE TRAITEMENT DIGITAL DU SON


3.1. L’échantillonnage
Pour être traité par un ordinateur, un son doit être sous forme digitale, il
faut procéder alors à une conversion analogique – numérique : c’est

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 46


Département Technologies de l’Informatique Introduction au Multimédia

l’acquisition. La conversion s'effectue par échantillonnage : on prélève à


des intervalles de temps réguliers des échantillons du son et on les traduit
en chiffres.

Figure 23 : échantillonnage d’un son

Un son digitalisé est donc une approximation d'un son analogique.


Un microphone convertit les variations de pressions de l'air en signaux
électriques qui, reliées a un convertisseur analogique-numérique (CAN ) qui
va numériser ce signal à pas régulier, le transformer en une suite de
nombres.

Deux paramètres caractérisent un son échantillonné : la qualité et la


résolution. La qualité est déterminée par la fréquence d'échantillonnage ;
plus la fréquence est élevée, plus on prélève d'échantillons et par
conséquent meilleure est la qualité. La résolution est déterminée par la
plage de valeurs que peuvent prendre les échantillons, et elle est d'autant
plus élevée qu'on dispose de bits. Donc, plus fréquence et résolution seront
élevées, plus le son digitalisé ressemblera au son original.

Exemple le CD audio est une succession d'échantillons à raison de 44100


échantillons par seconde sur 16 bits de résolution.

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 47


Département Technologies de l’Informatique Introduction au Multimédia

3.2. Quantification :
Numériser un signal analogique (par exemple audio) implique qu'on doit le
coder à l'aide d'un nombre fini de symboles ; c'est l'opération de
quantification. Le nombre fini de symboles implique une quantité de
valeurs possibles du signal limitée. Quantifier un signal revient à
approximer sa valeur instantanée par la valeur discrète la plus proche. On
commet donc une erreur.

Plus le nombre de valeurs numériques possibles est élevé, plus la valeur


discrète sera proche de la valeur instantanée ; le signal quantifié sera donc
plus fidèle

à l'original.

Par exemple, un signal codé sur 8 bits peut prendre 256 valeurs
différentes, sur 16 bits, on passe à 65536 valeurs possibles et sur 24 bits,
16777216 valeurs. On utilise généralement un nombre de pas de
quantification étant une puissance de deux, ce qui permet de le coder
facilement en binaire.

Rapport signal-sur-bruit de quantification

Lorsque l'on effectue une approximation du signal original, on commet


forcément une erreur relativement à la représentation originale du signal.

Cette erreur est appelée erreur de quantification.


A cette erreur de quantification est associée, lors de l'écoute, une
perturbation, que l'on appelle bruit de quantification.

L'effet du bruit de quantification relativement au signal original constitue


ce que l'on nomme le rapport signal-sur-bruit de quantification.

Formule de Shannon pour le calcul de rapport signal-sur-bruit: D


= W * log2 (1+ S/B)

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 48


Département Technologies de l’Informatique Introduction au Multimédia

Avec :

D : débit en bps

W : bande passante

S : signal

B : bruit

Exemple :
…………………………………………………………………………………………………………………………………………………………..
…………………………………………………………………………………………………………………………………………………………..
…………………………………………………………………………………………………………………………………………………………..
…………………………………………………………………………………………………………………………………………………………..
…………………………………………………………………………………………………………………………………………………………..
…………………………………………………………………………………………………………………………………………………………..

4.LA LECTURE EN CONTINU


La lecture en continu (en anglais : streaming), aussi appelée diffusion de
flux continu, désigne un principe utilisé principalement pour l'envoi de
contenu en léger différé. Très utilisée sur Internet, elle permet la lecture
d'un flux audio ou vidéo (cas de la vidéo à la demande) au fur et à mesure
qu'il est diffusé. Elle s'oppose ainsi à la diffusion par téléchargement de
fichiers qui nécessite de récupérer l'ensemble des données d'un extrait
vidéo avant de pouvoir l'écouter ou le regarder. Néanmoins la lecture en
continu est, du point de vue théorique, un téléchargement, mais le
stockage est provisoire et n'apparaît pas directement sous forme de fichier
sur le disque dur du destinataire. Les données sont téléchargées en
continu dans la mémoire vive (RAM), sont analysées à la volée par
l'ordinateur et rapidement transférées dans un lecteur multimédia (pour
affichage) puis remplacées par de nouvelles données.

5.LA CARTE DE SONS

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 49


Département Technologies de l’Informatique Introduction au Multimédia

Figure 24 : carte de son intégrée

Une carte de son est une carte d'extension d'ordinateur qui traite
les signaux audio qui sortent de l'ordinateur pour les envoyer vers les
hautparleurs. Mais elle peut également servir à interpréter les signaux
audio qui entrent dans l'ordinateur (micro, entrée ligne, etc.). Dans ce cas,
elle transforme un signal analogique en signal numérique.

Aujourd'hui, une carte son standard possède une sortie stéréo au format
mini jack, une entrée ligne stéréo ainsi qu'une prise micro. Ce type de
carte sera suffisant pour une utilisation bureautique, ou bien encore surfer
sur Internet et écouter un peu de musique occasionnellement.

D'autres cartes offrent le double stéréo. Sous Windows, cela n'a que peu
d'intérêt, on pourra simplement brancher deux paires d'enceintes.

Par contre, dans les jeux vidéo ou même dans les DVD Vidéo, chaque voix
pourra être gérée indépendamment si le logiciel le permet.

La carte son repose sur :

• Un processeur DSP (Digital Signal Processor) pour le traitement des


signaux audio (écho, distorsion, distribution des différents sons sur
les sorties)

• Un convertisseur analogique-numérique pour numériser des signaux


externes (micro ...),

• un convertisseur numérique-analogique pour restituer les signaux


audibles vers les enceintes ou le casque.

• une interface MIDI pour communiquer avec des synthétiseurs

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 50


Département Technologies de l’Informatique Introduction au Multimédia

Deux grands standards se sont imposés dans le domaine de son : AdLib


et Sound Blaster (SB). De ces deux standards, celui qui s’est imposé
comme standard commercial est Sound Blaster de Creative Labs.
Une carte limitée à 8 bits (première génération) ne permettra que le son
mono. Il faut un minimum de 16 bits pour obtenir réellement un son stéréo
et une qualité digitale (CD audio) de reproduction.

Aujourd’hui, les cartes ont pour la plupart 32 ou 64 bits et un taux


d’échantillonnage qui permet la reproduction en Dolby avec effet cinéma
maison. La différence essentielle entre une carte de 16, 32 ou 64 bits est le
nombre de voix ou le nombre de table de reproduction disponible. Plus
vous avez de voix, plus les effets sonores seront impressionnants, parce
que reproduit avec plus de détails.

6. LES FORMATS AUDIO


Dans un format donné, les fichiers sont déclinés en plusieurs taux de
compression qui induisent des niveaux de qualité sonore et des poids de
fichier très différents. En théorie, plus le taux de compression est haut,
moins le fichier est comprimé. La qualité de ce fichier comprimé s'approche
de la celle du fichier non comprimé. Par contre, plus le taux de
compression est bas, plus le rendu sonore perd de sa qualité.

6.1. CDA (Compact Disc Audio)


Il s'agit de l'extension qui apparaît sur les pistes des CD audio lorsqu'ils
sont insérés dans le lecteur CD-ROM.

Le suffixe des fichiers créés est .cda

Pour Non comprimé, forcément qualité CD

Contre Volumineux,

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 51


Département Technologies de l’Informatique Introduction au Multimédia

6.2. WAV (Waveform Audio Vector)


Mis au point par Microsoft et IBM, ce format mono ou stéréo est l'un des
plus répandus. Le format "Disque compact" 44.1 kHz, 16 bits et stéréo
nous servira de référence pour le calcul du poids et ratio des autres
formats.

Le suffixe des fichiers créés est .wav. Le format de données comprend :


– 44 octets d'en-tête permettant une identification.

– Une structure les organisant.

– Le codage des données.

Pour Non comprimé (pour la version PCM)

Contre limité à 2 Go

6.3. AIFF (Audio Interchange Format File)


Equivalent du format Wav dans le monde Macintosh. Le suffixe des fichiers
créés est .aif

Non comprimé,
Fichiers son de haute qualité
Pour Devenu le premier format d’échange
multiplateformes.
Jusqu'à 44,1 kHz en 16 bits.

Très volumineux, une variante l'AIFF-C permet de


Contre
comprimer la taille jusqu'à 6x.

6.4. MP3 (MPEG-1 Layer III)


MP3 est l'abréviation de Mpeg- 1 Audio Layer 3. Cet algorithme de compression
prend naissance en 1987. L'ISO en fera un standard dans les années 92-93. La

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 52


Département Technologies de l’Informatique Introduction au Multimédia

couche (Layer) III est la couche la plus complexe. Elle est dédiée à des
applications nécessitant des débits faibles d'où une adhésion très rapide du
monde internet à ce format de compression. Les taux de compression (ratio) sont
d'ordinaire de 1 pour 10 (1:10) (1:4 à 1:12). Très rapide à l'encodage. Ceci est
obtenu par suppression de zones dans la bande passante dont les
fréquences sont inaudibles par l’oreille humaine.

• De nombreux lecteurs permettent la restitution des fichiers .mp3 :


WinAmp,

Nad mp3 Player,UnrealPlayer, JetAudio, etc. Le suffixe des fichiers créés est
.mp3

Pour Grande compatibilité,

Qualité soit disant équivalente au CD, a un débit de


192Kbits/s = 1,44 Mo/min [CD : 10 Moctets/min]

Compression destructive avec problèmes dans les aiguës,


Contre
lors d'un ré-encodage on passe par un fichier .wav .

6.5. AAC (Advanced Audio Coding) ou MPEG-2


AAC
Il fait partie des successeurs du MP3. L'AAC, est une extension du MPEG-
2 et a été amélioré en MPEG-4, MPEG-4 Version 2 et MPEG-4 Version 3. Il a
été reconnu fin avril 1997. Le suffixe des fichiers créés est
.aac, .mp4, .m4a

Très bon codec destructif (mieux que MP3 et


Pour
WMA),

Contre Durée d'encodage importante

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 53


Département Technologies de l’Informatique Introduction au Multimédia

6.6. WMA (Windows Media Audio)


Créé par Microsoft à partir des recommandations MPEG 4 en 1999, ce
format est utilisé par le logiciel Windows Media Player. Ce format est lié à
une gestion pointue des droits d'auteurs (DRM ou Digital Right
Management) qui permet de définir par exemple une durée de vie limitée
pour les fichiers ou d'interdire les possibilités de gravure. Il existe plusieurs
versions du codec (wma7.1, wma9, wma pro). Le suffixe des fichiers créés
est .wma

Pour bonne compatibilité, meilleure compression que le MP3.

Souvent illisible sur lecteurs portables, à cause de la


Contr
gestion des droits et des restrictions dans le format
e
wma.
6.7. AU (Audio Unix)
Format assez bien répandu grâce à Unix et Linux. La fréquence

d'échantillonnage est comprise entre 1 kHz et 200 kHz. Mais les players ne
lisent principalement que trois fréquences d’échantillonnage : 8012.821

(codec entré), 22050 et 44100 hertz. Le suffixe des fichiers créés est .au

6.8. Real Audio


Format propriétaire adapté aux débits limités de Internet pour la
diffusion de sons ou de vidéos en streaming. Peuvent être lus grâce à
l’application spécifique RealPlayer (en version commerciale ou
shareware). Le suffixe des fichiers créés est .ra .rm ou .ram

6.9. Quicktime
Destiné à l’origine à l’environnement Macintosh. Il est aujourd’hui
disponible sur PC et peut être utilisé pour réaliser du streaming. Le
suffixe des fichiers créés est .MOV ou .QT

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 54


Département Technologies de l’Informatique Introduction au Multimédia

6.10. Le format MIDI


MIDI (Musical Instrument Digital Interface) est une norme développée
par les fabricants de synthétiseurs au début des années 1980 pour
permettre l'interconnexion de 16 instruments de musique électroniques
et on indique sur quelle note jouer, sur quel instrument, à quel volume,
etc.

Les données MIDI ne sont pas des données audios, mais des instructions de
déclenchement et de déroulement de sons générés par un synthétiseur.

L'avantage de cette technique tient dans la taille des données à


transmettre qui sont bien plus légères que de l'audio numérisé, mais le
résultat écouté par l'utilisateur dépend fortement de la qualité des sons
implémentés sur sa carte audio.

Les limitations de ce format sont :


• Restriction à la musique.

• La qualité de la musique :
Dépend du périphérique utilisé pour la jouer en particulier le
nombre de canaux).

▪ Le codage des instruments n'est pas normalisé :

Par exemple : un morceau de violon peut être interprété par un


saxophone sur un autre synthétiseur.

▪ Obligation d'utiliser des sons déjà existants :

"Impossible " d'intégrer un son créé par le musicien (échantillonné


ou réellement synthétisé).

7. CINEMA MAISON

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 55


Département Technologies de l’Informatique Introduction au Multimédia

Le Cinéma maison (en anglais Home cinema ou Home theater) est une
minisalle de cinéma qui s'installe chez soi, réalisée en général avec les
meilleures solutions de confort, d'acoustique et de restitution du son Hifi et
d'image vidéo grand format. Le cinéma maison est adapté au visionnage
d'émissions télévisées et de films (sur DVD notamment ou plus récemment
support Haute définition), à l'écoute de musique, ou encore à la pratique
du jeu vidéo.

Le terme est parfois utilisé pour décrire un ensemble comprenant un


simple téléviseur associé à un système acoustique à quatre enceintes ou
plus et à un lecteur de dvd.

Son
• Amplificateur(Stéréo, Dolby Digital, LC Concept, DTS, SDDS, Dolby
Pro

Logic, Dolby Pro Logic 2)

• Enceintes satellites 2.1, 5.1, 6.1, 7.1 ... :

• Deux enceintes avants pour les ambiances et la musique

• Une enceinte centrale pour les dialogues


• Deux enceintes latérales pour les effets sonore surround (Dolby
surround par exemple)

• Deux enceintes arrière pour les effets sonore surround

• Un Caisson de basse pour appuyer les enceintes dans les sons graves
et

infra
Source Image
• Démodulateur de Télévision Numérique par Satellite

• Démodulateur Télévision Numérique Terrestre TNT

• Magnétoscope (VHS et SVHS ou numérique avec disque dur ...)

• Lecteur de CD

• Lecteur de DVD

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 56


Département Technologies de l’Informatique Introduction au Multimédia

• Lecteur de DIVX

• Micro ordinateur Multimédia

• Lecteur de film haute définition

Diffusion d'image
• Télévision à haute définition, format 16/9

• Écran plasma

• Écran LCD

• Vidéo projecteur

• Rétroprojecteur

8. LE SON MULTICANAL
Le son a bouleversé l'équipement des salles de cinéma. Ces dernières
années, les nombreux cinémas Multiplex ont ainsi permis de faire remonter
la pente à cette industrie.

Il est logique que, les films bénéficiant de bandes son de plus en plus
sophistiquées, les concepteurs cherchent à trouver des moyens de
restituer cette richesse à domicile. Les laboratoires Dolby ont toujours été
à la pointe de ces travaux. On leur doit la plupart des standards du
moment. La société Lucas Film a participé à ce développement en mettant
au point le label THX qui définit une extension du standard Dolby. Afin de
s'y retrouver parmi tous ces labels et formats, voici quelques informations
synthétiques

Les anciens formats sont encore proposés sur certains DVD ou sur
les VHS, pour les films n'utilisant pas les encodages multicanaux. On
trouve ainsi les symboles de signal mono ou stéréo.

Le Dolby Surround utilise quatre


voies distinctes : une voie mono
centrale prédominante (pour la
compatibilité avec les salles et les récepteurs mono), deux canaux
frontaux pour latéraliser la bande sonore. Ces pistes ont peu de
différence avec la voie centrale (entre 30 et 40 dB en ProLogic alors
que les premiers décodeurs ne les distinguaient que de 7 dB. Le 4eme

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 57


Département Technologies de l’Informatique Introduction au Multimédia

canal, dit de surround, est monophonique même s'il est distribué sur
deux enceintes arrières. Le canal d'infra-grave n'est pas encodé dans le
signal mais simplement produit par filtrage et addition des quatre
canaux. Le Dolby Surround a fait le succès du LaserDisc dans lequel
les 4 signaux sont matricés sur 2 canaux. C'est ce même codage (Left
Total/Right Total) qui est utilisé pour diffuser des films Surround en
Nicam. Le signal arrière a une bande passante réduite (100Hz à 7kHz).

Dolb y ProLogic

Le Dolby Pro Logic est une


extension du décodage Dolby Surround. Le décodeur Dolby Pro
Logic ajoute une voie centrale, afin que le son paraisse plus central.
Cette enceinte centrale reproduit typiquement les voix des acteurs.
Ce système augmente également la séparation des voies de droite
et de gauche. Deux voies arrières reproduisent l'image sonore en
trois dimensions.

Avec un tel décodeur, Nous avons donc besoin de 5 enceintes pour un


réel confort d’écoute.

Ce système tend aujourd'hui à être dépassé depuis l'arrivée du Dolby


Digital ou Dolby AC3.

Dolby Pro logic II


Les laboratoires Dolby ont développé ces dernières années de
nombreuses technologies adaptées à la diffusion de signaux
multicanaux. Le plus utilisé aujourd’hui est le Dolby Digital, qui
offre une qualité exceptionnelle de séparation des canaux, grâce à la
technologie numérique. Cependant, le Dolby Digital, nécessite
une source digitale (DVD généralement) et un encodage Dolby Digital. Le Dolby Pro logic ou Dolby
Surround est ‘l’ancêtre’ analogique du Dolby Digital. La différence tient dans le niveau de séparation des
canaux, ne dépassant pas 37 dB (dû à la technologie de déphasage employée), à une bande passante
limitée dans les effets arrières (de 100 Hz à 7 000 Hz) et à deux voies arrières exactement identiques
(mono).

Le Pro logic II améliore beaucoup les lacunes du Pro Logic original :


- Il permet une lecture en multi-canal de sources stéréo standards sans
encodage
- La bande passante des voies d’effet arrière est améliorée - La
séparation des canaux est meilleure
- Le Dolby Pro Logic II est entièrement compatible avec les encodages
Pro Logic et Surround.

Avec quels supports utiliser le Dolby Pro Logic II ?


Le Dolby Pro Logic II propose 3 modes de fonctionnement :

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 58


Département Technologies de l’Informatique Introduction au Multimédia

- Music
- Movie
- Panorama
- Un procédé ‘Phantom’ permet également de créer l’effet en l’absence
d’enceintes surround.

On peut considérer que le résultat est intéressant surtout pour le cinéma, même à partir de sources
VHS. En revanche, le résultat à partir de sources musicales stéréo n’est pas toujours intéressant, il
faut ‘essayer’. Certains disques sont recommandés pour fonctionner avec ce système. Dans tous les
cas, deux réglages permettent d’ajuster le résultat du Pro Logic II en fonction de votre installation et
de la source que vous utilisez.

Le Dolby
Digital
Virtual Speaker est
conçu pour donner
la sensation d'un
son surround
enveloppant avec
une simple paire
d'enceintes. Ce
procédé de traitement numérique du signal simule les décalages temporels et les réflexions en
les diffusant par les 2 seules enceintes frontales. Un mode large permet de donner l'impression
que les enceintes sont plus écartées que leurs positions réelles. Ce procédé est
complémentaire des système Dolby Digital et Dolby ProLogic.

Le THX est une évolution du Dolby Surround. Il


repose sur une conception spéciale et
rigoureuse de l'installation. Lucas Film
souhaitait, en proposant le THX, que toutes les
salles (de cinéma, puis privées) restituent correctement les efforts de ses
ingénieurs.

Le Dolby Digital est un système de son numérique


utilisant 5 canaux. Appelé AC-3 (pour les appareils
grand-public) et SR-D
(dans les salles), il utilise un système de compression numérique très performant. Ce
taux peut atteindre 12:1 pour un débit de 384kbps (échantillonnage 24 bits/48 kHz). Tous
les canaux sont indépendants et large bande. On devrait donc, pour tirer correctement
parti du Dolby Digital, utiliser 5 enceintes identiques et un sub.

Le DTS est la réponse de Steven Spielberg à Georges Lucas. Le Digital Theater


System est très proche du Dolby Digital. Son principal avantage est qu'il

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 59


Département Technologies de l’Informatique Introduction au Multimédia

compresse beaucoup moins le signal - 4 fois


moins - et numérise le son sur 20 bits au lieu
de 16. Il offre ainsi
une qualité de son bien meilleure au prix d'un débit nettement
supérieur (1411 kbps).

Le THX Ultra est une extension du THX pour


garantir une qualité meilleure: grande
puissance sur tous les canaux, niveau de
105dB sans distorsion... Auparavant conçu pour les studios
d'enregistrement, ce format est disponible aujourd'hui chez l'amateur
passionné.

Le THX Select est une déclinaison plus facile à vivre du THX pour garantir une
bonne qualité tout en utilisant des enceintes plus petites et plus faciles à placer.

Les évolutions actuelles

Dolby propose maintenant le Dolby Pro Logic II (cf. ci-


dessus), une évolution du Dolby Pro logic classique
destiné à améliorer la restitution des supports encodés
en Doly Pro Logic, Dolby Surround ou des sources
simplement stéréo. Cependant, les nouvelles évolutions
intègrent maintenant une voie centrale arrière. C’est le
cas du Dolby Digital EX, du DTS ES et du THX EX.
Cette voie centrale ne représente pas un canal
supplémentaire encodé numériquement, mais reprend
le procédé analogique de déphasage entre les voies
arrières existantes sur les systèmes actuels pour recréer une voie centrale arrière.

Pour bénéficier de cette voie arrière, il faut que le support soit


encodé avec le procédé en question. Le procédé THX conseille
l’usage d’une nouvelle paire d’enceintes bipolaires en fond de salle.
Pour bénéficier de cette voie arrière supplémentaire, il faut que le
support soit encodé avec cette option.

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 60


Département Technologies de l’Informatique Introduction au Multimédia

Certains amplificateurs proposent ce format 6.1 chargé de stabiliser


l'image sonore sur l'arrière. La 6e voie n'est pas présente dans le
signal d'origine mais calculée par le décodeur.

Le SDDS (ou Sony Dynamic Digital Sound). Sony a mis au point un


format spécifique pour les grandes salles. Réservé aux
professionnels pour encore quelques temps (aucun lecteur DVD ne
le supporte), il utilise une compression de type ATRAC (comme les
MD). Parmi ses nombreux avantages, il peut gérer de 2 (96kHz/24
bits) à 8 canaux (48kHz/16bits). Il est donc compatible THX-Ultra.

9. COMPRESSION DES SONS


Quand il s’agit de diffuser du matériel sonore de haute qualité en temps
réel (streaming) par voie hertzienne ou par câble, le débit exigé pose de
sérieux problèmes…

• La diffusion d’un programme musical de qualité CD exige de disposer


d’un débit d’environ 180ko par seconde !

D’où la nécessité de compresser ces fichiers. Quand il s’agit de diffuser


du matériel sonore de haute qualité en temps réel (streaming) par voie
hertzienne ou par câble, le débit exigé pose de sérieux problèmes… La
diffusion d’un programme musical de qualité CD exige de disposer d’un
débit d’environ 180ko par seconde ! D’où la nécessité de compresser
ces

fichiers.

Le principe de compression de sons est de retirer des données audio les


fréquences inaudibles par l'oreille humaine capable de discerner des sons
entre 0.20Khz et 20Khz.

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 61


Département Technologies de l’Informatique Introduction au Multimédia

Chapitre IV : La vidéo

Enoncé de l’objectif général :


Décrire les principales caractéristiques de la vidéo, les différents modes de
compression.

Objectifs Elément de contenu Moyens Méthodologi


spécifiques e
Ce cours vise à :

• Définir vidéo
• Présenter la vidéo
- Tableau et Formative
analogique
support de
distinguer entre la • Définir PAL/SACAM et
vidéo analogique et la NTSC cours
vidéo numérique , • Présenter la vidéo
numérique
• Les signaux vidéo à
composantes

• Eliminer la redondance
spatiale
reconnaître les - Tableau et Formative
• Eliminer la redondance
différents modes de support de
temporelle
compression cours

Reconnaitre les Citer les formats


différents formats vidéo avi, mpeg,
- Tableau et Formative
vidéo ra,mov
support de
cours

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 62


Département Technologies de l’Informatique Introduction au Multimédia

Comparer les DVD, VCD, SVCD


différentes
- Tableau et Formative
technologies de support de
stockage vidéo . cours

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 63


Département Technologies de l’Informatique Introduction au Multimédia

La Vidéo
Une vidéo est une succession d'images à une certaine cadence. L'œil
humain a comme caractéristique d'être capable de distinguer environ 20
images par seconde. Ainsi, en affichant plus de 20 images par seconde, il
est possible de tromper l'oeil et de lui faire croire à une image animée.

On caractérise la fluidité d'une vidéo par le nombre d'images par


secondes, exprimé en FPS (Frames per second, en français trames par
seconde). D'autre part la vidéo au sens multimédia du terme est
généralement accompagnée de son, c'est-à-dire de données audios.

1. GENERALITES
Il existe deux grandes familles de systèmes vidéo : les systèmes vidéo
analogiques et les systèmes vidéo numériques.

1.1. La vidéo analogique


La vidéo analogique représente l'information comme un flux continu de
données analogiques, destiné à être affichées sur un écran de télévision. Il
existe plusieurs normes pour la vidéo analogique qui se partagent le
monde. Historiquement, les différences de codage du signal ont été
imposées par des contraintes techniques et notamment par la fréquence
du courant électrique (50 Hz en Europe, 60 Hz aux USA et au Japon).

Ces trois standards ont toutefois une particularité commune : l’affichage


entrelacé des images. Chaque image est affichée en deux temps : les
lignes impaires sont affichées en premier, suivies de lignes paires. Comme
les tubes utilisés pour les écrans de télévision présentent une certaine
rémanence

(persistance du point lumineux à l’écran après l’arrêt du signal qui l’a


généré),

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 64


Département Technologies de l’Informatique Introduction au Multimédia

Figure 25 : Principe de l’affichage entrelacé sur écran de


NTSCtélévision
La norme NTSC (National Television Standards Committee), utilisée aux
EtatsUnis et au Japon, utilise un système de 525 lignes entrelacées à 30
images/sec (donc à une fréquence de 60Hz).

8% des lignes servent à synchroniser le récepteur. Ainsi, étant donné que


le NTSC affiche un format d'image 4:3, la résolution réellement affichée
est de 640x480.

Figure 26 : norme NTSC

PAL/SECAM
Le format PAL/SECAM (Phase Alternating Line/Séquentiel Couleur avec
Mémoire), utilisé en Europe pour la télévision hertzienne, permet de coder
les vidéos sur 625 lignes (576 seulement sont affichées car 8% des lignes
servent à la synchronisation). à raison de 25 images par seconde à un
format 4:3

Or à 25 images par seconde, de nombreuses personnes perçoivent un

battement dans l'image. Ainsi, étant donné qu'il n'était pas possible
d'envoyer plus d'informations en raison de la limitation de bande
passante, il a été décidé d'entrelacer les images, c'est-à-dire d'envoyer en
premier lieu les lignes paires, puis les lignes impaires.

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 65


Département Technologies de l’Informatique Introduction au Multimédia

Grâce à ce procédé appelé "entrelacement", le téléviseur PAL/SECAM


affiche

secondes.

50 champs par seconde (à une fréquence de 50 Hz), soit 2x25 images en


deux
Figure 27 : norme PAL/SECAM
1.2. La vidéo numérique
Est constituée d’une suite de trames formées d'une matrice
rectangulaire de pixels. Le principe de balayage utilisé est sensiblement le
même que pour la vidéo analogique mais l’entrelacement n'est
généralement pas utilisé en vidéo numérique puisque les moniteurs
rafraîchissent l'écran 75 fois par seconde ou plus.

2. LA COMPRESSION VIDEO
Le principe fondamental de la compression vidéo est de réduire autant que
possible les redondances d'informations dans les données. Dans une
séquence vidéo, il existe deux sortes de redondances :

• La redondance spatiale : Réside dans chaque image prise


indépendamment des autres. On peut diminuer cette redondance en
codant chaque image séparément en JPEG. Cette approche est
parfois la seule utilisée lorsqu'on a besoin de pouvoir accéder de
façon aléatoire (c'est-à-dire non séquentielle) à chaque image
individuellement, comme par exemple lors d'un montage vidéo. On
parle alors de MJPEG (Motion JPEG).

• La redondance temporelle : Si deux images qui se suivent dans


une séquence vidéo sont quasiment identiques : c'est la redondance
temporelle. Le but est alors de ne stocker que ce qui est modifié lors

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 66


Département Technologies de l’Informatique Introduction au Multimédia

du passage d'une image à une autre. Les images ainsi compressées


sont de deux types :
o les images I (images Intracodées) sont des images complètes
codées en JPEG, on les appelle aussi images-clés.
o Les images P (images Prédictives) ne contiennent que les
pixels modifiés par rapport à l'image précédente

Figure 28 : compression spatiale et compression temporelle


Enfin, une séquence vidéo ne se compose pas seulement d'images,
mais aussi de son. Il y a donc deux flux à gérer : le flux vidéo et le flux
sonore.

Les normes de compression vidéo (comme MPEG) ont donc trois parties
: une partie vidéo, une partie audio, et une partie système qui gère
l'intégration des deux premières.

Les codeurs/décodeurs vidéo et audio travaillant indépendamment l'un


de l'autre, la partie système est là pour résoudre le problème de
multiplexage et démultiplexage.

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 67


Département Technologies de l’Informatique Introduction au Multimédia

2.1. Les signaux vidéo à composantes


La vidéo à composantes séparées est également appelée vidéo en
composantes, S-Vidéo, Y/C ou YCbCr. C'est un signal vidéo dont la
luminance et la chrominance sont séparées, ce qui supprime la
dégradation de l'image due à l'interférence entre ces deux signaux Les
principaux signaux vidéo à composantes sont :

2.1.1. Le standard S-Video


Le standard S-Video (pour « Sony Video »), parfois appelé Y/C, est un
mode de transmission vidéo à composantes séparées utilisant des câbles
distincts pour faire transiter les informations de luminance (luminosité) et
de chrominance (couleur). Une connexion S-Video permet d'offrir une
qualité de vidéo optimale en envoyant simultanément les 576 lignes de
l'image, sans entrelacement (en une seule fois).

On trouve ainsi ce type de connecteurs sur les camescopes ou


magnétoscopes haut de gamme S-VHS, les caméras Hi8 ou tout
simplement sur la majorité des cartes graphiques possédant une sortie TV.

Cependant, le signal S-Vidéo ne permettant de transporter que le signal


vidéo, il est nécessaire d'utiliser un câble audio séparé pour le transport
des données audio.

Il faut noter toutefois que les prises péritels récentes permettent


également de transporter un signal S-Vidéo. Il existe d'ailleurs des
adaptateurs permettant de connecter un câble S-Vidéo et des connecteurs
RCA audio sur une prise péritel, au prix d'une dégradation supplémentaire
du signal.
2.1.2. Le standard YUV
Le standard YUV (appelé aussi CCIR 601), auparavant baptisée
YCrCb (Y Cr Cb), est un modèle de représentation de la couleur dédié à la
vidéo analogique. Il se base sur un mode de transmission vidéo à

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 68


Département Technologies de l’Informatique Introduction au Multimédia

composantes séparées utilisant trois câbles différents pour faire transiter


les informations de luminance (luminosité) et les deux composantes de
chrominance (couleur). Il s'agit du format utilisé dans les standards PAL
(Phase Alternation Line) et SECAM (Séquentiel Couleur avec Mémoire).

Le paramètre Y représente la luminance (c'est-à-dire l'information en


noir et blanc), tandis que U et V permettent de représenter la
chrominance, c'est-à-dire l'information sur la couleur. Ce modèle a été mis
au point afin de permettre de transmettre des informations colorées aux
téléviseurs couleurs, tout en s'assurant que les téléviseurs noir et blanc
existant continuent d'afficher une image en tons de gris.

2.1.3. Le codage YIQ


Le modèle YIQ est très proche du modèle YUV. Il est notamment utilisé
dans le standard vidéo NTSC (utilisé entre autres aux États-Unis et au
Japon).Le paramètre Y représente la luminance. I et Q représentent
respectivement l'Interpolation et la Quadrature.

2.1.4. Le M-JPEG
Le principe du Motion JPEG (noté MJPEG ou M-JPEG, à ne pas confondre
avec le MPEG) consiste à traiter chaque image d’une séquence vidéo
séparément au moyen d’un algorithme JPEG. Le taux de compression
obtenu est relativement modéré et plus faible que celui du MPEG puisque
seule la redondance spatiale est traitée au sein de chaque image, sans
que l’on intervienne sur la redondance temporelle (on a simplement une
succession d’images JPEG). Le codage séparé de chaque image permet
néanmoins de comprendre tout l’intérêt de ce format pour les
professionnels de la vidéo. Le traitement par image permet une plus
grande capacité d’édition du flux et offre d’excellentes conditions de
travail au montage. Ainsi, son débit de 8 à 10 Mbps le rend utilisable dans
les studios de montage numérique.

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 69


Département Technologies de l’Informatique Introduction au Multimédia

L’évolution de ce format est le M-JPEG 2000, issu du JPEG 2000, lui-même


basé sur les techniques algorithmiques de compression par transformation
en ondelettes. Notons aussi que le M-JPEG 2000, à l’instar du JPEG 2000,
permet de travailler avec ou sans pertes.

2.1.5. Le MPEG
Dans la plupart des séquences vidéo, la majorité des scènes sont fixes ou
bien changent très peu, c'est ce qui s'appelle la redondance temporelle.
Il suffit donc de ne décrire que le changement d'une image à l'autre. C'est
là la différence majeure entre le MPEG (Moving Pictures Experts Group) et
le MJPEG. Cependant cette méthode aura beaucoup moins d'impact sur
une scène d'action. Le groupe MPEG a été établi en 1988 dans le but de
développer des standards internationaux de compression, décompression,
traitement et codage d'images animées et de données audio.

Il existe plusieurs standards MPEG :

le MPEG-1 est un standard pour la compression des données vidéos


et des canaux audio associés (jusqu'à 2 canaux pour une écoute
stéréo). Il permet le stockage de vidéos à un débit de 1.5Mbps dans
une qualité proche des cassettes VHS sur un support CD appelé VCD
(Vidéo CD).

La compression temporelle repose sur la définition de trois types d'images,


au sein d'une séquence vidéo :

▪ Les images-clé (aussi appelées I-frames en anglais) sont


compressées individuellement et indépendamment de leur
relation aux autres images de la séquence. L'élimination de la
redondance spatiale au sein de l'image se fait au moyen d'une
transformée en cosinus discrète (DCT) des blocs de 8x8 pixels

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 70


Département Technologies de l’Informatique Introduction au Multimédia

qui la composent, suivie d'une quantisation puis d'un codage


RLE.

▪ Les images prédites (aussi appelées P-frames en anglais)


sont compressées au moyen du principe dit de compensation
de mouvement, qui vise à éliminer la redondance temporelle
entre l'image prédite et l'image-clé qui la précède. L'idée est
de coder différemment les macroblocs qui composent l'image
prédite en fonction du fait qu'ils sont identiques ou différents à
ceux de l'image-clé. Les macroblocs qui diffèrent sensiblement
sont codés de la même manière qu'un macrobloc dans une
image-clé, tandis que ceux qui sont identiques ou presque à
ceux de l'image antérieure sont codés référentiellement.

▪ Les images bidirectionnelles (aussi appelées B-frames en


anglais) sont compressées de manière identique aux images
prédites. La différence avec celles-ci réside dans le fait que les
macroblocs sont codés référentiellement à une image qui
précède ou à une image qui suit. Les images suivantes doivent
donc déjà se trouver en mémoire pour que soit réalisée la
reconstruction de l'image bidirectionnelle. La très faible
quantité de macroblocs qui ne peuvent être référencés soit par
une image qui précède, soit par une image qui suit, explique le
gain considérable d'espace lors de l'opération de compression.

Le flux vidéo est donc compressé de la sorte, en générant une suite


d'images du type IBBPBBPBBPBBI.

• le MPEG-2, un standard offrant une qualité élevé à un débit pouvant


aller jusqu'à 40 Mbps, et 5 canaux audio surround.

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 71


Département Technologies de l’Informatique Introduction au Multimédia

• le MPEG-4, un standard destiné à permettre le codage de données


multimédia sous formes d'objets numériques, afin d'obtenir une plus
grande interactivité, ce qui rend son usage particulièrement adapté
au Web et aux périphériques mobiles.

• le MPEG-7, un standard visant à fournir une représentation standard


des données audio et visuelles afin de rendre possible la recherche
d'information dans de tels flux de données. Ce standard est ainsi
également intitulé Multimedia Content Description Interface.

3.LES FORMATS VIDEO


3.1. .AVI (Vidéo For Windows)
Format vidéo de Windows. Applications à utiliser pour ouvrir ces fichiers :
Lecture directe avec le lecteur multimédia de Windows. Cette extension,
grâce au logiciel libre sert pour les fichiers vidéo compressés notamment
le format DivX permettant d'obtenir des fichiers peu volumineux
facilement échangeable tout en ayant une bonne qualité. Lecture directe
avec le lecteur multimédia de Windows

3.2. .MPEG .MPG (Moving Picture Expert Group)


Norme publique très répandu sur l'Internet, il est généralement
visualisable en différé. La norme MPEG-1 est utilisée pour les diffusions sur
CD-Rom (format quart d'écran) tandis que le format MPEG-2 est utilisé
pour les DVD vidéo, et sert de base à la diffusion sur les chaînes
numériques. Il vous faut un ordinateur relativement musclé avec une carte
graphique qui booste le processeur. Pour le MPEG-2 il faut investir dans
une carte de décompression spécialisée ou sur un logiciel de
décompression adapté.

3.3. .MOV .QT (QuickTime Movie)

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 72


Département Technologies de l’Informatique Introduction au Multimédia

Développé par Apple, concurrent du .AVI de Windows, il est très répandu


sur l'Internet et sur toutes les plates-formes visant le statut de standard
universel. Applications à utiliser pour ouvrir ces fichiers : Lecture directe
avec le lecteur QuickTime.

3.4. .RA (Real Audio)


Format propriétaire pour la diffusion en direct de séquences sonores et
vidéo par l'Internet. Application à utiliser pour ouvrir ces fichiers :
RealPlayer (version shareware ou commerciale)

3.5. VDO (VDO Live)


Format propriétaire pour la diffusion en direct de séquences vidéo par
l'Internet. Applications à utiliser pour ouvrir ces fichiers : VDO player ou
plug-in adapté.
3.6. VIV (Video Active)
Format propriétaire pour la diffusion en direct de séquences vidéo
par l'Internet. Ces fichiers très compacts sont de qualité d'image
médiocre. Applications à utiliser pour ouvrir ces fichiers : VIV player
ou plug-in adapté.

3.7. Tableau des principaux formats vidéo


Format /
Utilisation Logiciel / support
extension

Chaque composante audio ou vidéo peut être


compressée par n'importe quel codec (DIvX et
AVI / .avi Tous les logiciels de
mp3).
C'est un "conteneur" très pratique, le plus utilisé. lecture vidéo.

Un format conteneur de Microsoft et sa famille de


WMV/ .wm codecs vidéo. On le trouve souvent chez des vidéos
Windows Media
v
en streaming ou en téléchargement. Player.

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 73


Département Technologies de l’Informatique Introduction au Multimédia

Format conteneur d'Apple, pouvant contenir un très


MOV / .mo
large choix de codec, y compris haute
v Quicktime.
définition.

Les codecs vidéo les plus utilisés. Permet de Nécessite


DivX et diviser par 6 la taille d'un film en DVD sans trop de l'installation des
perte de qualité.
Xvid codecs DivX / Xvid à
Xvid est le concurrent libre de DivX.
jour,

Se lit avec VLC, Media


Player Classic et
MKV / .mkv Format conteneur russe, pouvant contenir de très
autres après
.mka .mks nombreux codecs.
l'installation des
Codecs.

H264 /
Codec utilisé pour la haute définition. Se Se lit avec la majorité
MPEG 4
retrouve dans les Blu-ray. des lecteurs vidéo
AVC

format natif d'Adobe Flash Player, Le


FLV / .flv s'ouvre avec VLC.
format Flash Video, utilisé sur Internet

Real Video RealPlayer ou


/ Codec video propriétaire de Real Networks. RealAlternative
.rmvb

4.QUELQUES SUPPORTS DE LA VIDEO


4.1. Le DVD
DVD signifie Digital Video Disc, renommé Digital Versatil Disc. Il a été
développé en 1995 par un consortium regroupant 10 constructeurs. Il faut
distinguer les DVD Audio, DVD vidéo (lecture sur TV)et DVD-ROM, capable
de stocker environ de 4.7 Go (monocouche simple face) à 17 Go (double
couche double face).
Le DVD supporte les normes MPEG-1 et MPEG-2, en la résolution est de
720x576 en PAL (x480 en NTSC).

Un DVD vidéo est constitué de plusieurs répertoires, celui correspondant à


des données relatives à la vidéo est le répertoire video_TS. Se trouvent

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 74


Département Technologies de l’Informatique Introduction au Multimédia

dans ce répertoire, les fichiers VOB (Video OBjects), comprenant un flux


MPEG-2 et le multiplexage des pistes audio et sous-titres, les fichiers IFO
contenant les informations relatives à la durée du film, ses pistes audios,
le format d’encodage ou le séquençage des fichiers VOB,

4.2. Les SVCD (Super Vidéo CD) et VCD (Vidéo


CD)
Le SVCD est un compromis entre la qualité du DVD et du VCD, le tout sur

un support CD. VCD : résolution 352x288 et norme MPEG-1. SVCD :


résolution 576x480 (PAL) ou 480x480 (NTSC) et MPEG-2, en CBR et VBR.
Les 2 codent le son en MPEG-1 Layer II mais le SVCD permet également de
coder en MPEG 2 multicanal 5.1.

Le VCD est né en 1993 (le SVCD en 2000) pour faire tenir 1 heure de vidéo
sur un CD avec la même interactivité qu’offrent les CD audio. Les 2
fichiers, vidéo MPEG-1 et audio MPEG-1 Layer 2 stéréos 16 bits, sont
multiplexés en 1 fichier .dat. Le démultiplexage fournit un fichier .mv1 et
un autre .mp2.

Le VCD contient les répertoires CDI (pour le programme qui permet de lire
le VCD sur les lecteurs CD-I de Philips), EXT (fichiers utiles pour le CDI),
MPEGAV qui contient les séquences AVSEQOx.DTA avec x le numéro de la
séquence, SEGMENT qui contient des fichiers d’index images pour les
menus et diaporamas, et enfin le répertoire VCD qui contient les
informations sur le volume. Sur un SVCD, le répertoire MPEGAV se nomme
MPEG2.

Eliézer Djynal KINANGA (Exp. Réseau Cisco) 75

Vous aimerez peut-être aussi