0% ont trouvé ce document utile (0 vote)
182 vues18 pages

Techniques de traitement d'image numérique

Ce document traite de la technique image en introduisant les notions d'analogique, de numérique, de codage, d'échantillonnage et de quantification. Il explique également le poids d'une image et les différentes normes d'échantillonnage.

Transféré par

Antoine Billiot
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
182 vues18 pages

Techniques de traitement d'image numérique

Ce document traite de la technique image en introduisant les notions d'analogique, de numérique, de codage, d'échantillonnage et de quantification. Il explique également le poids d'une image et les différentes normes d'échantillonnage.

Transféré par

Antoine Billiot
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Technique image

28/09

INTRODUCTION : RAPPELS

1) L’analogique

signal qui est analogue à la source, le signal peut prendre une infinité de valeurs
—> beaucoup de nuances de couleurs en pellicule de part cette infinité
contrairement au numérique où c’est beaucoup plus difficile et couteux —> même
principe entre le vinyle et le CD

inconvénient : ne supporte pas bien la duplication —> perte d’informations

2) Le numérique

signal codé en binaire défini de manière précise —> on maitrise la quantité


d’informations qu’on va transporter

aucune perte d’informations lors de la duplication

tout ce qui est numérique n’est pas nécessairement informatique (ex : un lecteur
DVD est numérique mais n’a pas de couches de programmation, il est fabriqué
pour une tâche précise VS un ordinateur a des composants électroniques lui
permettant de tout faire et c’est sa programmation qui va définir l’action à faire)

—> très peu de caméras ont des composants informatiques ; chaque composant
est destiné à une tâche ce qui évite que l’appareil plante

avantages :

1) on peut stocker beaucoup plus d’informations —> avantage à double


tranchant : on a tendance à trop en stocker

2) informations beaucoup plus fiables qui se conservent beaucoup plus


longtemps que l’analogique —> limite du numérique : il faut un système pour
décoder l’information qui ne sera peut-être plus disponible dans des centaines
d’années

3) on peut transférer les informations numériques beaucoup plus


facilement et rapidement notamment grâce à Internet —> l’arrivée de la 5g va
révolutionner le monde professionnel (débit proche de celui de la fibre)

4) coute moins cher en principe mais au final pas forcément car on cherche
à faire des choses plus complexes

l’arrivée du numérique permet de commencer à fusionner l’informatique et la


vidéo qui sont à la bases des technologies non compatibles mais l’élément
principal les séparant est la présence du balayage de l’entrelacé sur beaucoup
d’appareils (le changement de normes se fera dans les années à suivre)

inconvénient :

1) on ne peut pas reproduire toutes les couleurs perceptibles par l’oeil


humain —> aujourd’hui : 16 millions de couleurs en numérique soit très peu par
rapport à l’oeil humain

2) problème de matériel : on ne peut pas lire n’importe quel type de fichier


avec n’importe quel ordinateur —> risque d’endommager les informations

pour que le signal soit fiable :

1) il faut que ce soit un signal de qualité donc il faut avoir une image bien
éclairée et travaillée en lumière —> belle image = belle lumière

2) l’optique va aussi influer sur la qualité de l’image

3) il faut avoir des transferts fiables et sécurisés —> trop transférer risque
de la perte d’informations et de données

4) bien respecter les standards informatiques soit le CODEC, le format


d’enregistrement du fichier etc —> certains ne sont pas fait pour la post-
production

05/10

3) Le codage

système binaire : système de numération à base 2 avec deux symboles : 0 et 1

Système binaire : 0 Système décimal : 0

1 1

10 2

11 3

100 4

10 on réutilise
les symboles précédents

Bit : binary digit

En informatique on parle de mot binaire

images en 8 bits : 2^8 = 256 possibilités —> une information en 8 bits peut
prendre 256 valeurs possibles (ex : les nuances de couleurs)

—> pour 1 pixel : c’est 8 bits pour le rouge, 8 bits pour le vert, et 8 bits pour le
bleu donc quand on parle d’une image codée en 8 bits, on parle en fait d’une
image codée en 24 bits donc 2^24 = 16 millions de possibilités (environ) et de
seuils de luminosité —> plus il y a de couleurs, plus il y a de détails notamment
dans la texture

1 octet (byte) = 8 bits

1 kilo octet = 1000 octets = 10^3 mais pour les informaticiens 1 kilo octet = 1024
octets = 2^10

RATTRAPER UNE PARTIE LÀ

Le système hexadécimal : système d’écriture informatique à base 16 : 16


symboles de 0 à 9 et de A à F

rend l’écriture plus compacte en n’utilisant un seul caractère au lieu de 4 en binaire


et concorde facilement avec l’octet

16 = 2^4 donc ça correspond à un mot binaire de 4 bits

très pratique pour convertir du binaire en groupant les chiffres 4 par 4 —> plus
compacte et lisible

0000 0

0001 1

0010 2

0011 3

0100 4

0101 5

0110 6

0111 7

1000 8

1001 9

1010 A

1011 B

1100 C

1101 D

1110 E

1111 F

Le modèle additif : le rouge est un ensemble de longueurs d’ondes donc de plein


de rouges différents —> le rouge normalisé est un rouge à 700 nm, le vert
normalisé à 546,1 nm et le bleu normalisé à 435,8 nm

—> nuances précises pour avoir du blanc exact cf l’expérience de Newton

espace colorimétrique XYZ (ou xyY)

4) L’échantillonnage

la fréquence d’échantillonnage doit être égale ou supérieure au double de la


fréquence maximale du signal échantillonné

son : entre 20 Hz et 20K Hz —> fecht à 40K Hz

bande passante : débit d’informations binaires —> en bits/s


Fecht / 2
plage de fréquence comprise entre deux fréquences extrêmes. Elle définit les
capacités techniques et qualitatives, notamment des appareils qui enregistrent. Elle
influence la qualité de l’image, conditionne la reproduction des détails de l’image.
C’est la différence entre deux fréquences et pas deux niveaux. Elle est en rapport
avec le débit.
—> VOIR MES FICHES DE REVISIONS DE L’ANNEE DERNIERE

12/10

bande passante vidéo : fréquence de la lumière : entre 400 et 770 THz —> il
faudrait appliquer une fecht de 1540 THz donc cela fait beaucoup trop
d’informations, on a pas les moyens techniques donc on ne peut pas
échantillonner aujourd’hui la totalité de la lumière

pour la HD : norme d’échantillonnage est de 74,25 MHz (échantillonner le signal


utile et les signaux de synchro : signal de synchro permet d’organiser l’affichage
du signal utile sur l’écran en indiquant les limites des lignes à afficher)

—> rouge, vert et bleu à la même fréquence donc il faudra enregistrer non pas
74,25 MHz informations par seconde mais 222,75 MHz par seconde

5) La quantification

elle consiste à convertir les valeur soutenues lors de l’échantillonnage en code


binaire

le nombre de bits sur lequel se fait la quantification conditionne la précision de


cette conversion

problèmes :

1) enregistrer des images sur un nombre de bits supérieur au nombre de bits


à l’affichage —> perte de précision notamment dans les dégradés

2) l’aliasing (sous-échantillonnage) : réduction du volume des images et


donc de leur précision en diminuant le nombre d’échantillons à traiter

6) Le poids d’une image

comment définir le poids d’une image ?

Plusieurs étapes :

ex : HD : 1920x1080 = 2 073 600 pixels

1) échantillonnage : Rouge : 2 073 600 échantillons

Vert : 2 073 600 échantillons

Bleu : 2 073 600 échantillons

Total : 6 220 800 échantillons

2) quantification : 10 bits

6 220 800 x 10 = 62 208 000 bits

conversion en octets : 62 208 000 / 8 = 7 776 000 octets =poids de l'image

les différentes normes d’échantillonnage :

1) la norme [Link] :

déjà débayerisé (= valeurs colorées du rouge, du vert et du bleu déjà trouvées à


partir des photosites), on est dans l’espace colorimétrique composante (=
permettant la compatibilité entre les récepteurs noir et blanc et les récepteurs
couleur) , cette norme indique un sous-échantillonnage couleur dans
l’horizontalité et la norme de l’espace Y Cb Cr

Y = (0,30 x R) + (0,59 x V) + (0,11 x B) = luminance (luma) soit noir et blanc

Cb = B - Y = composante de chrominance permettant de trouver le vert

Cr = R - Y = composante de chrominance permettant de trouver le vert

4 2 2

luminance (Y) lignes impaires (Cb et Cr) lignes paires (Cb et Cr)

Y = 74,25 MHz fecht

Cb = 37,125 MHz fecht

Cr = 37,125 MHz fecht

—> réduction du débit d’un tiers


avec peu ou pas de différence
visuelle

19/10
2) la norme [Link] :

on est en composante YCbCr

ça revient à échantillonner un pixel sur 4 —> différence de niveau de détail

on le retrouve dans tout ce qui est diffusion : TV, Blu-ray, DVD, internet —>
principe est qu’on diffuse sur des écrans plus petits et qu’il faut alléger le poids
des informations qu’on transmet donc autant baisser la quantité d’informations
qu’on aura à l’image

certaines chaînes ne travaillent pas en [Link] mais en [Link] car la diffusion 24h/24h
rend ça trop lourd : le poids et débit de la vidéo sont donc divisés par 2

—> effet escalier sur le contour de la découpe

4 2 0

luminance (Y) lignes impaires (Cb et Cr) lignes paires (Cb et Cr)

Y = 74,25 MHz fecht

Cb = 18,5625 MHz fecht

Cr = 18,5625 MHz fecht

3) la norme [Link] :

tous les signaux sont échantillonnés à la même valeur, il n’y a pas de sous
échantillonnage couleur donc on est sur l’espace RVB

échantillonnage haut de gamme donc pour les plus gros budgets car ça prend
plus de temps à traiter —> principalement au cinéma

R = 74,25 MHz fecht

V = 74,25 MHz fecht

B = 74,25 MHz fecht

4) la norme [Link] :

4ème 4 : couche alpha = informations de transparence

informations de transparence ne sont pas binaires

5) la norme [Link] :

couche alpha pour la TV générée en direct en régie (ex : pour la météo)

le calcul du débit utile et du débit total d’un signal vidéo :

exemple appliqué : HD 1920x1080 - [Link] - 10 bits - 25 i/s

74,25 MHz (1920x1080 - 25i/s)

débit utile : poids d’une image x cadence d’image/s

1) poids d’une image :

1920x1080 = 2 073 600 pixels

échantillonnage [Link] pour trouver le poids

Y : 2 073 600 échantillons

Cb : 2 073 600 / 2 = 1036 800 échantillons

Cr : 2 073 600 / 2 = 1036 800 échantillons

Total : 4 147 200 échantillons

2) quantification : 10 bits —> on convertit chaque échantillon en binaire :

4 147 200 x 10 = 41 472 000 bits

donc débit utile = 41 472 000 x 25 = 1 036 800 000 bits/s

= 1,0368 x 10^9 bits/s

= 1,04 Gbits/s

débit total : fréquence d’échantillonnage x quantification

1) fréquence d’échantillonnage :

échantillonnage : [Link]

Y : 74 250 000 échantillons

Cb : 74 250 000 / 2 = 37 125 000 échantillons

Cr : 74 250 000 / 2 = 37 125 000 échantillons

Total : 148 500 000 échantillons

2) quantification : 10 bits

donc débit total = 148 500 000 x 10 = 1 485 000 000 bits/s

= 1,485 Gbits/s

comparaison entre le débit utile et le débit total :

différence de 0,445 Gbits/s —> différence aussi marquée car norme 74,25 MHz
étant une norme mondiale, elle est définie en fonction de de la norme d’image/s
la plus élevée (30 i/s), d’où l’écart quand on est en 25 i/s

6) Le SDI (Serial Digital Interface)

Normes

SD-SDI 720x576 ou [Link] - 10 bits 270 Mbits/s


720x480
HD-SDI HDTV1 (60, 50, 30, [Link] - 10 bits 1,485 Gbits/s
25 ou 24i/s)

HDTV2 (30, 25 ou
24 i/s)

2K (30, 25 ou 24 i/
s)
3G-SDI HDTV2 (60 ou 50 i/ [Link] - 10 bits 2,97 Gbits/s
s)
6G UHD-SDI UHDTV1 (30, 25 ou [Link] - 10 bits 5,94 Gbits/s
24 i/s)

4K (30, 25 ou 24 i/
s)
12G UHD-SDI UHDVT1 (60 ou 50 [Link] - 10 bits
11,88 Gbits/s
i/s)

4K (60 ou 50 i/s)

UHDTV1 (30, 25 ou [Link] - 12 bits ou


24 i/s)
[Link] - 10 bits

4K (30, 25 ou 24 i/
s)
24G UHD-SDI UHDTV1 (60 ou 50 [Link] - 12 bits ou 24 Gbits/s
i/s)
[Link] - 10 bits

UHDTV2 (30, 25 ou [Link] - 10 bits


24 i/s)

26/10
7) Le sous-échantillonnage spatial

Pixels carrés et pixels rectangulaires

les définitions d’image en affichage

norme format
d’affichage
DCI 8K —> 8192x4320 (8K) 1.33, 1.66,
cinéma 1.78, 1.80,
1.85, 1.90,
2.35
UHDTV2 7680x4320 8K TV —> 16/9 = 1,78
dépassement
des limites de
la perception
humaine donc
on ne verra
pas la
différence cf
article sur Le
Monde sur
l’interêt de
cette norme
DCI 4K —> 4096x2160 (4K) 1.33, 1.66,
cinéma 1.78, 1.80,
1.85, 1.90,
2.35
UHDTV1 3840x2160 4K TV 16/9 = 1,78
DCI 2K —> 2048x1080 (2K) 1.33, 1.66,
cinéma 1.78, 1.80,
1.85, 1.90,
2.35
HDTV2 1920x1080 = Full HD —> 16/9 = 1,78 pixels
pixels carrés diffusion et rectangulaires
post- = 1440x1080
production à
partir des
années 2010
car trop cher
avant
HDTV1 1280x720 = HD ready 16/9 = 1,78 pixels
pixels carrés rectangulaires
= 960x720
norme format
d’affichage
SD PAL 768x576 = (SD) 4/3 = 1,33 pixels carrés =
pixels 720x576
rectangulaires
SD NTSC 640x480 = (SD) 4/3 = 1,33 pixels carrés =

pixels 720x480
rectangulaires

lire [Link]
les-differents-formats/

avec l’arrivée de la HD : création de définitions plus proches entre lestais pour faire
un transfert plus facile

interêt du passage entre les pixels carrés et les pixels rectangulaires : changement
du poids du fichier permettant un échange plus rapide et facile

—> pixels rectangulaires permettent de réduire de 25% la quantité


d’information

certains format utilisent des pixels rectangulaires en interne pour la production et


le stockage d’image comme moyen de réduction de la quantité des données à
traiter pour limiter les transferts nécessaires tout en maintenant la comptabilité
avec d’autres interfaces

02/11
CHAPITRE I) LA COMPRESSION

1) La réduction de débit

objectifs :

- réduire le poids des fichiers pour le stockage

- faciliter la diffusion

- accélérer le transferts d’information via les réseaux

- s’adapter à la bande passante des volumes de stockage

compression = simplifier des informations et en supprimer

par l’utilisation de CODEC (COde DECode) = algorithme (fonction mathématique


qui a pour but de résoudre une équation, de répondre à une question) de
compression qu’on va appliquer à une information image ou son dans le but de
réduire le poids et le débit tout en conservant le maximum de qualité visuelle et
sonore

2) Les modes de compression

compression Lossless : sans perte d’information, sans compression réellement

il n’y a pas vraiment de CODEC ayant cette compression en vidéo

en image fixe : le DPX, le EXR

pour le son : le Wave, le AIFF, le FLAC (Free Lossless Audio Codec)

Apple ProRes est considéré comme étant Lossless mais ne l’est pas vraiment car
on supprime un tout petit peu d’informations

compression Lossy : avec perte d’information

si la compression est importante : perte visible sous forme de pixelisation,


d’aplats

si la compression est faible : c’est imperceptible

3) Les formes de Codec

Codec matériel : sous forme de puce ou de carte électronique


Codec présent dans les caméras (ou lecteur DVD de salon par exemple) pour être
sûr de ne pas planter

Codec logiciel : sous forme de programme informatique


nécessite un système d’exploitation qui nécessite un ordinateur faisant plein de
tâches simultanées donc ça peut planter
moins cher car be coup plus libre d’utiliser ça sur n’importe quelle plateforme
4) L’encapsulation numérique

le Container = format vidéo qui a pour but de contenir et de synchroniser une ou


plusieurs informations images, informations sons et métadonnées
il n’a aucun impact sur la qualité visuelle de l’image et la qualité sonore du son
ex : .mp4, .mov, .avi
Encapsulation :
multiplexage démultiplexage

info image carte graphique

code décode
container
carte son
info son
les conditions
de lecture de fichier
le logiciel doit :
- connaître le container
- posséder le Codec vidéo
- posséder le Codec audio

5) Les container

les container du web :


- .mov (QuickTime d’Apple)
- .wmv (Windows Media Video) : s’impose pour le début du streaming car
Apple n’est pas encore assez reconnu
- .flv (Flash Video)
- .webm (Google), équivalent pour image fixe : .webp (a pour but sur le long
terme de remplacer le .jpeg sur Google) —> container pouvant contenir beaucoup
plus d’informations notamment les sous-titres
- .mkv : container pouvant contenir beaucoup plus d’informations
notamment les sous-titres
- .mp4 : container pouvant contenir beaucoup plus d’informations
notamment les sous-titres

les container du monde du libre (de droit, gratuit pour les consommateurs et
utilisateurs) :
- Wikipedia
- Firefox
- Open Office, Libre Office, Neo Office
- VLC
- .mkv (Matroska Video par CoreCodec) : peut gérer beaucoup de
métadonnées différentes, de flux audios et vidéos
- .ogg (OggVorbis par Xiph)
Codec video : Theora et Tarkin
Codec audio : Vorbis et FLAC

09/11

les container orientés exploitation des médias (post-production) :


- .mov (QuickTime d’Apple) : s’est imposé très rapidement à partir du
commencement du montage (car tout le graphisme se faisait sur Mac à la base),
aussi dans les caméras
- .avi (Audio Video interleave) Microsoft : très peu utilisé et très peu présent
dans les métiers du graphisme pour ce qui est de l’Europe, plus utilisé en Asie
- .mxf (Material eXchange Format) : le container professionnel par
excellence, compatible avec tous les logiciels et toutes les machines
professionnelles à l’international
créé par la SMPTE (Society of Motion Picture and Télévision Engineers) qui est
une association de professionnels, en France il y a la CST (Commission
Supérieure des Techniques de l’image et du son) qui a pour but de créer de
nouvelles techniques
2 versions : - MXF Op-1a développé par Sony
- MXF Op Atom développé par Panasonic, aussi chez Avid
AAF (Advanced Authoring Format) : format d’échange de fi chiers pour les projets
universels, permet de conserver les Timecode et on peut y inclure des fl ux
vidéos et audios sans les encapsuler, permet de prendre la Timeline sur Premiere
et de l’avoir à l’identique sur DaVinci —> on s’en sert plutôt pour transmettre les
métadonnées que comme container avec fi chiers audios et vidéos
EDL (EDit List) : ancêtre de l’AAF, date du début de la vidéo car ce n’est que du
code et du texte, liste de montage du Timecode —> pas un container

les containers MPEG :


MPEG = Moving Picture Experts Group
but était de développer des nouvelles normes pour
- MPEG1 : le plus ancien, but était de mettre 74 minutes de vidéo sur un
CDRom (700 Mo), 640x480 max, débit de 1,2 Mbits/s
Codec vidéo : mpeg1
Codec audio : mp3
extension la plus courante : .mpg
- MPEG2 : technologie qu’on retrouve sur la TNT SD, sur le DVD, inclue dans
la norme BlueRay (pour qu’il puisse lire les DVD vidéo), dédié à la SD mais à été
adapté à la HD, on peut le retrouver dans des caméras (ex : FS7), on peut le
retrouver associé à d’autres container tels que le QuickTime
Codec vidéo : mpeg2
Codec audio : AAC ou AC3
extension les plus courantes : .mpg, .m2t, .m2v
- MPEG3 : a été développé pour la HD mais n’a jamais été utilisé car pour le
passage de la SD à la HD on a préféré adapter le MPEG2
- MPEG4 : peut contenir beaucoup d’informations différentes en plus des flux
vidéos et audios : flux de métadonnées (ex : sous-titres), informations 3D,
couches orientées objets (ex : textures), interactivité
peut encoder plusieurs niveaux de qualité en un seul flux
Codec vidéo : mpeg4 part 2 (connu sous le nom de mpeg4 SStP
Simple Studio Profi le) et le mpeg4 part 10 (connu sous le nom de AVC/H264,
problème : on le retrouve encapsulé un peu partout car c’est le plus universel)`
Codec audio dépend de l’usage : mp3 pour le web, AAC pour
l’audiovisuel
extension les plus courantes : .mpg, .mp4, .m4v, .m4t, .mts

16/11

les flux MPEG :


- Elementary Stream (ES) : composé soit d’un flux vidéo, soit d’un flux
audio —> contient une des deux pistes de la Timeline mais pas les deux
- Program Stream (PS) : un flux vidéo (ES) et n flux audio (ES)
- Transport Stream (TS) : n flux vidéo (PS) —> un container contenant lui-
même des containers (PS)
ex de chaînes avec le flux TS : TNT, TF1, F2, F3, C+, F5, M6, Arte —> en plus du
flux vidéo il peut y avoir plusieurs flux audio (VO, VF…)
ex : DVD vidéo ont un dossier « Vidéo (TS) » = flux TS contenant plusieurs flux PS
—> extension liées à ça : .mts et .ts : variantes du mpeg4 faites pour le TS

profiles & levels :


- profiles (profils) = différence d’échantillonnage entre la luminance et la
chrominance —> ratio luma/chroma
- levels (niveaux) = définition de l’image

profiles \ levels High : 1920x1080 Main : 720x576 Low : 352x288


[Link] 444P@HL 444P@ML inexistant
[Link] 422P@HL 422P@ML inexistant
Main : [Link] MP@HL
MP@ML
MP@LL
(ex : Blu-Ray) (ex : DVD vidéo)
CHAPITRE 2 : LES REDONDANCES ET LES COMPRESSIONS

1) Les redondances

redondances spatiales (compression intra-images) :


se repose sur une image
2 informations à transmettre : valeur du pixel et facteur de répétition
toutes les images sont codées indépendamment les unes des autres
l’image est découpée en blocs de 8x8 pixels
aucune information n’est perdue

redondances psycho-visuelles (compression intra-images) :


on supprime les informations les moins significatives pour l’oeil humain soit les
détails très fins

redondances temporelles (compression inter-images) :


on exploite les répétitions d’informations entre les images de la vidéo
s’effectue systématiquement après une compression intra-images
analyse du déplacement des blocs de pixels : prend beaucoup trop de temps
—> la vidéo est découpée en groupes d’images (GOP : Group of Pictures) :
possibilité de compresser beaucoup d’informations et aucune des
informations d’origine ne sont perdues

redondances statistiques :
on code le plus court possible les informations les plus fréquentes (ex : lol)

23/11

2) La DCT (Discreet Cosine Transform) : la compression intra-image

se base sur la série de Fourier cf suites d’harmoniques en son


principe : éviter de répéter les informations redondantes dans chaque image

la compression intra-image s’appuie sur les redondances spatiales et les


redondances psycho-visuelles

étapes :
1) chaque image va être découpée en blocs de 8x8 pixels = blocs DCT
2) analyse des blocs en fonction de 2 paramètres : la fréquence et
l’amplitude des changements de valeur entre les différents pixels d’un bloc —>
on analyse les canaux Rouge, Vert et Bleu séparément pour créer 3 matrices
différentes
—> fréquence faible et amplitude réduite : = zone peu détaillée de l’image
(aplat = son uniformément de la même couleur)
—> fréquence haute et forte amplitude = zone très détaillée de l’image
3) comptage du nombre de blocs identiques pour éviter de les répéter
4) seuillage : définir le seuil en dessous duquel on va supprimer les détails
de l’image —> simplifie le motif et allège le poids de l’image, si on force trop on se
retrouve avec des aplats
sur Photoshop : le seuillage se fait par le réglage de niveau
5) lecture en zig zag : on stocke les informations dans l’ordre croissant
(zones peu détaillées à zone très détaillées) —> facilite le décodage

VBR : Variable Bit Rate CBR : Constant Bit Rate


notion de débit cible : débit à notion de débit cible : débit à
respecter pour un usage spécifique par respecter pour un usage spécifique par
rapport à la bande passante, pour des rapport à la bande passante, pour des
raisons économiques raisons économiques
tolérance par rapport au débit cible : le même seuillage/compression pour
seuillage va s’adapter au niveau de toutes les images (dans les détails
détail de chaque image qu’on réduit ou supprime) —> pas de
prise en compte des variations subtiles
donc apparition d’aplats
1 passe : le logiciel va analyser chaque
image une par une et la compresse
tout de suite après

2 passes : le logiciel va analyser


l’ensemble des images et appliquer la
compression pour l’ensemble après —>
2 fois plus de temps mais converse le
maximum d’informations

pour la majorité des Codec, le choix entre VBR et CBR est un choix du fabriquant
(ex : Apple ProRes en VBR)
sur Media Encoder, on peut choisir si on veut exporter en VBR ou en CBR

compression intra-image :
on considère qu’on peut diviser en moyenne par 5 le poids d’une image sans
pertes d’informations perceptibles
3) La compression numérique temporelle : la compression inter-image

pas de compression inter-image sans compression intra-image au préalable : on


analyse la répétition des blocs DCT entre les images

certains blocs ne changent pas : répétition simple d’une image à l’autre (ex : arrière
plan immobile) —> on peut supprimer les répétitions
certains blocs changent et existent dans d’autres images (ex : arrière plan devant
lequel quelqu’un passe et repart)
certains blocs changent et n’existent que dans l’image analysée —> on est obligé
de les conserver

la vidéo est découpée en GOP (Group Of Pictures) au sein desquels on va


analyser les répétitions d’un coup —> standards :
- 12 images en Europe (1/2s —> 25i/s)
- 15 images aux USA (1/2s —> 30 i/s)

3 types d’images :
- I = Intra : on conserve 100% de l’information lors de la compression inter-
image, c’est l’image de référence pour les autres images du GOP (= Key Frame),
directement ou indirectement
- P = Predite : définie en fonction de l’image I ou P la précédent —> on ne
conserve que les informations qui n’existent pas dans l’image I (pour le 1er P) puis
dans l’image P la précédent (pour les prochains P) —> permet de simplifier et
d’éviter les redondances
en moyenne, on conserve 50% de l’information
- B = Bidirectionnelle : définie en fonction des images I ou P la précédent
et la suivant —> elle ne conserve que les informations qui n’existe pas dans les
images 1 et 4 (1 = I et 4 = P)
en moyenne, on conserve 15% de l’information

—> motif d’un GOP de 12 images : IBBPBBPBBPBBPB


la dernière image d’une vidéo est toujours une image I, quelque soit le nombre
d’images total de notre vidéo (le dernier GOP peut ne pas forcément avoir 12
images du coup) —> quand un GOP se termine, le dernier B se base sur le I du
GOP qui suit
compression faite pour la diffusion (TV), le BluRay… —> post-production légère,
quand il n’y a que du montage sans effets spéciaux

Vous aimerez peut-être aussi