Technique image
28/09
INTRODUCTION : RAPPELS
1) L’analogique
signal qui est analogue à la source, le signal peut prendre une infinité de valeurs
—> beaucoup de nuances de couleurs en pellicule de part cette infinité
contrairement au numérique où c’est beaucoup plus difficile et couteux —> même
principe entre le vinyle et le CD
inconvénient : ne supporte pas bien la duplication —> perte d’informations
2) Le numérique
signal codé en binaire défini de manière précise —> on maitrise la quantité
d’informations qu’on va transporter
aucune perte d’informations lors de la duplication
tout ce qui est numérique n’est pas nécessairement informatique (ex : un lecteur
DVD est numérique mais n’a pas de couches de programmation, il est fabriqué
pour une tâche précise VS un ordinateur a des composants électroniques lui
permettant de tout faire et c’est sa programmation qui va définir l’action à faire)
—> très peu de caméras ont des composants informatiques ; chaque composant
est destiné à une tâche ce qui évite que l’appareil plante
avantages :
1) on peut stocker beaucoup plus d’informations —> avantage à double
tranchant : on a tendance à trop en stocker
2) informations beaucoup plus fiables qui se conservent beaucoup plus
longtemps que l’analogique —> limite du numérique : il faut un système pour
décoder l’information qui ne sera peut-être plus disponible dans des centaines
d’années
3) on peut transférer les informations numériques beaucoup plus
facilement et rapidement notamment grâce à Internet —> l’arrivée de la 5g va
révolutionner le monde professionnel (débit proche de celui de la fibre)
4) coute moins cher en principe mais au final pas forcément car on cherche
à faire des choses plus complexes
l’arrivée du numérique permet de commencer à fusionner l’informatique et la
vidéo qui sont à la bases des technologies non compatibles mais l’élément
principal les séparant est la présence du balayage de l’entrelacé sur beaucoup
d’appareils (le changement de normes se fera dans les années à suivre)
inconvénient :
1) on ne peut pas reproduire toutes les couleurs perceptibles par l’oeil
humain —> aujourd’hui : 16 millions de couleurs en numérique soit très peu par
rapport à l’oeil humain
2) problème de matériel : on ne peut pas lire n’importe quel type de fichier
avec n’importe quel ordinateur —> risque d’endommager les informations
pour que le signal soit fiable :
1) il faut que ce soit un signal de qualité donc il faut avoir une image bien
éclairée et travaillée en lumière —> belle image = belle lumière
2) l’optique va aussi influer sur la qualité de l’image
3) il faut avoir des transferts fiables et sécurisés —> trop transférer risque
de la perte d’informations et de données
4) bien respecter les standards informatiques soit le CODEC, le format
d’enregistrement du fichier etc —> certains ne sont pas fait pour la post-
production
05/10
3) Le codage
système binaire : système de numération à base 2 avec deux symboles : 0 et 1
Système binaire : 0 Système décimal : 0
1 1
10 2
11 3
100 4
10 on réutilise
les symboles précédents
Bit : binary digit
En informatique on parle de mot binaire
images en 8 bits : 2^8 = 256 possibilités —> une information en 8 bits peut
prendre 256 valeurs possibles (ex : les nuances de couleurs)
—> pour 1 pixel : c’est 8 bits pour le rouge, 8 bits pour le vert, et 8 bits pour le
bleu donc quand on parle d’une image codée en 8 bits, on parle en fait d’une
image codée en 24 bits donc 2^24 = 16 millions de possibilités (environ) et de
seuils de luminosité —> plus il y a de couleurs, plus il y a de détails notamment
dans la texture
1 octet (byte) = 8 bits
1 kilo octet = 1000 octets = 10^3 mais pour les informaticiens 1 kilo octet = 1024
octets = 2^10
RATTRAPER UNE PARTIE LÀ
Le système hexadécimal : système d’écriture informatique à base 16 : 16
symboles de 0 à 9 et de A à F
rend l’écriture plus compacte en n’utilisant un seul caractère au lieu de 4 en binaire
et concorde facilement avec l’octet
16 = 2^4 donc ça correspond à un mot binaire de 4 bits
très pratique pour convertir du binaire en groupant les chiffres 4 par 4 —> plus
compacte et lisible
0000 0
0001 1
0010 2
0011 3
0100 4
0101 5
0110 6
0111 7
1000 8
1001 9
1010 A
1011 B
1100 C
1101 D
1110 E
1111 F
Le modèle additif : le rouge est un ensemble de longueurs d’ondes donc de plein
de rouges différents —> le rouge normalisé est un rouge à 700 nm, le vert
normalisé à 546,1 nm et le bleu normalisé à 435,8 nm
—> nuances précises pour avoir du blanc exact cf l’expérience de Newton
espace colorimétrique XYZ (ou xyY)
4) L’échantillonnage
la fréquence d’échantillonnage doit être égale ou supérieure au double de la
fréquence maximale du signal échantillonné
son : entre 20 Hz et 20K Hz —> fecht à 40K Hz
bande passante : débit d’informations binaires —> en bits/s
Fecht / 2
plage de fréquence comprise entre deux fréquences extrêmes. Elle définit les
capacités techniques et qualitatives, notamment des appareils qui enregistrent. Elle
influence la qualité de l’image, conditionne la reproduction des détails de l’image.
C’est la différence entre deux fréquences et pas deux niveaux. Elle est en rapport
avec le débit.
—> VOIR MES FICHES DE REVISIONS DE L’ANNEE DERNIERE
12/10
bande passante vidéo : fréquence de la lumière : entre 400 et 770 THz —> il
faudrait appliquer une fecht de 1540 THz donc cela fait beaucoup trop
d’informations, on a pas les moyens techniques donc on ne peut pas
échantillonner aujourd’hui la totalité de la lumière
pour la HD : norme d’échantillonnage est de 74,25 MHz (échantillonner le signal
utile et les signaux de synchro : signal de synchro permet d’organiser l’affichage
du signal utile sur l’écran en indiquant les limites des lignes à afficher)
—> rouge, vert et bleu à la même fréquence donc il faudra enregistrer non pas
74,25 MHz informations par seconde mais 222,75 MHz par seconde
5) La quantification
elle consiste à convertir les valeur soutenues lors de l’échantillonnage en code
binaire
le nombre de bits sur lequel se fait la quantification conditionne la précision de
cette conversion
problèmes :
1) enregistrer des images sur un nombre de bits supérieur au nombre de bits
à l’affichage —> perte de précision notamment dans les dégradés
2) l’aliasing (sous-échantillonnage) : réduction du volume des images et
donc de leur précision en diminuant le nombre d’échantillons à traiter
6) Le poids d’une image
comment définir le poids d’une image ?
Plusieurs étapes :
ex : HD : 1920x1080 = 2 073 600 pixels
1) échantillonnage : Rouge : 2 073 600 échantillons
Vert : 2 073 600 échantillons
Bleu : 2 073 600 échantillons
Total : 6 220 800 échantillons
2) quantification : 10 bits
6 220 800 x 10 = 62 208 000 bits
conversion en octets : 62 208 000 / 8 = 7 776 000 octets =poids de l'image
les différentes normes d’échantillonnage :
1) la norme [Link] :
déjà débayerisé (= valeurs colorées du rouge, du vert et du bleu déjà trouvées à
partir des photosites), on est dans l’espace colorimétrique composante (=
permettant la compatibilité entre les récepteurs noir et blanc et les récepteurs
couleur) , cette norme indique un sous-échantillonnage couleur dans
l’horizontalité et la norme de l’espace Y Cb Cr
Y = (0,30 x R) + (0,59 x V) + (0,11 x B) = luminance (luma) soit noir et blanc
Cb = B - Y = composante de chrominance permettant de trouver le vert
Cr = R - Y = composante de chrominance permettant de trouver le vert
4 2 2
luminance (Y) lignes impaires (Cb et Cr) lignes paires (Cb et Cr)
Y = 74,25 MHz fecht
Cb = 37,125 MHz fecht
Cr = 37,125 MHz fecht
—> réduction du débit d’un tiers
avec peu ou pas de différence
visuelle
19/10
2) la norme [Link] :
on est en composante YCbCr
ça revient à échantillonner un pixel sur 4 —> différence de niveau de détail
on le retrouve dans tout ce qui est diffusion : TV, Blu-ray, DVD, internet —>
principe est qu’on diffuse sur des écrans plus petits et qu’il faut alléger le poids
des informations qu’on transmet donc autant baisser la quantité d’informations
qu’on aura à l’image
certaines chaînes ne travaillent pas en [Link] mais en [Link] car la diffusion 24h/24h
rend ça trop lourd : le poids et débit de la vidéo sont donc divisés par 2
—> effet escalier sur le contour de la découpe
4 2 0
luminance (Y) lignes impaires (Cb et Cr) lignes paires (Cb et Cr)
Y = 74,25 MHz fecht
Cb = 18,5625 MHz fecht
Cr = 18,5625 MHz fecht
3) la norme [Link] :
tous les signaux sont échantillonnés à la même valeur, il n’y a pas de sous
échantillonnage couleur donc on est sur l’espace RVB
échantillonnage haut de gamme donc pour les plus gros budgets car ça prend
plus de temps à traiter —> principalement au cinéma
R = 74,25 MHz fecht
V = 74,25 MHz fecht
B = 74,25 MHz fecht
4) la norme [Link] :
4ème 4 : couche alpha = informations de transparence
informations de transparence ne sont pas binaires
5) la norme [Link] :
couche alpha pour la TV générée en direct en régie (ex : pour la météo)
le calcul du débit utile et du débit total d’un signal vidéo :
exemple appliqué : HD 1920x1080 - [Link] - 10 bits - 25 i/s
74,25 MHz (1920x1080 - 25i/s)
débit utile : poids d’une image x cadence d’image/s
1) poids d’une image :
1920x1080 = 2 073 600 pixels
échantillonnage [Link] pour trouver le poids
Y : 2 073 600 échantillons
Cb : 2 073 600 / 2 = 1036 800 échantillons
Cr : 2 073 600 / 2 = 1036 800 échantillons
Total : 4 147 200 échantillons
2) quantification : 10 bits —> on convertit chaque échantillon en binaire :
4 147 200 x 10 = 41 472 000 bits
donc débit utile = 41 472 000 x 25 = 1 036 800 000 bits/s
= 1,0368 x 10^9 bits/s
= 1,04 Gbits/s
débit total : fréquence d’échantillonnage x quantification
1) fréquence d’échantillonnage :
échantillonnage : [Link]
Y : 74 250 000 échantillons
Cb : 74 250 000 / 2 = 37 125 000 échantillons
Cr : 74 250 000 / 2 = 37 125 000 échantillons
Total : 148 500 000 échantillons
2) quantification : 10 bits
donc débit total = 148 500 000 x 10 = 1 485 000 000 bits/s
= 1,485 Gbits/s
comparaison entre le débit utile et le débit total :
différence de 0,445 Gbits/s —> différence aussi marquée car norme 74,25 MHz
étant une norme mondiale, elle est définie en fonction de de la norme d’image/s
la plus élevée (30 i/s), d’où l’écart quand on est en 25 i/s
6) Le SDI (Serial Digital Interface)
Normes
SD-SDI 720x576 ou [Link] - 10 bits 270 Mbits/s
720x480
HD-SDI HDTV1 (60, 50, 30, [Link] - 10 bits 1,485 Gbits/s
25 ou 24i/s)
HDTV2 (30, 25 ou
24 i/s)
2K (30, 25 ou 24 i/
s)
3G-SDI HDTV2 (60 ou 50 i/ [Link] - 10 bits 2,97 Gbits/s
s)
6G UHD-SDI UHDTV1 (30, 25 ou [Link] - 10 bits 5,94 Gbits/s
24 i/s)
4K (30, 25 ou 24 i/
s)
12G UHD-SDI UHDVT1 (60 ou 50 [Link] - 10 bits
11,88 Gbits/s
i/s)
4K (60 ou 50 i/s)
UHDTV1 (30, 25 ou [Link] - 12 bits ou
24 i/s)
[Link] - 10 bits
4K (30, 25 ou 24 i/
s)
24G UHD-SDI UHDTV1 (60 ou 50 [Link] - 12 bits ou 24 Gbits/s
i/s)
[Link] - 10 bits
UHDTV2 (30, 25 ou [Link] - 10 bits
24 i/s)
26/10
7) Le sous-échantillonnage spatial
Pixels carrés et pixels rectangulaires
les définitions d’image en affichage
norme format
d’affichage
DCI 8K —> 8192x4320 (8K) 1.33, 1.66,
cinéma 1.78, 1.80,
1.85, 1.90,
2.35
UHDTV2 7680x4320 8K TV —> 16/9 = 1,78
dépassement
des limites de
la perception
humaine donc
on ne verra
pas la
différence cf
article sur Le
Monde sur
l’interêt de
cette norme
DCI 4K —> 4096x2160 (4K) 1.33, 1.66,
cinéma 1.78, 1.80,
1.85, 1.90,
2.35
UHDTV1 3840x2160 4K TV 16/9 = 1,78
DCI 2K —> 2048x1080 (2K) 1.33, 1.66,
cinéma 1.78, 1.80,
1.85, 1.90,
2.35
HDTV2 1920x1080 = Full HD —> 16/9 = 1,78 pixels
pixels carrés diffusion et rectangulaires
post- = 1440x1080
production à
partir des
années 2010
car trop cher
avant
HDTV1 1280x720 = HD ready 16/9 = 1,78 pixels
pixels carrés rectangulaires
= 960x720
norme format
d’affichage
SD PAL 768x576 = (SD) 4/3 = 1,33 pixels carrés =
pixels 720x576
rectangulaires
SD NTSC 640x480 = (SD) 4/3 = 1,33 pixels carrés =
pixels 720x480
rectangulaires
lire [Link]
les-differents-formats/
avec l’arrivée de la HD : création de définitions plus proches entre lestais pour faire
un transfert plus facile
interêt du passage entre les pixels carrés et les pixels rectangulaires : changement
du poids du fichier permettant un échange plus rapide et facile
—> pixels rectangulaires permettent de réduire de 25% la quantité
d’information
certains format utilisent des pixels rectangulaires en interne pour la production et
le stockage d’image comme moyen de réduction de la quantité des données à
traiter pour limiter les transferts nécessaires tout en maintenant la comptabilité
avec d’autres interfaces
02/11
CHAPITRE I) LA COMPRESSION
1) La réduction de débit
objectifs :
- réduire le poids des fichiers pour le stockage
- faciliter la diffusion
- accélérer le transferts d’information via les réseaux
- s’adapter à la bande passante des volumes de stockage
compression = simplifier des informations et en supprimer
par l’utilisation de CODEC (COde DECode) = algorithme (fonction mathématique
qui a pour but de résoudre une équation, de répondre à une question) de
compression qu’on va appliquer à une information image ou son dans le but de
réduire le poids et le débit tout en conservant le maximum de qualité visuelle et
sonore
2) Les modes de compression
compression Lossless : sans perte d’information, sans compression réellement
il n’y a pas vraiment de CODEC ayant cette compression en vidéo
en image fixe : le DPX, le EXR
pour le son : le Wave, le AIFF, le FLAC (Free Lossless Audio Codec)
Apple ProRes est considéré comme étant Lossless mais ne l’est pas vraiment car
on supprime un tout petit peu d’informations
compression Lossy : avec perte d’information
si la compression est importante : perte visible sous forme de pixelisation,
d’aplats
si la compression est faible : c’est imperceptible
3) Les formes de Codec
Codec matériel : sous forme de puce ou de carte électronique
Codec présent dans les caméras (ou lecteur DVD de salon par exemple) pour être
sûr de ne pas planter
Codec logiciel : sous forme de programme informatique
nécessite un système d’exploitation qui nécessite un ordinateur faisant plein de
tâches simultanées donc ça peut planter
moins cher car be coup plus libre d’utiliser ça sur n’importe quelle plateforme
4) L’encapsulation numérique
le Container = format vidéo qui a pour but de contenir et de synchroniser une ou
plusieurs informations images, informations sons et métadonnées
il n’a aucun impact sur la qualité visuelle de l’image et la qualité sonore du son
ex : .mp4, .mov, .avi
Encapsulation :
multiplexage démultiplexage
info image carte graphique
code décode
container
carte son
info son
les conditions
de lecture de fichier
le logiciel doit :
- connaître le container
- posséder le Codec vidéo
- posséder le Codec audio
5) Les container
les container du web :
- .mov (QuickTime d’Apple)
- .wmv (Windows Media Video) : s’impose pour le début du streaming car
Apple n’est pas encore assez reconnu
- .flv (Flash Video)
- .webm (Google), équivalent pour image fixe : .webp (a pour but sur le long
terme de remplacer le .jpeg sur Google) —> container pouvant contenir beaucoup
plus d’informations notamment les sous-titres
- .mkv : container pouvant contenir beaucoup plus d’informations
notamment les sous-titres
- .mp4 : container pouvant contenir beaucoup plus d’informations
notamment les sous-titres
les container du monde du libre (de droit, gratuit pour les consommateurs et
utilisateurs) :
- Wikipedia
- Firefox
- Open Office, Libre Office, Neo Office
- VLC
- .mkv (Matroska Video par CoreCodec) : peut gérer beaucoup de
métadonnées différentes, de flux audios et vidéos
- .ogg (OggVorbis par Xiph)
Codec video : Theora et Tarkin
Codec audio : Vorbis et FLAC
09/11
les container orientés exploitation des médias (post-production) :
- .mov (QuickTime d’Apple) : s’est imposé très rapidement à partir du
commencement du montage (car tout le graphisme se faisait sur Mac à la base),
aussi dans les caméras
- .avi (Audio Video interleave) Microsoft : très peu utilisé et très peu présent
dans les métiers du graphisme pour ce qui est de l’Europe, plus utilisé en Asie
- .mxf (Material eXchange Format) : le container professionnel par
excellence, compatible avec tous les logiciels et toutes les machines
professionnelles à l’international
créé par la SMPTE (Society of Motion Picture and Télévision Engineers) qui est
une association de professionnels, en France il y a la CST (Commission
Supérieure des Techniques de l’image et du son) qui a pour but de créer de
nouvelles techniques
2 versions : - MXF Op-1a développé par Sony
- MXF Op Atom développé par Panasonic, aussi chez Avid
AAF (Advanced Authoring Format) : format d’échange de fi chiers pour les projets
universels, permet de conserver les Timecode et on peut y inclure des fl ux
vidéos et audios sans les encapsuler, permet de prendre la Timeline sur Premiere
et de l’avoir à l’identique sur DaVinci —> on s’en sert plutôt pour transmettre les
métadonnées que comme container avec fi chiers audios et vidéos
EDL (EDit List) : ancêtre de l’AAF, date du début de la vidéo car ce n’est que du
code et du texte, liste de montage du Timecode —> pas un container
les containers MPEG :
MPEG = Moving Picture Experts Group
but était de développer des nouvelles normes pour
- MPEG1 : le plus ancien, but était de mettre 74 minutes de vidéo sur un
CDRom (700 Mo), 640x480 max, débit de 1,2 Mbits/s
Codec vidéo : mpeg1
Codec audio : mp3
extension la plus courante : .mpg
- MPEG2 : technologie qu’on retrouve sur la TNT SD, sur le DVD, inclue dans
la norme BlueRay (pour qu’il puisse lire les DVD vidéo), dédié à la SD mais à été
adapté à la HD, on peut le retrouver dans des caméras (ex : FS7), on peut le
retrouver associé à d’autres container tels que le QuickTime
Codec vidéo : mpeg2
Codec audio : AAC ou AC3
extension les plus courantes : .mpg, .m2t, .m2v
- MPEG3 : a été développé pour la HD mais n’a jamais été utilisé car pour le
passage de la SD à la HD on a préféré adapter le MPEG2
- MPEG4 : peut contenir beaucoup d’informations différentes en plus des flux
vidéos et audios : flux de métadonnées (ex : sous-titres), informations 3D,
couches orientées objets (ex : textures), interactivité
peut encoder plusieurs niveaux de qualité en un seul flux
Codec vidéo : mpeg4 part 2 (connu sous le nom de mpeg4 SStP
Simple Studio Profi le) et le mpeg4 part 10 (connu sous le nom de AVC/H264,
problème : on le retrouve encapsulé un peu partout car c’est le plus universel)`
Codec audio dépend de l’usage : mp3 pour le web, AAC pour
l’audiovisuel
extension les plus courantes : .mpg, .mp4, .m4v, .m4t, .mts
16/11
les flux MPEG :
- Elementary Stream (ES) : composé soit d’un flux vidéo, soit d’un flux
audio —> contient une des deux pistes de la Timeline mais pas les deux
- Program Stream (PS) : un flux vidéo (ES) et n flux audio (ES)
- Transport Stream (TS) : n flux vidéo (PS) —> un container contenant lui-
même des containers (PS)
ex de chaînes avec le flux TS : TNT, TF1, F2, F3, C+, F5, M6, Arte —> en plus du
flux vidéo il peut y avoir plusieurs flux audio (VO, VF…)
ex : DVD vidéo ont un dossier « Vidéo (TS) » = flux TS contenant plusieurs flux PS
—> extension liées à ça : .mts et .ts : variantes du mpeg4 faites pour le TS
profiles & levels :
- profiles (profils) = différence d’échantillonnage entre la luminance et la
chrominance —> ratio luma/chroma
- levels (niveaux) = définition de l’image
profiles \ levels High : 1920x1080 Main : 720x576 Low : 352x288
[Link] 444P@HL 444P@ML inexistant
[Link] 422P@HL 422P@ML inexistant
Main : [Link] MP@HL
MP@ML
MP@LL
(ex : Blu-Ray) (ex : DVD vidéo)
CHAPITRE 2 : LES REDONDANCES ET LES COMPRESSIONS
1) Les redondances
redondances spatiales (compression intra-images) :
se repose sur une image
2 informations à transmettre : valeur du pixel et facteur de répétition
toutes les images sont codées indépendamment les unes des autres
l’image est découpée en blocs de 8x8 pixels
aucune information n’est perdue
redondances psycho-visuelles (compression intra-images) :
on supprime les informations les moins significatives pour l’oeil humain soit les
détails très fins
redondances temporelles (compression inter-images) :
on exploite les répétitions d’informations entre les images de la vidéo
s’effectue systématiquement après une compression intra-images
analyse du déplacement des blocs de pixels : prend beaucoup trop de temps
—> la vidéo est découpée en groupes d’images (GOP : Group of Pictures) :
possibilité de compresser beaucoup d’informations et aucune des
informations d’origine ne sont perdues
redondances statistiques :
on code le plus court possible les informations les plus fréquentes (ex : lol)
23/11
2) La DCT (Discreet Cosine Transform) : la compression intra-image
se base sur la série de Fourier cf suites d’harmoniques en son
principe : éviter de répéter les informations redondantes dans chaque image
la compression intra-image s’appuie sur les redondances spatiales et les
redondances psycho-visuelles
étapes :
1) chaque image va être découpée en blocs de 8x8 pixels = blocs DCT
2) analyse des blocs en fonction de 2 paramètres : la fréquence et
l’amplitude des changements de valeur entre les différents pixels d’un bloc —>
on analyse les canaux Rouge, Vert et Bleu séparément pour créer 3 matrices
différentes
—> fréquence faible et amplitude réduite : = zone peu détaillée de l’image
(aplat = son uniformément de la même couleur)
—> fréquence haute et forte amplitude = zone très détaillée de l’image
3) comptage du nombre de blocs identiques pour éviter de les répéter
4) seuillage : définir le seuil en dessous duquel on va supprimer les détails
de l’image —> simplifie le motif et allège le poids de l’image, si on force trop on se
retrouve avec des aplats
sur Photoshop : le seuillage se fait par le réglage de niveau
5) lecture en zig zag : on stocke les informations dans l’ordre croissant
(zones peu détaillées à zone très détaillées) —> facilite le décodage
VBR : Variable Bit Rate CBR : Constant Bit Rate
notion de débit cible : débit à notion de débit cible : débit à
respecter pour un usage spécifique par respecter pour un usage spécifique par
rapport à la bande passante, pour des rapport à la bande passante, pour des
raisons économiques raisons économiques
tolérance par rapport au débit cible : le même seuillage/compression pour
seuillage va s’adapter au niveau de toutes les images (dans les détails
détail de chaque image qu’on réduit ou supprime) —> pas de
prise en compte des variations subtiles
donc apparition d’aplats
1 passe : le logiciel va analyser chaque
image une par une et la compresse
tout de suite après
2 passes : le logiciel va analyser
l’ensemble des images et appliquer la
compression pour l’ensemble après —>
2 fois plus de temps mais converse le
maximum d’informations
pour la majorité des Codec, le choix entre VBR et CBR est un choix du fabriquant
(ex : Apple ProRes en VBR)
sur Media Encoder, on peut choisir si on veut exporter en VBR ou en CBR
compression intra-image :
on considère qu’on peut diviser en moyenne par 5 le poids d’une image sans
pertes d’informations perceptibles
3) La compression numérique temporelle : la compression inter-image
pas de compression inter-image sans compression intra-image au préalable : on
analyse la répétition des blocs DCT entre les images
certains blocs ne changent pas : répétition simple d’une image à l’autre (ex : arrière
plan immobile) —> on peut supprimer les répétitions
certains blocs changent et existent dans d’autres images (ex : arrière plan devant
lequel quelqu’un passe et repart)
certains blocs changent et n’existent que dans l’image analysée —> on est obligé
de les conserver
la vidéo est découpée en GOP (Group Of Pictures) au sein desquels on va
analyser les répétitions d’un coup —> standards :
- 12 images en Europe (1/2s —> 25i/s)
- 15 images aux USA (1/2s —> 30 i/s)
3 types d’images :
- I = Intra : on conserve 100% de l’information lors de la compression inter-
image, c’est l’image de référence pour les autres images du GOP (= Key Frame),
directement ou indirectement
- P = Predite : définie en fonction de l’image I ou P la précédent —> on ne
conserve que les informations qui n’existent pas dans l’image I (pour le 1er P) puis
dans l’image P la précédent (pour les prochains P) —> permet de simplifier et
d’éviter les redondances
en moyenne, on conserve 50% de l’information
- B = Bidirectionnelle : définie en fonction des images I ou P la précédent
et la suivant —> elle ne conserve que les informations qui n’existe pas dans les
images 1 et 4 (1 = I et 4 = P)
en moyenne, on conserve 15% de l’information
—> motif d’un GOP de 12 images : IBBPBBPBBPBBPB
la dernière image d’une vidéo est toujours une image I, quelque soit le nombre
d’images total de notre vidéo (le dernier GOP peut ne pas forcément avoir 12
images du coup) —> quand un GOP se termine, le dernier B se base sur le I du
GOP qui suit
compression faite pour la diffusion (TV), le BluRay… —> post-production légère,
quand il n’y a que du montage sans effets spéciaux