0% ont trouvé ce document utile (0 vote)
38 vues38 pages

Analyse Complète Télévision Numérique Multimédia

Transféré par

engelebenedicte1108
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
38 vues38 pages

Analyse Complète Télévision Numérique Multimédia

Transféré par

engelebenedicte1108
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Rapport d'Expertise sur la Télévision

Numérique et Multimédia
Introduction Générale
La télévision, initialement définie comme la transmission d'images et de scènes animées,
généralement sonorisées, par câble ou ondes radio-électriques, a connu une évolution
technologique remarquable. Ce processus permet la reproduction quasi instantanée de ces
images sur un poste récepteur. À l'origine, cette technologie transmettait des images fixes qui,
par leur cadence successive, créaient l'illusion du mouvement. L'évolution a d'abord mené de la
télévision en noir et blanc à la télévision en couleur, avec des normes et standards variant d'un
pays à l'autre, pour finalement aboutir à la télévision numérique. Les prémices de cette vision à
distance par l'électricité remontent au télectroscope de Graham Bell, considéré comme l'ancêtre
de la télévision.
L'évolution de la télévision est intrinsèquement liée à la quête d'une expérience utilisateur
toujours plus riche et accessible. Le passage du noir et blanc à la couleur a été motivé par le
désir d'un réalisme accru, tandis que la transition de l'analogique au numérique répondait à la
nécessité d'améliorer la qualité du signal, d'optimiser l'utilisation du spectre électromagnétique
et d'intégrer de nouveaux services multimédias. Cette progression constante témoigne d'une
innovation continue, visant à satisfaire et à anticiper les demandes des téléspectateurs.
Aujourd'hui, la télévision numérique se caractérise par la numérisation et la compression des
signaux avant leur transmission par câble, voie hertzienne ou satellite, permettant une
couverture mondiale. L'avènement de normes telles que DVB-S/S2, DVB-C/C2 et DVB-T/T2 a
permis de concilier l'universalité de la diffusion avec la diversité des contenus offerts aux
téléspectateurs. La manière de consommer la télévision a également profondément changé, le
téléspectateur devenant un acteur actif via des terminaux multifonctions comme les tablettes et
les smartphones. Cette transformation marque l'émergence du multimédia, propulsée par les
Nouvelles Technologies de l'Information et de la Communication (NTIC).
L'intégration de la télévision dans les systèmes multimédias est plus qu'une simple amélioration
technique ; elle représente un changement de paradigme fondamental. La télévision n'est plus
un simple média de diffusion unidirectionnelle, mais une plateforme interactive et omniprésente,
fusionnant divertissement, information, communication et services professionnels spécialisés.
Cette synergie entre l'informatique et les télécommunications a engendré d'innombrables
applications et services, modifiant en profondeur l'activité humaine, les pratiques courantes, le
confort et les échanges interpersonnels. Des services innovants tels que la diffusion par
satellite, la TNT (Télévision Numérique Terrestre), la diffusion par câble, la diffusion sur Internet
(IP-TV et Web TV), la télévision mobile personnelle (TMP), le télé-enseignement, la
télé-médecine, la visioconférence, la vidéosurveillance intelligente et le contrôle des processus
industriels sont désormais monnaie courante. La téléphonie mobile et l'Internet ont rendu
possibles des applications multimédias variées, exploitables en situation de nomadisme et de
mobilité.
Ce rapport a pour objectif d'analyser de manière exhaustive la technologie télévisuelle, depuis
ses fondements analogiques jusqu'à ses manifestations numériques et multimédias
contemporaines. Il explorera les principes techniques sous-jacents, les standards établis, les
systèmes de diffusion et les diverses applications qui caractérisent la télévision moderne et sa
convergence avec les autres technologies de communication.
Étape Clé Description Technologies / Concepts
Associés
Télectroscope (fin XIXe) Invention de Graham Bell, Vision à distance par
premier appareil à envoyer des l'électricité
images à distance.
Télévision Noir et Blanc Transmission et reproduction Disque de Nipkow, balayage
(début XXe) d'images monochromes. électronique
Télévision en Couleur (milieu Introduction de la couleur, NTSC, PAL, SECAM,
XXe) développement de standards luminance, chrominance
nationaux.
Télévision Numérique (fin Numérisation et compression DVB-S/S2, DVB-C/C2,
XXe - début XXIe) des signaux pour transmission. DVB-T/T2, MPEG
Multimédia et NTIC (XXIe) Intégration de la télévision avec Smartphones, tablettes, IP-TV,
l'informatique et les Web TV, télé-enseignement,
télécommunications. visioconférence,
vidéosurveillance
Table 1.1: Chronologie Simplifiée de l'Évolution de la Télévision

Principes Fondamentaux de la Télévision Analogique


La télévision analogique a jeté les bases de la diffusion audiovisuelle, en s'appuyant sur des
principes physiques et physiologiques pour la capture, la transmission et la reproduction des
images et des sons.

2.1. Perception Visuelle et Lumière


La fonction essentielle de la télévision est de reproduire une scène, qu'elle soit en direct ou
différée, en un lieu distinct de sa capture, de la manière la plus fidèle possible. Cette
reproduction est rendue possible par la transmission d'images fixes, émises séquentiellement à
une cadence suffisamment rapide pour créer l'illusion de mouvement. La perception visuelle
humaine est fondamentalement dépendante de la lumière. En son absence, les objets
deviennent invisibles, même s'ils sont physiquement présents.
La lumière est une forme d'énergie électromagnétique qui se propage dans le vide et dans tous
les milieux. Le spectre visible par l'œil humain s'étend de 380 nanomètres (nm) à 780 nm. Une
source lumineuse est caractérisée par son rayonnement, dont le mélange des longueurs d'onde
ou fréquences produit une sensation de couleur. L'œil humain se comporte comme un récepteur
bivariant, où la longueur d'onde (λ) et la luminance (L), expression qualitative de la brillance
énergétique, sont nécessaires et suffisantes pour caractériser l'impression visuelle. Le spectre
électromagnétique englobe diverses ondes, des ondes radioélectriques aux rayons cosmiques,
la lumière visible n'en étant qu'une petite partie.
Le système visuel humain perçoit le signal lumineux grâce à la rétine, tapissée de
photorécepteurs (bâtonnets et cônes) qui transforment le signal électromagnétique de la
lumière en influx nerveux, envoyé au cerveau via le nerf optique. La cornée réfracte la lumière
vers la pupille, dont l'ouverture est modulée par l'iris, avant que le cristallin ne la dirige vers la
rétine.
La caméra de prise de vue fonctionne sur un principe similaire à l'œil : elle est un convertisseur
Lumière-Courant, transformant la lumière réfléchie par la scène filmée en un signal électrique
appelé « signal vidéofréquence ». Inversement, le moniteur est un convertisseur
Courant-Lumière, reproduisant les images transmises sur un écran et les rendant perceptibles
par l'œil humain. Certains moniteurs modernes peuvent même afficher plusieurs sources
simultanément via un mode d'affichage Multi-View.
Plusieurs unités de mesure définissent les grandeurs lumineuses :
●​ Le Candela (cd) mesure l'éclat perçu d'une source lumineuse.
●​ Le Lumen (lm) correspond au flux lumineux émis dans un angle solide de 1 stéradian par
une source d'une candela. C'est une unité subjective, la perception étant maximale autour
de 555 nm et quasi nulle en dehors de 380-780 nm.
●​ Le Lux (lx) est l'unité de mesure de l'éclairement lumineux, caractérisant le flux lumineux
reçu par unité de surface (1 lumen par mètre carré). Le lux sert de cadre normatif pour
définir les niveaux d'éclairage requis dans la législation européenne.
Unité Mesure Description Exemples d'Application
(Lux)
Candela (cd) Éclat perçu par l'œil Intensité lumineuse N/A
humain d'une source d'une source dans une
lumineuse. direction donnée.
Lumen (lm) Flux lumineux Unité subjective, la N/A
(puissance lumineuse) perception maximale
émis. est à 555nm.
Lux (lx) Éclairement lumineux Sert de cadre normatif Rues : 15-50 lx,
(flux lumineux reçu par pour l'éclairage public Bureaux : 200 lx,
unité de surface). et des lieux de travail. Laboratoires : 800 lx,
Nuit de pleine lune : 0,5
lx, Plein soleil : 50
000-100 000 lx
Table 2.1: Unités de Grandeurs Lumineuses et Leurs Applications

2.2. Analyse et Synthèse de l'Image TV


Le processus télévisuel se décompose en deux phases fondamentales : l'analyse et la
synthèse. L'analyse consiste à transformer l'espace objet (tridimensionnel et mobile) en un plan
bidimensionnel avec une dimension temporelle (2D+t). Le signal vidéo complexe ainsi obtenu
est ensuite transmis via un support, qu'il soit matériel (câble) ou non (faisceaux hertziens,
hyperfréquences).
La discrétisation de l'image, ou analyse, se déroule en deux étapes : d'abord, une
transformation espace/temps par un balayage ligne par ligne (de gauche à droite et de haut en
bas), suivi d'une décomposition de chaque ligne en points ; ensuite, la quantification de la
valeur lumineuse de chaque point, qui est ensuite transmise. Le mouvement est décomposé en
un grand nombre d'images fixes projetées successivement. La cadence de défilement de ces
images est déterminée par la persistance rétinienne de l'œil, qui est d'environ 1/16e à 1/15e de
seconde. Si le nombre d'images retransmises chaque seconde est suffisamment élevé (au
minimum 16 images par seconde), l'œil ne perçoit plus un déroulement saccadé, mais un
continuum. Cette caractéristique physiologique de la persistance rétinienne est la raison
fondamentale pour laquelle les systèmes de télévision analogique ont été conçus avec des
fréquences d'images spécifiques (par exemple, 25 ou 30 images par seconde), afin de garantir
une perception fluide du mouvement.
Les images télévisées modernes reposent toujours sur le principe d'un faisceau d'électrons
balayant l'image horizontalement, puis ligne par ligne. En France, une image est composée de
625 lignes de 830 points, balayée 25 fois par seconde de manière continue.
La synthèse, quant à elle, a pour rôle de restituer sur un plan les images (2D+t) en reproduisant
aussi fidèlement que possible le plan d'analyse. La fidélité de cette restitution est appréciée
subjectivement par l'observateur, faisant de la synthèse le traitement dual de l'analyse. À la
réception, la reproduction de l'image s'effectue en synchronisme parfait et en simultanéité sur
l'écran du téléviseur. Le haut-parleur convertit le signal audio en ondes sonores, tandis que
l'écran TV (Tube à Rayon Cathodique, LCD ou Plasma) convertit le signal vidéo en image
lumineuse.

2.3. La Chaîne de Télévision Analogique


La chaîne de télévision analogique se structure autour des phases d'émission et de réception. À
l'émission, on procède à l'analyse de l'image, tandis qu'à la réception, la synthèse reconstitue
l'image et le son à partir du signal TV capté. La reproduction de l'image chez le téléspectateur
doit être parfaitement synchronisée avec l'analyse effectuée à l'émission.
Le principe de balayage simple implique une analyse de l'image par lignes horizontales lues de
gauche à droite à vitesse constante par la caméra TV. Un temps mort, correspondant au retour
du balayage, sépare la lecture de deux lignes. Simultanément, un balayage vertical décale les
lignes de haut en bas, formant une trame. Un autre temps mort survient à la fin de chaque
trame, dû au retour du balayage vertical. Pour éliminer l'effet de scintillement, le balayage
entrelacé (ou interligné) transmet les images en deux temps : une trame impaire (lignes 1, 3,
5...) et une trame paire (lignes 2, 4, 6...). Le nombre total de lignes doit être impair (ex: 625
lignes en RDC et France). Cela permet d'obtenir 50 demi-images par seconde (50 Hz), une
vitesse supérieure au seuil de sensibilité de l'œil.
En télévision, l'image est toujours accompagnée du son. Ces deux informations modulent
chacune une porteuse distincte : en RDC, la "porteuse image" est modulée en amplitude (AM),
et la "porteuse son" est modulée en fréquence (FM). Chaque chaîne de télévision émet sur sa
propre plage de fréquences (VHF ou UHF), reçues simultanément par l'antenne râteau du
téléviseur. L'antenne convertit les ondes radioélectriques en signaux électriques, qui sont
ensuite acheminés vers le Tuner du téléviseur pour la sélection du programme. Les
démodulateurs (Détecteur pour l'image AM, Discriminateur pour le son FM) séparent l'image et
le son de leurs porteuses respectives, avant amplification et envoi à l'écran et au haut-parleur.
La télévision analogique terrestre (TAT) est le réseau de diffusion au sol, composé d'émetteurs
et de réémetteurs utilisant des ondes hertziennes. Les signaux TV sont transmis par une
porteuse image modulée par le signal vidéo composite (luminance + chrominance) et une
porteuse son. Bien que l'image et le son soient numérisés en production, ils sont reconvertis en
analogique pour la diffusion hertzienne analogique.

2.4. Standards Mondiaux de Télévision Couleur (NTSC, PAL, SECAM)


La télévision en couleur a vu l'émergence de trois standards mondiaux, tous conçus pour être
compatibles avec les normes de télédiffusion en noir et blanc antérieures. Cette exigence de
compatibilité était cruciale pour faciliter la transition technologique, permettant aux émissions
couleur d'être reçues en noir et blanc par les récepteurs monochromes (compatibilité directe) et
inversement (compatibilité indirecte). Les informations spécifiques à la couleur sont ajoutées ou
combinées aux signaux noir et blanc.
Pour assurer cette compatibilité, le signal de luminance (Y), équivalent au signal unique de la
télévision noir et blanc, est transmis en plus des informations de chrominance. La luminance Y
permet aux récepteurs non équipés pour la couleur de recevoir les émissions TV en couleur en
noir et blanc. Pour réduire la bande passante du signal de chrominance, on transmet les
informations de "différence de couleurs" : DR = R – Y et DB = B – Y, la composante verte (DV =
V – Y) étant reconstituée à la réception (DV = -0,51 DR - 0,19 DB).
L'existence de multiples standards analogiques (NTSC, PAL, SECAM) est une conséquence
directe du développement technologique indépendant dans différentes régions géographiques.
Ces choix étaient souvent influencés par la fréquence du réseau électrique local (50 Hz en
Europe, 60 Hz aux USA) pour éviter les effets stroboscopiques, ainsi que par des préférences
nationales en matière d'encodage couleur. Cette fragmentation a entraîné des défis significatifs
en matière d'échange de contenu international, nécessitant des transcodeurs et limitant la
compatibilité matérielle.
Les trois principaux standards sont :
1.​ NTSC (National Television System Committee):
○​ Développé aux États-Unis en 1953, c'est le premier standard de codage analogique
vidéo couleur.
○​ Format vidéo : 525 lignes et 30 images par seconde (29.97 en couleur).
○​ Utilisé en Amérique du Nord (États-Unis, Canada), une partie de l'Amérique du Sud
(Mexique), et en Asie (Japon, Corée du Sud).
○​ Fréquence de la sous-porteuse chrominance : environ 3,58 MHz.
○​ Désavantages : Instabilité de la teinte et de la saturation, résolution faible.
2.​ SECAM (Séquentiel Couleur À Mémoire):
○​ Inventé en France en 1957 par Henri de France.
○​ Adapté aux formats vidéo 625 lignes et 25 images par seconde.
○​ Principalement implanté en France, pays de l'Est de l'Europe, Afrique francophone,
ex-URSS, Mongolie.
○​ Caractéristique distinctive : les informations DR et DB sont transmises
alternativement une ligne sur deux, chacune sur une sous-porteuse chrominance
différente en modulation de fréquence (SPchDR = 4,406 MHz, SPchDB = 4,250
MHz). Une ligne à retard de 64 µs (durée d'une ligne) mémorise l'information de
couleur manquante.
○​ Avantage : Meilleure stabilité des couleurs grâce à la modulation de fréquence.
○​ Résolution : Élevée (jusqu'à 600 points par ligne), mais bridée par les porteuses
couleurs à 374 points par ligne.
3.​ PAL (Phase Alternation Line):
○​ Mis au point en Allemagne en 1962 par Walter Bruch.
○​ Évolution du NTSC, intégrant un système de correction automatique de la teinte.
○​ Généralement associé à des formats de 625 lignes et 25 images entrelacées par
seconde (PAL B/G, PAL I), avec 575 lignes utiles.
○​ Principalement exploité en Europe, certains pays d'Amérique du Sud, Australie, et
certains pays d'Afrique.
○​ Fréquence de la sous-porteuse chrominance : environ 4,43 MHz.
○​ Mécanisme de correction : inverse une des deux composantes de couleur une ligne
sur deux pour annuler les variations de colorimétrie fréquentes en NTSC. Le
récepteur moyenne la ligne actuelle et la ligne précédente (via une ligne à retard)
pour éliminer l'erreur.
○​ Avantage : Stabilité de la teinte.
○​ Désavantage : Instabilité de la saturation. Résolution élevée (jusqu'à 550 points par
ligne), mais bridée par les porteuses couleurs à 416 points par ligne.
○​ Compatibilité : Aisément compatible avec le SECAM via transcodeur (conservation
résolution/affichage), mais la conversion PAL/NTSC nécessite un convertisseur
compensant le nombre d'images/seconde et la résolution, souvent avec une qualité
médiocre (effets de saccade, perte de définition, bruit de fond).
Format Description Pays Lignes/Ima Fréquence Fréq. Avantages Inconvénie
d’Origine ges Images Sous-Porte Clés nts Clés
(Hz) use
Chroma
(MHz)
NTSC National États-Unis 525 30 (29.97 ~3.58 Premier Instabilité
Television couleur) standard teinte/satur
System couleur ation, faible
Committee résolution
SECAM Séquentiel France 625 25 4.406 (DR), Stabilité de Résolution
Couleur À 4.250 (DB) la teinte et bridée par
Mémoire de la porteuses
saturation couleurs
PAL Phase Allemagne 625 25 ~4.43 Stabilité de Instabilité
Alternation la teinte, de la
Line correction saturation,
automatiqu résolution
e des bridée par
erreurs porteuses
couleurs
Table 2.2: Caractéristiques des Standards de Télévision Analogique (NTSC, PAL, SECAM)

2.5. Composition du Signal Vidéo Composite


Le signal vidéo composite (SVC) est le résultat de la combinaison du signal vidéo (SV) fourni
par la caméra et des impulsions de synchronisation (ISL et IST) générées par un générateur
synchro. L'amplitude du signal vidéo représente la luminance du point analysé, le blanc
correspondant à l'amplitude maximale et le noir à l'amplitude nulle.
Le SVC intègre plusieurs composants essentiels :
●​ Signal Vidéo (SV): L'information visuelle brute.
●​ Impulsions de Synchronisation Horizontale ou Ligne (ISL): De forme rectangulaire,
d'amplitude maximale et d'une durée de 5 microsecondes, elles sont transmises à la fin
de la lecture de chaque ligne. Leur front avant commande les générateurs de balayage
horizontal des récepteurs, assurant la synchronisation des lignes entre l'émission et la
réception. Leur fréquence est de 15 625 lignes/seconde.
●​ Impulsions de Synchronisation Verticale ou Trame (IST): Également rectangulaires et
d'amplitude 100%, elles synchronisent les trames à l'émission et à la réception. Leur
durée est d'environ 160 microsecondes (2,5 fois la durée d'une ligne), et elles sont
transmises pendant la course inverse de trame pour ne pas perturber le signal vidéo.
Leur fréquence est de 50 trames/seconde. Des impulsions de pré-égalisation et de
post-égalisation sont ajoutées pour faciliter la séparation des impulsions de trame.
●​ Impulsions de Suppression: Leur rôle est d'éteindre l'écran (le tube cathodique)
pendant les phases de retour de balayage (course inverse) afin que ces retours ne soient
pas visibles. Les impulsions de suppression ligne durent 12µs et celles de suppression
trame 1,6ms, toutes deux avec une amplitude de 25% du signal vidéo composite. La zone
d'infra-noir, où l'amplitude du signal est inférieure à 25-30% de l'amplitude maximale, est
dédiée à la transmission de ces signaux d'effacement et de synchronisation, les rendant
invisibles pour un récepteur correctement réglé.
●​ Burst Color: Dans la télévision couleur, une salve de 5 impulsions de synchronisation de
la sous-porteuse chrominance, appelée "burst color", est insérée sur le palier arrière du
signal vidéo composite. Sa présence indique une émission couleur ; son absence est
détectée par un circuit "color killer" dans le récepteur, qui bloque l'amplificateur de
chrominance et désactive le circuit de décodage des signaux de chrominance, résultant
en une image en noir et blanc.
Le signal composite de la télévision occupe une bande de fréquences d'approximativement 8
MHz, allouée à chaque chaîne TV. Cette bande est structurée comme suit : une bande vidéo de
6 MHz (bande latérale supérieure) modulée en amplitude (AM) avec suppression de la bande
latérale inférieure (laissant un "talon" de 0,75 MHz), et une bande audio de 1 MHz (2 x 0,5 MHz,
bandes latérales inférieure et supérieure) modulée en fréquence (FM). Le choix de la
modulation AM pour la vidéo, malgré sa sensibilité aux parasites, est dicté par la nécessité de
transmettre un signal à large bande passante. Inversement, la FM est privilégiée pour le son en
raison de sa robustesse face aux parasites et à l'évanouissement, et de son bruit de fond réduit
par rapport à l'AM, ce qui est crucial pour la clarté audio. Cette différenciation des techniques de
modulation révèle une optimisation ingénierique, où l'on équilibre l'efficacité spectrale et la
résilience du signal en fonction des caractéristiques et de l'importance des informations vidéo et
audio.

La Révolution de la Télévision Numérique


La télévision numérique représente une avancée majeure par rapport à son prédécesseur
analogique, transformant les informations de son, d'images et autres en nombres binaires.
Cette numérisation est la pierre angulaire des algorithmes de traitement du signal, notamment
la compression MPEG, qui permet une diffusion et un archivage plus économiques des
contenus. Un avantage fondamental de cette technologie est la capacité d'un canal à haute
fréquence à transmettre simultanément plusieurs programmes, contrairement à la télévision
analogique limitée à un programme par canal, tout en éliminant presque entièrement la perte de
qualité sur les voies de diffusion.

3.1. Concepts Clés de la Numérisation (Théorème de Shannon)


La numérisation est le processus de conversion des signaux analogiques en signaux
numériques (conversion A/N ou A/D) avant leur traitement et diffusion. Pour représenter une
image par une suite de nombres, on mesure la valeur du signal vidéo à intervalles réguliers et
suffisamment rapprochés pour ne pas perdre de détails ; cette opération est appelée
échantillonnage. Le théorème de Shannon est un principe fondamental qui stipule que la
fréquence d'échantillonnage (Fe) doit être au moins deux fois supérieure à la fréquence
maximale (Fmax) de la composante la plus haute du spectre du signal analogique d'origine (Fe
\ge 2 Fmax) pour permettre une restitution parfaite du signal.
Corrélativement, la quantification est l'opération qui définit la précision de la mesure de
l'échantillon, en fonction du rapport signal/bruit (S/B) du signal lui-même, par le nombre de
chiffres binaires affectés à la valeur mesurée. Dans les années 1980, des normes
professionnelles ont été établies : chaque ligne visible comprend 720 points, avec un
échantillon de luminance prélevé à chaque point, ce qui correspond à une fréquence
d'échantillonnage de 13,5 MHz. Pour les images couleur, un échantillon de chaque différence
de couleur est prélevé un point sur deux, soit une fréquence d'échantillonnage de 6,75 MHz
(13,5 MHz/2). Chaque échantillon est représenté par un nombre binaire de 8 à 12 bits, offrant
256 à 4 096 niveaux possibles, valeurs applicables aux systèmes 525 et 625 lignes.

3.2. Numérisation du Son, de l'Image et de la Vidéo


La numérisation s'applique différemment au son, à l'image fixe et à la vidéo animée, chacune
ayant ses propres spécificités en termes de débit et de qualité.

3.2.1. Numérisation du Son

Pour numériser un signal sonore, trois opérations sont successivement réalisées :


l'échantillonnage, la quantification et le codage. La fréquence d'échantillonnage et le nombre de
bits utilisés pour coder le signal quantifié déterminent le format du son numérique et son débit :
●​ Un canal téléphonique, avec une bande passante de 300 Hz à 3 400 Hz (fréquence
maximale de 4 000 Hz), utilise une fréquence d'échantillonnage minimale de 8 000 Hz.
Codé sur 8 bits, le débit numérique est de 64 kbit/s.
●​ Le CD audio échantillonne le son à 44,1 kHz et le quantifie sur 16 bits, résultant en un
débit numérique de 705,6 kbit/s. Un enregistrement de qualité CD occupe environ 1,4
Mbits/s, soit environ 10 Mo par minute.
●​ Le DVD audio échantillonne à 192 kHz et quantifie sur 24 bits, pour un débit numérique
de 4,608 Mbit/s.
●​ Le SACD échantillonne à 2,8224 MHz et quantifie sur 1 bit, avec un débit numérique de
2,8224 Mbit/s.

3.2.2. Numérisation de l'Image

En numérique, une image est constituée d'un ensemble de points appelés pixels (PICture
ELement), définis par leurs coordonnées sur les axes X (largeur) et Y (hauteur).
●​ La définition d'une image est le nombre total de pixels qui la composent, c'est-à-dire la
multiplication de sa largeur par sa hauteur en pixels (ex: 640x480 pixels donne 307 200
pixels).
●​ La résolution, souvent confondue avec la définition, détermine le nombre de points par
unité de surface, exprimé en points par pouce (PPP ou DPI pour Dots Per Inch). Une
résolution de 300 dpi signifie 300 colonnes et 300 rangées de pixels par pouce carré, soit
90 000 pixels par pouce carré.
●​ Le poids d'une image (en octets) est calculé en multipliant le nombre de pixels par le
poids de chaque pixel (codé sur 8, 16 ou 24 bits). Par exemple, une image 640x480
pixels codée sur 24 bits (True Color) pèse 900 Ko.
Définition de Noir et blanc (1 bit) 256 couleurs (8 65 536 couleurs 16 777 216
l'image bits) (16 bits) couleurs (24 bits)
320x200 7.8 Ko 62.5 Ko 125 Ko 187.5 Ko
640x480 37.5 Ko 300 Ko 600 Ko 900 Ko
800x600 58.6 Ko 468.7 Ko 937.5 Ko 1.4 Mo
1024x768 96 Ko 768 Ko 1.5 Mo 2.3 Mo
Table 3.1: Exemples de Définitions d'Image et Leurs Poids Numériques

3.2.3. Numérisation de la Vidéo

La vidéo numérique est une succession d'images numériques affichées à une certaine cadence.
Ses paramètres incluent la résolution (largeur x hauteur en pixels), la qualité (plus de précision
= plus de netteté), le poids du fichier (plus d'informations = fichier plus lourd), et l'aspect (rapport
largeur/hauteur, ex: 4/3, 16/9). Le poids d'une vidéo est calculé par (hauteur x largeur) x nombre
d'images/secondes x durée en secondes (+ bande son). Le débit (bitrate) est la quantité de
données transmises par seconde (kbs) et est crucial pour ajuster la taille/qualité de la vidéo.
Pour le standard TV européen PAL (25 images/sec, 720x576 pixels), la numérisation d'une
image vidéo non compressée, avec 720 points utiles pour la luminance Y et 360 points pour le
Rouge (R) et le Bleu (B), chacun codé sur 8 bits, donne un débit total d'environ 166 Mbits/sec.
Ce débit est difficilement réalisable sur les supports de transmission courants, ce qui rend la
compression indispensable.

3.3. Techniques de Compression des Données (Familles MPEG)


La compression des données est une technique de codage qui permet de réduire la taille d'un
fichier en éliminant les informations redondantes. On distingue deux types de redondance : la
redondance spatiale (informations similaires ou répétées dans des zones proches de l'image) et
la redondance temporelle (informations similaires ou répétées dans le temps entre images
successives).
Les techniques de compression se répartissent en deux familles :
●​ Algorithmes réversibles (sans perte): Restituent les données originales à l'identique,
avec un taux de compression voisin de 2. Ils sont utilisés pour les données informatiques.
●​ Algorithmes irréversibles (avec perte): Permettent des taux de compression beaucoup
plus élevés (plusieurs centaines) au détriment de la fidélité de restitution. Ils sont utilisés
pour la voix et l'image, s'apparentant davantage à des procédés de codage qu'à de la
simple compression. Le recours à la compression avec perte est un compromis
fondamental : il permet de gérer le volume colossal de données généré par la vidéo
numérique haute définition, rendant la transmission et le stockage pratiques, mais cela
implique une perte irréversible d'informations, bien que souvent imperceptible pour l'œil
humain.
La compression se quantifie selon trois grandeurs :
●​ Le Quotient de compression (Q): Rapport entre la taille des données non compressées
et la taille des données compressées.
●​ Le Taux de compression (T): L'inverse du quotient de compression.
●​ Le Gain de compression (G): Exprime en pourcentage la réduction de la taille des
données.
Le Motion Picture Expert Group (MPEG) a défini des algorithmes normalisés de compression
audio et vidéo. Ces techniques exploitent la redondance entre blocs voisins d'une même image
(codage intra) et la redondance entre images successives (codage inter).
●​ MPEG-1: Destiné aux applications multimédias, il visait une qualité équivalente au VHS
avec un débit binaire d'environ 1,2 Mbits/seconde (1,5 Mbits/seconde avec le son).
●​ MPEG-2: Extension de MPEG-1, conçu pour traiter des séquences d'images entrelacées.
Il visait une qualité vidéo composite avec un débit de 4 à 15 Mbits/seconde. Ses
domaines d'application principaux sont la diffusion par satellite, la télédistribution et le
DVD. MPEG-2 a permis une réduction impressionnante du débit, de 270 Mbits/s à 4
Mbits/s, avec une perte de qualité quasi insensible.
●​ MPEG-3: Initialement prévu pour la télévision haute définition, son développement a été
rendu inutile par les performances de MPEG-2.
●​ MPEG-4: Initialement destiné aux communications mobiles, il permet de réduire de moitié
la consommation de débit binaire (ou bande passante numérique) par rapport à MPEG-2,
indépendamment du support de diffusion (satellite, câble, TNT, ADSL).
●​ MPEG-7: Vise à normaliser les descriptions du contenu audiovisuel.
●​ MPEG-21: Vise à permettre l'interfaçage d'objets multimédias.
MPEG-2 a également introduit la distinction entre "program stream" (PS), un flux habituel, et
"transport stream" (TS), un flux adapté aux conditions de transmission sévères (ex: paquets de
taille fixe de 288 octets pour le satellite).
Standard MPEG Objectif Principal / Qualité / Débit Typique Caractéristiques Clés /
Application Cible Innovations
MPEG-1 Applications Qualité VHS / ~1.2-1.5 Codage vidéo et audio
multimédias Mbit/s de base
MPEG-2 Diffusion TV (satellite, Qualité vidéo Traitement des images
câble, DVD) composite / 4-15 Mbit/s entrelacées, réduction
de débit significative
(270 à 4 Mbit/s)
MPEG-3 (Abandonné) Télévision N/A Rendu inutile par
Haute Définition MPEG-2
MPEG-4 Communications Débit réduit de moitié Efficacité accrue,
mobiles, efficacité par rapport à MPEG-2 indépendance du
spectrale support de diffusion
MPEG-7 Caractérisation de N/A Normalisation des
contenu audiovisuel descriptions de contenu
MPEG-21 Interfaçage d'objets N/A Extension de MPEG-7,
multimédias gestion des objets
multimédias
Table 3.2: Comparaison des Standards de Compression Vidéo MPEG

3.4. Définitions d'Image et Formats (SD, HD, UHD, 4K, 8K, 16K)
La course à la définition est une tendance majeure dans le monde de la télévision, visant à offrir
une qualité d'image toujours meilleure en augmentant le nombre de pixels affichés. Cette
évolution vers des définitions plus élevées a des implications profondes sur l'ensemble de
l'écosystème audiovisuel, exigeant une refonte complète des équipements, de la production à la
diffusion et à la réception.
●​ SD (Standard Definition): Résolution d'images vidéo conforme aux normes NTSC, PAL
et SECAM. Pour le PAL, la définition est de 720x576 pixels. Les formats 480i et 576i font
partie des normes SDTV.
●​ HD (High Definition): Classification d'équipements de télédiffusion et de vidéo
numérique ayant une définition d'au moins 720p (1280x720 pixels). C'est l'évolution du
SDTV.
○​ 720p: Format avec 1280x720 pixels carrés en une seule trame (balayage
progressif).
○​ 1080i: Standard de la HDTV, avec 1920x1080 pixels carrés en deux trames
entrelacées.
○​ 1080p: 1920x1080 pixels en balayage progressif.
○​ Le balayage progressif affiche l'image en une seule passe (comme les écrans
d'ordinateur), tandis que le balayage entrelacé segmente l'image en deux
demi-images qui s'entrelacent, réduisant l'effet de scintillement sur les écrans à
faible balayage.
●​ UHD (Ultra High Definition) / Quad HD: 3840x2160 pixels, soit quatre fois plus de pixels
que le Full HD. Le terme Ultra HD a été désigné comme nom officiel par la CEA
(Consumer Electronic Association).
●​ 4K: Format cinéma proposant 4096x2160 pixels.
●​ 8K: Successeur de l'Ultra HD, proposant 16 fois plus de points que le Full HD et quatre
fois plus que l'Ultra HD.
●​ 16K: Définition d'écran de 15360 pixels horizontaux par 8640 pixels verticaux, totalisant
132,7 mégapixels. Elle offre quatre fois plus de pixels que la définition 8K et
soixante-quatre fois plus que le 1080p. Ces définitions peuvent être atteintes avec des
configurations multi-moniteurs (AMD Eyefinity, NVIDIA Surround).
L'augmentation de la définition des images (SD, HD, UHD, 4K, 8K) ou de la fréquence d'images
(25, 50, 100 images par seconde en Europe) impose des images occupant un volume de
stockage et des débits de transmission considérablement plus importants. Par exemple, un film
DVD en 576 lignes (codage MPEG-2 PAL) exploite un volume moyen de 4 à 8 Go, tandis que le
même film en Haute Définition, avec une définition plus que doublée, exploitera des fichiers
pouvant atteindre 9 à 50 Go à la norme MPEG-4. Cette augmentation massive du volume de
données est la raison fondamentale qui a rendu indispensable le développement et l'adoption
généralisée de techniques de compression avancées comme MPEG.
Les rapports d'image peuvent également différer selon les applications (anciennement 4/3 et
actuellement 16/9 en télévision, 1,89 ≈ 17/9 en cinéma numérique). Des organismes de
normalisation tels que la Society of Motion Picture and Television Engineers (SMPTE), l'Union
européenne de radio-télévision (UER ou EBU), l'Union internationale des télécommunications
(UTI ou ITU) et le Digital Cinema Initiatives (DCI) publient des documents pour normaliser les
formats vidéo et les protocoles de transport.
Définition Pixels (Largeur x Rapport d'Aspect Mégapixels Notes
Hauteur) (approx.)
SD 720 x 576 (PAL) 4:3 0.4 Définition
standard, DVD
HD 720p 1280 x 720 16:9 0.9 Haute Définition
progressive
FHD 1080i 1920 x 1080 16:9 2 Full HD entrelacé,
HDTV standard
FHD 1080p 1920 x 1080 16:9 2 Full HD progressif,
Définition Pixels (Largeur x Rapport d'Aspect Mégapixels Notes
Hauteur) (approx.)
Blu-ray
UHD (Quad HD) 3840 x 2160 16:9 8.3 Ultra HD, 4x Full
HD
4K 4096 x 2160 ~17:9 8.8 Format cinéma
8K 7680 x 4320 16:9 33.2 Successeur de
l'Ultra HD, 16x Full
HD
16K 15360 x 8640 16:9 132.7 Très haute
définition,
configurations
multi-moniteurs
Table 3.3: Hiérarchie des Définitions d'Image TV et Cinéma Numérique

3.5. Interfaces Numériques (SDI, HDMI)


La transition vers la télévision numérique a nécessité le développement d'interfaces capables
de gérer les débits binaires considérablement plus élevés des signaux vidéo et audio
numérisés.

3.5.1. SDI (Serial Digital Interface)

L'interface numérique série (SDI) est un protocole de transport ou de diffusion de divers formats
de vidéo numérique non compressée. Elle fut introduite en 1989 par la norme SMPTE ST 259
pour la transmission de la vidéo SD entre équipements de studios audiovisuels.
Par la suite, plusieurs normes se sont succédé pour s'adapter aux débits binaires croissants
des vidéos haute définition (HDTV), ultra haute définition (UHDTV1 et UHDTV2) ou pour le
cinéma numérique (2K, 4K, 8K) :
●​ HD-SDI (1,485 Gbit/s)
●​ 3G-SDI (2,970 Gbit/s)
●​ UHD-SDI.
Les données du signal vidéo ne sont pas compressées. La quantification est effectuée sur 8, 10
ou 12 bits, et la structure de sous-échantillonnage utilisée est souvent de type [Link], bien que
les normes les plus récentes autorisent une structure [Link] ou [Link]. Le signal peut être
transmis sous forme électrique via un ou plusieurs câbles coaxiaux (impédance 75 Ω,
connecteurs BNC) ou par fibre optique.
À titre d'exemple, pour le SD-SDI (576i25), l'image est échantillonnée à 13,5 MHz pour la
luminance et 6,75 MHz pour chaque signal de chrominance (structure [Link]). Le débit binaire
brut est de 270 Mb/s, et le débit net (partie utile de l'image) est de 207 Mb/s. Pour le HD-SDI
(1080/25), le signal de luminance est échantillonné à 74,25 MHz et les signaux de chrominance
à 37,125 MHz (structure [Link]). Le débit brut est de 1,485 Gb/s, et le débit net de 1,037 Gb/s.
Nom Standard SDI Date Définition / Structure / Débit maximum
Fréquence image Quantification
(max) (max)
SD-SDI 1989 480i/29.97, [Link]/10 b 270 Mb/s
576i/25
Nom Standard SDI Date Définition / Structure / Débit maximum
Fréquence image Quantification
(max) (max)
HD-SDI 1998 720p/60, 1080i/30, [Link]/10 b 1.485 Gb/s
1080p/30, 2K/30
3G-SDI 2006 1080p/60 [Link]/10 b 2.970 Gb/s
6G UHD-SDI 2014 UHDTV1, 4K/30 [Link]/10 b 6 Gb/s
12G UHD-SDI 2014 UHDTV1, 4K/60 [Link]/10 b, 12 Gb/s
[Link]/12 b,
[Link]/10 b
24G UHD-SDI 2015 UHDTV1/120, [Link]/10 b, 24 Gb/s
UHDTV1/60, [Link]/12 b,
UHDTV2/30 [Link]/10 b
Table 3.4: Spécifications Clés des Interfaces Numériques SDI

3.5.2. HDMI (High Definition Multimedia Interface)

Le HDMI est une norme et interface audio/vidéo entièrement numérique destinée au marché
grand public, transmettant des flux chiffrés et généralement non compressés. Il permet de relier
une source audio/vidéo (lecteur Blu-ray, ordinateur, console de jeu) à un dispositif compatible
(téléviseur HD, vidéoprojecteur, casque de réalité virtuelle).
Le standard HDMI prend en charge différents formats vidéo numériques (SD, ED, HD) ainsi que
le son multi-canal, véhiculant les données complètes via un seul câble. Il est transparent aux
différentes normes de télédiffusion ou transmissions numériques (TNT, IPTV, satellite ou câble).
Plusieurs niveaux distinguent le standard HDMI (HDMI 1.0, 1.3, 1.4a, etc.).

Organisation et Équipements de la Chaîne de


Télévision
Une chaîne de télévision est une entité complexe, qu'elle soit publique ou privée, dont la
mission est de diffuser des programmes télévisés. Son fonctionnement repose sur une
interaction étroite entre deux pôles principaux : le Centre de Production et le Centre de
Diffusion.

4.1. Le Centre de Production TV


Le Centre de Production TV est le cœur de la création audiovisuelle. C'est le lieu où les
émissions de télévision sont conçues, produites, traitées et préparées pour la transmission. Il
englobe toutes les installations nécessaires à la réalisation d'œuvres audiovisuelles, qu'il
s'agisse de films, de vidéos, de journaux télévisés ou d'émissions de divertissement.
Ce centre est généralement structuré autour de plusieurs entités spécialisées :
●​ Le Studio de Production TV, dédié aux productions de grande envergure, qu'elles soient
en direct ou en différé.
●​ Le Studio J.T., spécifiquement aménagé pour la production du Journal Télévisé.
●​ La Régie Finale / ON-AIR, qui agit comme le centre de contrôle principal. C'est là que
convergent toutes les productions issues des diverses sources du Centre de Production.
Sa mission est d'assurer la continuité des programmes, de veiller à leur qualité et de
respecter scrupuleusement les horaires de diffusion.
●​ La Salle des Machines (Centre Nodal), qui abrite l'ensemble des équipements de
commande, de contrôle et de gestion de la production télévisuelle.
●​ Les unités de Reportage et Montage, qui constituent des auxiliaires indispensables pour
la production, permettant la capture d'événements extérieurs et la post-production des
contenus.
Le Studio TV, en tant qu'installation de production, est typiquement composé d'un Plateau TV et
d'une Régie TV, souvent séparés par une baie vitrée pour faciliter la communication visuelle
entre les équipes.

4.2. Équipements Clés


La performance d'une chaîne de télévision dépend directement de la sophistication et de
l'intégration de ses équipements, depuis la capture jusqu'à la visualisation.

4.2.1. Le Plateau TV

Le Plateau TV est l'espace physique du studio où se déroule l'action filmée. Il accueille les
techniciens (opérateurs de prise de vue ou cameramen), les journalistes, les présentateurs, les
invités et, le cas échéant, le public.
Les équipements essentiels du Plateau TV comprennent :
●​ Caméras de Télévision en Couleur : La lumière incidente est séparée en trois faisceaux
(rouge, vert, bleu) qui pénètrent dans des tubes analyseurs. Ces tubes convertissent les
signaux lumineux en signaux électriques. Les caméras peuvent être fixes (champ de
vision défini), mobiles (motorisées pour pan/tilt, suivant objets/individus), ou numériques
(capturant images animées et son sur support numérique). La capture et le traitement en
numérique impliquent que les rayons lumineux frappent un capteur CCD ou CMOS,
générant une charge au niveau des pixels. Un système électronique vide ces charges
analogiques et les transforme en valeurs numérisées pour former l'image numérique. Ce
circuit traite les images à des intervalles réguliers (24, 25, 29.97, ou 30 fois par seconde)
et crée un flux sériel numérique pour l'enregistreur.
●​ Capteur photographique : Composant électronique photosensible qui convertit le
rayonnement électromagnétique (UV, visible, IR) en un signal électrique analogique. Ce
signal est ensuite amplifié, numérisé par un convertisseur analogique-numérique, et traité
pour obtenir une image numérique. Les deux grandes familles de capteurs sont les CCD
(Charge-Coupled Device) et les CMOS (Complementarity Metal-Oxide-Semiconductor).
Caractéristique Capteur CCD (Charge-Coupled Capteur CMOS
Device) (Complementary
Metal-Oxide-Semiconductor)
Principe Les charges sont transférées Chaque pixel contient son
séquentiellement à travers le propre convertisseur A/N et
capteur vers un convertisseur amplificateur.
A/N unique.
Qualité d'image Généralement moins de bruit, Plus de bruit (historiquement),
meilleure sensibilité en basse mais s'est considérablement
lumière. amélioré.
Caractéristique Capteur CCD (Charge-Coupled Capteur CMOS
Device) (Complementary
Metal-Oxide-Semiconductor)
Vitesse Plus lent en lecture, car les Plus rapide en lecture, accès
charges doivent être direct aux pixels.
transférées séquentiellement.
Consommation Plus élevée, nécessite plus de Plus faible, chaque pixel est
puissance. indépendant.
Coût Généralement plus cher à Moins cher à fabriquer.
fabriquer.
Utilisation Applications professionnelles Appareils photo numériques
haut de gamme, astronomie, grand public, smartphones,
microscopie. webcams, caméras de
vidéosurveillance.
Table 4.1: Comparaison des Technologies de Capteurs d'Image (CCD vs. CMOS)
●​ Matériel Audio de Production TV :
○​ Microphones de Studio : Incluent des microphones dynamiques (robustes,
connecteur XLR) et à condensateur (membrane fine, alimentation fantôme 48V,
haute qualité).
○​ Pieds de Micro : Flexibles, de table, perchette, girafe, monotube, lourds avec
indication LED "On air".
○​ Accessoires pour Micro : Filtre anti-bruit, absorbeur de bruit ambiant, bonnette
anti-bruit, support logo.
○​ Insert Téléphonique : Permet de recevoir et diffuser des appels téléphoniques
d'auditeurs, avec possibilité de connecter plusieurs téléphones ou en mode
conférence.
○​ Casque de Studio Pro Repliable : Conçu pour un usage intensif et un confort
maximal.
○​ Table de Mixage Audio : Le cœur de la partie audiofréquence du studio TV, gère
les entrées micros et lignes.

4.2.2. La Régie TV

La Régie TV est le local technique où sont centralisés et gérés les différents signaux d'images
et de sons. C'est ici que l'émission prend sa forme finale, sous la direction du réalisateur, de
l'ingénieur de la vision, de l'ingénieur du son, etc..
Les équipements clés de la Régie TV sont :
●​ Console Vidéo (Mélangeur Vidéo) : Où toutes les entrées vidéo sont connectées.
●​ Console Audio : Mixe et traite les différentes sources sonores.
●​ Console Lumière : Pour la commande des projecteurs.
●​ Moniteurs de contrôle : Pour les sources vidéo.
●​ Amplificateur Audiofréquence et enceinte acoustique.
●​ Lecteurs DVD, ordinateurs : Pour le titrage, les logos et les génériques.
●​ Poste téléviseur de contrôle : Pour le retour à l'antenne.
●​ Technologies des écrans de Télévision :
○​ CRT/TRC (Tube à Rayon Cathodique) : Anciens modèles, le faisceau
électronique balaye l'écran, modulant l'intensité pour restituer l'image.
○​ LCD (Liquid Crystal Display) : Écrans à cristaux liquides, pixels décomposés en
sous-pixels de couleurs primaires, rétroéclairage.
○​ LED (Light-Emitting Diode) : Similaires aux LCD mais avec rétroéclairage par
diodes électroluminescentes, permettant des écrans plus fins et légers, avec un
rendu plus homogène et contrasté.
○​ Plasma (PDP: Plasma Display Panel) : Réservé aux grandes tailles, basé sur
l'excitation d'un gaz (argon et xénon) dans des cellules pour émettre de la lumière.
○​ OLED (Organic Light Emitting Diode) : Utilise une substance organique qui
s'illumine en présence de courant électrique, réduisant considérablement
l'épaisseur et le poids.
○​ QLED (Quantum Light-Emitting Diode) : Reprend le fonctionnement des LED
mais intègre des nanocristaux (Quantum Dot) pour des couleurs plus vives et
nuancées, et une luminosité élevée.
Technologie d'Écran Principe de Avantages Clés Inconvénients Clés
Fonctionnement
CRT/TRC Faisceau d'électrons Couleurs naturelles, Encombrant, lourd,
balayant un écran noirs profonds, angle consommation
phosphorescent de vision large électrique élevée
LCD Cristaux liquides Fin, léger, faible Noirs moins profonds,
modulant la lumière consommation, pas de contraste limité, angle
d'un rétroéclairage brûlure d'écran de vision parfois réduit
LED Rétroéclairage par Plus fin, plus léger, Noirs moins profonds
diodes meilleur contraste et que OLED, blooming
électroluminescentes luminosité que LCD (halo lumineux)
(variante du LCD) classique possible
Plasma Excitation de gaz dans Noirs profonds, Consommation
des cellules pour contraste élevé, angle électrique élevée,
émettre de la lumière de vision large, fluidité risque de marquage
des mouvements (burn-in), durée de vie
limitée
OLED Diodes organiques Noirs parfaits, contraste Coût élevé, risque de
électroluminescentes infini, couleurs vives, marquage, luminosité
auto-émissives très fin, faible maximale plus faible
consommation que QLED
QLED LCD avec nanocristaux Couleurs très vives, Noirs moins profonds
Quantum Dot pour le luminosité élevée, pas que OLED (car
rétroéclairage de risque de marquage rétroéclairé), angle de
vision parfois limité
Table 4.2: Comparaison des Technologies d'Écran de Télévision
●​ Mélangeur Vidéo / Mixeur Vidéo : Gère les caméras, les contributions vidéo, les
graphiques, l'audio, les titres et les animations. Le TriCaster de NewTek est un exemple
de solution complète. L'intégration croissante d'ordinateurs et de solutions logicielles dans
la régie TV, comme les mélangeurs vidéo basés sur des plateformes informatiques,
représente une convergence des rôles traditionnels de diffusion avec les fonctions
informatiques. Cela préfigure les flux de travail basés sur IP et les solutions logicielles de
streaming qui dominent aujourd'hui.
●​ Lecteurs et enregistreurs numériques : Pour la production TV.
●​ Diffuseurs de retour Audio : Enceintes actives avec amplificateur audiofréquence pour
un usage quotidien en studio.
●​ Périphérique d'affichage ON AIR : Indique quand le micro est actif.
●​ Horloge de Studio : Horloges ergonomiques synchronisées par GPS.
●​ Patch de connexions : Gère le câblage du studio, offrant fiabilité et flexibilité.
●​ Câbles et Connecteurs : Tous les câbles audio et vidéo (XLR, Jack, RCA, AES EBU,
Optique) et leurs connecteurs.
●​ Serveur Archivage Audio-Vidéo : Stocke les données audio-vidéo sur disques durs de
dernière génération, avec des capacités de stockage accrues, une plus grande vitesse de
lecture/écriture et des mécanismes sécurisés (même en cas de crash de disque dur).
●​ Insonorisation : Plaques d'insonorisation judicieusement placées pour éviter l'écho et
garantir le bon fonctionnement acoustique du studio.

4.2.3. Reportage et Montage

Ces équipements sont des auxiliaires indispensables à la production télévisuelle.


●​ Reportage (Solution complète portative studio vidéo 4 canaux) : Une solution
compacte, en valise, conçue autour d'un mélangeur vidéo pour la production sur le
terrain. Elle est entièrement intégrée (câbles, alimentation), avec des connecteurs vidéo
composite et Y/C, un panneau arrière pivotant et une conception ergonomique pour une
installation/désinstallation rapide. Idéale pour l'enseignement, les lieux de culte, le
streaming internet, les événements en direct et les conférences.
●​ Montage vidéo numérique : Des bancs de montage dédiés permettent l'assemblage et
la post-production des contenus vidéo.

4.3. Le Centre de Diffusion TV


Le Centre de Diffusion est la structure chargée d'émettre les ondes de télévision vers les postes
récepteurs des téléspectateurs. Il abrite les émetteurs de Télévision, qui sont des structures
verticales (métalliques ou en béton) positionnées stratégiquement sur des points élevés ou au
centre de plaines pour optimiser la couverture radioélectrique.
Ses composants essentiels sont :
●​ La Salle des émetteurs TV : Contient les émetteurs TV numériques.
●​ Le Système d’antennes : Inclut des parafoudres et des antennes panneaux pour la
diffusion des programmes TV.
●​ Le Système d’alimentation en énergie électrique : Comprend une cabine électrique
MT/BT, un groupe électrogène pour l'autonomie, un poste de stabilisation/régulation pour
la qualité de l'énergie, des onduleurs pour la continuité, et un système de mise à la terre
et d'antifoudre pour la sécurité.
L'ensemble des équipements spécialisés décrits pour les centres de production et de diffusion,
ainsi que les liaisons inter-centres, met en évidence l'investissement capital considérable
nécessaire pour établir et maintenir une infrastructure de diffusion télévisuelle professionnelle.
Cette barrière économique élevée a historiquement limité l'accès à la diffusion aux grandes
entreprises ou aux entités étatiques, influençant ainsi le paysage médiatique et la diversité des
contenus.

4.4. Liaisons Inter-Centres


Pour acheminer les programmes produits au Centre de Production vers le Centre de Diffusion,
des liaisons robustes et performantes sont indispensables :
●​ Faisceau Hertzien (FH) : Système de transmission de signaux radio entre deux sites
géographiques fixes, couvrant des distances de quelques mètres à environ 150 km. Il
utilise des ondes radioélectriques dans les bandes de fréquences entre 1 et 86 GHz.
●​ Fibre Optique : Un fil très fin en verre ou en plastique qui conduit la lumière, utilisé pour
la transmission de données numériques à très haut débit sur de longues distances.
●​ Système VSAT (Very Small Aperture Terminal) : Employé lorsque la retransmission TV
doit s'effectuer sur une longue distance, par exemple d'une ville à une autre. Il utilise des
antennes paraboliques de moins de 3 mètres de diamètre pointant vers un satellite
géostationnaire.

Systèmes de Diffusion de la Télévision Numérique


(Normes DVB)
Le projet DVB (Digital Video Broadcasting) est une initiative européenne lancée en 1993 visant
à établir des standards communs pour la diffusion de la télévision numérique, afin de garantir
l'interopérabilité entre les différents pays, opérateurs et fabricants. Les standards DVB sont
aujourd'hui largement utilisés à l'échelle mondiale, concurrençant notamment ATSC (États-Unis,
Canada) et ISDB (Japon, Brésil).

5.1. Philosophie et Principes des Standards DVB


La philosophie du projet DVB repose sur plusieurs piliers :
●​ Le développement de technologies complètes de diffusion TV numérique pour le satellite,
le câble et les ondes radio-électriques, dans un format de "pré-standardisation".
●​ La conception d'un "conteneur" flexible pour le contenu, capable de transporter une
combinaison de données vidéo, audio et multimédia, et d'être évolutif pour la SDTV,
EDTV, la future HDTV, le format 16/9, le son multi-canal, et tout média numérique futur.
●​ La standardisation des "couches physiques" (combinaison des données de contenu
diffusées), de la correction d'erreurs et du transport pour chaque mode de diffusion.
●​ L'intégration de points communs entre les différentes plateformes (câble, satellite,
terrestre) afin de réduire les coûts industriels et de rendre les solutions accessibles au
grand public.
●​ La réutilisation et l'harmonisation des standards ouverts existants.
Les standards DVB, bien que ne définissant qu'une partie du processus de télévision
numérique, couvrent une part significative de ces technologies. Dans sa première phase, le
DVB a adopté des standards tels que MPEG-2, et les modulations QPSK et OFDM. Le codec
choisi initialement était MPEG-2, avec une évolution progressive vers MPEG-4, mieux adapté à
la HD.
La modulation OFDM (Orthogonal Frequency-Division Multiplexing) est un pilier technique
des standards DVB. Elle utilise un grand nombre de sous-porteuses adjacentes pour distribuer
(multiplexer) les données en divisant la bande de fréquences allouée. Par exemple, une bande
de 8 MHz peut être divisée en 8 000 porteuses espacées de 1 kHz. Ces porteuses sont
"orthogonales", ce qui signifie que leur espacement est calculé précisément pour éviter que
l'information modulée sur une porteuse n'empiète sur la suivante. L'avantage principal de cette
répartition est l'utilisation optimale de la bande de fréquence, toutes les porteuses ayant en
moyenne la même puissance. Le spectre du signal modulé OFDM est quasi rectangulaire, ce
qui explique son efficacité à occuper complètement un canal de largeur donnée.
Le standard de codage MPEG définit un ensemble d'étapes de codage qui transforment un
signal vidéo en un flux binaire. L'arrivée de l'encodage vidéo et audio a permis de transmettre
davantage de services dans une bande passante qui était devenue trop étroite pour les
fournisseurs de contenu. Le MPEG-2, offrant une qualité "broadcast", a suffi à définir un
standard permettant l'interopérabilité des équipements, de l'encodage au décodeur final chez le
téléspectateur.
Le processus de diffusion DVB se déroule en plusieurs étapes :
●​ Encodage : Le signal numérique du studio est traité par des encodeurs pour séparer la
vidéo, les pistes audio et le télétexte. Cet encodage inclut la compression des données,
avec MPEG-2 comme standard le plus utilisé, progressivement remplacé par MPEG-4.
●​ Multiplexage : Tous les services encodés sont ensuite multiplexés pour ajouter d'autres
fonctionnalités comme les sous-titres DVB, les applications interactives, l'accès
conditionnel pour la protection du contenu, et la commercialisation. Lors du multiplexage,
différents services (chaînes, jeux, radio) sont assemblés en flux de transport (TS) en
ajoutant des tables DVB. Chaque TS peut transporter jusqu'à 20 chaînes TV ou plus,
selon le mode de transport et la qualité d'encodage souhaitée.
●​ Transmission : Une fois ce processus terminé, ces flux sont transmis soit sous forme de
bouquet numérique aux utilisateurs finaux (nécessitant un décodeur compatible pour le
démultiplexage, la vérification des droits d'accès, le décodage et la transmission au
téléviseur), soit via un modulateur PAL, une sortie SCART, une sortie HDMI, ou comme
un signal composite pour la vidéo et analogique pour l'audio.
Le standard DVB intervient généralement depuis le multiplexage jusqu'à la sortie du décodeur
final. Il est conditionné par deux impératifs : l'utilisation des canaux de transmission existants (la
largeur du canal est imposée) et l'obtention d'une transmission quasi sans erreur (Quasi Error
Free - QEF). Pour une réception correcte d'un "bouquet numérique", un taux d'erreur binaire
(BER) de 10^-7 est requis (soit 1 bit erroné pour 10 milliards de bits reçus). Cette exigence de
qualité, combinée à l'implémentation de codes de correction d'erreurs avancés, est une réponse
directe à l'effet de "falaise numérique" inhérent aux systèmes numériques : tant que le taux
d'erreur est sous le seuil de correction, le signal est parfait, mais au-delà, la qualité chute
brutalement.

5.2. Diffusion par Satellite (DVB-S, DVB-S2, DVB-RCS)


La télévision par satellite est un mode de diffusion clé dans l'écosystème DVB.

5.2.1. Principe

Avec les satellites de télécommunications classiques, la puissance de diffusion limitée impose


l'installation de très grandes antennes de réception, de plusieurs mètres de diamètre.
Cependant, pour les régions où les réseaux terrestres sont insuffisants, les satellites de
télévision directe, dotés d'une puissance d'émission beaucoup plus élevée (environ 200 W au
lieu de 20-30 W), permettent la réception des programmes avec de petites antennes (moins
d'un mètre de diamètre). Cela rend possible l'équipement de villages reculés. Les transmissions
TV par satellite utilisent les bandes C (4-8 GHz), Ku (12-18 GHz) et Ka (26.5-40 GHz).
5.2.2. Standard DVB-S

Le standard DVB-S est l'application du DVB aux transmissions par satellite, développé de 1993
à 1997, avec une première version en 1994. Il prend en compte les caractéristiques de la
transmission satellitaire : bande relativement large (36 MHz), canal de type AWGN (Additive
White Gaussian Noise), signal fortement atténué et dominé par le bruit, et transmission en ligne
de visée directe. Il utilise une transmission efficace avec un faible rapport signal/bruit,
employant la modulation QPSK combinée à des codes avancés : codage convolutif,
entrelacement et code de Reed-Solomon.

5.2.3. Réception TV par Satellite

La réception de la télévision par satellite nécessite un équipement spécifique : une antenne


parabolique équipée d'un LNB (Low Noise Block converter), un récepteur satellite combiné à un
décodeur, un câble coaxial et des connecteurs F, et un téléviseur. Le pointage de l'antenne
parabolique est crucial et doit être orienté en fonction de l'élévation et de l'azimut, déterminés
par les coordonnées géographiques du site et du satellite. Des outils comme l'inclinomètre, la
boussole, le récepteur GPS et l'analyseur de spectre sont utilisés pour un pointage précis.

5.2.4. DVB-S2 (Digital Video Broadcasting - Satellite 2)

Le DVB-S2 est une version plus récente du standard, largement utilisée pour les transmissions
HD, développée en 2003 et ratifiée en mars 2005.
●​ Augmentation du débit : Le DVB-S, étant un protocole relativement ancien (1997), avait
des limitations techniques. Le DVB-S2 augmente le débit de transmission en permettant
l'utilisation de modulations plus performantes et bénéficie des dernières innovations en
matière de codage, comme les codes LDPC (Low-Density Parity-Check).
●​ VCM/ACM (Variable/Adaptive Coding and Modulation) : Un problème majeur des
transmissions satellite est la dépendance de la qualité du canal à la météo et à la
distance du satellite. Le DVB-S2 intègre des systèmes de modulation et de codage
adaptatifs pour modifier les paramètres de transmission en fonction des conditions
actuelles. Cela permet de dimensionner le système non pas pour les pires conditions (ce
qui le rend sous-optimal la plupart du temps), mais d'optimiser son utilisation en temps
réel, améliorant la capacité du transpondeur de 100% à 200% et la disponibilité du
système.
●​ Services interactifs : Le DVB-S2 prend en charge les services interactifs, notamment la
transmission Internet par satellite.
●​ Modulation : Utilise des modulations APSK (QPSK, 8PSK, 16APSK, 32APSK) qui ont
des enveloppes constantes, optimisant la conception des amplificateurs dans les
satellites.
●​ Codage : Le codage de canal adopté est une concaténation d'un code de bloc (type
BCH) et d'un code LDPC avec un processus de décodage itératif.
●​ Trame DVB-S2 : Les données sont transmises en trames, ce qui permet de modifier la
modulation et le codage entre les trames pour les systèmes ACM ou VCM.
●​ Compatibilité avec DVB-S : Le DVB-S2 inclut un mode de compatibilité permettant son
déploiement avec les récepteurs DVB-S existants, tandis que les récepteurs DVB-S2
bénéficient d'une performance accrue.
●​ Performances : Pour les services de diffusion vidéo et HD, le DVB-S2 offre un gain
d'efficacité spectrale de 25% à 30% par rapport aux standards existants équivalents.

5.2.5. DVB-RCS (Digital Video Broadcast - Return Channel System)

Le DVB-RCS est une norme d'accès Internet par satellite qui fournit un trafic bidirectionnel de
données via satellite, en plus du service de télévision numérique par satellite. Développé en
1999 par l'ETSI, il permet au terminal satellite du client de recevoir une transmission DVB
standard et d'envoyer des données via la même antenne. Il définit une voie de retour au format
MF-TDMA (Multi Frequency Time Division Multiplexing Access) pour le partage de la capacité
montante. La norme est indépendante des bandes de fréquences (Ku, Ka, L, S) et supporte le
protocole IP ainsi que de nombreux protocoles de routage (RIP, IGMP) et de transport (RTP,
UDP, TCP). Les débits peuvent atteindre 8 Mbits/s en flux descendant et 2 Mbits/s en flux
montant.
Un modèle de production TV numérique peut diffuser des émissions via Internet grâce à une
liaison satellitaire par VSAT (Very Small Aperture Terminal). La station de télévision se connecte
à Internet via un fournisseur d'accès Internet (FAI) à partir d'un Hub qui gère le réseau VSAT,
avec le satellite comme relais spatial. Tout client disposant d'une station VSAT ou d'une
connexion Internet peut recevoir en direct les émissions TV diffusées. Une station VSAT
comprend des sous-systèmes d'antenne (réflecteur, source d'alimentation, système de fixation),
des antennes de 1,2 mètre à 2,4 mètres, un sous-système d'alimentation et des duplexeurs
pour la réception et l'émission des signaux.

5.3. Diffusion par Câble (DVB-C)


La diffusion par câble est un autre mode de transmission numérique, régi par le standard
DVB-C.

5.3.1. Norme DVB-C

Le câble est un milieu de transmission bien protégé mais dont la bande passante est limitée. Le
DVB-C choisit donc une modulation à haute efficacité, typiquement 64-QAM, pour transporter
un maximum d'échantillons dans une bande de fréquence réduite. Les contraintes incluent la
coexistence avec les canaux analogiques existants, certaines distorsions et surtout des échos
dus aux problèmes de désadaptation inhérents au réseau câblé. Le DVB-C partage de
nombreux points communs avec le DVB-S.

5.3.2. Télédistribution

La télédistribution implique l'utilisation d'un réseau de câbles conducteurs métalliques ou de


fibres optiques pour distribuer des programmes audio ou visuels, ainsi que d'autres signaux
(accès Internet haut débit, téléphone, vidéo à la demande) à un grand nombre d'utilisateurs. Ce
système collecte les chaînes TV et radio et les retransmet, après transcodage, sur le câble. La
connexion de plusieurs décodeurs à une tête LNB Quarto via un multi-commutateur permet de
créer un système de télédistribution où un modulateur fournit un "signal multiplex" combinant
différents programmes TV, qui peuvent ensuite être distribués par câble aux téléviseurs dans
divers emplacements.
La distribution par câble à fibre optique permet des services Triple-Play (Internet, Voix, Vidéo)
via la technologie FTTH ("Fiber To The Home"), où le câble optique se termine directement chez
l'abonné.

5.4. Diffusion Terrestre (DVB-T, DVB-T2)


La Télévision Numérique Terrestre (TNT) est une évolution technique de la télédiffusion basée
sur la diffusion de signaux de télévision numérique via un réseau de réémetteurs hertziens
terrestres.

5.4.1. TNT et Standard DVB-T

Le DVB-T (Digital Video Broadcasting – Terrestrial) est un standard de diffusion de télévision


numérique par liaisons radio terrestres. Les signaux vidéo, audio et de données sont
numérisés, organisés en un seul flux (multiplexage), modulés, puis diffusés via des ondes
électromagnétiques. Les émetteurs sont installés au sol, d'où le terme "terrestre".
Les avantages de la TNT par rapport à la télévision analogique sont nombreux : réduction de
l'occupation du spectre électromagnétique grâce à des modulations plus efficaces, meilleure
qualité d'image (élimination des interférences visibles et des images fantômes), réduction des
coûts d'exploitation, altérations moins perceptibles avec un signal plus faible, possibilité de
diffuser des chaînes en haute définition (HD), augmentation drastique du nombre de chaînes
sur le même spectre (dividende numérique), services interactifs (HbbTV), et une transmission
plus économe en énergie.

5.4.2. Modulation et Protection des Données

La TNT utilise la modulation OFDM (Orthogonal Frequency-Division Multiplexing). Ce


principe consiste à répartir les données sur un grand nombre de sous-porteuses adjacentes en
divisant la bande de fréquences allouée. Pour la TNT, les autorités ont choisi une modulation à
6817 porteuses (6048 pour l'image+son, 769 pour la synchronisation/service) espacées de 1116
Hz. Chaque porteuse peut avoir 64 états différents, transmettant 6 bits sur une durée de 0,93
ms. La modulation COFDM (Coded Orthogonal Frequency-Division Multiplexing) est
spécifiquement utilisée pour sa résistance aux échos, caractéristiques d'une diffusion terrestre
due aux obstacles (bâtiments, reliefs).
La protection des données est cruciale pour garantir une image parfaite et est mise en œuvre
par deux techniques complexes de codage de canal :
●​ Le Codage Reed-Solomon ajoute 16 octets de correction d'erreurs à chaque paquet,
portant le débit à environ 26 Mbits/s. Ce code est adapté aux erreurs en rafales et peut
corriger jusqu'à 8 octets erronés par paquet.
●​ Le Codage convolutif nécessite 3 bits pour en transmettre 2 (FEC23), augmentant le
débit à environ 39 Mbits/s.
Ces techniques de correction d'erreurs rendent la TNT beaucoup moins sensible aux bruits
parasites que la télévision analogique. L'image reste quasi parfaite tant que la qualité du signal
reçu permet de corriger toutes les erreurs. Cependant, si la qualité du signal se dégrade
au-delà d'un certain seuil, des blocs de pixels peuvent apparaître par intermittence, et si le
signal est trop faible, l'écran devient noir (l'effet de "falaise numérique"). Ce comportement est
une conséquence directe de la nature binaire des signaux numériques et de la robustesse des
codes de correction d'erreurs : ils sont extrêmement efficaces jusqu'à un point, après quoi ils
échouent brusquement.
5.4.3. Composition et Gestion des Multiplex

Le procédé numérique permet de faire passer plusieurs chaînes TV par fréquence. Alors qu'en
télévision analogique, un seul programme pouvait être diffusé par canal, la norme DVB-T
permet de diffuser 5 à 6 chaînes TV sur une même fréquence (canal de 8 MHz), et la norme
DVB-T2 peut transporter plus de 30 chaînes TV par fréquence. Cette augmentation
spectaculaire du nombre de chaînes est une conséquence directe de l'efficacité spectrale
accrue des modulations numériques (OFDM/COFDM) et des algorithmes de compression vidéo
avancés (MPEG).
Le flux de données est organisé en paquets de 188 octets, chacun précédé d'un en-tête qui
précise le numéro de la source (PID - Packet Identifier) et le type de donnée (audio, vidéo,
sous-titre, données de service, etc.). Grâce à ces en-têtes, le récepteur peut séparer les
données correspondant aux différentes chaînes du multiplex. Le multiplexage permet
également l'insertion de données associées telles que le sous-titrage, le système d'information
(SI) pour la navigation entre les services, et les services interactifs.

5.4.4. Modes de Réception (Fixe, Portable, Mobile) et Critères de Qualité

La TNT offre trois modes de réception distincts :


1.​ Réception fixe : Utilise une antenne de toit conventionnelle. Dans 75% des cas, seule
l'acquisition d'un adaptateur est nécessaire, sans intervention sur l'antenne.
2.​ Réception portable : Permet de recevoir les programmes numériques avec une antenne
intérieure posée sur le téléviseur ou intégrée à celui-ci, s'affranchissant ainsi du câblage.
3.​ Réception mobile : Offre la possibilité de recevoir les programmes en se déplaçant (ex:
en voiture). Cette réception est plus difficile avec la TNT française (qui privilégie le
nombre de programmes) mais a été expérimentée avec des équipements spécifiques et
des systèmes d'antennes multiples (diversité).
Mode de Type d'Antenne Câblage Requis Scénarios Notes
Réception Typique d'Utilisation
Fixe Antenne de toit Oui (vers Domicile principal, Nécessite souvent
conventionnelle décodeur/TV) réception stable juste un
(râteau) adaptateur TNT
Portable Antenne intérieure Non (ou minimal) TV secondaire, Sensible aux
(oreilles de lapin) mobilité limitée interférences,
dans le foyer couverture limitée
Mobile Antennes Oui (vers terminal En déplacement Plus difficile à
spécifiques, mobile) (voiture, réaliser en France
systèmes de transports) (optimisation pour
diversité le nombre de
chaînes)
Table 6.1: Comparaison des Modes de Réception TNT
Pour les téléspectateurs ne disposant pas de récepteurs TNT intégrés, un adaptateur TNT peut
être utilisé, généralement relié à l'antenne UHF et au téléviseur par un cordon Péritel ou HDMI.
Il est important de noter que si la télévision numérique offre une qualité sonore incomparable
(notamment en MPEG2 et MPEG4), une installation conforme au standard "5.1" est nécessaire
pour en bénéficier pleinement. De même, la perception de la qualité des images HD n'est
réellement supérieure aux images SD que pour des écrans HD de diagonale supérieure à 70
cm.
Les critères de qualité du signal en TNT sont mesurés à différentes étapes :
●​ Qualité du signal à l'antenne : Mesurée par la puissance et le rapport Porteuse/Bruit
(C/N).
●​ Qualité de la modulation : Mesurée par le MER (Modulation Error Ratio), qui indique la
distance entre le point idéal et le point réel de la constellation de modulation.
●​ Qualité du Transport Stream (TS) avant correction des erreurs : Mesurée par le
CBER (Channel Bit Error Rate).
●​ Qualité du Transport Stream (TS) après correction des erreurs : Mesurée par le
VBER (Viterbi Bit Error Rate), normalement plus faible que le CBER, indiquant l'efficacité
de la correction d'erreurs.
Le niveau minimal acceptable du signal TS reçu à l'antenne est de 40 dBµV. Au-delà d'un
CBER de 5x10^-3 (soit 1 erreur tous les 200 bits), la correction d'erreur n'est plus efficace et la
qualité se dégrade rapidement, menant à l'effet de "falaise numérique".

5.4.5. DVB-T2 Standard

Le DVB-T2 (Digital Video Broadcasting - Terrestrial version 2) a été établi en juin 2006 comme
successeur du DVB-T. Il permet une économie d'environ 40% de bande passante par rapport au
DVB-T, optimisant ainsi la diffusion de chaînes HD, 3D et Ultra HD.

5.4.6. Exemple de Déploiement d'un Réseau DVB-T2

L'optimisation de la couverture radioélectrique d'un système de diffusion TNT en norme


DVB-T2, comme dans la ville de Kinshasa, peut être réalisée par le déploiement d'un réseau en
mode SFN (Single Frequency Network). Le principe du SFN est de faire fonctionner plusieurs
sites d'émission de manière cohérente pour transporter le flux de programme aux utilisateurs,
assurer la couverture radio sur toute la zone et fournir la capacité de réception mobile.
Les choix matériels pour un tel déploiement incluent :
●​ Multiplexeur : Permet de répartir les données sur plusieurs porteuses, divisant la bande
de fréquences allouée et permettant la transmission de plusieurs programmes sur un
même canal.
●​ Encodeur : Compresse les fichiers pour réduire leur taille (permettant plus de
programmes par canal) et ajoute des codes correcteurs d'erreurs. Les codecs vidéo
utilisés sont H.262/MPEG-2 Part 2 et H.264/MPEG-4 AVC, ce dernier étant plus récent et
plus performant. Le H.264 permet notamment de transporter trois services de télévision
haute définition sur un canal DVB-T à 24 Mbit/s.
●​ Émetteur TNT en DVB-T2 (ex: FMUSER FU-518D-100W) : Ces émetteurs à
semi-conducteurs offrent une bande passante de 8MHz, une correction de pré-distorsion,
des double-excitateurs avec basculement automatique. Ils utilisent des amplificateurs de
puissance LDMOS à haute linéarité et des alimentations à découpage en parallèle pour
une haute efficacité. Ils intègrent la télémétrie et la télécommande par ordinateur
(interface web), une interface homme-machine conviviale, et des protections multiples
(surtensions, surintensité, surchauffe) pour un fonctionnement continu 24h/24.
Caractéristique Spécification (FMUSER FU-518D-100W)
Fréquence de travail VHF / UHF
Bande passante du canal 8 MHz
Caractéristique Spécification (FMUSER FU-518D-100W)
Puissance de sortie 100 W
Impédance de sortie 50Ω
Interface de sortie N
Perte de retour de charge de sortie Normal: -32 dB, Autorisé: -20 dB
Niveau d'entrée d'alimentation 0dBm
Impédance d'entrée de l'amplificateur 50Ω
Interface d'entrée de l'amplificateur N
Transmission inutile ≤-60dB
Fluctuations de bande ± 0.5dB
Band épaule Mieux que 36dB
MER Mieux que 30dB
Taille 390 mm × 570 mm × 820 mm
Poids 45KG
Table 6.2: Spécifications Techniques d'un Émetteur TNT DVB-T2 (Exemple FMUSER
FU-518D-100W)

5.5. Autres Standards DVB pour la Mobilité et l'IP (DVB-H, DVB-SH,


DVB-IP)
Le projet DVB a étendu ses standards au-delà de la diffusion classique pour intégrer d'autres
services et supports, notamment la mobilité et les réseaux IP. Cette évolution témoigne d'une
tendance forte à l'intégration des contenus de diffusion traditionnels avec les protocoles Internet
et l'accessibilité mobile.

5.5.1. DVB-H (Digital Video Broadcasting - Handheld)

Le DVB-H est une adaptation du DVB-T (télévision terrestre numérique) spécifiquement conçue
pour la réception sur terminaux mobiles ou portables, aussi appelée Télévision Mobile
Personnelle (TMP). Il offre un canal descendant à haut débit et peut être utilisé seul ou en
complément des réseaux de télécommunication mobiles. Le codec vidéo utilisé est le MPEG-4
AVC, et la modulation numérique COFDM assure une réception mobile robuste en résistant aux
échos. Une technique de multiplexage par intervalle de temps (time-slicing) réduit la
consommation électrique des petits terminaux, car la partie réception radio ne fonctionne que
pendant l'intervalle de temps alloué au programme sélectionné. Les spécifications IPDC over
DVB-H décrivent un ensemble de composants pour le déploiement d'une offre commerciale de
télévision mobile basée sur l'Internet Protocol, combinant un réseau de radiodiffusion
unidirectionnelle avec un réseau de communication mobile bidirectionnel (GPRS ou UMTS). Le
DVB-H peut fonctionner correctement dans des véhicules jusqu'à 70 km/h et est émis en
polarisation verticale dans les grandes agglomérations pour une meilleure réception. Il est
conçu pour fonctionner dans les bandes VHF-III, UHF-IV/V et Bande L. Des chaînes DVB-H
peuvent coexister avec des chaînes DVB-T dans le même multiplex, mais cela nécessite un
champ de signal DVB-T beaucoup plus important et une modification de la modulation pour la
réception mobile. La réception nécessite un téléphone mobile compatible équipé d'un tuner
DVB-H.
5.5.2. DVB-SH (Digital Video Broadcasting - Satellite Handheld)

Le DVB-SH est la plus récente génération de système de radiodiffusion hertzienne numérique


pour la réception sur terminal mobile, développé au sein du Forum DVB. C'est une évolution du
DVB-H, permettant la diffusion de la télévision mobile en mode broadcast sur des réseaux
exclusivement terrestres, exclusivement satellitaires, ou hybrides (satellite et terrestre), en
complément des réseaux 3G/UMTS existants.
Ce standard améliore profondément la couche physique radio DVB-T/DVB-H et le niveau de
protection des signaux qu'elle transporte, grâce à deux innovations majeures :
●​ L'introduction des codes de protection FEC de très haute performance dits turbocodes,
mis au point pour les services mobiles cellulaires. Cette innovation renforce
considérablement la résistance de la diffusion aux erreurs apportées par les conditions de
propagation, et améliore la capacité de couverture des réseaux DVB-SH.
●​ L'introduction d'un entrelacement temporel pouvant être étendu jusqu'à des dizaines de
secondes. Cette deuxième innovation apporte également un gain de performances et vise
à résoudre les problèmes liés à la mobilité véhiculaire sous couverture satellitaire, où les
effets de masquage (obstructions par des immeubles) sont fréquents.
Le DVB-SH permet ainsi des solutions de diffusion en mode terrestre seul, satellitaire seul, et
des modes combinant ces deux types de sources. Il est utilisable dans tout spectre de
fréquence inférieur à 3GHz, y compris UHF, les bandes L et S. Le DVB-SH est considéré
comme le standard le plus puissant pour le broadcast mobile.

5.5.3. DVB-IP

Le DVB-IP est un nom collectif désignant un ensemble de spécifications techniques ouvertes et


interopérables développées par le Projet DVB, qui facilitent la livraison de la télévision
numérique via l'Internet Protocol sur des réseaux à bande large bidirectionnels. Son objectif est
de ré-encapsuler tous les types de vidéo provenant des différents modes de diffusion (satellite,
câble, terrestre) dans un paquet IP. Le DVB-IP se positionne comme supérieur à l'IPTV en
termes de qualité du contenant et du contenu.

5.6. Avantages et Inconvénients de la TNT


La Télévision Numérique Terrestre, bien qu'offrant des avancées significatives, présente un
ensemble d'avantages et d'inconvénients qui influencent son déploiement et son adoption par
les consommateurs.

5.6.1. Avantages

●​ Réduction de l'occupation du spectre électromagnétique grâce à l'utilisation de


modulations plus efficaces.
●​ Réduction des coûts d'exploitation pour la diffusion et la transmission une fois les
coûts de mise à niveau amortis.
●​ Qualité d'image globalement meilleure qu'en analogique, en particulier avec une bonne
réception, en raison de l'élimination des interférences visibles et des images fantômes. Il
est plus facile d'obtenir une qualité d'image numérique optimale qu'analogique.
●​ Les altérations sont moins perceptibles dans les présentations numériques avec un
signal plus faible.
●​ Possibilité de diffuser des chaînes en haute définition (HD).
●​ Beaucoup plus de chaînes peuvent tenir sur le même spectre dans la transmission
numérique, ce qui conduit à une augmentation drastique du nombre de chaînes et à la
libération de portions du spectre hertzien (dividende numérique).
●​ Des services interactifs peuvent être fournis (HbbTV, « Bouton rouge »).
●​ La transmission de la télévision en numérique est plus efficace du point de vue de la
consommation d'énergie que la transmission en analogique.
●​ Avec la TNT, l'image reste quasi parfaite si la qualité du signal reçu est dans la zone où
toutes les erreurs peuvent être corrigées. Si le signal se dégrade, des pixels commencent
à manquer, puis des blocs de pixels apparaissent par intermittence, jusqu'à ce que
l'image se fige ou que l'écran devienne noir si le signal est trop faible.

5.6.2. Inconvénients

●​ Il peut être assez difficile de régler l'antenne, en raison de l'absence de rétroaction


visuelle (pas de dégradation progressive comme en analogique). L'image est
généralement soit d'une qualité optimale, soit totalement indisponible, ne fournissant
aucune information sur la direction dans laquelle déplacer l'antenne. Un indicateur de
puissance du signal sur le syntoniseur peut aider, mais n'est pas toujours présent.
●​ Les anciens récepteurs ne sont plus utilisables tels quels ; il peut être nécessaire
d'acheter de nouveaux équipements (convertisseur analogique-numérique, nouveau
téléviseur), ou de souscrire à un service de télévision par câble ou par satellite.
●​ La consommation d'électricité augmente si la télévision et un boîtier décodeur sont
branchés en même temps.
●​ Il peut être nécessaire de remplacer l'antenne de réception, éventuellement par une
antenne amplifiée, ce qui peut nécessiter l'intervention du syndic dans les copropriétés.
●​ La télévision analogique pouvait fonctionner avec un signal plus faible, lequel suffisait
pour obtenir une image visible. Par extension, le numérique ne se dégrade pas aussi
gracieusement que l'analogique, souffrant de l'effet de "falaise numérique".
Malgré les avantages techniques indéniables de la TNT, les défis liés à l'effet de "falaise
numérique" et la nécessité d'acquérir de nouveaux équipements de réception représentent des
obstacles significatifs à l'adoption pour les consommateurs, en particulier ceux situés dans des
zones de réception marginale ou ayant des connaissances techniques limitées. Cela souligne
que le succès d'une transition technologique ne dépend pas uniquement de ses mérites
techniques, mais aussi de la prise en compte de l'expérience utilisateur et de l'accessibilité
économique.

Télévision sur IP (IPTV) et Services Associés


La convergence des technologies a donné naissance à la Télévision sur IP (IPTV), un
paradigme de diffusion qui s'affranchit des contraintes des réseaux de diffusion traditionnels
pour offrir une expérience plus flexible et personnalisée.

7.1. Définition et Objectifs de l'IPTV


Le terme DVB-IP désigne un ensemble de spécifications techniques ouvertes et interopérables
développées par le Projet DVB, visant à faciliter la livraison de la télévision numérique via
l'Internet Protocol sur des réseaux à bande large bidirectionnels. Son ambition est de
ré-encapsuler tous les types de vidéo provenant de différents modes de diffusion (satellite,
câble, terrestre) dans un paquet IP.
L'IPTV (Internet Protocol TV) est une forme de télévision diffusée sur un réseau utilisant le
protocole IP. Elle englobe la télévision en direct, la vidéo à la demande (VoD), le jeu à la
demande (GoD ou Cloud Gaming) et la télévision de rattrapage ("catch-up TV"). Contrairement
aux systèmes de transmission hertziens ou satellitaires classiques, qui imposent des grilles de
programmes fixes, l'IPTV offre à l'utilisateur la possibilité de choisir ses programmes, lui
permettant de regarder ce qu'il veut, quand il veut. Elle vise à fournir une offre globale de
produits (streamers, serveurs VoD, encodeurs, STB IP) et de services.
Les méthodes de communication varient : la télévision en direct utilise une solution IP multicast
(envoi unique pour plusieurs destinataires), tandis que la VoD et la télévision de rattrapage
utilisent une solution IP unicast (une seule destination). L'IPTV utilise la même infrastructure
que l'accès Internet, mais avec une bande passante réservée. Elle est souvent proposée en
France dans le cadre d'offres "triple-play" (Internet, téléphonie, télévision).

7.2. Solutions IPTV


L'IPTV propose diverses solutions pour la consommation de contenu audiovisuel :
●​ VoD (Video on Demand) : L'utilisateur choisit les programmes audiovisuels qu'il désire et
les suit en temps réel. Cela inclut les plateformes de streaming populaires en SVOD
(Subscription Video On Demand) comme Netflix, OCS, Amazon Prime Video.
●​ Télévision de rattrapage (time-shifted media) : Permet de suivre en streaming des
émissions en différé, généralement des programmes récents disponibles pour une durée
limitée (ex: moins de 30 jours). La plupart des chaînes de télévision proposent leurs
programmes à la demande via un site web, une application mobile ou directement depuis
la box internet.
●​ IPTV en direct : Diffusion d'un programme télévisé (film, séries, match de football,
événement sportif) en direct via Internet.
Le déploiement d'un protocole IPTV est complexe, nécessitant une base de stockage avancée
(centralisée ou décentralisée). L'opérateur crypte le contenu et assure la meilleure qualité vidéo
possible. Les diffusions s'effectuent en streaming (sans publicité) sur demande avec des
vitesses de transmission élevées.
L'architecture d'un réseau IPTV comprend :
●​ La TV tête de réseau : Encode et diffuse les chaînes en direct sous forme de flux IP
multicast.
●​ Les plateformes VoD : Stockent et livrent le contenu vidéo à la demande sous forme de
flux IP unicast.
●​ Un portail interactif : Permet la navigation de l'utilisateur à travers les services IPTV.
●​ Le réseau de distribution : Transporte les paquets IP (unicast et multicast).
●​ L'entrée domicile et la box : La box décode et déchiffre le contenu TV et VoD pour
l'affichage.
L'IPTV peut être utilisée sur divers supports :
●​ Navigateurs web : Les utilisateurs peuvent s'abonner à un service IPTV et accéder aux
programmes via une URL.
●​ Smart TV : Nécessitent une application IPTV pour recevoir les programmes.
●​ Box IPTV : Un petit appareil (souvent sous Android) qui transmet les signaux IPTV sans
antenne. Ces box offrent des fonctionnalités supplémentaires comme la navigation
Internet, l'enregistrement d'émissions, la webradio et la lecture de disques amovibles (clé
USB, disque dur).
Caractéristique Spécification (TV Box Android 10.0)
Technologie de connectivité Ethernet/WiFi
Services Internet pris en charge Skype, Facebook, YouTube
Appareils compatibles Support 4K / 1080P / H.265 / H.264 / HDR
Formats Media MKV, MPG, WMV, MPEG, DAT, AVI, MOV, ISO,
MP4, RM, JPG
Formats Musique MP3 / AAC / WMA / RM/ FLAC / OGG
Formats Photo JPEG / BMP / GIF / PNG / TIF
Table 7.1: Caractéristiques Techniques de la TV Box Android 10.0
Les applications de l'IPTV sont nombreuses et variées :
●​ Hôtellerie, Bateaux de croisières, Camping : Offre de nouveaux services de qualité aux
clients (TV HD, radios numériques, TV payante, services d'information, communication
dynamique) directement via le téléviseur de la chambre.
●​ Santé (Hôpitaux, Cliniques, Maisons de retraite) : La technologie IPTV permet de
gérer les offres TV/VoD, la téléphonie sur IP et l'accès Internet sur un terminal tactile,
améliorant la satisfaction des patients et du personnel.
●​ Entreprise, Société, Magasin : Le réseau informatique existant est un support idéal pour
proposer des services IPTV pour la communication interne, les programmes de formation,
l'information dynamique RSS et d'autres contenus vidéo via des flux IP.
●​ Centres pénitentiaires, Universités, Lycées : Solutions interactives pour enseignants et
étudiants, facilitant la communication, le stockage, l'échange et la publication
d'informations et de médias.
●​ Pay-TV : Permet d'offrir du contenu payant via un accès réservé et protégé.

7.3. Satellite sur IP (SAT-IP)


Le SAT-IP est un protocole et une architecture basés sur IP pour la réception et la distribution
des signaux satellite, offrant une alternative au câble coaxial (DVB-S). Les signaux DVB-S et
DVB-S2 sont démodulés et convertis au format IP dans un serveur SAT>IP situé près du point
de réception. Ils sont ensuite distribués sur un réseau IP comme n'importe quel signal IPTV vers
des appareils multimédias compatibles. L'avantage principal est de pouvoir utiliser les réseaux
IP existants pour la distribution des signaux satellite, éliminant ainsi le besoin de câbles
coaxiaux. Le réseau IP peut même être sans fil, permettant la réception sur des appareils
mobiles. Le débit est d'environ 30 Mbit/s par flux HD et 10 Mbit/s par flux SD. Le serveur
SAT>IP supprime le syntoniseur RF et le démodulateur de l'équipement client, fournissant ces
fonctions au niveau du serveur. Il convertit les signaux TV par satellite vers le protocole IP en
qualité de diffusion, sans transcodage. Le protocole SAT>IP s'appuie sur des protocoles
existants (IP, UPnP, RTSP, HTTP) avec des extensions spécifiques à la télévision par satellite. Il
ne fournit pas de soutien spécifique pour les services cryptés, nécessitant un équipement
adéquat côté client.

7.4. DVB-IP vs. IPTV


Le DVB-IP vise à ré-encapsuler tous les types de vidéo provenant des différents modes de
diffusion (satellite, câble, terrestre) dans un paquet IP, se présentant comme supérieur à l'IPTV
en termes de qualité du contenant et du contenu. L'IPTV contrôle la distribution du contenu et
détermine indépendamment le contenu et le prix des forfaits d'abonnement, le contenu étant lié
à l'adresse matérielle de l'appareil.

7.5. Concepts Liés (Streaming, Web TV, YouTube, OTT)


La prolifération de l'infrastructure IP a permis l'émergence de nouveaux modes de
consommation de contenu, marquant un déplacement significatif vers la consommation à la
demande et personnalisée.

7.5.1. Streaming

Le streaming est un principe utilisé principalement pour l'envoi de contenu en "direct" (ou léger
différé), permettant la lecture d'un flux audio ou vidéo (vidéo à la demande) à mesure qu'il est
diffusé, sans attendre le téléchargement complet. Le contenu est décomposé en petits paquets
de données, envoyés au navigateur du client, qui interprète les données comme un film et
commence la lecture dès qu'il a suffisamment de paquets. La plupart des sites de streaming
utilisent les protocoles TCP/IP ou UDP.
La télévision par streaming sur Internet est le réseau le plus moderne pour transmettre le signal
TV via les réseaux IP. Un FAI fournit une connexion Internet haut débit au Centre de Production
TV pour transférer le signal TV numérique compressé via un Serveur de Diffusion (PLAYOUT).
Des logiciels comme vMix (mixage de vision pour Windows, diffusion vers plusieurs sources,
enregistrements locaux, incrustation chroma, studios virtuels, support NDI et SRT) et OBS
Studio (logiciel libre et open-source de capture d'écran et de streaming pour Windows, MacOS
et Linux, offrant de nombreuses sources, assemblage/superposition de flux, gestion
indépendante des pistes audio, diffusion vers plus de 40 plateformes) sont des outils clés pour
cette diffusion.

7.5.2. Web TV

La Web TV désigne la diffusion de programmes télévisuels sur le Web, spécifiquement des


chaînes de télévision uniquement distribuées par Internet, avec une grille de programmes
structurée et partagée à l'avance. Elle utilise la technologie de lecture en continu (streaming) ou
le téléchargement progressif. La vidéo est compressée, convertie dans un codec spécifique, et
envoyée par un logiciel serveur aux clients. La distinction avec l'IPTV réside dans le fait que
l'IPTV dispose d'une bande passante réservée, tandis que la Web TV utilise Internet sans
bande passante réservée ou prioritaire.

7.5.3. YouTube

YouTube est une plateforme de vidéos en ligne créée en 2005 et acquise par Google en 2006.
Elle permet d'envoyer, regarder, noter, commenter, évaluer et partager des vidéos en streaming,
ainsi que de regarder des flux en direct et de s'abonner à des chaînes. La plupart des vidéos
sont accessibles à tous, tandis que seules les personnes inscrites peuvent envoyer des vidéos
de façon illimitée. Les vidéos sont accessibles par catégories et mots-clés. Une chaîne YouTube
permet aux entreprises et individus de diffuser leurs vidéos, promouvoir produits/services,
communiquer sur leur univers, augmenter leur visibilité et fédérer une communauté. Des
logiciels de diffusion comme Facebook Live, xSplit Gamecaster, Lightstream, Streamlabs OBS,
Wirecast, Periscope, Broadcam et Yawcam sont utilisés pour diffuser sur ces plateformes.

7.5.4. OTT (Over The Top)

Le terme OTT désigne un diffuseur qui utilise l'infrastructure de l'opérateur (FAI) pour fournir son
service, comme Netflix ou Hulu, qui utilisent le réseau Internet pour livrer des services à leurs
abonnés. L'OTT a profondément modifié le système traditionnel où la télévision dépendait d'un
intermédiaire (câble, satellite, IPTV) qui contrôlait la distribution du contenu. Les services OTT
fonctionnent de manière similaire à l'IPTV, mais le canal de communication entre l'opérateur et
le client ne dépend pas du fournisseur d'accès Internet, permettant un accès au contenu partout
où il y a Internet. La diffusion OTT ne nécessite que l'Internet public à large bande ordinaire,
contrairement à l'IPTV qui utilise un réseau dédié.
Une plateforme OTT est un service en ligne (plateforme de streaming) où la vidéo à la
demande, la télévision linéaire et d'autres types de médias sont disponibles, souvent avec des
frais d'abonnement. L'accès se fait via des sites Internet et des applications. Il existe différents
modèles : AVoD (gratuit avec publicités), SVoD (par abonnement), et accès au contenu au détail
(EST pour l'achat, TVoD pour la location). Les prestataires OTT diffusent du contenu par
streaming, les données étant transmises en paquets IP via l'infrastructure du FAI, qui n'est pas
légalement responsable du contenu. Le terminal OTT est un décodeur OTT + écran (TV,
ordinateur, tablette, téléphone portable), le décodeur pouvant être intégré au téléviseur. La
vidéo OTT prend en charge une variété de technologies de codage et de décodage vidéo
basées sur des configurations de terminaux, avec un débit binaire inférieur à l'IPTV et une
fonction adaptative pour maintenir le service ininterrompu dans un environnement réseau
médiocre. Netflix, Amazon et Hulu sont des exemples de prestataires OTT.
L'émergence et la prédominance des services OTT, du streaming et de la Web TV illustrent un
déplacement fondamental du modèle de diffusion linéaire vers une consommation à la demande
et personnalisée. Cette évolution, rendue possible par l'ubiquité de l'infrastructure IP, a
profondément perturbé les modèles économiques traditionnels de la radiodiffusion, offrant aux
consommateurs une flexibilité sans précédent et forçant les acteurs historiques à s'adapter à un
paysage médiatique en mutation rapide.

Visioconférence et Télémédecine
La visioconférence, également connue sous le nom de vidéoconférence, est une technologie de
communication qui permet de dialoguer et de collaborer à distance en intégrant le son, l'image
et d'autres types de données. Elle combine les capacités de la visiophonie (voir et dialoguer
avec l'interlocuteur) et de la conférence multipoints (réunion avec plus de deux terminaux).

8.1. Principes de la Visioconférence


Le principe fondamental de la visioconférence est de permettre aux participants, quelle que soit
leur localisation géographique, de communiquer en temps réel et de travailler conjointement sur
des applications ou des documents. Cette interaction crée une impression d'être dans la même
pièce, réduisant ainsi les inconvénients liés à la distance.

8.2. Usages de la Visioconférence


La visioconférence a trouvé des applications étendues tant dans le monde professionnel que
pour le grand public.

8.2.1. Monde Professionnel

Les entreprises utilisent la visioconférence principalement pour réduire les frais de déplacement
tout en organisant des réunions fréquentes. Les systèmes professionnels se déclinent en
plusieurs catégories :
●​ Systèmes de groupe : Terminaux dédiés couplés à des télévisions, écrans LCD ou
plasma.
●​ Systèmes de salle (haut de gamme) : Offrent une vidéo de haute qualité (grands
écrans, projecteurs, écrans plasma), un son Hi-Fi et un environnement optimisé
(éclairage, acoustique).
●​ Systèmes personnels : Utilisent des terminaux dédiés avec de grands écrans LCD ou
de petits visiophones. La visioconférence favorise également une collaboration accrue en
permettant le travail simultané sur des fichiers ou des applications, comme si les
participants étaient en face à face.

8.2.2. Grand Public

Pour le grand public, la visioconférence est devenue accessible via :


●​ Logiciels de communication : De nombreux logiciels (Windows Live Messenger, Yahoo!
Messenger, iChat, Skype) permettent des communications audio/vidéo entre ordinateurs
personnels.
●​ Navigateurs web : Certains systèmes fonctionnent directement via un navigateur web,
sans installation de logiciel, grâce à des technologies comme Adobe Flash Media Server.
●​ Téléphonie mobile 3G : Permet des communications audio/vidéo entre téléphones 3G
équipés d'une caméra.
●​ Appels internationaux : Les particuliers utilisent Internet pour des communications
téléphoniques et visioconférences à l'étranger, avec des solutions logicielles.

8.3. Équipements Nécessaires


L'équipement standard pour la visioconférence comprend :
●​ Caméras : Principalement des webcams pour capter l'image.
●​ Écrans : Moniteurs ou terminaux pour retransmettre l'image des interlocuteurs distants.
●​ Microphones : Pour capter le son.
●​ Haut-parleurs : Pour retransmettre la voix et les signaux sonores.
●​ Micro-ordinateur : Sur chaque site distant pour émettre et recevoir les données.
●​ Réseau local et connexion Internet : Pour la transmission des données.
●​ Dispositif "pont" : Nécessaire pour la transmission des données audio et vidéo lors de
conférences multipoints (plus de 2 sites).
Ces équipements peuvent être plus ou moins perfectionnés. Certains systèmes avancés offrent
la vidéo haute définition (720p, 1080p) et un son de haute qualité (échantillonné à 22 kHz ou 32
kHz, au lieu de 8 kHz pour la qualité téléphonique ou 16 kHz pour les terminaux classiques).
Des systèmes de téléprésence permettent même de voir ses interlocuteurs à l'échelle 1, avec
une sensation de contact visuel direct, et offrent parfois une audio haute qualité stéréo ou
spatialisée pour localiser les interlocuteurs dans l'espace.
Type de Système Caractéristiques Avantages Inconvénients
Principales
Systèmes de groupe Terminaux dédiés, Qualité supérieure à la Moins flexible que les
couplés à TV/écrans webcam, convivialité en solutions logicielles,
LCD/plasma salle coût plus élevé
Systèmes de salle Vidéo HD, son Hi-Fi, Expérience immersive, Coût très élevé,
(haut de gamme) environnement idéal pour grandes installation complexe
optimisé (éclairage, réunions
acoustique)
Systèmes personnels Terminaux dédiés avec Qualité supérieure aux Moins polyvalent qu'un
grands écrans LCD ou webcams de base, PC, coût modéré
petits visiophones dédié à l'usage
individuel
Logiciels sur PC (ex: Utilise webcam, micro Faible coût, grande Qualité variable selon
Skype) PC, connexion Internet accessibilité, flexibilité
connexion/matériel,
dépendance du PC
Téléphonie mobile Communications Mobilité, commodité Qualité limitée par le
3G/4G audio/vidéo via réseau mobile, petite
smartphone taille d'écran
Systèmes de Échelle 1, contact Immersion maximale, Coût exorbitant,
téléprésence visuel direct, audio sensation de présence infrastructure très
spatialisée physique spécifique
Table 8.1: Comparaison des Systèmes de Visioconférence

8.4. Services Associés et Applications


Les applications de la visioconférence sont nombreuses et variées, transformant la manière
dont les individus et les organisations interagissent.
●​ Apprentissage et formation à distance (Télé-enseignement / V-Learning) : Permet
aux professeurs de donner des cours à des élèves géographiquement éloignés, ou aux
étudiants de consulter des supports en ligne. Cela favorise l'accès aux meilleurs cours et
professeurs, y compris dans des zones isolées ou défavorisées.
●​ Retransmission de séminaires et d'événements : La visioconférence est utilisée pour
diffuser des événements à un public plus large.
●​ Télé-ingénierie : Permet la collaboration à distance sur des projets d'ingénierie.
●​ Télé-médecine : Des médecins spécialistes peuvent consulter des patients à distance,
établir des diagnostics et proposer des thérapies, rendant les soins accessibles en tout
lieu.
●​ Conseil par des experts : Facilite l'accès à des experts sans contrainte géographique.
●​ Conférence personnelle et réunions de travail : Améliore la communication et la
compréhension grâce à l'association de l'audio et de la vidéo.
●​ Démonstrations : Permet de présenter des produits ou services à distance.
●​ Télétravail : Facilite la collaboration sur des projets communs, avec la possibilité
d'échanger et de commenter des documents en direct via des applications partagées.
L'essor de la visioconférence, en particulier en haute définition, est directement lié à
l'augmentation des débits de bande passante disponibles. La capacité des réseaux à
transporter des volumes de données vidéo et audio de plus en plus importants est le facteur clé
qui a permis la démocratisation de la collaboration à distance.

8.5. Débit et Qualité


Pour une qualité acceptable, le débit de la connexion Internet doit être d'au moins 128
Kbits/seconde par site distant. Une visioconférence à 4 participants nécessite une connexion de
512 Kbits/seconde. Des débits plus faibles dégradent rapidement la qualité audio et vidéo.
L'avènement de la visioconférence HD (720p et 1080p) et de la téléprésence, avec des
fréquences audio atteignant 22 kHz, démontre la capacité de l'outil à offrir une qualité identique
à celle de la télévision HD.

8.6. Infrastructure et Gestion


La mise en place d'une infrastructure de visioconférence implique plusieurs aspects de gestion :
●​ Programmation et réservation des visioconférences : Permet aux utilisateurs de
réserver et planifier leurs conférences à l'avance, via une interface dédiée ou en
s'intégrant aux outils de messagerie (Outlook, Lotus Notes).
●​ Annuaire global : Pour faciliter la connexion entre les participants.
●​ Administration des utilisateurs : Souvent connectée à des serveurs LDAP.
●​ Gestion de la bande passante : Cruciale pour éviter la congestion du réseau et garantir
la qualité du service.
●​ Solutions multipoints : Permettent de réunir plusieurs sites simultanément.

Vidéosurveillance Intelligente
La vidéosurveillance, qui consiste à placer des caméras dans des lieux publics ou privés pour
visualiser et/ou enregistrer les flux de personnes, a évolué pour devenir un système complexe
et intelligent, intégrant des capacités d'analyse avancées.

9.1. Buts de la Vidéosurveillance


Les objectifs principaux de l'installation de systèmes de vidéosurveillance sont la sécurité
publique et la protection des biens mobiliers ou immobiliers. Elle permet d'améliorer la gestion
des incidents, d'augmenter l'efficacité et la rapidité d'intervention (ex: prévention du suicide,
accidents routiers) et d'informer en temps réel sur les conditions de trafic. Les enregistrements
de caméras de surveillance ont également prouvé leur utilité dans la résolution d'affaires
criminelles, notamment pour l'identification de suspects.

9.2. Domaines d'Application


La technologie de la vidéo sur réseau IP a revitalisé les applications de vidéosurveillance,
offrant des fonctionnalités de contrôle à distance et de vidéo en temps réel qui rendent de
nombreux secteurs interactifs. Les systèmes de surveillance sont principalement utilisés dans :
●​ Aéroports, transports publics et gares : Pour la surveillance globale, avec une
intégration croissante de mesures biométriques dans les aéroports.
●​ Lieux publics et parkings : Pour la surveillance générale.
●​ Trafic autoroutier : Privilégie les caméras capables de reconnaître les véhicules. Les
installations privées importantes, comme les casinos, utilisent fréquemment des systèmes
d'identification faciale pour reconnaître les fraudeurs.

9.3. Évolution des Technologies de Caméras


Les caméras de vidéosurveillance ont connu une évolution spectaculaire :
●​ Premières caméras : Produisaient des images de basse qualité, en noir et blanc, sans
possibilité de zoomer ou de changer l'angle de vue.
●​ Caméras modernes : En couleur, avec des capacités de zoom et une mise au point très
nette. Les dispositifs d'enregistrement et d'analyse sont plus précis et efficaces.
●​ Caméras pilotées par ordinateur : Peuvent suivre des mouvements, détecter des
activités inhabituelles, se focaliser sur un individu et le suivre à travers un espace urbain
en faisant coopérer plusieurs caméras.
●​ Évolutions futures : Le rapprochement des enregistrements avec des données
biométriques est probable. Les ordinateurs pourraient analyser la démarche des passants
pour identifier des comportements inhabituels ou suspects, et, couplées à une base de
données biométrique, déterminer l'identité d'une personne sans l'aborder.

9.4. Types de Caméras Spécifiques


●​ Caméra IP : Association d'un ordinateur et d'une caméra, se connectant au réseau
comme tout autre périphérique avec sa propre adresse IP, la rendant consultable à
distance via Internet ou Intranet. Elles peuvent être d'intérieur, d'extérieur, dôme,
motorisées, mégapixels (vidéo HD), et offrir des fonctions avancées (vision nocturne,
alertes par mail/FTP, sauvegarde via USB/SD). Les caméras sans fil peuvent être de type
RF ou HF.
●​ Caméra infrarouge et thermique : Sensibles au rayonnement infrarouge, elles
produisent des images de bonne qualité dans le noir pour la surveillance nocturne (noir et
blanc la nuit, couleur le jour). Certaines intègrent leur propre source de lumière IR. Les
caméras thermiques enregistrent le rayonnement de chaleur et ne nécessitent aucune
illumination.
●​ Caméra discrète : Grâce aux avancées technologiques, elles peuvent être dissimulées
dans des accessoires courants (détecteurs d'intrusion, horloges, têtes de détection
incendie).
●​ Caméras dômes et tourelles : Offrent des fonctions PTZ (Pan, Tilt, Zoom), permettant
une rotation de 360° en horizontal, ±30° en vertical, et un zoom sur l'objet. Elles peuvent
effectuer une rotation rapide et précise, et possèdent des fonctions de zoom numérique et
analogique, des zones de masquage dynamiques, des prépositions et une fonction
patrouille pour programmer des cycles de contrôle.
●​ Caméra intelligente : Système de vision compact qui capture et interprète les images.
Elle intègre une électronique pour acquérir et stocker des images, traiter l'information
(traitement d'image) et communiquer avec les systèmes environnants (réseau,
automates, opérateurs). Le type de capteur, les performances du processeur, la taille de
la mémoire, le type de monture pour l'objectif, les interfaces E/S, Bus terrain, Réseau, les
possibilités d'affichage et les logiciels disponibles sont des caractéristiques clés.

9.5. Applications Typiques de la Vidéosurveillance Intelligente


Les caméras intelligentes permettent des applications avancées :
●​ Détection de franchissement de ligne : Définition d'une ligne virtuelle à ne pas franchir,
utile pour les commerces ou l'alerte de véhicules à contresens sur autoroute.
●​ Détection de zone de chaleur : Permet de connaître le flux de passage dans les rayons
d'un magasin, tables de jeux ou couloirs à tout moment.
●​ Détection de visage : Enregistre les visages des personnes accédant aux locaux,
permettant des recherches intelligentes de séquences vidéo liées à un visage.
●​ Comptage de personne : Définition d'une zone pour compter les entrées et sorties de
personnes sur un site.
●​ Détection d'intrusion dans une zone : Détecte l'entrée ou la sortie d'une personne ou
d'un véhicule dans un périmètre défini et alerte en cas de changement.
●​ Détection d'objet abandonné ou disparu : Alerte si un objet quitte une zone définie ou
si un objet est déposé dans cette zone.
●​ Détection de changement de scène vidéo : Alerte si la caméra est masquée, si son
champ de vision initial a changé ou si l'image est dégradée (défaut de netteté).
L'évolution de la vidéosurveillance vers des systèmes "intelligents" est une tendance majeure,
passant d'une surveillance passive à une surveillance proactive et prédictive. Cette
transformation est rendue possible par l'intégration croissante de l'intelligence artificielle et de
l'apprentissage automatique dans les capacités d'analyse vidéo, permettant aux systèmes
d'identifier automatiquement des comportements anormaux ou des événements spécifiques,
réduisant ainsi la charge de travail humaine et améliorant l'efficacité de la sécurité.

9.6. Types de Systèmes de Vidéosurveillance


Les systèmes de vidéosurveillance se déclinent en plusieurs architectures :
●​ Kit de vidéosurveillance : Généralement composé d'une ou deux caméras et d'un
moniteur, utilisé pour la prévention dans les petits magasins, ne permettant pas toujours
l'enregistrement.
●​ Réseau "classique" de vidéosurveillance ou système analogique : Basé sur un
système analogique avec un enregistrement souvent limité dans la durée. C'est une
méthode ancienne et répandue, mais qui ne répond plus aux nouvelles exigences
techniques.
●​ Système sur réseaux IP : Relie un réseau de caméras IP à un système d'enregistrement
numérique, permettant de stocker une grande quantité d'images sans perte de qualité et
de les consulter rapidement. L'informatisation permet de gérer les caméras à distance via
Internet, y compris sur téléphones mobiles (vidéosurveillance mobile). Un enregistreur
NVR (Network Video Recorder) 24/32 canaux UHD 4K/5MP/3MP/1080P H265+ peut
connecter jusqu'à 32 caméras IP 8MP UHD 4K, offrant un débit de transmission vidéo
jusqu'à 4 fois plus performant que le H264. Il permet un enregistrement continu, planifié
ou sur détection de mouvement, avec visualisation à distance via smartphone ou
ordinateur. Les branchements se font via connecteurs BNC pour câble coaxial ou RJ-45
pour câble à paires torsadées (UTP).
●​ Système "hybride" de vidéosurveillance : Intègre les systèmes classiques (caméras
analogiques) et les caméras en réseau, facilitant l'évolution d'un système analogique vers
le numérique sans remettre en cause l'existant, et introduisant de nouvelles fonctions
comme la détection de disparition/apparition d'objet et le comptage.
●​ Vidéosurveillance à distance : Permet à l'utilisateur de surveiller un ou plusieurs locaux
en ligne, avec possibilité d'enregistrement et d'alertes en cas d'intrusion. Le
développement de ces systèmes passe par la vidéosurveillance locale, puis via Internet,
l'ajout de modules d'alertes et la vidéosurveillance mobile.
○​ Transfert du flux vidéo : Le streaming est utilisé pour découper les données en
paquets adaptés à la bande passante. Le protocole TCP est fiable pour acheminer
les paquets dans le bon ordre, tandis que UDP offre des transferts plus rapides.
RTSP (Real Time Streaming Protocol) permet de contrôler la distribution de flux
multimédias, offrant des fonctions de type magnétoscope à distance (lecture,
pause, etc.) et peut être utilisé en unicast ou multicast. RTP (Real-Time Transport
Protocol) est un protocole de communication qui utilise UDP pour l'envoi immédiat
de flots de données, ajoutant un en-tête pour le type de média, le séquencement et
la synchronisation. RTCP (Real-Time Transport Control Protocol) peut être utilisé
conjointement avec RTP pour un canal de retour sur la qualité de service.
○​ Détection d'intrusion : Basée sur le traitement d'images, elle compare les pixels
d'images successives pour détecter des changements significatifs au-delà du bruit
du capteur. Des techniques comme le flot optique, l'image de fond (Background
subtraction) et les points caractéristiques sont utilisées pour détecter les
mouvements et les objets mobiles.
○​ Gestion des intrusions : Inclut l'enregistrement de séquences vidéo (avec un
tampon pour capturer les instants précédant l'intrusion) et l'envoi d'alertes par SMS
ou e-mail.
●​ Vidéosurveillance par caméra UMTS (3G/4G) : Alternative pour des besoins précis,
touchant un large public (professionnels et particuliers). Les systèmes d'alarme
transmettent les alertes avec photos (GPRS) ou vidéos (UMTS/3G). Les caméras de
surveillance sont classées selon le débit disponible, allant de caméras GSM photo à des
caméras 3G/4G avec des débits élevés pour la vidéo.
Type de Système Caractéristiques Avantages Inconvénients
Principales
Kit de 1-2 caméras + Coût faible, installation Fonctions limitées, pas
vidéosurveillance moniteur, souvent sans simple, prévention de d'enregistrement ou
enregistrement base limité
Système analogique Basé sur caméras Coût initial Qualité d'image
analogiques, potentiellement plus inférieure,
enregistrement limité faible (pour l'existant) enregistrement limité,
moins de fonctions
intelligentes
Système IP Réseau de caméras IP, Haute qualité d'image Coût initial plus élevé,
enregistrement (HD, 4K), accès et nécessite un réseau IP
numérique (NVR) gestion à distance, robuste
fonctions intelligentes
Système hybride Intègre caméras Permet une migration Complexité
analogiques et IP progressive vers le d'intégration, peut
numérique, utilise hériter des limites de
l'existant l'analogique
Vidéosurveillance à Accès en ligne, Surveillance flexible Dépend de la qualité de
distance streaming, alertes, depuis n'importe où, la connexion Internet,
détection d'intrusion réactivité accrue questions de sécurité
des données
Type de Système Caractéristiques Avantages Inconvénients
Principales
Caméras UMTS Transmission via Flexibilité de Dépend de la
(3G/4G) réseaux mobiles déploiement (pas de couverture mobile,
WiFi/Ethernet), idéal coûts de données,
pour sites isolés débits limités pour la
HD
Table 9.1: Comparaison des Types de Systèmes de Vidéosurveillance
La capacité des infrastructures IP à transporter des flux vidéo massifs est la cause
fondamentale de l'essor de la vidéosurveillance sur IP et à distance. Cette infrastructure permet
non seulement une meilleure qualité d'image et des fonctions intelligentes, mais aussi une
accessibilité et une gestion sans précédent, transformant la surveillance en un outil de sécurité
global et intégré.

Conclusion Générale
L'étude approfondie de la télévision, de ses origines analogiques à ses manifestations
numériques et multimédias contemporaines, révèle une trajectoire d'innovation constante,
motivée par la quête d'une expérience audiovisuelle toujours plus riche, accessible et
interactive.
La télévision analogique a posé les fondations, en s'appuyant sur des principes de perception
visuelle et des techniques ingénieuses d'analyse et de synthèse d'images. L'existence de
standards mondiaux distincts comme NTSC, PAL et SECAM, bien que témoignant d'une
ingéniosité technique propre à chaque région, a également souligné les défis inhérents à la
fragmentation et à l'interopérabilité. La composition complexe du signal vidéo composite, avec
ses porteuses image et son modulées différemment, illustrait déjà les compromis techniques
entre efficacité spectrale et

Vous aimerez peut-être aussi