0% ont trouvé ce document utile (0 vote)
38 vues10 pages

Histoire des écrans : CRT à tactile

Le document présente une étude détaillée sur les écrans, incluant leur définition, leur histoire, et les différentes technologies comme le tube cathodique, l'écran plasma, et l'écran à cristaux liquides. Il aborde également les caractéristiques des écrans, telles que la taille, le ratio, et la résolution, ainsi que l'évolution des résolutions d'écrans au fil des ans. Enfin, il mentionne les innovations dans les écrans tactiles et les différentes technologies utilisées pour leur fonctionnement.

Transféré par

zinebbidas30
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats DOCX, PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
38 vues10 pages

Histoire des écrans : CRT à tactile

Le document présente une étude détaillée sur les écrans, incluant leur définition, leur histoire, et les différentes technologies comme le tube cathodique, l'écran plasma, et l'écran à cristaux liquides. Il aborde également les caractéristiques des écrans, telles que la taille, le ratio, et la résolution, ainsi que l'évolution des résolutions d'écrans au fil des ans. Enfin, il mentionne les innovations dans les écrans tactiles et les différentes technologies utilisées pour leur fonctionnement.

Transféré par

zinebbidas30
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats DOCX, PDF, TXT ou lisez en ligne sur Scribd

CLE – informatique S1

2022/2023

Présentation sur :

 Les écrans

 Adobe Dreamweaver

En cadré par : Dr Nourdinne ZAHID

Fait par : BIDAS ZINEB


I. Les écrans :
1. Définition :

L'écran est la partie de l'ordinateur qui va afficher un contenu. Il fait partie de ce que l'on appelle
l'interface homme-machine : vous communiquez avec l'ordinateur via la souris et le clavier, et
l'ordinateur affiche ses données sur l'écran. Il existe plusieurs tailles d'écrans, calculées en pouces sur
la diagonale. Les ordinateurs portables commencent à 10 pouces, les fixes vont de 15 à 30 pouces.
2. L’ histoire d’ écrans :

Un écran ! Aujourd’hui, sans doute faudrait-il être Robinson Crusoé pour n’en avoir jamais vu…
Mais qui connait vraiment l’histoire de cet objet présent partout et sous bien des formes différentes, de
la télévision aux tablettes numériques en passant par les ordinateurs et les smartphones !
Périphériques de sortie vidéo d’un ordinateur, ou son ainé : l’écran de télévision, et maintenant tactile,
obéissant au doigt et à l’œil… remontons à leur source cathodique !
 La naissance des premiers écrans :

Dès 1880, ce sont plusieurs chercheurs : Constantin Senlecq en France, Adriano de Paiva à Porto,
George R. Carey à Boston, qui, à peu près dans le même temps, découvrent que l’on pourrait
diffuser une image en la projetant sur une surface photosensible composée de points de sélénium
du fait des propriétés photoélectriques de ce matériau. Ce principe sera la base de tout système de
transmission d’images animées.

En 1884, Paul Nipkow, ingénieur allemand, invente « le disque de Nipkow », dispositif à base de
disque en mouvement, précurseur de la télévision mécanique. De son côté, Hertz découvre en 1886 la
photoélectricité : une plaque de métal soumise à une lumière émet des électrons. L’ensemble de ces
découvertes concourent à la naissance des écrans devant lesquels nous passons de plus en plus de
temps chaque jour !

 Tube cathodique :
Entre temps, en 1892, Karl Ferdinand Braun invente le tube cathodique, ou CRT pour Cathode Ray
Tube. Le premier écran à tube cathodique fonctionnait à partir d’une diode à cathode froide. La
cathode, qui donne son nom au tube cathodique, est la source de production des électrons, c’est-à-dire
une électrode métallique chargée négativement, d’une ou plusieurs anodes. Le premier tube utilisant
une cathode chaude revient à J. B. Johnson et H. W. Weinhart. Il sera commercialisé à partir de 1922
par la société Western Electric.

Le tube cathodique se compose d’un filament chauffé, de cathodes et d’anodes soumises à une
différence de tension. C’est cette différence de tension qui crée un fort champ électrique capable
d’arracher les électrons de la cathode et de les projeter à très grande vitesse (comme un canon !) vers
l’écran, sous la forme d’un faisceau extrêmement fin. Un vide d’air occupe l’espace entre le « canon à
électrons » et l’écran pour que rien ne freine leur trajectoire. C’est un champ magnétique qui est
chargé de dévier les électrons de gauche à droite et de bas en haut vers l’écran. Autrement dit, deux
déflecteurs, bobines X et Y mises sous tension, dévient le flux horizontalement et verticalement. C’est
ce balayage qui se fait de gauche à droite puis vers le bas une fois arrivé en bout de ligne, qui fait
croire à l’œil humain que seuls certains points éclairent l’écran pour afficher l’image.

A l’origine, les moniteurs d’ordinateurs sont des tubes cathodiques. Ils le sont restés pour la
plupart des ordinateurs jusqu’aux années 2000. Pour autant, il faut se souvenir que même si les tubes
cathodiques existaient déjà, les tout premiers ordinateurs n’étaient pas pourvus d’écrans ! Il faudra
attendre 1976, à l’initiative de Steve Jobs la sortie de « l’Apple I », qui fut le premier ordinateur que
l’on pouvait équiper d’un clavier et d’un écran… « ce qui le distinguait des machines de l’époque
programmées pour fonctionner avec des interrupteurs et des lumières clignotantes pour
l’affichage ».

 L’ écran plasma :

Bien que les écrans cathodiques aient survécu jusque vers les années 2000, la technologie de l’écran
plasma est apparue dès 1964. Pour fonctionner, l’écran plasma a besoin d’un courant électrique qui
illumine un mélange de gaz constitué à 90% d’argon et 10% de xénon. Ces gaz sont inoffensifs. Le
courant électrique les transforme en plasma. La lumière ainsi produite est ultraviolette, invisible pour
l’humain. Des luminophores rouges, verts et bleus répartis sur les cellules de l’écran, la convertissent
en lumière colorée visible sous forme de pixels.

Le principe du plasma permet de réaliser des écrans de grande dimension, et surtout ayant besoin
de très peu de profondeur, à peine quelques centimètres, contrairement aux tubes cathodiques. De plus,
il offre de très bonnes valeurs de contrastes y compris sous un angle de 160 degrés et génèrent un large
spectre de couleurs.
On doit cette technologie à deux professeurs de l’université de l’Illinois, Donald L. Bitzer et H. Gene
Slottow qui souhaitaient développer une formule d’enseignement assistée par ordinateur. Leur écran
plasma était monochrome. Si l’écran plasma n’était pas à l’époque en mesure de rivaliser avec les
tubes cathodiques bien implantés sur le marché des écrans, sa grande taille lui permet par contre de
trouver place dans les grands espaces : gares, salles de Bourse et certains milieux industriels.

En 1992, Fujitsu reprend les travaux de Donald L. Bitzer et présente le premier écran plasma couleur.
Il sera mis sur le marché en 1997 sous la marque Pioneer. Un effort est fait sur la qualité de l’image
pour supprimer les temps de latence dans l’affichage et optimiser l’intensité des contrastes. La
technologie de l’écran plasma est particulièrement minutieuse, elle s’apparente à la microélectronique,
ce qui explique son prix et une implantation quelque peu élitiste.

 L’ écran à cristaux liquide :

C’est en 1964 que George Harry Heilmeier, ingénieur et homme d’affaires américain, en découvrant
dans les cristaux liquides de nouvelles propriétés électro-optiques, invente l’affichage à cristaux
liquides. Il faudra plusieurs années pour produire des écrans à cristaux liquides stables. L’écran à
cristaux liquides utilise la polarisation de la lumière via des filtres polarisants et par la biréfringence*
de certains cristaux liquides. L’écran LCD en tant que tel n’émet pas de lumière, il doit la recevoir.

Ces premiers affichages, LCD en anglais, ont été présentés en 1971. En 1984, Thomson développe
dans son laboratoire le premier écran à cristaux

liquides en couleur. Il faudra attendre de nouveau quelques années pour que cette technologie
s’implante. En effet, c’est dans les années 90 que l’on commencera à voir équiper des téléphones
portables, des ordinateurs, des téléviseurs, mais aussi des ordinateurs de bord dans les avions…
mais avec des écrans LCD noir et blanc. Les écrans couleurs arriveront sur ces marchés dans les
années 2000.

 L’ écran tactile :
Contrairement à ce que l’on pourrait imaginer en utilisant aujourd’hui nos tablettes numériques, le
premier écran tactile n’est pas le fruit d’une invention récente… il a 50 ans ! Il a été inventé en 1972.

Le premier écran tactile a été conçu à l’origine au sein de l’Université de l’Illinois comme système
d’éducation assistée par ordinateur. IBM présente donc en 1972 le « PLATO IV », ordinateur équipé
d’un dispositif optique de reconnaissance du toucher de l’écran. Des leds infrarouges réparties autour
de l’écran permettent de détecter la présence du doigt. Les étudiants peuvent ainsi faire des exercices
en touchant l’écran du doigt pour indiquer la bonne réponse.

Ce premier écran tactile est encore loin des écrans de smartphones et tablettes numériques actuels ! Il
s’agit en effet d’un écran plasma orange mono point, c’est-à-dire sensible à une seule pression à la
fois. Un système multipoints sera développé douze ans plus tard, en 1984 par les laboratoires Bell.
Ce sera un écran CRT recouvert d’une surface tactile capacitive, capable de suivre plusieurs doigts.

Qu’est-ce qu’un écran tactile ?

Comme tout écran informatique, l’écran tactile est un périphérique. Il se distingue en cumulant les
fonctions d’affichage d’un écran traditionnel et le pointage de la souris informatique. Pour répondre à
cette double mission plusieurs technologies seront développées, notamment en fonction des
usages : résistive, capacitive, infrarouge.

Dans la technologie dite « résistive », la plus économique, l’écran est constitué de plusieurs couches :
deux plaques, l’une en plastique, l’autre en verre, toutes deux conductrices, séparées par une couche
d’isolant. Elles sont encadrées par des barres horizontales et verticales. L’ensemble est recouvert par
un produit permettant d’augmenter la dureté et la résistance de la surface de l’écran. En touchant
l’écran les deux films conducteurs se mettent en contact ce qui génère un champ électrique. Les barres
horizontales et verticales mesurent cette tension pour distinguer le point de contact. L’information
ainsi recueillie est interprétée par le logiciel afin d’exécuter la demande de l’utilisateur.

Aujourd’hui, cette technologie a tendance à céder la place à la technologie « capacitive », plus


résistante dans le temps et plus agréable pour l’utilisateur, notamment sur le plan de la luminosité de
l’écran. La plaque de verre du moniteur est recouverte d’une substance qui accumule les charges. La
pression du doigt absorbe le courant de fuite de la dalle de verre, ce qui crée un manque mesurable.
Chaque angle de la plaque est muni d’un capteur qui situe précisément le point touché. Smartphones et
tablettes tactiles utilisent cette technologie. Dans les lieux publics par exemple, les bornes tactiles
utilisent la technologie capacitive dite « projetée », où il n’est plus nécessaire de toucher la plaque de
verre pour créer le manque de charge. Celle-ci peut être recouverte d’un écran blindé lui assurant une
forte résistance.

Une troisième technologie, celle des dalles tactiles à infrarouge, très résistante, n’est pas un véritable
écran. C’est un cadre équipé d’émetteurs et de récepteurs infrarouges. La dalle de verre n’a pas de
fonction tactile. Le point d’impact, lorsque l’on touche la dalle, interrompt les faisceaux lumineux
générés par les émetteurs-récepteurs infrarouges du cadre. Ce point est ainsi localisé et transmis avant
même que le doigt n’ait physiquement touché la dalle.

3. Les caractéristiques d’ un écran :

Un écran est décrit par de nombreuses caractéristiques assez simple en soit, mais rendues illisibles par
les abréviations utilisées, et surtout surchargées par des descriptifs qui n’intéressent que les
professionnels.
Les caractéristiques principales :

 La taille de l’écran : exprimée en pouces, elle se mesure en diagonale d’écran. 1 pouce =


2,56 cm. Les tailles standard sont de 13, 15, 17, 19, 21 et 23 pouces. A titre de comparaison,
une feuille A4 mesure environs 14,2 pouces. Cette taille est celle de la dalle complète, et
inclus le petit bord noir sur le contour de la dalle.
 Le ratio : celui ci est 4/3 ou 16/9 comme pour les TV. Ce ratio correspond à la différence de
taille entre la hauteur et la largeur. Ainsi si votre écran a une base de 40 cm de largeur, il
mesurera 30cm de haut en 4/3 ou 22,5cm en 16/9. (l’opération réalisée est 40 x 9 / 16)
 La résolution: c’est le nombre de pixels affichée en largeur et hauteur. Plus la résolution est
importante, et plus les points sont fin, mais également plus il faudra une carte graphique
puissante pour gérer l’affichage de tous ces points. Il est préférable que la carte vidéo et
l’écran aient la même résolution sinon vous risquez d’avoir une image pixélisée ou floue. Ce
phénomène lié à un recalcule de l’image réalisé par l’écran pour adapter l’image reçue à la
résolution disponible.
☆ Évolution des résolution d’ écrans :

☆☆Historique des résolution d’ écrans :

1944 : René Barthélemy met au point la définition de la télévision à 819 lignes. Pendant les
années d'occupation, Barthélemy a atteint 1 015 et même 1 042 lignes.
20 novembre 1948 : le standard d'émission en 819 lignes est adopté à la suite du décret
Mitterrand : image positive et modulation d'amplitude, les émissions commencent dans cette
définition à la fin de 1949.

La France envisageait à l'époque de ne diffuser qu'une seule chaîne sur le réseau VHF et
l'immense bande passante (14 MHz) nécessaire aux 819 lignes était suffisante. L'Angleterre qui
pensait déjà à avoir deux chaînes est restée sur le 405 lignes (4 MHz). L'immense majorité
des autres pays européens ont adopté le 625 lignes (7 MHz) (le PAL) version 50 Hz européanisé
du 525 lignes 60 Hz américain.

Initialement, le SÉCAM de l'ingénieur Henri de France avait été conçu pour coloriser
les 819 lignes, mais la bande passante nécessaire étant considérable (14 MHz), il a choisi le
625 lignes (8 MHz) pour la seconde chaîne, et c'est elle qui sera la première à être colorisée. Une
des justifications de l'émission en 625 lignes, c'est la possibilité d'être compatible avec les voisins
européens. Cette compatibilité est abandonnée au moment du lancement de la couleur, en
choisissant le SÉCAM au détriment du PAL1. Toutefois, la norme 819 lignes aura été exploitée
jusqu'en 1984, par la première chaîne historique ORTF devenue TF1, et même jusqu'en 1985,
dans le sud de la France, par TMC.

La norme CCIR 625 lignes a permis de coloriser la télévision européenne à moindre coût, à partir
de 1965 (1967 en France). Dès lors, cette définition de 625 lignes est devenue la « définition
standard » (ou SD) associée aux standards SÉCAM et PAL, la définition alternative étant le 525
lignes, principalement associée au standard couleurs NTSC.

Apparue dès la fin des années 1980 au Japon avec la norme analogique MUSE, la télévision
HD a été exploitée au début des années 1990, toujours en analogique, par la norme
européenne HD Mac au format image 16/9 et 1 250 lignes. Ces deux normes TVHD ont dû être
exploitées exclusivement par satellite du fait de la grandeur de bande passante nécessaire aux
signaux. À la même époque, plusieurs marques, dont Pioneer, Sony et Panasonic, mettent sur le
marché japonais des lecteurs LaserDisc « Hi Vision ». Dans la foulée, une centaine de
programmes seront commercialisés, dont 34 films ; les meilleurs résultats sont toutefois atteints
par les documentaires directement filmés avec des caméras à haute définition, puis traités
numériquement pour être adaptés à la norme MUSE. À la même époque, plusieurs magnétoscopes
W-VHS sont également commercialisés par JVC. Avec l'arrivée des normes numériques
européennes, puis internationales Digital Video Broadcasting et MPEG, les premières
expérimentations de télédiffusion HD numérique par satellite sont réalisées en Europe, à partir de
1996. La norme DVB exploitant les formats MPEG-2 est commercialement lancée par plusieurs
ensembles de chaînes à péage par satellite, à partir de 1996. Avec l'introduction de la télévision
numérique terrestre, à la fin des années 2000, au Japon, aux États-Unis puis en Europe, le
format MPEG-4, grâce à de meilleures performances que le MPEG-2, a permis que la HD soit
captée via une antenne TV de type « râteau ».
 Le pitch : c’est l’espace « vide » entre chaque pixel. Ce pitch se calcul simplement en prenant
la résolution de l’écran et sa dimension. Plus le pitch est fin, et meilleure est la résolution. Si
le pitch est important, l’œil verra ces trous dans l’image, et regarder ces images fixement sera
plus difficile.
 Le temps de réponse : Pour faire simple, c’est le temps que met un pixel pour s’allumer et
s’éteindre. Plus le temps de réponse est bas, et meilleure sera l’image en particulier lors de
scènes d’action rapides. Lorsque le temps de réponse est élevé, on constate un scintillement
dans l’image, ou des images qui se floutent lors de déplacements rapides. Attention cependant
car ce temps de réponse n’est pas toujours mesuré de la même manière. Il peut être donné un
chiffre de noir à noir ou de gris à gris. Le temps pour un noir à noir est bien évidement plus
long qu’un gris à gris, mais n’implique pas que l’écran soit de moins bonne qualité. Ces 2
valeurs sont tout simplement pas comparables.
 La luminosité : Le fait que cette valeur soit important ne change pas la qualité de l’écran.
Plus l’écran est lumineux, et plus il fatiguera les yeux en les aveuglant. Par contre, si vous êtes
amené à utiliser votre écran en plein soleil, une valeur élevée pourra être utile. En
environnement de travail, la luminosité d’un écran est autour de 100 cd/m2.
 Le contraste : il s’agit du rapport entre le blanc et le noir. Le blanc étant assez facilement le
même blanc sur tous les écrans, un taux de contraste élevé augmentera la pureté du noir. A
l’inverse, un contraste faible donnera un rendu des noirs par vraiment noir, mais plutôt gris. Le
rendu de toutes les couleurs foncées pâtiront du même problème.
 L’angle de vision : C’est la possibilité de regarder votre écran sans être obligatoirement en
face. Lorsque l’on se déplace sur les côtés ou en vertical, l’image devient plus sombre, voir
disparaître complètement pour laisser place à un écran noir. Vous pouvez corriger cet aspect
en changeant l’orientation de l’écran, mais si plusieurs utilisateurs doivent regarder l’écran en
même temps, il faudra un angle plus important.
 Le type de raccordement : pour raccorder l’écran sur l’ordinateur, il existe de nombreux type
de connectique : VGA (HD15), HDMI, DVI. Le VGA est le plus ancien (1987). Le signal est
de qualité médiocre, surtout sur des grandes longueurs de câble. Il ne permet pas de faire
passer de fortes résolutions. Le DVI et le HDMI sont plus récents et sont des signaux
numériques, et permettent une meilleure qualité de transmission de l’image entre votre carte
graphique et votre écran. La différence entre les 2 est que le DVI ne s’occupe que de la vidéo,
alors que le HDMI peut transmettre aussi bien le son que la vidéo.

Vous aimerez peut-être aussi