Culture Digitale
Culture Digitale
Introduction
communiquer. Mais pourquoi nos aînés ont-ils inventé l'ordinateur ? Un des facteurs
était ce désir profond de dépasser les limites humaines en matière de calcul et de traitement de
l'information
Le premier ordinateur représentait une simple « machine à calculer ». Il était sous forme de Boulier
(voir figure 1) en bois que l’on appelle aussi Abacque et a été créé en l’an 3000 avant Jesus- Christ en
chine Antique. Il était évidemment très basique, c’est pour cela que les scientifiques l’ont amélioré au
fil des années. En raison de sa conception simple mais efficace, le Boulier a représenté un outil de
calcul essentiel pendant des siècles, bien avant l'avènement des ordinateurs modernes. Cet outil,
composé de perles glissées sur des tiges fixées dans un cadre en bois, permettait de réaliser des
ainsi que des calculs plus complexes tels que la racine carrée
2
Première génération des ordinateurs (1940 – 1950)
La première génération d'ordinateurs, qui a émergé entre 1940 et 1950, marque une période
révolutionnaire dans le domaine de la technologie informatique. Cette ère est caractérisée par
l'invention et le développement des premiers ordinateurs électroniques à grande échelle. Parmi ces
machines pionnières, l'ENIAC (Electronic Numerical Integrator and Computer) est sans doute l'une des
plus emblématiques. Conçu et construit entre 1943 et 1945, l'ENIAC fut l'un des premiersordinateurs
entièrement électroniques et programmables. D’une taille colossale, cet ordinateur pesait environ 27
tonnes et mesurait près de 2.4 mètres de haut, presque 1m de large et s’étendait sur 30 mètres de
long.. Sa conception massive était principalement due à l'utilisation de tubes à vide,aussi appelés tubes
cathodiques, qui étaient les principaux composants électroniques de l'époque. Contrairement aux
ordinateurs modernes qui fonctionnent sur un système binaire (représentant les données par des 0 et
des 1), l'ENIAC était basé sur la représentation décimale des nombres. Cela signifie qu'il utilisait le
système numérique à dix chiffres (de 0 à 9, voir séquence n°4) pour le calcul et le traitement des
données. Cette particularité, bien que moins efficace que le système binaire, était une approche
révolutionnaire à l'époque et permettait à l'ENIAC de réaliser une variété de calculs complexes,
notamment pour des applications militaires telles que le calcul des trajectoires d'artillerie.
L'avènement du transistor dans les années 1950 représente un tournant majeur dans l'histoire de
la technologie informatique et électronique. Cette innovation a permis de remplacer les tubes à vide
encombrants et inefficaces, révolutionnant ainsi la conception et la fonctionnalité des ordinateurs
(figure 2 et 3).
Figure 3 : Transistors
Les transistors, étant beaucoup plus petits, plus fiables et plus économes en énergie que les
tubes à vide, ont permis de concevoir des ordinateurs de la deuxième génération qui étaient
significativement moins volumineux, consommaient moins d'électricité et dissipaient beaucoup moins
de chaleur. Le TRADIC (Transistor Digital Computer), développé pour l'US Air Force, fut l'un des
premiers ordinateurs entièrement basés sur des transistors. Mis en service en 1954, le TRADIC
3
symbolisait une avancée considérable par rapport à ses prédécesseurs de la première génération. Alors
que l'ENIAC utilisait des milliers de tubes à vide, le TRADIC fonctionnait avec environ 800 transistors,
ce qui rendait sa taille beaucoup plus gérable et son fonctionnement plus stable et efficace. L'utilisation
de transistors a non seulement permis une réduction de taille, mais a également entraîné une baisse
significative des coûts de fonctionnement et de maintenance. Les transistors étaient moins
susceptibles de surchauffer et avaient une durée de vie beaucoup plus longue que les tubes à vide.
En outre, le passage aux transistors a permis une augmentation de la vitesse detraitement des
données, ouvrant la voie à des performances informatiques plus rapides et plus fiables. Cette seconde
génération d'ordinateurs a également vu l'introduction de nouvelles méthodes de stockage de données
et l'utilisation de langages de programmation de haut niveau, ce qui a rendu les ordinateurs plus
accessibles et polyvalents. Ces avancées ont considérablement élargi les applications possibles des
ordinateurs, les rendant utiles dans un éventail beaucoup plus large de domaines scientifiques,
commerciaux et gouvernementaux. En résumé, le remplacement des tubes àvide par des transistors a
marqué une étape cruciale dans l'évolution des ordinateurs. Cette transition a non seulement
miniaturisé et optimisé les ordinateurs, mais a également jeté les bases pour le développement
ultérieur de technologies informatiques toujours plus avancées.
Les années 1960 ont été une période de changements révolutionnaires dans le domaine de la
technologie informatique, marquée par l'introduction des circuits intégrés. Cette innovation a été le
moteur principal de la miniaturisation des ordinateurs, conduisant à l'émergence de la troisième
génération d'ordinateurs, souvent qualifiée de génération des « mini-ordinateurs ». Avant cette
époque, les ordinateurs étaient de grandes machines encombrantes, souvent occupant des salles
entières. Avec l'avènement des circuits intégrés, de nombreux composants électroniques pouvaient
être emballés dans un espace très compact. Ces circuits étaient beaucoup plus petits, plus rapides et
plus fiables que les transistors et les tubes à vide utilisés dans les générations précédentes. En intégrant
plusieurs transistors et autres composants électroniques sur une seule puce de silicium, les circuits
intégrés ont permis une réduction significative de la taille et de la consommation d'énergie des
ordinateurs, tout en augmentant leur puissance et leur efficacité.
4
L'IBM System-360, introduit en 1964, est un exemple phare de cette troisième génération. En plus de
leur taille réduite, les mini-ordinateurs offraient une meilleure gestion de la mémoire, des capacités
de traitement de données plus avancées et une plus grande fiabilité. Ces machines étaient beaucoup
plus accessibles et économiquement viables pour les petites et moyennes entreprises, ouvrant ainsi la
voie à une utilisation plus répandue des ordinateurs dans divers secteurs.
L'émergence des micro-ordinateurs dans les années 1970 a marqué un tournant décisif dans
l'histoire de l'informatique, rendant la technologie accessible et abordable pour le grand public. Cette
révolution a été rendue possible grâce à l'invention du microprocesseur (voir séquence 3), undispositif
intégrant toutes les fonctions d'un processeur d'ordinateur sur un seul circuit intégré. Ce progrès a
permis de réduire considérablement la taille et le coût des ordinateurs, ouvrant la voie à la création
des premiers ordinateurs personnels. En 1972, le Micral N (voir figure 7), souvent considéré comme le
premier micro-ordinateur commercial, a été introduit. Utilisant l'Intel 8008, l'un des premiers
microprocesseurs disponibles sur le marché, le Micral N représentait une innovation significative.
Figure 7 : Micral N
5
Contrairement aux ordinateurs de bureau et aux mini-ordinateurs de l'époque, qui étaient
relativement grands et coûteux, le Micral N était plus compact et abordable, ciblant principalement
les entreprises et les établissements d'enseignement. L'année suivante, en 1973, le centre de
recherche Xerox Parc a franchi une étape supplémentaire dans l'évolution des micro-ordinateurs avec
la conception du Xerox Alto. Le Xerox Alto était révolutionnaire, non seulement pour son utilisation
d'un microprocesseur, mais aussi pour son intégration de technologies qui allaient devenir des
standards dans les ordinateurs personnels modernes. Il était équipé d'un clavier pour la saisie de
données, d'un moniteur pour l'affichage graphique, et, fait marquant, il introduisait l'utilisation d'une
souris comme dispositif de pointage. Cette interface utilisateur graphique (GUI - Graphical User
Interface) était une nouveauté, offrant une manière plus intuitive d'interagir avec l'ordinateur par
rapport aux interfaces en ligne de commande utilisées auparavant (figure 8).
Le Xerox Alto, bien qu'initialement destiné à un usage interne et à la recherche, a eu un impact profond
sur l'industrie informatique. Il a inspiré de nombreux aspects des ordinateurs personnels qui allaient
suivre, y compris les célèbres Apple Macintosh et Microsoft Windows. Son design innovant a jeté les
bases des systèmes informatiques interactifs et conviviaux que nous utilisons aujourd’hui.
Conclusion
6
Les principaux composants d’un ordinateur
Introduction
Bienvenue dans le cours dédié à cette deuxième section, vous découvrez les principaux
composants d'un ordinateur qui le rendent extraordinaire, fonctionnel et efficace. Un ordinateur, qu'il
soit aussi grand qu'une salle de serveurs ou aussi petit qu'un ordinateur portable, est un assemblage
complexe de composants matériels et logiciels travaillant en harmonie pour exécuter une plusieurs de
tâches. Chaque composant joue un rôle crucial, contribuant à la capacité globale de l'ordinateur de
traiter des données, d'exécuter des programmes et de communiquer avec le monde extérieur. Dans
ce cours, nous allons nous concentrer sur les éléments matériels, ou le "hardware". Nous
commencerons par le microprocesseur (CPU), le cerveau de l'ordinateur, qui effectue les calculs et les
opérations logiques nécessaires pour exécuter des programmes. Ensuite, nous examinerons la
mémoire vive (RAM), essentielle pour stocker temporairement les données pendant que le CPU les
traite. Nous aborderons également le rôle du disque dur (HDD) ou du disque à état solide (SSD), où les
données et les programmes sont stockés de manière permanente. En outre, nous explorerons les
cartes mères, qui relient tous ces composants entre eux. Ce cours vise non seulement à vous fournir
des connaissances théoriques sur les composants d'un ordinateur, mais aussi à vous aider à
comprendre comment ces pièces s'assemblent et interagissent pour créer un système informatique
fonctionnel. Que vous soyez un passionné de technologie, un étudiant en informatique, ou simplement
curieux de savoir comment fonctionne votre ordinateur personnel, ce cours vous offrira des insights
précieux et une meilleure appréciation de la technologie que vous utilisez au quotidien.
Le microprocesseur (CPU)
Le microprocesseur est l'un des composants les plus vitaux dans la structure d'un
système informatique. Il s'agit d'une puce électronique complexe qui exécute les instructions
des programmes informatiques, traitant les opérations logiques, arithmétiques, de contrôle
et d'entrée/sortie. Sa fonction est d'interpréter et d'exécuter les instructions provenant des
logiciels et des autres composants matériels.
Figure 1 : le microprocesseur
7
La performance d'un microprocesseur est déterminée par sa fréquence, mesurée en Hertz
(Hz). Un Hertz équivaut à un cycle par seconde, et dans le contexte des microprocesseurs, cela
se réfère au nombre de cycles d'opération qu'il peut exécuter en une seconde. Les
microprocesseurs modernes fonctionnent généralement à des vitesses de plusieurs gigahertz
(GHz), ce qui signifie qu'ils peuvent effectuer des milliards de cycles par seconde. Cette vitesse
élevée permet à l'ordinateur d'exécuter rapidement une multitude de tâches complexes. Il est
important de noter que la fréquence du processeur n'est pas le seul indicateur de sa
performance globale. D'autres facteurs, tels que le nombre de cœurs (unités de calcul
indépendantes au sein d'un seul microprocesseur), la taille de la mémoire cache (une petite
quantité de mémoire très rapide située sur le processeur), et l'architectureglobale du
processeur, jouent également un rôle essentiel. Par exemple, un processeurmulti-cœur
peut exécuter plusieurs instructions simultanément, améliorant ainsi l'efficacité globale de
traitement, surtout pour les applications multitâches ou multithreads. En outre, le
microprocesseur est conçu pour travailler en tandem avec d'autres composants clés de
l'ordinateur, comme la mémoire vive (RAM), pour optimiser le traitement des données ou la
mémoire ROM pour srocker certaines. L'interaction entre le microprocesseur et la RAM est
cruciale, car elle permet un accès rapide aux données nécessaires pour exécuter des
programmes et des opérations. En conclusion, le microprocesseur est un élément central de
la technologie informatique, agissant comme le moteur principal qui alimente toutes les
fonctions de l'ordinateur. Sa vitesse et ses capacités déterminent non seulement la rapidité
avec laquelle les tâches sont exécutées, mais aussi la capacité de l'ordinateur à gérer des
programmes et des applications complexes. C'est grâce à l'évolution continue des
microprocesseurs que nous bénéficions aujourd'hui d'ordinateurs toujours plus rapides, plus
puissants et plus efficaces.
La mémoire vive, ou RAM, est un composant crucial de tout ordinateur, jouant un rôle
central dans la détermination de sa performance globale (voir figure 2).
8
Figure 2 : mémoire RAM
La RAM est une forme de stockage de données à court terme qui permet à votre ordinateur
d'accéder rapidement aux fichiers et instructions nécessaires pendant une session active.
Contrairement à la mémoire de stockage à long terme, comme un disque dur ou un SSD, qui
conserve les données même lorsque l'ordinateur est éteint, la RAM est conçue pour être
rapide et volatile (ce qui signifie que toutes les informations qu'elle stocke sont perdues
lorsque l'ordinateur est éteint ou redémarré). Lorsque vous utilisez un programme ou un
fichier sur votre ordinateur, il est temporairement chargé dans la RAM. Cela permet au
processeur d'accéder rapidement aux données nécessaires, car la RAM est beaucoup plus
rapide que les disques durs traditionnels ou même les SSD. Cette rapidité est essentielle pour
le multitâche et pour exécuter des applications lourdes ou des jeux, car elle permet à
l'ordinateur de gérer simultanément plusieurs tâches sans ralentissement significatif. La
capacité de la RAM est un facteur déterminant de la fluidité de fonctionnement de votre
ordinateur. Une RAM de grande capacité, disons de plus de 4 gigaoctets, permet à votre
système de gérer plus d'informations simultanément et réduit les risques de ralentissement
ou de blocage. Dans les environnements exigeants, comme le montage vidéo, le gaming ou le
rendu 3D, une RAM élevée est souvent indispensable pour assurer une performance optimale.
Etant volatile, elle se différencie des types de stockage permanent comme les disques durs ou
les SSD, où les données restent préservées après l'extinction de l'ordinateur. Cette
caractéristique rend la RAM idéale pour le stockage temporaire et l'accès rapide aux données,
mais non adaptée pour le stockage à long terme.
Outre la mémoire vive (RAM), un élément crucial dans la constitution d'un ordinateur est la
mémoire morte, ou ROM (Read-Only Memory) présentée sur la figure 2.
9
Figure 2 : Mémoire ROM (Read Only Memory)
La ROM joue un rôle fondamental, distinct de celui de la RAM, dans le fonctionnement global
de l'ordinateur. Contrairement à la RAM, qui est une mémoire volatile (c'est-à-dire que son
contenu est perdu lorsque l'alimentation est coupée), la ROM est une mémoire non volatile.
Cela signifie que les informations et les instructions stockées dans la ROM sont préservées
même lorsque l'ordinateur est éteint ou redémarré. La mémoire ROM contient des
instructions essentielles pour les opérations de base de l'ordinateur, notamment le firmware
ou le logiciel système intégré qui démarre l'ordinateur. L'un des composants les plus
importants stockés dans la ROM est le BIOS (Basic Input/Output System), un ensemble de
directives qui gère la communication entre le système d'exploitation et les périphériques
matériels de l'ordinateur. Lorsque vous allumez votre ordinateur, c'est le BIOS qui s'initialise
en premier. La ROM est également utilisée pour stocker des micrologiciels ou firmware pour
divers périphériques matériels, comme les cartes mères, les disques durs et les lecteurs
optiques. Ces micrologiciels permettent de contrôler les fonctions de base de ces dispositifs,
indépendamment du système d'exploitation ou des logiciels installés sur l'ordinateur. Il est à
noter que, bien que la ROM soit principalement conçue pour être lue et non modifiée,
certaines formes de ROM, comme l'EEPROM (Electrically Erasable Programmable Read-Only
Memory), permettent une réécriture sous certaines conditions. Cela permet la mise à jour du
firmware ou d'autres instructions systèmes sans avoir à remplacer physiquement la puce de
mémoire.
Le disque dur
Le disque dur est un composant fondamental de l'ordinateur, jouant un rôle clé dans le
stockage de données de manière permanente. Contrairement à la mémoire vive (RAM), qui
stocke temporairement les données utilisées par l'ordinateur pendant qu'il est en marche, le
10
disque dur conserve les informations même lorsque l'ordinateur est éteint. Cela inclut le
système d'exploitation, les logiciels, et les fichiers personnels tels que les documents, les
photos et les vidéos. Il existe principalement trois catégories de disques durs, différenciées
par leur type de connexion et leur technologie de stockage :
1- Disques Durs IDE (Integrated Drive Electronics) : Les disques durs IDE, également
connus sous le nom de disques durs ATA, étaient courants dans les ordinateurs plus anciens.
Ils utilisaient une interface parallèle pour connecter les disques durs à la carte mère. Bien que
largement remplacés dans les nouveaux systèmes, ils peuvent encore être trouvés dans les
ordinateurs plus anciens.
2- Disques Durs SATA (Serial Advanced Technology Attachment) : Les disques durs
SATA sont une évolution des disques durs IDE, offrant des vitesses de transfert de données
plus élevées et une meilleure efficacité grâce à leur interface série. Ils sont devenus le
standard pour les disques durs modernes dans les ordinateurs de bureau et les ordinateurs
portables en raison de leur facilité d'intégration et de leur performance améliorée parrapport
aux disques IDE.
3- Disques SSD (Solid State Drives) : Les disques SSD représentent une avancée
significative en matière de stockage de données. Contrairement aux disques durs traditionnels
qui utilisent des disques rotatifs et des têtes de lecture/écriture mécaniques, lesSSD utilisent
des puces de mémoire flash sans pièces mobiles. Cela les rend non seulement plus rapides en
termes de temps d'accès et de vitesse de transfert des données, mais aussi plus résistants aux
chocs et aux vibrations. Toutefois, il est important de noter que les SSD peuvent être plus
susceptibles à certains types d'usure numérique, comme l'usure des cellules de mémoire flash
due à des réécritures répétées. Il est essentiel de choisir le type dedisque dur en fonction de
vos besoins spécifiques. Les disques durs SATA offrent un bon équilibre entre coût, capacité
et performance pour un usage général, tandis que les SSD sont préférables pour des
performances élevées, notamment dans les applications nécessitant un accès rapide aux
données, comme les jeux vidéo ou les logiciels de montage vidéo. Les SSD sont également une
excellente option pour les ordinateurs portables en raison de leurrésistance aux chocs et de
leur faible consommation d'énergie.
La figure 3 présente ces types de disques durs :
11
Figure 3 : Mémoire ROM (Read Only Memory)
Important
Tous les composants ayant pour objectif de stocker une quantité d’informations tels que la
mémoire RAM ou ROM ou le disque dur disposent d’une capacité de stockage. Celle-ci est
peut être exprimée en bit (b), et bytes (en français octet). Un bit correspond à une valeur
binaire 0 ou 1. Un octet est équivalent à 8 bits. Vous aurez ainsi compris que toutes les
informations de l’ordinateurs sont codée en bits et donc en octets. Nous allons revenir plus
en détail sur la partie du codage de l’information lors de la séquence n°4 de ce module.
12
Résumé
Mémoire Vive (RAM) : Mémoire temporaire utilisée pour stocker les données des
programmes en cours d'exécution. Une capacité de RAM plus élevée permet un meilleur
multitâche et une exécution plus fluide des applications.
Mémoire Morte (ROM) : Mémoire non-volatile contenant des données essentielles pour le
démarrage et le fonctionnement de base de l'ordinateur, comme le BIOS.
Disque Dur : Utilisé pour le stockage permanent des données. Il existe différents types, y
compris les disques durs IDE, SATA, et les disques SSD.
Carte Mère : Le composant qui relie tous les autres composants de l'ordinateur, permettant
leur communication et interaction.
13
Les périphériques d’entrée et de sortie
Introduction
Définition
Types de périphériques
14
• Les périphériques d’entrées
Parmi les périphériques d’entrées nous pouvons citer en premier lieu : le clavier. Ce dernier
permet de saisir des informations dans l’ordinateur.
2ème périphérique d’entrée est L’écran tactile. Grace au toucher de l’écran, nous pouvons
saisir des informations à transmettre à l’utilisateur.
3ème périphérique d’entrée : la souris. Elle permet le pointage sur l’interface utilisateur (ca
veut dire ce qui est affiché à l’écran) des éléments graphiques.
5ème périphérique d’entrée : le microphone. Ce dernier permet d’enregistrer notre voix pour
plusieurs applications possibles : le chant, les discussions de vive voix etc.
6ème périphérique d’entrée : La webCam. Elle permet de capturer les images et les
communiquer à l’ordinateur. Elle est utilisée pour effectuer des visioconférences ou des
discussions en ligne.
8ème périphérique d’entrée : Le lecteur CD/DVD. Il permet de lire les informations à partir
d’un support de stockage nommé CD-ROM.
Nous pouvons citer par exemple l’écran ou le moniteur qui permettent de nous afficher de
l’information provenant de l’ordinateur.
15
Les haut-parleurs qui sont des dispositifs essentiels pour écouter les sons provenant de
l’ordinateur
L’imprimante est également considérée comme un périphérique de sortie car elle permet de
reproduire des textes ou images sur du papier. En d’autres termes, elle a la particularité de
transformer la sortie en une sortie imprimée.
Un autre périphérique de sortie que vous trouvez dans vos amphis est le vidéo projecteur. Ce
dernier remplace généralement l’écran en projetant les informations provenant de
l’ordinateur sur un mur ou un support blanc.
Un des exemples les plus importants est le routeur. Il permet d’acheminer les informations du
réseau internet vers l’ordinateur et vice-versa.
Le lecteur et graveur CD/DVD est un dispositif d’entrée-sortie car il permet de lire le contenu
d’un CD ou DVD mais aussi d’écrire dessus.
Finalement, la clé usb, considérée aussi comme un support de stockage, représente bien un
dispositif d’entrée-sortie du fait de sa capacité à transmettre des informations vers
l’ordinateur mais également à en récupérer.
Pour récapituler, nous avons découvert les types des périphériques informatiques ainsi que
les dispositifs associés.
16
Evolution des microprocesseurs
Introduction
Si vous lisez ce document, c’est que vous êtes probablement sur votre ordinateur ou votre
smartphone. Comme vous le savez ces dispositifs ont bouleversé note existence.
Ordinateur
Smartphone
Tablette SmartWatch
Mais savez-vous quel est le composant électronique central qui se cache derrière ces
machines et qui permet leur fonctionnement ? Dans ce grain, nous découvrirons l’architecture
du microprocesseur ainsi que son fonctionnement.
Nous avons vu dans une séquence précédente qu’en 1945 fut créé le premier ordinateur
entièrement électronique du nom d'ENIAC fonctionnant avec des tubes à vide (voir figures 2
et 3).
17
Figure 4 : transistors Figure 5 : TRADIC
En effet, ces derniers sont des composants électroniques à semi-conducteurs qui sont
beaucoup plus petits, plus fiables et consomment moins d’énergie.
Figure 6 : Microprocesseur
A l’origine, le circuit intégré a été créé en 1958 par Jack Kilby. Cet ingénieur en électronique avait pu
cabler à la main plusieurs transistors permettant de réaliser des mémoires et des unités logiques et
arithmétiques. Il existe des circuits intégrés dits analogiques et numériques. Dans cette vidéo nous
allons parler des circuits numériques.
En 1969, Marcian Off et Fréderico Fanguin ont inventé le premier microprocesseur que Intel
commercialise 2 ans plus tard sous le nom d’ Intel 4004 (voir figure 7).
18
Ce microprocesseur (Intel 4004) contenait 2300 transistors et pouvait réaliser 92600
opérations par sec à une fréquence de 740Khz. Sa performance était comparable à
l‘ordinateur Eniac qui occupait 67m2 pour un poids de 30 tonnes ! Aujourd'hui tous nos
appareils électroniques disposent de tels circuits intégrés.
La loi de Moore
Depuis les années 70, les microprocesseurs ont vu le nombre de transistors augmenté. La loi
de Moore (voir figure 7) affirmait et affirme toujours que le nombre de transistors doublerait
tous les 2ans.
Par exemple en 1970, le microprocesseur Intel 4004 comprenant 2300 transistors, alors que
les microprocesseurs actuels en contiennent des milliards (notamment le récent Intel i9-
11900K contient 17 milliards de transistors). Nous avons tellement miniaturisé les transistors
que leur finesse de gravure (voir figure 8) est passée au-dessous de 10 nanomètres
s’approchant ainsi de de la taille des atomes.
19
Fabrication des microprocesseurs
Il est important de noter que la création des microprocesseurs est un processus très
long et très complexe. Par exemple les salles dans lesquels sont créées ces puces
sont 1000 fois plus propres qu'un bloc opératoire. En effet une simple impureté pourrait
détruire un circuit intégré ! Pour plus d’information sur le processus de création des
microprocesseurs, visitez-le :
[Link] Architecture/Cours/Production/
20
Fonctionnement des microprocesseurs
Introduction
Le microprocesseur ne comprend que le langage machine qui est le langage binaire. En réalité il s'agit
de signaux électriques que capte le microprocesseur ; Le 1 veut dire qu'il y a passage du courant, et 0
non. Mais il n'est pas pratique de communiquer avec le processeur avec le langage binaire ! Pour
cela, on a traduit le langage binaire en créant la table ASCII (American Standard Code for Information
Interchange) que vous pouvez trouver facilement en ligne. Par exemple A, se traduit par 1000001, le
B par 01000010.
Par exemple Hello World! se traduit par :
H: 01001000
e: 01100101
l: 01101100
l: 01101100
o: 01101111
(Espace): 00100000
W: 01010111
o: 01101111
r: 01110010
l: 01101100
d: 01100100
!: 00100001
Architecture du transistor
21
Il se comporte comme un interrupteur commandé par la grille.
Il existe 2 types : le nmos qui laisse le courant en sortie si la grille est alimentée et le pmos (c’est
l'inverse du nmos). La combinaison de ces transistors permet de former des portes logiques. C’est
grâce à ces portes (voir figure 3) qu'on peut effectuer des calculs. Par exemple la porte ET qui prend
en sortie la valeur 1 si seulement les deux entrées valent 1. Si l'une des deux entrées vaut 0 alors la
sortie vaudra 0. La porte OU qui est différente de la porte ET vaut 1 si l’une des deux entrées vaut 1. Il
existe bien-sûr d’autres portes. La combinaison de ces portes forme l'architecture du processeur à
l'image d’une grande ville qui a des zones spécifiques, comme le processeur, qui a des zones dédiées
à la mémoire et d'autres au calculs.
Fonctionnement du microprocesseur
- Charge les données de l'instruction depuis la mémoire dans son registre d'instructions.
Le registre d'instruction contient l'adresse de l'instruction à exécuter, ainsi que les opérandes
nécessaires à son exécution.
- Décode ensuite l'instruction en utilisant les circuits de décodage, qui interprètent les bits de
l'instruction et déterminent l'opération à effectuer.
- Le microprocesseur exécute l'instruction en effectuant l'opération spécifiée sur les données. Les
résultats de l'opération peuvent être stockés dans des registres ou renvoyés à la mémoire.
22
Définition et rôles d’un microprocesseur
- Les registres sont des zones de mémoires rapides qui sont stockées temporairement afin d'exécuter
des instructions.
- La mémoire cache est une mémoire rapide qui réduit les délais d'attente des informations
stockéesen mémoire vive.
- L’unité d’instruction : lit les données qui arrivent, les code, et les envoie à l'unité de
contrôle.
- L’unité de contrôle comprend le séquenceur qui synchronise l’exécution des instructions au rythme
de l'horloge, le compteur ordinal et le registre d'instructions qui contient toutes les instructions (voir
figure 5).
- Ensuite l’unité de calcul accomplit les tâches reçues par l’unité d’instruction. L’unité de calcul
comprend la UAL (Unité Arithmétique et Logique) qui assure les calculs basiques de l’arithmétique
ainsi que les opérations logiques (voir figure 5).
23
Figure 4 : Unité de contrôle et unité de calcul
- L’unité de gestion des bus gère les flux d'informations d’entrées-sortie en interface avec la mémoire
vive
D'ici quelques années, les transistors seront tellement petits qu'on commencera à se heurter
à une limite physique et aux effets de la mécanique quantique qui viendront perturber le
fonctionnement des transistors. Ainsi il adviendra le jour où la loi de Moore ne sera plus d'actualité.
24
Cependant les chercheurs et heureusement qu'ils sont là, travaillent pour remédier à ce problème.
Une des solutions seraient d'utiliser des cylindres de nanotubes de carbones pour faciliter le passage
du courant entre les transistors afin d'éviter les problèmes liés à la mécanique quantiques.
Malheureusement on se heurtera quand meme à ce problème malgré cette solution.
Depuis quelques années, des chercheurs développent des ordinateurs quantiques. Un ordinateur
quantique utilise des bits quantiques appelés Q-bits qui peuvent prendre une valeur de 0 ou 1 ou une
superposition de 1 et de 0 . Avec ces bits quantiques, nous avons accès à des portes quantiques qui
sont différentes des portes classiques. Plus on a de qbits, plus le processeur quantique sera puissant.
Récemment google a présenté Sikamor son ordinateur quantique doté de 54 qbits. Les performances
sont inouïes. Sikamor a réalisé un calcul en quelques minutes alors qu'un ordinateur classique aurait
pris des milliers d’années avec le meme algorithme! Toutefois, il faudra plusieurs dizaines années avant
d’exploiter ces processeurs quantiques. Le problème étant que Sikamore commet beaucoup d’erreurs
à cause du coté instable des qbits, et ne peut executer qu'un seul algorithme à la fois. Autant dire qu'il
reste beaucoup à faire dans le domaine des ordinateurs quantiques !
25
Systèmes d’exploitation (SE/OS)
Introduction
De nos jours les systèmes sont très présents dans notre vie quotidienne, et ce dès
qu’on utilise un ordinateur, un téléphone ou n’importe quel système informatique. Nous
trouvons windows, mac et linux pour un ordinateur, l’IOS et Android pour les smartphones et
les tabletteset des systèmes d’exploitations qui vont être spécialisés pour des petites cartes
électroniques embarquées comme par exemple la rasspberry avec un OS raspbian.
Fonctionnalités d’un SE
Un système d'exploitation est chargé d'assurer cette liaison entre les ressources
matérielles, l'utilisateur et les applications. Ainsi lorsqu'un programme désire accéder à une
ressource matérielle, il ne lui est pas nécessaire d'envoyer des informations spécifiques au
périphérique, il lui suffit d'envoyer les informations au système d'exploitation, qui se charge de
les transmettre au périphérique concerné via son pilote.
Composants d’un SE
La partie principale d’un OS est le Noyau qui permet d’assurer ses principales
fonctionnalités. Pour des raisons de sécurité, l’utilisateur n’a pas un accès direct et libre au
noyau mais il passer par des entités intermédiaires :
● Les Interfaces de programmation d’application ou API. Sont des outils qui
permettent d’aider les développeurs à créer des programmes qui pourront
tourner sur l’OS cible.
● Les interfaces graphiques. Une interface graphique utilisateur (ou GUI) est une
interface permettant d'utiliser le système d’exploitation en utilisant des
élémentsgraphiques comme les icônes, les menus et les images pour faciliter
l'utilisationpar l'utilisateur.
27
Fonctionnalités du noyau d’un SE
A travers ce que nous définissons des appels systèmes, le noyau permet aux éléments
matériel et logiciel de communiquer entre eux, de fonctionner ensemble et de former un tout,
Ilassure la majorité des fonctionnalités d’un SE à savoir :
Conclusion
Pour récapituler, nous pouvons dire qu’un SE est un ensemble d’outils qui permettent à
l’ordinateur d’être stable, de se connecter à internet, de gérer la mémoire, les fichiers et le
matériel rattachés à l’ordinateur.
28
L’Histoire des Systèmes d’exploitation
Les systèmes d’exploitation ont eu une origine et une histoire qui est étroitement liée
audéveloppement de l’informatique même. Dans ce sens, nous pouvons schématiquement
distinguer quatre phases dans l’histoire des débuts des systèmes d’exploitation :
Avec l’apparition des transistors en 1956, les premiers systèmes d’exploitation ont
apparu. Cette deuxième phase est caractérisée par :
L’apparition des cartes perforées qui sont des programmes que nous
pouvonscharger et décharger en entrée et en sortie de l’ordinateur ;
Il y’a une séparation des rôles : Il y’ a le programmeur qui fabrique les cartes
perforées (les programme) et l’opérateur qui charge et décharge
physiquementces cartes dans l’ordinateur ;
29
La troisième phase (1961- 1972) :
Avec le traitement par lots, l’exploitation devient de plus en plus efficace, mais
l’utilisateur a perdu tout contrôle sur l’exécution de ses programmes. Il se contente de
déposerson travail au guichet du centre de calcul pour y récupérer les résultats quelques
heures plus tard. Si une erreur typographique mineure arrête la compilation, l’utilisateur doit
alors corrigeret tout [Link] solution passait alors par le partage d’un ordinateur
entre une communauté d’utilisateurs simultanés. C’est ainsi que commence la troisième
phase de l’histoire des systèmes d’exploitation avec la naissance de la notion du temps
partagé. Cette phase est caractérisée par :
Les phénomènes marquants dans les années 70 est la large diffusion des ordinateurs
personnels à la suite de la réalisation des premiers microprocesseurs, C’est un processeur
miniaturisé qui tient dans un seul circuit intégré. Il gère l’exécution des instructions de
l’ordinateur. Cette phase qui marque les systèmes d’exploitation modernes est caractérisée par
:
30
L’Histoire des Systèmes d’exploitation WINDOWS
Depuis son apparition, Windows n'a cessé de monter en popularité auprès du public.).
Avec 87 % de parts de marché (contre 10% pour l'OS d'Apple, le deuxième de la liste), Windows
est le système d'exploitation le plus utilisé au monde. Nous allons faire un retour surl’histoire
des systèmes Windows et quelques-unes de ses versions les plus connues et qui ont marquées
les dernières décennies.
L’histoire de Windows commence dans les années 1970. Au bureau, on utilise des
machines à écrire. Rares sont ceux qui ont entendus parler de micro-ordinateurs, mais deux
passionnés d’informatique, Bill Gates et Paul Allen comprennent que l’avenir passera par
l’ordinateur personnel. L’histoire commence en 1975 au Nouveau-Mexique aux États-Unis.
C’est là que les deux amis d’enfance, fondent la société Microsoft.
MS-DOS (1981) :
En juin 1980, Gates et Allen embauchent Steve Ballmer, un autre camarade d’études,
et en 1981, la petite équipe lance MS-DOS signifiant «Microsoft Disk Operating System». Avec
MS-DOS, Microsoft propose un système d’exploitation fonctionnant intégralement et
exclusivement en ligne de commandes sans aucune interface graphique.
Windows 1 (1985) :
Afin de rendre MS-DOS facile à utilisation par un grand public, grâce à une accessibilité
plus visuelle, Windows 1 naît en 1985. Lors de sa sortie Windows 1 s'appuyait beaucoup sur
l'utilisation de la souris. D'ailleurs, pour aider les nouveaux utilisateurs à se familiariser à
l'usage de cette souris, le jeu Reversi a été intégré dans l'interface du windows1. La première
version de Windows comprenait notamment les logiciels suivants : Paint, Calculator, Notepad
et Write (l'outil de traitement de texte).
Windows 3 (1990) :
Windows 3 s’est imposé grâce à la gestion des lecteurs CD-ROM et carte sons, un
énorme pas en avant pour l'époque. Il signe également l’arrivée du fameux jeu du Solitaire.
Windows 95 (1995) :
Windows 95 est le réel tournant dans le monde de l'informatique, avec son immense
renouveau graphique. C'est avec cet OS que Microsoft introduit la barre des tâches, le menu
démarrer et la corbeille.
Windows XP (2001) :
Avec Windows XP, Microsoft commence à marquer les esprits avec son fameux fond
d'écran qui est considérée comme l'une des photos les plus vues au monde. XP s’est démarqué
grâce à une interface moins rigide, une sécurité accrue et beaucoup de nouvelles
fonctionnalitéscomme le service de bureau à distance.
31
Windows Vista (2007) :
Le XP étant très critiqué sur le côté de la sécurité, Microsoft voulait révolutionner avec
la mise en place de Windows Vista. Mais, Suite aux rapports attestant que Vista n'était pas aussi
sécurisé que Microsoft l'avançait ont contribué au désintérêt du public qui a rapidement su
retourner auprès de Windows XP.
Windows 7 (2009) :
Après l’échec de Vista, Microsoft repense ses priorités pour se concentrer sur la sécurité
et surtout la satisfaction utilisateurs avec Windows 7, baptisé simplement Seven.
Windows 10 (2015) :
Windows 10 a apporté son lot de nouveautés avec Cortana et surtout le Microsoft Edge.
Il constitue la nouvelle identité de Microsoft, avec une approche en tant que service qui est
maintenu par des mises à jour annuelles majeures et gratuites.
Windows 11 (2021) :
Windows 365 :
Au fil du temps et alors que les appareils électroniques ont révolutionné notre façon
devivre, Windows a une place toujours prépondérante sur nos ordinateurs, à défaut
d'avoir réussi à percer sur les smartphones. La question qui reste à poser : Quelle
position tiendra Windows dans le futur marché de l’IA et du metaverse qui semblent
bien être l'avenir de nos vies en ligne.
32
TP : Découverte de l’Interface Windows
Matériel nécessaire :
1. Découverte du Bureau :
Identifier les icônes par défaut sur le bureau (Corbeille, Ce PC, etc.).
Créer un nouveau dossier sur le bureau et le renommer.
2. Personnalisation du Bureau :
Changer le fond d'écran du bureau via les Paramètres > Personnalisation > Arrière-
plan.
Afficher les icônes du bureau : Pour ajouter des icônes sur le bureau, telles que Ce
PC, Corbeille, etc. :
Sélectionnez le bouton Démarrer, puis
Sélectionnez Paramètres > Personnalisation > Thèmes.
Sous Thèmes> Paramètres associés, sélectionnez Paramètres des icônes du
Bureau.
Choisissez les icônes que vous souhaitez afficher sur votre bureau, puis
sélectionnez Appliquer et OK.
Partie 2 : Utilisation de la Barre des Tâches
Identifier les différentes zones de la barre des tâches (zone de lancement rapide,
zone de notification).
Épingler l’application Bloc-notes à la barre des tâches.
4. Gestion des Fenêtres :
Ouvrir plusieurs applications et utiliser la barre des tâches pour naviguer entre elles.
Utiliser les fonctionnalités de la barre des tâches pour minimiser, maximiser et
fermer des fenêtres.
Partie 3 : Le Menu Démarrer
33
Ouvrir le menu Démarrer et identifier ses différentes parties (liste des applications,
tuiles dynamiques, bouton d’arrêt).
6. Recherche de Programmes et de Fichiers :
34
TP : Gestion des dossiers et des fichiers
l'environnement Windows.
Matériel nécessaire :
Navigation et exploration :
couper/coller.
35
7. Compresser le dossier "Culture Digitale" en utilisant WinRAR ou un autre outil de
compression normale.
36
Histoire d’Internet
I. Introduction
Dans cette partie du cours, nous allons explorer les différentes étapes d'évolution d'internet.
De ses débuts modestes dans les années 1960 à son omniprésence aujourd'hui, nous allons
retracer l'histoire de cette technologie qui a changé le monde.
Dans les années soixante, il existait aux États-Unis de gros centres de calcul abritant de très
gros ordinateurs. Ces ordinateurs étaient reliés entre eux par des câbles qui leur
permettaient de transporter l'information numérique : c’est ce qu’on appelle des réseaux
informatiques (en anglais network souvent abrégé en net).
En période de guerre froide, les États-Unis avaient peur que les centres de calcul soient
bombardés ou une ligne qui reliait 2 centres soit coupée. Il fallait pouvoir communiquer
entre des centres stratégiques et pouvoir bénéficier à distance des résultats des
supercalculateurs même en cas d'attaque nucléaire. Ainsi Ils ont demandé aux chercheurs de
proposer un système qui serait tolérant aux pannes ou aux bombes!
L'idée a été de multiplier les centres et d'interconnecter les réseaux de chaque centre. Pour
protéger l'ensemble, la proposition a été de multiplier les chemins entre centres. Ainsi si un
centre explosait ou qu'une ligne était coupée, les autres centres pourraient encore
communiquer entre eux en passant par d'autres chemins : c’est la naissance d'ARPANET
(1971).
1983 : Adoption du mot « Internet » pour signifier qu'il s'agit d'une interconnexion de
réseaux.
38
Et 1989 on est passé 100 000 ordinateurs inter-connectés.
A cette époque, internet était principalement utilisé pour la communication entre les
scientifiques et les universités.
Dans les années 1990, Internet a connu une croissance exponentielle avec l'arrivée World
Wide Web inventé par Tim Berners en 1991 et la popularisation des navigateurs web comme
mosaic développé en 1993 et internet explorer arrivé en 1995.
Cette année a été aussi marquée par le lancement du moteur de recherche Yahoo suivi par
l’arrivé de google en 1998
les moteurs de recherche ont simplifié la navigation sur le WEB, et ont permis aux
utilisateurs de trouver facilement l’ information dont ils avaient besoin. Ce qui a contribué à
la popularisation d’internet.
Dans les années 2000, le Web 2.0 est apparu, introduisant des sites de réseaux sociaux tels
que Facebook, Twitter et LinkedIn. Ainsi les utilisateurs sont passé du web 1.0 où les ils
pouvaient uniquement consulter du contenu statique, tels que des pages web simples et des
images au web 2.0 où il pouvaient créer et partager du contenu en temps réel, ainsi que de
collaborer avec d'autres personnes en ligne.
39
5. Partie 5 - L'Internet des objets
Aujourd'hui, nous sommes entrés dans l'ère de l'Internet des objets, où les appareils et les
objets peuvent se connecter à Internet et échanger des données entre eux. Les voitures, les
montres intelligentes, les appareils domestiques et même les villes intelligentes font
désormais partie de l'Internet des objets.
6. Conclusion
Voilà, nous avons vu les différentes étapes de l'évolution d'internet, depuis ses débuts
modestes dans les années 1960 jusqu'à son omniprésence aujourd'hui. Internet a changé, et
il est passionnant de voir comment cette technologie continuera à évoluer à l'avenir
particulièrement avec l’émergence de l’intelligence artificielle qui représente un nouveau
chapitre passionnant dans l'évolution d'internet
Références
40
Comment fonctionne Internet ?
Introduction
Internet est un réseau mondial de milliards d'ordinateurs connectés les uns aux autres, ce qui
permet à des personnes du monde entier de communiquer, de partager des informations, de
travailler ensemble, et bien plus encore. Pour comprendre le fonctionnement complexe
d'Internet, il est crucial de se familiariser avec trois concepts clés : les adresses IP, le DNS et
les routeurs. Nous allons explorer en détail chacun de ces éléments essentiels et découvrir
comment ils s'harmonisent pour créer le réseau global que nous connaissons aujourd'hui.
1. Adresse IP
Types d'adresses IP :
Il existe deux versions d'adresses IP largement utilisées : IPv4 (Internet Protocol version 4) et
IPv6 (Internet Protocol version 6).
IPv4 :
Les adresses IPv4 sont généralement représentées sous forme de quatre nombres séparés par
des points, comme [Link]. Chaque nombre peut varier de 0 à 255, ce qui offre environ
4,3 milliards d'adresses possibles. Cependant, avec la croissance rapide d'Internet, le nombre
d'adresses IPv4 disponibles s'est épuisé.
IPv6 :
Pour résoudre le problème de pénurie d'adresses IPv4, IPv6 a été introduit. Les adresses IPv6
sont beaucoup plus longues, composées de huit groupes de quatre chiffres hexadécimaux,
séparés par des deux-points, par exemple, [Link].
Avec IPv6, il y a suffisamment d'adresses uniques pour répondre aux besoins futurs d'Internet.
41
2. DNS (Système de Noms de Domaine)
Le DNS (Domain Name System) est un autre pilier du fonctionnement d'Internet. Alors que
les adresses IP sont essentielles pour les appareils, les humains ont tendance à se souvenir
plus facilement des noms de domaine (comme [Link]) que des longues séquences
de chiffres qui composent les adresses IP.
Fonctionnement du DNS :
Le DNS agit comme un traducteur entre les noms de domaine et les adresses IP. Lorsque vous
saisissez un nom de domaine dans votre navigateur pour accéder à un site Web, le navigateur
envoie une requête au serveur DNS. Ce serveur recherche alors l'adresse IP correspondant au
nom de domaine demandé et renvoie cette information au navigateur, qui peut ensuite établir
la connexion avec le site Web.
3. Routeurs
Les routeurs jouent un rôle crucial dans la connectivité et l'acheminement des données sur
Internet. Ils sont essentiels pour relier différents réseaux entre eux et permettre la
transmission des informations.
Imaginez que vous envoyez un courrier à quelqu'un vivant à l'autre bout du monde. Le courrier
passe par plusieurs endroits différents avant d'atteindre sa destination, comme des bureaux
de poste, des centres de tri, des avions, etc. De manière similaire, lorsque vous envoyez des
données sur Internet, elles passent par de nombreux routeurs différents avant d'arriver à leur
destination.
Les routeurs utilisent des tables de routage pour déterminer le chemin le plus court et le plus
fiable pour acheminer les paquets de données d'un point à un autre sur le réseau. Ces tables
sont mises à jour en permanence pour optimiser les chemins en fonction des conditions du
réseau.
42
Conclusion
En conclusion, l'adresse IP, le DNS et les routeurs sont des éléments clés du fonctionnement
d'Internet. L'adresse IP permet à chaque appareil de communiquer avec les autres sur le
réseau, le DNS permet de traduire les noms de domaine en adresses IP, et les routeurs
assurent l'acheminement efficace des données.
Références :
43
Fonctionnement du web
I. Introduction
Dans cette section, nous allons plonger dans le monde fascinant du web et découvrir son
fonctionnement. Nous allons explorer le principe fondamental du client-serveur et
comprendre comment les URLs nous permettent d'accéder à toutes les ressources en ligne.
Le Web est un service accessible via Internet qui permet l'échange de différentes ressources,
telles que des textes, des images, des vidéos, des fichiers audio, etc. Ces ressources sont
stockées sur des serveurs distants et peuvent être consultées à l'aide de navigateurs web tels
que Chrome, Firefox ou Safari…
44
IV. Les protocoles de communication : HTTP et HTTPS
Pour que les clients et les serveurs puissent communiquer, ils doivent utiliser le même langage,
c'est-à-dire le même protocole. Ainsi un protocole est un ensemble de règles et de conventions
qui permettent à deux entités, de communiquer et d'échanger des informations de manière
structurée et organisée. Ces règles définissent le format, l'ordre et le sens des messages
échangés entre les entités pour garantir une compréhension mutuelle.
Le protocole le plus couramment utilisé sur le web est le HTTP (Hypertext Transfer Protocol),
qui permet aux clients de demander des ressources et aux serveurs de répondre à ces
requêtes.
Notez que le HTTPS (HTTP Secure) est une version sécurisée du HTTP qui garantit la
confidentialité et l'intégrité des données échangées entre le client et le serveur. Il est
fortement recommandé d'utiliser HTTPS pour protéger les informations sensibles, telles que
les mots de passe ou les données de carte de crédit.
Chaque ressource sur le web est identifiée par une URL (Uniform Resource Locator), qui est
une adresse unique permettant de localiser la ressource. Une URL est composée de plusieurs
parties, notamment le protocole, le nom de domaine et le chemin d'accès.
45
Figure 3 : Exemple d'URL
VII. Conclusion
46
Références :
1. [Link]
2. [Link]
e_Web_works
3. [Link]
47
Introduction aux technologies web de base :
HTML, CSS et JavaScript
I. Introduction
Bienvenue dans ce cours sur les technologies web de base : HTML, CSS et JavaScript. Ce sont
les trois piliers du développement web que nous allons explorer ensemble. Ces trois
technologies forment la base du développement web et sont essentielles pour créer des sites
web modernes et performants.
II. HTML
HTML, ou HyperText Markup Language , est le langage de base pour créer des pages web. Il
permet de structurer le contenu d'une page en utilisant des balises, qui définissent les
différents éléments tels que les titres, les paragraphes, les listes et les images.
Pour illustrer son fonctionnement, imaginons que vous voulez créer une page web qui
comporte un titre, un paragraphe et une image. On commence par lancer un éditeur de code
comme Sublime Text ou Visual Studio. Ensuite, on enregistre un nouveau fichier avec
l'extension .html, et on commence à rédiger le code HTML en utilisant les balises appropriées.
Une fois terminé, on peut visualiser la page en ouvrant le fichier HTML dans un navigateur
web.
Pour mettre en pratique, nous allons créer un dossier sur le bureau avec le nom "Exemple".
Puis, on lance Sublime Text, on enregistre un nouveau fichier sous le nom "[Link]". Après
avoir ouvert la balise HTML et appuyé sur la touche de tabulation, l'éditeur insère
automatiquement les balises de structure obligatoires. Dans la balise "title", on écrit le titre
qui sera affiché dans la barre de titre du navigateur. Ensuite, dans la balise "body", qui
rassemble tout le contenu de la page, on insère un titre avec la balise "h1", un paragraphe
avec la balise "p", et une image avec la balise "img". Pour ajouter l'image, on doit spécifier
l'emplacement de l'image dans l'attribut "src" de la balise "img".
48
III. CSS
CSS, ou Cascading Style Sheets, est un langage de feuilles de style qui permet de contrôler
l'apparence des pages web. Avec le CSS, vous pouvez modifier les couleurs, les polices, les
marges et bien d'autres aspects visuels de votre site web.
Pour illustrer son utilisation, reprenons notre exemple précédent. Pour modifier l'apparence
du titre et la taille de l'image, nous allons créer un fichier CSS. Pour changer la couleur du titre
"h1", nous utilisons la propriété "color" et insérons le code de la couleur souhaitée. Pour
ajuster la taille de l'image, nous définissons une hauteur et une largeur en pixels.
La dernière étape consiste à relier le fichier HTML et le fichier CSS. Pour cela, nous retournons
à notre fichier "[Link]" et ajoutons une balise "link" pour spécifier le nom du fichier CSS.
Ensuite, on enregistre les modifications apportées aux deux fichiers et on visualise le résultat
dans le navigateur.
IV. JavaScript
Enfin, nous avons JavaScript, un langage de programmation qui permet d'ajouter des
fonctionnalités interactives à votre site web et d'améliorer l'expérience utilisateur. Par
exemple, nous pourrions ajouter un code JavaScript qui change l'image lorsque la souris la
survole. JavaScript permet aussi de créer des applications web puissantes, offrant une
expérience utilisateur riche et innovante.
V. Récapitulatif
En résumé, HTML est le langage de base pour structurer le contenu d'une page web, CSS
permet de contrôler l'apparence de cette page, et JavaScript ajoute des fonctionnalités
interactives.
49
Comment fonctionnent les moteurs de
recherche ?
Introduction
Dans cette leçon, nous allons explorer les moteurs de recherche, retracer leur histoire,
informations sur le Web. Il examine et analyse des milliards de pages pour trouver les
informations les plus pertinentes en réponse à une requête spécifique.
Archie : En 1990, Archie est apparu en tant que premier moteur de recherche. Bien
que simple, il a posé les bases des moteurs de recherche modernes.
Lycos : En 1994, Lycos a été lancé et a rapidement construit un vaste index de plus de
60 millions de documents.
Yahoo : En 1994 deux étudiants de Stanford, ont créé Yahoo. Conçu à l'origine comme
Google : En 1998, Google a été créé par Larry Page et Sergey Brin. Google a introduit
l'algorithme PageRank qui a révolutionné les recherches en ligne en évaluant
l'importance des pages en fonction des liens qui pointent vers elles.
50
Bing : Un rival de Google En 2009, Microsoft a lancé Bing pour rivaliser avec Google,
bien que Google reste le leader incontesté du marché des moteurs de recherche.
1. Exploration et indexation
"spiders", pour explorer le web et collecter des informations sur le contenu des pages.
Ensuite, ces pages sont indexées, c'est-à-dire organisées et stockées dans une base de
données massive.
recherche utilise ses algorithmes pour examiner l'index et trouver les correspondances
avec les mots-clés de la requête. Les pages correspondantes sont ensuite classées en
fonction de leur pertinence, en prenant en compte des facteurs tels que la qualité du
Enfin, les moteurs de recherche affichent les résultats sur une page de résultats. Les
utilisateurs peuvent cliquer sur les liens pour accéder aux pages web qui les intéressent.
51
Conclusion
Les moteurs de recherche ont évolué au fil du temps, avec Google en tant que leader
incontesté. Leur fonctionnement repose sur l'exploration, l'indexation et le classement
des pages pour fournir des résultats pertinents aux utilisateurs. En utilisant
Dans la prochaine leçon, nous apprendrons les techniques avancées de recherche sur
Google.
52
Recherche avancée sur Google
Introduction :
Lorsque vous utilisez un moteur de recherche, il est important de savoir comment effectuer
une recherche efficace afin d'obtenir des résultats pertinents. Dans cet exemple, nous
prendrons Google comme moteur de recherche, l'un des plus populaires et largement utilisés.
Utilisation de mots-clés :
Avant de commencer votre recherche, réfléchissez aux mots-clés qui décrivent le mieux ce que
vous recherchez. Les mots-clés sont des termes ou des phrases qui définissent le sujet de votre
recherche. Ils aident le moteur de recherche à comprendre ce que vous recherchez et à trouver
des résultats pertinents. Par exemple pour rechercher les offres de stage en marketing digital
offertes à Rabat, vous pouvez saisir les mots-clés suivants dans la barre de recherche de
Google :
….
Résultats de recherche :
Une fois que vous avez saisi vos mots-clés dans la barre de recherche de Google, le moteur de
recherche va parcourir sa base de données et vous présenter une liste de résultats pertinents.
Les résultats les plus pertinents sont généralement affichés en haut de la page. Pour vous aider
à affiner votre recherche, Google propose plusieurs onglets en haut de la page de résultats,
tels que "Images", "Vidéos", "Actualités" et "Maps". Ces onglets vous permettent de filtrer vos
résultats par type de contenu.
Options avancées :
Google propose également des options avancées pour affiner davantage vos résultats de
recherche. En cliquant sur l'onglet "Outils" situé sous la barre de recherche, vous pouvez
53
accéder à ces options. Par exemple, vous pouvez choisir de filtrer les résultats par date en
spécifiant une période précise. Cela vous permet de rechercher des articles publiés
uniquement au cours des dernières 24 heures, de la dernière semaine ou du dernier mois. De
plus, vous pouvez afficher les résultats de recherche dans une langue spécifique si nécessaire.
Les opérateurs de recherche sont des symboles ou des mots-clés spéciaux que vous pouvez
utiliser pour affiner vos recherches. Ils permettent de spécifier des critères précis pour obtenir
des résultats plus pertinents.
Utilisez les guillemets ("") pour rechercher une expression exacte. Par exemple, si vous
recherchez des recettes de gâteau au chocolat, vous pouvez saisir "recette de gâteau au
chocolat" pour obtenir des résultats qui contiennent exactement cette expression.
2. Exclusion de mots :
Utilisez le tiret (-) pour exclure des mots de votre recherche. Par exemple, si vous recherchez
des recettes de gâteau au chocolat mais vous souhaitez exclure les recettes contenant des noix,
vous pouvez saisir "recette de gâteau au chocolat -noix".
Utilisez l'opérateur "site:" suivi du nom d'un site web pour limiter les résultats à ce site
spécifique. Par exemple, "site:[Link] Albert Einstein" affichera uniquement les résultats
provenant du site de Wikipédia concernant Albert Einstein.
L'opérateur "filetype" vous permet de rechercher des fichiers spécifiques sur le web. Par
exemple, si vous recherchez des présentations PowerPoint sur le changement climatique, vous
pouvez taper "changement climatique filetype:pptx" dans la barre de recherche. Google vous
montrera alors uniquement des fichiers PowerPoint liés au changement climatique.
54
Exemple : changement climatique filetype:pptx
Vous pouvez également effectuer une recherche d'images en utilisant une image existante.
Google offre une fonctionnalité appelée "Recherche par image" qui vous permet de trouver
des images similaires ou des informations supplémentaires sur une image donnée. Pour
utiliser cette fonctionnalité, vous pouvez cliquer sur l'icône de l'appareil photo à droite de la
barre de recherche de Google. Vous pouvez télécharger une image depuis votre ordinateur ou
saisir l'URL d'une image en ligne. Google analysera ensuite l'image et vous fournira des
résultats pertinents.
Conclusion :
Savoir effectuer une recherche efficace sur un moteur de recherche comme Google est
essentiel pour trouver rapidement et précisément les informations recherchées. En utilisant
des mots-clés pertinents, en explorant les options avancées et en utilisant les opérateurs de
recherche, vous pouvez affiner vos résultats et obtenir des réponses plus précises.
Références
[Link]
55
INTRODUCTION À L’INTELLIGENCE ARTIFICIELLE
Introduction
L'intelligence artificielle est en train de changer le monde, mais elle reste pourtant incomprise
par de nombreuses personnes. Ce cours a pour objectif de donner une petite introduction au
fonctionnement de l'intelligence artificielle. Principalement : Quelques définitions, les
concepts de base, les cas d'usage et les applications de l’IA.
1. Qu'est-ce que l'Intelligence artificielle ?
Selon les définitions des dictionnaires : Larousse définit l’intelligence artificielle comme étant
un ensemble de théories et de techniques mises en œuvre en vue de réaliser des machines
capables de simuler l'intelligence humaine. Tandis que l’encyclopédie Britannica définit
l’intelligence artificielle comme étant la capacité d'un ordinateur ou d'un robot contrôlé par
ordinateur à effectuer des tâches généralement associées à des êtres intelligents.
John Nilsson : Professeur en ingénierie informatique à l’université de Stanford
et l’un des pionniers de l’intelligence informatique définit l'intelligence
artificielle comme étant l'activité qui vise à rendre les machines intelligentes,
et l'intelligence dans cas, est la qualité qui permet à une entité de fonctionner
de manière appropriée et prévoyante dans son environnement.
Ce qu'il faut donc retenir c'est que l'intelligence artificielle est une imitation de l'intelligence
et non pas une intelligence telle qu'on peut le concevoir chez des animaux voire chez des êtres
humains
2. Types d’interactions dans le domaine de l’IA
Maintenant, on verra à quoi ça sert l’intelligence artificielle ? Pour cela, on va illustrer deux
types d'interactions assez différentes :
57
La première est une interaction avec une base de données des images par exemple. Ce
serveur va envoyer les données à l'intelligence artificielle que l'on va appeler ici un agent et
cet agent va restituer des résultats Cela crée ainsi une boucle.
La deuxième est une interaction avec un environnement comme par exemple une machine
de production ou un jeu vidéo. Dans ce cas, on ne va plus se retrouver avec des données brutes
mais avec un environnement. Cet environnement va renseigner l'agent de l'état du jeu. Puis,
l'agent va répondre par une action à effectuer sur cet environnement.
3. Exemples des Cas d’utilisation :
Par la suite, nous partirons sur deux types d'exemple.
Le premier avec une base de données. Dans ce cas, l'intelligence artificielle est capable de
faire deux choses différentes : Prédire ou Classer.
1er Cas d’utilisation : Prédiction
Après une phase d’apprentissage, l’agent peut apprendre à prédire par exemple la nature des
images, le score d’un match ou encore le prix d’une maison. Dans cet exemple, il peut
apprendre à reconnaître une photo d’une pomme après qu’on lui ait montré des millions de
photos de fruits.
D’une manière générale, l’agent peut apprendre une relation f: x->y qui relie x à y en ayant
analysé des millions d’exemples d’associations. Il faut noter qu'il n'y aura jamais une
prédiction à 100% et qu'à 96%, il est sûr que l’image en entrée est une image d'une pomme
2ème Cas d’utilisation : Classification
Le deuxième cas d’utilisation de l’IA est la classification de l’intégralité des images de la BD en
différentes classes.
58
En effet, la classification est une branche de l’intelligence artificielle qui permet de classer des
individus dans des groupes. C’est un processus pour prédire la classe à laquelle appartient un
ensemble d’observations. Dans notre exemple, on a trois classes : Une classe des pommes,
une deuxième classe des bananes et une troisième des oranges. Il faut noter que la
classification découle bien entendu de la prédiction. Si la prédiction - qu’une image soit une
image d’une pomme- est plus importante, alors l’agent va la classer dans la catégorie des
pommes par exemple (La Classe une)
Le second exemple illustrera comment l'intelligence artificielle pourra contrôler
l'environnement dans le cas d'un jeu ?
3ème Cas d’utilisation : Prédiction
Enfin, le troisième exemple d’utilisation illustre comment on pourra contrôler un
environnement. Dans ce cas aussi, tout va partir de la prédiction et on aura besoin de prédire
la meilleure action pour chaque élément de l’environnement pour atteindre notre objectif
final. Ceci sera bien entendu en fonction des possibilités de chaque action.
Dans notre exemple d’échiquier, les possibilités pour que notre Agent puisse attaquer le roi
de l’adversaire seront de décider : d’aller en avant, en arrière, en diagonal et sur combien de
cases ? Ainsi, chaque déplacement représente l’état d’une solution à une étape donnée de la
procédure de résolution du problème et la solution finale du problème sera donc la
combinaison de l’ensemble des états de différentes étapes.
Conclusion
Ce qu'il faut donc retenir c'est que l'intelligence artificielle est une imitation de l'intelligence
et non pas une intelligence tel qu'on peut le concevoir chez des êtres vivants. Nous pouvons
dire qu’une intelligence artificielle est capable de :
Prédire et anticiper les besoins d'une entreprise,
Prédire le résultat d’un match de Foot
Prédire leprix d’acquisition d’une maison par exemple,
L’intelligence artificielle pourra également aider à :
Classer/ranger automatiquement les fiches des produits dans les bonnes catégories,
Classer des Emails/Spams par exemple
59
L’intelligence artificielle pourra également aider à :
Contrôler les évènements futurs pour un environnement comme étant le cas de
contrôle des déplacements d’un robot pour la détection des déchets nucléaires
Contrôler les déplacements d’un joueur sur jeu plateau etc.
60
HISTOIRE DE L’INTELLIGENCE ARTIFICIELLE
Nous allons explorer les moments clés qui ont marqués l’évolution de l’intelligence artificielle
tout au long de l’histoire.
61
En s'inspirant d'un instrument électromécanique conçu par les
Polonais, Turing construit alors une machine métallique
colossale de décryptage d'Enigma sous le nom : "Victory".
Sans le travail d'Alan Turing, la Seconde Guerre mondiale
aurait été prolongée de plusieurs mois et le décryptage
d'Enigma a sans aucun doute permis de sauver d'innombrables vies.
Dans les années 50 : Alain Turing va se demander si une machine peut
penser ? En réalité, cette simple interrogation allait bouleverser le monde.
Ceci a donné lieu au Test De Turing. Ce test avait pour but de vérifier si une
intelligence artificielle est capable d'imiter une conversation humaine.
Dans les années 60 : Arthur Samuel a développé une
intelligence artificielle capable de jouer au jeu de dames en
auto apprentissage. C‘était une révolution à l'époque car c'était
la première fois qu'une intelligence artificielle a battu le
champion du monde américain dans ce domaine.
Dans les années 70 : Les investissements ont diminué,
notamment en raison de l'optimisme excessif dont les chercheurs
ont fait preuve en sous-estimant les difficultés à obtenir les
résultats qu'ils promettaient. Cette période est connue aussi sous
le nom de : l’hiver de l’intelligence artificielle
2. La seconde vague d’évolution de l'intelligence artificielle (1980-2010)
Par la suite, le domaine de l’intelligence artificielle a connu une seconde vague d’évolution à
l’ère du Machine Learning et du Deep Learning.
Dans les années 80 : Il y avait la naissance du concept de machine
Learning qui est un petit peu différent de la programmation ordinaire.
Cette technique de programmation utilise des probabilités statistiques
pour donner aux ordinateurs la capacité d’apprendre par eux-mêmes
sans programmation explicite.
Dans les années 90 : IBM conçoit à l’aide du concept de machine
Learning, le logiciel DEEP BLUE qui a battu KASPAROV le
champion du monde des échecs. Il faut noter que Kasparov avait
déjà gagné 4 à 2 face à ce superordinateur de IBM. Mais, IBM a
ensuite doublé la puissance de calcul et a perfectionné le logiciel
pour cette seconde rencontre où Deep Blue a pu remporter la
partie. Avec la victoire de Deep Blue, l’intelligence artificielle semble rattraper l’esprit humain
dans un jeu considéré depuis toujours comme exigeant de hautes capacités intellectuelles.
Ceci était une nouvelle révolution avec le jeu des échecs qui est plus complexeque le jeu de
dames.
62
Dans les années 2000-2010 : Des nouveaux concepts de type
« Learning » ont été dérivé du concept machine Learning mais
beaucoup plus profonds avec la mise en place de réseaux de
neurones.
Ainsi, le concept du BIG DATA va fournir les mécanismes nécessaires à la récolte des données
massives, le GPU aidera à répartir la puissance de calcul et le Cloud permettra de mutualiser
l'ensemble des ressources
Conclusion
Ce qu'on peut retenir c'est que l'IA n'est pas une technologie aussi récente même si ces
dernières années on en parle énormément. C’est une technologie qui a commencé il y a déjà
presque un siècle et qu’elle va prendre l'essor dans les années à venir avec l'explosion des
puissances de calcul et des données qu’on collecte chaque jour et l’avènement du concept de
l’intelligence générative.
63
INTRODUCTION À L’INTELLIGENCE ARTIFICIELLE
GÉNÉRATIVE
Introduction
En Mars 2023, Bill Gates le cofondateur de la fameuse société Microsoft, a posté sur son blog
le message suivant : il y a trois grands temps dans la transformation informatique. Il y a eu le
temps de l'Internet, le temps du mobile et aujourd'hui, le temps de lʼIA générative. Mais pour
expliquer ce que c’est que l’IA générative qui fait parler le monde aujourd’hui, nous
commençons tout d’abord par rappeler quelques concepts de l’IA Classique. LʼIA est une
discipline de l'informatique qui existe depuis les années 50 et qui a connu des grandes
avancées technologiques et scientifiques. On parle de : Machine Learning, des réseaux de
neurones artificiels, Deep Learning pour arriver aujourd’hui à lʼIA générative.
1. Modèles discriminants vs. Modèles génératifs
L'apprentissage automatique ou Machine Learning est un sous-domaine de l'IA. Il s'agit d'un
programme ou d'un système qui crée un modèle à partir de données existantes. Plus
précisément, l'apprentissage automatique donne à l'ordinateur la capacité d'apprendre sans
programmation explicite.
Si l'apprentissage automatique touche un vaste domaine et englobe de nombreuses
techniques, l'apprentissage profond est un type d'apprentissage automatique qui permet de
traiter des problèmes beaucoup plus complexes que ceux abordés par l'apprentissage
automatique. Ceci est dû à l’usage des réseaux de neurones artificiels. Ces réseaux neuronaux
sont inspirés du cerveau humain et peuvent apprendre à faire des tâches et donner des
prédictions en traitant les données. Les modèles d'apprentissage profond peuvent être divisés
en deux types : les modèles génératifs et les modèles discriminatifs.
Un modèle discriminant est un type de modèle qui est utilisé pour classer ou prédire
les étiquettes des données. Dans cet exemple, le modèle arrive à prédire l’image en
entrée en tant qu’un chien et le classe tel quel et non pas comme un chat.
Quant au modèle génératif, en plus de sa capacité de prédire que c’est un chien il
peut également générer une nouvelle image d’un chien d’où le nom modèle génératif.
64
2. L’intelligence artificielle générative
L’IA Générative est alors un sous domaine de l’apprentissage profond qui crée de nouveaux
contenus à base de ce qu'elle a appris du contenu existant. Pour ce faire, L'IA générative utilise
des réseaux neuronaux artificiels et plus précisément un modèle génératif pour traiter des
vastes données non structurés.
Dans ce cas, Le processus d'apprentissage de l’IA Générative permet la création d'un modèle
statistique en tentant d'apprendre des motifs structurés à partir d’un contenu non structuré.
Une deuxième caractéristique de L'IA générative par rapport à l’IA classique c’est qu’elle
permet de créer des ponts entre les différents domaines tels que : le traitement du langage
naturel ou le domaine de l'imagerie. On part d'un texte pour faire une vidéo, d'une vidéo pour
faire un podcast ou bien faire des slides à partir d’un fichier audio. Ce qui crée donc des liens
multimodaux.
Une bonne façon de distinguer ce qui relève de l'IA générative et ce qui n'en relève pas est
illustré sur le schéma suivant
Il ne s'agit pas d'IA générative lorsque la sortie est un nombre, une probabilité ou une
classe, par exemple : spam ou non-spam, …etc.
Il s'agit d’IA générative lorsque le résultat est du langage naturel, de la parole ou, une
image par exemple.
65
3. Les modèles de langues génératifs vs. Les modèles d’images génératifs
Nous soulignons que les modèles d'IA générative sont un sous-ensemble de modèles de
fondation. Les modèles de fondation sont entraînés sur des données à grande échelle et
diversifiées et peuvent être utilisés ou adaptés pour un large éventail de tâches en aval. Au
cours des dernières années, plusieurs dizaines de ces modèles de fondation ont été
développés, par exemple des modèles de texte à texte comme (GPT) ou de texte à image
comme (DALL-E).
On distingue deux types de modèles de l’IA générative selon la nature des données :
Les modèles d’images génératifs : Les modèles d’images génératifs produisent de
nouvelles images. Ils peuvent aussi générer la légende de l’image, effectuer une
recherche par image comme étant le cas de CLIP. Ils peuvent aussi générer la
complétion d’une image abimée comme le cas de CoModGAN.
66
Les modèles de langues génératifs : Ces modèles apprennent à reconnaître les
schémas linguistiques grâce à des données d'entraînement. Puis, à partir d'un texte,
ils prédisent le texte qui va suivre comme étant le cas de GPT ou générer des images
et vidéos comme par exemple DALL-E
67
Enfin, Dans la vague générative, nous pouvons,
en tant qu'utilisateurs, générer notre propre
contenu en posant simplement une question
dans l'invite. Ainsi, lorsque vous demandez à un
modèle comme GPT ou Palm qu’est-ce qu'est
un chien, il peut vous donner tout ce qu'il a
appris sur un chien ainsi que ses
caractéristiques.
Il faut noter ici que cette démarche ne
ressemble pas à celle effectuée dans un moteur
de recherche. En effet, lorsqu’on tape une question dans un moteur de recherche, on aura
une liste de réponses probables. Par contre, Avec l'intelligence générative on va poser des
questions, on va converser, et on aura la meilleure réponse au bout de plusieurs
conversations avec la machine
Conclusion
En guise de conclusion, si l'intelligence artificielle classique, permet de prédire, classer ou bien
encore faire des analyses dans divers domaines, l’intelligence artificielle générative permet
de créer des ponts entre ces différents domaines ce qui crée des liens multimodaux.
La deuxième grande différence c'est que l'IA générative permet de créer du nouveau contenu,
créer de la connaissance et donc créer de nouvelles possibilités et mener vers de nouveaux
horizons.
La troisième grande différence c'est qu’avec l’intelligence artificielle générative on rentre
dans un nouveau mode qui est le mode de conversation.
68
L’AGENT CONVERSATIONNEL : CHATGPT
Introduction
L'un des développements les plus remarquables de l’IA à l’heure actuelle est l'émergence de
l’agent conversationnel ChatGPT crée par l’entreprise Open AI. Mais, avant d’expliquer son
principe de fonctionnement, nous clarifions tout d’abord deux concepts différents, souvent
confondus : GPT et ChatGPT
1. GPT vs. ChatGPT
GPT (Generative Pre-trained Transformer) est un langage de type LLM (Large Language
Model) pour le traitement et la génération du langage naturel. Ces modèles sont des modèles
d’apprentissage automatique qui sont extrêmement efficaces lorsqu'il s'agit d'effectuer des
tâches liées au langage : traduire, résumer des textes, générer du contenu ou du code, etc.
GPT utilise l’écriture prédictive du LLM pour donner des réponses
cohérentes en utilisant la suite de mots la plus probable selon le
contexte. Eh ben, avec votre mobile, vous utilisez quotidiennement
le langage LMM dont se sert ChatGPT !
Dans nos applications de messages ou moteurs de recherche, nous
utilisons souvent le texte intuitif qui se base généralement sur un
dictionnaire préexistant et des probabilités.
Quant au concept ChatGPT : C’est un mot-valise : “chat” qui fait référence à une discussion
en ligne et “GPT” qui signifie que ChatGPT a été préalablement entraîné pour générer des
réponses pertinentes selon le contexte.
Ce qu’il faut retenir c’est que GPT est un modèle de langage qui sert de « cerveau » à l'agent
conversationnel ChatGPT et ce, pour tenir des conversations fluides et naturelles avec les
utilisateurs. Nous expliquons par la suite les différents stades de l’évolution des modèles GPT.
2. Les stades d’évolution des modèles GPT
Le concept GPT a été initialement introduit en juin 2018 avec la publication du premier
modèle, GPT-1, puis les autres modèles GPT-2, 3 et 4 sont dévoilés en 2019, 2020 et 2023
respectivement. La principale différence réside dans la taille ainsi que les paramètres qui sont
69
passés de 117 millions dans GPT-1 à 1.76 Trillion dans GPT-4. D’autant plus, GPT-4 peut
recevoir maintenant des images ce qui constitue une amélioration majeure puisque les
versions précédentes de GPT acceptent uniquement les inputs sous forme de texte.
3. Fonctionnement de ChatGPT
Quand on fournit à ChatGPT un « prompt » (que ce soit une question ou des instructions), Il
prédit dans un premier temps le mot le plus probable qui doit suivre en s’appuyant sur des
millions de textes que le modèle a intégrés lors de son apprentissage.
Ensuite, il ajoute ce mot au prompt d’origine et renvoie l’ensemble à la case d’entrée pour le
repasser à la moulinette (GPT). Puis, un 2ème mot est ajouté et ainsi de suite jusqu’un caractère
spécial indique la fin de la réponse.
70
Par exemple, en analysant l’expression suivante : « Lors de votre visite au Maroc, les
salutations les plus communes que vous entendrez seront Marhba (bonjour) et Besslama (au
revoir) ». Notre attention sera focalisée sur certains mots qui constituent le cœur de cette
expression (ou le contexte), et qui sont : Maroc, Marhba et Besslama car notre expérience
nous a déjà appris que c’est là que se trouve l’essentiel de l’information.
GPT est alors entrainée en se basant sur ces données (prompts/réponses) fournis par les
annotateurs jusqu’à ce qu’elle donne la réponse attendue à la demande (prompt) initiale.
On obtient ainsi une version améliorée de GPT (notée ici GPT+)
71
La deuxième méthode avec supervision humaine sera basée ensuite sur un modèle
conversationnel appelé : RLHF (« Reinforcement Learning from Human Feedback »).
Son principe est simple : On demande à GPT de donner plusieurs réponses à une même
question (prompt). Puis, des superviseurs classent et évaluent la pertinence de ces réponses
en donnant à chaque réponse une “récompense” (“rewards”). Les superviseurs pointent aussi
les réponses choquantes ou violentes afin de renforcer la cohérence des réponses et éviter
les dérives et les erreurs. Toutes ces données (réponses et notes) servirontpour entrainer une
nouvelle IA (IA de récompense) à comprendre par la suite comment classer et évaluer les
réponses.
Le mode d’apprentissage avec l’IA de récompense.
Durant la dernière phase d’apprentissage, de nouvelles questions sont données à GPT+ sans
supervision humaine. Chaque réponse sera évaluée cette fois-ci par l’IA de récompense. Plus
la note est haute, plus GPT+ apprends à valoriser la réponse. Sinon, la réponse sera
marginalisée. A la fin de l’apprentissage, on obtient la version actuelle de : ChatGPT.
Conclusion
Pour conclure, ChatGPT fonctionne de manière interactive en échangeant des tours de parole
avec un utilisateur selon le modèle GPT. D’autant plus, CHATGPT est affiné grâce à l'utilisation des
« Transformers » et des techniques d'apprentissage supervisé et par renforcement du modèle
GPT.
72
Parmi toutes les réponses linguistiquement correctes que pourrait générer, CHATGPT opte pour
celles qui sont le plus correctes. Sur la base de ce même principe, CHATGPT refuse aussi parfois
carrément de répondre.
73
Comment apprendre avec ChatGPT ?
Introduction
Dans cette partie du cours, nous allons explorer les meilleures pratiques pour interagir avec
ChatGPT, un outil d'intelligence artificielle conçu pour comprendre et générer du texte en
réponse à des entrées utilisateur. Comprendre comment formuler des prompts efficaces est
essentiel pour tirer le meilleur parti de cette technologie puissante.
Lorsque vous interagissez avec ChatGPT, la clarté et la précision de vos instructions sont cruciales
pour obtenir des résultats pertinents. Examinant ce prompt : « Expliquez le processus de collecte
de données des moteurs de recherche sur le web. » Ce prompt indique clairement le sujet de la
demande. Il ne demande pas une explication générale sur les moteurs de recherche, mais se
concentre sur un aspect particulier, à savoir la collecte de données. Cela permet à ChatGPT de
fournir une réponse précise et détaillée.
Il est possible de demander à ChatGPT un format de sortie particulier. Supposons que nous
souhaitons résumer l’article de Wikipédia sur le mathématicien Al-Khwarizmi. Un premier prompt
pourrait être : 'résumer l'article de Wikipédia sur Al-Khwarizmi : mais si nous voulons un résultat
avec un format particulier nous pouvons saisir comme prompt: « résumer l'article de Wikipédia
sur Al-Khwarizmi en 100 mots, en utilisant une structure en deux paragraphes. Ajoutez un titre
approprié à chaque paragraphe. Enfin, créez un tableau récapitulatif des ouvrages d'Al-Khwarizmi
en précisant le domaine ». L'importance de définir le format de sortie dans un prompt réside dans
le fait que cela guide le modèle dans la manière dont il doit organiser et présenter les
informations. Cela garantit que l'utilisateur obtient exactement ce qu'il souhaite
Lorsque vous demandez quelque chose à ChatGPT, spécifiez le contexte pour obtenir des
réponses plus adaptées. Par exemple, au lieu de demander simplement : « Comment écrire une
lettre de motivation ? », vous pouvez préciser votre situation en saisissant comme prompt : « Je
suis étudiant en économie et gestion et je souhaite postuler à un master en marketing digital.
Comment rédiger ma lettre de motivation ? » En indiquant votre domaine d'étude et le master
ciblé, vous aurez une lettre de motivation plus adaptée à votre situation.
Lorsqu’on communique avec ChatGPT, il est primordial de savoir à qui sera destinée la réponse
74
générée. Prenant un exemple, je veux demander à chatgpt de m’expliquer comment écrire une
fonction récursive en Python, il est important d’indiquer mon niveau de compréhension. Ainsi le
prompt sera : « Je suis débutant en programmation. Pourriez-vous m'expliquer de manière simple
comment écrire une fonction récursive en Python ? » En précisant mon niveau, ChatGPT peut
ajuster la complexité de sa réponse pour la rendre plus accessible.
Pour simuler des situations réelles, vous pouvez demander à ChatGPT d'adopter un rôle
spécifique. Par exemple, au lieu de poser une question générale sur la préparation d’un entretien
d’embauche, vous pouvez demander : « Agis en tant que responsable des ressources humaines
dans un établissement d'enseignement primaire et poses moi des questions pour simuler un
entretien d'embauche. Je suis titulaire d'une licence en assistance sociale ». En adoptant un rôle
spécifique, ChatGPT peut générer des questions et des scénarios qui sont pertinents pour le
contexte donné. Cela rend la simulation plus réaliste et utile pour l'utilisateur. En exécutant le
prompt on aura un ensemble de questions à la fois si vous voulez que ça soit interactif il suffit de
lui demander de poser une question à la fois.
Il est parfois tentant de demander à ChatGPT de résoudre une tâche complexe en une seule
question. Toutefois, cela peut souvent conduire à des réponses imprécises ou superficielles. Une
meilleure approche consiste à diviser votre demande en sous-tâches plus petites et plus gérables.
Par exemple, ne demandez pas directement à ChatGPT de générer un support de formation
complet en développement web. Commencez par lui demander de concevoir un plan détaillé
pour le support de formation, en identifiant les modules clés. Ensuite, dans un second prompt,
vous pourriez lui demander de développer le contenu pour chaque module, un à la fois. Enfin,
vous pourriez lui demander de vous aider à créer des activités interactives, des exemples de code,
et des évaluations pour chaque section.
Conclusion
ChatGPT est un outil remarquable pour l'apprentissage et la productivité, mais il est important de
se rappeler qu'il n'est pas infaillible. Utilisez-le comme un complément à votre processus de
recherche et d'apprentissage, tout en vérifiant toujours les informations qu'il fournit. Avec la
pratique, vous deviendrez habile à rédiger des prompts qui maximisent l'efficacité de ChatGPT.
Continuez à expérimenter avec différents styles de prompts et observez les résultats pour affiner
vos techniques de questionnement.
75