0% ont trouvé ce document utile (0 vote)
56 vues9 pages

Histoire et Structure des Ordinateurs

Transféré par

mhamedsaadi.bachir
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats DOCX, PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
56 vues9 pages

Histoire et Structure des Ordinateurs

Transféré par

mhamedsaadi.bachir
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats DOCX, PDF, TXT ou lisez en ligne sur Scribd

Chapitre I : Présenter l’architecture générale d’un ordinateur

1. Historique :

Les premières machines à calculer mécaniques apparaissent au 17 ème siècle avec


la Pascaline de Blaise Pascal capable d’effectuer addition et soustraction en
1642 et la première machine capable d’effectuer les quatre opérations, réalisée
par Leibniz en 1694. Au 19ème siècle, Charles Babbage conçoit les plans d’une
machine analytique. Elle ne fut jamais réalisée mais elle comportait une
mémoire, une unité de calcul et une unité de contrôle, comme dans les
ordinateurs modernes, ainsi que des périphériques de sortie (clavier et
imprimante). Ada Lovelace compose les premiers programmes pour la
machine analytique, elle a compris qu’une telle machine est universelle et peut
exécuter n’importe quel programme de calcul.

En Alan Turing, définit précisément la notion de calcul et la relie à l’exécution


d’un algorithme par une machine imaginaire qui servira de modèle aux
ordinateurs modernes.

En 1937, Claude Shannon démontre comment il est possible d’effectuer des


calculs à l’aide de l’électricité avec des relais électromagnétiques en prolongeant
les travaux du logicien Geoges Boole.

La seconde guerre mondiale accélère la réalisation de machines pour des calculs


de balistique ou pour déchiffrer des codes secrets. En Allemagne, Konrad
Zuse réalise en 1941, le Z1, première machine entièrement automatique
lisant son programme sur une carte perforée. Aux États-Unis, Howard Aiken
conçoit le Mark I. Ces premières machines électromécaniques sont colossales,
et occupent des pièces entières. En 1945, Mauchly et Eckert conçoivent avec
l’ENIAC une première machine utilisant des tubes à vide.

Les premiers ordinateurs apparaissent aux États-Unis et en Angleterre, juste


après-guerre, ils sont réalisés selon l’architecture décrite par John Von
Chapitre I : Présenter l’architecture générale d’un ordinateur

Neumann dans son rapport sur la construction de l’EDVAC. Un ordinateur est


une machine programmable, capable d’exécuter tous les programmes
calculables sur une machine de Turing et dont les programmes et les données
sont enregistrés dans la même mémoire.

Dans les années 1950, les firmes DEC, BULL et surtout IBM développent les
premiers ordinateurs commerciaux et les progrès technologiques s’enchaînent.
Le transistor, réalisé en matériau semi-conducteur (germanium puis silicium),
inventé en 1947, remplace progressivement les tubes à vide. Au début des
années 1960, on réalise les premiers circuits intégrés, en gravant tous les
transistors d’un circuit dans une même plaque de silicium. Depuis la fin des
années 1960, la densité de transistors par unité de surface des circuits intégrés,
double environ tous les 18 mois, selon la feuille de route des industriels établie
en loi empirique sous le nom de loi de Moore, du nom d’un des fondateurs
d’Intel. La miniaturisation est le facteur principal d’amélioration des
performances et de la démocratisation des ordinateurs. En effet si la lumière
parcourt 30 cm en une nanoseconde dans le vide, la vitesse de propagation des
électrons dans un semi-conducteur est plus lente de l’ordre de 1 cm par
nanoseconde, la taille physique des circuits est donc importante. En 1971,
apparaît le premier microprocesseur, l’Intel 4004 qui marque les débuts de la
micro-informatique : une unité de traitement complète (unité de commande et
UAL) est gravée sur un circuit intégré. Avec l’essor du réseau Internet et de ses
applications comme le Web et l’explosion des télécommunications mobiles, les
objets se transforment en ordinateurs : smartphones, objets connectés . . . et de
plus en plus de composants (mémoire, interface d’entrée/sortie) sont intégrés
aux puces : on parle de System On Chip.

Entre le microprocesseur Intel 4004 de 1971 et un core i9 de 2017, le rapport de


performance est de quelques millions.
Chapitre I : Présenter l’architecture générale d’un ordinateur

2. Présentation générale d’un ordinateur Notion de Hardware et de Software


L’information digital (le bit, l’octet, le mot…) :
2.1. Description de l’ordinateur :

L’ordinateur est composé de deux parties :

a. La partie matérielle (Hardware en anglais) : c’est l’ensemble


d’équipements électroniques et électriques de l’ordinateur, c’est la partie
visible à l’utilisateur. Cette partie est appelée aussi la machine réelle.
b. La partie logicielle (Software en anglais) : C’est l’ensemble des
programmes (suites d’instructions) qui tournent (s’exécutent) sur la
machine physique. Cette partie est appelée aussi la machine virtuelle
(imaginaire).
- Programme : ensemble d’instructions indiquant à un ordinateur ce
qu'il doit faire. On distingue 3 types de logiciels :
 Les logiciels de base (système d’exploitation): C’est l’ensemble
des programmes qui gèrent la partie matériel de l’ordinateur. Exemple
: Dos, Windows 7, UNIX,… Sa présence est indispensable pour le
fonctionnement de l’ordinateur. Ces logiciels sont utilisés pour
augmenter la distance d’abstraction entre l’utilisateur et la partie
matérielle, en vue de cacher les détails et ne présenter à l’utilisateur
qu’une machine virtuelle avec un langage clair et simple à
comprendre.  Les logiciels de service (logiciels système) : Ces
programmes ne sont pas nécessaires pour le fonctionnement et
l’exploitation de la machine mais ils offrent des services aux
utilisateurs et aux programmeurs pour une meilleure exploitation de la
machine. Exemple : les éditeurs de texte, les compilateurs, …
 Les logiciels d’application : Cette classe regroupe l’ensemble des
Chapitre I : Présenter l’architecture générale d’un ordinateur

programmes qui tournent sur la machine sous le contrôle du système


d’exploitation tel que :
 Les logiciels de traitement de texte : Word, Kword, LaTex….
 Les logiciels de traitement et de synthèse d’images
(PhotoExpress,…).
 Les logiciels de conception assistée par ordinateur (CAO:
AUTOCAD,…).
 Les jeux vidéo.
 Les logiciels de gestion.
 Les logiciels de : calcul, statistiques, simulation,
mathématiques…
2.2. L’information digital :
L’information traitée par l’ordinateur est représentée par des nombres appelé
Bit. En système de numération binaire, le bit désigne en anglais (Binary
Digits) est un la plus petite unité qui prend deux valeurs soit 0 ou 1 en
électronique représente un signal du (5v ou 0v).
Une suite de 8 bits constitue un octet (en anglais BYTE) : c'est généralement
la plus petite quantité d'information manipulable par un programmeur. Avec
un octet, on peut représenter 28, soit 256 valeurs différentes.
Vient ensuite la notion de mot (en anglais : WORD). Autrefois, un mot était
constitué de deux octets (16 bits) et on parlait d'ordinateur 16 bits. La taille
du mot ayant évolué, avec la technologie, on trouve actuellement des mots
de 32 bits (4 octets), voire des mots de 64 bits (8 octets).
Vu que la taille du mot n'est pas a priori bien fixée, toutes les quantités
d'informations seront exprimées à partir de l'octet qui est, quant à lui, de
taille bien définie (8 bits) [STR2005].
Les données qui sont traitées par l'ordinateur peuvent être des différents
types : numériques (entier, réel), alphanumériques (un caractère, une chaîne
des caractères). L'ordinateur les traite comme une suite de 0 et 1. Le système
Chapitre I : Présenter l’architecture générale d’un ordinateur

qui utilise seulement les chiffres 0 et 1 est appelé système binaire (en base
2). Le binaire est ce langage que comprend normalement l'ordinateur.

3. Le système de numération (Décimal, binaire, octal, hexadécimal…) :


3.1. Entiers naturels :
3.1.1. Représentation en base dix :
On utilise pour les nombres entiers naturels la notation décimale à
position. Pour cela, dix chiffres sont nécessaires et suffisants : 0, 1, 2, 3,
4, 5, 6, 7, 8, 9. On utilise la base dix tous les jours, mais d’autres bases
sont envisageables. Base cinq (0,1,2,3,4) et la base 2 (0,1) ce que en
appel aussi la notion binaire.
3.1.2. La base deux :
En base deux il n’y a que deux chiffres, 0 et 1, le nombre écrit 47 en base
dix s’écrit 101111 en base deux. On peut utiliser la notation 101111 2.
Dans la notation binaire :
- le bit (ou chiffre) le plus à gauche est appelé bit de poids fort
- le bit (ou chiffre) le plus à droite est appelé bit de poids faible

Pour mesurer des quantités d’information, l’unité de base est le bit qui
prend soit la valeur 0, soit la valeur 1. Un ensemble de 4 bits consécutifs
est appelé un quartet, un ensemble de 8 bits consécutifs est appelé un
octet (byte), deux octets consécutifs (16 bits) forment un mot (word).
C’est l’octet qui est utilisé comme unité de référence pour mesurer la
capacité des mémoires.

3.1.3. Une base quelconque :


On peut généraliser à une base quelconque les méthodes précédentes.
Pour écrire les entiers naturels en base k, on a besoin de k chiffres.
Quand on a n objets, on les groupe par paquets de k, qu’on regroupe à
leur tour en paquets de k paquets, etc. Autrement dit, on fait une
Chapitre I : Présenter l’architecture générale d’un ordinateur

succession de divisions par k, jusqu’à obtenir un quotient égal à 0. Ici


encore, la multiplication d’un nombre par k consiste à ajouter un zéro à
droite du nombre.
3.1.4. La base seize est particulièrement intéressante :
On a besoin de 16 chiffres notés : 0, 1, 2, 3, 4, 5 , 6, 7, 8, 9, puis A (dix),
B (onze), C (douze), D (treize), E (quatorze) et F (quinze). Si on travaille
en base deux, l’écriture peut être très longue. Or les octets (huit bits)
peuvent s’écrire simplement en base seize. On partage l’octet en deux et
chaque partie de quatre bits s’écrit avec un chiffre de la base seize.
Démonstration : le nombre seize s’écrit 10000 en base deux et 10 en base
seize : 100002 = 1016
Par exemple le nombre écrit 11010101 en base deux s’écrit D5 en base
seize.
3.2. Entiers relatifs :
On pourrait utiliser un bit pour le signe et les autres bits pour la valeur
absolue. Mais cette méthode a des inconvénients. On a préféré la méthode
de représentation par complément à deux qui permet de réaliser des
opérations arithmétiques sans problème. Celle-ci consiste à réaliser un
complément à un de la valeur, puis d’ajouter 1 au résultat.
Par exemple pour obtenir le codage de -5 :
000101 (codage de 5 en binaire sur 6 bits)
111010 (complément à un)
111011 (on ajoute 1) : représentation de 5 en complément à deux sur 6 bits.
Remarque 1 : tous les nombres négatifs ont leur bit de poids fort à 1, alors
que les nombres positifs ont leur bit de poids fort à 0.
Remarque 2 : si on est capable de faire effectuer par une machine l’addition
de deux nombres et le passage à l’opposé d’un nombre, on peut lui faire
effectuer toutes les opérations classiques.
3.3. Nombres à virgule :
Chapitre I : Présenter l’architecture générale d’un ordinateur

La norme IEEE 754 (Standard for Binary Floating-Point Arithmetic) définit


la représentation de nombres réels (appelés flottants).
Un nombre est représenté sous la forme s m 2n ou s est le signe du nombre, n
son exposant et m sa mantisse. Cette représentation est semblable à la
notation scientifique des calculatrices, sauf qu’elle est en base deux et non
en base dix.

Avec :
- Le signe du nombre réel, qui vaut 0 (le nombre est positif) ou 1 (le
nombre est négatif).
- L’exposant (décalage+127) , qui est codé en binaire sur 8 bits.
- La mantisse (partie décimale du nombre), qui est codée sur 23 bits.

Exemple : Écriture en nombre flottant du nombre décimal 10,375.

 On donne la forme normalisée de ce nombre :

10,37510 = 1010,0112 = (–1)0 × 1,010011 × 23.

 Le nombre décimal est positif, le signe vaut donc 0.

 On applique l’exposant « décalage + 127 » : 3 + 127 = 130 codé en


binaire par 10000010.

 La mantisse vaut 010011, qu’on complète par des 0 pour avoir 23 bits : on
a donc 01001100000000000000000.

 L’écriture en nombre flottant est donc

0 10000010 01001100000000000000000.
Chapitre I : Présenter l’architecture générale d’un ordinateur

4. Opérations binaires (addition, soustraction, multiplication, et division) :


4.1. Addition et soustraction :
Le principe de l’addition est similaire à celui de l’addition décimale : on
additionne symbole par symbole en partant des poids faibles, et en
propageant éventuellement une retenue. Si le format des nombres est fixe, le
résultat de l’addition peut donner lieu à un dépassement de capacité.
La Table d’addition binaire est la suivante :

La Table de soustraction binaire est la suivante :


Chapitre I : Présenter l’architecture générale d’un ordinateur

4.2. Multiplication et division :


La multiplication se fait en formant un produit partiel pour chaque digit du
multiplieur (seul les bits non nuis donneront un résultat non nul). Lorsque le
bit du multiplieur est nul, le produit partiel est nul, lorsqu’il vaut un, le
produit partiel est constitué du multiplicande décalé du nombre de positions
égal au poids du bit du multiplieur.
La Table de multiplication en binaire est très simple :

La division binaire s’effectue à l’aide de soustractions et de décalages,


comme la division décimale, sauf que les digits du quotient ne peuvent être
que 1 ou 0. Le bit du quotient est 1 si on peut soustraire le diviseur, sinon il
est 0.
La Table de division binaire est la suivante :

Vous aimerez peut-être aussi