Feuilletage
Feuilletage
et technologie
des ordinateurs
Informatique
Linux
Joëlle Delacroix système
Programmation et al. et réseau
480 pages
4e édition
Dunod, 2017
Joëlle Delacroix
384 pages
Dunod, 2012
Bases de données
Concepts, utilisation et développement,
3e édition
Jean-Luc Hainaut
704 pages
Dunod, 2015
Architecture
et technologie
des ordinateurs
Paolo Zanella
Ancien professeur d’informatique
à l’université de Genève
Yves Ligier
Membre du comité de direction
d’une institution genevoise
Ancien enseignant en informatique
Emmanuel Lazard
Maître de conférences à l’université Paris-Dauphine
6e édition
Illustration
Illustration de couverture
de couverture : – 123RF
: © scanrail
Binary code © iStock.com/fatido
© Dunod,
© Dunod, 2003,
1991, 2005,
1993, 2008,
1998, 2011,
2005, 2015
2013, 2018
11 rueLaromiguière,
5 rue Paul Bert, 92240 Malakoff
75005 Paris
www.dunod.com
www.dunod.com
ISBN 978-2-10-078459-2
978-2-10-072705-6
Table des matières
Avant-propos de la sixième édition
Conclusion 571
Glossaire 581
Index 595
Avant-propos de la 6e édition
L’informatique a été l’une des disciplines marquantes du XXe siècle et elle est au premier
plan de tout développement scientifique, technologique et sociétal du XXIe siècle.
L’impact sur la société est déterminant, tous les secteurs de l’économie, de la science
jusqu’à la vie de tous les jours, au bureau, à la maison, dans la voiture, subissent
d’importantes mutations.
L’évolution technologique rapide du monde informatique a réduit considérablement la
durée de vie du matériel et du logiciel informatiques, ce qui rend nécessaire une mise à
jour régulière de cet ouvrage. La première édition est parue en 1989, la deuxième en
1993, la troisième en 1998, la quatrième en 2005 et la cinquième en 2013. Bien que les
concepts présentés dans les éditions précédentes soient toujours valides et présents, cette
sixième édition a permis d’intégrer les dernières évolutions technologiques.
Cet ouvrage peut être parcouru de manière non séquentielle. Le chapitre 2 (Présentation
générale) sert de chapitre de référence à partir duquel il est possible de passer à n’importe
quel autre chapitre. Ainsi, certains chapitres techniques, tel que le chapitre 5 sur les
circuits logiques, ne doivent pas constituer un obstacle rédhibitoire pour le lecteur.
Comment fonctionnent les ordinateurs, tant au niveau matériel que logiciel ? Les pages
qui suivent apportent une réponse à cette question en faisant la synthèse des éléments
qui jouent un rôle important dans la structure matérielle et logicielle des ordinateurs.
Comment passe-t-on d’un électron à Internet ? C’est l’ambition de cet ouvrage de
répondre à cette question de la manière la plus abordable possible.
L’informatique touche de plus en plus de personnes et de domaines, mais cette discipline
ne fait pas encore partie des enseignements de base. On constate un manque flagrant de
connaissances de la plupart des utilisateurs. Cet ouvrage permet à toute personne
© Dunod. Toute reproduction non autorisée est un délit.
liés. Dans cet ouvrage, nous avons essayé de mettre en valeur les concepts durables, les
fondements de l’informatique, mais nous essayons aussi de présenter les idées nouvelles
et les innovations technologiques prometteuses qui éclosent dans ce monde en
perpétuelle mutation.
Cet ouvrage est utilisé pour l’enseignement informatique de base dans différentes filières
de différentes écoles et universités.
Ce livre se compose de trois parties. La première partie (chapitres 1 à 6) présente les
notions de mathématique, de logique, de physique, d’électronique, d’informatique et
son histoire qui, à notre avis, doivent faire partie de la culture de base de tous ceux qui
se passionnent pour le monde des ordinateurs et de l’informatique. La deuxième partie
(chapitres 7 à 11) montre l’architecture et la réalisation matérielle des ordinateurs depuis
les microprocesseurs jusqu’aux superordinateurs et aux réseaux. La troisième partie
(chapitres 12 à 17) décrit l’organisation logicielle des différents programmes nécessaires
à l’exploitation des ordinateurs. Une liste d’ouvrages de référence permet d’approfondir
les différentes notions. Un glossaire, donnant une explication claire et concise des termes
les plus importants, ainsi qu’un index, complètent cet ouvrage.
Toutes les notions présentées sont illustrées par de nombreuses figures. Plutôt que de se
baser sur des machines hypothétiques ou sur une machine particulière, nous avons
préféré montrer les principes concrets utilisés dans les machines actuelles et celles
réalisées au cours de la brève histoire de l’ordinateur.
À la fin des chapitres (excepté les chapitres purement théoriques) se trouvent des
exercices ainsi que leur solution détaillée. Ils permettent de mieux comprendre les
problèmes pratiques que l’on rencontre aux différents niveaux de conception d’un
système informatique. Ils seront, nous l’espérons, appréciés par les enseignants qui
veulent intégrer des séries d’exercices à leurs cours théoriques.
Comme la langue anglaise est largement utilisée en informatique, nous mentionnons les
termes les plus importants, entre crochets, lors de la première apparition du
correspondant français (exemple : logiciel [software]).
Nous tenons à remercier les personnes qui ont aidé à l’élaboration de cet ouvrage, que
ce soit par leurs idées, leurs commentaires, leur relecture ou leur implication plus forte
dans la rédaction d’un chapitre. Nous adressons des remerciements tout particuliers à
Catherine Marti pour son active participation aux premières éditions. Merci à Olivier
Baujard et Constantin Sandru pour leur aide précieuse. Depuis la cinquième édition,
Emmanuel Lazard nous a rejoint comme co-auteur pour apporter son expertise du
monde informatique. Merci à nos familles pour leur patience et leur compréhension.
Chapitre 0
Informatique et société
La recherche scientifique, les grandes découvertes et les inventions du XIXe siècle sont à
l’origine de la révolution industrielle et du développement économique basé sur
l’innovation technologique. La première moitié du XXe siècle restera l’un des moments
les plus passionnants de l’épopée humaine. Les empires ainsi que les valeurs d’une
époque s’effondrent. La poésie et la peinture sont profondément redéfinies pendant que
la musique est en rupture sur fond d’essoufflement du romantisme. Musiques nouvelles
d’une part, mais simultanément révolution technique avec l’enregistrement, qui en
permet la captation, alors que la stéréophonie vient d’apporter un nouveau raffinement.
L’art s’enrichit de moyens d’expression comme la photographie, le cinéma et la TV.
L’art et la science absorbent le choc technologique et poursuivent leurs chemins
parallèles.
Au XXe siècle, la physique fait des progrès sans précédent dans la connaissance de la
matière jusqu’à ses composants élémentaires, qui amènent à la découverte de nouveaux
matériaux et de nouvelles sources d’énergie. Dans la deuxième moitié du XXe siècle, la
biologie, après la découverte de la structure de l’ADN et le grand projet du génome
humain, ouvre la voie à l’étude des causes des maladies et de leurs soins. Les nouvelles
connaissances au niveau moléculaire stimulent les recherches sur les mécanismes
élémentaires de la vie qui révèlent une nature basée sur l’information et la
communication. La société humaine qui s’était transformée d’agricole et artisanale à
industrielle, est ainsi devenue société de l’information et de la connaissance. Cela a
apporté une grande variété de services et de produits nouveaux aux citoyens et aux
entreprises et c’est en train de changer notre monde et notre vie quotidienne. Cette
nouvelle révolution s’est appuyée sur l’ordinateur, inventé en 1945 et apparu sur le
marché dès 1950, réalisant ainsi un ancien rêve et répondant à une demande croissante.
Les technologies de l’information et de la communication (TIC) [ICT: Information and
© Dunod. Toute reproduction non autorisée est un délit.
Aujourd’hui, nous avons les moyens de résoudre des problèmes complexes dans les
disciplines scientifiques, techniques ou humaines, grâce au progrès des TIC qui avancent
sans fléchir. Un circuit intégré de la première génération (1971) pouvait contenir un
bon millier de transistors sur une surface de 2 cm2. En 2017, on peut y placer quelques
milliards de transistors pour en faire un microprocesseur multicœur ! Le nombre de
transistors nous donne une idée de la complexité d’un tel système et des difficultés des
problèmes qu’il peut traiter, ainsi que des connaissances nécessaires pour réaliser ces
solutions. Pour développer de telles machines et des systèmes qui les exploitent, il faut
des équipes multidisciplinaires composées d’experts et de jeunes chercheurs. Le modèle
unifiant les activités de recherche dans les sciences et l’industrie se base sur les ressources
disponibles. Les solutions doivent tenir compte du débit des données à traiter, et des
contraintes de temps imposées à la production des résultats.
Réflexions sur le paradigme : Formation-Recherche-Technologie-Innovation
Dès 2007 le monde a été secoué par une grande crise financière d’abord et économico-
industrielle ensuite, qui a balayé entreprises et lieux de travail et mis en difficulté de
nombreux pays. La reprise est lente, mais les crises et les récessions finissent tôt ou tard
et produisent à moyen terme des effets positifs en donnant lieu à des nouvelles
opportunités que nous devons être prêts à cueillir.
Pour relancer l’économie, les entreprises et les instances publiques doivent investir en
formation technique et scientifique, en recherche et développement technologique ainsi
qu’en innovation. Sans quoi on risque de rester à la traîne. Sans des universités
modernes, des centres d’excellence et des entreprises compétitives, il est difficile de faire
de la recherche ayant un impact réel sur l’économie. En ce qui concerne les TIC, leur
rapport avec l’innovation est très solide et peut créer des opportunités pour les
entreprises. La révolution informatique est vigoureuse et les TIC auront sans aucun
doute un futur éclatant.
Dans un monde numérique le progrès se base sur les TIC. Il faut développer de nouvelles
applications et les adapter aux nouvelles exigences. L’informatique est reconnue comme
essentielle au progrès des sciences et comme facteur habilitant les entreprises à
augmenter leur efficacité et leur compétitivité.
Considérations sur le développement post-industriel
L’ordinateur est devenu un produit industriel il y a plus de 60 ans. Avant lui, le
développement de nouvelles idées, de prototypes et de réalisations durait des siècles.
L’ordinateur n’a pas été une exception. La durée de sa gestation peut être estimée à trois
siècles. Mais, après sa conception, le monde industriel a subi une accélération
extraordinaire, précédée par une augmentation des innovations technologiques et des
investissements humains et financiers dans la recherche et le développement.
Dès 1950, la recherche scientifique et l’innovation technologique ont entamé une
croissance extrêmement rapide, qui a engendré les changements continus de notre
époque. De nouveaux secteurs industriels ont fait leur apparition tels que les TIC, la
microélectronique, le nucléaire, les énergies renouvelables, les transports modernes et
récemment dans le sillage de la nouvelle biologie moléculaire, on assiste à l’essor
d’entreprises dans les secteurs du biomédical et des biotechnologies.
Informatique et société 3
encore beaucoup sur les branches du haut. Ils sont moins faciles à cueillir mais, « il faut
gravir la montagne pour atteindre les étoiles ».
Les grands défis que les nouvelles générations devront affronter seront nombreux et
difficiles et il faut d’ores et déjà se préparer sérieusement. Il est primordial de commencer
par acquérir les compétences techniques et scientifiques indispensables pour gagner dans
un monde qui devient chaque jour plus petit et global en même temps que plus peuplé
et compétitif. La science avance dans le microcosme de la matière en explorant le monde
subnucléaire à l’aide des grands accélérateurs de particules, la technologie invente des
instruments pour travailler aisément en laboratoire à l’échelle moléculaire et à l’échelle
atomique. Elle avance aussi dans l’immensité cosmique de l’univers, poussant les
observations de plus en plus loin de la Terre, à l’aide d’instruments tels ceux transportés
par le télescope Hubble et contrôlés et exploités depuis notre planète. Dans toutes ces
explorations qui amplifient et approfondissent nos connaissances scientifiques, l’apport
des TIC est essentiel.
Dans un futur proche, on peut parier sur une avancée technologique spectaculaire en
tout ce qui concerne directement l’homme, sa santé et son environnement. On peut
s’attendre à un intérêt croissant pour la recherche au niveau moléculaire en biologie,
médecine et pharmacologie. Il y aura également beaucoup à faire dans les sciences de
l’environnement, à commencer par la lutte contre la pollution de l’atmosphère
(combustion propre, énergies renouvelables, maisons et transports écologiques, épargne
énergétique) et la pollution de l’eau ainsi que de son utilisation efficace. Concernant les
communications, l’homme aura très bientôt à sa disposition des réseaux capables de
transmettre des milliers de milliards de bits par seconde et c’est ainsi, grâce au progrès
de la téléphonie mobile et des transports à grande vitesse, qu’il renforcera son sentiment
d’indépendance, son individualité et son ubiquité.
L’ère numérique
De la photographie à la TV, de la musique à la littérature, des documents de bureau à
la déclaration d’impôts, tout est numérisé. Au nom de l’efficacité, de la rapidité et de
l’universalité, le monde devient numérique pour s’adapter à l’ordinateur et à Internet.
Regardons par exemple du côté de la médecine et de la santé publique. La numérisation
a d’abord envahi des territoires à la frontière du progrès médical allant de la génomique
à l’imagerie et à la robotique, pour ensuite s’attaquer à la médecine de base et à ses
principaux services. Ceci a pour but de transformer la médecine en une « vraie science »
car, avec les moyens informatiques mis à la disposition des praticiens, nous pourrons
surmonter les problèmes liés à l’immense diversité des individus de notre espèce : en
étant capables de stocker les données historiques de chaque patient et d’analyser
l’évolution de ses pathologies, son médecin sera à même de lui prescrire des soins ciblés
et personnalisés. L’approche informatique pourra ainsi améliorer la qualité et la fiabilité
des services médicaux et réduire la fréquence des erreurs humaines. Il faudra du temps,
car tout changement crée des résistances et exige des restructurations. Les rapports entre
médecins et patients changeront, ainsi que ceux entre services hospitaliers et assurances.
Le résultat d’une approche plus rationnelle pourrait amener à un meilleur contrôle des
dépenses et donc à une baisse du coût de la santé.
Informatique et société 5
Par ailleurs, l’être humain souffre d’un excès d’information. On parle de déluge de
données produit par toutes sortes de moyens qui s’ajoutent à la masse d’informations
diffusées par les médias et les réseaux sociaux. La solution est de filtrer automatiquement
les informations inutiles ou non sollicitées, afin d’obtenir des données claires et
essentielles. Il faut réduire le volume de papier imprimé et de données électroniques qui
nous submergent. Mise à part la poubelle, l’ordinateur est le seul outil qui peut nous
aider.
Les moyens modernes de communication nous permettent d’amener avec nous en
déplacement les données et les documents utiles pour travailler, se connecter au réseau,
lire et répondre à des messages électroniques, exécuter des calculs à distance ou faire des
recherches dans des bases de données. La distance entre continents n’est plus un obstacle
au travail de collaboration. Internet et le web ont changé la façon d’étudier et de
travailler. La Terre est devenue bien petite grâce à eux !
Un autre phénomène est la prolifération des téléphones mobiles qui, en offrant la
possibilité aux utilisateurs de communiquer entre eux via la messagerie et les réseaux
sociaux, de se connecter à Internet, de regarder la TV, de prendre des photos et de les
envoyer, font donc de la concurrence aux ordinateurs portables. La dimension très petite
de ces appareils est certainement un de leurs meilleurs atouts. La progression de ces
étonnants petits outils continue avec l’avancée technologique. L’ubiquité qu’ils offrent
aux utilisateurs, couplée à la géolocalisation, ouvre la voie à de nouveaux domaines
d’applications.
Les défis du changement continu
La séparation entre recherche, développement et innovation est moins marquée que par
le passé. Même la distinction entre recherche fondamentale et appliquée tend à s’effacer.
Le changement continu impose aux individus et aux entreprises une adaptation et une
éducation permanente. Le changement ne doit pas être subi, mais géré. Il nous faut vivre
ancrés dans le présent, la tête tournée vers le futur et à chaque pas en avant, préparer le
suivant. Mais gérer le changement n’est pas facile, ni pour les personnes, ni pour les
entreprises et encore moins pour ceux qui nous gouvernent : tous se trouvent à devoir
gérer les difficultés du présent tandis qu’il faudrait préparer le futur. L’ordinateur joue
un rôle important dans le changement ainsi que dans sa gestion. Les professions et les
places de travail pour informaticiens se sont multipliées, entraînées par le progrès
© Dunod. Toute reproduction non autorisée est un délit.
avancés. Les TIC sont considérées comme habilitant le progrès dans les sciences et dans
la recherche appliquée à l’industrie. Elles seront appelées à soutenir le développement
de l’économie et de la société plus que toute autre technologie. Pour donner une idée
des transformations qui viendront bouleverser nos connaissances, voici quelques
exemples tirés des frontières actuelles de l’informatique et de ses applications dans des
domaines tels que la bio-informatique, l’énergie, l’environnement et la société de
l’information.
Bio-informatique
L’EMBL (Laboratoire européen de biologie moléculaire) avait en 1993 déjà, reconnu
l’importance de la bio-informatique et ouvert une branche, l’EBI, Institut européen de
bio-informatique, à Cambridge, ayant pour but d’annoter et conserver des données
d’importance biologique telles que des séquences de génomes d’espèces vivantes et des
mesures 3D de protéines, et de mettre à dispositions des chercheurs toutes sortes de
données et de logiciels bio-informatiques. L’Union européenne a reconnu cette
discipline comme stratégique et a lancé le projet Elixir pour réaliser un réseau de
compétences et d’infrastructures bio-informatiques recouvrant toute l’Europe.
Caractérisée par des groupes pluridisciplinaires de chercheurs, la bio-informatique,
discipline à la frontière entre les TIC et la biologie moléculaire, peut encourager les
entrepreneurs à investir dans un secteur économique en grande expansion, en facilitant
l’accès à la recherche biomédicale. À la base de cette initiative, il y a la conscience que
l’accès aux technologies bio-informatiques puisse améliorer la qualité de la vie en faisant
avancer les méthodes de prévention, le diagnostic et les soins aux malades.
L’approche de cette recherche passe par l’étude des différents niveaux d’organisation
biologique allant des molécules aux organismes vivants. La recherche dans la « nouvelle
biologie », science basée sur l’information et la communication, s’articule sur un nombre
croissant de nouvelles disciplines, toutes fortement dépendantes des technologies
informatiques, telles par exemple :
• Génomique, génétique des populations et génotypes : ce domaine de recherche vise
les variations géniques d’une population isolée (Islande, villages de Sardaigne) et
cherche à découvrir leurs liens avec des pathologies ayant une présence significative
dans un territoire limité et génétiquement isolé. En Sardaigne, des chercheurs
travaillent à l’analyse de variations géniques spécifiques et au séquençage de l’ADN
de quelques milliers de personnes. L’opportunité existe d’exploiter ces données
génomiques grâce à la mise à disposition de séquenceurs puissants de dernière
génération connectés à un ordinateur très performant. Cela permet d’étudier les
corrélations entre des gènes et certaines pathologies et de prévoir l’effet des variantes
géniques sur l’état de santé de la population locale.
• Génomique fonctionnelle : le génome contient les instructions codées pour fabriquer
les protéines, les enzymes, les hormones, les anticorps et tous les produits
fonctionnels des organismes. Chaque produit est exprimé, construit en quantité et
en temps différents selon les besoins, dans chaque cellule et tissus intéressés par sa
production. On peut analyser les données des expressions géniques obtenues en
laboratoire et étudier à l’aide de méthodes bio-informatiques les corrélations entre
Informatique et société 7
Histoire de l’ordinateur
1.1 Introduction
L’homme a toujours eu besoin de compter. Au cours de la Préhistoire, il ne savait
calculer qu’à l’aide de cailloux (latin : calculi) ou de ses mains, qui furent sans doute les
premières calculatrices de poche. On trouve des traces de symboles et de chiffres dans
certaines civilisations de l’Antiquité, quelques millénaires avant notre ère. Chinois,
Égyptiens, Sumériens, Babyloniens, Grecs ou Romains, tous avaient des symboles
numériques et des méthodes pour compter et calculer.
Ces systèmes de numération s’inspiraient naturellement du nombre de doigts ; c’est ainsi
que les Romains, par exemple, établirent des symboles spéciaux pour indiquer 5 et 10
unités (V et X). Dans certaines civilisations pieds-nus utilisant les mains et les pieds pour
compter, le nombre 20 était parfois choisi comme base de numération. Dans certaines
régions asiatiques, on comptait en se servant des articulations des doigts ou des
phalanges, d’où des numérations en base 12, 14, 15, 24, 30, 60, etc.
Les doigts ont servi à nos ancêtres pour compter et pour effectuer toutes sortes
d’opérations arithmétiques. On retrouve des traditions de calcul digital chez les anciens
Égyptiens, les Grecs et les Romains, mais aussi chez les Chinois, les Aztèques du
Mexique précolombien, les Indiens, les Persans, les Arabes, etc.
Curieusement, on utilise, en langue anglaise, le terme de calcul digital dans la nouvelle
science informatique, le mot digit ayant le sens de chiffre. En français, on parlera plutôt
de calcul numérique pour éviter un contresens. Dans les ordinateurs, on utilise des bits
© Dunod. Toute reproduction non autorisée est un délit.
(le terme bit est la contraction de l’expression anglaise binary digit), l’écriture binaire des
nombres ne comportant que les deux chiffres 0 et 1.
La plus naturelle et la plus répandue des numérations était celle qui comptait en base 10
et elle nous est parvenue à travers les siècles avec ses symboles introduits par les Indiens,
modifiés et complétés par les Arabes. Notre système décimal actuel est le résultat de cette
évolution et des moyens mis en œuvre pour lui donner des formes adaptées à l’expression
écrite et orale et aux méthodes de calcul.
Si le système décimal est celui de l’immense majorité des hommes, il ne faut pas oublier
que d’autres sont toujours utilisés, tel le système sexagésimal (base 60) pour exprimer les
mesures du temps, tout comme celles des arcs et des angles. L’origine du système
10 Chapitre 1
famille, etc.).
Une fois perforées, les cartes étaient placées dans des lecteurs qui détectaient les trous.
Ceci à l’aide d’aiguilles qui traversaient les trous et établissaient un circuit électrique en
trempant dans des petits pots de mercure placés de l’autre coté de la carte. Le système
de Hollerith était si rapide qu’un premier décompte fut établi en quelques semaines et
une analyse statistique complète en deux ans et demi. La population était passée en dix
ans de 50 à 63 millions d’individus, mais le recensement de 1890 avait été fait en trois
fois moins de temps qu’en 1880 ! Hollerith fonda la Tabulating Machines Company pour
produire ses systèmes à cartes perforées. Sa compagnie rencontra un succès de longue
durée. En 1924, cinq ans avant la mort de son fondateur, elle devint l’International
Business Machines Corporation, ou IBM.
14 Chapitre 1
Dans le même temps, les premières machines analogiques utilisées pour effectuer des
calculs mathématiques sont inventées comme le calculateur de marées par Lord Kelvin
en 1872. Sa machine utilise des roues avec des chevilles décentrées pour produire un
mouvement sinusoïdal et une corde glissant sur des poulies pour additionner les
différentes harmoniques.
calculateurs. L’adoption du système binaire au lieu du décimal était aussi dans l’esprit
de certains pionniers. Konrad Zuse à Berlin, John Atanasoff à l’université de l’État de
Iowa et George Stibitz aux Laboratoires Bell, travaillant indépendamment,
construisirent des prototypes de machines binaires. Dès 1936, Zuse fabrique avec des
moyens très modestes des machines électromécaniques, qu’il appelle Z1 et Z2,
fonctionnant selon le système binaire. En 1938, il propose la construction d’un
calculateur électronique comportant 1 500 tubes à vide, mais le gouvernement allemand
juge le projet irréalisable. Zuse construit alors un calculateur binaire universel avec 2 600
relais de téléphone, le Z3. Les programmes sont introduits au moyen d’un film vidéo
perforé. Une multiplication dure environ 5 secondes. Le Z3 sera terminé en 1941 et,
comme d’ailleurs son successeur le Z4, sera effectivement utilisé pour résoudre des
problèmes de conception aéronautique et de missiles.
Parmi les derniers précurseurs de l’ordinateur il faut citer Mark 1, une énorme machine
électromécanique construite entre 1939 et 1944 par IBM et l’université de Harvard,
sous la direction de Howard Aiken. Ce calculateur, capable de multiplier deux nombres
de 23 chiffres décimaux en 6 secondes et d’effectuer des additions ou soustractions en
trois dixièmes de seconde, était conçu sur la base du système décimal. Avec ses milliers
de roulements à billes et ses 760 000 pièces électromécaniques, le Mark 1 était une sorte
de machine analytique du XXe siècle ; en fait, il se révéla obsolète avant même d’être
terminé.
dans une mémoire non-modifiable). Pour cette raison l’ENIAC, bien qu’étant le
premier calculateur électronique, n’est pas toujours considéré comme le premier
ordinateur, selon le sens donné aujourd’hui à ce terme.
Avant la fin de 1945, John von Neumann, un mathématicien d’origine hongroise,
associé comme consultant au projet ENIAC, franchit le dernier obstacle et proposa la
construction de l’EDVAC (Electronic Discrete Variable Automatic Computer), machine
modèle de l’ordinateur tel qu’on le conçoit à présent. Il accomplit une abstraction
géniale du système de commande de la machine, en proposant d’enregistrer le
programme en mémoire. La machine gagne ainsi en souplesse et en vitesse. Instructions
et données sont stockées dans la mémoire même de la machine. Le programme peut
décider quels calculs exécuter, quel chemin choisir pour la suite des opérations, sur la
base des résultats intermédiaires. Le déroulement du programme peut être commandé
par des décisions logiques, ce qui permet des sauts et des branchements conditionnels
dans le programme. L’ordinateur est né.
On peut ainsi résumer les caractéristiques de l’ordinateur selon von Neumann :
• une machine universelle contrôlée par programme ;
• les instructions du programme sont codées sous forme numérique (binaire) et
enregistrées en mémoire ;
• le programme peut modifier ses propres instructions, qui sont normalement
exécutées en séquence ;
• des instructions existent permettant les ruptures de séquence.
Dans une communication qui fera date, von Neumann décrit en 1945 les cinq
composants essentiels de ce qui allait désormais être appelé l’architecture de von
Neumann :
• l’unité arithmétique et logique (UAL) ;
• l’unité de commande ;
• la mémoire centrale ;
• l’unité d’entrée ;
• l’unité de sortie.
Von Neumann fait aussi remarquer qu’un tel système, pour être vraiment efficace et
performant, doit fonctionner électroniquement et selon la numération binaire. Les
principes de von Neumann guideront la conception des ordinateurs jusqu’à nos jours.
De 1945 à 1950, on construit des prototypes partout, aux États-Unis comme en Europe.
Paradoxalement, ce ne sera pas von Neumann qui réalisera, le premier, une machine
selon ses principes. L’EDVAC prend du retard à cause de querelles entre les
protagonistes de cette grande réalisation, notamment Eckert, Mauchly, Goldstine et von
Neumann. Querelles de conception mais aussi querelles de brevets et de paternité de
l’invention. Les premiers ordinateurs obéissants aux principes dictés par von Neumann
seront achevés par des scientifiques britanniques, avec deux ans d’avance sur l’EDVAC.
Kilburn, Williams et Tootill construiront le SSEM à Manchester tandis que Maurice
Wilkes, à Cambridge, réalisera L’EDSAC (Electronic Delay Storage Automatic