0% ont trouvé ce document utile (0 vote)
234 vues8 pages

Histoire des Ordinateurs: 19e-20e Siècle

L'histoire des ordinateurs a commencé au 19ème siècle avec des machines de calcul mécaniques et a progressé au 20ème siècle avec le développement des premiers ordinateurs électroniques et numériques. Le document détaille ensuite l'histoire des ordinateurs depuis le 19ème siècle jusqu'aux années 1970.

Transféré par

Rabbii Amanakou
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats DOC, PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
234 vues8 pages

Histoire des Ordinateurs: 19e-20e Siècle

L'histoire des ordinateurs a commencé au 19ème siècle avec des machines de calcul mécaniques et a progressé au 20ème siècle avec le développement des premiers ordinateurs électroniques et numériques. Le document détaille ensuite l'histoire des ordinateurs depuis le 19ème siècle jusqu'aux années 1970.

Transféré par

Rabbii Amanakou
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats DOC, PDF, TXT ou lisez en ligne sur Scribd

1

L'histoire des ordinateurs a commencé avec des conceptions primitives au début du 19e
siècle et a continué à changer le monde au cours du 20e siècle.

Si l'on devait réaliser une frise chronologique représentant l'histoire des ordinateurs, elle
remonterait à plus de 200 ans. Au cours du XIXe siècle, le traitement des chiffres posant des
problèmes de plus en plus complexes, les premières machines à calculer mécaniques ont été
conçues et construites afin de les résoudre. Les progrès technologiques ont permis la
construction d'ordinateurs toujours plus performants au début du XXe siècle, et la taille des
machines augmentait proportionnellement à leur puissance.

Aujourd'hui, les ordinateurs sont presque méconnaissables par rapport à leurs ancêtres du 19e
siècle, comme le moteur analytique de Charles Babbage. Mais même s'il vous venait à l'idée de
comparer les ordinateurs contemporains avec ceux du 20e siècle qui occupaient des pièces
entières, comme l'intégrateur et le calculateur numériques électroniques, la différence serait
frappante.

Voici une brève histoire de l'informatique, depuis ses origines primitives du traitement des
chiffres jusqu'aux puissantes machines modernes qui font tourner les logiciels et jeux les plus
gourmands en resources ou les modèles polyvalents prisés par les étudiants.

I. Le 19ème siècle: le début des machines de calcul


2

1801 : Joseph-Marie Jacquard, un marchand et inventeur français, invente un métier à tisser qui
utilise des cartes perforées en bois (semblable à l'orguie de Barbarie) pour tisser
automatiquement des motifs de tissu. La machine, baptisée Métier Jacquard est à l'origine des
cartes perforées similaires que les premiers ordinateurs utiliseront.

1821 : Le mathématicien anglais Charles Babbage conçoit une machine à calculer à vapeur
capable de calculer des tables de nombres. Financé par le gouvernement britannique, le projet,
appelé "Difference Engine", échoue en raison du manque de technologie à l'époque, selon
l'université du Minnesota.
3

1848 : Ada Lovelace, une mathématicienne anglaise et la fille du poète Lord Byron, écrit le
premier programme informatique au monde. Selon Anna Siffert, professeur de mathématiques
théoriques à l'université de Münster en Allemagne, Lovelace écrit le premier programme alors
qu'elle traduit du français à l'anglais un article sur le moteur analytique de Babbage. "Elle fournit
également ses propres commentaires sur le texte. Ses annotations, appelées simplement
"notes", s'avèrent être trois fois plus longues que la transcription réelle", écrit Siffert dans un
article pour la Société Max Planck. "Lovelace ajoute également une description étape par étape
pour le calcul des nombres de Bernoulli avec la machine de Babbage - essentiellement un
algorithme - ce qui, en fait, fait d'elle le premier programmeur informatique du monde." Les
nombres de Bernoulli sont une suite de nombres rationnels souvent utilisés en calcul.

1853 : L'inventeur suédois Per Georg Scheutz et son fils Edvard conçoivent la première
calculatrice d'impression au monde. La machine est importante car elle est la première à
"calculer des différences tabulaires et à imprimer les résultats", selon le livre d'Uta C. Merzbach,
"Georg Scheutz and the First Printing Calculator" (Smithsonian Institution Press, 1977).

1890 : Herman Hollerith conçoit un système de cartes perforées pour aider à calculer le
recensement américain de 1890. La machine permet au gouvernement d'économiser plusieurs
années de calculs et au contribuable américain d'économiser environ 5 millions de dollars,
selon l'université de Columbia. Hollerith crée ensuite une société qui deviendra plus tard
International Business Machines Corporation (IBM).

II. Le Debut du 20e siècle et les progrès informatiques

1936 : Alan Turing, un scientifique et mathématicien britannique, présente le principe d'une


machine universelle, appelée plus tard machine de Turing, dans un article intitulé "On
Computable Numbers...", selon le livre de Chris Bernhardt "Turing's Vision" (The MIT Press,
2017). Les machines de Turing sont capables de calculer tout ce qui est calculable. Le concept
central de l'ordinateur moderne est basé sur ses idées. Turing est ensuite impliqué dans le
développement de la bombe Turing-Welchman, un dispositif électromécanique conçu pour
déchiffrer les codes nazis pendant la Seconde Guerre mondiale, selon le National Museum of
Computing du Royaume-Uni. Un très bon film sur le sujet, The Imitation Game retrace le
parcours de Turing.

1937 : John Vincent Atanasoff, professeur de physique et de mathématiques à l'université d'État


de l'Iowa, soumet une proposition de subvention pour construire le premier ordinateur
exclusivement électrique, sans utiliser d'engrenages, de cames, de courroies ou d'arbres.

1939 : David Packard et Bill Hewlett fondent la Hewlett Packard Company à Palo Alto, en
Californie. Ils décident du nom de leur nouvelle entreprise à pile ou face, et le premier siège
social de Hewlett-Packard se trouve dans le garage de Packard, selon le MIT.

1941 : L'inventeur et ingénieur allemand Konrad Zuse achève sa machine Z3, le premier
ordinateur numérique au monde, selon le livre de Gerard O'Regan "A Brief History of
4

Computing" (Springer, 2021). La machine a été détruite lors d'un bombardement sur Berlin
pendant la Seconde Guerre mondiale. Zuse a fui la capitale allemande après la défaite de
l'Allemagne nazie et a ensuite sorti le premier ordinateur numérique commercial du monde, le
Z4, en 1950, selon O'Regan.

1941 : Atanasoff et son étudiant diplômé, Clifford Berry, conçoivent le premier ordinateur
électronique numérique aux États-Unis, appelé Atanasoff-Berry Computer (ABC). C'est la
première fois qu'un ordinateur est capable de stocker des informations sur sa mémoire
principale et d'effectuer une opération toutes les 15 secondes, selon le livre "Birthing the
Computer" (Cambridge Scholars Publishing, 2016).

III. La deuxième partie du 20e siècle et l’aboutissement de l’informatique

1945 : Deux professeurs de l'université de Pennsylvanie, John Mauchly et J. Presper Eckert,


conçoivent et construisent l'intégrateur et calculateur numérique électronique (ENIAC). Cette
machine est le premier " ordinateur numérique automatique, polyvalent, électronique et décimal
", selon l'ouvrage d'Edwin D. Reilly intitulé " Milestones in Computer Science and Information
Technology " (Greenwood Press, 2003).

1946 : Mauchly et Presper quittent l'université de Pennsylvanie et reçoivent des fonds du


Census Bureau pour construire l'UNIVAC, le premier ordinateur commercial destiné aux
applications commerciales et gouvernementales.

1947 : William Shockley, John Bardeen et Walter Brattain des Laboratoires Bell inventent le
transistor. Ils découvrent comment fabriquer un interrupteur électrique avec des matériaux
solides et sans avoir besoin de vide.

1949 : Une équipe de l'université de Cambridge met au point la calculatrice électronique


automatique à mémoire de retard (EDSAC), "le premier ordinateur pratique à programme
enregistré", selon O'Regan. "L'EDSAC a exécuté son premier programme en mai 1949 en
calculant une table de carrés et une liste de nombres premiers", écrit O'Regan. En novembre
1949, des scientifiques du Council of Scientific and Industrial Research (CSIR), aujourd'hui
appelé CSIRO, construisent le premier ordinateur numérique d'Australie, appelé Council for
Scientific and Industrial Research Automatic Computer (CSIRAC). Le CSIRAC est le premier
ordinateur numérique au monde à jouer de la musique, selon O'Regan.
5

1954 : John Backus et son équipe de programmeurs d'IBM publient un article décrivant leur
nouveau langage de programmation FORTRAN, acronyme de FORmula TRANslation, selon le
MIT.

1958 : Jack Kilby et Robert Noyce dévoilent le circuit intégré, connu sous le nom de puce
informatique. Kilby recevra plus tard le prix Nobel de physique pour ses travaux.

1968 : Douglas Engelbart dévoile un prototype de l'ordinateur moderne lors de la Fall Joint
Computer Conference, à San Francisco. Sa présentation, intitulée "A Research Center for
Augmenting Human Intellect", comprend une démonstration en direct de son ordinateur, avec
une souris et une interface utilisateur graphique (GUI), selon le Doug Engelbart Institute. Cela
marque l'évolution de l'ordinateur, qui est passé d'une machine spécialisée pour les
universitaires à une technologie plus accessible au grand public.

1969 : Ken Thompson, Dennis Ritchie et un groupe d'autres développeurs des Bell Labs
produisent UNIX, un système d'exploitation qui a rendu "pratique la mise en réseau à grande
échelle de divers systèmes informatiques - et l'Internet", selon les Bell Labs.... L'équipe à
l'origine d'UNIX a continué à développer le système d'exploitation en utilisant le langage de
programmation C, qu'elle a également optimisé.

1970 : La société Intel nouvellement créée dévoile l'Intel 1103, la première puce de mémoire
vive dynamique (DRAM).

1971 : Une équipe d'ingénieurs d'IBM dirigée par Alan Shugart invente la "disquette", qui
permet de partager des données entre différents ordinateurs.

1972 : Ralph Baer, un ingénieur germano-américain, lance en septembre 1972 la Magnavox


Odyssey, la première console de jeu domestique au monde, selon le Computer Museum of
America. Quelques mois plus tard, l'entrepreneur Nolan Bushnell et l'ingénieur Al Alcorn, de la
société Atari, lancent Pong, le premier jeu vidéo à succès au monde.

1973 : Robert Metcalfe, membre du personnel de recherche de Xerox, développe Ethernet pour
connecter plusieurs ordinateurs et autres matériels.

1977 : Le Commodore Personal Electronic Transactor (PET), lancé sur le marché des
ordinateurs domestiques, est équipé d'un microprocesseur 8 bits 6502 de MOS Technology, qui
6

contrôle l'écran, le clavier et le lecteur de cassettes. Le PET connaît un succès particulier sur le
marché de l'éducation, selon O'Regan.

1975 : La couverture du numéro de janvier de "Popular Electronics" présente l'Altair 8080


comme le "premier kit de mini-ordinateur au monde capable de rivaliser avec les modèles
commerciaux". Après avoir vu le numéro du magazine, deux "geeks de l'informatique", Paul
Allen et Bill Gates, proposent d'écrire des logiciels pour l'Altair, en utilisant le nouveau langage
BASIC. Le 4 avril, après le succès de cette première tentative, les deux amis d'enfance créent
leur propre société de logiciels, Microsoft.

1976 : Steve Jobs et Steve Wozniak cofondent Apple Computer le jour du poisson d'avril. Ils
dévoilent l'Apple I, le premier ordinateur doté d'une carte à circuit unique et d'une mémoire
ROM (Read Only Memory), selon le MIT.

1977 : Radio Shack commence la production initiale de 3 000 ordinateurs TRS-80 Model 1 —
surnommés " Trash 80 " — au prix de $599 , selon le National Museum of American History. En
l'espace d'un an, la société a enregistré 250 000 commandes pour cet ordinateur, selon le livre
"How TRS-80 Enthusiasts Helped Spark the PC Revolution" (The Seeker Books, 2007).

1977 : La première West Coast Computer Faire se tient à San Francisco. Jobs et Wozniak y
présentent l'ordinateur Apple II, qui comprend des graphiques en couleur et un lecteur de
cassettes audio pour le stockage.

1978 : VisiCalc, le premier tableur informatisé, est présenté.

1979 : MicroPro International, fondée par l'ingénieur en logiciels Seymour Rubenstein, lance
WordStar, le premier traitement de texte commercial au monde. WordStar est programmé par
Rob Barnaby, et comprend 137 000 lignes de code, selon le livre de Matthew G. Kirschenbaum
"Track Changes : A Literary History of Word Processing" (Harvard University Press, 2016).

1981 : "Acorn", le premier ordinateur personnel d'IBM, est mis sur le marché au prix de 1 565
dollars, selon IBM. Acorn utilise le système d'exploitation MS-DOS de Windows. Les
caractéristiques optionnelles comprennent un écran, une imprimante, deux lecteurs de
disquettes, de la mémoire supplémentaire, un adaptateur de jeu et plus encore.
7

1983 : L'Apple Lisa, qui signifie "Local Integrated Software Architecture" mais qui est aussi le
nom de la fille de Steve Jobs, selon le National Museum of American History (NMAH), est le
premier ordinateur personnel doté d'une interface graphique. La machine comprend également
un menu déroulant et des icônes. Cette année-là également, le Gavilan SC est commercialisé.
Il s'agit du premier ordinateur portable au design flip-form et du tout premier à être vendu
comme un "ordinateur portable".

1984 : Le Macintosh d'Apple est annoncé au monde entier lors d'une publicité du Superbowl. Le
Macintosh est lancé avec un prix de détail de $2 500, selon le NMAH.

1985 : En réponse à l'interface graphique de l'Apple Lisa, Microsoft lance Windows en


novembre 1985, selon le Guardian. Pendant ce temps, Commodore annonce l'Amiga 1000.

1989 : Tim Berners-Lee, un chercheur britannique de l'Organisation européenne pour la


recherche nucléaire (CERN), soumet sa proposition pour ce qui deviendra le World Wide Web.
Son document détaille ses idées pour le langage de balisage hypertexte (HTML), les éléments
constitutifs du Web.

1993 : le microprocesseur Pentium permet de faire progresser l'utilisation des graphiques et de


la musique sur les PC.

1996 : Sergey Brin et Larry Page développent le moteur de recherche Google à l'université de
Stanford.

1997 : Microsoft investit 150 millions de dollars dans Apple, qui connaît à l'époque des
difficultés financières. Cet investissement met fin à une affaire judiciaire en cours dans laquelle
Apple accusait Microsoft de copier son système d'exploitation.

1999 : Le Wi-Fi, terme abrégé de "wireless fidelity" (fidélité sans fil), est mis au point et couvre
initialement une distance allant jusqu'à 91 mètres (300 pieds), selon Wired.

IV. Le 21e siècle la perfection de l’informatique et des ordinateurs

2003 : L'Athlon 64 d'AMD, le premier processeur 64 bits pour ordinateurs personnels, est
proposé aux clients.

2004 : La Mozilla Corporation lance Mozilla Firefox 1.0. Ce navigateur Web est l'un des
premiers grands défis lancés à Internet Explorer, propriété de Microsoft. Au cours de ses cinq
premières années, Firefox a dépassé le milliard de téléchargements par les utilisateurs, selon le
Web Design Museum.

2005 : Google rachète Android, un système d'exploitation pour téléphones mobiles basé sur
Linux.

2006 : Le MacBook Pro d'Apple arrive sur les étagères. Le Pro est le premier ordinateur mobile
à double cœur basé sur Intel de la société.
8

2009 : Microsoft lance Windows 7 le 22 juillet. Le nouveau système d'exploitation permet


d'épingler des applications à la barre des tâches, de disperser des fenêtres en secouant une
autre fenêtre, d'accéder facilement à des listes de raccourcis, de prévisualiser plus facilement
les tuiles et bien plus encore, rapporte TechRadar.

2010 : L'iPad, la tablette portable phare d'Apple, est dévoilé.

2011 : Google lance le Chromebook, qui fonctionne sous Google Chrome OS.

2015 : Apple lance l'Apple Watch. Microsoft lance Windows 10.

2016 : Le premier ordinateur quantique reprogrammable est créé. "Jusqu'à présent, aucune
plateforme d'informatique quantique n'avait la capacité de programmer de nouveaux
algorithmes dans son système. En général, chacune d'entre elles est conçue pour attaquer un
algorithme particulier", a déclaré l'auteur principal de l'étude, Shantanu Debnath, physicien
quantique et ingénieur en optique à l'université du Maryland, College Park.

2017 : La Defense Advanced Research Projects Agency (DARPA) développe un nouveau


programme d'"informatique moléculaire" qui utilise les molécules comme des ordinateurs. "La
chimie offre un riche ensemble de propriétés que nous pourrions être en mesure d'exploiter
pour le stockage et le traitement rapides et évolutifs de l'information", a déclaré Anne Fischer,
responsable du programme au sein du Defense Sciences Office de la DARPA, dans un
communiqué. "Il existe des millions de molécules, et chaque molécule possède une structure
atomique tridimensionnelle unique ainsi que des variables telles que la forme, la taille ou même
la couleur. Cette richesse offre un vaste espace de conception permettant d'explorer de
nouvelles façons, à valeurs multiples, de coder et de traiter les données au-delà des 0 et des 1
des architectures numériques actuelles basées sur la logique."

Vous aimerez peut-être aussi