Initiation à l’informatique Présentation générale
Présentation générale
1. Introduction
C'est en 1962 que Philippe Dreyfus employé le mot informatique pour définir le traitement
automatique de l'information. En fait ce mot peut correspondre à deux groupes de disciplines
distinctes: l'ensemble des techniques mises en oeuvre pour l'emploi de l'ordinateur ( electronic data
processing ), une science nouvelle, qui ne nécessite pas obligatoirement l'utilisation des ordinateurs,
ces derniers n'en sont qu'un outil majeur ( computer science ).
On peut donc affirmer que l'informatique est une discipline carrefour, dont les ordinateurs actuels,
les structures intellectuelles (algorithmes de calcul) et institutionnelles (organisation comptable,
organisation industrielle) déterminent en majeure partie le contenu.
D'un point de vue plus général, il n'est plus à démontrer que l'informatique envahit progressivement,
sous beaucoup de formes, notre vie quotidienne, tant est puissant son développement.
L'informatique aujourd'hui, c'est à la fois les calculettes de poche et les ordinateurs portables, les
consoles et jeux vidéo, mais aussi l'aventure spatiale, les robots industriels, les applications
médicales telles que le scanner, les cartes à puce et bien d'autres applications. L'informatique à
travers l'ordinateur modifie, et modifiera plus encore, l'organisation du travail et les rapports entre
les individus.
2. L’histoire de l’informatique
C'est durant la période de 10000 avant J.C. que naquit le traitement rationnel de l'information.
L'homme changea son mode de vie en passant du stade de chasseur à celui d'agriculteur. Dans ce
nouveau mode de vie, l'homme doit disposer de semences, d'outils, d'animaux de ferme. C'est
pourquoi il lui est nécessaire de mettre en place un système de troc et de ce fait, l'homme doit
apprendre à s'organiser, compter, écrire : c'est l'apparition du traitement de l'information. On
découvrit alors en Mésopotamie l'utilisation de boules, de jetons d'argile et de tablettes par les
Sumériens qui servait dans ce système d'échange.
En arrivant au XIIIe siècle, époque de grandes effervescences intellectuelles, pour voir apparaître
des systèmes de calcul plus rapides et plus automatiques.
• XIIIe : fabrication de l'Ars Magna, par Raymond Lulle : il s'agit d'une «machine logique»
faite de cercles concentriques contenant des mots qui, disposés dans un certain ordre,
forment des questions tandis que d'autres mots y répondent.
• XVIe : invention du codage binaire par Francis Bacon et du logarithme (à l'origine créé pour
simplifier des calculs compliqués) par Napier.
• 1624 : Wilhem Schickard construit une «horloge automatique calculante» à Heidelberg
• 1642 : Blaise Pascal, à 19 ans, crée la «Pascaline», machine à calculer mécanique à base de
roues dentées, capable de faire des additions et des soustractions, le langage PASCAL sera
plus tard ainsi nommé en son honneur.
• 1673 : Leibniz, grand mathématicien, améliore la Pascaline en y ajoutant la multiplication et
la division ; par ailleurs, il s'intéresse beaucoup à la numérotation binaire avec laquelle il
essaie de concevoir une «caractéristique universelle» dont l'objectif est de réduire toutes les
opérations logiques à un calcul.
• XVIIIe : La Mettrie, philosophe disciple de Descartes, radicalise la philosophie de ce dernier
et écrit L'homme machine, où il argumente en faveur d'une vision mécaniste du vivant
(Descartes lui-même aurait construit un automate à visage humain). Les automates sont très
à la mode à cette époque. L'horloger suisse Vaucansson en construit de très célèbres parmi
lesquels un joueur de flûte et un canard pourvu de fonctions locomotrices et digestives,
exposés à paris en 1738 : leur fonctionnement utilise un «arbre à came» (comme dans les
boîtes à musique), codage binaire du mouvement. Un célèbre «joueur d'échec artificiel»
parcours aussi les cours européennes à la fin du siècle (il aurait notamment battu Napoléon)
UB Bendjima M. Page -1-
Initiation à l’informatique Présentation générale
avant qu'on ne démasque la supercherie : un nain caché sous la table actionnait en fait le
mécanisme.
• 1805 : Jacquart crée les métiers à tisser automatiques, qui utilisent des «programmes» sous
forme de cartes perforées, également utilisées dans les pianos mécaniques.
• 1818 : Mary Shelley publie «Frankenstein», où l'électricité donne l'étincelle de vie.
• 1822 : l'ingénieur anglais Babbage fait les premiers plans de sa «machine à différences»,
sorte de machine à calculer mécanique utilisant les logarithmes : trop complexe pour la
technologie de l'époque, elle ne sera construite d'après ces plans qu'au XXième siècle.
• 1832 : invention du langage Morse.
• 1833 : Babbage conçoit sa «analytical engine», encore plus performante (et compliquée) que
la «machine à différence», utilisant des cartes perforées pour enchaîner l'exécution
d'instructions élémentaires sur un calculateur universel (mécanique) : il passera sa vie et se
ruinera à essayer en vain de construire sa machine. Il sera aidé par Lady Ada Lovelace, fille
du poète Lord Byron, qui écrira les premiers «programmes» qu'aurait pu exécuter la
machine (le langage de programmation ADA sera ainsi nommé pour lui rendre hommage).
Cette machine aurait pourtant répondu aux besoins croissants en calcul dans la société
anglaise, notamment pour l'astronomie et la navigation.
• 1854 : Le logicien anglais Georges Boole publie son livre The Mathematical Analysis of
Logic, où il définit les opérateurs logiques dits «booléens», fondés sur deux valeurs 0/1 pour
coder Vrai/Faux.
• 1876 : Bell invente le téléphone.
• 1884 : L'ingénieur américain Hollerith dépose un brevet de machine à calculer automatique
• 1890 : Hollerith commercialise des machines à calculer électriques, utilisées notamment
pour traiter automatiquement les données d'un recensement aux Etats-Unis. Les besoins
industriels en calcul automatique se multiplient.
• 1896 : Hollerith crée une société appelée «Tabulation Machine Corporation», qui deviendra
en 1924, «International Business Machine» (IBM), qui existe toujours.
• 1921 : invention du mot «robot» par Karel Capek, auteur dramatique tchèque.
• 1925 : Vannevar Bush, ingénieur américain, construit un calculateur analogique au MIT
(Massachusetts Institute of Technology, prestigieuse école d'ingénieur américaine).
• 1927 : la télévision et la radio deviennent opérationnels.
• 1931 : l'allemant Konrad Zuse construit un calculateur automatique, le Z1.
• 1936 : Alan Turing propose sa définition des «machines de Turing» et Church invente le
«lambda-calcul», qui se révèlent avoir des capacités de calcul équivalentes.
• 1938 : fondation de Hewlett Packard, société de matériels électroniques.
• 1939 : John Atanassoff et Clifford Berry, son étudiant, conçoivent un prototype appelé ABC
à l'université de l'Iowa, reconnu comme le premier ordinateur digital.
• 1939-1945 : pendant la guerre,
o Alan Turing travaille dans le service anglais de décryptage des messages secrets
allemands (codés suivant le système appelé «Enigma») : il réalise une machine à
décrypter qui contribuera à la victoire des alliés, en 1941, il construit le « Colossus »
à l'université de Manchester (bientôt suivi du Mark I et du Mark II), premiers
ordinateurs européens avec le Z3 de Konrad Zuse qui, pour la première fois, propose
un contrôle automatique de ses opérations
o John Von Neumann, travaille sur les calculs de balistique nécessaires au projet
Manhattan (conception et réalisation de la première bombe atomique américaine).
• 1945 : John Von Neumann écrit un rapport où il propose l'architecture interne d'un
calculateur universel (ordinateur), appelée désormais «architecture de Von Neumann».
• 1946 : construction de l'ENIAC à l'Université de Pennsylvanie, dernier gros calculateur
électrique programmable (mais pas universel) : il fait 30 tonnes, occupe 160m2 et sa
mémoire est constituée de 18 000 tubes à vide, sa puissance est équivalente à celle d'une
petite calculette actuelle, pendant ce temps, Wallace Eckler et John Mauchly conçoivent le
UB Bendjima M. Page -2-
Initiation à l’informatique Présentation générale
Binac (Binary Automatic Computer), qui opère pour la première fois «en temps réel» mais
ne sera construit qu'en 1949, avec l'apport de Von Neumann.
• 1947 : invention du transistor (qui peut être vu comme un interrupteur miniature).
• 1948 : Claude Shannon publie sa Théorie mathématique de l'information, où est introduite la
notion de quantité d'information d'un objet et sa mesure en bits, l'année suivante il construit
la première machine à jouer aux échecs.
A partir de cette date, l'ordinateur existe et son histoire matérielle se réduit donc à l'évolution
des progrès technologiques, qu'on découpe habituellement en termes de «générations». Les
avancées conceptuelles les plus spectaculaires concernent, elles, principalement la conception
de nouveaux langages de programmation évolués.
Première génération : les monstres
• 1949 : construction de l'EDVAC, premier ordinateur construit suivant l'architecture de Von
Neumann et stockant ses données sur disques magnétiques.
• 1950 : Turing écrit un article dans une revue philosophique pour argumenter que le modèle
des ordinateurs peut réaliser tout ce que fait l'esprit humain.
• 1952 : IBM commercialise les premiers ordinateurs à lampes et à tubes à vide, IBM 650 puis
IBM 701.
• 1954 : premiers essais de programmation avec le langage FORTRAN (FORmula
TRANslator), encore utilisé de nos jours pour le calcul scientifique.
• 1955 : invention du mot «ordinateur» en France, à la demande d'IBM.
• 1956 : le terme d'Intelligence Artificielle est inventé lors d'une conférence à Dartmouth, aux
Etats-Unis.
Deuxième génération : intégration du transistor
• 1958 : l'IBM 7044, 64 Koctets de mémoire, est le premier ordinateur intégrant des
transistors ; John McCarthy invente le LISP, premier langage de l'Intelligence Artificielle
• 1959 : conception de COBOL (Common Business Oriented Language) : langage de
programmation spécialisé pour la gestion et le domaine bancaire, encore utilisé de nos jours
et du langage LISP (List Processing), adapté à des applications d'intelligence artificielle.
• 1960 : conception de ALGOL (ALGOrithmic Language), langage évolué de calcul
scientifique
Troisième génération : les circuits intégrés
• 1962 : le terme «informatique» est créé en France par contraction de «information
automatique»
• 1964 : utilisation des circuits intégrés (circuits électroniques miniatures).
• 1965 : le premier doctorat (thèse) en informatique est attribué à l'université de Pennsylvanie,
conception du langage BASIC (Beginners' All-purposes Symbolic Instruction Code) et du
langage PL/1 (Programming Language 1)
• 1969 : premier essai de transfert de fichier à distance par le réseau Arpanet, ancêtre
d'Internet, invention du langage PASCAL par Nicklaus Wirth
• 1971 : introduction des disquettes pour l'IBM 370, conception du langage LOGO, destiné à
l'initiation pédagogique aux concepts de la programmation.
UB Bendjima M. Page -3-
Initiation à l’informatique Présentation générale
Quatrième génération : les micro-ordinateurs
• 1972 : conception du langage C, particulièrement adapté à la programmation et à l'utilisation
de systèmes d'exploitation.
• 1973 : apparition des premiers micro-ordinateurs munis d'un clavier et d'un écran, création
de MICRAL, le premier micro-ordinateur français, et invention à Marseille du langage
PROLOG (PROgrammation LOGique), par Alain Colmerauer.
• 1975 : Bill Gates commercialise le langage BASIC et crée la société Microsoft avec Paul
Allen, le premier magasin spécialisé en informatique ouvre en Californie.
• 1976 : conception du langage Smalltalk, qui introduit la programmation «orientée objet».
• 1977 : création de la société Apple par Steve Jobs et Steve Wozniak et commercialisation de
l'Apple II, premier micro-ordinateur largement diffusé.
Cinquième génération : l'interface graphique et les réseaux
Les japonais avaient annoncé pour les années 90 l'apparition d'un nouveau type d'ordinateurs
«cinquième génération» dédiés à des applications d'Intelligence Artificielle, mais ces machines
d'un nouveau genre n'ont jamais vu le jour, et les évolutions majeures récentes sont plutôt à
chercher du côté d'Internet.
• 1983 : conception du langage ADA (en hommage à Lady Ada Lovelace), extension du
langage PASCAL, pour répondre à une demande de la NASA
• 1984 : Le McIntosh d'Apple introduit pour la première fois une interface graphique (menus,
icônes...) et la souris, conception du langage C++, version orientée objet du langage C.
• 1992 : création de Mosaïc au CERN de Genève, premier navigateur permettant de visualiser
des pages Web (et donc ancêtre de Netscape).
• 1995 : Windows 95 généralise l'interface graphique sur les PCs.
• …………….jusqu’a ce jours.
Donc, l'informatique n'est pas née d'hier, les premiers grands concepts datent de plus de
10000 ans. Cependant cette science ne s'est développée que depuis un demi siècle où la guerre a
été le facteur clef de développement de l'informatique.
3. Définitions
3.1. Le mot "informatique" : il est composé des deux mots information et automatique.
L'Académie française en a donné la définition suivante en 1965 : " Science du traitement rationnel,
notamment à l'aide de machines automatiques, de l'information, considérée comme le support de
connaissances dans les domaines scientifique, économique et social. ".
information automatique
Informatique
UB Bendjima M. Page -4-
Initiation à l’informatique Présentation générale
En général, l’informatique permet la manipulation, la gestion, l’organisation et le stockage de
l’information.
On peut citer parmi les avantages de l’informatique :
• Calculer avec une grande précision ;
• Gain en terme de temps ;
• Aider à prendre des décisions.
3.2. Le mot "ordinateur" : l’ordinateur signifiait au départ ‘calculateur numérique électronique’,
mais, aujourd’hui, pourrait être définit comme ‘une machine de traitement de l’nformation’.
Un ordinateur (computer) est capable de :
• Acquérir des informations ;
• Conserver des informations ;
• Effectuer des traitements sur des informations ;
• Restituer des informations.
3.3. Le mot "information" : généralement, on attribue le mot information le sens de données.
L’information peut être numérique, texte, image, son, dessin, vidéo, etc…
Pour pouvoir réaliser ces différentes opérations, un ordinateur doit posséder divers organes,
tels qu’un clavier pour la saisie manuelle d’informations, une mémoire, une unité centrale de
traitement et une imprimante ou un écran pour sortir les résultats, etc…
4. Les aspects de l’informatique
L’informatique est représentée par deux aspects distincts mais indissociables :
4.1. Le HARDWARE : qui est composé de l’ensemble de matériels (l’ordinateur et ses
périphériques).
4.2. Le SOFTWARE : pour animer un ordinateur, il faut avoir des logiciels (programmes) qui
trouvent place dans deux catégories :
- Logiciel système : qui est un ensemble de programmes chargés d’exploiter les ressources
matérielles et de définir la façon dont ces derniers doit se comporter à l’égard des commandes
introduites par un utilisateur. Exemples de logiciel système : le MS-DOS et Windows etc...
- Logiciel d’application : qui est un ensemble de programmes destinés à réaliser des taches biens
définies, tels que le traitement de texte Microsoft Word et le tableur Microsoft Excel etc…
5. La programmation
La programmation consiste à partir d’un problème donné, à réaliser un programme dont l’exécution
apporte une solution satisfaisante au problème posé. Elle consiste à écrire une suite d’instructions
dans un langage compréhensible par un ordinateur.
L’activité de programmation, ou plus généralement de développement de projets, se décompose en
plusieurs phases qui constituent le cycle de vie du logiciel :
· Compréhension du problème ;
· Spécification des fonctionnalités du système, on dit ce qu’on veut faire mais pas comment on
veut le faire ;
· Conception des algorithmes pour résoudre le problème ;
· Programmation c’est à dire faire des programmes ;
· Tests et validation des programmes ;
· Maintenance des programmes.
UB Bendjima M. Page -5-