0% ont trouvé ce document utile (0 vote)
100 vues88 pages

Cours D'informatique Generale Par Jonathan Kiditcho

Transféré par

christellee545
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
100 vues88 pages

Cours D'informatique Generale Par Jonathan Kiditcho

Transféré par

christellee545
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

SUPPORT DU COURS

D’INFORMATIQUE GENERALE

NOTE REFERENTIELLE DU COURS


Par

Ir. Jonathan KIDITCHO ETIUNE


Cours d’Informatique Générale | 1

INTRODUCTION
De nos jours, l’évolution des nouvelles technologies a donnée naissance à un mode de
gestion des ressources assez rentable. Vue ses aboutissements et la nécessité de faire
communiquer les différentes services d’une entreprise ; l’informatique est devenu non seulement
un monde à part avec son propre vocabulaire qui pris des ailes avec le temps mais également
l‘informatique est de plus en plus obligatoire.

La nécessité d'aller plus vite et d'être de plus en plus pointu dans le traitement de
l'information a favorisé l'introduction de l'informatique dans tous les domaines d'activités de la
vie. Aucun domaine n'échappe aux jours d’aujourd’hui à cette révolution technologique, qui au
fil des jours s'affiche comme un outil indispensable de travail. Le besoin de répartition et de
disponibilité de l'information à tous les postes des entreprises a entraîné l'émergence et la
multiplication des réseaux locaux qui entraînent le besoin d'interconnexion. Raison pour laquelle
un nouveau challenge s'offre aux professionnels de l'informatique : celui d'interconnecter les
réseaux locaux entre eux afin que l'emplacement géographique ne soit plus un handicap pour
l'accès aux informations.

Par ailleurs, cette évolution a suscité une révolution de telle manière que les informations
circulent d’un bout à l’autre du monde en temps record comme si nous habitons tous un même
endroit. Ainsi, le monde est devenu un petit village planétaire. D’où, la nécessité de mobilisation
des efforts et ressources pour la mise en place des systèmes adéquats afin de rendre disponible et
accessible les informations par tous, à n’importe quel moment et à n’importe quel point du globe
terrestre. En effet, grâce aux Nouvelles Technologies de l’Information et de la Communication
(NTIC) ; les liens entre les entreprises deviennent de plus en plus étroits et les métiers se
transforment. Ainsi, le monde du travail devient de plus en plus petit grâce aux rapprochements
issus de ces derniers.

Les progrès de l’informatique rendent possible le traitement des informations de façon


diversifiée. De plus, les progrès des techniques de transmission permettent de transférer sur un
même support ces informations variées. Les frontières entre les différents réseaux tendent à
s’estomper. Par exemple, le réseau Internet, initialement destiné exclusivement à la transmission
de données, transmet dorénavant des communications téléphoniques sur les supports mobiles.
L’informatique apporte une solution à des besoins de traitement automatisé des informations
multiples qui rendent foisonnant ce domaine.

Ce cours d’informatique générale traite des notions fondamentales et indispensables pour


la compréhension et la maîtrise de la micro-informatique afin de permettre à l’étudiant de se
familiariser avec les différentes terminologies et les techniques de communication moderne. Il
sera donc appelé à comprendre puis à maîtriser différentes techniques du traitement automatisé
des informations, ainsi que développer les capacités d’organisation, de conception, d’analyse et
de gestion des différents types d’informations au sein de l’entreprise.

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale | 2

Notons que ce support ne s‘adresse pas seulement aux débutants en informatique mais
aussi aux utilisateurs de l‘ordinateur, soucieux de se perfectionner dans cette science qui, de plus
en plus, devient incontournable dans tous les domaines de la vie courante. Ainsi, ce cours prône
l’objectif principal de donner une vue d’ensemble de l’informatique (le point de vue historique,
le point de vue des concepts et le point de vue des techniques) ; et un aperçu de l’utilité de
l’informatique dans son intégration dans la vie professionnelle, académique, sociale et
personnelle.

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale | 3

CHAPITRE I : GENERALITES SUR L’INFORMATIQUE


I.1. Définition
En 1957, le terme « Informatik » a été prononcé pour la première fois par l'ingénieur
allemand KARL STEINBUCH dans son essai intitulé « Informatik: Automatische
Informationsverarbeitung », pouvant être rendu en français par « Informatique : traitement
automatique de l'information ».

En mars 1962, le terme « Informatique » est utilisé pour la première fois, en France,
par l’Ingénieur Philippe Dreyfus, ancien directeur du Centre national de calcul électronique
de Bull, pour son entreprise Société d'Informatique Appliquée (SIA). Ce néologisme est formé
par la combinaison du terme « information », réduit à « infor », et du terme « automatique »,
réduit à « matique ».

Le même mois, Walter Bauer inaugure la société américaine Informatics Inc., qui
dépose son nom et poursuit toutes les universités qui utilisent ce mot pour décrire la nouvelle
discipline, les forçant à se rabattre sur computer science, bien que les diplômés qu'elles
forment soient pour la plupart des praticiens de l'informatique plutôt que des scientifiques au
sens propre. L’Association for Computing Machinery, la plus grande association
d'informaticiens au monde, approche même la société Informatics Inc afin de pouvoir utiliser
le mot informatics en remplacement de l'expression computer machinery, mais l'entreprise
décline la proposition. La société Informatics Inc, achetée par Sterling Software cesse ses
activités en 1986.

En 1966 l’informatique a été définie par l'Académie française comme la « science du


traitement rationnel, notamment par machines automatiques, de l'information considérée
comme le support des connaissances humaines et des communications dans les domaines
techniques, économiques et sociaux. » L’histoire de l’informatique est l’histoire de la
conjonction entre des découvertes scientifiques et des transformations techniques et sociales.

 Découvertes physiques sur les semi-conducteurs et la miniaturisation des transistors qui ont
permis la conception des ordinateurs.
 Découvertes mathématiques sur la calculabilité et les propriétés des algorithmes.
 Invention de la théorie de l’information, de la sémiotique et de la cybernétique.
 Transformations techniques avec l’introduction de machines ou de composants informatiques
de toutes tailles dans tous les secteurs : des machines à laver aux automobiles et aux avions,
des banques à la santé, de l’imprimerie à la documentation en ligne.
 Transformations sociales avec l’organisation des entreprises et des administrations autour de
leur système d’information automatisé, et avec la circulation de l’information dans les
réseaux sous forme numérique à une vitesse négligeable dont Internet est le plus important.

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale | 4

En juillet 1968, le Ministre fédéral de la Recherche scientifique d'Allemagne,


GERHARD STOLTENBERG, prononce le mot « Informatik » lors d'un discours officiel
sur la nécessité d'enseigner cette nouvelle discipline dans les universités de son pays ; on
emploie ce même terme pour nommer certains cours dans les universités allemandes. De fil
en aiguille le mot s'est rapidement répandu dans plusieurs pays d'Europe : « informática » en
Espagne et au Portugal ; « informatica » en Hollande et en Italie ; « informatik » en Norvège
; « informatika » en Hongrie, Russie et Slovaquie.

Les anglo-saxons et américains préfèrent généralement le terme « computer science –


science des ordinateurs » mais le terme « informatics » est parfois usité en Grande-Bretagne
et certains pays francophones.

Le mot « informatique » est ensuite repris par la Compagnie Générale d'Informatique


(CGI), créée en 1969.
Contrairement à la plupart des disciplines scientifiques, il n’existe pas d’équivalent anglais
du terme français informatique. Ce terme revêt plutôt deux sens chez les anglophones :

 Electronic Data Processing (traitement électronique de données), met l’accent sur l’objet
manipulé ; il s‘agit du côté pratique ;
 Computer Science (science de l’ordinateur), met en évidence la machine qui permet la
manipulation de l’information. C’est un aspect théorique.
Dans le contexte de ce cours, « l’informatique est la science du stockage, du traitement et
de la transmission de l’information ». Et donc, elle désigne trois concepts : une science, un art et
une technique.

 Elle est une science quand elle est orientée vers la recherche de la vérité. Ici, elle est la
science renfermant les normes et techniques de traitement de l’information. Ces normes et
techniques sont de règles de jeu qui permettent à l’informatique d’automatiser
l’information. Pour arriver à son objectif ; l‘informatique utilise un outil appelé «
l‘ordinateur ».
 Elle est une technique dans la mesure où c‘est une application de l’électronique.
 Elle est un art parce qu’elle permet à l’esprit humain à se révéler c.à.d. le génie humain.
I.2. Histoirique de l’Informatique
L'histoire de l'informatique a commencé bien avant la discipline moderne des sciences
informatiques, généralement par les mathématiques ou la physique. Les développements des
siècles précédents ont évolué vers la discipline que nous connaissons aujourd'hui sous le nom
d'informatique. Cette progression, des inventions mécaniques et des théories mathématiques vers
les concepts et les machines informatiques modernes, a conduit au développement d'un domaine
académique majeur, à un progrès technologique spectaculaire à travers le monde occidental et à

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale | 5

la base d'un commerce et d'une culture mondiale massive. Chronologiquement, voici quelques
dates importantes :

Vers 500, les civilisations méditerranéennes utilisent l’abaque pour effectuer des calculs, tandis
que le boulier est d’usage en Chine et au Japon.

Avant 1900

Les machines à calculer sont utilisées depuis des milliers d'années : on trouvait
probablement des abaques à Babylone en 3000 avant notre ère. Les Grecs ont fabriqué des
calculateurs analogiques très perfectionnés. En 1901, au large de l'île d'Antikythera, on a
découvert une épave dans laquelle se trouvait, encroûté de sel, un assemblage d'engrenages
rouillés (le mécanisme d'Antikythera), daté d'environ 80 ans avant notre ère, que l'on a
reconstruit : il servait à prédire les mouvements des astres.

L'Ecossais John NEPER (1550-1617), l'inventeur des logarithmes, fabriqua vers 1610 les
règle de Neper permettent de transformer des multiplications compliquées en simple additions.

En 1641, Blaise Pascal (1623-1662) construisit une machine nommée « la Pascaline


» ne pouvant effectuer que deux opérations (l’addition et la soustraction) avec des nombres
de 6 chiffres, destinée à aider son père qui était percepteur.

En 1673, Gottfried Wilhelm LEIBNIZ (1646-1716), modifia la « Pascaline » en y


ajoutant la multiplication, la division ainsi que l’extraction de la racine carrée. LEIBNIZ
inventa aussi le système binaire, système de numération qui sera approprié aux futurs ordinateurs.
On a récemment découvert que Wilhelm SCHICKARD (1592-1635), professeur à l'Université de
Tübingen, avait construit une machine de ce genre vers 1623 ou 1624 (avant Pascal et Leibniz),
qu'il décrivit brièvement dans deux lettres à Johannes Kepler. Malheureusement, la machine brûla
dans un incendie, et Schickard lui-même mourut de la peste bubonique en 1635, durant la Guerre
de Trente Ans.

En 1728, l’ingénieur Français FALCON construisit une commande de métier à tisser à


l’aide d’une planchette de bois muni de trous. Il s’agit de la première machine capable
d’exécuter un programme.

En 1806, Joseph Marie JACQUARD (1752-1834) perfectionne le système de


FALCON en remplaçant les planches par des cartes perforées.

En 1812, le mathématicien anglais Charles BABBAGE (1792-1871) construisit deux


machines : la machine différentielle (exposée au Science Museum de Londres) et la machine
analytique, beaucoup plus ambitieuse (un précurseur de l'ordinateur), mais aucune des deux
ne marchait correctement. (Babbage, que l'un de ses biographes traite de « génie irascible »,
était un peu bizarre. On ignore généralement qu'il est l'inventeur de la dendrochronologie, ou

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale | 6

datation des arbres ; il ne poursuivit pas ses recherches à ce sujet. Devenu vieux, il consacra
une grande partie de son temps à persécuter les joueurs d'orgue de Barbarie.)

Une amie de Babbage, Ada BYRON et Comtesse De LOVELACE (1815-1852), est


parfois considérée comme le premier programmeur de l'Histoire, en raison d'un rapport qu'elle
écrivit sur la machine de Babbage. (Le langage de programmation Ada a été nommé en son
honneur.)
En 1869, L'économiste et logicien anglais William JEVONS (1835-1882) construisit
une machine à résoudre des problèmes de logique : « la première machine suffisamment
puissante pour résoudre un problème compliqué plus rapidement qu'à la main » (Selon Martin
Gardner). La machine se trouve actuellement au Museum of the History of Science d'Oxford.

Le statisticien américain Herman HOLLERITH (1860-1929) inventa la carte


perforée moderne pour l'utiliser dans une machine destinée à analyser les résultats du
recensement de 1890.

La machine à calculer de Blaise Pascal « La Pascaline » Le métier à tisser de Jacqua l’abaque ou boulier romain

1900 - 1939 : l'avancée mathématique

L'étude des machines à calculer se poursuivait. On construisit des machines destinées


à une utilisation particulière : ainsi, en 1919, le lieutenant d'infanterie E. CARISSAN (1880-
1925) conçut et réalisa une merveilleuse machine à factoriser les entiers.

L'Espagnol Leonardo Torres y Quevedo (1852-1936) construisit plusieurs machines


électromécaniques, dont l'une qui jouait des fins de parties d'échecs.

En 1928, le mathématicien David HILBERT (1862-1943) posa trois questions au Congrès


International des Mathématiciens :

1. Les mathématiques sont-elles complètes ? (tout énoncé mathématique peut-il être soit
prouvé, soit réfuté ?)
2. Les mathématiques sont-elles cohérentes ? (peut-on être sûr que des raisonnements
valides ne conduiront pas à des absurdités ?)

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale | 7

3. Les mathématiques sont-elles décidables ? (existe-t-il un algorithme pouvant dire de


n'importe quel énoncé mathématique s'il est vrai ou faux ?) Cette dernière question est
connue sous le nom de Entscheidungsproblem.

En 1931, Kurt GÖDEL (1906-1978) répondit à deux de ces questions. Il démontra


que tout système formel suffisamment puissant est soit incohérent, soit incomplet. De plus, si
un système d'axiomes est cohérent, cette cohérence ne peut être prouvée en n'utilisant que les
axiomes. La troisième question restait ouverte, en remplaçant « vrai » par « prouvable »
(existe-t-il un algorithme pour dire si une assertion peut être prouvée ?)

En 1936, Alan Mathison TURING (1912-1954) résolut l'Entscheidungsproblem en


construisant un modèle formel de calculateur « la machine de Turing » et en prouvant qu'une
telle machine ne pouvait pas résoudre certains problèmes, en particulier le problème d'arrêt :
étant donné un programme, peut-on dire s'il termine pour n'importe quelle valeur des données?
Infirme la théorie de Kurt GODEL et démontre qu’on ne peut pas tout calculer de
manière automatique. Il imagine pour sa démonstration un outil qui inspire encore le
fonctionnement de nos ordinateurs. Une machine universelle qui manipule des informations,
des lettres ou des chiffres suivant des règles définies dans une table.

Les années 1940 : la guerre fait naître l'ordinateur électronique

La complication des calculs balistiques, durant la seconde guerre mondiale,


aiguillonna le développement de l'ordinateur électronique. En 1944, à l’Université de Harvard,
Howard AIKEN (1900-1973) construisit le calculateur électromécanique nommé « Mark I
», avec le soutien d'IBM.

Le décryptage militaire conduisit aussi à des projets d'ordinateur. Alan Mathison


TURING, en Angleterre, travaillait à décoder la machine allemande Enigma; les Anglais
construisirent un calculateur, le « Colossus », pour aider au décryptage.

En 1939, à l'Université d'Iowa, John Vincent ATANASOFF (1904-1995) et Clifford


BERRY (1918-1963) conçurent et réalisèrent l' « ABC », un calculateur électronique pour
résoudre des systèmes d'équations linéaires, mais il ne fonctionna jamais correctement.

Atanasoff discuta de son invention avec John Mauchly (1907-1980), qui, plus tard,
avec John Eckert (1919-1995), conçut et réalisa l' « ENIAC », un calculateur électronique
destiné à l'origine aux calculs balistiques. On ne sait pas très bien quelles idées Atanasoff
transmit à Mauchly; le mérite d'avoir inventé le premier ordinateur revient-il à Atanasoff ou
à Mauchly et Eckert ? Ce fut le sujet de batailles juridiques, c'est encore celui d'un débat
historique. L'ENIAC fut construit à l'Université de Pennsylvanie, et terminé en 1946.

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale | 8

En 1944, Mauchly, Eckert, et John Von Neumann (1903-1957) travaillaient à la


conception d'un ordinateur électronique, l’« EDVAC ». Le premier rapport de Von Neumann
sur l'EDVAC eut beaucoup d'influence; on y trouve de nombreuses idées encore utilisées dans
les ordinateurs les plus modernes, dont une routine de tri par fusion. Eckert et Mauchly
reprirent ces idées pour construire l' « UNIVAC ».

Pendant ce temps, en Allemagne, Konrad ZUSE (1910-1995) construisait le premier


calculateur programmable universel (non spécialisé), le « Z3 » (en 1941).

En 1945, Vannevar BUSH publia As We May Think, un article étonnamment


prophétique sur le traitement de l'information, et ses effets sur la société dans les temps à
venir.

En Angleterre, Maurice Wilkes (né en 1913 et dont le décès n’est pas encore annoncé)
construisit l' « EDSAC » (à partir de l'EDVAC). F. Williams (né en 1911) et son équipe
construisirent le Manchester « Mark I », dont une version fut opérationnelle dès juin 1948.
Certains considèrent cette machine comme le premier ordinateur à programme en mémoire
(architecture dite de Von Neumann).

L'invention du transistor en 1947 par John Bardeen, Walter Brattain et William


Shockley transforma l'ordinateur, et permit la révolution du microprocesseur. Pour cette
découverte ces chercheurs ont reçu pour cette invention le prix Nobel de physique en 1956.
(Par la suite, Shockley se rendit célèbre pour ses points de vue racistes.)

Jay Forrester (né en 1918) inventa vers 1949 la mémoire à noyau magnétique.

Les années 50
Grace Hopper (1906-1992) inventa la notion de compilateur (1951). (Quelques
années plus tôt, elle avait trouvé le premier bug de l'histoire de l'informatique, une phalène
entrée dans l’ENIAC)

Dans un célèbre article de la revue Mind, en 1950, Alan Turing décrivit le « test de
Turing », l'une des premières avancées en intelligence artificielle. Il proposait une définition
de la « pensée » ou de la « conscience » relative à un jeu : un examinateur pose des questions
par écrit à un interlocuteur situé dans la pièce voisine, et doit décider, au vu des réponses, si
son interlocuteur est une machine ou un être humain. S'il est incapable de répondre, on peut
raisonnablement dire que l'ordinateur « pense ». En 1952, Alan Turing fut arrêté pour outrage
aux bonnes moeurs après qu'une plainte pour cambriolage eut révélé sa liaison avec Arnold
Murray. L'homosexualité affichée était tabou dans l'Angleterre des années 1950, et on
obligea Turing à suivre un « traitement » hormonal qui le rendit impuissant et lui fit pousser

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale | 9

des seins. Le 7 juin 1954, Alan Turing se suicidera en 1954, en mangeant une pomme imbibée
de cyanure. Une légende souvent rapportée dit que cet épisode est à l'origine du logo d'Apple.

Jusqu'au début des années 1970, les différents composants électroniques, nécessaires au
fonctionnement d'un processeur ne pouvaient pas tenir sur un seul circuit intégré, ce qui nécessitait
d'interconnecter de nombreux composants dont plusieurs circuits intégrés. En 1971, la société
américaine Intel réussit, pour la première fois, à placer tous les composants qui constituent un
processeur sur un seul circuit intégré donnant ainsi naissance au microprocesseur.

Le microprocesseur 4004 d'Intel, de la taille d'un timbre, développe des performances


équivalents à celle de l'ENIAC (1946), qui occupait toute une pièce.

Le 4004 a été conçu par deux ingénieurs d'Intel : Marcian (Ted) Hoff (né en 1937), qui mit son
architecture au point en 1969, et Federico Faggin (né en 1941), chef de projet, le créateur de la
méthodologie de conception et le concepteur principal des quatre puces.

Fin 1969, Début du réseau Arpanet, renommé plus tard Internet. Il compte 4 nœuds.

La société Microsoft est fondée en avril 1975 sous le nom original de Micro-Soft, par deux
étudiants américains, Bill Gates (photo, né en 1955) et Paul Allen (1953-2018).

Son activité principale consiste à développer et vendre des systèmes d'exploitation, des
logiciels et des produits matériels dérivés. Les meilleures ventes historiques sont les systèmes
d'exploitation MS-DOS puis Windows, et la suite bureautique Office. Windows a atteint une
position dominante sur les ordinateurs personnels, avec plus de 90 % de parts de marché dans le
monde.

Les années 1980


Cette décennie vit apparaître le micro-ordinateur personnel, grâce à Steve Wozniak
(né a 1950), Steve Jobs (1955-2011) et Ronald Wayne (né en 1934), fondateurs d’Apple
Computer. Les premiers virus informatiques apparurent en 1981 (leur nom est dû à Leonard
Adleman).

En 1981, l' «Osborne I», le premier ordinateur vraiment portable, fut mis sur le marché.
En 1984, Apple commercialisa le Macintosh. En 1987, l'US National Science Foundation
démarra NSFnet, qui devait devenir une partie de l'Internet actuel.
En 1985, la société PHILIPS et SONY commercialise le CD-ROM (« Compact Disc
read only memory » pouvant être rendu français disque compact a mémoire morte) afin

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 10

de lui permettre de stocker des données informatiques diverses, et non plus seulement
musicales.

En 1989, le chercheur britannique Tim Berners-Lee (né en 1955), invente le World


Wide Web (WWW) pour que les chercheurs puissent partager les informations au sein du
CERN (le projet a été conçu et développé pour des scientifiques travaillant dans des
universités et Instituts du monde entier puissent s’échanger des informations instantanément).
Cette même année, le responsable du réseau du CERN décident d’utiliser le protocole TCP/IP
et le CERN ouvre sa première connexion extérieure avec Internet.

Les années 1990


On continue à développer des ordinateurs parallèles. L'informatique biologique, avec
les récents travaux de Leonard Adleman sur l'utilisation de l'ADN comme calculateur non
déterministe, ouvre de grandes perspectives. Le projet Génome Humain cherche à séquencer
tout l'ADN d'un individu.
Peter Shor découvre que l'on peut efficacement factoriser des entiers sur un ordinateur
quantique (théorique), ce qui ouvre la voie à la programmation quantique.
En 1994, Jeff BEZOS (né en 1964) créant le site de vente ligne AMAZON. AMAZON était un
projet d’une librairie en ligne (en 2017 la société emploie 541'900 personnes dans le monde et a
établi, outre le site originel américain (ouvert en 1995), des sites spécifiques dans de nombreux
pays).
En 1998, deux étudiants de l’université de Stanford Larry PAGE (né le 26 mars 1973) et
Sergey BRIN (né le 21 aout 1973 à Moscou) créant la société Google Inc (moteur de recherche),
le 27 septembre 1998 dans la silicon valley (zone industrielle), en Californie.
Les années 2000
En 2001, Jimmy Wales (né en 1966) fonda WIKIPEDIA, est une encyclopédie numérique
ouverte, libre, multilingue, consultable gratuitement sur internet et en évolution permanente grâce
à de très nombreux contributeurs bénévoles. Son succès est considérable et sa croissance
exponentielle. Elle est devenue un des 10 sites les plus consultés au monde.
Le 4 février 2004, Mark ZUCKERBERG (né en 1984) fonde the Facebook un réseau
social en ligne appartenant META. L’inscription est d’abord limitée aux étudiants de l’université
Harvard et dès le premier mois, le plus de moitié de la population de premier cycle de l’université
Harvard était inscrite sur le service. Eduardo SAVERIN (Aspect commercial), Dustin
MOSKOVITZ (Programmeur), Andrew McCOLLUM (graphiste) et Chris HUGUES ont rejoint
ZUCKERBERG pour l’aider à promouvoir le site.
Le 14 février 2005, Chad HURLEY (né en 1977), Steve CHEN (né en 1978) et Jawed
KARIM (né en 1979) trois ex-employé de l’entreprise PayPal Créant le site web d’hébergement

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 11

de vidéos YouTube. Le 9 octobre 2006, Google a racheté YouTube 1,65 milliards de dollars en
nouvelles actions, ce qui constitue la quatrième plus grosse opération d’acquisition Google.
En mars 2006, Twitter a été créé en San Francisco par Jack DORSEY (né en 1976), Evan
WILLIAMS (né en 1984), Biz STONE (né en 1974) et Noah GLASS (né en 1981), et lancé le
13 juillet de la même année. Au 5 mars 2017, Twitter compte 313 millions d'utilisateurs actifs par
mois avec 500 millions de tweets envoyés par jour et est disponible en plus de 40 langues.

En 2007, Apple entre dans le marché des téléphones portables avec la commercialisation
de l'iPhone.

En 2009, deux anciens employés de la société américaine Yahoo!, Jan KOUM (né en
1976) et Brian ACTON (né en 1972) créant l’application WhatsApp avec pour objectif de
remplacer le SMS. WhatsApp remporte un grand succès au tournant des années 2010 et est utilisé
par plus deux milliards de personnes en 2020. En février 2014, WhatsApp est acquis par la société
Facebook Inc. (maintenant Meta platforms) pour un montant d’environ 22 milliards de dollars dont
17 milliards en action Facebook, soit environ 350 millions de dollars par employé ou 40 dollars
par utilisateur.

Le 3 avril 2010, Steve Jobs (1955-2011), président-directeur général d'Apple, présente sa


dernière nouveauté : l'iPad 1. La tablette d'Apple est la plus vendue au monde.
L'écran tactile de la tablette remplace en quelque sorte la souris. Un logiciel interprète le
contact et les déplacements des doigts sur l'écran. L'affichage à l'écran peut se faire en mode
portrait et paysage en pivotant la tablette.

Le 6 octobre 2010, Instagram est fondé et lancé par l'Américain Kevin Systrom et le
Brésilien Michel Mike Krieger en octobre 2010. Le 10 avril 2012, Facebook annonce l'acquisition
d'Instagram pour environ un milliard de dollars américains.
Instagram revendique plus d'un milliard d'utilisateurs à travers le monde, dont 75 %
d'utilisateurs en dehors des États-Unis, selon les chiffres officiels fournis en juin 2018.

Le 14 Août 2013, Telegram a été créée par les frères Nikolaï et Pavel DOUROV, fondateur
de VKontakte, après que le gouvernement Russe a pris le contrôle de VKontakte. Nikolaï Dourov
a créé le protocole de communication servant de fondement a Telegram tandis que son frère a
apporté un soutien financier au projet à travers son fonds Digital Fortress. Les deux frères
opposants de Vladimir POUTINE, souhaitaient développer un moyen de communiquer hors
regard du FSB, le service secret russe chargé des affaires de sécurité intérieure.

En octobre 2013, le service comptait 100 000 utilisateurs actifs. Le 24 mars 2014, Telergam
annonce 35 millions d’utilisateurs mensuels et 25 millions d’utilisateurs actifs par jour.

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 12

En 2016, l'entreprise chinoise ByteDance crée l’application TikTok. C’est une application
qui permet aux utilisateurs de créer des vidéos courtes accompagnées de musique, 3 à 180
secondes. En juin 2018, TikTok atteint les 150 millions d’utilisateurs actifs quotidiens (pour cinq
cents millions d’utilisateurs actifs mensuellement). Elle est l'application la plus téléchargée de
l'année 2020.

En novembre 2017, IBM déclare avoir développé un ordinateur quantique capable de gérer
50 bits quantiques, ou qubits. Les chercheurs ont pu préserver l'état quantique pendant 90
microsecondes. En dépit d'une période de temps extrêmement courte, il s'agit d'un nouveau record
pour l'industrie.

En mars 2018, Google a marqué les esprits en présentant Bristlecone, un processeur


quantique avec 72 qubits.

Les autoroutes de l'information relient de plus en plus les ordinateurs du monde entier.
Les ordinateurs sont de plus en plus petits ; naissance de la nanotechnologie.
Sommes toutes, l’histoire de l’informatique débute par l’invention de machines (la
fonction crée l’organe) qui au départ correspondent à des lignes de pensée différentes.
L’informatique résultera de la fusion des savoirs acquis dans ces domaines. Elle n’est pas une
synthèse de plusieurs disciplines, mais plutôt une discipline entièrement nouvelle puisant ses
racines dans le passé. Seul l’effort permanent du génie créatif humain l’a rendue accessible
au grand public de nos jours.

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 13

Figure 1 : Résumé de l’histoire de l’informatique.

Aujourd'hui..., les ordinateurs parlent, entendent, voient et se déplacent !! Et au XXIème


siècle...des ordinateurs qui pensent ?

Les chercheurs américains partent du principe que les ordinateurs actuels, même les plus
puissants, ne seront jamais aussi intelligents qu'un cerveau vivant. Il faut donc inventer des
ordinateurs capables de penser par eux-mêmes et plus seulement d'exécuter un programme
écrit par l'homme.
I.3. Génération de matériel
La notion de « générations » n'est pas comme on l'a dit parfois un slogan publicitaire
mais résulte de la fiabilité de l'élément logique élémentaire mis en œuvre par une technologie
donnée. On définit pour un composant élémentaire (tube, relais, transistor) une caractéristique
essentielle appelée MTBF (mean time between failure), temps moyen entre défaillances. De
cette caractéristique on déduit le nombre maximum d'éléments de cette technologie qu'on peut
rassembler dans une machine pour qu'elle puisse être utilisée entre deux défaillances d'un
quelconque des éléments. Et donc on définit ainsi la taille logique maximale de l'automate
qu'une technologie donnée permet de réaliser...

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 14

I.3.1. Génération zéro : le relais électromécanique (1930-1945)


Cette génération est celle de l'époque héroïque des machines aux relais électromécaniques.
Dès 1936, Konrad Ernest Otto ZUSE fabrique les machines électromécaniques Z1
et Z2, fonctionnant selon le système binaire. Il propose en 1938 la construction d’un
calculateur électronique, mais l’Etat allemand juge le projet irréalisable, et refuse le
financement. ZUSE construisit alors un calculateur binaire universel avec 2 600 relais des
circuits logiques, le Z3, achevé en 1941. Il est utilisé en aéronautique et en balistique.

De l’autre côté de l’atlantique, le professeur Howard Hathaway AIKEN (19001973)


réalise pour le compte d’IBM et de l’Université de Harvard (Harvard
University), une machine électromécanique appelée Automatic Sequence Controlled
Calculator surnommée le Mark I. Réalisé entre 1939 et 1944, ce calculateur avait 16m de
long, 2,60m de hauteur, un poids avoisinant 5 tonnes et pouvait multiplier deux nombres de
23 chiffres décimaux en 6 secondes. Il sera utilisé à des fins militaires notamment à la mise
au point de la bombe atomique.

D’autres chercheurs réalisèrent, pendant cette période, des prototypes de


calculateurs. Parmi eux, citons John ATANASOFF (université de l’IOWA) et George
STIBITZ (Bell Laboratories), qui tous deux adoptèrent le système binaire.

I.3.2. Génération Première : le tube à vide (1945-1955)


Le tube à vide est une ampoule vidée d’air contenant plusieurs électrodes entre
lesquelles apparaît, sous certaines conditions, un courant d’électrons. Exemple : diode à vide.
En 1943, « COLOSSUS » le premier calculateur électronique numérique est
construit, et littéralement porté par Alan TURING pour permettre le décryptage des messages
radios transmis par les forces de l’axe, et codés au moyen de la fameuse machine ENIGMA
(elle permettait de coder des informations).

Dans l’optique de réglage des tirs d’artillerie, en 1943 l’armée américaine accepta
de financer les travaux de John Presper ECKERT et John MAUCHLY qui aboutirent à la
réalisation d’une machine pour le moins célèbre : l’ «ENIAC ». Celle-ci (Electronic Numerical
Integrator And Computer) était capable de 5 000 opérations arithmétiques à la seconde et était
1 000 fois rapide que le mark I. Pour fonctionner, il fallait une puissance électrique de près de
200 Kw, comportait 19.000 lampes, pesait 30 tonnes et occupait un espace de 160 m2 au sol.

Un jour, en 1947, l’ENIAC tomba en panne sans que ses constructeurs ne sachent
pourquoi. Après exploration, on constata qu’un insecte s’était logé dans un relais ; le
technicien qui a fait la découverte s’est écrié : « there is a bug in the machine!». Le nom «bug»
est resté pour désigner une erreur de matériel ou de programmation.

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 15

I.3.3. Génération Deuxième : le transistor (début de l’industrie


informatique ; 1955-1965)
Le transistor, inventé par les laboratoires Bell en 1948, par John BARDEEN, Walter
BRATTAIN et William SHOCKLEY, est utilisé dans les ordinateurs, en remplacement des
tubes à vide si encombrants, coûteux et peu fiables. C’est un dispositif électronique pouvant
remplir les fonctions d’un amplificateur, d’un commutateur ou d’un oscillateur, dans les
télécommunications, le contrôle et les systèmes. Il s’agit d’un élément semiconducteur (rend
possible le passage du courant, c’est un circuit logique, un amplificateur, stabilisateur de
tension, modulateur du signal, etc.).
Il ressemble à un petit sandwich qui contient de la matière capable de conduire
l’électricité à un voltage donné. Avec ce dispositif, les ordinateurs deviennent plus petits et plus
performants. Ci-dessous, l’image de quelques modèles de transistors.

Avec cette technologie, deux catégories de machines et d'architectures très différentes:


Les ordinateurs scientifiques binaires rapides.
Les ordinateurs de gestion travaillant sur des données en décimal (codé binaire).
Par ailleurs, les machines étaient totalement différentes d'une taille à l'autre et il fallait
réécrire tous les programmes (en assembleur) quand on devait changer de matériel pour
accroître la puissance de traitement.
Le premier ordinateur à transistors fut le «TRANSAC » réalisé en 1954 chez PHILCO
pour des applications militaires. Aux USA, pour les usages scientifiques, l'IBM 7090 reprend
avec des transistors l'architecture de l'IBM 704 et devient le gros ordinateur scientifique
standard dans le monde, muni d'un bon compilateur FORTRAN. Il est intéressant de noter
l'échec spectaculaire du STRETCH (IBM 7030) trop grand pour la technologie de l'époque.
Chez UNIVAC (alors associé à Bull) sur une machine expérimentale construite pour le
laboratoire de Livermore, le «LARC», fut réalisé le premier essai de système d'exploitation.
Mais du côté de la gestion, grand succès mondial d'une machine destinée aux PME :
l'IBM 1401 dont 35.000 exemplaires ont été fabriqués. Il s'agissait d'une machine de gestion
spécialisée avec une unité centrale lente et conçue pour traiter des caractères et des nombres
décimaux, une imprimante à chaîne, lecteur et perforateur de cartes. La bande magnétique n'y

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 16

apparut que tardivement ainsi que les premiers essais de mémoire à disques (RAMAC IBM).
C'est cette machine qui, malgré son architecture médiocre mais visant un bon créneau
commercial, a servi de point de départ à une suprématie d'IBM qui a duré 25 ans.
En France, montée en puissance de Bull (alors 2ème constructeur mondial et associé
à UNIVAC) et réalisation d'une machine prestigieuse d'architecture révolutionnaire en avance
de 10 ans sur son temps : le GAMMA 60 destinée aux ministères et très grands organismes
(SNCF, EDF).

I.3.4. Génération Troisième : le circuit intégré (1965-1980)


Le circuit intégré, appelé aussi puce électronique, est une petite pastille de silicium sur
laquelle sont gravés de nombreux composants électroniques (transistors, résistances …). Les
circuits intégrés sont donc l’association de plusieurs transistors.
En 1959, Jack St. Clair KILBY (Texas Instruments) et Robert NOYLE inventèrent les
circuits intégrés. Au cours de cette période, les microprocesseurs font leur apparition (tel est le
8080 d’Intel). Les premières familles d’ordinateurs apparaissent (IBM 360) et avec elles le
concept de compatibilité descendante (conservation du logiciel). Ci-dessous, l’image des circuits
intégrés.

Avec les circuits intégrés les innovations étaient que :


Possibilité d’une utilisation de la microprogrammation inventée par Wilkes pour
réaliser une gamme de machines ayant toutes, depuis la petite machine de gestion de
PME jusqu'au géant pour banque ou grand laboratoire, le même jeu d'instructions
interne. Les instructions, câblées sur les grosses machines, étaient microprogrammées
(on dit émulées) sur les petites machines.
En outre la microprogrammation permettait d'avoir un jeu d'instructions étendu avec à
la fois des instructions de calcul scientifique et destinées à la gestion (binaire fixe,
flottant, décimal, caractères...). D'où une gamme unique de machines pour tous les
usages.
Un format unique de représentation des données, l'octet, soit utilisé tel quel et
représentant un caractère alphanumérique, soit regroupé en mots de 32 bits ou 64 bits
(pour le calcul scientifique) était utilisé partout (mémoire centrale, bandes, disques,
impression, etc.).

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 17

Des canaux programmés, véritables ordinateurs spécialisés, offraient des possibilités


d'entrée-sortie très évoluées.
Des instructions spéciales (SVC, Test & Set) permettaient la mise en œuvre de
systèmes d'exploitation assurant multiprogrammation, gestion efficace des ressources,
etc.
Le profil d'instruction prévoyait un adressage interne sur 24 bits (soit 16 millions
d'octets) à une époque où les plus puissantes machines avaient 64k octets.

I.3.5. Génération Quatrième : l’essor des ordinateurs personnels (1980-20??)

Un ordinateur personnel est celui destiné à l’usage d’une personne et dont les dimensions
sont assez réduites pour tenir sur un bureau.

Cette génération couvre un intervalle énorme de performances et de besoins, allant des


super computers, utilisés principalement pour le calcul scientifique, aux ordinateurs personnels
utilisés pour des applications de bureautique, de formation… et de jeux. C’est également cette
génération qui verra l’essor d’unités périphériques en tout genre, et également l’interconnexion
des machines en diverses architectures réseaux.

I.3.6. Génération Cinquième : l’intelligence artificielle


L’intelligence artificielle est une branche de l’informatique traitant de la reproduction,
par des machines, de certains aspects de l’intelligence humaine. Elle apparaît lorsque le
développement des premiers ordinateurs donne à penser qu’ils seront rapidement capables de
simuler la pensée.
Le mathématicien britannique Alan Mathison TURING propose ainsi, en 1950, un test
(appelé test de Turing) permettant d’évaluer l’intelligence d’une machine : un ordinateur est
qualifié d’intelligent si, en communiquant avec lui à distance et par écrit, un utilisateur ne peut
deviner s’il s’agit ou non d’un être humain. Les comportements humains ne sont rien d'autre que
le résultat d'un calcul portant sur des données plus ou moins complexes et tout calcul peut être
simulé par une machine de TURING universelle. Tous les comportements humains peuvent donc
être simulés par une telle machine.

I.4. Subdivision de l’Informatique

L’informatique qui est née de la physique, l’électronique, Mathématiques et autres


domaines très complexes de la science. Est une science à l’intérieur de laquelle, on dénombre
plusieurs disciplines, dont on subdivisera en cinq domaines :

1. L’informatique formelle (Analytique)

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 18

C’est un domaine qui s’applique à la résolution des problèmes mathématiques. C’est grâce
à ce domaine que l’informatique peut résoudre les problèmes tels que : les calculs d’erreurs, les
tissages des courbes, les problèmes statistiques (moyennes, écart-type, variances, corrélations, …)

2. L’informatique systématique et logique

C’est un domaine qui étudie les architectures des systèmes informatiques dans lesquelles
interviennent les ordinateurs, les réseaux d’interconnexions des ordinateurs, …

3. L’informatique physique et technologique

C’est un domaine qui étudie les différentes réalisations des composants et sous-ensembles
électroniques, électriques et mécaniques qui entrent dans la réalisation des matériels des
ordinateurs et de leurs périphériques.

4. L’informatique méthodologique
C’est un domaine qui s’occupe de la recherche sur les méthodes de programmation et
d’exploitation des systèmes informatiques. C’est dans ce contexte, qu’il faut placer le « génie
logiciel ».

5. L’informatique appliquée (à un domaine particulier)

C’est un ensemble des sous-domaines non-répertoriés ; on y trouve : La conception assistée


par un ordinateur, informatique documentaire, informatique de gestion (administrative,
commerciale, industrielle, financière), automatisation de la production (application industrielle),
télécommunication, informatique médicale, informatique juridique et jurisprudence, intelligence
artificielle, Musique assistée par l’ordinateur, Enseignement assisté par ordinateur, etc.

I.4. Système informatique et Système d’information


I.4.1. Information

Une « information » est tout élément de connaissance représentés par des signes et
symboles de manière conventionnelle pour être conservé, traité ou communiqué. En informatique
de gestion, une « information » est la représentation subjective d’un fait, d’une situation, d’un
évènement sous forme conventionnelle qui en assure la permanence et facilite le maniement ainsi
que la transformation. Elle est l‘ensemble de l‘entité, l‘attribut ainsi que les valeurs.

I.4.2. Données

Par contre, Une « donnée » est une unité élémentaire dans le processus de prise de
décision. C'est un renseignement sur un sujet donné. Elle peut être comprise comme un fait, une

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 19

notion ou une instruction représentée sous forme conventionnelle convenant à la communication,


à l‘interprétation, ou à un traitement par l‘homme ou par des moyens automatiques. La donnée
peut être écrite ou audible.

En informatique, le concept information est compris comme l‘ensemble de données


pouvant être traitées par un système informatique. Autrement dit, c’est la représentation des
informations au moyen d’un ordinateur.

I.4.3. Traitement de l’information

En informatique, traiter l‘information signifie :

 Recueillir l’information
On dispose de deux grandes sources d‘alimentation en informations : les sources internes
et les sources externes.
Face à ces sources d‘information le système d‘information remplit les tâches d‘écoute,
d‘analyse et de saisie. La tâche d‘écoute se double généralement d‘une tâche d‘analyse critique de
la masse d‘information accessibles afin d‘éliminer toute source d‘information et toute information
peu pertinente ou de qualité insuffisante. Ce n‘est qu‘après ces tâches, qu‘elle peut procéder à
l‘encodage des informations.

 Mémoriser l’information
Une foi saisie, l‘information doit être stockée de manière durable et stable bien que parfois,
elle est stockée au fur et à mesure de la saisie.

Le système d‘information met en œuvre des moyens techniques et organisationnels


(méthodes d‘archivage, de protection contre le piratage ou la destruction, etc.). Aujourd‘hui la
mémorisation des informations se fait au moyen de deux techniques principales : les fichiers et les
bases de données.

 Exploiter l’information

Une fois mémorisée, l‘information, on peut appliquer à l‘information tout une série
d‘opérations. Ces opérations de traitement consistent à :

- Consulter les informations : les rechercher, les sélectionner, …


- Organiser les informations : les trier, les fusionner, les partitionner, …
- Mettre à jour les informations : les modifier (sur la forme et le contenu), les supprimer, etc.
- Produire de nouvelles informations : informations calculées (suite à de calculs
arithmétiques ou de calculs logiques) cumuls, etc.

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 20

 Diffuser l’information

La diffusion consiste à mettre à la disposition de ceux qui en ont besoin, au moment où ils
en ont besoin et sous une forme directement exploitable, l‘ensemble des informations qui leur
permettront d‘assurer leurs activités. Les supports de cette diffusion sont soit le support oral, le
support papier, le support électronique ou magnétique.

I.4.4. Système informatique

Un système informatique se compose d‘une part du matériel informatique (ordinateur ou


hardware), d‘autre part des programmes (logiciel ou software) et des hommes indispensables au
fonctionnement du matériel.

Un système informatique est donc composé des éléments suivants :

 L’ordinateur et ses périphériques : ou Hardware : C‘est la partie palpable de l‘ordinateur


ou sa quincaillerie.

 Les logiciels et programmes d’application : ou Software : C‘est la partie invisible qui est
la suite d‘instructions permettant à l‘utilisateur de communiquer avec l‘ordinateur.

 L’homme : C‘est l‘élément le plus important du système informatique. Il se compose de tout


ce monde chargé de manipuler l‘ordinateur en vue de profiter de sa puissance pour des buts
précis. Ce sont donc « les utilisateurs ». Nous pouvons représenter l'ordinateur comme étant
un SYSTÈME.

I.4.5. Système d’information

A ne pas confondre avec système informatique, le SI d‘entreprise est l‘ensemble


d‘informations qui circulent dans l‘entreprise et les moyens mis en œuvre pour les gérer. Toutes
les informations, quelle que soit leur forme, font partie du système d ‘information. Nous attendons
par gérer, le recueil, l‘exploitation, le stockage et la diffusion des informations.

Il apparaît, à la lumière de cette définition, que l‘information est un des éléments capitaux
constituant les préoccupations d‘un système d‘information. Elle mérite donc l‘attention des
chercheurs en informatique.

Ainsi donc, Il existe plusieurs typologies de SI, cependant nous nous intéressons à
distinguer le SI automatisé du SI manuel.
- Le SI manuel est celui dont les opérations sur les informations sont manuelles et ne font
pas recours aux machines.

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 21

- Semi-automatique fait allusion à la saisie, à la consultation ou visualisation, à la mise à


jour des informations. Dans ce cas les interventions de l‘homme et de la machine sont
conjointes. On parle alors de traitement interactif ou conversationnel où les opérations sont
assurées grâce à un dialogue entre l’homme et la machine.
- Le SI automatisé, les opérations les plus significatives sur les informations sont assurées
par des machines électroniques programmables effectuant des traitements automatiques.
L‘intervention humaine se limite à une phase de préparation du travail des machines.
Exemple : gestion comptable réalisée grâce à un progiciel spécifique. Quand on parle de SI
automatisé, il faut nuancer l‘importance du rôle joué par la machine et la place de
l‘homme. Dans ce SI, le processus automatique ainsi que le processus semi-automatique
se côtoient (fréquenter). Automatique fait allusion aux calculs répétitifs, calculs
complexes, mémorisation des données, édition des documents comptables, des états de
sorties, etc.

1.5. Langages informatiques


On appelle « langage informatique » un langage destiné à décrire l'ensemble des actions
consécutives qu'un ordinateur doit exécuter. Les langages naturels (par exemple l'anglais ou le
français) représentent l'ensemble des possibilités d'expression partagé par un groupe d'individus.

Les langages servant aux ordinateurs à communiquer n'ont rien à voir avec des langages
informatiques, on parle dans ce cas de protocoles de communication, ce sont deux notions
totalement différentes. Un langage informatique est une façon pratique pour nous (humains) de
donner des instructions à un ordinateur.

Un langage informatique est rigoureux : à chaque instruction correspond une action du


processeur.

La principale différence entre les langages informatiques et les langues naturelles réside
dans l’absence d’ambiguïté : alors que certaines phrases du français peuvent être interprétées
différemment par différents auditeurs, tous seront d’accord pour dire ce que fait un programme
donné.

Le langage utilisé par le processeur, c'est-à-dire les données telles qu'elles lui arrivent, sont
appelées langage machine. Il s'agit d'une suite de 0 et de 1 (dit binaire). Toutefois le langage
machine n'est pas compréhensible facilement par l'humain. Ainsi il est plus pratique de trouver un
langage intermédiaire, compréhensible par l'homme, qui sera ensuite transformé en langage
machine pour être exploitable par le processeur.
L'assembleur est le premier langage informatique qui ait été utilisé.

Celui-ci est encore très proche du langage machine mais il permet déjà d'être plus
compréhensible des développeurs.

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 22

Toutefois un tel langage est tellement proche du langage machine qui dépend étroitement
du type de processeur utilisé (chaque type de processeur peut avoir son propre langage machine).
Ainsi un programme développé pour une machine ne pourra pas être porté sur un autre type de
machine (on désigne par le terme « portable », un programme qui peut être utilisé sur un grand
nombre de machines). Pour pouvoir l'utiliser sur une autre machine il faudra alors parfois réécrire
entièrement le programme.
Un langage informatique a donc plusieurs avantages :

- Il est plus facilement compréhensible que le langage machine ;


- Il permet une plus grande portabilité, c'est-à-dire une plus grande facilité d'adaptation sur
des machines de types différents.
Les langages informatiques peuvent grossièrement se classer en deux catégories :

- Les langages interprétés ;


- Les langages compilés.

I.5.1. Les langages interprétés


Un langage informatique est par définition différent du langage machine. Il faut le traduire
pour le rendre intelligible du point de vue du processeur. Un programme écrit dans un langage
interprété a besoin d’un programme auxiliaire (l’interpréteur) pour traduire au fur et à mesure les
instructions du programme.

I.5.2. Les langages compilés


Un programme écrit dans un langage dit « compilé » va être traduit une fois pour toutes par
un programme annexe, appelé compilateur, afin de générer un nouveau fichier qui sera automate,
c’est-à-dire qui aura plus besoin d’un programme autre que lui pour s’exécuter ; on dit d’ailleurs
que ce fichier est exécutable.

Un programme écrit dans un langage compilé a comme avantage de ne plus avoir besoin,
une fois compilé, de programme annexe pour s’exécuter. De plus, la traduction étant faite une fois
pour toute, il est plus rapide à l’exécution. Toutefois il est moins souple qu’un programme écrit
avec un langage interprété car à chaque modification du fichier source (fichier intelligible par
l’homme : celui qui va être compilé) il faudra recompiler le programme pour que les modifications
prennent effet.
D’autre part, un programme compilé a pour avantage de garantir la sécurité du code source.
En effet, un langage interprété, étant directement intelligible (lisible), permet à n’importe qui de
connaitre les secrets de fabrication d’un programme et donc de copier le code voire de le modifier.

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 23

Il y a donc risque de non-respect des droits d’auteur. D’autre part, certaines applications
sécurisées nécessitent la confidentialité du code pour éviter le piratage (transaction bancaire,
paiement en ligne, communications sécurisées, …).

1. Principales différences

On pourrait discuter très longtemps des avantages et inconvénients des différents types de
langages mais les deux points qui sont les plus intéressants sont les suivants :

 Dans un langage interprété, le même code source pourra marcher directement sur tout
ordinateur. Avec un langage compilé, il faudra (en général) tout recompiler à chaque fois
ce qui pose parfois des soucis.
 Dans un langage compilé, le programme est directement exécuté sur l'ordinateur, donc il
sera en général plus rapide que le même programme dans un langage interprété.

I.5.3. Les langages intermédiaires


Certains langages appartiennent en quelque sorte aux deux catégories (LISP, Java, Python,
Wlangage …) car le programme écrit avec ces langages peut dans certaines conditions subir une
phase de compilation intermédiaire vers un fichier écrit dans un langage qui n’est pas intelligible
(donc différent du fichier source) et non exécutable (nécessité d’un interpréteur). Les applets Java,
petits programmes insérés parfois dans les pages web, sont des fichiers qui sont compilés mais
que l’on peut exécuter qu’à partir d’un navigateur internet (ce sont des fichiers dont l’extension est
class).

C’est pour répondre aux problèmes de l’assembleur qu’ont été développé dès les années 50
des langages de plus haut niveau. Dans ces langages, le programmeur écrit selon des règles strictes
mais dispose d’instructions et de structures de données plus expressives qu’en Assembleur.

Langage Domaine d'application principal Compilé/interprété


(ALGOrithmic Language), écrit à la fin des années 1950. Son Langage compilé et interprété
ALGOL objectif était de décrire algorithmiquement des problèmes de
programmation.
(Beginner’s All-Purpose Symbolic Instruction Code), écrit en 1963 Langage interprété
par John KEMMENY et Thomas KURTZ. Conçu pour permettre aux
BASIC
étudiants ne travaillant pas dans les filières scientifiques d’utiliser les
ordinateurs.
(COmmon Business Oriented Language), développé en 1959. C’est Langage compilé
COBOL un langage commun pour la programmation d’applications de gestion.

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 24

(FORmula TRANSlator), développé par Jim BACKUS en 1954. Langage compilé


FORTRAN C’est un langage de programmation utilisé principalement en
mathématique et dans les applications de calculs scientifiques.

JAVA (Nom vulgaire) Programmation orientée Internet. Langage intermédiaire


(Jules Own Version of the International Algebric Language), écrit
JOVIAL
par Jules SCHWARTZ en 1960. Langage destiné aux scientifiques.
(MAThs LABoratorie) Conçu par Cleve MOLER à la fin des années Langage interprété
MATLAB
1970, il est utilisé dans les calculs mathématiques.
(List Processor), créé par Mac CARTHY en 1958. Il est utilisé en Langage intermédiaire
LISP
intelligence artificielle.
Ecrit en 1971 par Nicklaus WIRTH en hommage à Blaise PASCAL. Il Langage compilé
Pascal
a été conçu pour servir à l’enseignement de la programmation.
(PROgrammation LOGique), développé par Alain COLMERAUER Langage interprété
PROLOG et Philippe ROUSSEL en 1972. Il est utilisé dans des nombreux
programmes d’intelligence artificielle.

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 25

CHAPITRE II. INTRODUCTION A L’ORDINATEUR


II.0. Introduction
L‘ordinateur a été appelé « outil intelligent », car il augmente notre habileté à exécuter des
tâches exigeant l‘activité mentale. Plus encore, il le fait avec une rapidité extraordinaire. La clé
de l‘utilisation effective à bon escient de l‘ordinateur comme un outil est de connaître ce qu‘il est,
comment il fonctionne et comment l‘utiliser.
Par ailleurs, cette agilité est rendu possible grâce à l’informatique (INFORMAtion
automaTIQUE) consiste à rassembler et transformer diverses informations à l’aide d’un (ou
plusieurs) ordinateur(s) afin d’obtenir la solution d’un problème :

- Les informations utiles doivent être disponibles pour l’ordinateur, donc être collectées,
clairement codifiées, saisies et enregistrées sur un support informatique (une « mémoire »);
- Le problème à résoudre doit avoir été analysé avec précision, la façon d’en obtenir la
solution doit avoir été traduite sous la forme d’un programme.
- L’ordinateur est une machine électronique qui inclue des dispositifs optiques,
électromécaniques ou électromagnétiques et dont le fonctionnement est guidé par des
programmes réalisés par l’homme :
- Un ordinateur est inerte en l’absence d’alimentation électrique ou de programme ;
- Son « QI » (quotient intellectuel) est NUL et il est incapable d’initiative ;
- L’ordinateur est un outil complexe. Il est encore nécessaire d’en connaître le
fonctionnement pour bien l’utiliser.

L’ordinateur fonctionne aujourd’hui comme à ses débuts. C’est une machine qui travaille
sur des données binaires (représentées symboliquement par des suites de 0 et de 1) de manière
séquentielle et au rythme d’une horloge interne :

- Dans l’ordinateur, toute information est représentée par une suite de bits. Un bit
(abréviation de BInary digiT) représente une valeur choisie parmi deux possibilités
(symbolisées par 0 et 1, mais concrétisées par un phénomène physique à deux état stables
comme « allumé-éteint », « 0 volts – 3 volts », « aimantation nord ou sud », « courant
passant ou bloqué », etc. …) ;
- À chaque « top » d’horloge, il y a modification d’une série de bits représentant les données
en cours de traitement ;
- Entre deux tops d’horloge, l’ordinateur est improductif.

Des conventions permettent d’effectuer la codification des informations en binaire, et


inversement. Par exemple :

- 0101 représente la valeur 5 en binaire pur sur 4 bits (valeur que l’on retrouve en effectuant
le calcul 0x23+1X22+0x21+1x20 =5, 2 étant la base de numération binaire) ;

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 26

- 01010001 représente la lettre Q (majuscule) sur 8 bits, en code ASCII (American Standard
Code for Information Interchange).

II.1. Définition et contexte d’étude

Un ordinateur est un ensemble de circuits électroniques permettant de manipuler des


données sous forme binaire, c'est-à-dire sous forme de bits. C’est un dispositif électronique
programmable de traitement de l’information.
Le mot « ordinateur » provient de la société IBM France. François GIRARD, alors
responsable du service promotion générale publicité de l'entreprise IBM France, eut l'idée de
consulter son ancien professeur de lettres à Paris, afin de lui demander de proposer un mot
caractérisant le mieux possible ce que l'on appelait vulgairement un « calculateur » (traduction
littérale du mot anglais « computer »).
Ainsi, Jacques PERRET, agrégé de lettres, alors professeur de philosophie latine à la
Sorbonne, proposa le 16 avril 1955 le mot « Ordinateur » en précisant que ce mot était un
adjectif signifiant « Dieu mettant de l'ordre dans le monde ». Ainsi, il expliqua que le concept
de « mise en ordre » était tout à fait adapté.
II.2. Classification des ordinateurs
En matière de la classification des ordinateurs, il existe plusieurs classifications parmi
lesquelles, on citera :
1. Classification classique
Nous distinguons essentiellement 3 types ou catégories d’ordinateurs : Le maxi
ordinateur, le mini-ordinateur (ces deux constituent le gros système) et le micro-ordinateur.
Catégories Caractéristiques essentielles Maxi Mini- Micro-
ordinateur ordinateur ordinateur

Une grande capacité de stockage des Oui Oui Non


informations
Une unité centrale unique qui occupe un grand Oui Oui Non
espace.
Plusieurs consoles (ensemble clavier et écran) Oui Oui Non
connecté à l'unité centrale
Des experts pour sa manipulation Oui Oui Non
Une vitesse de traitement en MIPS (Million Oui Oui Non
d’Instructions exécutées Par Seconde) très
élevée

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 27

L’unité centrale unique et de taille inférieure à Oui Oui Non


celle du maxi ordinateur.

2. Classification moderne
Cette classification est plutôt basée sur la taille et la forme de l’ordinateur ainsi sa capacité de
puissance de calculs. Dans cette catégorie, on peut citer :
a. Les micro-ordinateurs : Un micro-ordinateur est un ordinateur construit autour d’un
microprocesseur. Les micro-ordinateurs ont été conçus au début des années 1970, sous
l’impulsion des microprocesseurs. Les microordinateurs sont aujourd’hui utilisés par les
particuliers et les industriels en raison de leur faible coût, de leur très bon apport en puissance
de traitement/prix et de leur facilité d’emploi. On distingue :
* Les ordinateurs de bureau (appelés aussi « Desktop ») sont composés d’un boîtier
renfermant les principaux composants et permettant de raccorder les différents dispositifs
externes.
* Les ordinateurs portables (« laptop ») sont composés d’un boîtier intégrant un écran
dépliable, un clavier et un grand nombre des dispositifs incorporés.
* Les organiseurs, appelés encore « Handheld » ou « PDA » (Personnal Digital Assistant)
sont des ordinateurs de poche proposant des fonctionnalités liées à l’organisation
personnelle.
b. Les stations de travail : Une station de travail est un micro-ordinateur haut de gamme
disposant d’outils graphiques et des communications avancées qui en font l’outil idéal pour
accomplir des tâches nécessitant à la fois des bonnes capacités de stockage et de puissance de
calcul. Il s’agit en fait d’un ordinateur puissant mis à la disposition d’un utilisateur et relié à
un réseau.
c. Les gros ordinateurs ou Mainframes : Un gros ordinateur est une machine conçue selon la
philosophie des ordinateurs de la 1ère génération fondée sur un informatique centralisé.
Ces genres de machines sont capables de répondre aux besoins des grandes entreprises
commerciales, de différentes institutions gouvernementales ou militaires et des établissements
de recherche scientifiques. Les gros ordinateurs adaptés tout particulièrement aux calculs
scientifiques sont appelés « super calculateurs ». Ce sont des ordinateurs qui offrent une
capacité de traitement très élevée et sont utilisés dans les domaines nécessitant des calculs à
grandes échelles comme la météorologie, la physique des particules, l’astrophysique, la réalité
virtuelle (ex : simulateur de vol).

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 28

II.3. Eléments constitutifs de l’ordinateur


II.3.1. Architecture matérielle
Le terme anglais hardware (littéralement « quincaillerie » en français) est utilisé pour
désigner le matériel informatique. Il s'agit de tous les composants que l'on peut trouver dans
l’ordinateur. Il s’agit pour l’essentiel des unités d’entrée des données, de l’unité de traitement et
des unités de sortie.

Figure 2: Schéma de base du traitement de l'information

II.3.1.1. Les unités d’entrée


Elles sont constituées de tous composants électroniques qui permettent d’introduire les
données dans l’ordinateur. Les principales unités d’entrées sont :

1. Le clavier
Le clavier (en anglais « keyboard ») permet, aux machines d’écrire, de saisir des
caractères (lettres, chiffres, symboles ...). Il s'agit donc d'un périphérique d'entrée essentiel pour
l'ordinateur, car c'est grâce à lui qu'il nous est possible de transférer des textes ou encore de donner
ordre à la machine d’effectuer des opérations particulières.

TOUCHE S DE COMMANDE
TOUCHES DE COMMANDE TOUCHES DE FONCTION

TOUCHES DE DEPLACEMENT PAVE NUMERIQUE


TOUCHES ALPHA-NUMERIQUES DU CURSEUR

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 29

Figure 3: Aperçu global du clavier Anglais

Le clavier est généralement branché à l'arrière de l'unité centrale, sur la carte-mère, sur un
connecteur PS/2 (Personnal System/2 qui est un port de connexion de dimension réduite pour
souris et clavier) de couleur violette. De nos jours, les connecteurs PS/2, ont été systématiquement
remplacés par des claviers avec un connecteur USB, voire des claviers sans fils.

Le clavier comporte plusieurs parties notamment le pavé numérique (qui permet la saisie
des chiffres et d’effectuer des calculs dans un tableur) ; les flèches de direction (permettant le
déplacement dans le texte) ; les touches alphanumériques (où nous retrouvons les lettres de
l’alphabet, les chiffres et les ponctuations) ; les touches de fonction (sont des raccourcis qui
permettent d’accéder à des fonctions sans passer par les menus) ; les voyants lumineux ; la partie
multimédia (pour les claviers récents).

FONCTIONNEMENT DU CLAVIER

Comme CTRL, elle s’utilise avec d’autres touches pour obtenir une action qui variera
en fonction du logiciel utilisé. Elle est également utilisée pour l’obtention du code ASCII
Exemple : ALT + F4 ferme l’application en cours.

LES AUTRES TOUCHES

• ESC ou ECHAP : Annule l’action en cours


• RETURN ou ENTREE : Valide la saisie ou le commande en cours. Sous un logiciel de
traitement de texte cette touche permet d’aller à la ligne.
• RETOUR ARRIERE ou : Supprime le caractère précédent le curseur
• TABULATION : Permet de faire un retrait de paragraphe ou de se déplacer à l’intérieur
d’une fenêtre
• CAPS LOCKS : Permet de verrouiller les touches en majuscule
• SHIFT ou : Permet de déverrouiller les majuscule ou de faire seulement une majuscule
ou de faire les caractères situés en haut d’une touche comme le point d’interrogation ( ?)
• TOUCHE WINDOWS : Permet de dérouler le menu Démarrer

• ALT GR : Permet de faire les caractères situés en bas à droite d’une touche comme par
exemple le sigle Euro (€)
• CLIC DROIT : Permet d’effectuer le clic droit de la souris
• INSER : Permet d’insérer un ou plusieurs caractères entre un mot

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 30

• : Permet de replacer le curseur en début de ligne


• Pg UP ou : permet de monter le curseur page par page
• SUPPR : Supprime un caractère suivant le curseur
• FIN : Permet de placer le curseur à la fin de la ligne
• Pg DOWN : Permet de descendre le curseur page par page
• IMPR ECRAN : Met dans le logiciel « presse papier » me contenu de l’écran afin d’être
incorporé dans un logiciel à l’aide de la fonction Coller.
• FLECHES DE DIRECTION : permettent de déplacer le curseur
• VERR NUM : Permet de bloquer le pavé numérique sur les chiffres. Je vous conseille
de le laisser toujours allumé.
QUELQUES RACCOURCIS CLAVIER
Raccourcis spécifiques au système d’exploitation Windows
La société Microsoft, propriétaire du programme d'exploitation Windows, a créé une
multitude de raccourcis pour permettre à ses clients de pouvoir accéder à différentes fonctions de
l'ordinateur sans utiliser leur souris.

Contexte
La plupart des raccourcis offerts par Microsoft sont des combinaisons de touches. En
majeure partie l'utilisateur va utiliser la touche Control (Ctrl), Alternate ou Option (Alt), Windows
(petit drapeau à l'effigie de Windows), Tabulation (la touche à gauche du Q sur un clavier
QWERTY), Majuscule ou Shift et aussi les touches Fonctions (F#).

Raccourcis à l'aide du bouton Ctrl


Ctrl + Fonction
Ctrl + A Sélectionne l'intégralité d'un texte
Ctrl + Backspace Supprime le mot entier situé à gauche du curseur
Ctrl + C Copie un texte, une image, un fichier sélectionné
Ctrl + D Permet de supprimer un document, une icône
Ctrl + Delete Supprime le mot entier situé à droite du curseur
Ctrl + Flèche(droite ou gauche) Permet de déplacer le curseur en sautant un mot à la fois.
Ctrl + O Permet d'ouvrir la fenêtre d'ouverture de fichier
Ctrl + P Permet d'ouvrir la fenêtre d'impression
Ctrl + S Permet de sauvegarder un document qui a déjà été sauvegardé
Ctrl + V Colle un texte, une image, un fichier sélectionné

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 31

Ctrl + W Permet de fermer une fenêtre


Ctrl + Z Efface le dernier texte écrit
Ctrl + X Permet de couper l’élément sélectionné
Ctrl + N Permet de créer un nouveau fichier dans le logiciel

Alternate

Voici comment faire un raccourci à l'aide de la touche alt ( Alt ). Le principe est
exactement le même que celui de la section précédente. Voici un exemple qui peut vous être très
utile. Enfoncez la touche Alt, ensuite appuyez sur la touche tabulation (à gauche de Q),sans relâcher
la touche Alt. Une fenêtre apparaît et elle vous montre tous les programmes qui sont ouvert sur
votre ordinateur. Pour voyager d'un programme à l'autre, il vous suffit de continuer d'appuyer sur
la touche tabulation. Lorsque vous aurez atteint le programme voulu, relâchez la touche Alt et la
fenêtre de ce programme apparaîtra en premier plan. Pour passer à la fenêtre précédente au lieu de
la suivante, enfoncez également la touche Shift.

Voici une liste des raccourcis les plus utilisés avec la touche Alternate (Option)
Raccourcis à l'aide de la touche Alt
Alt + Fonction
Alt Permet de donner le focus au premier menu de la fenêtre
affichée
Alt + F4 Permet de fermer la fenêtre affichée
Alt + Espace Permet d'ouvrir le menu de la barre de titre de la fenêtre affichée
Alt + Tab ou Windows + Tab (Lorsque la touche Alt est maintenue, permet de passer à la
sous vista) fenêtre suivante en appuyant sur Tabulation
Alt + Shift + Tabulation Lorsque les touches Alt et Shift sont maintenues, permet de passer à
(Windows + Shift + Tab sous la fenêtre précédente en appuyant sur Tabulation
vista)
Alt + Shift Permet de charger les langues du clavier

Aller à la zone Accents avec la touche Alt pour voir les accents qui sont créés avec une
combinaison de la touche Alt et les chiffres du pavé numérique.

Windows
La touche Windows est un petit drapeau (logo de Windows) qui se trouve entre les
touches Ctrl et Alt à gauche, et la première touche située entre les touches AltGr et Ctrl à
droite.
La touche que vous utiliserez le plus souvent sera Windows + D.
Voici une liste des raccourcis les plus utilisés avec la touche Windows

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 32

Touche de raccourci pour Windows

Windows + Fonction
Windows Permet d'ouvrir la barre de menu Démarrer
Windows + Ctrl+ F Permet d'ouvrir une fenêtre de recherche d'un autre ordinateur (en réseau)
(Find)
Windows + D Permet de masquer tous les éléments du bureau laissant place au fond
d'écran (Desktop)
Windows + E Permet d'ouvrir le poste de travail (Explorer)
Windows + F Permet d'ouvrir la fenêtre de recherche (Find)
Windows + L Permet de verrouiller votre poste de travail lorsque vous n'êtes pas là (mettre un
mot de passe pour plus de sécurité) (Lock)

Windows + M Permet de réduire l'ensemble des fenêtres (Minimize all)


Windows + R Permet d'ouvrir la fenêtre exécuter (Run)
Windows + T Afficher les macros (Vista)
Windows + U Permet d'activer la loupe ou un clavier virtuel
Windows + Pause Permet d'ouvrir la fenêtre propriété système
Windows + Espace Permet de changer les langues du clavier
Windows + I Permet d’ouvrir le paramètre
Windows + P Permet d’ouvrir la fenêtre de projection d’image

Touches Fonctions
Voici une liste des raccourcis les plus utilisés avec les touches fonctions
Touche Fonction
F# + Fonction
F1 Permet d'ouvrir la fenêtre d'aide
F2 Permet de renommer le fichier sélectionné
F3 Permet d'ouvrir la fenêtre de recherche, ou le volet de recherche pour l'explorateur
F4 Explorateur Windows : Permet d'ouvrir la liste déroulante de dossiers
F5 Permet de rafraîchir une page Internet ou de l'Explorateur Windows
F10 Donne le focus au premier menu de la fenêtre courante
F11 Permet de sauvegarder un document qui n'a pas déjà été sauvegardé (enregistrer-sous)

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 33

Shift
Voici une liste des raccourcis les plus utilisés avec Shift
Touche de raccourci avec Shift
Shift + Fonction
Shift + F10 Permet d'afficher le menu contextuel associé à l'élément sélectionné
Shift + Flèches Permet de sélectionner un texte lorsque le curseur est dans un traitement de texte
Shift + Suppr Permet de supprimer définitivement l'élément sélectionné sans le placer dans
la corbeille
Alt + Tabulation Permet de changer de fenêtre dans le sens contraire
+ Shift

Accents avec la touche Alt


Il est à noter que les accents ci-dessous sont disponibles pour un clavier anglais canadien.
Il se peut qu'elles soient différentes pour d'autres claviers.
Accents sur le pavé numérique

Raccourci Accent Raccourci Accent


Alt + 128 Ç (majuscule) Alt + 129 ü (minuscule)
Alt +130 é (minuscule) Alt + 131 â (minuscule)
Alt + 132 ä (minuscule) Alt + 133 à (minuscule)
Alt +135 ç (minuscule) Alt + 136 ê (minuscule)
Alt + 137 ë (minuscule) Alt + 138 è (minuscule)
Alt +139 ï (minuscule) Alt + 140 î (minuscule)
Alt + 144 É (majuscule) Alt + 147 ô (minuscule)
Alt +148 ö (minuscule) Alt + 150 û (minuscule)
Alt + 153 Ö (majuscule) Alt + 154 Ü (majuscule)

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 34

2. La souris
La souris (en anglais « mouse » ou « mice » au pluriel) est un périphérique de pointage
(en anglais pointing device) servant à déplacer un curseur sur l'écran et permettant de sélectionner,
déplacer, manipuler des objets grâce à des boutons. On appelle ainsi « clic » l'action consistant à
appuyer (cliquer) sur un bouton afin d'effectuer une action.

La première souris a été inventée et mise au point par Douglas Carle ENGELBART : il s'agissait
d'une souris en bois contenant deux disques perpendiculaires et relié à l'ordinateur par une paire de
fils torsadés. La souris est généralement branchée à l'arrière de l'unité centrale, sur la carte-mère,
sur un connecteur PS/2 de couleur verte. Certaines souris possèdent parfois une connectique
USB.
On distingue plusieurs grandes familles de souris :

a. Souris mécanique
La souris mécanique comporte une bille sur laquelle tournent deux rouleaux. Ces rouleaux
comportent chacun un disque qui tourne entre une photodiode et une diode électroluminescente
(LED c’est-àdire composant électronique autorisant le passage d’un courant électrique dans un
seul sens) laissant passer la lumière par séquence. Lorsque la lumière passe, la photodiode renvoie
un bit (1), lorsqu'elle rencontre un obstacle, la photodiode renvoie un bit nul (0). A l'aide de ces
informations, l'ordinateur peut connaître la position du curseur, voire sa vitesse.

b. Souris optique
La souris optique possède un fonctionnement basé sur l'analyse de la surface sur laquelle
elle se déplace. Ainsi une souris optique est constituée d'une LED, d'un système d´acquisition
d´images (IAS) et d'un processeur de signaux numériques (DSP).

La LED est chargée d'éclairer la surface afin de permettre au système IAS d'acquérir l'image
de la surface. Le DSP détermine le mouvement horizontal et vertical. Les souris optiques
fonctionnent sur toutes surfaces non parfaitement lisses ou bien possédantes des dégradés de

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 35

couleur. Les avantages principaux de ce type de dispositif de pointage par rapport aux souris
mécaniques sont notamment une précision accrue ainsi qu'un palissement moindre.

c. Souris sans fil


Les souris sans fil (en anglais « cordless mouse ») sont de plus en plus populaires car elles
peuvent être utilisées sans être physiquement reliées à l'ordinateur, ce qui procure une sensation de
liberté. Au niveau de cette famille de souris, nous retrouvons aussi les souris infrarouges : ces
souris sont utilisées en vis-à-vis avec un récepteur infrarouge connecté à l'ordinateur. La portée de
ce type de dispositif est de quelques mètres au plus, en vision directe, au même titre que la
télécommande d'un téléviseur.

d. Souris à molette
De plus en plus de souris sont équipées d'une molette. La molette, généralement située entre
le bouton gauche et le bouton droit permet de faire défiler des pages tout en permettant à l'utilisateur
de déplacer le curseur sur l'écran.

N.B. : Sur les ordinateurs portables, nous retrouvons d’autres types de souris qui répondent au
double impératif de faible encombrement et d’ergonomie : le trackball est en quelque sorte une
souris inversée (l’utilisateur fait tourner une petite bille enchâssée dans le socle de l’appareil, en
avant du clavier) et le « touchpad » est une sorte de palette graphique fonctionnant avec des
capteurs de pression qui détectent la position du doigt de l’utilisateur sur un petit rectangle
de plastique.
Actuellement, il est possible de retrouver sur le marché des souris, celles qui disposent de
quatre boutons, pouvant faciliter la navigation aisée sur le réseau Internet.

3. Scanner (numériseur)

Le nom « scanner » vient du verbe anglais « to scan » qui signifie balayer dans le sens de
« balayer du regard ». Il s’agit d’un périphérique permettant de numériser des documents à partir
d'un format « papier » et de générer des documents au format « électronique ou numérique »
qu'il est possible d'enregistrer dans la mémoire de l'ordinateur. Le scanner est caractérisé par sa
qualité de numérisation (résolution).
On a plusieurs types d’appareils :

* Les numériseurs médicaux permettant de prendre une image à l’aide des rayons X à
l’intérieur du corps humain.
* Les numériseurs qui permettent de numériser les documents.
* Les systèmes de lecture de code-barres des caisses des magasins.
* Les numériseurs de reconnaissance de billets de banque.

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 36

4. Caméra numérique

Les caméras numériques sont des appareils photographiques qui ne contiennent pas de film.
Les photos sont enregistrées sur une petite disquette (carte mémoire) au lieu de s’imprégner sur
une pellicule. La photographie obtenue pourra être visionnée à partir de l’écran d’un ordinateur, ou
encore d’un téléviseur. Le grand avantage de cet appareil est sa capacité à transmettre une photo à
un ordinateur, par l’intermédiaire d’un fil, pour ensuite l’intégrer à un document.

Signalons aussi l’existence d’appareils tout-en-un (all-in-one) qui remplissent à la fois les
fonctions de scanner, d’imprimante, de photocopieur et même de télécopieur.

II.3.1.2. Unité centrale


L’unité de traitement est composée essentiellement par un boîtier dans lequel se trouvent
logés, sur une carte mère, plusieurs composants informatiques.

Les composants matériels de l'ordinateur sont architecturés autour d'une carte principale
comportant quelques circuits intégrés et beaucoup de composants électroniques tels que
condensateurs, résistances, etc. Tous ces composants sont soudés sur la carte et sont reliés par les
connexions du circuit imprimé par un grand nombre de connecteurs : cette carte est appelée « carte-
mère ». La carte-mère est logée dans un boitier, comportant des emplacements pour les
périphériques de stockage sur la face avant, ainsi que des boutons permettant de contrôler la mise
sous tension de l'ordinateur et un certain nombre de voyants permettant de vérifier l'état de marche
de l'appareil et l'activité des disques durs. Sur la face arrière, le boîtier présente des ouvertures en
vis-à-vis des cartes d'extension et des interfaces d'entrée-sortie connectées sur la carte-mère.

Enfin, le boîtier héberge un bloc d'alimentation électrique, chargé de fournir un courant


électrique stable et continu à l'ensemble des éléments constitutifs de l'ordinateur. L'alimentation
sert donc à convertir le courant alternatif du réseau électrique (110 ou 220 Volts) en une tension
continue de 5 Volts pour les composants de l'ordinateur et de 12 volts pour certains périphériques
internes (disques, lecteurs de CD-ROM, ...). La puissance du bloc d'alimentation est généralement
comprise entre 200 et 450 Watts.

1. La carte mère
La carte mère c’est la grande carte verte, tout au fond de la boite. La carte mère est un
élément essentiel de l’ordinateur, c'est à elle que tous les périphériques sont connectés : le scanner,
l’imprimante, le modem, le clavier, la souris... Bref tous les éléments externes que l’on utilise
couramment. C’est un élément essentiel au fonctionnement de l’ordinateur, dont voici sa
description :

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 37

2. Microprocesseur
Le centre nerveux de la machine est le microprocesseur. Il s’agit d’un composant
électronique très sophistiqué et très miniaturisé. Le cœur d'un processeur est l'Unité Arithmétique
et Logique (UAL) qui permet d'effectuer des opérations arithmétiques, logiques, ou d'opérations
sur la mémoire (par exemple la lecture du contenu de la mémoire).

L’avantage du microprocesseur sur l'être humain est sa vitesse de calcul. Actuellement, les
microprocesseurs sont souvent capables d'exécuter plus de 3 milliards d'opérations par seconde.
Les microprocesseurs (et donc les ordinateurs) sont incapables d'effectuer le moindre travail si on
ne leur fournit pas des listes d'instructions précises dans le seul langage qu'ils comprennent : le
langage machine.

De telles listes d'instructions sont appelées des programmes d'ordinateur. Le processeur


dispose de deux types de mémoires :

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 38

* La mémoire cache, qui est une sorte de réservoir de mémoire intermédiaire entre le
processeur et la mémoire centrale. La caractéristique fonctionnelle de la mémoire cache est
de servir à stocker des instructions et des données provenant de la mémoire centrale et qui
ont déjà été utilisées les plus récemment par le processeur central.
* Les registres : il s’agit d’une sorte de tiroirs, un circuit qui permet la mémorisation de n
bits en même temps.
Les éléments principaux d'un microprocesseur sont :

* Une horloge qui rythme le processeur. Entre deux tops d'horloge le processeur effectue une
action. Une instruction nécessite une ou plusieurs actions du processeur. Ainsi plus
l'horloge a une fréquence élevée, plus le processeur effectue d'instructions par seconde
(l'unité retenue pour caractériser le nombre d'instructions traitées par unité de temps est
généralement le MIPS, Millions d'instruction par seconde). Par exemple un ordinateur
ayant une fréquence de 100 Mhz effectue 100.000.000 d'instructions par seconde ;
* Une unité de gestion des bus qui gère les flux d'informations entrant et sortant ;
* Une unité d'instruction qui lit les données arrivant, les décode puis les envoie à l'unité
d'exécution ;
* Une unité d'exécution qui accomplit les tâches que lui a donné l'unité d'instruction.
3. Les mémoires
A. Disque Dur
Le disque dur est un support magnétique de stockage d’informations contenu dans l’unité
centrale offrant des vastes espaces de stockage. Inventé dans les années 1950 par IBM, sa capacité
augmente très rapidement tandis que son encombrement se réduit. En fait, Un disque dur est
constitué non pas d'un seul disque, mais de plusieurs disques rigides (en anglais hard disk signifie
disque dur) en métal, en verre ou en céramique, empilés à une très faible distance les uns des autres
et appelés plateaux.

Les disques tournent très rapidement autour d'un axe (à plusieurs milliers de tours par
minute actuellement) dans le sens inverse des aiguilles d'une montre.

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 39

La lecture et l'écriture se fait grâce à des têtes de lecture situées de part et d'autre de chacun
des plateaux. Ces têtes sont des électro-aimants qui se baissent et se soulèvent pour pouvoir lire
l'information ou l'écrire. Les têtes ne sont qu'à quelques microns de la surface, séparées par une
couche d'air provoquée par la rotation des disques qui crée un vent d'environ 250km/h ! De plus
ces têtes sont mobiles latéralement afin de pouvoir balayer l'ensemble de la surface du disque.

Un disque dur est au minimum composé de pistes numérotées et de secteurs numérotés, les
données sont stockées dans les secteurs.

Figure 4 : Adresse d’une mémoire

Dans une pile de disques, on ajoute la notion de cylindre qui repère toutes les pistes portant
le même numéro sur chaque face de chacun des disques de la pile.

Figure 5 : Fonctionnement interne du disque dur

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 40

B. Mémoire vive (RAM)

La mémoire vive, généralement appelée RAM (Random Access Memory, qui signifie
mémoire à accès aléatoire) ou encore mémoire volatile, est la mémoire principale du système,
c'est-à-dire qu'il s'agit d'un espace permettant de stocker de manière temporaire des données lors
de l'exécution d'un programme. Il s’agit d’une mémoire dans laquelle il est possible de lire et
d’écrire.

En effet, le stockage de données dans la mémoire vive est temporaire, contrairement au


stockage de données sur une mémoire de masse telle que le disque dur, car elle permet
uniquement de stocker des données tant qu'elle est alimentée électriquement. Ainsi, à chaque
fois que l'ordinateur est éteint, toutes les données présentes en mémoire sont irrémédiablement
effacées.

C. Mémoire morte (ROM)


La mémoire morte, appelée ROM pour Read Only Memory (signifie mémoire en lecture
seule) est un type de mémoire permettant de conserver les informations qui y sont contenues même
lorsque la mémoire n'est plus alimentée électriquement. Appelée parfois « mémoire non volatile
», elle ne s'efface pas lors de la mise hors tension du système. A la base ce type de mémoire ne
peut être accédée qu'en lecture. Toutefois il est désormais possible d'enregistrer des informations
dans certaines mémoires de type ROM.

Ce type de mémoire permet notamment de conserver les données nécessaires au


démarrage basique de l'ordinateur. En effet, ces informations ne peuvent être stockées sur le
disque dur étant donné que les paramètres du disque (essentiels à son initialisation) font partie de
ces données vitales à l'amorçage.

II.2.1.3. Les unités de sortie

Il existe plusieurs unités de sortie dont le principal est l’écran.

1. Ecran
On appelle écran (ou techniquement moniteur), l’unité d’affichage de l’ordinateur. Les
moniteurs sont la plupart du temps des tubes cathodiques (notés CRT, soit cathode ray tube ou en
français tube à rayonnement cathodique), c'est à dire un tube en verre sous vide dans lequel un
canon à électrons émet un flux d'électrons dirigés par un champ électrique vers un écran couvert

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 41

de petits éléments phosphorescents. L'écran est recouvert d'une fine couche d'éléments
phosphorescents, appelés luminophores, émettant de la lumière par excitation lorsque les électrons
viennent les heurter, ce qui constitue un point lumineux appelé pixel.

Un moniteur noir et blanc permet d'afficher des dégradés de couleur (niveaux de gris) en
variant l'intensité du rayon. Pour les moniteurs couleurs, trois faisceaux d'électrons (donc trois
cathodes) viennent chacun heurter un point d'une couleur spécifique : un rouge, un vert et un bleu
(RGB : Red, Green, Blue ) ou en français RVB Rouge, vert, bleu.

Les moniteurs à écrans plats (souvent notés FDP pour Flat panel display) se généralisent
de plus en plus dans la mesure où leur facteur d'encombrement et leur poids sont très inférieurs à
ceux des écrans CRT traditionnels. La technologie LCD (Liquid Crystal Display) est basée sur un
écran composé de deux plaques transparentes entre lesquelles est coincée une fine couche de
liquide contenant des molécules (cristaux) qui ont la propriété de s'orienter lorsqu'elles sont
soumises à du courant électrique. L'avantage majeur de ce type d'écran est son encombrement
réduit, d'où son utilisation sur les ordinateurs portables.

Les moniteurs sont souvent caractérisés par les données suivantes :

* La définition : c'est le nombre de points (pixel) que l'écran peut afficher, ce nombre de
points est généralement compris entre 640x480 (640 points en longueur, 480 points en
largeur) et 1600x1200, mais des résolutions supérieures sont techniquement possibles ;

* La taille : Elle se calcule en mesurant la diagonale de l'écran et est exprimée en pouces,


c'est-à-dire 2.54 cm. Il faut veiller à ne pas confondre la définition de l'écran et sa taille. En
effet un écran d'une taille donnée peut afficher différentes définitions, cependant de façon
générale les écrans de grande taille possèdent une meilleure définition ;

* Le pas de masque (en anglais dot pitch) : C'est la distance qui sépare deux photophores ;
plus celle-ci est petite plus l'image est précise. Ainsi un pas de masque inférieur ou égal à

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 42

0,25 mm procurera un bon confort d'utilisation, tandis que les écrans possédant des pas de
masque supérieurs ou égaux à 0,28 mm seront à proscrire ;

* La résolution : Elle détermine le nombre de pixels par unité de surface, pixels par pouce
linéaire (en anglais DPI : Dots Per Inch, traduisez points par pouce). Une résolution de
300 dpi signifie 300 colonnes et 300 rangées de pixels sur un pouce carré ce qui donnerait
donc 90000 pixels sur un pouce carré ;

* La fréquence de balayage verticale (refresh rate en anglais) : Elle représente le nombre


d'images qui sont affichées par seconde, on l'appelle aussi rafraîchissement, elle est
exprimée en Hertz. Plus cette valeur est élevée meilleur est le confort visuel (on ne voit pas
l'image scintiller), il faut donc qu'elle soit supérieure à 67 Hz (limite inférieure à partir de
laquelle l'œil voit véritablement l'image « clignoter »).

2. Imprimante

L'imprimante permet de faire une sortie imprimée (sur papier ou sur tout autre support)
des données de l'ordinateur. Il en existe plusieurs types dont les plus courants sont :

a. L’imprimante matricielle

Elle permet d'imprimer des documents grâce à un va-et-vient de la tête sur le papier. La tête
est constituée de petites aiguilles, poussées par des électro-aimants, qui viennent taper contre un
ruban de carbone situé entre la tête et le papier. Ce ruban de carbone défile pour qu'il y ait
continuellement de l'encre dessus. A chaque fin de ligne un rouleau fait tourner la feuille. Les
imprimantes matricielles les plus récentes sont équipées de têtes d'impression comportant 24
aiguilles, ce qui leur permet d'imprimer avec une résolution de 216 points par pouce.

b. L’imprimante à jet d’encre

La technologie du jet d'encre a été inventée par Canon, elle repose sur le principe simple
mais efficace qu'un fluide chauffé produit des bulles. Le chercheur qui a découvert ce principe
avait mis accidentellement en contact une seringue remplie d'encre et un fer à souder, cela créa
une bulle dans la seringue qui fit jaillir de l'encre de la seringue. Chaque buse produit une bulle
minuscule qui fait éjecter une gouttelette extrêmement fine. Le vide engendré par la baisse de
pression aspire une nouvelle goutte ...

c. L’imprimante LASER (Light Amplification by Stimulation of Emission


Radiation)
L'imprimante laser reproduit à l'aide de points l'image que lui envoie le PC par le port LPT
(line printing) ou USB. Grâce au laser, les points sont plus petits et la définition est meilleure.

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 43

Ainsi, l'imprimante Laser n'ayant pas de tête mécanique est beaucoup plus rapide et moins
bruyante.
La qualité d’une imprimante se définit par :

 La vitesse d'impression : exprimée en pages par minute (ppm), la vitesse d'impression


représente la capacité de l'imprimante à imprimer un grand nombre de pages par minute.

 La résolution : exprimée en points par pouces (notés ppp ou dpi, pour dot per inch), la
résolution définit la finesse de l'impression.

 Le temps de préchauffage : il représente le temps d'attente nécessaire avant la première


impression. En effet une imprimante ne peut pas imprimer « à froid », il lui est nécessaire
d'atteindre une certaine température pour fonctionner de manière optimale.

 La mémoire embarquée : il s'agit de la quantité de mémoire permettant à l'imprimante de


stocker les travaux d'impression. Plus la quantité de mémoire n’est élevée, plus la file
d'attente des travaux peuvent être importante.

 Les cartouches : les cartouches sont rarement standards et dépendent fortement de la


marque et du modèle d'imprimante. Ainsi, certains constructeurs privilégient des cartouches
multicolores, tandis que d'autres proposent des cartouches d'encre séparées. Les cartouches
d'encre séparées sont globalement plus économiques car il n'est pas rare qu'une couleur soit
plus utilisée que les autres.

NB : Il existe des périphériques d’entrée/sortie qui servent à stocker les données et les
programmes. Il s’agit entre autre : clef USB, CD, DVD, disque dur ou disquette, etc.

Imprimante matricielle

3. Notion sur le bus

On appelle « bus », en informatique, un ensemble de liaisons physiques (câbles, pistes de


circuits imprimés, ...) pouvant être exploitées en commun par plusieurs éléments matériels afin de
communiquer.

Un bus est caractérisé par le volume d'informations transmises simultanément (exprimé en


bits), correspondant au nombre de lignes sur lesquelles les données sont envoyées de manière

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 44

simultanée. Une nappe de 32 fils permet ainsi de transmettre 32 bits en parallèle. On parle ainsi de
« largeur de bus » pour désigner le nombre de bits qu'il peut transmettre simultanément. D'autre
part, la vitesse du bus est également définie par sa fréquence (exprimée en Hertz), c'est-à-dire le
nombre de paquets de données envoyés ou reçus par seconde. On parle de cycle pour désigner
chaque envoi ou réception de données.

On distingue généralement sur un ordinateur deux types de bus : le bus système et les bus
d’extension permettant de connecter des cartes d'extensions.

* Le bus système permet au processeur de communiquer avec la mémoire centrale du


système (mémoire vive ou RAM). Le bus interne est lui-même subdivisé en deux bus :
- Le bus d'adresses (ou bus mémoire) transporte les adresses mémoire auxquelles le
processeur souhaite accéder pour lire ou écrire une donnée.
- Le bus de données véhicule les informations en provenance ou à destination du processeur.

* Le bus d'extension (parfois appelé bus d'entrée/sortie) permet aux divers composants de
la carte mère (USB, série, parallèle, disques durs, lecteurs et graveurs de CD-ROM, etc.)
de communiquer entre eux mais il permet surtout l'ajout de nouveaux périphériques grâce
aux connecteurs d'extension (appelés slots) connectés sur le bus d'entrées-sorties. On parle
généralement de bridge (en français pont) pour désigner un élément d'interconnexion entre
deux bus.

4. Notions de ports d’entrée-sortie

Les ports sont des prises que l’on trouve à l’arrière de l’ordinateur et qui permettent de brancher
divers matériels. Les ports d'entrée-sortie sont des éléments matériels de l'ordinateur, permettant
au système de communiquer avec des éléments extérieurs, c'est-à-dire d'échanger des données,
d'où l'appellation d'interface d'entrée-sortie (notée parfois interface d'E/S).

a. Les ports « série »

Les ports série représentent les premières interfaces ayant permis aux ordinateurs
d'échanger des informations avec le "monde extérieur". Le terme série désigne un envoi de données
via un fil unique : les bits sont envoyés les uns à la suite des autres.

A l'origine les ports série permettaient uniquement d'envoyer des données, mais pas d'en
recevoir, c'est pourquoi des ports bidirectionnels ont été mis au point (ceux qui équipent les
ordinateurs actuels le sont) ; les ports séries bidirectionnels ont donc besoin de deux fils pour
effectuer la communication.

Les ports série sont généralement intégrés à la carte mère, c'est pourquoi des connecteurs
présents à l'arrière du boîtier, et reliés à la carte mère par une nappe de fils, permettent de connecter

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 45

un élément extérieur. Les connecteurs séries possèdent généralement 9 broches (connecteur DB9)
:

Figure 6 : Image du port série à 9 pins

b. Les ports parallèles

La transmission de données en parallèle consiste à envoyer des données simultanément sur


plusieurs canaux (fils). Les ports parallèles présents sur les ordinateurs personnels permettent
d'envoyer simultanément 8 bits (un octet) par l'intermédiaire de 8 fils.

Les premiers ports parallèles bidirectionnels permettaient d'atteindre des débits (volume
d’informations qu’il est possible de traiter) de l'ordre de 2.4Mb/s. Toutefois des ports parallèles
améliorés ont été mis au point afin d'obtenir des débits plus élevés.
Les ports parallèles sont, comme les ports série, intégrés à la carte mère. Les connecteurs
DB25 permettent de connecter un élément extérieur (une imprimante par exemple).

Figure 7 : Image du port parallèle à 25 pins

c. Les ports USB


Les ports USB (Universal Serial Bus, ports séries universels) sont basés sur une
architecture de type série. Il s'agit toutefois d'une interface entrée-sortie beaucoup plus rapide que
les ports série standards.

L’architecture USB a pour caractéristique de fournir l’alimentation électrique aux


périphériques qu’elle relie. Elle utilise pour cela un câble composé de quatre fils (la masse GND,
l’alimentation VBUS et deux fils de données appelés D- et D+).

Figure 8 : Schéma de l'architecture USB

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 46

Ainsi, il est possible de brancher les périphériques sans éteindre l’ordinateur (branchement
à chaud). Lors de la connexion du périphérique à l’hôte, ce dernier détecte l’ajout du nouvel
élément grâce au changement de la tension entre les fils D+ et D-. A ce moment, l’ordinateur envoie
un signal d’initialisation au périphérique, puis lui fournit du courant grâce aux fils GND et VBUS.
Le périphérique est alors alimenté en courant électrique et récupère temporairement l’adresse par
défaut (l’adresse 0). L’étape suivante consiste à lui fournir son adresse définitive (c’est la procédure
d’énumération). Pour cela, l’ordinateur interroge les périphériques déjà branchés pour connaître la
leur et en attribue une au nouveau, qui en retour s’identifie. L’hôte, disposant de toutes les
caractéristiques nécessaires est alors en mesure de charger le pilote approprié...

Figure 9 : Différents ports de connexion

II.4. Schéma de base d’un ordinateur

Figure 10 : Schéma de base d'un ordinateur (selon le modèle de VON NEUMANN)

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 47

Figure 11 : Structure interne d’un ordinateur

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 48

CHAPITRE III : CODAGE ET REPRESENTATION DES INFORMATIONS


III.1. Historique
C'est à LEIBNIZ qu'on doit l'arithmétique binaire. En 1854, le mathématicien anglais
George BOOLE, conçoit une sorte d'algèbre, un système de symboles et de règles, applicable à la
pensée logique. De cette manière, il était possible de coder des propositions en langage symbolique
puis de les traiter comme des nombres ordinaires. Il est intéressant de remarquer que le mot « calcul
» provient du mot latin, calculi qui signifiait « cailloux ». Les trois opérations de base de l’algèbre
booléenne sont AND, OR, NOT (ET, OU, NON). Elles sont suffisantes pour additionner,
soustraire, multiplier, diviser et comparer des nombres.

En 1936, Claude ELWOOD SHANNON, applique l'algèbre de Boole à la conception d'un


calculateur électrique en combinant les découvertes de Boole, les nombres binaires et les circuits
électriques. Il démontre qu'à l'aide des interrupteurs fermés pour "vrai" et ouverts pour "faux" on
peut effectuer des opérations logiques en associant le chiffre "1" pour "vrai" et "0" pour "faux". Ce
système est nommé système binaire. C'est avec ce système que fonctionnent les ordinateurs. Ils
n'utilisent que deux chiffres (0 et 1) pour faire des nombres. L'homme travaille quant à lui avec un
système décimal, à 10 chiffres.

a. Bit
Bit signifie "binary digit", c'est-à-dire 0 et 1 en numérotation binaire. C'est la plus petite
unité d'information manipulable par une machine. On peut le représenter physiquement par une
impulsion électrique qui correspond à la valeur 1 ou une absence d’impulsion qui correspond à la
valeur 0. Avec un bit on peut avoir deux états différents : soit 1, soit 0. Un objet physique ayant
deux états représente un bit.
Avec 2 bits on peut avoir quatre états différents (2*2) :

0 0 1 1
0 1 0 1

Avec 3 bits on peut avoir huit états différents (2*2*2) :


0 0 0 0 1 1 1 1
0 0 1 1 0 0 1 1
0 1 0 1 0 1 0 1
Avec huit bits on a 2*2*2*2*2*2*2*2=256 possibilités, c'est ce que l'on appelle un octet.
Cette notion peut être étendue à n bits : on a alors 2n possibilités. L'octet est une unité d'information
composée de 8 bits. Il permet de stocker un caractère, tel qu'une lettre, un chiffre ...
S’agissant de la capacité ; les unités de mesure de stockage de l’information sont :

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 49

L’octet = 23 bits = 8 bits. (noté 1 o)


Le Kilo-octet = 210 octets =1024 o (noté 1 Ko)
Le Méga-octet = 220 octets = (1024)2o (noté 1 Mo)
Le Giga-octet = 230 octets = (1024)3 o (noté 1 Go)
Le Téra-octet = 240 octets = (1024)4 o (noté 1 To)…

III.2. Les opérations en binaire

Les opérations arithmétiques simples telles que l'addition, la soustraction et la


multiplication sont faciles à effectuer en binaire et utilisent les opérateurs booléens.

a. L'addition en binaire

L'addition en binaire se fait avec les mêmes règles qu'en décimale : on commence à
additionner les bits de poids faible (les bits de droite) puis on a des retenues lorsque la somme de
deux bits de mêmes poids dépasse la valeur de l'unité la plus grande (dans le cas du binaire : 1) ;
cette retenue est reportée sur le bit de poids plus fort suivant...

Par exemple : 11012 + 11102 = 110112 (décimal 13 + 14 = 27)

1 1 0 12
+ 1 1 1 02
___ ___ ___ ___ ___

1 1 0 1 12

b. La multiplication en binaire
La multiplication se fait entre bits de même poids, avec le même système de retenue qu'en
décimale. La table de multiplication en binaire est très simple :
Par exemple : 11012 x 1102 = 10011102 (décimal 13 x 6 = 78)

1 1 0 12

X 1 1 02

____ ____ ____ ____ ____

0 1 1 0 1 0

0 1 1 0 1
____ ____ ____ ____ ____ ____ ____

1 0 0 1 1 1 02

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 50

c. La division en binaire
Par exemple : 1011002 / 1002 = 10112 (44 / 4 = 11)
0 1 1 0 02 1 0 02

1
- 0 0 1

1
1 1 0

- 0 1

1 1 0 1

-10 0

1 0 0

-10 0

d. La soustraction en binaire

Par exemple : 10112 – 1112 = 1002

1 0 1 12

- 1 1 12

___ ___ ___ ___

1 0 02

III.3. Systèmes de numération

Le système de numération peut être défini comme un ensemble des conventions et de


méthodes permettant de nommer, d’écrire les nombres et d’effectuer les calculs. Qu’il s’agisse du
système habituellement utilisé par les hommes ou celui utilisé par les machines, nous sommes là
en présence du système de numération fondé sur la position des chiffres (ex : 1 2 et 2 1).

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 51

Il existe plusieurs systèmes de numération en informatique, mais dans le cadre de ce cours,


nous ne parlerons que de 4 systèmes de numération :

* Le système decimal (Base 10);


* Le système octal (Base 2);
* Le système binaire (Base 8);
* Le système hexadecimal (Base 16).

III.3.1. Le système décimal


Il s’agit d’un système de numération fondé sur la position des chiffres dont la base b=10
(déci veut dire dix). Les dix chiffres de ce système correspondent aux symboles 0, 1, 2, 3, 4, 5, 6,
7, 8 et 9. Toute valeur représentée dans le système décimal par une chaîne des chiffres décimaux
peut également s’exprimer sous la forme d’une somme de puissance de 10 où chacune des
puissances a comme poids d’un des chiffres.
Exemple : 9472 = 9*1000 + 4*100 + 7*10 + 2
= 9000 + 400 + 70 + 2
= 9*103 + 4*102 + 7*101 + 2*100
III.3.2. Système binaire
Le système binaire est un système de numération fondé sur la position des chiffres dont la
base b=2. Les 2 chiffres notés 0 et 1 sont appelés bits.

Pour convertir un nombre décimal en son équivalent binaire, il convient de distinguer la


partie entière (PE) de celle fractionnaire (PF).
Pour la partie entière, divisez PE et chacun des quotients successifs par 2 jusqu’à obtenir
un quotient nul c’est-à-dire égal à 0. La suite des restes dans l’ordre inverse de leur obtention. Pour
la partie fractionnaire, multipliez PF et les parties fractionnaires des produits successifs par 2
jusqu’à obtenir soit une partie fractionnaire nulle, soit une répétition de cette partie.

Exemple : soit à convertir M = 142,6875 en binaire


PE Quotient Reste PF Produit Entière
142 :2 72 0 0,6875*2 1,375 1
72 :2 35 1 0,375*2 0,75 0
35 :2 17 1 0,75*2 1,5 1
17 :2 8 1 0,5*2 1,0 1
8 :2 4 0 0,6875 = 11012
4 :2 2 0
2 :2 1 0

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 52

1 :2 0 1
142 = 111100012

M = 142,6875 en binaire donne 10001110,10112

NB : la conversion d’un nombre binaire en son équivalent décimal passe par la multiplication de
chaque élément du nombre binaire par le chiffre 2 élevé à une puissance croissant par pas de 1
compté à partir de 0 en partant de la droite, puis on effectue la somme des résultats obtenus. Pour
la partie fractionnaire, on utilise les puissances négatives de 2.

Exemple : convertir S= 110000,0112 en son équivalent décimal

→ 1*25 + 1*24 + 0*23 + 0*22 + 0*21 + 0*20,0*2-1 + 1*2-2 + 1*2-3


→ 32 + 16 + 0 + 0 + 0 + 0, 0 + 0,25 + 0,125
→ 48,375

III.3.3. Système octal

Le système binaire s’il présente l’avantage d’être directement compréhensible par la


machine, il est par contre difficilement assimilable par l’homme. Par conséquent, on recourt à
d’autres systèmes de notation plus compacts et notamment le système octal. En notation octale, on
dispose une série de 8 symboles d’où la base b=8.

Dans la mesure où 8=23, chaque chiffre octal est une forme condensée de l’équivalent en
3 bits tels que :

Octal O 1 2 3 4 5 6 7

Binaire 000 001 010 011 100 101 110 111

Il est possible de procéder à la transformation d’un nombre du système décimal en son


équivalent octal et vice versa en recourant aux mêmes algorithmes que ceux employés entre le
système décimal et le système binaire en prenant soin de remplacer la base b=2 par b=8.

Exemple : soit à convertir le nombre P=12345,4375 en nombre octal

PE Quotient Reste PF Produit Entière


12345 :8 1543 1 0,4375*8 3,5 3
1543 :8 192 7 0,5*8 4,0 4

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 53

192 :8 24 0
24 :8 3 0
3 :8 0 3 0,4375 = 348
12345 = 300718
P=12345,4375 en octal vaut 30071,348

NB : les conversions entre les nombres octal-binaire se font par remplacement de chaque chiffre
octal par son équivalent binaire ; et la conversion binaire-octal se fait en partageant le nombre
binaire en groupe de 3 bits (en partant de la virgule binaire et en ajoutant les zéros les cas échéants)
et en remplaçant chaque groupe par son équivalent octal.
Exemple : soit un nombre octal N=53642,378
5 36 4 2, 3 7

101 011 110 100 010, 011 1112


Exemple : soit à convertir le nombre Q= 111011010,10112
1 1 1 0 1 1 0 1 0, 1 0 1 12

7 3 2 , 5 48
Voici un tableau récapitulatif :

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 54

III.3.4. Système hexadécimal


Le système hexadécimal est un système de numération à base b=16. Il nécessite 16
symboles dont les 10 chiffres décimaux auquel on ajoute les 6 premières lettres de l’alphabet. Les
nombres binaires étant de plus en plus longs, il a fallu introduire une nouvelle base : la base
hexadécimale.

Décimal 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
Hexadécimale 0 1 2 3 4 5 6 7 8 9 A B C D E F
Binaire 000 0001 0010 0011 0100 0101 0110 0111 1000 1001 1010 1011 1100 1101 1110 1111

Pour convertir un octet en hexadécimale, on le partage en 2 groupes de 4 bits, qui


correspondent chacun à un chiffre hexadécimal.
Le système hexadécimal utilise les 16 symboles suivant : 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, A, B, C, D, E,
F. De ce fait, le système a pour base 16. Un nombre exprimé en base 16 pourra se présenter de la
manière suivante : (5AF)16 La correspondance entre base 2, base 10 et base 16 est indiquée dans le
tableau ci-après :

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 55

Le nombre (5AF)16 peut se décomposer comme suit :


(5AF)16 = 5 × 162 + A × 161 + F × 160
En remplaçant A et F par leur équivalent en base 10, on obtient :
(5AF)16 = 5 × 162 + 10 × 161 + 15 × 160 (5AF)16 = 5
× 256 + 10 × 16 + 15 × 1 donc = (5AF)16 = (1455)10

III.4. Codage des caractères

On appelle « codage d'un nombre et/ou d‘un caractère » la façon selon laquelle il est
décrit sous forme binaire. La représentation des nombres sur un ordinateur est indispensable pour
que celui-ci puisse les stocker, les manipuler.

Toutefois le problème est qu'un nombre mathématique peut être infini (aussi grand que l'on
veut), mais la représentation d'un nombre dans un ordinateur doit être fait sur un nombre de bits
prédéfini. Il s'agit donc de prédéfinir un nombre de bits et la manière de les utiliser pour que
ceux-ci servent le plus efficacement possible à représenter l'entité.

Ainsi il serait idiot de coder un caractère sur 16 bits (65536 possibilités) alors qu'on en
utilise généralement moins de 256 ... actuellement, il existe :

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 56

III.4.1. Le code ASCII

La mémoire de l'ordinateur conserve toutes les données sous forme numérique. Il n'existe
pas de mhode pour stocker directement les caractères.

Chaque caractère possède donc son équivalent en code numérique : c'est le code ASCII (American
Standard Code for Information Interchange - traduisez " Code Americain Standard pour l'Echange
d'Informations"). Le code ASCII de base représentait les caractères sur 7 bits (c'est-à-dire 128
caractères possibles, de 0 à 127). Le code ASCII a été étendu à 8 bits (un octet) pour pouvoir coder
plus de caractères. Ce code attribue les valeurs 0 à 255 (donc codées sur 8 bits, soit 1 octet) aux
lettres majuscules et minuscules, aux chiffres, aux marques de ponctuation et aux autres symboles.

III.4.1.1. Table standard ASCII

La table standard ASCII comporte 128 codes. Les 32 premiers codes ASCII
(000 à 031) sont des codes de commande et forment un ensemble particulier de caractères non
imprimables. Le second bloc de 32 codes ASCII (032 à 063) comporte de divers symboles de
ponctuation, des caractères spéciaux, et les symboles numériques. Le troisième groupe de 32 codes
ASCII (064 à 095) est affecté aux lettres alphabétiques majuscules et à six symboles spéciaux. Le
quatrième bloc de 32 codes (096 à 127) est réservé aux symboles alphabétiques minuscules, à cinq
symboles spéciaux supplémentaires et à un code de commande (DEL / effacer).
Dec. = Décimal Car. = Caractère ou Commande
Dec. Car. Binaire Dec. Car. Binaire Dec. Car. Binaire Dec. Car. Binaire
000 NULL 00000000 032 SP 00100000 064 @ 01000000 096 ` 01100000
001 SOX 00000001 033 ! 00100001 065 A 01000001 097 a 01100001
002 STX 00000010 034 " 00100010 066 B 01000010 098 b 01100010
003 ETX 00000011 035 # 00100011 067 C 01000011 099 c 01100011
004 EOT 00000100 036 $ 00100100 068 D 01000100 100 d 01100100
005 ENQ 00000101 037 % 00100101 069 E 01000101 101 e 01100101
006 ACK 00000110 038 & 00100110 070 F 01000110 102 f 01100110
007 BEL 00000111 039 ' 00100111 071 G 01000111 103 g 01100111
008 BS 00001000 040 ( 00101000 072 H 01001000 104 h 01101000
009 HT 00001001 041 ) 00101001 073 I 01001001 105 i 01101001
010 LF 00001010 042 * 00101010 074 J 01001010 106 j 01101010
011 VT 00001011 043 + 00101011 075 K 01001011 107 k 01101011
012 FF 00001100 044 , 00101100 076 L 01001100 108 l 01101100
013 CR 00001101 045 - 00101101 077 M 01001101 109 m 01101101
014 SO 00001110 046 . 00101110 078 N 01001110 110 n 01101110
015 SI 00001111 047 / 00101111 079 O 01001111 111 o 01101111
016 DLE 00010000 048 0 00110000 080 P 01010000 112 p 01110000
017 DC1 00010001 049 1 00110001 081 Q 01010001 113 q 01110001

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 57

018 DC2 00010010 050 2 00110010 082 R 01010010 114 r 01110010


019 DC3 00010011 051 3 00110011 083 S 01010011 115 s 01110011
020 DC4 00010100 052 4 00110100 084 T 01010100 116 t 01110100
021 NAK 00010101 053 5 00110101 085 U 01010101 117 u 01110101
022 SYN 00010110 054 6 00110110 086 V 01010110 118 v 01110110
023 ETB 00010111 055 7 00110111 087 W 01010111 119 w 01110111
024 CAN 00011000 056 8 00111000 088 X 01011000 120 x 01111000
025 EM 00011001 057 9 00111001 089 Y 01011001 121 y 01111001
026 SUB 00011010 058 : 00111010 090 Z 01011010 122 z 01111010
027 ESC 00011011 059 ; 00111011 091 [ 01011011 123 { 01111011
028 FS 00011100 060 < 00111100 092 \ 01011100 124 | 01111100
029 GS 00011101 061 = 00111101 093 ] 01011101 125 } 01111101
030 RS 00011110 062 > 00111110 094 ^ 01011110 126 ~ 01111110
031 US 00011111 063 ? 00111111 095 _ 01011111 127 DEL 01111111

III.4.2. Le code DCB (Décimal codé binaire).


Dans ce système, les nombres seront représentés dans la logique décimale, toute fois
chaque chiffre sera converti séparément en binaire en gardant son rang dans le nombre donné. Le
besoin d‘harmoniser le nombre de caractères pour représenter chaque chiffre s‘est vite manifesté.
Pour cela il a fallu convertir tous les chiffres du système décimal et constater le nombre maximum
des positions requisses pour représenter chaque chiffre du système décimal en binaire. Cela étant,
le code DCB va convertir les chiffres décimaux en binaire de 4 positions. … Bref, c’est un code
qui date des années 50, de longueur 4, et ne possédant pas de minuscules.

III.4.3. Le code Baudot

Le code Baudot aussi appelé (code télégraphique ou code CCITT n° 2) : c’est un code de
longueur 5bits qui ne permet que 25 combinaisons, c’est-àdire 32 avec 2 caractères spéciaux
permettant l'inversion chiffres ou lettres. C'est un des plus anciens codes conçus uniquement
pour les réseaux télégraphiques commutés ou télex et utilisés dans le cadre de
l’informatique. Comprend 60 caractères.

III.4.4. Le code EBCDIC

Le Code EBCDIC (Extended Binary Coded Decimal Interchange Code) : est un Code de longueur
8bits, d’origine IBM (International Business Machine) utilisé dans les ordinateurs du constructeur.
Ce code autorise jusqu'à 256 caractères).
Ce code permet la représentation des lettres contrairement au code DCB qui ne pouvait
représenter que les chiffres, le code respecte les séquences croissantes alphabétiques A à Z et
numériques de 0—9. Du fait qu‘il tient compte des valeurs binaires de chaque caractère, ceci
permet de trier les informations de façon alphabétique et numérique croissante ou décroissante. Il

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 58

est alors possible de procéder à la comparaison des caractères en tenant compte de la table
EBCDIC qui permet la combinaison des caractères.

III.5. Types élémentaires de données

Les informations que manipulent l’ordinateur et par conséquent le programme sont de


nature très diverses. En gros, les informations que manipule l’ordinateur peuvent appartenir aux
types suivants :

1. Le type entier : Ce type désigne l’ensemble des nombres entiers sans restriction a priori. Les
opérateurs de type entier sont l’addition (+), la soustraction (-), la multiplication (*), la division
entière ou back slash (\) et l’élévation à la puissance entière (**).

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 59

Sur un ordinateur donné, l’ensemble des entiers représentables est un intervalle [Min, Max]
généralement donné par la formule [-2 n-1, +2n-1-1]

2. Le type réel : Il désigne l’ensemble des nombres réels sans restriction a priori. Les opérateurs
de type réel sont l’addition (+), la soustraction (-), la multiplication (*), la division ou slash (/)
et l’élévation à la puissance (^).
Il faudra néanmoins garder à l’esprit que sur tout ordinateur manipulant les valeurs
réelles, 2 limitations sont toujours présentes. D’une part comme pour les entiers, il n’est pas
question de considérer les valeurs au delà d’un certain intervalle [Min, Max]. D’autre part, tout
intervalle sur l’axe des nombres réels si petit soit-il contient un nombre infini des valeurs (cf. les
valeurs entre 0 et 1).
Exemple : 25 / 5 + 16– 9 * 4 = – 15
3. Le type caractère (CAR) : Il désigne un ensemble des caractères convenus. Dans presque
tous les langages, on trouve les 26 lettres de l’alphabet, les 10 chiffres décimaux et un certain
nombre des caractères spéciaux. On notera entre apostrophe les constantes du type caractère.

4. Le type chaîne des caractères (STRING) : Ce type désigne des chaînes des caractères qu’il
est possible de former à partir des constantes du type caractère. Ces chaînes peuvent contenir
des chiffres, des lettres, des blancs, des caractères spéciaux et seront notés entre apostrophe.

5. Le type booléen ou logique : Il désigne l’ensemble des valeurs logiques c'est-à-dire des
constantes faux (false) ou vrai (true). Les opérateurs de ce type sont : OU (OR) logique
inclusif, OUX (XOR) logique exclusif, ET (AND) et NON (NOT) pour la négation logique.

Les opérations de relation (=, <, >, <=, >=, <>) permettent de construire des expressions
booléennes entre les valeurs de même type. Exemple 3>2.

Exemple : soient A, B, C et D les variables de type réel et J une variable de type booléen.
Considérant qu’au départ A=3, B=5 et C=2, quelles seraient les valeurs de chacune des variables à
l’issu des opérations ci-après : A=A ; B=B+A ; C=C–1 ; D=C ; A=4*2 ; B=B+4*3 ; C=C*3 ; D=D–
6/2 ; A=A^2 ; B=B–5 ; C=C+3.

Si A<B*6 alors D=D+A sinon D=D+B ; J= ? A= ? B

III.6. Notions sur les circuits logiques

Les circuits combinatoires les plus simples sont appelés portes logiques. Ils sont à la base
de la logique mathématique qu’effectue les opérations à l’intérieur du processeur, et plus
particulièrement à l’intérieur de l’UAL. C’est donc la base de tous les calculs internes du
processeur.

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 60

Le circuit OU (OR) inclusif associé à la loi " + " :

Le circuit OU inclusif a deux entrées A et B et une sortie. Le courant ne passe que si A ou


B est passant, ou alors A et B sont passants. La table de vérité de ce circuit est celle de l'opérateur
+
Etat de A Etat B Sortie
0 0 0
1 0 1
0 1 1
1 1 1

Exercice : A=11000110 et B=10010101. Trouvez la sortie Le circuit


OUX (XOR) exclusif associé à la loi " (+) "

Le circuit OUX exclusif a deux entrées A et B et une sortie. Le courant ne passe que si A
ou B est passant mais pas les deux. La table de vérité de ce circuit est celle de l'opérateur +

Etat de A Etat de B Sortie


0 0 0
1 0 1
0 1 1
1 1 0

Exercice : A=11000110 et B=10010101. Trouvez la sortie

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 61

Le circuit ET (AND) associé à la loi "•" :

Le circuit ET (AND) a deux entrées A et B et une sortie. Le courant ne passe que si A et B


sont tous positifs. La table de vérité de ce circuit est celle de l'opérateur
Etat de A Etat de B Sortie
0 0 0
1 0 0
0 1 0
1 1 1

Exercice : A=11000110 et B=10010101. Trouvez la sortie Le circuit


NON (NOT) associé à la loi " " :

Le circuit NON (NOT) a une entrée A et une sortie. Ce circuit est appelé inverseur (n’utilise qu’une
seule entrée). L’état de A est l’opposé de celui de la sortie. La table de vérité de ce circuit est celle
de l'opérateur
Etat de A Sortie
0 1
1 0

Exercice : A=11000110. Trouvez la sortie

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 62

CHAPITRE IV. NOTIONS SUR LES SYSTEMES D’EXPLOITATION


IV.1. Définition et contexte d’étude

En informatique, un système d'exploitation (souvent appelé « OS » de l'anglais


Operating System) est un ensemble de programmes qui dirige l'utilisation des ressources d'un
ordinateur par des logiciels applicatifs.

Le rôle principal d’un système d’exploitation est d’assurer la liaison entre les ressources,
l’utilisateur et les applications en créant une machine virtuelle et son interface.

Il reçoit des demandes d'utilisation des ressources de l’ordinateur ressources de stockage


des mémoires (par exemple des accès à la mémoire vive, aux disques durs), ressources de calcul
du processeur central, ressources de communication vers des périphériques (pour parfois
demander des ressources de calcul au GPU par exemple ou tout autre carte d’extension) ou via le
réseau de la part des logiciels applicatifs. Le système d'exploitation gère les demandes ainsi que
les ressources nécessaires évitant les interférences entre les logiciels.

Le système d'exploitation est le logiciel système :

- Il est le système principal car il permet à l'ordinateur et aux programmes de fonctionner par
lui ;
- Il est le système qui se lance en second après le firmware (programme d’amorcage ou
bootloader) exécuté lors de la mise en marche de l'ordinateur.
Le système d’exploitation offre une suite de services généraux facilitant la création de
logiciels applicatifs et sert d'intermédiaire entre ces logiciels et le matériel informatique. Un
système d'exploitation apporte commodité, efficacité et capacité d'évolution, permettant
d'introduire de nouvelles fonctions et du nouveau matériel sans remettre en cause les
logiciels.

Il existe sur le marché des dizaines de systèmes d'exploitation différents, très souvent livrés
avec l'appareil informatique. C'est le cas de Windows, MacOs, Irix, Symbian OS, Unix,
GNU/Linux (pour lequel il existe de nombreuses distributions) ou Android. Les fonctionnalités
offertes diffèrent d'un système à l'autre et sont typiquement en rapport avec l'exécution des
programmes, l'utilisation de la mémoire centrale ou des périphériques, la manipulation des
systèmes de fichiers, la communication, ou la détection et la gestion d'erreurs.

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 63

IV.2. Objectifs des systèmes d’exploitation


Tous les systèmes d’exploitation sont créés pour uniquement deux objectifs :
- Transformer le matériel informatique (ordinateur) en une machine utilisable : cela
veut dire que chaque système d’exploitation est fourni avec des outils adaptés aux, besoins
de l’utilisateur indépendamment des caractéristiques physiques de son ordinateur.
- Optimisez l’utilisation des ressources (matériels et logiciels) : cela veut dire que le
système d’exploitation est dans l’obligation de rendre favorable (facile à utiliser)
l’exploitation de l’ordinateur.
Ces deux objectifs poursuivent les résultats ci-après :

- Sécurité des données traitées : ce qui renvoies à l’intégrité, contrôle des accès, à la
confidentialité. Bref, l’absence totale du danger lors de l’exploitation de l’ordinateur.

- Fiabilité : satisfaction des utilisateurs, même dans les conditions hostiles et imprévues.
- Performance du système informatique : c’est le degré de satisfaction des utilisateurs en
termes chiffrés et des résultats obtenus.

IV.3 Fonctions d’un système d’exploitation

Le système d'exploitation offre une suite de services généraux facilitant la création et


l'utilisation de logiciels applicatifs. Les services offerts sont en rapport avec l'utilisation des
ressources de l'ordinateur par les programmes.

Ils permettent en particulier d'exécuter des programmes, de lire et écrire des


informations, de manipuler les fichiers, de communiquer et de déceler des erreurs. Ces
services permettent à plusieurs usagers et plusieurs programmes de se partager les ressources de
l'ordinateur. La principale fonction du système d'exploitation est de joindre les différences
entre les différentes architectures informatiques, et d'organiser l'utilisation des ressources de
manière rationnelle.

Ainsi, il regroupe alors ses fonctions en 5 classes :


1. La gestion du processus
Cette fonction est aussi appelée « gestion des applications » ou « gestion de l’exécution »,
c’est lorsque le système d’exploitation permet de gérer l’allocation des taches d’un processeur au
moyen d’un séquenceur qui ordonnance les processus les uns après les autres.
La gestion du processus consiste également à s’assurer qu’il y a une bonne exécution des
applications, leur affectation des ressources nécessaires à leur fonctionnement en détectant et en
corrigeant les erreurs échéantes.

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 64

2. La gestion de la mémoire
C’est lorsque le système d’exploitation permet de gérer l’espacemémoire alloué à chaque
application utilisée par l’utilisateur (en créant des mémoires virtuelles).

Le système d'exploitation dirige l'utilisation de la mémoire. Il réserve un emplacement de


mémoire lorsqu'un processus le demande, et le libère lorsqu'il n'est plus utilisé, par exemple lorsque
le processus s'est arrêté. La quantité de mémoire utilisée par l'ensemble du système
informatique dépend essentiellement de la manière dont le système d'exploitation effectue les
réservations.

Le mécanisme dit « mémoire virtuelle » est destiné à simuler la présence ou l'absence de


mémoire centrale par manipulation de l'unité de gestion mémoire. C'est un mécanisme courant
dans les systèmes d'exploitation contemporains.

La mémoire virtuelle permet d'exécuter simultanément plus de programmes que ce que la


mémoire centrale peut contenir. Chaque programme n'ayant pas besoin que la totalité des
informations qu'il manipule soit présente dans la mémoire centrale, une partie des informations
est stockée dans la mémoire de masse (en général dans un fichier ou une partition de disque
dur) habituellement plus importante mais plus lente et sont transférées en mémoire centrale
lorsque le programme en a besoin. Ainsi donc, Les programmes disposent d'un ou plusieurs
espaces virtuels de mémoire continus pour travailler.

3. La gestion des fichiers


Un fichier est une collection d'informations portant un nom, enregistrée sur un média tel
qu'un disque dur, une bande magnétique ou un disque optique. Chaque médium a ses propres
caractéristiques et sa propre organisation.

Le système d'exploitation s'occupe de créer et de détruire des fichiers et des


répertoires, de réserver de l'espace sur les médias ainsi que copier le contenu des fichiers de
et vers la mémoire centrale. Il aide également les logiciels applicatifs à retrouver les fichiers,
partager les fichiers entre plusieurs utilisateurs, modifier le contenu des fichiers et créer des
répertoires (permettant de classer et d'organiser les fichiers). La vitesse du système informatique
dépendra de la vitesse de manipulation des fichiers.
Le système d'exploitation permet en particulier de manipuler les attributs : les
caractéristiques du fichier tels que son nom, la date de création, le type du contenu, la taille et
l'emplacement.
Il permet également de manipuler les permissions : des autorisations qui indiquent si un
utilisateur pourra lire, écrire ou exécuter le fichier. Le système d'exploitation tient compte du
système de fichiers : la manière dont les fichiers sont organisés et répartis sur un dispositif de
stockage. Dans un système d'exploitation multi-utilisateurs, les programmes manipulant le système
de fichiers effectuent des contrôles pour vérifier qu'aucun fichier n'est manipulé par une

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 65

personne non autorisée. Ce type de système d'exploitation refusera toute manipulation non
autorisée.
4. La gestion de communication
Cette fonction est aussi appelée « gestion de l’interface », c’est lorsque le système
d’exploitation permet l’interaction entre l’utilisateur la machine au moyen d’un langage
informatique ou d’une interface qui peut être soit graphique, en mode commande ligne ou
tactile aussi appelée « spatiale ».
5. La gestion des périphériques
Cette fonction aussi appelée « gestion des entrées/sorties ». C’est lorsque le système
d’exploitation permet de gérer les accès aux ressources matérielles de l’ordinateur par
l’intermédiaires des pilotes.

IV.4. Typologie des systèmes d’exploitation

Il existe cinq typologies (générations) de systèmes d'exploitation : par lots (batch), multi
programmés, en temps partagé, temps réel, et distribués.
Chacun des principes mis en œuvre dans une typologie se retrouve dans les générations
suivantes :

1. Les systèmes d’exploitation de traitement par lots (batch)

Ce sont des systèmes prévus pour l'exécution de grands calculs les uns après les autres,
avec peu d'intervention utilisateur. À partir de la génération des systèmes d'exploitation
multiprogrammés, plusieurs programmes sont exécutés simultanément par planification
(scheduling). Dans ces systèmes d'exploitation multitâches, plusieurs programmes résident dans
la mémoire centrale et le système d'exploitation suspend régulièrement l'exécution d'un programme
pour continuer l'exécution d'un autre.

Les systèmes d'exploitation basés sur le traitement par « lots » (suites d'instructions et de
données dans un ensemble de cartes perforées) sont apparus dans les années 1950. Un
programme (avec ses données) n'est rien d'autre qu'une pile de cartes avec des indicateurs de début
et de fin de lot. L'exécution d'un programme consiste à demander à un opérateur de placer la
pile de cartes dans le lecteur, puis l'opérateur lance la lecture séquentielle des cartes. Le
processeur central est au repos, durant les manipulations de l'opérateur.
Un batch est un lot de travaux à effectuer. L'opérateur compose un batch en posant les unes
sur les autres les piles de cartes des différents programmes (avec leurs données) demandés par les
utilisateurs. Il forme une grande pile de cartes séparées par des marque-pages, en général une carte
de couleur particulière, qu'il place ensuite dans le lecteur. Le regroupement de plusieurs
programmes en un batch diminue les interventions de l'opérateur.

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 66

Dans un système basé sur les batchs, le cœur du système d'exploitation est un
programme moniteur qui réside continuellement en mémoire centrale et permet à
l'opérateur de demander le début ou l'arrêt de l'exécution du lot. À la fin de l'exécution de
chaque tâche du lot, le moniteur effectue des travaux de nettoyage, puis lance l'exécution de la
tâche suivante. Ainsi, l'opérateur intervient uniquement au début et à la fin du lot.

En raison de la grande différence de vitesse entre le processeur et les périphériques, dans


un système d'exploitation batch, le processeur est inutilisé 90 % du temps car les programmes
attendent qu'un périphérique ou un autre termine les opérations.

Avec ces systèmes d'exploitation il n'y a pas de concurrence entre les différentes tâches,
la mise en œuvre de l'utilisation du processeur, de la mémoire et des périphériques est triviale mais
loin d’être optimale. … Les systèmes d'exploitation batch sont adaptés à des applications
nécessitant de très gros calculs mais peu d'implication de l'utilisateur : météo, statistiques,
impôts... Les utilisateurs n'attendent pas immédiatement de résultats. Ils soumettent les
demandes, puis reviennent ultérieurement collecter les résultats.

2. Les systèmes d’exploitation multiprogrammées

Les systèmes d'exploitation multi-programmés sont apparus dans les années 1960. Le but
recherché par de tels systèmes est d'augmenter l'efficacité de l'utilisation du processeur et des
périphériques en utilisant la possibilité de les faire fonctionner en parallèle. Plusieurs
programmes sont placés en mémoire centrale, et lorsque le programme en cours d'exécution attend
un résultat de la part d'un périphérique, le système d'exploitation ordonne au processeur d'exécuter
un autre programme.
Dans les systèmes d'exploitation multi-programmés, l'utilisation du processeur est
partagée par planification (scheduling) : à chaque utilisation d'un périphérique, le système
d'exploitation choisit quel programme va être exécuté. Ce choix se fait sur la base de priorités.
Le système d'exploitation comporte un mécanisme de protection évitant ainsi que le programme
en cours d'exécution ne lise ou n'écrive dans la mémoire attribuée à un autre programme. Les
programmes sont exécutés dans un mode non-privilégié, dans lequel l'exécution de certaines
instructions est interdite.
Les systèmes multi-programmés nécessitent un ordinateur et des périphériques mettant
en œuvre la technique du DMA (direct memory access). Selon celle-ci, le processeur ordonne à
un périphérique d'effectuer une opération, le résultat de l'opération est ensuite placé en mémoire
centrale par le périphérique tandis que le processeur exécute d'autres instructions. Dans les
systèmes multi-programmés, tout comme pour les systèmes batch, l'utilisateur n'a que peu
de contact avec les programmes et de maigres possibilités d'intervention.

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 67

3. Les systèmes d’exploitation en temps partagé

Les systèmes d'exploitation en temps partagé sont apparus dans les années 1970. Ils sont
utilisés dans des dispositifs interactifs où plusieurs utilisateurs sont simultanément en dialogue avec
l'ordinateur. Un système d'exploitation en temps partagé est destiné à répondre rapidement aux
demandes de l'utilisateur, et donner à chaque utilisateur l'impression qu'il est le seul à utiliser
l'ordinateur.
Un système en temps partagé met en œuvre des techniques sophistiquées de
multiprogrammation en vue de permettre l'utilisation interactive de l'ordinateur par plusieurs
utilisateurs et plusieurs programmes simultanément.
L'arrivée, en 1970, de cette nouvelle génération de systèmes d'exploitation résulte d'une
forte demande des consommateurs, et de la baisse du prix du matériel informatique ayant rendu
possible sa réalisation. Dans les systèmes d'exploitation en temps partagé la notion de batch n'a
que peu d'importance. Ces systèmes mettent en œuvre de nouveaux mécanismes d'utilisation
du processeur et de la mémoire, qui leur permet de répondre rapidement à des demandes
provenant simultanément d'un grand nombre d'utilisateurs.

Dans ces systèmes, tout comme dans la génération précédente, l'utilisation du processeur
est planifiée. Cependant, contrairement aux systèmes de la génération précédente, dans les
systèmes en temps partagé chaque programme est exécuté durant une tranche de temps
déterminé, puis le système d'exploitation bascule sur l'exécution d'un autre programme, ce
qui évite qu'un programme monopolise l'utilisation du processeur au service d'un utilisateur,
entraînant des retards pour les autres utilisateurs.

Les systèmes d'exploitation en temps partagé mettent en œuvre la technique du swap :


lorsque le programme en cours d'exécution a besoin de plus de mémoire que celle disponible,
un autre programme inactif est retiré pour gagner de la place, le programme inactif est alors
enregistré temporairement sur le disque dur. L'enregistrement sur disque provoque cependant
une perte de temps non négligeable.

4. Les systèmes d’exploitation en temps réel

Les systèmes d'exploitation temps-réel sont apparus au milieu des années 1970,
notamment chez Hewlett-Packard (HP). Ils sont destinés aux dispositifs devant non seulement
donner des résultats corrects, mais les donner dans un délai déterminé.
Ces systèmes d'exploitation sont souvent utilisés par des ordinateurs reliés à un appareil
externe (pilotes automatiques, robots industriels, applications vidéo et audio) pour lequel un retard
de réponse de l'ordinateur entraînerait un échec de l'appareil.
Dans ces systèmes d'exploitation, l'accent est mis sur la durée nécessaire pour effectuer
chaque opération, pour répondre aux demandes rapidement en vue de satisfaire aux
contraintes de temps du système dans lequel il est utilisé.

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 68

Certains services offerts par ces systèmes d'exploitation sont réalisés comme des logiciels
applicatifs, et sont exécutés en concurrence avec ceux-ci.
Un système d'exploitation temps réel autorise un contact direct entre les logiciels
applicatifs et les périphériques. Dans certains systèmes temps réel les ressources sont réservées,
évitant ainsi les ralentissements que provoqueraient les réservations à la volée, et garantissant
que les ressources sont continuellement disponibles.
Les systèmes d'exploitation temps-réel évitent d'utiliser la technique du swap en raison
des risques de dépassement des délais. On peut citer les systèmes d’exploitation tels que : Symbian
OS, PalmOS ? RTX, Windows, Embedded Linux, etc.

5. Les systèmes d’exploitation distribuées

La baisse des prix du matériel informatique a permis, dans les années 1990, la création de
systèmes informatiques composés de plusieurs ordinateurs, et donc plusieurs processeurs,
plusieurs mémoires, et de nombreux périphériques.

Un système distribué permet le partage des ressources entre les ordinateurs. Un utilisateur
d'un ordinateur bon marché peut se servir de ressources coûteuses existant sur un autre ordinateur.
Un système distribué dirige l'utilisation des ressources de plusieurs ordinateurs à la fois.

Il utilise les capacités d'un réseau informatique, contrôle un groupe de machines, et les fait
apparaître comme une machine unique, virtuelle, de très grande capacité.

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 69

CHAPITRE V. SECURITE INFORMATIQUE


V.1. Protection des systèmes informatiques

Le film Wargames a sensibilisé le public sur le problème de la sécurité informatique. Parmi


les problèmes soulevés, on trouve notamment les suivants :

- Un fonctionnaire manipule un programme de remboursement d’assurances maladies et


injecte 5 millions de francs sur les comptes d’assurés complices.
- Un employé de banque falsifie le fichier des opérations sur guichet automatique et récupère
ainsi 250.000 francs ;
- Un comptable, licencié par son chef, programme l’effacement de toutes les données
informatiques de l’entreprise par esprit de vengeance.
- Des adolescents déverrouillent des logiciels de jeu et les dupliquent pour les vendre au
1/10e de leur prix de vente normal.

Comme on le voit, l’informatique peut permettre de commettre un délit mais aussi être
l’objet d’un délit. C’est le cas de virus informatiques qui sont des programmes destinés à nuire ou
à satisfaire des programmeurs facétieux (qui est lié au plaisir).

En conclusion, l’informatique est un avantage dans le sens où elle permet à l’homme


d’accroître la maîtrise de son environnement informationnel. Au revers de la médaille, c’est un
danger dans le sens ou elle peut asservir les individus et les priver d’emplois à qualification faible.

V.2. Virus informatiques


V.2.1. Notions

Un virus est un petit programme informatique situé dans le corps d'un autre, qui, lorsqu'on
l'exécute, se charge en mémoire et exécute les instructions que son auteur a programmées. La
définition d'un virus pourrait être la suivante : « Tout programme d'ordinateur capable d'infecter
un autre programme d'ordinateur en le modifiant de façon à ce qu'il puisse à son tour se reproduire.
»

Le véritable nom donné aux virus est CPA soit Code Auto-Propageable, mais par analogie
avec le domaine médical, le nom de "virus" leur a été donné.

Les virus résidents (appelés TSR en anglais pour Terminate and stay resident) se chargent
dans la mémoire vive de l'ordinateur afin d'infecter les fichiers exécutables lancés par l'utilisateur.
Les virus non résidents infectent les programmes présents sur le disque dur dès leur exécution.

Le champ d'application des virus va de la simple balle de ping-pong qui traverse l'écran au
virus destructeur de données. Ce dernier étant la forme de virus la plus dangereuse. Ainsi, étant

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 70

donné qu'il existe une vaste gamme de virus ayant des actions aussi diverses que variées, les virus
ne sont pas classés selon leurs dégâts mais selon leur mode de propagation et d'infection.

V.2.2. Types des virus

On distingue ainsi différents types de virus :

a) Les virus mutants

En réalité, la plupart des virus sont des clones, ou plus exactement des «virus mutants»,
c'est-à-dire des virus ayant été réécrits par d'autres utilisateurs afin d'en modifier leur comportement
ou leur signature. Le fait qu'il existe plusieurs versions (on parle de variantes) d'un même virus, ce
qui le rend d'autant plus difficile à repérer dans la mesure où les éditeurs d'antivirus doivent ajouter
ces nouvelles signatures à leurs bases de données.

b) Les virus polymorphes

Dans la mesure où les antivirus détectent notamment les virus grâce à leur signature (la
succession de bits qui les identifie), certains créateurs de virus ont pensé à leur donner la possibilité
de modifier automatiquement leur apparence, tel un caméléon, en dotant les virus de fonction de
chiffrement et de déchiffrement de leur signature, de façon à ce que seuls ces virus soient capables
de reconnaître leur propre signature. Ce type de virus est appelé «virus polymorphe» (mot
provenant du grec signifiant «qui peut prendre plusieurs formes»).

c) Les virus trans-applicatifs (virus macros)

Avec la multiplication des programmes utilisant des macros, Microsoft a mis au point un
langage de script commun pouvant être inséré dans la plupart des documents pouvant contenir des
macros, il s'agit de VBScript, un sous-ensemble de Visual Basic. Ces virus arrivent actuellement à
infecter les macros des documents Microsoft Office, c'est-à-dire qu'un tel virus peut être situé à
l'intérieur d'un banal document Word ou Excel.

d) Les vers

Un ver est un programme qui peut s'auto-reproduire et se déplacer à travers un réseau en


utilisant les mécanismes réseau, sans avoir réellement besoin d'un support physique ou logique
(disque dur, programme hôte, fichier ...) pour se propager; un ver est donc un virus réseau.

La plus célèbre anecdote à propos des vers date de 1988. Un étudiant (Robert T. Morris, de
Cornell University) avait fabriqué un programme capable de se propager sur un réseau, il le lança
et, 8 heures après l'avoir lâché, celui-ci avait déjà infecté plusieurs milliers d'ordinateurs. C'est ainsi

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 71

que de nombreux ordinateurs sont tombés en pannes en quelques heures car le "ver" (car c'est bien
d'un ver dont il s'agissait) se reproduisait trop vite pour qu'il puisse être effacé sur le réseau. De
plus, tous ces vers ont créé une saturation au niveau de la bande passante, ce qui a obligé la NSA
à arrêter les connexions pendant une journée.
Les vers actuels se propagent principalement grâce à la messagerie, grâce à des fichiers
attachés contenant des instructions permettant de récupérer l'ensemble des adresses de courrier
contenues dans le carnet d'adresse et en envoyant des copies d'eux-mêmes à tous ces destinataires.

Il est simple de se protéger d'une infection par ver. La meilleure méthode consiste à ne pas
ouvrir "à l'aveugle" les fichiers qui vous sont envoyés en fichier attachés.

e) Cheval de Troie

On appelle "Cheval de Troie" (en anglais trojan horse) un programme informatique


effectuant des opérations malicieuses à l'insu de l'utilisateur. Le nom "Cheval de Troie" provient
d'une légende.

Un cheval de Troie (informatique) est donc un programme caché dans un autre qui exécute
des commandes cachées, et qui généralement donne un accès à la machine sur laquelle il est exécuté
en ouvrant une porte dérobée (en anglais backdoor), par extension il est parfois nommé troyen par
analogie avec les habitants de la ville de Troie.

Un cheval de Troie peut par exemple voler des mots de passe ; copier des données sensibles
; exécuter toute autre action nuisible ; etc.

Une infection par un cheval de Troie fait généralement suite à l'ouverture d'un fichier
contaminé contenant le cheval de Troie et se traduit par les symptômes suivants : activité anormale
du modem ou de la carte réseau (des données sont chargées en l'absence d'activité de la part de
l'utilisateur) ; des réactions curieuses de la souris ; des ouvertures impromptues de programmes ;
des plantages à répétition ; etc.

Pour se protéger de ce genre d'intrusion, il suffit d'installer un firewall, c'est-àdire un


programme filtrant les communications entrant et sortant de votre machine. Un firewall
(littéralement pare-feu) est un système logiciel et matériel qui permet de protéger un réseau local
d’intrusions de personnes non autorisées à partir d’Internet.

f) Les bombes logiques

Sont appelés bombes logiques les dispositifs programmés dont le déclenchement s'effectue
à un moment déterminé en exploitant la date du système, le lancement d'une commande, ou
n'importe quel appel au système.

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 72

Ainsi ce type de virus est capable de s'activer à un moment précis sur un grand nombre de
machines (on parle alors de bombe à retardement ou de bombe temporelle), par exemple le jour de
la Saint Valentin, ou la date anniversaire d'un événement majeur : la bombe logique Tchernobyl
s'est activée le 26 avril 1999, jour du 13ème anniversaire de la catastrophe nucléaire ...
Les bombes logiques sont généralement utilisées dans le but de créer un déni (refus) de
service en saturant les connexions réseau d'un site, d'un service en ligne ou d'une entreprise.
NB : D’autres virus les plus connus : Ping Pong, Nouvelle Jérusalem, Harmaggedon,
I Love You,…et d’autres encore apparaissent chaque jour (cf. Flu Burung, Raila Odinga, Xalan
pour le téléphone,…)

V.2.3. Notions d’antivirus

Un antivirus est un programme capable de détecter la présence de virus dans un ordinateur


et, dans la mesure du possible, de désinfecter ce dernier. On parle ainsi d'éradication de virus pour
désigner la procédure de nettoyage de l'ordinateur.

Il existe plusieurs méthodes d'éradication :

- La suppression du code correspondant au virus dans le fichier infecté.


- La suppression du fichier infecté.
- La mise en quarantaine du fichier infecté, consistant à le déplacer dans un emplacement où
il ne pourra pas être exécuté.

Il existe plusieurs sortes d’antivirus dont les plus connus sont Norton Antivirus, Panda,
Avira, Avast, AVG, McAfee,....Le choix d’un anti-virus reste une décision personnelle, en fonction
des goûts de chacun.

V.3. Erreurs et risques en informatique


V.3.1. Erreurs en informatique

Lorsqu’on travaille avec l’ordinateur, l’on peut faire confiance dans l’exactitude des
résultats qu’il fournit. A l’inverse de l’homme, l’ordinateur ne se trompe pas dans l’exécution des
opérations.

Parmi les erreurs qui guettent le travail à l’ordinateur, on peut citer :


Les erreurs de programmes. L’activité du programme est un processus essai erreurs. On ne réussit
pas au premier coup : il faut écrire, tester, détecter les erreurs, corriger, recommencer,…Tous
les programmes ont des erreurs de jeunesse ; c’est pourquoi il existe des versions successives
d’un même programme qui contient de moins à moins d’erreurs.

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 73

Les erreurs d’exploitation. Lorsque les opérateurs lancent l’exécution d’un programme, il est
possible qu’ils commettent des erreurs qui peuvent être des erreurs de fichier. Alors les résultats
sont faux.
Les erreurs de données entrées. Une donnée introduite dans l’ordinateur peut être fausse à la suite
d’une opération de saisie mal faite, fausse parce que observée au départ avec erreur, fausse
intentionnellement à la suite d’une malveillance.

Toutes ces erreurs peuvent être regroupées en 2 grandes catégories si l’on se place du point
de vue conséquence : le bogue (erreur de programmation ou de logique qui amène à un
fonctionnement défectueux ou à des résultats incorrects) et le crash (arrêt brutal et inopiné du
fonctionnement d’un programme ou d’une unité de disque).

V.3.2. Risques en informatique


L’informatique est utilisée dans toutes les activités mais elle comporte des risques telle la
suppression des fichiers à la suite d’une fausse manœuvre, la copie d’un fichier en double ou en
triple.
On peut distinguer les différents risques, tel que présentés dans la matrice cidessous :

Risques accidentels Risques délibérés

Risques - panne électrique - destruction


manifestes - panne de climatisation - sabotage
- panne de - chantage…
télécommunication
- conditions

météorologiques…

Risques cachés - erreurs dans les logiciels - - espionnage


mauvais fonctionnement… - fraude…

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 74

CHAPITRE V. PROGRAMMES INFORMATIQUES

VI.1. Généralités

Lorsqu’on parle de l’architecture, un accent est porté sur les éléments matériels
physiquement palpables qui constituent l’ordinateur et que l’on appelle hardware. Pour donner
quelques utilités à ce matériel, il faut associer les éléments immatériels souvent désignés sous le
vocable de programme ou logiciel.

Un programme informatique est une liste d’instructions qui permettent l’exécution d’un
travail sur une machine écrite sous une forme conventionnelle. Le programme est donc une liste
d’instructions, de données ou d’expressions demandées à un ordinateur.

Le terme logiciel, traduction de l’anglais software, vient de logique par opposition au


matériel qui est visible. Certaines catégories des logiciels s’appuient les unes sur les autres, c’est
pourquoi il convient de les différencier.

VI.2. Classification
Il existe une grande variété des logiciels utilisés pour obtenir des résultats selon la nature
des tâches demandées, l’objectif visé et la procédure sollicitée. Deux principaux critères servent
de base à cette catégorisation.

VI.2.1. Nature des tâches


A ce niveau, il s’agit de déterminer la finalité poursuivie par un logiciel donné.
Deux groupes de logiciels sont à distinguer :
a. Les logiciels de base

Ce sont des programmes conçus pour augmenter le pouvoir de la machine. Ils sont
considérés comme programmes sans lesquels l’ordinateur ne peut fonctionner, d’où ils sont livrés
en même temps que le matériel. Ils comprennent :

a.1. Le système d’exploitation


Le système d’exploitation contrôle, gère le matériel et sert d’interface entre l’utilisateur, le
matériel et les applications. La taille et les possibilités des ordinateurs augmentent très rapidement
et l’exécution d’un travail met en œuvre un nombre important des ressources dont il faut tirer le
meilleur profit.

La gamme des activités du système d’exploitation concerne entre autre les activités
suivantes : créer de nouveaux fichiers, supprimer les anciens ou les renommer ; initialiser les

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 75

disquettes (les préparer pour les rendre utilisables par l’ordinateur) ; réorganiser le stockage des
informations sur disque ; contrôler le fonctionnement des périphériques ; …

a.2. Les interfaces utilisateurs


En informatique, une interface est un point de connexion entre deux systèmes leur
permettant d’échanger des informations.
L’interface utilisateur représente l’ensemble de la conception graphique, des commandes
et autres éléments qui permettent de piloter l’ordinateur. Les microordinateurs possèdent trois
principaux types d’interface utilisateur, pouvant coexister sur une même machine.

• Interface par ligne de commande : l’utilisateur tape au clavier les commandes, qui sont alors
transmises au programme qui réagit en conséquence. Sur les machines gérées par le système
d’exploitation MS-DOS, la ligne de commande est symbolisée par l’invite A:\> ou C:\>.

• Interface par menu : les menus sont des listes d’options parmi lesquelles l’utilisateur choisit
celle correspondant à l’action qu’il désire effectuer. Selon l’interface par menu, les commandes
sont envoyées au programme par la frappe d’une lettre, d’un curseur ou par un clic de souris.
• Interface graphique : l’utilisateur sélectionne des commandes ou lance des programmes en
pointant à l’écran sur des icônes (petites images représentant un objet manipulable à l’écran,
dont l’aspect correspond à sa fonction) ou des menus, généralement à l’aide de la souris.

b. les logiciels d’application


Une application est un programme informatique conçu pour aider un utilisateur à réaliser
un certain type de travail. De façon concrète un logiciel d’application prend en charge la multitude
de tâches plus ou moins spécifiques pour lesquelles sont utilisés les ordinateurs.
Une application diffère d’un système d’exploitation (qui fait tourner l’ordinateur), d’un
utilitaire (chargé d’une fonction de maintenance ou à caractère général) ou d’un langage (qui sert
à la création de programme).

VI.2.2. Méthode de diffusion


Outre cette classification par tâches, on peut aussi ranger les logiciels selon leur méthode
de diffusion. Il s’agit de déterminer comment on peut acquérir un logiciel donné.
a. les logiciels commerciaux standards
Il s’agit des programmes informatiques, développés et vendus essentiellement par des
détaillants (revendeurs ou grossistes) ou par de grandes chaînes de distribution pour les produits
les plus populaires. Ils sont mis à la disposition des utilisateurs selon les lois du marché fondées
sur la recherche du bénéfice de la part du producteur.
b. Les logiciels du domaine public
Ces logiciels sont développés et distribués sans mettre un accent particulier sur le gain à
retirer par le producteur. Ces logiciels à distribution gratuite se répartissent en deux types. Le

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 76

freeware, à usage libre et sans droits à payer, et le shareware dont l’usage régulier est assujetti au
paiement d’une somme modique à son créateur.

VI.3. Progiciels

Un programme, est mémorisé sur un support informatique. Il est beaucoup plus facile de le
reproduire que de le créer et le mettre au point. Si un logiciel est vendu comme un produit, il peut
être commercialisé à des prix très bas, tout en permettant à son producteur de faire un bon bénéfice.
De cette idée simple est né le concept de progiciel, produit logiciel, logiciel diffusé comme un
produit.
Sur le marché, on peut se procurer ces progiciels, mais on doit tenir compte du fait qu’il
existe différentes familles d’ordinateurs et que tous les progiciels ne tournent pas sur toutes les
familles. En gros, sur le marché des micro-ordinateurs, deux grandes familles existent : le
MACINTOSH (qui tourne avec un microprocesseur Motorola) et les compatibles IBM ou IBM PC
(qui tournent avec un microprocesseur de la série INTEL).

Les différents progiciels en utilisation peuvent être regroupés en 5 catégories.


1. Le traitement de texte ou texteur
Le concept traitement de texte est apparu en 1964 chez IBM, en Allemagne, sous
l’expression Textverarbeitung. L’expression a été reprise ensuite aux USA sous le terme
Worldprocessing qui est devenu traitement de texte en français.
Un logiciel de traitement de texte utilise du texte interactif permettant de contrôler la mise
en forme de manière interactive (ex : C.V….). Certains de ces éditeurs sont dits WYSIWYG (What
You See Is What You Get).
Voici quelques progiciels de traitement de texte: Apple Writer, Mac Write, Manuscript,
Sprint, Textor, Word Star 2000, Volkswriter, MS Word.

2. Le tableur ou feuille électronique de calcul


Une feuille de calcul, généralement qualifiée d’outil roi de la bureautique, est une table
d’informations la plupart de temps financiers. Mathématiquement, une feuille de calcul est une
matrice composée des lignes et des colonnes.
Le tableur a largement participé à l’introduction de la micro-informatique dans les
entreprises et reste l’un des logiciels fétiches des cadres et autres décideurs. Le premier tableur,
«Visicalc », a été crée par Dan BRINCKLIN alors étudiant. Le tableur est parfois appelé chiffrier
électronique au Québec.

Selon les types de machines, on peut trouver : Visicalc, 20/20, Planperfect, Wingz,
Supercalc, Lotus 1 2 3, Quattropro, MS Excel, Multiplan, Staroffice…

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 77

3. Le gestionnaire de fichiers (base de données)


Tandis que les traitements de texte et les tableurs aident à manipuler et à présenter les
informations, les bases de données servent à les ranger, à les trier ou à y effectuer des recherches.
Une base de données, usuellement abrégée en BD ou BDD, est un ensemble structuré et organisé
permettant le stockage de grandes quantités d’informations afin d’en faciliter l’extraction, le trie,
la mise à jour.
Voici les meilleurs gestionnaires des fichiers sur micro-ordinateur : 4è Dimension, Dbase,
Paradox, Rapidfile, MS Access, Fox Base, Omnis,…

4. Le grapheur ou application graphique

La synthèse visuelle de données a toujours été un moyen précieux de communication, de


persuasion et de démonstration. Plusieurs disciplines ont recours aux formes de représentation
graphique pour mieux faire parler les chiffres. C’est un programme informatique spécialisé dans
la conception, la réalisation et l’édition de dessins, de schémas ou de graphiques.

Les plus connus des applications graphiques sont : Cricket-graph, mac Draw, Mac paint,
Mac Draft, Full Paint, Harvard graphics, Corel Draw, Paint Brush, MS Chart,..

5. les intégrés
Ce sont des programmes comprenant plusieurs applications conçues pour travailler de façon
conjointe et capables de partager des informations. Ils réunissent souvent un texteur, un tableur,
une base de données et parfois un grapheur et un module de communication.

Les meilleurs intégrés sur le marché sont : Framework, Symphony, Open Office, Claris
Work, Jazz, MS Works,…

NOTE : les didacticiels sont des logiciels éducatifs incluant des simulateurs (permettant par
exemple de réaliser certaines expériences scientifiques sur écran), les tutoriels sont des leçons
assistées par ordinateur.

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 78

CHAPITRE VI. NOTIONS SUR L’INTERNET ET WWW

VI.1. Définition et Context etude

Le terme « Internet » est d'origine américaine et est dérivé du concept « Internetting » («


interconnecter des réseaux »), dont la première utilisation documentée remonte à octobre 1972
par Robert E. Kahn, dans le cadre de la première conférence sur la communication des ordinateurs
( ICCC : International Conference on Computer Communications) à Washington .

Cependant les origines exactes du terme restent à déterminer. Toutefois, c'est le 1 er janvier
1983 que le nom « Internet », déjà en usage pour désigner l'ensemble du réseau ARPANAET et
de plusieurs réseaux informatiques, devient officiel.

Ainsi, l’Internet est un réseau de communication international qui permet tant aux entreprises
qu’aux particuliers de communiquer entre eux grâce à un ensemble de réseaux et d’ordinateurs.
L’architecture du réseau est dite » Clientserveur » c’est-à-dire que les ordinateurs envoient leurs
données (les serveurs) vers d’autres ordinateurs équipés de logiciel client ou navigateur (browser).

VI.2. Historique de l’Internet


Depuis des années 50, durant la guerre froide, le gouvernement américain se demandait
comment protéger l’appareil de l’Etat contre une attaque nucléaire soviétique. C’est en 1964
qu’un chercheur proposa de créer un réseau de communication sans centre physique, le
principe était de créer un ensemble de nœuds interconnectés.

- En 1969, est créé le réseau Arpanet, ancêtre de l’Internet actuel, était un réseau financé
par le département américain de la défense, et une de ses agences : « Advenced Reserch
Projets Agency ». Il s’agit d’un réseau reliant les centres de recherche de l’armée et les
universités américaines l’ARPA a développé le concept de l’Internet selon le principe
précédent (nœuds interconnectés), puis adapta en 1972 le protocole nommé TCP/IP
(Transport control protocol / Internet prptocol) : nouvelle technologie de commutation
de données par paquets et nouveau protocole d’échange. Tel protocole est né en réponse au
défi de trouver un langage commun à tous les réseaux existant à l’échelle mondiale, et qui
fut l’objet de la conférence internationale qui eut lieu en 1972, à Washington.

- En 1974, c’est la naissance de l’Internet dans sa forme actuelle, aussi appelé « l’Internet
privé ». Le réseau se développe alors rapidement, surtout au Etats-Unis, auprès des centres
scientifiques et universitaires, et il a été financé par la National Scientific fondations, une
agence du gouvernement américain.

- En 1980, il est décidé que la protocole TCP/IP ne serait plus un secret militaire et
tomberait donc dans le domaine public. A partir de ce moment n’importe qui pouvait

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 79

utiliser le réseau gratuitement. Pour les entreprises (à l’exception des constructeurs


informatiques et de quelques points avancés, il a fallu attendre 1994 pour que les opérateurs
privés proposent des services de connexion à l’Internet. D’abord limité à une offre
professionnelle relativement onéreuse, son accès s’est considérablement élargi avec
l’apparition de nombreuses offres grand public et d’une nouvelle activité : les opérateurs
d’accès au réseau. La transformation d’Internet à envahit les quatre coins du monde, le
nombre d’internautes ne cesse d’augmenter de manière spectaculaire, et de plus en plus
d’entreprises y construisent leurs sites. Les petites structures comme les multinationales y
en ont compris le potentiel en terme de communication, d’information et de réduction de
coûts. Effectivement, ses diverses applications offrent des opportunités qui étaient
inimaginables auparavant.

- En 1990, on voit l’apparition du premier navigateur web (browser), mêlant texte et image.
Cette même année, la National Science Foundation (NSF) mandate une compagnie pour
enregistrer « les noms de domaine ». À la fin des années 1990, des sociétés pionnières
comme Yahoo, Amazon, eBay, Netscape et Aol, sont devenues célèbres.

- En 1994, avec l'introduction de Netscape, doté d'une interface graphique spectaculaire,


qui intègre les ressources multimédias, l’Internet connaît une explosion phénoménale.
L'expression « Internet » sert à désigner un ensemble de réseaux connectés entre eux. La
collectivité y a maintenant accès, par l’intermédiaire des fournisseurs de services
(Wanadoo, free…).Le début des années 1990 marque la naissance de l'aspect le plus connu
d'Internet aujourd'hui : le WEB ou INTERNET PUBLIC, un ensemble de pages en
HTML mélangeant du texte, des liens, des images, adressables via une URL et accessibles
via le protocole HTTP. Ces standards, développés au CERN par TIM BERNERS-LEE
et Robert CAILLIAU devinrent rapidement populaires grâce au développement au NCSA
par MARC ANDREESSEN et Eric Bina du premier « navigateur multimédia Mosaïc1».

VI.3. Les protocoles utilisés sur Internet

Les protocoles logiciels utilisés sur internet sont les conventions ou langage de
communication structurant les échanges d'informations nécessaires au transfert des contenus
applicatifs pour l'usager final. Ils permettent notamment d'identifier les interfaces (donc les
machines), de s'assurer de la réception des données envoyées, et de l'interopérabilité.
Un protocole est un ensemble de règles qui définissent un langage afin de faire
communiquer plusieurs ordinateurs. Ils sont définis par des normes ouvertes en informatique.

1 C'est en mars 1993 qu'est inventé Mosaic, le premier des navigateurs grand public, doté d'une
interface graphique. Son auteur est Marc Andreessen, étudiant à l'Université de l'Illinois, et
assistant au NCSA (National Center for Supercomputing Applications).

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 80

Chaque protocole a des fonctions propres et, ensemble, ils fournissent un éventail de moyens
permettant de répondre à la multiplicité et à la diversité des besoins sur internet.
Les principaux sont les suivants, classés selon leur couche (IP, TCP et UDP) ; couches
applicatives :

- IP (Internet Protocol) aussi appelé IPv4 ou IPv6 : protocole réseau qui définit le mode
d'échange élémentaire entre les ordinateurs participant au réseau en leur donnant une adresse
unique sur celui-ci. Cependant, en raison de l'épuisement des adresses IPv4, une nouvelle
norme voit le jour ; nommée IPv6, elle permet d'accueillir un plus grand nombre d'utilisateurs.

- TCP (Transfer Control Protocol) : responsable de l'établissement de la connexion et du


contrôle de la transmission. C'est un protocole de remise fiable. Il s'assure que le destinataire
a bien reçu les données, au contraire d'UDP.

- HTTP (HyperText Transfer Protocol) : protocole mis en œuvre pour le chargement des pages
web.
- HTTPS : pendant du HTTP pour la navigation en mode sécurisé.
- FTP (File Transfer Protocol) : protocole utilisé pour le transfert de fichiers sur Internet.

- SFTP (SSH File Transfer Protocol) : protocole bâtît sur SSH pour le transfert de fichiers
sécurisé.
- SMTP (Simple Mail Transfer Protocol) : mode d'échange du courrier électronique en envoi.
- POP3 (Post Office Protocol version 3) : mode d'échange du courrier électronique en réception.
- IMAP (Internet Message Access Protocol) : un autre mode d'échange de courrier électronique.
- IRC (Internet Relay Chat) : protocole de discussion instantanée.
- NNTP (Network News Transfer Protocol) : protocole de transfert de message utilisé par les
forums de discussion Usenet.
- UDP (User Datagramme Protocol) : permet de communiquer, de façon non fiable mais légère,
par petits datagrammes.

- DNS (Domain Name System) : système de résolution de noms Internet.

- ICMP (Internet Control Message Protocol) : protocole de contrôle du protocole IP.

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 81

VI.4. Finalités de l’Internet

Rappelons qu’un réseau Internet est une interconnexion des ordinateurs dans le monde
permettant le travail collaboratif et/ou les échanges entre personnes géographiquement séparées.
Ceci étant posé, l’Internet a été développé pour plusieurs raisons à savoir :

- La connectivité : C’est une technique qui permet à plusieurs types d’équipements


informatiques utilisant des logiciels différents de communiquer entre eux,

- Le partage des ressources : C’est un procédé qui permet la segmentation d’un système
informatique pouvant être employée par différents utilisateurs. Autrement dit, C’est rendre
accessible à une communauté d'utilisateurs des programmes, des données et des équipements
informatiques (i.e. un ensemble de ressources) indépendamment de leur localisation.

- La modularité : (Ajout graduel des performances), elle consiste à utiliser un ensemble


restreint d’appareils généraux pour tester leurs performances.

- L’implantation simple : C’est une solution générale qui permet d’installer aisément et sans
aucune difficulté les équipements informatiques selon leurs différentes configurations.

- L’utilisation facile : C’est une disponibilité d’outils de communication libérant les


utilisateurs de la connaissance de la structure du réseau ;

- La fiabilité2 : C’est la capacité de détection et correction d’un dispositif à fonctionner sans


défaillance (sauvegardes, duplication). Autrement dit, C’est une disposition du
fonctionnement même en cas de problèmes matériels (c’est par exemple, les applications
militaires, bancaires, le contrôle des centrales nucléaires ou aérien...).

- Une mise à jour aisée : C’est un procédé qui permet aux réseaux informatiques d’évoluer et
d’être modifiée selon les besoins des utilisateurs et des nouveaux équipements.

- La réduction des coûts : l’accès à distance des matériels informatiques a considérablement


réduit les coûts de ces derniers, en permettant ainsi aux différents utilisateurs de s’en procurer
au prix standard (le PC, par exemple).

VI.5. Avantages de l’Internet

Les avantages offerts par l’Internet sont multiples et vont, en fait bien au-delà des
privilèges quotidiens de l’informatique. Le problème de la communication entre les personnes et
les services sont capital pour les entreprises depuis toujours, désormais l’adoption du travail sur

2 En informatique par exemple, la fiabilité s’exprime par une durée qui correspond au
temps moyen de bon fonctionnement d’un équipement.

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 82

l’Internet est capable de lui apporter une réponse définitive. Ainsi, parmi les principaux avantages
de l’Internet, on peut citer :

- Une meilleure communication (Facile et rapide) : Grâce à l’internet, La communication


entre les personnes est dorénavant plus aisée et l’information circule plus librement pour tout
le monde y compris les différentes collaborations entre les entreprises et pour ne citer que
cela. Mêmes les personnes travaillant dans des distincts endroits, en voyage ou chez eux,
peuvent aussitôt se connecter au réseau et communiquer plus facilement en utilisant les
supports et matériels de communication (tels que, les emails, la messagerie instantanée, les
lignes téléphoniques, la vidéoconférence ou le Skype…) pour pleinement en profiter.

- Une Optimisation et gain du temps : l’Internet permet identiquement d’améliorer et de


gagner du temps sur le partage des fichiers et des données informatiques. Dorénavant, les
utilisateurs arrivent à trouver et partager les données dont ils ont besoin. Depuis des années,
cette fonctionnalité du réseau internet est devenue la plus utilisée par les grandes organisations
afin de maintenir leurs données d’une manière organisée facilitant les accès à distance pour
les personnes souhaitées.

- Une productivité accrue : Un réseau Internet permet de donner à toute activité humaine, une
vitesse d’exécution assez importante de la tâche ; l’exactitude et la fiabilité des outils
informatiques entrainent des économies du temps et d’argent à tous les niveaux de l’activité
humaine, particulièrement l’allégement des tâches à effectuer. Tout de même, il implique une
communication permettant aux équipes professionnelles de se consacrer foncièrement à leurs
missions. Beaucoup d’obstacles qui entravaient jusqu’alors la productivité tombent d’eux-
mêmes, et les énergies de l’entreprise peuvent alors se concentrer sur les véritables objectifs.
Succinct, Les réseaux informatiques créent une chaine de collaboration entre les équipes.

- L’accès et la connexion à distance : Avec un réseau Internet, le téléphone n’est plus le seul
moyen de contact avec les autres de partout dans le monde. Il permet sitôt de faire des partages
de fichiers et des ressources et y avoir accès même à distance. Il est tout aussi possible, pour
qui le veut, de faire des mises à jour de tous ces fichiers conservés. Cela ouvre par exemple,
un accès aux différentes sociétés et clients qui souhaitent avoir des renseignements concernant
leurs activités. Désormais un professionnel peut se connecter et trouver les informations ou
les contacts dont il a besoin.

- Une prise sur l’avenir : Les économies mondiales sont de plus en plus dépendantes de
l’informatique. Nous ne pouvons ignorer que le réseau Internet est devenu aujourd’hui le
moteur de la croissance de l’activiste mondiale. L’Internet devient de plus en plus la figure
parfaite qui intègre les nouvelles technologies au fur et à mesure de leur apparition, ils
évoluent et s’adaptent aux réalités de toute activité humaine, y compris celle de l’entreprise.

- Un investissement efficace : La mise en réseau d’un plus grand nombre de nos équipements
(tels que ordinateurs, imprimantes, scanners, systèmes de stockage et de sauvegarde des

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 83

données, télécopieurs et système téléphonique), nous ouvre l’accès à l’ère numérique en nous
permettant de connecter à d’autres utilisateurs ainsi qu’à maintes convenances. Elle permet
aussi de profiter des versions réseaux des logiciels, toujours moins coûteuses que leurs
équivalents poste à poste.

VI.6. Inconvénients de l’Internet

Les conséquences fâcheuses et les nombreux risques que comportent l’Internet peuvent
désavantageusement contribuer au mauvais fonctionnement de ces derniers et par conséquent
altérer la qualité de son service ainsi son perfectionnement. Voici quelques-uns des inconvénients
majeurs de l’Internet :

- Problèmes de sécurité : L'un des inconvénients majeurs de l’Internet est les problèmes de
sécurité impliqués. Si un ordinateur est connecté sur un réseau, il serait plus vulnérable à toutes
sortes d’attaques. De même, un pirate informatique peut obtenir tous les renseignements qu’il
désire ou alors un accès non autorisé à l'aide de différents outils. En cas de grandes
organisations, divers logiciels de sécurité réseau sont utilisés pour empêcher le vol de données
confidentielles et les classifiées.

- La propagation rapide de virus informatiques : Si tout système informatique dans un


réseau est affecté par un virus informatique, il y a une menace possible d'autres systèmes
obtenant aussi affectés. Les virus se répandent sur un réseau facilement en raison de
l'interconnexion des postes de travail. Un tel écart peut être dangereux si les ordinateurs ont
importante base de données qui peut être corrompues par le virus.

- Dépendance sur le serveur de fichiers principal : Dans le cas où le serveur de fichiers


principal d'un réseau informatique tombe en panne, le système devient inutile. Dans le cas de
grands réseaux, le serveur de fichiers doit être un puissant ordinateur, ce qui rend souvent
coûteux la conception et la configuration d’un système informatique.

VI.7. Le WWW

Le World Wide Web (littéralement la « toile (d’araignée) mondiale », abrégé www ou


Web ou encore Internet public ), la toile mondiale ou la toile, est un système hypertexte public
fonctionnant sur Internet. Le Web permet de consulter, avec un navigateur, des pages accessibles
sur des sites. L’image de la toile d’araignée vient des hyperliens qui lient les pages web entre elles.

Le Web n’est qu’une des applications d’Internet, distincte d’autres applications comme
le courrier électronique, la messagerie instantanée et le partage des fichiers. Inventé en 1990
par TIM BERNERS-LEE suivi de ROBERT CAILLIAU, c'est le Web qui a rendu les médias

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 84

grand public attentifs à Internet. Depuis, le Web est fréquemment identifié par le mot Internet ; en
particulier, le mot « Toile » est souvent utilisé dans les textes non techniques sans qu'il soit clair
si l'auteur désigne le Web ou Internet.

VI.4.1. Services web

Un service web est une technologie client-serveur fondée sur les protocoles du web et
tache offerte, on peut alors citer :

- Un annuaire web : est un site web répertoriant d’autres sites web sur la toile.

- Un moteur de recherche : est un site permettant de rechercher des mots dans l’ensemble
des sites web.

- Un portail web : est un site web tentant de regrouper la plus large palette d’informations
et de services possibles dans un site web. Certains portails sont thématiques.

- Un agrégateur web : est un site web qui sélectionne, organise et, éventuellement, valide
des pages concernant un sujet précis, et les met en forme de façon ergonomique ou
attractive.
- Un blog : est une partie de site web où sont régulièrement publiés des articles personnels.

- Un Webmail : est site web fournissant les fonctionnalités d'un client de messagerie de
courrier électronique.
- Un wiki : est un site web éditable par les utilisateurs.

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 85

TABLE DES MATIERES


Avant 1900 ........................................................................................................................................ 5
1900 - 1939 : l'avancée mathématique ............................................................................................... 6
Les années 1940 : la guerre fait naître l'ordinateur électronique ....................................................... 7
Les années 50 .................................................................................................................................... 8
Les années 1980................................................................................................................................. 9
Les années 1990............................................................................................................................... 10
Les années 2000............................................................................................................................... 10
1.3. Génération de matériel ............................................................................................................. 13
1.3.1. Génération zéro : le relais électromécanique (1930-1945)....................................................... 14
1.3.2. Génération Première : le tube à vide (1945-1955)................................................................... 14
1.3.3. Génération Deuxième : le transistor (début de l’industrie informatique ; 1955-1965) ............ 15
1.3.5. Génération Quatrième : l’essor des ordinateurs personnels (1980-20??) ................................ 17
1.3.6. Génération Cinquième : l’intelligence artificielle ................................................................... 17
I.4. Subdivision de l’Informatique ................................................................................................... 17
I.4. Système informatique et Système d’information ....................................................................... 18
1. Principales différences ................................................................................................................ 23
II.0. Introduction ............................................................................................................................ 25
II.1. Définition et contexte d’étude .................................................................................................. 26
II.2. Classification des ordinateurs .................................................................................................. 26
II.3. Eléments constitutifs de l’ordinateur ................................................................................. 28
II.3.1. Architecture matérielle ........................................................................................................... 28
Contexte .......................................................................................................................................... 30
Windows ......................................................................................................................................... 31
Touches Fonctions........................................................................................................................... 32
Accents avec la touche Alt ............................................................................................................... 33
2. La souris ..................................................................................................................................... 34
3. Scanner (numériseur) ................................................................................................................. 35
4. Caméra numérique ...................................................................................................................... 36
B. Mémoire vive (RAM) .................................................................................................................. 40
2. Imprimante ................................................................................................................................ 42
3. Notion sur le bus ......................................................................................................................... 43
4. Notions de ports d’entrée-sortie .................................................................................................. 44

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 86

III.2. Les opérations en binaire ....................................................................................................... 49


III.3.1. Le système décimal .............................................................................................................. 51
III.3.2. Système binaire ................................................................................................................... 51
III.3.3. Système octal ....................................................................................................................... 52
III.3.4. Système hexadécimal ........................................................................................................... 54
III.4.1. Le code ASCII ..................................................................................................................... 56
III.4.1.1. Table standard ASCII ...................................................................................................... 56
CHAPITRE IV. NOTIONS SUR LES SYSTEMES D’EXPLOITATION ....................................... 62
IV.1. Définition et contexte d’étude ................................................................................................. 62
IV.2. Objectifs des systèmes d’exploitation ...................................................................................... 63
IV.3 Fonctions d’un système d’exploitation ..................................................................................... 63
IV.4. Typologie des systèmes d’exploitation .................................................................................... 65
CHAPITRE V. SECURITE INFORMATIQUE .............................................................................. 69
V.1. Protection des systèmes informatiques ..................................................................................... 69
V.2. Virus informatiques ................................................................................................................. 69
V.2.1. Notions .................................................................................................................................. 69
a) Les virus mutants ........................................................................................................................ 70
b) Les virus polymorphes ............................................................................................................... 70
c) Les virus trans-applicatifs (virus macros)................................................................................... 70
d) Les vers ...................................................................................................................................... 70
e) Cheval de Troie ........................................................................................................................... 71
f) Les bombes logiques .................................................................................................................... 71
V.2.3. Notions d’antivirus................................................................................................................ 72
V.3. Erreurs et risques en informatique .......................................................................................... 72
CHAPITRE V. PROGRAMMES INFORMATIQUES ................................................................... 74
VI.1. Généralités ............................................................................................................................. 74
VI.2. Classification .......................................................................................................................... 74
VI.2.1. Nature des tâches ................................................................................................................. 74
VI.2.2. Méthode de diffusion ........................................................................................................... 75
VI.3. Progiciels ................................................................................................................................ 76
1. Le traitement de texte ou texteur ................................................................................................. 76
2. Le tableur ou feuille électronique de calcul.................................................................................. 76
3. Le gestionnaire de fichiers (base de données)............................................................................... 77

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information
Cours d’Informatique Générale| 87

4. Le grapheur ou application graphique ........................................................................................ 77


5. les intégrés ................................................................................................................................... 77
CHAPITRE VI. NOTIONS SUR L’INTERNET ET WWW ........................................................... 78
VI.1. Définition et Context etude ..................................................................................................... 78
VI.2. Historique de l’Internet .......................................................................................................... 78
VI.3. Les protocoles utilisés sur Internet ......................................................................................... 79
VI.4. Finalités de l’Internet ............................................................................................................. 81
VI.5. Avantages de l’Internet .......................................................................................................... 81
VI.6. Inconvénients de l’Internet ..................................................................................................... 83
VI.7. Le WWW ............................................................................................................................... 83
VI.4.1. Services web ........................................................................................................................ 84

Ir. Jonathan KIDITCHO ETIUNE


Analyste, Concepteur et Développeur des systèmes d’information

Vous aimerez peut-être aussi