Cours D'informatique Generale Par Jonathan Kiditcho
Cours D'informatique Generale Par Jonathan Kiditcho
D’INFORMATIQUE GENERALE
INTRODUCTION
De nos jours, l’évolution des nouvelles technologies a donnée naissance à un mode de
gestion des ressources assez rentable. Vue ses aboutissements et la nécessité de faire
communiquer les différentes services d’une entreprise ; l’informatique est devenu non seulement
un monde à part avec son propre vocabulaire qui pris des ailes avec le temps mais également
l‘informatique est de plus en plus obligatoire.
La nécessité d'aller plus vite et d'être de plus en plus pointu dans le traitement de
l'information a favorisé l'introduction de l'informatique dans tous les domaines d'activités de la
vie. Aucun domaine n'échappe aux jours d’aujourd’hui à cette révolution technologique, qui au
fil des jours s'affiche comme un outil indispensable de travail. Le besoin de répartition et de
disponibilité de l'information à tous les postes des entreprises a entraîné l'émergence et la
multiplication des réseaux locaux qui entraînent le besoin d'interconnexion. Raison pour laquelle
un nouveau challenge s'offre aux professionnels de l'informatique : celui d'interconnecter les
réseaux locaux entre eux afin que l'emplacement géographique ne soit plus un handicap pour
l'accès aux informations.
Par ailleurs, cette évolution a suscité une révolution de telle manière que les informations
circulent d’un bout à l’autre du monde en temps record comme si nous habitons tous un même
endroit. Ainsi, le monde est devenu un petit village planétaire. D’où, la nécessité de mobilisation
des efforts et ressources pour la mise en place des systèmes adéquats afin de rendre disponible et
accessible les informations par tous, à n’importe quel moment et à n’importe quel point du globe
terrestre. En effet, grâce aux Nouvelles Technologies de l’Information et de la Communication
(NTIC) ; les liens entre les entreprises deviennent de plus en plus étroits et les métiers se
transforment. Ainsi, le monde du travail devient de plus en plus petit grâce aux rapprochements
issus de ces derniers.
Notons que ce support ne s‘adresse pas seulement aux débutants en informatique mais
aussi aux utilisateurs de l‘ordinateur, soucieux de se perfectionner dans cette science qui, de plus
en plus, devient incontournable dans tous les domaines de la vie courante. Ainsi, ce cours prône
l’objectif principal de donner une vue d’ensemble de l’informatique (le point de vue historique,
le point de vue des concepts et le point de vue des techniques) ; et un aperçu de l’utilité de
l’informatique dans son intégration dans la vie professionnelle, académique, sociale et
personnelle.
En mars 1962, le terme « Informatique » est utilisé pour la première fois, en France,
par l’Ingénieur Philippe Dreyfus, ancien directeur du Centre national de calcul électronique
de Bull, pour son entreprise Société d'Informatique Appliquée (SIA). Ce néologisme est formé
par la combinaison du terme « information », réduit à « infor », et du terme « automatique »,
réduit à « matique ».
Le même mois, Walter Bauer inaugure la société américaine Informatics Inc., qui
dépose son nom et poursuit toutes les universités qui utilisent ce mot pour décrire la nouvelle
discipline, les forçant à se rabattre sur computer science, bien que les diplômés qu'elles
forment soient pour la plupart des praticiens de l'informatique plutôt que des scientifiques au
sens propre. L’Association for Computing Machinery, la plus grande association
d'informaticiens au monde, approche même la société Informatics Inc afin de pouvoir utiliser
le mot informatics en remplacement de l'expression computer machinery, mais l'entreprise
décline la proposition. La société Informatics Inc, achetée par Sterling Software cesse ses
activités en 1986.
Découvertes physiques sur les semi-conducteurs et la miniaturisation des transistors qui ont
permis la conception des ordinateurs.
Découvertes mathématiques sur la calculabilité et les propriétés des algorithmes.
Invention de la théorie de l’information, de la sémiotique et de la cybernétique.
Transformations techniques avec l’introduction de machines ou de composants informatiques
de toutes tailles dans tous les secteurs : des machines à laver aux automobiles et aux avions,
des banques à la santé, de l’imprimerie à la documentation en ligne.
Transformations sociales avec l’organisation des entreprises et des administrations autour de
leur système d’information automatisé, et avec la circulation de l’information dans les
réseaux sous forme numérique à une vitesse négligeable dont Internet est le plus important.
Electronic Data Processing (traitement électronique de données), met l’accent sur l’objet
manipulé ; il s‘agit du côté pratique ;
Computer Science (science de l’ordinateur), met en évidence la machine qui permet la
manipulation de l’information. C’est un aspect théorique.
Dans le contexte de ce cours, « l’informatique est la science du stockage, du traitement et
de la transmission de l’information ». Et donc, elle désigne trois concepts : une science, un art et
une technique.
Elle est une science quand elle est orientée vers la recherche de la vérité. Ici, elle est la
science renfermant les normes et techniques de traitement de l’information. Ces normes et
techniques sont de règles de jeu qui permettent à l’informatique d’automatiser
l’information. Pour arriver à son objectif ; l‘informatique utilise un outil appelé «
l‘ordinateur ».
Elle est une technique dans la mesure où c‘est une application de l’électronique.
Elle est un art parce qu’elle permet à l’esprit humain à se révéler c.à.d. le génie humain.
I.2. Histoirique de l’Informatique
L'histoire de l'informatique a commencé bien avant la discipline moderne des sciences
informatiques, généralement par les mathématiques ou la physique. Les développements des
siècles précédents ont évolué vers la discipline que nous connaissons aujourd'hui sous le nom
d'informatique. Cette progression, des inventions mécaniques et des théories mathématiques vers
les concepts et les machines informatiques modernes, a conduit au développement d'un domaine
académique majeur, à un progrès technologique spectaculaire à travers le monde occidental et à
la base d'un commerce et d'une culture mondiale massive. Chronologiquement, voici quelques
dates importantes :
Vers 500, les civilisations méditerranéennes utilisent l’abaque pour effectuer des calculs, tandis
que le boulier est d’usage en Chine et au Japon.
Avant 1900
Les machines à calculer sont utilisées depuis des milliers d'années : on trouvait
probablement des abaques à Babylone en 3000 avant notre ère. Les Grecs ont fabriqué des
calculateurs analogiques très perfectionnés. En 1901, au large de l'île d'Antikythera, on a
découvert une épave dans laquelle se trouvait, encroûté de sel, un assemblage d'engrenages
rouillés (le mécanisme d'Antikythera), daté d'environ 80 ans avant notre ère, que l'on a
reconstruit : il servait à prédire les mouvements des astres.
L'Ecossais John NEPER (1550-1617), l'inventeur des logarithmes, fabriqua vers 1610 les
règle de Neper permettent de transformer des multiplications compliquées en simple additions.
datation des arbres ; il ne poursuivit pas ses recherches à ce sujet. Devenu vieux, il consacra
une grande partie de son temps à persécuter les joueurs d'orgue de Barbarie.)
La machine à calculer de Blaise Pascal « La Pascaline » Le métier à tisser de Jacqua l’abaque ou boulier romain
1. Les mathématiques sont-elles complètes ? (tout énoncé mathématique peut-il être soit
prouvé, soit réfuté ?)
2. Les mathématiques sont-elles cohérentes ? (peut-on être sûr que des raisonnements
valides ne conduiront pas à des absurdités ?)
Atanasoff discuta de son invention avec John Mauchly (1907-1980), qui, plus tard,
avec John Eckert (1919-1995), conçut et réalisa l' « ENIAC », un calculateur électronique
destiné à l'origine aux calculs balistiques. On ne sait pas très bien quelles idées Atanasoff
transmit à Mauchly; le mérite d'avoir inventé le premier ordinateur revient-il à Atanasoff ou
à Mauchly et Eckert ? Ce fut le sujet de batailles juridiques, c'est encore celui d'un débat
historique. L'ENIAC fut construit à l'Université de Pennsylvanie, et terminé en 1946.
En Angleterre, Maurice Wilkes (né en 1913 et dont le décès n’est pas encore annoncé)
construisit l' « EDSAC » (à partir de l'EDVAC). F. Williams (né en 1911) et son équipe
construisirent le Manchester « Mark I », dont une version fut opérationnelle dès juin 1948.
Certains considèrent cette machine comme le premier ordinateur à programme en mémoire
(architecture dite de Von Neumann).
Jay Forrester (né en 1918) inventa vers 1949 la mémoire à noyau magnétique.
Les années 50
Grace Hopper (1906-1992) inventa la notion de compilateur (1951). (Quelques
années plus tôt, elle avait trouvé le premier bug de l'histoire de l'informatique, une phalène
entrée dans l’ENIAC)
Dans un célèbre article de la revue Mind, en 1950, Alan Turing décrivit le « test de
Turing », l'une des premières avancées en intelligence artificielle. Il proposait une définition
de la « pensée » ou de la « conscience » relative à un jeu : un examinateur pose des questions
par écrit à un interlocuteur situé dans la pièce voisine, et doit décider, au vu des réponses, si
son interlocuteur est une machine ou un être humain. S'il est incapable de répondre, on peut
raisonnablement dire que l'ordinateur « pense ». En 1952, Alan Turing fut arrêté pour outrage
aux bonnes moeurs après qu'une plainte pour cambriolage eut révélé sa liaison avec Arnold
Murray. L'homosexualité affichée était tabou dans l'Angleterre des années 1950, et on
obligea Turing à suivre un « traitement » hormonal qui le rendit impuissant et lui fit pousser
des seins. Le 7 juin 1954, Alan Turing se suicidera en 1954, en mangeant une pomme imbibée
de cyanure. Une légende souvent rapportée dit que cet épisode est à l'origine du logo d'Apple.
Jusqu'au début des années 1970, les différents composants électroniques, nécessaires au
fonctionnement d'un processeur ne pouvaient pas tenir sur un seul circuit intégré, ce qui nécessitait
d'interconnecter de nombreux composants dont plusieurs circuits intégrés. En 1971, la société
américaine Intel réussit, pour la première fois, à placer tous les composants qui constituent un
processeur sur un seul circuit intégré donnant ainsi naissance au microprocesseur.
Le 4004 a été conçu par deux ingénieurs d'Intel : Marcian (Ted) Hoff (né en 1937), qui mit son
architecture au point en 1969, et Federico Faggin (né en 1941), chef de projet, le créateur de la
méthodologie de conception et le concepteur principal des quatre puces.
Fin 1969, Début du réseau Arpanet, renommé plus tard Internet. Il compte 4 nœuds.
La société Microsoft est fondée en avril 1975 sous le nom original de Micro-Soft, par deux
étudiants américains, Bill Gates (photo, né en 1955) et Paul Allen (1953-2018).
Son activité principale consiste à développer et vendre des systèmes d'exploitation, des
logiciels et des produits matériels dérivés. Les meilleures ventes historiques sont les systèmes
d'exploitation MS-DOS puis Windows, et la suite bureautique Office. Windows a atteint une
position dominante sur les ordinateurs personnels, avec plus de 90 % de parts de marché dans le
monde.
En 1981, l' «Osborne I», le premier ordinateur vraiment portable, fut mis sur le marché.
En 1984, Apple commercialisa le Macintosh. En 1987, l'US National Science Foundation
démarra NSFnet, qui devait devenir une partie de l'Internet actuel.
En 1985, la société PHILIPS et SONY commercialise le CD-ROM (« Compact Disc
read only memory » pouvant être rendu français disque compact a mémoire morte) afin
de lui permettre de stocker des données informatiques diverses, et non plus seulement
musicales.
de vidéos YouTube. Le 9 octobre 2006, Google a racheté YouTube 1,65 milliards de dollars en
nouvelles actions, ce qui constitue la quatrième plus grosse opération d’acquisition Google.
En mars 2006, Twitter a été créé en San Francisco par Jack DORSEY (né en 1976), Evan
WILLIAMS (né en 1984), Biz STONE (né en 1974) et Noah GLASS (né en 1981), et lancé le
13 juillet de la même année. Au 5 mars 2017, Twitter compte 313 millions d'utilisateurs actifs par
mois avec 500 millions de tweets envoyés par jour et est disponible en plus de 40 langues.
En 2007, Apple entre dans le marché des téléphones portables avec la commercialisation
de l'iPhone.
En 2009, deux anciens employés de la société américaine Yahoo!, Jan KOUM (né en
1976) et Brian ACTON (né en 1972) créant l’application WhatsApp avec pour objectif de
remplacer le SMS. WhatsApp remporte un grand succès au tournant des années 2010 et est utilisé
par plus deux milliards de personnes en 2020. En février 2014, WhatsApp est acquis par la société
Facebook Inc. (maintenant Meta platforms) pour un montant d’environ 22 milliards de dollars dont
17 milliards en action Facebook, soit environ 350 millions de dollars par employé ou 40 dollars
par utilisateur.
Le 6 octobre 2010, Instagram est fondé et lancé par l'Américain Kevin Systrom et le
Brésilien Michel Mike Krieger en octobre 2010. Le 10 avril 2012, Facebook annonce l'acquisition
d'Instagram pour environ un milliard de dollars américains.
Instagram revendique plus d'un milliard d'utilisateurs à travers le monde, dont 75 %
d'utilisateurs en dehors des États-Unis, selon les chiffres officiels fournis en juin 2018.
Le 14 Août 2013, Telegram a été créée par les frères Nikolaï et Pavel DOUROV, fondateur
de VKontakte, après que le gouvernement Russe a pris le contrôle de VKontakte. Nikolaï Dourov
a créé le protocole de communication servant de fondement a Telegram tandis que son frère a
apporté un soutien financier au projet à travers son fonds Digital Fortress. Les deux frères
opposants de Vladimir POUTINE, souhaitaient développer un moyen de communiquer hors
regard du FSB, le service secret russe chargé des affaires de sécurité intérieure.
En octobre 2013, le service comptait 100 000 utilisateurs actifs. Le 24 mars 2014, Telergam
annonce 35 millions d’utilisateurs mensuels et 25 millions d’utilisateurs actifs par jour.
En 2016, l'entreprise chinoise ByteDance crée l’application TikTok. C’est une application
qui permet aux utilisateurs de créer des vidéos courtes accompagnées de musique, 3 à 180
secondes. En juin 2018, TikTok atteint les 150 millions d’utilisateurs actifs quotidiens (pour cinq
cents millions d’utilisateurs actifs mensuellement). Elle est l'application la plus téléchargée de
l'année 2020.
En novembre 2017, IBM déclare avoir développé un ordinateur quantique capable de gérer
50 bits quantiques, ou qubits. Les chercheurs ont pu préserver l'état quantique pendant 90
microsecondes. En dépit d'une période de temps extrêmement courte, il s'agit d'un nouveau record
pour l'industrie.
Les autoroutes de l'information relient de plus en plus les ordinateurs du monde entier.
Les ordinateurs sont de plus en plus petits ; naissance de la nanotechnologie.
Sommes toutes, l’histoire de l’informatique débute par l’invention de machines (la
fonction crée l’organe) qui au départ correspondent à des lignes de pensée différentes.
L’informatique résultera de la fusion des savoirs acquis dans ces domaines. Elle n’est pas une
synthèse de plusieurs disciplines, mais plutôt une discipline entièrement nouvelle puisant ses
racines dans le passé. Seul l’effort permanent du génie créatif humain l’a rendue accessible
au grand public de nos jours.
Les chercheurs américains partent du principe que les ordinateurs actuels, même les plus
puissants, ne seront jamais aussi intelligents qu'un cerveau vivant. Il faut donc inventer des
ordinateurs capables de penser par eux-mêmes et plus seulement d'exécuter un programme
écrit par l'homme.
I.3. Génération de matériel
La notion de « générations » n'est pas comme on l'a dit parfois un slogan publicitaire
mais résulte de la fiabilité de l'élément logique élémentaire mis en œuvre par une technologie
donnée. On définit pour un composant élémentaire (tube, relais, transistor) une caractéristique
essentielle appelée MTBF (mean time between failure), temps moyen entre défaillances. De
cette caractéristique on déduit le nombre maximum d'éléments de cette technologie qu'on peut
rassembler dans une machine pour qu'elle puisse être utilisée entre deux défaillances d'un
quelconque des éléments. Et donc on définit ainsi la taille logique maximale de l'automate
qu'une technologie donnée permet de réaliser...
Dans l’optique de réglage des tirs d’artillerie, en 1943 l’armée américaine accepta
de financer les travaux de John Presper ECKERT et John MAUCHLY qui aboutirent à la
réalisation d’une machine pour le moins célèbre : l’ «ENIAC ». Celle-ci (Electronic Numerical
Integrator And Computer) était capable de 5 000 opérations arithmétiques à la seconde et était
1 000 fois rapide que le mark I. Pour fonctionner, il fallait une puissance électrique de près de
200 Kw, comportait 19.000 lampes, pesait 30 tonnes et occupait un espace de 160 m2 au sol.
Un jour, en 1947, l’ENIAC tomba en panne sans que ses constructeurs ne sachent
pourquoi. Après exploration, on constata qu’un insecte s’était logé dans un relais ; le
technicien qui a fait la découverte s’est écrié : « there is a bug in the machine!». Le nom «bug»
est resté pour désigner une erreur de matériel ou de programmation.
apparut que tardivement ainsi que les premiers essais de mémoire à disques (RAMAC IBM).
C'est cette machine qui, malgré son architecture médiocre mais visant un bon créneau
commercial, a servi de point de départ à une suprématie d'IBM qui a duré 25 ans.
En France, montée en puissance de Bull (alors 2ème constructeur mondial et associé
à UNIVAC) et réalisation d'une machine prestigieuse d'architecture révolutionnaire en avance
de 10 ans sur son temps : le GAMMA 60 destinée aux ministères et très grands organismes
(SNCF, EDF).
Un ordinateur personnel est celui destiné à l’usage d’une personne et dont les dimensions
sont assez réduites pour tenir sur un bureau.
C’est un domaine qui s’applique à la résolution des problèmes mathématiques. C’est grâce
à ce domaine que l’informatique peut résoudre les problèmes tels que : les calculs d’erreurs, les
tissages des courbes, les problèmes statistiques (moyennes, écart-type, variances, corrélations, …)
C’est un domaine qui étudie les architectures des systèmes informatiques dans lesquelles
interviennent les ordinateurs, les réseaux d’interconnexions des ordinateurs, …
C’est un domaine qui étudie les différentes réalisations des composants et sous-ensembles
électroniques, électriques et mécaniques qui entrent dans la réalisation des matériels des
ordinateurs et de leurs périphériques.
4. L’informatique méthodologique
C’est un domaine qui s’occupe de la recherche sur les méthodes de programmation et
d’exploitation des systèmes informatiques. C’est dans ce contexte, qu’il faut placer le « génie
logiciel ».
Une « information » est tout élément de connaissance représentés par des signes et
symboles de manière conventionnelle pour être conservé, traité ou communiqué. En informatique
de gestion, une « information » est la représentation subjective d’un fait, d’une situation, d’un
évènement sous forme conventionnelle qui en assure la permanence et facilite le maniement ainsi
que la transformation. Elle est l‘ensemble de l‘entité, l‘attribut ainsi que les valeurs.
I.4.2. Données
Par contre, Une « donnée » est une unité élémentaire dans le processus de prise de
décision. C'est un renseignement sur un sujet donné. Elle peut être comprise comme un fait, une
Recueillir l’information
On dispose de deux grandes sources d‘alimentation en informations : les sources internes
et les sources externes.
Face à ces sources d‘information le système d‘information remplit les tâches d‘écoute,
d‘analyse et de saisie. La tâche d‘écoute se double généralement d‘une tâche d‘analyse critique de
la masse d‘information accessibles afin d‘éliminer toute source d‘information et toute information
peu pertinente ou de qualité insuffisante. Ce n‘est qu‘après ces tâches, qu‘elle peut procéder à
l‘encodage des informations.
Mémoriser l’information
Une foi saisie, l‘information doit être stockée de manière durable et stable bien que parfois,
elle est stockée au fur et à mesure de la saisie.
Exploiter l’information
Une fois mémorisée, l‘information, on peut appliquer à l‘information tout une série
d‘opérations. Ces opérations de traitement consistent à :
Diffuser l’information
La diffusion consiste à mettre à la disposition de ceux qui en ont besoin, au moment où ils
en ont besoin et sous une forme directement exploitable, l‘ensemble des informations qui leur
permettront d‘assurer leurs activités. Les supports de cette diffusion sont soit le support oral, le
support papier, le support électronique ou magnétique.
Les logiciels et programmes d’application : ou Software : C‘est la partie invisible qui est
la suite d‘instructions permettant à l‘utilisateur de communiquer avec l‘ordinateur.
Il apparaît, à la lumière de cette définition, que l‘information est un des éléments capitaux
constituant les préoccupations d‘un système d‘information. Elle mérite donc l‘attention des
chercheurs en informatique.
Ainsi donc, Il existe plusieurs typologies de SI, cependant nous nous intéressons à
distinguer le SI automatisé du SI manuel.
- Le SI manuel est celui dont les opérations sur les informations sont manuelles et ne font
pas recours aux machines.
Les langages servant aux ordinateurs à communiquer n'ont rien à voir avec des langages
informatiques, on parle dans ce cas de protocoles de communication, ce sont deux notions
totalement différentes. Un langage informatique est une façon pratique pour nous (humains) de
donner des instructions à un ordinateur.
La principale différence entre les langages informatiques et les langues naturelles réside
dans l’absence d’ambiguïté : alors que certaines phrases du français peuvent être interprétées
différemment par différents auditeurs, tous seront d’accord pour dire ce que fait un programme
donné.
Le langage utilisé par le processeur, c'est-à-dire les données telles qu'elles lui arrivent, sont
appelées langage machine. Il s'agit d'une suite de 0 et de 1 (dit binaire). Toutefois le langage
machine n'est pas compréhensible facilement par l'humain. Ainsi il est plus pratique de trouver un
langage intermédiaire, compréhensible par l'homme, qui sera ensuite transformé en langage
machine pour être exploitable par le processeur.
L'assembleur est le premier langage informatique qui ait été utilisé.
Celui-ci est encore très proche du langage machine mais il permet déjà d'être plus
compréhensible des développeurs.
Toutefois un tel langage est tellement proche du langage machine qui dépend étroitement
du type de processeur utilisé (chaque type de processeur peut avoir son propre langage machine).
Ainsi un programme développé pour une machine ne pourra pas être porté sur un autre type de
machine (on désigne par le terme « portable », un programme qui peut être utilisé sur un grand
nombre de machines). Pour pouvoir l'utiliser sur une autre machine il faudra alors parfois réécrire
entièrement le programme.
Un langage informatique a donc plusieurs avantages :
Un programme écrit dans un langage compilé a comme avantage de ne plus avoir besoin,
une fois compilé, de programme annexe pour s’exécuter. De plus, la traduction étant faite une fois
pour toute, il est plus rapide à l’exécution. Toutefois il est moins souple qu’un programme écrit
avec un langage interprété car à chaque modification du fichier source (fichier intelligible par
l’homme : celui qui va être compilé) il faudra recompiler le programme pour que les modifications
prennent effet.
D’autre part, un programme compilé a pour avantage de garantir la sécurité du code source.
En effet, un langage interprété, étant directement intelligible (lisible), permet à n’importe qui de
connaitre les secrets de fabrication d’un programme et donc de copier le code voire de le modifier.
Il y a donc risque de non-respect des droits d’auteur. D’autre part, certaines applications
sécurisées nécessitent la confidentialité du code pour éviter le piratage (transaction bancaire,
paiement en ligne, communications sécurisées, …).
1. Principales différences
On pourrait discuter très longtemps des avantages et inconvénients des différents types de
langages mais les deux points qui sont les plus intéressants sont les suivants :
Dans un langage interprété, le même code source pourra marcher directement sur tout
ordinateur. Avec un langage compilé, il faudra (en général) tout recompiler à chaque fois
ce qui pose parfois des soucis.
Dans un langage compilé, le programme est directement exécuté sur l'ordinateur, donc il
sera en général plus rapide que le même programme dans un langage interprété.
C’est pour répondre aux problèmes de l’assembleur qu’ont été développé dès les années 50
des langages de plus haut niveau. Dans ces langages, le programmeur écrit selon des règles strictes
mais dispose d’instructions et de structures de données plus expressives qu’en Assembleur.
- Les informations utiles doivent être disponibles pour l’ordinateur, donc être collectées,
clairement codifiées, saisies et enregistrées sur un support informatique (une « mémoire »);
- Le problème à résoudre doit avoir été analysé avec précision, la façon d’en obtenir la
solution doit avoir été traduite sous la forme d’un programme.
- L’ordinateur est une machine électronique qui inclue des dispositifs optiques,
électromécaniques ou électromagnétiques et dont le fonctionnement est guidé par des
programmes réalisés par l’homme :
- Un ordinateur est inerte en l’absence d’alimentation électrique ou de programme ;
- Son « QI » (quotient intellectuel) est NUL et il est incapable d’initiative ;
- L’ordinateur est un outil complexe. Il est encore nécessaire d’en connaître le
fonctionnement pour bien l’utiliser.
L’ordinateur fonctionne aujourd’hui comme à ses débuts. C’est une machine qui travaille
sur des données binaires (représentées symboliquement par des suites de 0 et de 1) de manière
séquentielle et au rythme d’une horloge interne :
- Dans l’ordinateur, toute information est représentée par une suite de bits. Un bit
(abréviation de BInary digiT) représente une valeur choisie parmi deux possibilités
(symbolisées par 0 et 1, mais concrétisées par un phénomène physique à deux état stables
comme « allumé-éteint », « 0 volts – 3 volts », « aimantation nord ou sud », « courant
passant ou bloqué », etc. …) ;
- À chaque « top » d’horloge, il y a modification d’une série de bits représentant les données
en cours de traitement ;
- Entre deux tops d’horloge, l’ordinateur est improductif.
- 0101 représente la valeur 5 en binaire pur sur 4 bits (valeur que l’on retrouve en effectuant
le calcul 0x23+1X22+0x21+1x20 =5, 2 étant la base de numération binaire) ;
- 01010001 représente la lettre Q (majuscule) sur 8 bits, en code ASCII (American Standard
Code for Information Interchange).
2. Classification moderne
Cette classification est plutôt basée sur la taille et la forme de l’ordinateur ainsi sa capacité de
puissance de calculs. Dans cette catégorie, on peut citer :
a. Les micro-ordinateurs : Un micro-ordinateur est un ordinateur construit autour d’un
microprocesseur. Les micro-ordinateurs ont été conçus au début des années 1970, sous
l’impulsion des microprocesseurs. Les microordinateurs sont aujourd’hui utilisés par les
particuliers et les industriels en raison de leur faible coût, de leur très bon apport en puissance
de traitement/prix et de leur facilité d’emploi. On distingue :
* Les ordinateurs de bureau (appelés aussi « Desktop ») sont composés d’un boîtier
renfermant les principaux composants et permettant de raccorder les différents dispositifs
externes.
* Les ordinateurs portables (« laptop ») sont composés d’un boîtier intégrant un écran
dépliable, un clavier et un grand nombre des dispositifs incorporés.
* Les organiseurs, appelés encore « Handheld » ou « PDA » (Personnal Digital Assistant)
sont des ordinateurs de poche proposant des fonctionnalités liées à l’organisation
personnelle.
b. Les stations de travail : Une station de travail est un micro-ordinateur haut de gamme
disposant d’outils graphiques et des communications avancées qui en font l’outil idéal pour
accomplir des tâches nécessitant à la fois des bonnes capacités de stockage et de puissance de
calcul. Il s’agit en fait d’un ordinateur puissant mis à la disposition d’un utilisateur et relié à
un réseau.
c. Les gros ordinateurs ou Mainframes : Un gros ordinateur est une machine conçue selon la
philosophie des ordinateurs de la 1ère génération fondée sur un informatique centralisé.
Ces genres de machines sont capables de répondre aux besoins des grandes entreprises
commerciales, de différentes institutions gouvernementales ou militaires et des établissements
de recherche scientifiques. Les gros ordinateurs adaptés tout particulièrement aux calculs
scientifiques sont appelés « super calculateurs ». Ce sont des ordinateurs qui offrent une
capacité de traitement très élevée et sont utilisés dans les domaines nécessitant des calculs à
grandes échelles comme la météorologie, la physique des particules, l’astrophysique, la réalité
virtuelle (ex : simulateur de vol).
1. Le clavier
Le clavier (en anglais « keyboard ») permet, aux machines d’écrire, de saisir des
caractères (lettres, chiffres, symboles ...). Il s'agit donc d'un périphérique d'entrée essentiel pour
l'ordinateur, car c'est grâce à lui qu'il nous est possible de transférer des textes ou encore de donner
ordre à la machine d’effectuer des opérations particulières.
TOUCHE S DE COMMANDE
TOUCHES DE COMMANDE TOUCHES DE FONCTION
Le clavier est généralement branché à l'arrière de l'unité centrale, sur la carte-mère, sur un
connecteur PS/2 (Personnal System/2 qui est un port de connexion de dimension réduite pour
souris et clavier) de couleur violette. De nos jours, les connecteurs PS/2, ont été systématiquement
remplacés par des claviers avec un connecteur USB, voire des claviers sans fils.
Le clavier comporte plusieurs parties notamment le pavé numérique (qui permet la saisie
des chiffres et d’effectuer des calculs dans un tableur) ; les flèches de direction (permettant le
déplacement dans le texte) ; les touches alphanumériques (où nous retrouvons les lettres de
l’alphabet, les chiffres et les ponctuations) ; les touches de fonction (sont des raccourcis qui
permettent d’accéder à des fonctions sans passer par les menus) ; les voyants lumineux ; la partie
multimédia (pour les claviers récents).
FONCTIONNEMENT DU CLAVIER
Comme CTRL, elle s’utilise avec d’autres touches pour obtenir une action qui variera
en fonction du logiciel utilisé. Elle est également utilisée pour l’obtention du code ASCII
Exemple : ALT + F4 ferme l’application en cours.
• ALT GR : Permet de faire les caractères situés en bas à droite d’une touche comme par
exemple le sigle Euro (€)
• CLIC DROIT : Permet d’effectuer le clic droit de la souris
• INSER : Permet d’insérer un ou plusieurs caractères entre un mot
Contexte
La plupart des raccourcis offerts par Microsoft sont des combinaisons de touches. En
majeure partie l'utilisateur va utiliser la touche Control (Ctrl), Alternate ou Option (Alt), Windows
(petit drapeau à l'effigie de Windows), Tabulation (la touche à gauche du Q sur un clavier
QWERTY), Majuscule ou Shift et aussi les touches Fonctions (F#).
Alternate
Voici comment faire un raccourci à l'aide de la touche alt ( Alt ). Le principe est
exactement le même que celui de la section précédente. Voici un exemple qui peut vous être très
utile. Enfoncez la touche Alt, ensuite appuyez sur la touche tabulation (à gauche de Q),sans relâcher
la touche Alt. Une fenêtre apparaît et elle vous montre tous les programmes qui sont ouvert sur
votre ordinateur. Pour voyager d'un programme à l'autre, il vous suffit de continuer d'appuyer sur
la touche tabulation. Lorsque vous aurez atteint le programme voulu, relâchez la touche Alt et la
fenêtre de ce programme apparaîtra en premier plan. Pour passer à la fenêtre précédente au lieu de
la suivante, enfoncez également la touche Shift.
Voici une liste des raccourcis les plus utilisés avec la touche Alternate (Option)
Raccourcis à l'aide de la touche Alt
Alt + Fonction
Alt Permet de donner le focus au premier menu de la fenêtre
affichée
Alt + F4 Permet de fermer la fenêtre affichée
Alt + Espace Permet d'ouvrir le menu de la barre de titre de la fenêtre affichée
Alt + Tab ou Windows + Tab (Lorsque la touche Alt est maintenue, permet de passer à la
sous vista) fenêtre suivante en appuyant sur Tabulation
Alt + Shift + Tabulation Lorsque les touches Alt et Shift sont maintenues, permet de passer à
(Windows + Shift + Tab sous la fenêtre précédente en appuyant sur Tabulation
vista)
Alt + Shift Permet de charger les langues du clavier
Aller à la zone Accents avec la touche Alt pour voir les accents qui sont créés avec une
combinaison de la touche Alt et les chiffres du pavé numérique.
Windows
La touche Windows est un petit drapeau (logo de Windows) qui se trouve entre les
touches Ctrl et Alt à gauche, et la première touche située entre les touches AltGr et Ctrl à
droite.
La touche que vous utiliserez le plus souvent sera Windows + D.
Voici une liste des raccourcis les plus utilisés avec la touche Windows
Windows + Fonction
Windows Permet d'ouvrir la barre de menu Démarrer
Windows + Ctrl+ F Permet d'ouvrir une fenêtre de recherche d'un autre ordinateur (en réseau)
(Find)
Windows + D Permet de masquer tous les éléments du bureau laissant place au fond
d'écran (Desktop)
Windows + E Permet d'ouvrir le poste de travail (Explorer)
Windows + F Permet d'ouvrir la fenêtre de recherche (Find)
Windows + L Permet de verrouiller votre poste de travail lorsque vous n'êtes pas là (mettre un
mot de passe pour plus de sécurité) (Lock)
Touches Fonctions
Voici une liste des raccourcis les plus utilisés avec les touches fonctions
Touche Fonction
F# + Fonction
F1 Permet d'ouvrir la fenêtre d'aide
F2 Permet de renommer le fichier sélectionné
F3 Permet d'ouvrir la fenêtre de recherche, ou le volet de recherche pour l'explorateur
F4 Explorateur Windows : Permet d'ouvrir la liste déroulante de dossiers
F5 Permet de rafraîchir une page Internet ou de l'Explorateur Windows
F10 Donne le focus au premier menu de la fenêtre courante
F11 Permet de sauvegarder un document qui n'a pas déjà été sauvegardé (enregistrer-sous)
Shift
Voici une liste des raccourcis les plus utilisés avec Shift
Touche de raccourci avec Shift
Shift + Fonction
Shift + F10 Permet d'afficher le menu contextuel associé à l'élément sélectionné
Shift + Flèches Permet de sélectionner un texte lorsque le curseur est dans un traitement de texte
Shift + Suppr Permet de supprimer définitivement l'élément sélectionné sans le placer dans
la corbeille
Alt + Tabulation Permet de changer de fenêtre dans le sens contraire
+ Shift
2. La souris
La souris (en anglais « mouse » ou « mice » au pluriel) est un périphérique de pointage
(en anglais pointing device) servant à déplacer un curseur sur l'écran et permettant de sélectionner,
déplacer, manipuler des objets grâce à des boutons. On appelle ainsi « clic » l'action consistant à
appuyer (cliquer) sur un bouton afin d'effectuer une action.
La première souris a été inventée et mise au point par Douglas Carle ENGELBART : il s'agissait
d'une souris en bois contenant deux disques perpendiculaires et relié à l'ordinateur par une paire de
fils torsadés. La souris est généralement branchée à l'arrière de l'unité centrale, sur la carte-mère,
sur un connecteur PS/2 de couleur verte. Certaines souris possèdent parfois une connectique
USB.
On distingue plusieurs grandes familles de souris :
a. Souris mécanique
La souris mécanique comporte une bille sur laquelle tournent deux rouleaux. Ces rouleaux
comportent chacun un disque qui tourne entre une photodiode et une diode électroluminescente
(LED c’est-àdire composant électronique autorisant le passage d’un courant électrique dans un
seul sens) laissant passer la lumière par séquence. Lorsque la lumière passe, la photodiode renvoie
un bit (1), lorsqu'elle rencontre un obstacle, la photodiode renvoie un bit nul (0). A l'aide de ces
informations, l'ordinateur peut connaître la position du curseur, voire sa vitesse.
b. Souris optique
La souris optique possède un fonctionnement basé sur l'analyse de la surface sur laquelle
elle se déplace. Ainsi une souris optique est constituée d'une LED, d'un système d´acquisition
d´images (IAS) et d'un processeur de signaux numériques (DSP).
La LED est chargée d'éclairer la surface afin de permettre au système IAS d'acquérir l'image
de la surface. Le DSP détermine le mouvement horizontal et vertical. Les souris optiques
fonctionnent sur toutes surfaces non parfaitement lisses ou bien possédantes des dégradés de
couleur. Les avantages principaux de ce type de dispositif de pointage par rapport aux souris
mécaniques sont notamment une précision accrue ainsi qu'un palissement moindre.
d. Souris à molette
De plus en plus de souris sont équipées d'une molette. La molette, généralement située entre
le bouton gauche et le bouton droit permet de faire défiler des pages tout en permettant à l'utilisateur
de déplacer le curseur sur l'écran.
N.B. : Sur les ordinateurs portables, nous retrouvons d’autres types de souris qui répondent au
double impératif de faible encombrement et d’ergonomie : le trackball est en quelque sorte une
souris inversée (l’utilisateur fait tourner une petite bille enchâssée dans le socle de l’appareil, en
avant du clavier) et le « touchpad » est une sorte de palette graphique fonctionnant avec des
capteurs de pression qui détectent la position du doigt de l’utilisateur sur un petit rectangle
de plastique.
Actuellement, il est possible de retrouver sur le marché des souris, celles qui disposent de
quatre boutons, pouvant faciliter la navigation aisée sur le réseau Internet.
3. Scanner (numériseur)
Le nom « scanner » vient du verbe anglais « to scan » qui signifie balayer dans le sens de
« balayer du regard ». Il s’agit d’un périphérique permettant de numériser des documents à partir
d'un format « papier » et de générer des documents au format « électronique ou numérique »
qu'il est possible d'enregistrer dans la mémoire de l'ordinateur. Le scanner est caractérisé par sa
qualité de numérisation (résolution).
On a plusieurs types d’appareils :
* Les numériseurs médicaux permettant de prendre une image à l’aide des rayons X à
l’intérieur du corps humain.
* Les numériseurs qui permettent de numériser les documents.
* Les systèmes de lecture de code-barres des caisses des magasins.
* Les numériseurs de reconnaissance de billets de banque.
4. Caméra numérique
Les caméras numériques sont des appareils photographiques qui ne contiennent pas de film.
Les photos sont enregistrées sur une petite disquette (carte mémoire) au lieu de s’imprégner sur
une pellicule. La photographie obtenue pourra être visionnée à partir de l’écran d’un ordinateur, ou
encore d’un téléviseur. Le grand avantage de cet appareil est sa capacité à transmettre une photo à
un ordinateur, par l’intermédiaire d’un fil, pour ensuite l’intégrer à un document.
Signalons aussi l’existence d’appareils tout-en-un (all-in-one) qui remplissent à la fois les
fonctions de scanner, d’imprimante, de photocopieur et même de télécopieur.
Les composants matériels de l'ordinateur sont architecturés autour d'une carte principale
comportant quelques circuits intégrés et beaucoup de composants électroniques tels que
condensateurs, résistances, etc. Tous ces composants sont soudés sur la carte et sont reliés par les
connexions du circuit imprimé par un grand nombre de connecteurs : cette carte est appelée « carte-
mère ». La carte-mère est logée dans un boitier, comportant des emplacements pour les
périphériques de stockage sur la face avant, ainsi que des boutons permettant de contrôler la mise
sous tension de l'ordinateur et un certain nombre de voyants permettant de vérifier l'état de marche
de l'appareil et l'activité des disques durs. Sur la face arrière, le boîtier présente des ouvertures en
vis-à-vis des cartes d'extension et des interfaces d'entrée-sortie connectées sur la carte-mère.
1. La carte mère
La carte mère c’est la grande carte verte, tout au fond de la boite. La carte mère est un
élément essentiel de l’ordinateur, c'est à elle que tous les périphériques sont connectés : le scanner,
l’imprimante, le modem, le clavier, la souris... Bref tous les éléments externes que l’on utilise
couramment. C’est un élément essentiel au fonctionnement de l’ordinateur, dont voici sa
description :
2. Microprocesseur
Le centre nerveux de la machine est le microprocesseur. Il s’agit d’un composant
électronique très sophistiqué et très miniaturisé. Le cœur d'un processeur est l'Unité Arithmétique
et Logique (UAL) qui permet d'effectuer des opérations arithmétiques, logiques, ou d'opérations
sur la mémoire (par exemple la lecture du contenu de la mémoire).
L’avantage du microprocesseur sur l'être humain est sa vitesse de calcul. Actuellement, les
microprocesseurs sont souvent capables d'exécuter plus de 3 milliards d'opérations par seconde.
Les microprocesseurs (et donc les ordinateurs) sont incapables d'effectuer le moindre travail si on
ne leur fournit pas des listes d'instructions précises dans le seul langage qu'ils comprennent : le
langage machine.
* La mémoire cache, qui est une sorte de réservoir de mémoire intermédiaire entre le
processeur et la mémoire centrale. La caractéristique fonctionnelle de la mémoire cache est
de servir à stocker des instructions et des données provenant de la mémoire centrale et qui
ont déjà été utilisées les plus récemment par le processeur central.
* Les registres : il s’agit d’une sorte de tiroirs, un circuit qui permet la mémorisation de n
bits en même temps.
Les éléments principaux d'un microprocesseur sont :
* Une horloge qui rythme le processeur. Entre deux tops d'horloge le processeur effectue une
action. Une instruction nécessite une ou plusieurs actions du processeur. Ainsi plus
l'horloge a une fréquence élevée, plus le processeur effectue d'instructions par seconde
(l'unité retenue pour caractériser le nombre d'instructions traitées par unité de temps est
généralement le MIPS, Millions d'instruction par seconde). Par exemple un ordinateur
ayant une fréquence de 100 Mhz effectue 100.000.000 d'instructions par seconde ;
* Une unité de gestion des bus qui gère les flux d'informations entrant et sortant ;
* Une unité d'instruction qui lit les données arrivant, les décode puis les envoie à l'unité
d'exécution ;
* Une unité d'exécution qui accomplit les tâches que lui a donné l'unité d'instruction.
3. Les mémoires
A. Disque Dur
Le disque dur est un support magnétique de stockage d’informations contenu dans l’unité
centrale offrant des vastes espaces de stockage. Inventé dans les années 1950 par IBM, sa capacité
augmente très rapidement tandis que son encombrement se réduit. En fait, Un disque dur est
constitué non pas d'un seul disque, mais de plusieurs disques rigides (en anglais hard disk signifie
disque dur) en métal, en verre ou en céramique, empilés à une très faible distance les uns des autres
et appelés plateaux.
Les disques tournent très rapidement autour d'un axe (à plusieurs milliers de tours par
minute actuellement) dans le sens inverse des aiguilles d'une montre.
La lecture et l'écriture se fait grâce à des têtes de lecture situées de part et d'autre de chacun
des plateaux. Ces têtes sont des électro-aimants qui se baissent et se soulèvent pour pouvoir lire
l'information ou l'écrire. Les têtes ne sont qu'à quelques microns de la surface, séparées par une
couche d'air provoquée par la rotation des disques qui crée un vent d'environ 250km/h ! De plus
ces têtes sont mobiles latéralement afin de pouvoir balayer l'ensemble de la surface du disque.
Un disque dur est au minimum composé de pistes numérotées et de secteurs numérotés, les
données sont stockées dans les secteurs.
Dans une pile de disques, on ajoute la notion de cylindre qui repère toutes les pistes portant
le même numéro sur chaque face de chacun des disques de la pile.
La mémoire vive, généralement appelée RAM (Random Access Memory, qui signifie
mémoire à accès aléatoire) ou encore mémoire volatile, est la mémoire principale du système,
c'est-à-dire qu'il s'agit d'un espace permettant de stocker de manière temporaire des données lors
de l'exécution d'un programme. Il s’agit d’une mémoire dans laquelle il est possible de lire et
d’écrire.
1. Ecran
On appelle écran (ou techniquement moniteur), l’unité d’affichage de l’ordinateur. Les
moniteurs sont la plupart du temps des tubes cathodiques (notés CRT, soit cathode ray tube ou en
français tube à rayonnement cathodique), c'est à dire un tube en verre sous vide dans lequel un
canon à électrons émet un flux d'électrons dirigés par un champ électrique vers un écran couvert
de petits éléments phosphorescents. L'écran est recouvert d'une fine couche d'éléments
phosphorescents, appelés luminophores, émettant de la lumière par excitation lorsque les électrons
viennent les heurter, ce qui constitue un point lumineux appelé pixel.
Un moniteur noir et blanc permet d'afficher des dégradés de couleur (niveaux de gris) en
variant l'intensité du rayon. Pour les moniteurs couleurs, trois faisceaux d'électrons (donc trois
cathodes) viennent chacun heurter un point d'une couleur spécifique : un rouge, un vert et un bleu
(RGB : Red, Green, Blue ) ou en français RVB Rouge, vert, bleu.
Les moniteurs à écrans plats (souvent notés FDP pour Flat panel display) se généralisent
de plus en plus dans la mesure où leur facteur d'encombrement et leur poids sont très inférieurs à
ceux des écrans CRT traditionnels. La technologie LCD (Liquid Crystal Display) est basée sur un
écran composé de deux plaques transparentes entre lesquelles est coincée une fine couche de
liquide contenant des molécules (cristaux) qui ont la propriété de s'orienter lorsqu'elles sont
soumises à du courant électrique. L'avantage majeur de ce type d'écran est son encombrement
réduit, d'où son utilisation sur les ordinateurs portables.
* La définition : c'est le nombre de points (pixel) que l'écran peut afficher, ce nombre de
points est généralement compris entre 640x480 (640 points en longueur, 480 points en
largeur) et 1600x1200, mais des résolutions supérieures sont techniquement possibles ;
* Le pas de masque (en anglais dot pitch) : C'est la distance qui sépare deux photophores ;
plus celle-ci est petite plus l'image est précise. Ainsi un pas de masque inférieur ou égal à
0,25 mm procurera un bon confort d'utilisation, tandis que les écrans possédant des pas de
masque supérieurs ou égaux à 0,28 mm seront à proscrire ;
* La résolution : Elle détermine le nombre de pixels par unité de surface, pixels par pouce
linéaire (en anglais DPI : Dots Per Inch, traduisez points par pouce). Une résolution de
300 dpi signifie 300 colonnes et 300 rangées de pixels sur un pouce carré ce qui donnerait
donc 90000 pixels sur un pouce carré ;
2. Imprimante
L'imprimante permet de faire une sortie imprimée (sur papier ou sur tout autre support)
des données de l'ordinateur. Il en existe plusieurs types dont les plus courants sont :
a. L’imprimante matricielle
Elle permet d'imprimer des documents grâce à un va-et-vient de la tête sur le papier. La tête
est constituée de petites aiguilles, poussées par des électro-aimants, qui viennent taper contre un
ruban de carbone situé entre la tête et le papier. Ce ruban de carbone défile pour qu'il y ait
continuellement de l'encre dessus. A chaque fin de ligne un rouleau fait tourner la feuille. Les
imprimantes matricielles les plus récentes sont équipées de têtes d'impression comportant 24
aiguilles, ce qui leur permet d'imprimer avec une résolution de 216 points par pouce.
La technologie du jet d'encre a été inventée par Canon, elle repose sur le principe simple
mais efficace qu'un fluide chauffé produit des bulles. Le chercheur qui a découvert ce principe
avait mis accidentellement en contact une seringue remplie d'encre et un fer à souder, cela créa
une bulle dans la seringue qui fit jaillir de l'encre de la seringue. Chaque buse produit une bulle
minuscule qui fait éjecter une gouttelette extrêmement fine. Le vide engendré par la baisse de
pression aspire une nouvelle goutte ...
Ainsi, l'imprimante Laser n'ayant pas de tête mécanique est beaucoup plus rapide et moins
bruyante.
La qualité d’une imprimante se définit par :
La résolution : exprimée en points par pouces (notés ppp ou dpi, pour dot per inch), la
résolution définit la finesse de l'impression.
NB : Il existe des périphériques d’entrée/sortie qui servent à stocker les données et les
programmes. Il s’agit entre autre : clef USB, CD, DVD, disque dur ou disquette, etc.
Imprimante matricielle
simultanée. Une nappe de 32 fils permet ainsi de transmettre 32 bits en parallèle. On parle ainsi de
« largeur de bus » pour désigner le nombre de bits qu'il peut transmettre simultanément. D'autre
part, la vitesse du bus est également définie par sa fréquence (exprimée en Hertz), c'est-à-dire le
nombre de paquets de données envoyés ou reçus par seconde. On parle de cycle pour désigner
chaque envoi ou réception de données.
On distingue généralement sur un ordinateur deux types de bus : le bus système et les bus
d’extension permettant de connecter des cartes d'extensions.
* Le bus d'extension (parfois appelé bus d'entrée/sortie) permet aux divers composants de
la carte mère (USB, série, parallèle, disques durs, lecteurs et graveurs de CD-ROM, etc.)
de communiquer entre eux mais il permet surtout l'ajout de nouveaux périphériques grâce
aux connecteurs d'extension (appelés slots) connectés sur le bus d'entrées-sorties. On parle
généralement de bridge (en français pont) pour désigner un élément d'interconnexion entre
deux bus.
Les ports sont des prises que l’on trouve à l’arrière de l’ordinateur et qui permettent de brancher
divers matériels. Les ports d'entrée-sortie sont des éléments matériels de l'ordinateur, permettant
au système de communiquer avec des éléments extérieurs, c'est-à-dire d'échanger des données,
d'où l'appellation d'interface d'entrée-sortie (notée parfois interface d'E/S).
Les ports série représentent les premières interfaces ayant permis aux ordinateurs
d'échanger des informations avec le "monde extérieur". Le terme série désigne un envoi de données
via un fil unique : les bits sont envoyés les uns à la suite des autres.
A l'origine les ports série permettaient uniquement d'envoyer des données, mais pas d'en
recevoir, c'est pourquoi des ports bidirectionnels ont été mis au point (ceux qui équipent les
ordinateurs actuels le sont) ; les ports séries bidirectionnels ont donc besoin de deux fils pour
effectuer la communication.
Les ports série sont généralement intégrés à la carte mère, c'est pourquoi des connecteurs
présents à l'arrière du boîtier, et reliés à la carte mère par une nappe de fils, permettent de connecter
un élément extérieur. Les connecteurs séries possèdent généralement 9 broches (connecteur DB9)
:
Les premiers ports parallèles bidirectionnels permettaient d'atteindre des débits (volume
d’informations qu’il est possible de traiter) de l'ordre de 2.4Mb/s. Toutefois des ports parallèles
améliorés ont été mis au point afin d'obtenir des débits plus élevés.
Les ports parallèles sont, comme les ports série, intégrés à la carte mère. Les connecteurs
DB25 permettent de connecter un élément extérieur (une imprimante par exemple).
Ainsi, il est possible de brancher les périphériques sans éteindre l’ordinateur (branchement
à chaud). Lors de la connexion du périphérique à l’hôte, ce dernier détecte l’ajout du nouvel
élément grâce au changement de la tension entre les fils D+ et D-. A ce moment, l’ordinateur envoie
un signal d’initialisation au périphérique, puis lui fournit du courant grâce aux fils GND et VBUS.
Le périphérique est alors alimenté en courant électrique et récupère temporairement l’adresse par
défaut (l’adresse 0). L’étape suivante consiste à lui fournir son adresse définitive (c’est la procédure
d’énumération). Pour cela, l’ordinateur interroge les périphériques déjà branchés pour connaître la
leur et en attribue une au nouveau, qui en retour s’identifie. L’hôte, disposant de toutes les
caractéristiques nécessaires est alors en mesure de charger le pilote approprié...
a. Bit
Bit signifie "binary digit", c'est-à-dire 0 et 1 en numérotation binaire. C'est la plus petite
unité d'information manipulable par une machine. On peut le représenter physiquement par une
impulsion électrique qui correspond à la valeur 1 ou une absence d’impulsion qui correspond à la
valeur 0. Avec un bit on peut avoir deux états différents : soit 1, soit 0. Un objet physique ayant
deux états représente un bit.
Avec 2 bits on peut avoir quatre états différents (2*2) :
0 0 1 1
0 1 0 1
a. L'addition en binaire
L'addition en binaire se fait avec les mêmes règles qu'en décimale : on commence à
additionner les bits de poids faible (les bits de droite) puis on a des retenues lorsque la somme de
deux bits de mêmes poids dépasse la valeur de l'unité la plus grande (dans le cas du binaire : 1) ;
cette retenue est reportée sur le bit de poids plus fort suivant...
1 1 0 12
+ 1 1 1 02
___ ___ ___ ___ ___
1 1 0 1 12
b. La multiplication en binaire
La multiplication se fait entre bits de même poids, avec le même système de retenue qu'en
décimale. La table de multiplication en binaire est très simple :
Par exemple : 11012 x 1102 = 10011102 (décimal 13 x 6 = 78)
1 1 0 12
X 1 1 02
0 1 1 0 1 0
0 1 1 0 1
____ ____ ____ ____ ____ ____ ____
1 0 0 1 1 1 02
c. La division en binaire
Par exemple : 1011002 / 1002 = 10112 (44 / 4 = 11)
0 1 1 0 02 1 0 02
1
- 0 0 1
1
1 1 0
- 0 1
1 1 0 1
-10 0
1 0 0
-10 0
d. La soustraction en binaire
1 0 1 12
- 1 1 12
1 0 02
1 :2 0 1
142 = 111100012
NB : la conversion d’un nombre binaire en son équivalent décimal passe par la multiplication de
chaque élément du nombre binaire par le chiffre 2 élevé à une puissance croissant par pas de 1
compté à partir de 0 en partant de la droite, puis on effectue la somme des résultats obtenus. Pour
la partie fractionnaire, on utilise les puissances négatives de 2.
Dans la mesure où 8=23, chaque chiffre octal est une forme condensée de l’équivalent en
3 bits tels que :
Octal O 1 2 3 4 5 6 7
192 :8 24 0
24 :8 3 0
3 :8 0 3 0,4375 = 348
12345 = 300718
P=12345,4375 en octal vaut 30071,348
NB : les conversions entre les nombres octal-binaire se font par remplacement de chaque chiffre
octal par son équivalent binaire ; et la conversion binaire-octal se fait en partageant le nombre
binaire en groupe de 3 bits (en partant de la virgule binaire et en ajoutant les zéros les cas échéants)
et en remplaçant chaque groupe par son équivalent octal.
Exemple : soit un nombre octal N=53642,378
5 36 4 2, 3 7
7 3 2 , 5 48
Voici un tableau récapitulatif :
Décimal 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
Hexadécimale 0 1 2 3 4 5 6 7 8 9 A B C D E F
Binaire 000 0001 0010 0011 0100 0101 0110 0111 1000 1001 1010 1011 1100 1101 1110 1111
On appelle « codage d'un nombre et/ou d‘un caractère » la façon selon laquelle il est
décrit sous forme binaire. La représentation des nombres sur un ordinateur est indispensable pour
que celui-ci puisse les stocker, les manipuler.
Toutefois le problème est qu'un nombre mathématique peut être infini (aussi grand que l'on
veut), mais la représentation d'un nombre dans un ordinateur doit être fait sur un nombre de bits
prédéfini. Il s'agit donc de prédéfinir un nombre de bits et la manière de les utiliser pour que
ceux-ci servent le plus efficacement possible à représenter l'entité.
Ainsi il serait idiot de coder un caractère sur 16 bits (65536 possibilités) alors qu'on en
utilise généralement moins de 256 ... actuellement, il existe :
La mémoire de l'ordinateur conserve toutes les données sous forme numérique. Il n'existe
pas de mhode pour stocker directement les caractères.
Chaque caractère possède donc son équivalent en code numérique : c'est le code ASCII (American
Standard Code for Information Interchange - traduisez " Code Americain Standard pour l'Echange
d'Informations"). Le code ASCII de base représentait les caractères sur 7 bits (c'est-à-dire 128
caractères possibles, de 0 à 127). Le code ASCII a été étendu à 8 bits (un octet) pour pouvoir coder
plus de caractères. Ce code attribue les valeurs 0 à 255 (donc codées sur 8 bits, soit 1 octet) aux
lettres majuscules et minuscules, aux chiffres, aux marques de ponctuation et aux autres symboles.
La table standard ASCII comporte 128 codes. Les 32 premiers codes ASCII
(000 à 031) sont des codes de commande et forment un ensemble particulier de caractères non
imprimables. Le second bloc de 32 codes ASCII (032 à 063) comporte de divers symboles de
ponctuation, des caractères spéciaux, et les symboles numériques. Le troisième groupe de 32 codes
ASCII (064 à 095) est affecté aux lettres alphabétiques majuscules et à six symboles spéciaux. Le
quatrième bloc de 32 codes (096 à 127) est réservé aux symboles alphabétiques minuscules, à cinq
symboles spéciaux supplémentaires et à un code de commande (DEL / effacer).
Dec. = Décimal Car. = Caractère ou Commande
Dec. Car. Binaire Dec. Car. Binaire Dec. Car. Binaire Dec. Car. Binaire
000 NULL 00000000 032 SP 00100000 064 @ 01000000 096 ` 01100000
001 SOX 00000001 033 ! 00100001 065 A 01000001 097 a 01100001
002 STX 00000010 034 " 00100010 066 B 01000010 098 b 01100010
003 ETX 00000011 035 # 00100011 067 C 01000011 099 c 01100011
004 EOT 00000100 036 $ 00100100 068 D 01000100 100 d 01100100
005 ENQ 00000101 037 % 00100101 069 E 01000101 101 e 01100101
006 ACK 00000110 038 & 00100110 070 F 01000110 102 f 01100110
007 BEL 00000111 039 ' 00100111 071 G 01000111 103 g 01100111
008 BS 00001000 040 ( 00101000 072 H 01001000 104 h 01101000
009 HT 00001001 041 ) 00101001 073 I 01001001 105 i 01101001
010 LF 00001010 042 * 00101010 074 J 01001010 106 j 01101010
011 VT 00001011 043 + 00101011 075 K 01001011 107 k 01101011
012 FF 00001100 044 , 00101100 076 L 01001100 108 l 01101100
013 CR 00001101 045 - 00101101 077 M 01001101 109 m 01101101
014 SO 00001110 046 . 00101110 078 N 01001110 110 n 01101110
015 SI 00001111 047 / 00101111 079 O 01001111 111 o 01101111
016 DLE 00010000 048 0 00110000 080 P 01010000 112 p 01110000
017 DC1 00010001 049 1 00110001 081 Q 01010001 113 q 01110001
Le code Baudot aussi appelé (code télégraphique ou code CCITT n° 2) : c’est un code de
longueur 5bits qui ne permet que 25 combinaisons, c’est-àdire 32 avec 2 caractères spéciaux
permettant l'inversion chiffres ou lettres. C'est un des plus anciens codes conçus uniquement
pour les réseaux télégraphiques commutés ou télex et utilisés dans le cadre de
l’informatique. Comprend 60 caractères.
Le Code EBCDIC (Extended Binary Coded Decimal Interchange Code) : est un Code de longueur
8bits, d’origine IBM (International Business Machine) utilisé dans les ordinateurs du constructeur.
Ce code autorise jusqu'à 256 caractères).
Ce code permet la représentation des lettres contrairement au code DCB qui ne pouvait
représenter que les chiffres, le code respecte les séquences croissantes alphabétiques A à Z et
numériques de 0—9. Du fait qu‘il tient compte des valeurs binaires de chaque caractère, ceci
permet de trier les informations de façon alphabétique et numérique croissante ou décroissante. Il
est alors possible de procéder à la comparaison des caractères en tenant compte de la table
EBCDIC qui permet la combinaison des caractères.
1. Le type entier : Ce type désigne l’ensemble des nombres entiers sans restriction a priori. Les
opérateurs de type entier sont l’addition (+), la soustraction (-), la multiplication (*), la division
entière ou back slash (\) et l’élévation à la puissance entière (**).
Sur un ordinateur donné, l’ensemble des entiers représentables est un intervalle [Min, Max]
généralement donné par la formule [-2 n-1, +2n-1-1]
2. Le type réel : Il désigne l’ensemble des nombres réels sans restriction a priori. Les opérateurs
de type réel sont l’addition (+), la soustraction (-), la multiplication (*), la division ou slash (/)
et l’élévation à la puissance (^).
Il faudra néanmoins garder à l’esprit que sur tout ordinateur manipulant les valeurs
réelles, 2 limitations sont toujours présentes. D’une part comme pour les entiers, il n’est pas
question de considérer les valeurs au delà d’un certain intervalle [Min, Max]. D’autre part, tout
intervalle sur l’axe des nombres réels si petit soit-il contient un nombre infini des valeurs (cf. les
valeurs entre 0 et 1).
Exemple : 25 / 5 + 16– 9 * 4 = – 15
3. Le type caractère (CAR) : Il désigne un ensemble des caractères convenus. Dans presque
tous les langages, on trouve les 26 lettres de l’alphabet, les 10 chiffres décimaux et un certain
nombre des caractères spéciaux. On notera entre apostrophe les constantes du type caractère.
4. Le type chaîne des caractères (STRING) : Ce type désigne des chaînes des caractères qu’il
est possible de former à partir des constantes du type caractère. Ces chaînes peuvent contenir
des chiffres, des lettres, des blancs, des caractères spéciaux et seront notés entre apostrophe.
5. Le type booléen ou logique : Il désigne l’ensemble des valeurs logiques c'est-à-dire des
constantes faux (false) ou vrai (true). Les opérateurs de ce type sont : OU (OR) logique
inclusif, OUX (XOR) logique exclusif, ET (AND) et NON (NOT) pour la négation logique.
Les opérations de relation (=, <, >, <=, >=, <>) permettent de construire des expressions
booléennes entre les valeurs de même type. Exemple 3>2.
Exemple : soient A, B, C et D les variables de type réel et J une variable de type booléen.
Considérant qu’au départ A=3, B=5 et C=2, quelles seraient les valeurs de chacune des variables à
l’issu des opérations ci-après : A=A ; B=B+A ; C=C–1 ; D=C ; A=4*2 ; B=B+4*3 ; C=C*3 ; D=D–
6/2 ; A=A^2 ; B=B–5 ; C=C+3.
Les circuits combinatoires les plus simples sont appelés portes logiques. Ils sont à la base
de la logique mathématique qu’effectue les opérations à l’intérieur du processeur, et plus
particulièrement à l’intérieur de l’UAL. C’est donc la base de tous les calculs internes du
processeur.
Le circuit OUX exclusif a deux entrées A et B et une sortie. Le courant ne passe que si A
ou B est passant mais pas les deux. La table de vérité de ce circuit est celle de l'opérateur +
Le circuit NON (NOT) a une entrée A et une sortie. Ce circuit est appelé inverseur (n’utilise qu’une
seule entrée). L’état de A est l’opposé de celui de la sortie. La table de vérité de ce circuit est celle
de l'opérateur
Etat de A Sortie
0 1
1 0
Le rôle principal d’un système d’exploitation est d’assurer la liaison entre les ressources,
l’utilisateur et les applications en créant une machine virtuelle et son interface.
- Il est le système principal car il permet à l'ordinateur et aux programmes de fonctionner par
lui ;
- Il est le système qui se lance en second après le firmware (programme d’amorcage ou
bootloader) exécuté lors de la mise en marche de l'ordinateur.
Le système d’exploitation offre une suite de services généraux facilitant la création de
logiciels applicatifs et sert d'intermédiaire entre ces logiciels et le matériel informatique. Un
système d'exploitation apporte commodité, efficacité et capacité d'évolution, permettant
d'introduire de nouvelles fonctions et du nouveau matériel sans remettre en cause les
logiciels.
Il existe sur le marché des dizaines de systèmes d'exploitation différents, très souvent livrés
avec l'appareil informatique. C'est le cas de Windows, MacOs, Irix, Symbian OS, Unix,
GNU/Linux (pour lequel il existe de nombreuses distributions) ou Android. Les fonctionnalités
offertes diffèrent d'un système à l'autre et sont typiquement en rapport avec l'exécution des
programmes, l'utilisation de la mémoire centrale ou des périphériques, la manipulation des
systèmes de fichiers, la communication, ou la détection et la gestion d'erreurs.
- Sécurité des données traitées : ce qui renvoies à l’intégrité, contrôle des accès, à la
confidentialité. Bref, l’absence totale du danger lors de l’exploitation de l’ordinateur.
- Fiabilité : satisfaction des utilisateurs, même dans les conditions hostiles et imprévues.
- Performance du système informatique : c’est le degré de satisfaction des utilisateurs en
termes chiffrés et des résultats obtenus.
2. La gestion de la mémoire
C’est lorsque le système d’exploitation permet de gérer l’espacemémoire alloué à chaque
application utilisée par l’utilisateur (en créant des mémoires virtuelles).
personne non autorisée. Ce type de système d'exploitation refusera toute manipulation non
autorisée.
4. La gestion de communication
Cette fonction est aussi appelée « gestion de l’interface », c’est lorsque le système
d’exploitation permet l’interaction entre l’utilisateur la machine au moyen d’un langage
informatique ou d’une interface qui peut être soit graphique, en mode commande ligne ou
tactile aussi appelée « spatiale ».
5. La gestion des périphériques
Cette fonction aussi appelée « gestion des entrées/sorties ». C’est lorsque le système
d’exploitation permet de gérer les accès aux ressources matérielles de l’ordinateur par
l’intermédiaires des pilotes.
Il existe cinq typologies (générations) de systèmes d'exploitation : par lots (batch), multi
programmés, en temps partagé, temps réel, et distribués.
Chacun des principes mis en œuvre dans une typologie se retrouve dans les générations
suivantes :
Ce sont des systèmes prévus pour l'exécution de grands calculs les uns après les autres,
avec peu d'intervention utilisateur. À partir de la génération des systèmes d'exploitation
multiprogrammés, plusieurs programmes sont exécutés simultanément par planification
(scheduling). Dans ces systèmes d'exploitation multitâches, plusieurs programmes résident dans
la mémoire centrale et le système d'exploitation suspend régulièrement l'exécution d'un programme
pour continuer l'exécution d'un autre.
Les systèmes d'exploitation basés sur le traitement par « lots » (suites d'instructions et de
données dans un ensemble de cartes perforées) sont apparus dans les années 1950. Un
programme (avec ses données) n'est rien d'autre qu'une pile de cartes avec des indicateurs de début
et de fin de lot. L'exécution d'un programme consiste à demander à un opérateur de placer la
pile de cartes dans le lecteur, puis l'opérateur lance la lecture séquentielle des cartes. Le
processeur central est au repos, durant les manipulations de l'opérateur.
Un batch est un lot de travaux à effectuer. L'opérateur compose un batch en posant les unes
sur les autres les piles de cartes des différents programmes (avec leurs données) demandés par les
utilisateurs. Il forme une grande pile de cartes séparées par des marque-pages, en général une carte
de couleur particulière, qu'il place ensuite dans le lecteur. Le regroupement de plusieurs
programmes en un batch diminue les interventions de l'opérateur.
Dans un système basé sur les batchs, le cœur du système d'exploitation est un
programme moniteur qui réside continuellement en mémoire centrale et permet à
l'opérateur de demander le début ou l'arrêt de l'exécution du lot. À la fin de l'exécution de
chaque tâche du lot, le moniteur effectue des travaux de nettoyage, puis lance l'exécution de la
tâche suivante. Ainsi, l'opérateur intervient uniquement au début et à la fin du lot.
Avec ces systèmes d'exploitation il n'y a pas de concurrence entre les différentes tâches,
la mise en œuvre de l'utilisation du processeur, de la mémoire et des périphériques est triviale mais
loin d’être optimale. … Les systèmes d'exploitation batch sont adaptés à des applications
nécessitant de très gros calculs mais peu d'implication de l'utilisateur : météo, statistiques,
impôts... Les utilisateurs n'attendent pas immédiatement de résultats. Ils soumettent les
demandes, puis reviennent ultérieurement collecter les résultats.
Les systèmes d'exploitation multi-programmés sont apparus dans les années 1960. Le but
recherché par de tels systèmes est d'augmenter l'efficacité de l'utilisation du processeur et des
périphériques en utilisant la possibilité de les faire fonctionner en parallèle. Plusieurs
programmes sont placés en mémoire centrale, et lorsque le programme en cours d'exécution attend
un résultat de la part d'un périphérique, le système d'exploitation ordonne au processeur d'exécuter
un autre programme.
Dans les systèmes d'exploitation multi-programmés, l'utilisation du processeur est
partagée par planification (scheduling) : à chaque utilisation d'un périphérique, le système
d'exploitation choisit quel programme va être exécuté. Ce choix se fait sur la base de priorités.
Le système d'exploitation comporte un mécanisme de protection évitant ainsi que le programme
en cours d'exécution ne lise ou n'écrive dans la mémoire attribuée à un autre programme. Les
programmes sont exécutés dans un mode non-privilégié, dans lequel l'exécution de certaines
instructions est interdite.
Les systèmes multi-programmés nécessitent un ordinateur et des périphériques mettant
en œuvre la technique du DMA (direct memory access). Selon celle-ci, le processeur ordonne à
un périphérique d'effectuer une opération, le résultat de l'opération est ensuite placé en mémoire
centrale par le périphérique tandis que le processeur exécute d'autres instructions. Dans les
systèmes multi-programmés, tout comme pour les systèmes batch, l'utilisateur n'a que peu
de contact avec les programmes et de maigres possibilités d'intervention.
Les systèmes d'exploitation en temps partagé sont apparus dans les années 1970. Ils sont
utilisés dans des dispositifs interactifs où plusieurs utilisateurs sont simultanément en dialogue avec
l'ordinateur. Un système d'exploitation en temps partagé est destiné à répondre rapidement aux
demandes de l'utilisateur, et donner à chaque utilisateur l'impression qu'il est le seul à utiliser
l'ordinateur.
Un système en temps partagé met en œuvre des techniques sophistiquées de
multiprogrammation en vue de permettre l'utilisation interactive de l'ordinateur par plusieurs
utilisateurs et plusieurs programmes simultanément.
L'arrivée, en 1970, de cette nouvelle génération de systèmes d'exploitation résulte d'une
forte demande des consommateurs, et de la baisse du prix du matériel informatique ayant rendu
possible sa réalisation. Dans les systèmes d'exploitation en temps partagé la notion de batch n'a
que peu d'importance. Ces systèmes mettent en œuvre de nouveaux mécanismes d'utilisation
du processeur et de la mémoire, qui leur permet de répondre rapidement à des demandes
provenant simultanément d'un grand nombre d'utilisateurs.
Dans ces systèmes, tout comme dans la génération précédente, l'utilisation du processeur
est planifiée. Cependant, contrairement aux systèmes de la génération précédente, dans les
systèmes en temps partagé chaque programme est exécuté durant une tranche de temps
déterminé, puis le système d'exploitation bascule sur l'exécution d'un autre programme, ce
qui évite qu'un programme monopolise l'utilisation du processeur au service d'un utilisateur,
entraînant des retards pour les autres utilisateurs.
Les systèmes d'exploitation temps-réel sont apparus au milieu des années 1970,
notamment chez Hewlett-Packard (HP). Ils sont destinés aux dispositifs devant non seulement
donner des résultats corrects, mais les donner dans un délai déterminé.
Ces systèmes d'exploitation sont souvent utilisés par des ordinateurs reliés à un appareil
externe (pilotes automatiques, robots industriels, applications vidéo et audio) pour lequel un retard
de réponse de l'ordinateur entraînerait un échec de l'appareil.
Dans ces systèmes d'exploitation, l'accent est mis sur la durée nécessaire pour effectuer
chaque opération, pour répondre aux demandes rapidement en vue de satisfaire aux
contraintes de temps du système dans lequel il est utilisé.
Certains services offerts par ces systèmes d'exploitation sont réalisés comme des logiciels
applicatifs, et sont exécutés en concurrence avec ceux-ci.
Un système d'exploitation temps réel autorise un contact direct entre les logiciels
applicatifs et les périphériques. Dans certains systèmes temps réel les ressources sont réservées,
évitant ainsi les ralentissements que provoqueraient les réservations à la volée, et garantissant
que les ressources sont continuellement disponibles.
Les systèmes d'exploitation temps-réel évitent d'utiliser la technique du swap en raison
des risques de dépassement des délais. On peut citer les systèmes d’exploitation tels que : Symbian
OS, PalmOS ? RTX, Windows, Embedded Linux, etc.
La baisse des prix du matériel informatique a permis, dans les années 1990, la création de
systèmes informatiques composés de plusieurs ordinateurs, et donc plusieurs processeurs,
plusieurs mémoires, et de nombreux périphériques.
Un système distribué permet le partage des ressources entre les ordinateurs. Un utilisateur
d'un ordinateur bon marché peut se servir de ressources coûteuses existant sur un autre ordinateur.
Un système distribué dirige l'utilisation des ressources de plusieurs ordinateurs à la fois.
Il utilise les capacités d'un réseau informatique, contrôle un groupe de machines, et les fait
apparaître comme une machine unique, virtuelle, de très grande capacité.
Comme on le voit, l’informatique peut permettre de commettre un délit mais aussi être
l’objet d’un délit. C’est le cas de virus informatiques qui sont des programmes destinés à nuire ou
à satisfaire des programmeurs facétieux (qui est lié au plaisir).
Un virus est un petit programme informatique situé dans le corps d'un autre, qui, lorsqu'on
l'exécute, se charge en mémoire et exécute les instructions que son auteur a programmées. La
définition d'un virus pourrait être la suivante : « Tout programme d'ordinateur capable d'infecter
un autre programme d'ordinateur en le modifiant de façon à ce qu'il puisse à son tour se reproduire.
»
Le véritable nom donné aux virus est CPA soit Code Auto-Propageable, mais par analogie
avec le domaine médical, le nom de "virus" leur a été donné.
Les virus résidents (appelés TSR en anglais pour Terminate and stay resident) se chargent
dans la mémoire vive de l'ordinateur afin d'infecter les fichiers exécutables lancés par l'utilisateur.
Les virus non résidents infectent les programmes présents sur le disque dur dès leur exécution.
Le champ d'application des virus va de la simple balle de ping-pong qui traverse l'écran au
virus destructeur de données. Ce dernier étant la forme de virus la plus dangereuse. Ainsi, étant
donné qu'il existe une vaste gamme de virus ayant des actions aussi diverses que variées, les virus
ne sont pas classés selon leurs dégâts mais selon leur mode de propagation et d'infection.
En réalité, la plupart des virus sont des clones, ou plus exactement des «virus mutants»,
c'est-à-dire des virus ayant été réécrits par d'autres utilisateurs afin d'en modifier leur comportement
ou leur signature. Le fait qu'il existe plusieurs versions (on parle de variantes) d'un même virus, ce
qui le rend d'autant plus difficile à repérer dans la mesure où les éditeurs d'antivirus doivent ajouter
ces nouvelles signatures à leurs bases de données.
Dans la mesure où les antivirus détectent notamment les virus grâce à leur signature (la
succession de bits qui les identifie), certains créateurs de virus ont pensé à leur donner la possibilité
de modifier automatiquement leur apparence, tel un caméléon, en dotant les virus de fonction de
chiffrement et de déchiffrement de leur signature, de façon à ce que seuls ces virus soient capables
de reconnaître leur propre signature. Ce type de virus est appelé «virus polymorphe» (mot
provenant du grec signifiant «qui peut prendre plusieurs formes»).
Avec la multiplication des programmes utilisant des macros, Microsoft a mis au point un
langage de script commun pouvant être inséré dans la plupart des documents pouvant contenir des
macros, il s'agit de VBScript, un sous-ensemble de Visual Basic. Ces virus arrivent actuellement à
infecter les macros des documents Microsoft Office, c'est-à-dire qu'un tel virus peut être situé à
l'intérieur d'un banal document Word ou Excel.
d) Les vers
La plus célèbre anecdote à propos des vers date de 1988. Un étudiant (Robert T. Morris, de
Cornell University) avait fabriqué un programme capable de se propager sur un réseau, il le lança
et, 8 heures après l'avoir lâché, celui-ci avait déjà infecté plusieurs milliers d'ordinateurs. C'est ainsi
que de nombreux ordinateurs sont tombés en pannes en quelques heures car le "ver" (car c'est bien
d'un ver dont il s'agissait) se reproduisait trop vite pour qu'il puisse être effacé sur le réseau. De
plus, tous ces vers ont créé une saturation au niveau de la bande passante, ce qui a obligé la NSA
à arrêter les connexions pendant une journée.
Les vers actuels se propagent principalement grâce à la messagerie, grâce à des fichiers
attachés contenant des instructions permettant de récupérer l'ensemble des adresses de courrier
contenues dans le carnet d'adresse et en envoyant des copies d'eux-mêmes à tous ces destinataires.
Il est simple de se protéger d'une infection par ver. La meilleure méthode consiste à ne pas
ouvrir "à l'aveugle" les fichiers qui vous sont envoyés en fichier attachés.
e) Cheval de Troie
Un cheval de Troie (informatique) est donc un programme caché dans un autre qui exécute
des commandes cachées, et qui généralement donne un accès à la machine sur laquelle il est exécuté
en ouvrant une porte dérobée (en anglais backdoor), par extension il est parfois nommé troyen par
analogie avec les habitants de la ville de Troie.
Un cheval de Troie peut par exemple voler des mots de passe ; copier des données sensibles
; exécuter toute autre action nuisible ; etc.
Une infection par un cheval de Troie fait généralement suite à l'ouverture d'un fichier
contaminé contenant le cheval de Troie et se traduit par les symptômes suivants : activité anormale
du modem ou de la carte réseau (des données sont chargées en l'absence d'activité de la part de
l'utilisateur) ; des réactions curieuses de la souris ; des ouvertures impromptues de programmes ;
des plantages à répétition ; etc.
Sont appelés bombes logiques les dispositifs programmés dont le déclenchement s'effectue
à un moment déterminé en exploitant la date du système, le lancement d'une commande, ou
n'importe quel appel au système.
Ainsi ce type de virus est capable de s'activer à un moment précis sur un grand nombre de
machines (on parle alors de bombe à retardement ou de bombe temporelle), par exemple le jour de
la Saint Valentin, ou la date anniversaire d'un événement majeur : la bombe logique Tchernobyl
s'est activée le 26 avril 1999, jour du 13ème anniversaire de la catastrophe nucléaire ...
Les bombes logiques sont généralement utilisées dans le but de créer un déni (refus) de
service en saturant les connexions réseau d'un site, d'un service en ligne ou d'une entreprise.
NB : D’autres virus les plus connus : Ping Pong, Nouvelle Jérusalem, Harmaggedon,
I Love You,…et d’autres encore apparaissent chaque jour (cf. Flu Burung, Raila Odinga, Xalan
pour le téléphone,…)
Il existe plusieurs sortes d’antivirus dont les plus connus sont Norton Antivirus, Panda,
Avira, Avast, AVG, McAfee,....Le choix d’un anti-virus reste une décision personnelle, en fonction
des goûts de chacun.
Lorsqu’on travaille avec l’ordinateur, l’on peut faire confiance dans l’exactitude des
résultats qu’il fournit. A l’inverse de l’homme, l’ordinateur ne se trompe pas dans l’exécution des
opérations.
Les erreurs d’exploitation. Lorsque les opérateurs lancent l’exécution d’un programme, il est
possible qu’ils commettent des erreurs qui peuvent être des erreurs de fichier. Alors les résultats
sont faux.
Les erreurs de données entrées. Une donnée introduite dans l’ordinateur peut être fausse à la suite
d’une opération de saisie mal faite, fausse parce que observée au départ avec erreur, fausse
intentionnellement à la suite d’une malveillance.
Toutes ces erreurs peuvent être regroupées en 2 grandes catégories si l’on se place du point
de vue conséquence : le bogue (erreur de programmation ou de logique qui amène à un
fonctionnement défectueux ou à des résultats incorrects) et le crash (arrêt brutal et inopiné du
fonctionnement d’un programme ou d’une unité de disque).
météorologiques…
VI.1. Généralités
Lorsqu’on parle de l’architecture, un accent est porté sur les éléments matériels
physiquement palpables qui constituent l’ordinateur et que l’on appelle hardware. Pour donner
quelques utilités à ce matériel, il faut associer les éléments immatériels souvent désignés sous le
vocable de programme ou logiciel.
Un programme informatique est une liste d’instructions qui permettent l’exécution d’un
travail sur une machine écrite sous une forme conventionnelle. Le programme est donc une liste
d’instructions, de données ou d’expressions demandées à un ordinateur.
VI.2. Classification
Il existe une grande variété des logiciels utilisés pour obtenir des résultats selon la nature
des tâches demandées, l’objectif visé et la procédure sollicitée. Deux principaux critères servent
de base à cette catégorisation.
Ce sont des programmes conçus pour augmenter le pouvoir de la machine. Ils sont
considérés comme programmes sans lesquels l’ordinateur ne peut fonctionner, d’où ils sont livrés
en même temps que le matériel. Ils comprennent :
La gamme des activités du système d’exploitation concerne entre autre les activités
suivantes : créer de nouveaux fichiers, supprimer les anciens ou les renommer ; initialiser les
disquettes (les préparer pour les rendre utilisables par l’ordinateur) ; réorganiser le stockage des
informations sur disque ; contrôler le fonctionnement des périphériques ; …
• Interface par ligne de commande : l’utilisateur tape au clavier les commandes, qui sont alors
transmises au programme qui réagit en conséquence. Sur les machines gérées par le système
d’exploitation MS-DOS, la ligne de commande est symbolisée par l’invite A:\> ou C:\>.
• Interface par menu : les menus sont des listes d’options parmi lesquelles l’utilisateur choisit
celle correspondant à l’action qu’il désire effectuer. Selon l’interface par menu, les commandes
sont envoyées au programme par la frappe d’une lettre, d’un curseur ou par un clic de souris.
• Interface graphique : l’utilisateur sélectionne des commandes ou lance des programmes en
pointant à l’écran sur des icônes (petites images représentant un objet manipulable à l’écran,
dont l’aspect correspond à sa fonction) ou des menus, généralement à l’aide de la souris.
freeware, à usage libre et sans droits à payer, et le shareware dont l’usage régulier est assujetti au
paiement d’une somme modique à son créateur.
VI.3. Progiciels
Un programme, est mémorisé sur un support informatique. Il est beaucoup plus facile de le
reproduire que de le créer et le mettre au point. Si un logiciel est vendu comme un produit, il peut
être commercialisé à des prix très bas, tout en permettant à son producteur de faire un bon bénéfice.
De cette idée simple est né le concept de progiciel, produit logiciel, logiciel diffusé comme un
produit.
Sur le marché, on peut se procurer ces progiciels, mais on doit tenir compte du fait qu’il
existe différentes familles d’ordinateurs et que tous les progiciels ne tournent pas sur toutes les
familles. En gros, sur le marché des micro-ordinateurs, deux grandes familles existent : le
MACINTOSH (qui tourne avec un microprocesseur Motorola) et les compatibles IBM ou IBM PC
(qui tournent avec un microprocesseur de la série INTEL).
Selon les types de machines, on peut trouver : Visicalc, 20/20, Planperfect, Wingz,
Supercalc, Lotus 1 2 3, Quattropro, MS Excel, Multiplan, Staroffice…
Les plus connus des applications graphiques sont : Cricket-graph, mac Draw, Mac paint,
Mac Draft, Full Paint, Harvard graphics, Corel Draw, Paint Brush, MS Chart,..
5. les intégrés
Ce sont des programmes comprenant plusieurs applications conçues pour travailler de façon
conjointe et capables de partager des informations. Ils réunissent souvent un texteur, un tableur,
une base de données et parfois un grapheur et un module de communication.
Les meilleurs intégrés sur le marché sont : Framework, Symphony, Open Office, Claris
Work, Jazz, MS Works,…
NOTE : les didacticiels sont des logiciels éducatifs incluant des simulateurs (permettant par
exemple de réaliser certaines expériences scientifiques sur écran), les tutoriels sont des leçons
assistées par ordinateur.
Cependant les origines exactes du terme restent à déterminer. Toutefois, c'est le 1 er janvier
1983 que le nom « Internet », déjà en usage pour désigner l'ensemble du réseau ARPANAET et
de plusieurs réseaux informatiques, devient officiel.
Ainsi, l’Internet est un réseau de communication international qui permet tant aux entreprises
qu’aux particuliers de communiquer entre eux grâce à un ensemble de réseaux et d’ordinateurs.
L’architecture du réseau est dite » Clientserveur » c’est-à-dire que les ordinateurs envoient leurs
données (les serveurs) vers d’autres ordinateurs équipés de logiciel client ou navigateur (browser).
- En 1969, est créé le réseau Arpanet, ancêtre de l’Internet actuel, était un réseau financé
par le département américain de la défense, et une de ses agences : « Advenced Reserch
Projets Agency ». Il s’agit d’un réseau reliant les centres de recherche de l’armée et les
universités américaines l’ARPA a développé le concept de l’Internet selon le principe
précédent (nœuds interconnectés), puis adapta en 1972 le protocole nommé TCP/IP
(Transport control protocol / Internet prptocol) : nouvelle technologie de commutation
de données par paquets et nouveau protocole d’échange. Tel protocole est né en réponse au
défi de trouver un langage commun à tous les réseaux existant à l’échelle mondiale, et qui
fut l’objet de la conférence internationale qui eut lieu en 1972, à Washington.
- En 1974, c’est la naissance de l’Internet dans sa forme actuelle, aussi appelé « l’Internet
privé ». Le réseau se développe alors rapidement, surtout au Etats-Unis, auprès des centres
scientifiques et universitaires, et il a été financé par la National Scientific fondations, une
agence du gouvernement américain.
- En 1980, il est décidé que la protocole TCP/IP ne serait plus un secret militaire et
tomberait donc dans le domaine public. A partir de ce moment n’importe qui pouvait
- En 1990, on voit l’apparition du premier navigateur web (browser), mêlant texte et image.
Cette même année, la National Science Foundation (NSF) mandate une compagnie pour
enregistrer « les noms de domaine ». À la fin des années 1990, des sociétés pionnières
comme Yahoo, Amazon, eBay, Netscape et Aol, sont devenues célèbres.
Les protocoles logiciels utilisés sur internet sont les conventions ou langage de
communication structurant les échanges d'informations nécessaires au transfert des contenus
applicatifs pour l'usager final. Ils permettent notamment d'identifier les interfaces (donc les
machines), de s'assurer de la réception des données envoyées, et de l'interopérabilité.
Un protocole est un ensemble de règles qui définissent un langage afin de faire
communiquer plusieurs ordinateurs. Ils sont définis par des normes ouvertes en informatique.
1 C'est en mars 1993 qu'est inventé Mosaic, le premier des navigateurs grand public, doté d'une
interface graphique. Son auteur est Marc Andreessen, étudiant à l'Université de l'Illinois, et
assistant au NCSA (National Center for Supercomputing Applications).
Chaque protocole a des fonctions propres et, ensemble, ils fournissent un éventail de moyens
permettant de répondre à la multiplicité et à la diversité des besoins sur internet.
Les principaux sont les suivants, classés selon leur couche (IP, TCP et UDP) ; couches
applicatives :
- IP (Internet Protocol) aussi appelé IPv4 ou IPv6 : protocole réseau qui définit le mode
d'échange élémentaire entre les ordinateurs participant au réseau en leur donnant une adresse
unique sur celui-ci. Cependant, en raison de l'épuisement des adresses IPv4, une nouvelle
norme voit le jour ; nommée IPv6, elle permet d'accueillir un plus grand nombre d'utilisateurs.
- HTTP (HyperText Transfer Protocol) : protocole mis en œuvre pour le chargement des pages
web.
- HTTPS : pendant du HTTP pour la navigation en mode sécurisé.
- FTP (File Transfer Protocol) : protocole utilisé pour le transfert de fichiers sur Internet.
- SFTP (SSH File Transfer Protocol) : protocole bâtît sur SSH pour le transfert de fichiers
sécurisé.
- SMTP (Simple Mail Transfer Protocol) : mode d'échange du courrier électronique en envoi.
- POP3 (Post Office Protocol version 3) : mode d'échange du courrier électronique en réception.
- IMAP (Internet Message Access Protocol) : un autre mode d'échange de courrier électronique.
- IRC (Internet Relay Chat) : protocole de discussion instantanée.
- NNTP (Network News Transfer Protocol) : protocole de transfert de message utilisé par les
forums de discussion Usenet.
- UDP (User Datagramme Protocol) : permet de communiquer, de façon non fiable mais légère,
par petits datagrammes.
Rappelons qu’un réseau Internet est une interconnexion des ordinateurs dans le monde
permettant le travail collaboratif et/ou les échanges entre personnes géographiquement séparées.
Ceci étant posé, l’Internet a été développé pour plusieurs raisons à savoir :
- Le partage des ressources : C’est un procédé qui permet la segmentation d’un système
informatique pouvant être employée par différents utilisateurs. Autrement dit, C’est rendre
accessible à une communauté d'utilisateurs des programmes, des données et des équipements
informatiques (i.e. un ensemble de ressources) indépendamment de leur localisation.
- L’implantation simple : C’est une solution générale qui permet d’installer aisément et sans
aucune difficulté les équipements informatiques selon leurs différentes configurations.
- Une mise à jour aisée : C’est un procédé qui permet aux réseaux informatiques d’évoluer et
d’être modifiée selon les besoins des utilisateurs et des nouveaux équipements.
Les avantages offerts par l’Internet sont multiples et vont, en fait bien au-delà des
privilèges quotidiens de l’informatique. Le problème de la communication entre les personnes et
les services sont capital pour les entreprises depuis toujours, désormais l’adoption du travail sur
2 En informatique par exemple, la fiabilité s’exprime par une durée qui correspond au
temps moyen de bon fonctionnement d’un équipement.
l’Internet est capable de lui apporter une réponse définitive. Ainsi, parmi les principaux avantages
de l’Internet, on peut citer :
- Une productivité accrue : Un réseau Internet permet de donner à toute activité humaine, une
vitesse d’exécution assez importante de la tâche ; l’exactitude et la fiabilité des outils
informatiques entrainent des économies du temps et d’argent à tous les niveaux de l’activité
humaine, particulièrement l’allégement des tâches à effectuer. Tout de même, il implique une
communication permettant aux équipes professionnelles de se consacrer foncièrement à leurs
missions. Beaucoup d’obstacles qui entravaient jusqu’alors la productivité tombent d’eux-
mêmes, et les énergies de l’entreprise peuvent alors se concentrer sur les véritables objectifs.
Succinct, Les réseaux informatiques créent une chaine de collaboration entre les équipes.
- L’accès et la connexion à distance : Avec un réseau Internet, le téléphone n’est plus le seul
moyen de contact avec les autres de partout dans le monde. Il permet sitôt de faire des partages
de fichiers et des ressources et y avoir accès même à distance. Il est tout aussi possible, pour
qui le veut, de faire des mises à jour de tous ces fichiers conservés. Cela ouvre par exemple,
un accès aux différentes sociétés et clients qui souhaitent avoir des renseignements concernant
leurs activités. Désormais un professionnel peut se connecter et trouver les informations ou
les contacts dont il a besoin.
- Une prise sur l’avenir : Les économies mondiales sont de plus en plus dépendantes de
l’informatique. Nous ne pouvons ignorer que le réseau Internet est devenu aujourd’hui le
moteur de la croissance de l’activiste mondiale. L’Internet devient de plus en plus la figure
parfaite qui intègre les nouvelles technologies au fur et à mesure de leur apparition, ils
évoluent et s’adaptent aux réalités de toute activité humaine, y compris celle de l’entreprise.
- Un investissement efficace : La mise en réseau d’un plus grand nombre de nos équipements
(tels que ordinateurs, imprimantes, scanners, systèmes de stockage et de sauvegarde des
données, télécopieurs et système téléphonique), nous ouvre l’accès à l’ère numérique en nous
permettant de connecter à d’autres utilisateurs ainsi qu’à maintes convenances. Elle permet
aussi de profiter des versions réseaux des logiciels, toujours moins coûteuses que leurs
équivalents poste à poste.
Les conséquences fâcheuses et les nombreux risques que comportent l’Internet peuvent
désavantageusement contribuer au mauvais fonctionnement de ces derniers et par conséquent
altérer la qualité de son service ainsi son perfectionnement. Voici quelques-uns des inconvénients
majeurs de l’Internet :
- Problèmes de sécurité : L'un des inconvénients majeurs de l’Internet est les problèmes de
sécurité impliqués. Si un ordinateur est connecté sur un réseau, il serait plus vulnérable à toutes
sortes d’attaques. De même, un pirate informatique peut obtenir tous les renseignements qu’il
désire ou alors un accès non autorisé à l'aide de différents outils. En cas de grandes
organisations, divers logiciels de sécurité réseau sont utilisés pour empêcher le vol de données
confidentielles et les classifiées.
VI.7. Le WWW
Le Web n’est qu’une des applications d’Internet, distincte d’autres applications comme
le courrier électronique, la messagerie instantanée et le partage des fichiers. Inventé en 1990
par TIM BERNERS-LEE suivi de ROBERT CAILLIAU, c'est le Web qui a rendu les médias
grand public attentifs à Internet. Depuis, le Web est fréquemment identifié par le mot Internet ; en
particulier, le mot « Toile » est souvent utilisé dans les textes non techniques sans qu'il soit clair
si l'auteur désigne le Web ou Internet.
Un service web est une technologie client-serveur fondée sur les protocoles du web et
tache offerte, on peut alors citer :
- Un annuaire web : est un site web répertoriant d’autres sites web sur la toile.
- Un moteur de recherche : est un site permettant de rechercher des mots dans l’ensemble
des sites web.
- Un portail web : est un site web tentant de regrouper la plus large palette d’informations
et de services possibles dans un site web. Certains portails sont thématiques.
- Un agrégateur web : est un site web qui sélectionne, organise et, éventuellement, valide
des pages concernant un sujet précis, et les met en forme de façon ergonomique ou
attractive.
- Un blog : est une partie de site web où sont régulièrement publiés des articles personnels.
- Un Webmail : est site web fournissant les fonctionnalités d'un client de messagerie de
courrier électronique.
- Un wiki : est un site web éditable par les utilisateurs.