0% ont trouvé ce document utile (0 vote)
153 vues39 pages

Support Cours Architecture+Td

Transféré par

dariusndjomo05
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
153 vues39 pages

Support Cours Architecture+Td

Transféré par

dariusndjomo05
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Support de cours : Architecture des ordinateurs

DESCRIPTIF DU COURS

BUT

Familiariser les étudiants avec les constituants phares des ordinateurs à savoir : le
microprocesseur, les mémoires, les bus, le disque dur, les chipsets etc…
Donner un aperçu général sur l’architecture des nouvelles machines.
A la fin de ce cours, l’étudiant sera capable :
- De maitriser l’architecture de base d’un ordinateur ;
- De bien comprendre tous ce qui tourne autour des mémoires informatiques ;
- De maitriser parfaitement la technologie des microprocesseurs ;
- De maitriser les notions du bus et de chipset ;
- D’être capable d’expliquer le mécanisme d’échanges des données entre les mémoires
et le microprocesseur ;
- De maitriser les critères de choix d’un ordinateur performant sur le marché.

1
Support de cours : Architecture des ordinateurs

CHAPITRE 0 : GENERALITES

I. INTRODUCTION

L'informatique, contraction d'information et automatique, est la science du traitement


de l’information. Apparue au milieu du 20ème siècle, elle a connu une évolution extrêmement
rapide. A sa motivation initiale qui était de faciliter et d'accélérer le calcul, se sont ajoutées de
nombreuses fonctionnalités, comme l'automatisation, le contrôle et la commande de
processus, la communication ou le partage de l'information.
Le cours d’architecture des systèmes à microprocesseurs expose les principes de base du
traitement programmé de l’information. La mise en œuvre de ces systèmes s’appuie sur deux
modes de réalisation distincts, le matériel et le logiciel. Le matériel (hardware) correspond à
l’aspect concret du système : unité centrale, mémoire, organes d’entrées-sorties, etc… Le
logiciel (software) correspond à un ensemble d’instructions, appelé programme, qui sont
contenues dans les différentes mémoires du système et qui définissent les actions effectuées
par le matériel.

II. QU’ENTEND-T-ON PAR ARCHITECTURE ?

L'architecture d'un système à microprocesseur représente l’organisation de ses


différentes unités et de leurs interconnexions. Le choix d'une architecture est toujours le
résultat d'un compromis :
- entre performances et coûts
- entre efficacité et facilité de construction
- entre performances d'ensemble et facilité de programmation
- etc. …

III. ARCHITECTURE DE BASE : MODELE DE VON NEUMANN


Pour traiter une information, un microprocesseur seul ne suffit pas, il faut l’insérer au
sein d’un système minimum de traitement programmé de l’information. John Von Neumann
est à l'origine d'un modèle de machine universelle de traitement programmé de l’information
(1946). Cette architecture sert de base à la plupart des systèmes à microprocesseur actuel.
Elle est composée des éléments
Suivants :
 Une unité centrale
 Une mémoire principale
 Des interfaces d’entrées/sorties

Les différents organes du système sont reliés par des voies de communication appelées bus.

Mémoire
Unité centrale Interface E/S
principale

BUS 2
Support de cours : Architecture des ordinateurs

1-L’unité centrale

Elle est composée par le microprocesseur qui est chargé d’interpréter et d’exécuter
les instructions d’un programme, de lire ou de sauvegarder les résultats dans la mémoire et
de communiquer avec les unités d’échange. Toutes les activités du microprocesseur sont
cadencées par une horloge.
On caractérise le microprocesseur par :
 sa fréquence d’horloge : en MHz ou GHz
 le nombre d’instructions par secondes qu’il est capable d’exécuter : en MIPS
 la taille des données qu’il est capable de traiter : en bits

2-La mémoire principale

Elle contient les instructions du ou des programmes en cours d’exécution et les


données associées à ce programme. Physiquement, elle se décompose souvent en :
 une mémoire morte (ROM = Read Only Memory) chargée de stocker le
programme. C’est une mémoire à lecture seule.
 une mémoire vive (RAM = Random Access Memory) chargée de stocker les
données intermédiaires ou les résultats de calculs. On peut lire ou écrire des
données dedans, ces données sont perdues à la mise hors tension.

Remarque :
Les disques durs, disquettes, CDROM, etc… sont des périphériques de stockage et sont
considérés comme des mémoires secondaires.

3- Les interfaces d’entrées/sorties

Elles permettent d’assurer la communication entre le microprocesseur et les


périphériques (Capteur, clavier, moniteur ou afficheur, imprimante, modem, etc…).

4-Les bus

Un bus est un ensemble de fils qui assure la transmission du même type


d’information. On retrouve trois types de bus véhiculant des informations en parallèle dans
un système de traitement programmé de l’information :

- un bus de données : bidirectionnel qui assure le transfert des informations entre le


microprocesseur et son environnement, et inversement. Son nombre de lignes est égal à la
capacité de traitement du microprocesseur.
- un bus d'adresses: unidirectionnel qui permet la sélection des informations à traiter dans
un espace mémoire (ou espace adressable) qui peut avoir 2n emplacements, avec n =
nombre de conducteurs du bus d'adresses.
- un bus de commande: constitué par quelques conducteurs qui assurent la
synchronisation des flux d'informations sur les bus des données et des adresses.

5- Décodage d’adresses

La multiplication des périphériques autour du microprocesseur oblige la présence


d’un décodeur d’adresse chargé d’aiguiller les données présentes sur le bus de données.
En effet, le microprocesseur peut communiquer avec les différentes mémoires et les
différents boîtier d’interface. Ceux-ci sont tous reliés sur le même bus de données et afin
d’éviter des conflits, un seul composant doit être sélectionné à la fois.

3
Support de cours : Architecture des ordinateurs

Lorsqu’on réalise un système microprogrammé, on attribue donc à chaque périphérique une


zone d’adresse et une fonction « décodage d’adresse » est donc nécessaire afin de fournir
les signaux de sélection de chacun des composants.

Décodeur d’adresses

BUS D’ADRESSES

Bus de données

Remarque : lorsqu’un composant n’est pas sélectionné, ses sorties sont mises à l’état «
haute impédance » afin de ne pas perturber les données circulant sur le bus. (Elle présente
une impédance de sortie très élevée = circuit ouvert).

IV- QU’EST-CE QU’UN MICROPROCESSEUR ?

Un microprocesseur est un circuit intégré complexe. Il résulte de l’intégration sur une


puce de fonctions logiques combinatoires (logiques et/ou arithmétique) et séquentielles
(registres, compteur, etc…). Il est capable d'interpréter et d'exécuter les instructions d'un
programme. Son domaine d’utilisation est donc presque illimité. Le concept de
microprocesseur a été créé par la Société Intel. Cette Société, créée en 1968, était
spécialisée dans la conception et la fabrication de puces mémoire. À la demande de deux de
ses clients — fabricants de calculatrices et de terminaux — Intel étudia une unité de calcul
implémentée sur une seule puce. Ceci donna naissance, en 1971, au premier
microprocesseur, le 4004, qui était une unité de calcul 4 bits fonctionnant à 108 kHz. Il
résultait de l’intégration d’environ 2300 transistors.

Remarques :
La réalisation de circuits intégrés de plus en plus complexe a été rendue possible par
l’apparition du transistor en 1947. Il a fallu attendre 1958 pour voir apparaître le 1ier circuit
intégré réalisé par Texas Instrument.

Rappels
Les informations traitées par un microprocesseur sont de différents types (nombres,
instructions, images, vidéo, etc…) mais elles sont toujours représentées sous un format
binaire. Seul le codage changera suivant les différents types de données à traiter. Elles sont
représentées physiquement par 2 niveaux de tensions différents.
En binaire, une information élémentaire est appelé bit et ne peut prendre que deux valeurs
différentes : 0 ou 1.

4
Support de cours : Architecture des ordinateurs

Une information plus complexe sera codée sur plusieurs bit. On appelle cet ensemble un
mot.
Un mot de 8 bits est appelé un octet.

Où trouve-t-on des systèmes à microprocesseur ?


Les applications des systèmes à microprocesseurs sont multiples et variées :
- Ordinateur, PDA
- console de jeux
- calculatrice
- télévision
- téléphone portable
- distributeur automatique d’argent
- robotique
- lecteur carte à puce, code barre
- automobile
- instrumentation
- etc…

5
Support de cours : Architecture des ordinateurs

CHAPITRE I : LA CARTE MERE

I-PRESENTATION

L'élément constitutif principal de l'ordinateur est la carte mère (en anglais


« mainboard » ou « motherboard », parfois abrégé en « mobo »). La carte mère est le socle
permettant la connexion de l'ensemble des éléments essentiels de l'ordinateur.
Comme son nom l’indique, la carte mère est une carte maitresse, prenant la forme d’un grand
circuit imprimé possédant notamment des connecteurs pour les cartes d’extension, les
barrettes de mémoires, le processeur, etc.

II-CARACTERISTIQUES

Il existe plusieurs façons de caractériser une carte mère, notamment selon les
caractéristiques suivantes :
 le facteur d'encombrement,
 le chipset,
 le type de support de processeur,
 les connecteurs d'entrée-sortie.
1- Facteur d’encombrement d’une carte mère
On désigne généralement par le terme « facteur d’encombrement » (ou facteur de
forme, en anglais form factor), la géométrie, les dimensions, l’agencement et les
caractéristiques électriques de la carte mère. Afin de fournir des cartes mères pouvant
s’adapter dans différents boitiers de marques différentes, des standards ont été mis au
point :
 AT baby / AT full format est un format utilisé sur les premiers ordinateurs PC du type
386 ou 486. Ce format a été remplacé par le format ATX possédant une forme plus
propice à la circulation de l'air et rendant l'accès aux composants plus pratique ;
 ATX : Le format ATX est une évolution du format Baby-AT. Il s'agit d'un format étudié
pour améliorer l'ergonomie. Ainsi la disposition des connecteurs sur une carte mère
ATX est prévue de manière à optimiser le branchement des périphériques (les
connecteurs IDE sont par exemple situés du côté des disques). D'autre part, les
composants de la carte mère sont orientés parallèlement, de manière à permettre une
meilleure évacuation de la chaleur ;
1- ATX standard : Le format ATX standard présente des dimensions
classiques de 305x244 mm Il propose un connecteur AGP et 6
connecteurs PCI.
2- Micro-ATX : Le format micro ATX est une évolution du format ATX,
permettant d'en garder les principaux avantages tout en proposant un format
de plus petite dimension (244x244 mm), avec un coût réduit. Le format micro-
ATX propose un connecteur AGP et 3 connecteurs PCI.
3- Flex-ATX : Le format Flex ATX est une extension du format micro ATX afin
d'offrir une certaine flexibilité aux constructeurs pour le design de leurs
ordinateurs. Il propose un connecteur AGP et 2 connecteurs PCI.
4- mini-ATX : Le format mini-ATX est un format compact alternatif au format
micro-ATX (284x208 mm), proposant un connecteur AGP et 4

6
Support de cours : Architecture des ordinateurs

connecteurs PCI au lieu des 3 du format micro-ATX. Il est principalement


destiné aux ordinateurs de type mini-PC (barebone).
 BTX : Le format BTX (Balanced Technology Extended), porté par la société Intel, est
un format prévu pour apporter quelques améliorations de l'agencement des
composants afin d'optimiser la circulation de l'air et de permettre une optimisation
acoustique et thermique. Les différents connecteurs (connecteurs de mémoire,
connecteurs d'extension) sont ainsi alignés parallèlement, dans le sens de circulation
de l'air. Par ailleurs le microprocesseur est situé à l'avant du boîtier au niveau des
entrées d'aération, où l'air est le plus frais. Le connecteur d'alimentation BTX est le
même que celui des alimentations ATX. Le standard BTX définit trois formats :
1- BTX standard, présentant des dimensions standard de 325x267 mm ;
2- Micro-BTX, de dimensions réduites (264x267 mm) ;
3- Pico-BTX, de dimensions extrêmement réduites (203x267 mm).
 ITX : Le format ITX (Information Technology Extended), porté par la société Via, est un
format extrêmement compact prévu pour des configurations exigües telles que les
mini-PC. Il existe deux principaux formats ITX :
a- Mini-ITX, avec des dimensions minuscules (170x170 mm) et un
emplacement PCI ;
b- Nano-ITX, avec des dimensions extrêmement minuscules (120x120
mm) et un emplacement mini-PCI.

Ainsi, du choix d'une carte mère (et de son facteur de forme) dépend le choix du boîtier. Le
tableau ci-dessous récapitule les caractéristiques des différents facteurs de forme :

Facteur de forme Dimensions Emplacements


ATX 305 mm x 244 mm AGP / 6 PCI
Micro-ATX 244 mm x 244 mm AGP / 3 PCI
Flex-ATX 229 mm x 191 mm AGP / 2 PCI
Mini ATX 284 mm x 208 mm AGP / 4 PCI
Mini ITX 170 mm x 170 mm 1 PCI
Nano ITX 120 mm x 120 mm 1 Mini-PCI
BTX 325 mm x 267 mm 7
Micro-BTX 264 mm x 267 mm 4
Pico-BTX 203 mm x 267 mm 1

2- Composants intégrés

La carte mère contient un certain nombre d'éléments embarqués, c'est-à-dire intégrés


sur son circuit imprimé :
 Le chipset, circuit qui contrôle la majorité des ressources (interface de bus du
processeur, mémoire cache et mémoire vive, slots d'extension,...),
 L'horloge et la pile du CMOS,
 Le BIOS,

7
Support de cours : Architecture des ordinateurs

 Le bus système et les bus d'extension.

En outre, les cartes mères récentes embarquent généralement un certain nombre de


périphériques multimédia et réseau pouvant être désactivés :
 carte réseau intégrée ;
 carte graphique intégrée ;
 carte son intégrée ;
 Contrôleurs de disques durs évolués.

a- Le Chipset

Le chipset (traduisez jeu de composants ou jeu de circuits ou jeu de puces) est un


circuit électronique chargé de coordonner les échanges de données entre les divers
composants de l'ordinateur (processeur, mémoire...). Dans la mesure où le chipset est intégré
à la carte mère, il est important de choisir une carte mère intégrant un chipset récent afin de
maximiser les possibilités d'évolutivité de l'ordinateur.

Les chipsets des cartes-mères actuelles intègrent généralement une puce graphique et
presque toujours une puce audio, ce qui signifie qu'il n'est pas nécessaire d'installer une carte
graphique ou une carte son. Ces cartes intégrées sont maintenant presque toujours de bonne
qualité et il n'est en général pas nécessaire de les désactiver dans le setup du BIOS, même si
on veut installer des cartes d'extension de meilleure qualité dans les emplacements prévus à
cet effet ; le simple fait de mettre en place une carte d'extension est suffisant pour désactiver
la carte intégrée.

b- L’horloge et la pile du CMOS

L'horloge temps réel (notée RTC, pour Real Time Clock) est un circuit chargé de la
synchronisation des signaux du système. Elle est constituée d'un cristal qui, en vibrant, donne
des impulsions (appelés tops d'horloge) afin de cadencer le système. On appelle fréquence
de l'horloge (exprimée en MHz) le nombre de vibrations du cristal par seconde, c'est-à-dire le
nombre de tops d'horloge émis par seconde. Plus la fréquence est élevée, plus le système
peut traiter d'informations.

Lorsque l'ordinateur est mis hors tension, l'alimentation cesse de fournir du courant à la carte
mère. Or, lorsque l'ordinateur est rebranché, le système est toujours à l'heure. Un circuit
électronique, appelé CMOS (Complementary Metal-Oxyde Semiconductor, parfois
appelé BIOS CMOS), conserve en effet certaines informations sur le système, telles que
l'heure, la date système et quelques paramètres essentiels du système.

Le CMOS est continuellement alimenté par une pile (au format pile bouton) ou une
batterie située sur la carte mère. Ainsi, les informations sur le matériel installé dans
l'ordinateur (comme par exemple le nombre de pistes, de secteurs de chaque disque dur) sont
conservées dans le CMOS. Dans la mesure où le CMOS est une mémoire lente, certains
systèmes recopient parfois le contenu du CMOS dans la RAM (mémoire rapide), le terme de

8
Support de cours : Architecture des ordinateurs

« memory shadow » est employé pour décrire ce processus de copie en mémoire vive.

Le « Complementary Metal-oxyde Semiconductor », est une technologie de fabrication de


transistors, précédée de bien d'autres, telles que la TTL (« Transistor-transistor-logique »),
la TTLS (TTL Schottky) (plus rapide), ou encore le NMOS (canal négatif) et le PMOS (canal
positif).

Le CMOS a permis de mettre des canaux complémentaires sur une même puce. Par rapport
à la TTL ou TTLS, le CMOS est beaucoup moins rapide, mais a consomme en revanche
infiniment moins d'énergie, d'où son emploi dans les horloges d'ordinateurs, qui sont
alimentées par des piles. Le terme de CMOS est parfois utilisé à tort pour désigner l'horloge
des ordinateurs.

Lorsque l'heure du système est régulièrement réinitialisée, ou que l'horloge prend du retard, il
suffit généralement d'en changer la pile !

c- Le BIOS

Le BIOS (Basic Input/Output System) est le programme basique servant d'interface


entre le système d'exploitation et la carte mère. Le BIOS est stocké dans une ROM (mémoire
morte, c'est-à-dire une mémoire en lecture seule), ainsi il utilise les données contenues dans
le CMOS pour connaître la configuration matérielle du système.

Il est possible de configurer le BIOS grâce à une interface (nommée BIOS setup,
traduisez configuration du BIOS) accessible au démarrage de l'ordinateur par simple pression
d'une touche (généralement la touche Suppr. En réalité le setup du BIOS sert uniquement
d'interface pour la configuration, les données sont stockées dans le CMOS. Pour plus
d'informations n'hésitez pas à vous reporter au manuel de votre carte mère).
3- Le support de processeur

Le processeur (aussi appelé microprocesseur) est le cerveau de l'ordinateur. Il


exécute les instructions des programmes grâce à un jeu d'instructions. Le processeur est
caractérisé par sa fréquence, c'est-à-dire la cadence à laquelle il exécute les instructions.
Ainsi, un processeur cadencé à 800 MHz effectuera grossièrement 800 millions d'opérations
par seconde.

La carte mère possède un emplacement (parfois plusieurs dans le cas de cartes mères
multiprocesseurs) pour accueillir le processeur, appelé support de processeur. On distingue
deux catégories de supports :
 Slot (en français fente) : il s'agit d'un connecteur rectangulaire dans lequel on enfiche le
processeur verticalement
 Socket (en français embase) : il s'agit d'un connecteur carré possédant un grand nombre
de petits connecteurs sur lequel le processeur vient directement s'enficher
Au sein de ces deux grandes familles, il existe des versions différentes du support, selon le
type de processeur. Il est essentiel, quel que soit le support, de brancher délicatement le
processeur afin de ne tordre aucune de ses broches (il en compte plusieurs centaines).

9
Support de cours : Architecture des ordinateurs

Afin de faciliter son insertion, un support appelé ZIF (Zero Insertion Force,
traduisez force d'insertion nulle) a été créé. Les supports ZIF possèdent une petite manette,
qui, lorsqu'elle est levée, permet l'insertion du processeur sans aucune pression et, lorsqu'elle
est rabaissée, maintient le processeur sur son support.

Le processeur possède généralement un détrompeur, matérialisé par un coin tronqué ou une


marque de couleur, devant être aligné avec la marque correspondante sur le support.

Dans la mesure où le processeur rayonne thermiquement, il est nécessaire d'en dissiper la


chaleur pour éviter que ses circuits ne fondent. C'est la raison pour laquelle il est généralement
surmonté d'un dissipateur thermique (appelé parfois refroidisseur ou radiateur), composé
d'un métal ayant une bonne conduction thermique (cuivre ou aluminium), chargé d'augmenter
la surface d'échange thermique du microprocesseur. Le dissipateur thermique comporte une
base en contact avec le processeur et des ailettes afin d'augmenter la surface d'échange
thermique. Un ventilateur accompagne généralement le dissipateur pour améliorer la
circulation de l'air autour du dissipateur et améliorer l'échange de chaleur. Le terme
« ventirad » est ainsi parfois utilisé pour désigner l'ensemble Ventilateur + Radiateur. C'est le
ventilateur du boîtier qui est chargé d'extraire l'air chaud du boîtier et permettre à l'air frais
provenant de l'extérieur d'y entrer. Pour éviter les bruits liés au ventilateur et améliorer la
dissipation de chaleur, il est également possible d'utiliser un système de refroidissement à eau
(dit watercooling).

4- Les connecteurs de mémoire vive

La mémoire vive (RAM pour Random Access Memory) permet de stocker des
informations pendant tout le temps de fonctionnement de l'ordinateur, son contenu est par
contre détruit dès lors que l'ordinateur est éteint ou redémarré, contrairement à une mémoire
de masse telle que le disque dur, capable de garder les informations même lorsqu'il est hors
tension. On parle de « volatilité » pour désigner ce phénomène.

Pourquoi alors utiliser de la mémoire vive alors que les disques durs reviennent moins
chers à capacité égale ? La réponse est que la mémoire vive est extrêmement rapide par
comparaison aux périphériques de stockage de masse tels que le disque dur. Elle possède en
10
Support de cours : Architecture des ordinateurs

effet un temps de réponse de l'ordre de quelques dizaines de nanosecondes (environ 70 pour


la DRAM, 60 pour la RAM EDO, et 10 pour la SDRAM voire 6 ns sur les SDRAM DDR) contre
quelques millisecondes pour le disque dur.

La mémoire vive se présente sous la forme de barrettes qui se branchent sur les connecteurs
de la carte mère.

5- les connecteurs d’extensions

Les connecteurs d'extension (en anglais slots) sont des réceptacles dans lesquels il est
possible d'insérer des cartes d'extension, c'est-à-dire des cartes offrant de nouvelles
fonctionnalités ou de meilleures performances à l'ordinateur. Il existe plusieurs sortes de
connecteurs :
 Connecteur ISA (Industry Standard Architecture) : permettant de connecter des cartes
ISA, les plus lentes fonctionnant en 16-bit
 Connecteur VLB (Vesa Local Bus): Bus servant autrefois à connecter des cartes
graphiques
 Connecteur PCI (Peripheral Component InterConnect) : permettant de connecter des
cartes PCI, beaucoup plus rapides que les cartes ISA et fonctionnant en 32-bit
 Connecteur AGP (Accelerated Graphic Port): un connecteur rapide pour carte graphique.
 Connecteur PCI Express (Peripheral Component InterConnect Express) : architecture de
bus plus rapide que les bus AGP et PCI.
 Connecteur AMR (Audio Modem Riser): ce type de connecteur permet de brancher des
mini-cartes sur les PC en étant équipés

6- les connecteurs d’entrée-sortie

La carte mère possède un certain nombre de connecteurs d'entrées-sorties regroupés sur le


« panneau arrière ».

11
Support de cours : Architecture des ordinateurs

La plupart des cartes mères proposent les connecteurs suivants :


 Port série, permettant de connecter de vieux périphériques, désormais obsolète ;
 Port parallèle, permettant notamment de connecter de vieilles imprimantes, désormais
obsolète ;
 Ports USB (1.1, bas débit, ou 2.0 / 3.0, haut débit), permettant de connecter des
périphériques plus récents ;
 Connecteur RJ45 (appelés LAN ou port Ethernet) permettant de connecter l'ordinateur à
un réseau. Il correspond à une carte réseau intégrée à la carte mère ;
 Connecteur VGA (appelé SUB-D15), permettant de connecter un écran. Ce connecteur
correspond à la carte graphique intégrée. Il est de plus en plus souvent remplacé par un
port HDMI ;
 Prises audio (entrée Line-In, sortie Line-Out et microphone), permettant de connecter
des enceintes acoustiques ou une chaîne hi fi, ainsi qu'un microphone. Ce connecteur
correspond à la carte son intégrée.

TRAVAUX DIRIGES

1-Definir les concepts suivants : informatique, information, donnée, automatisation, un


processus, architecture d’un système
2-Que savez-vous de JOHN VON NEUMANN ?
3-Où trouve t-on les systèmes à microprocesseur ?
4-La carte mère qu’est-ce que c’est ? De quoi est –elle caractérisée ?
5-qu’entend-t-on par facteur d’encombrement de la carte mère ? Citez en 03 exemples avec
dimension a l’appui !
6-Enumerer les composants intégrés des anciennes cartes mères ?
7-Le BIOS qu’est-ce que c’est, dans quelle mémoire est-il situé et que signifie-t-il ?
8-Que signifie le CMOS ? Par qu’elle mécanisme, il parvient toujours à conserver certaines
informations de base du système ?
9-Quelles sont les composantes intégrées sur les cartes mères récentes ?
10-Les connecteurs d’extensions qu’est ce que c’est ? Citez en quelques exemples.

12
Support de cours : Architecture des ordinateurs

CHAPITRE III LE MICROPROCESSEUR

I- PRESENTATION
Le processeur (CPU, pour Central Processing Unit, soit Unité Centrale de Traitement)
est le cerveau de l'ordinateur. Il permet de manipuler des informations numériques, c'est-à-
dire des informations codées sous forme binaire, et d'exécuter les instructions stockées en
mémoire.

Le premier microprocesseur (Intel 4004) a été inventé en 1971. Il s'agissait d'une unité de
calcul de 4 bits, cadencé à 108 kHz. Depuis, la puissance des microprocesseurs augmente
exponentiellement. Quels sont donc ces petits morceaux de silicium qui dirigent nos
ordinateurs?

II- FONCTIONNEMENT

Le processeur (noté CPU, pour Central Processing Unit) est un circuit électronique
cadencé au rythme d'une horloge interne, grâce à un cristal de quartz qui, soumis à un courant
électrique, envoie des impulsions, appelées « top ». La fréquence d'horloge (appelée
également cycle, correspondant au nombre d'impulsions par seconde, s'exprime en Hertz
(Hz). Ainsi, un ordinateur à 200 MHz possède une horloge envoyant 200 000 000 de
battements par seconde. La fréquence d'horloge est généralement un multiple de la fréquence
du système (FSB, Front-Side Bus), c'est-à-dire un multiple de la fréquence de la carte mère.

A chaque top d'horloge le processeur exécute une action, correspondant à une


instruction ou une partie d'instruction. L'indicateur appelé CPI (Cycles Par Instruction) permet
de représenter le nombre moyen de cycles d'horloge nécessaire à l'exécution d'une instruction
sur un microprocesseur. La puissance du processeur peut ainsi être caractérisée par le
nombre d'instructions qu'il est capable de traiter par seconde. L'unité utilisée est
le MIPS (Millions d'Instructions Par Seconde) correspondant à la fréquence du processeur que
divise le CPI.

III- INSTRUCTION
Une instruction est l'opération élémentaire que le processeur peut accomplir. Les
instructions sont stockées dans la mémoire principale, en vue d'être traitée par le processeur.
Une instruction est composée de deux champs :
 Le code opération, représentant l'action que le processeur doit accomplir ;
 Le code opérande, définissant les paramètres de l'action. Le code opérande dépend de
l'opération. Il peut s'agir d'une donnée ou bien d'une adresse mémoire.

Le nombre d'octets d'une instruction est variable selon le type de donnée (l'ordre de
grandeur est de 1 à 4 octets).

Les instructions peuvent être classées en catégories dont les principales sont :

13
Support de cours : Architecture des ordinateurs

 Accès à la mémoire : des accès à la mémoire ou transferts de données entre


registres.
 Opérations arithmétiques : opérations telles que les additions, soustractions,
divisions ou multiplication.
 Opérations logiques : opérations ET, OU, NON, NON exclusif, etc.
 Contrôle : contrôles de séquence, branchements conditionnels, etc.

IV- CYCLE D’EXECUTION D’UNE INSTRUCTION

Le microprocesseur ne comprend qu’un certain nombre d’instructions qui sont codées


en binaire. Le traitement d’une instruction peut être décomposé en trois phases.

Phase 1: Recherche de l'instruction à traiter

1. Le PC contient l'adresse de l'instruction suivante du programme. Cette valeur est placée sur
le bus d'adresses par l'unité de commande qui émet un ordre de lecture.
2. Au bout d'un certain temps (temps d'accès à la mémoire), le contenu de la case mémoire
sélectionnée est disponible sur le bus des données.
3. L'instruction est stockée dans le registre instruction du processeur.

Phase 2 : Décodage de l’instruction et recherche de l'opérande

Le registre d'instruction contient maintenant le premier mot de l'instruction qui peut


être codée sur plusieurs mots. Ce premier mot contient le code opératoire qui définit la
nature de l'opération à effectuer (addition, rotation, ...) et le nombre de mots de l'instruction.
1. L'unité de commande transforme l'instruction en une suite de commandes élémentaires
nécessaires au traitement de l'instruction.
2. Si l'instruction nécessite une donnée en provenance de la mémoire, l'unité de commande
récupère sa valeur sur le bus de données.
3. L’opérande est stockée dans un registre.

14
Support de cours : Architecture des ordinateurs

Phase 3 : Exécution de l'instruction


1. Le microprogramme réalisant l'instruction est exécuté.
2. Les drapeaux sont positionnés (registre d'état).
3. L'unité de commande positionne le PC pour l'instruction suivante.

V- LES REGISTRES

Lorsque le processeur exécute des instructions, les données sont temporairement


stockées dans de petites mémoires rapides de 8, 16, 32 ou 64 bits que l'on appelle registres.
Suivant le type de processeur le nombre global de registres peut varier d'une dizaine à
plusieurs centaines.

Les registres principaux sont :


 Le registre accumulateur (ACC), stockant les résultats des opérations arithmétiques et
logiques ;
 Le registre d'état (PSW, Processor Status Word), permettant de stocker des indicateurs
sur l'état du système (retenue, dépassement, etc.) ;
 Le registre instruction (RI), contenant l'instruction en cours de traitement ;

15
Support de cours : Architecture des ordinateurs

 Le compteur ordinal (CO ou PC pour Program Counter), contenant l'adresse de la


prochaine instruction à traiter ;
 Le registre tampon, stockant temporairement une donnée provenant de la mémoire.

VI- MEMOIRE CACHE

La mémoire cache (également appelée antémémoire ou mémoire tampon) est une


mémoire rapide permettant de réduire les délais d'attente des informations stockées en
mémoire vive. En effet, la mémoire centrale de l'ordinateur possède une vitesse bien moins
importante que le processeur. Il existe néanmoins des mémoires beaucoup plus rapides, mais
dont le coût est très élevé. La solution consiste donc à inclure ce type de mémoire rapide à
proximité du processeur et d'y stocker temporairement les principales données devant être
traitées par le processeur. Les ordinateurs récents possèdent plusieurs niveaux de mémoire
cache :
 La mémoire cache de premier niveau (appelée L1 Cache, pour Level 1 Cache) est
directement intégrée dans le processeur. Elle se subdivise en 2 parties :
 La première est le cache d'instructions, qui contient les instructions issues
de la mémoire vive décodées lors de passage dans les pipelines.
 La seconde est le cache de données, qui contient des données issues de la
mémoire vive et les données récemment utilisées lors des opérations du
processeur.

Les caches du premier niveau sont très rapides d'accès. Leur délai d'accès tend à
s'approcher de celui des registres internes aux processeurs.
 La mémoire cache de second niveau (appelée L2 Cache, pour Level 2 Cache) est
située au niveau du boîtier contenant le processeur (dans la puce). Le cache de second
niveau vient s'intercaler entre le processeur avec son cache interne et la mémoire vive. Il
est plus rapide d'accès que cette dernière mais moins rapide que le cache de premier
niveau.
 La mémoire cache de troisième niveau (appelée L3 Cache, pour Level 3 Cache)
autrefois située au niveau de la carte mère (utilisation de la mémoire centrale), elle est
aujourd'hui intégrée directement dans le CPU.

Tous ces niveaux de cache permettent de réduire les temps de latence des différentes
mémoires lors du traitement et du transfert des informations. Pendant que le processeur
travaille, le contrôleur de cache de premier niveau peut s'interfacer avec celui de second
niveau pour faire des transferts d'informations sans bloquer le processeur. De même, le cache
de second niveau est interfacé avec celui de la mémoire vive (en l'absence de cache de
troisième niveau intégré), pour permettre des transferts sans bloquer le fonctionnement normal
du processeur.

Signaux de commande

Les signaux de commande sont des signaux électriques permettant d'orchestrer les
différentes unités du processeur participant à l'exécution d'une instruction. Les signaux de
commandes sont distribués grâce à un élément appelé séquenceur. Le signal Read / Write,
en français lecture / écriture, permet par exemple de signaler à la mémoire que le processeur
désire lire ou écrire une information.

16
Support de cours : Architecture des ordinateurs

Unité fonctionnelles

Le processeur est constitué d'un ensemble d'unités fonctionnelles reliées entre elles.
L'architecture d'un microprocesseur est très variable d'une architecture à une autre, cependant
les principaux éléments d'un microprocesseur sont les suivants :
 Une unité d'instruction (ou unité de commande, en anglais control unit) qui lit les
données arrivant, les décode puis les envoie à l'unité d’exécution.
L'unité d'instruction est notamment constituée des éléments suivants :
 Séquenceur (ou bloc logique de commande) chargé de synchroniser
l'exécution des instructions au rythme d'une horloge. Il est ainsi chargé de
l'envoi des signaux de commande ;
 Compteur ordinal contenant l'adresse de l'instruction en cours ;
 Registre d'instruction contenant l'instruction suivante.
 Une unité d'exécution (ou unité de traitement), qui accomplit les tâches que lui a
données l'unité d'instruction. L'unité d'exécution est notamment composée des éléments
suivants :
 L'unité arithmétique et logique (notée UAL ou en
anglais ALU pour Arithmetical and Logical Unit). L'UAL assure les fonctions
basiques de calcul arithmétique et les opérations logiques (ET, OU, Ou
exclusif, etc.) ;
 L'unité de virgule flottante (notée FPU, pour Floating Point Unit), qui
accomplit les calculs complexes non entiers que ne peut réaliser l'unité
arithmétique et logique.
 Le registre d'état ;
 Le registre accumulateur.
 Une unité de gestion des bus (ou unité d'entrées-sorties), qui gère les flux
d'informations entrant et sortant, en interface avec la mémoire vive du système ;

Le schéma ci-dessous donne une représentation simplifiée des éléments constituant le


processeur (l'organisation physique des éléments ne correspond pas à la réalité) :

17
Support de cours : Architecture des ordinateurs

VII- CIRCUIT INTEGRES

Assemblés, les transistors peuvent constituer des circuits logiques, qui, assemblés
à leur tour, constituent des processeurs. Le premier circuit intégré date de 1958 et a été mis
au point par la société Texas Instruments.

Les transistors MOS sont ainsi réalisés dans des tranches de silicium
(appelées wafer, traduisez gaufres), obtenues après des traitements successifs. Ces
tranches de silicium sont alors découpées en éléments rectangulaires, constituant ce que
l'on appelle un « circuit ». Les circuits sont ensuite placés dans des boîtiers comportant des
connecteurs d'entrée-sortie, le tout constituant un « circuit intégré ». La finesse de la
gravure, exprimée en microns (micromètres, notés µm), définit le nombre de transistors par
unité de surface. Il peut ainsi exister jusqu'à plusieurs millions de transistors sur un seul
processeur.

La loi de Moore, édictée en 1965 par Gordon E. Moore, cofondateur de la société


Intel, prévoyait que les performances des processeurs (par extension le nombre de
transistors intégrés sur silicium) doubleraient tous les 12 mois. Cette loi a été révisée en
1975, portant le nombre de mois à 18. La loi de Moore se vérifie encore aujourd'hui.

Dans la mesure où le boîtier rectangulaire possède des broches d'entrée-sortie ressemblant


à des pattes, le terme de « puce électronique » est couramment employé pour désigner les
circuits intégrés.

VIII- FAMILLES
Chaque type de processeur possède son propre jeu d'instruction. On distingue ainsi les
familles de processeurs suivants, possédant chacun un jeu d'instruction qui leur est propre :
 80x86 : le « x » représente la famille. On parle ainsi de 386, 486, 586, 686, etc.
 ARM
 IA-64
 MIPS
 Motorola 6800
 PowerPC
 SPARC
 ...

Cela explique qu'un programme réalisé pour un type de processeur ne puisse


fonctionner directement sur un système possédant un autre type de processeur, à moins d'une
traduction des instructions, appelée émulation. Le terme « émulateur » est utilisé pour
désigner le programme réalisant cette traduction.

Jeu d’instruction

On appelle jeu d'instructions l'ensemble des opérations élémentaires qu'un


processeur peut accomplir. Le jeu d'instruction d'un processeur détermine ainsi son
architecture, sachant qu'une même architecture peut aboutir à des implémentations différentes
selon les constructeurs.

18
Support de cours : Architecture des ordinateurs

Le processeur travaille effectivement grâce à un nombre limité de fonctions,


directement câblées sur les circuits électroniques. La plupart des opérations peuvent être
réalisé à l'aide de fonctions basiques. Certaines architectures incluent néanmoins des
fonctions évoluées courante dans le processeur.

1-Architecture CISC

L'architecture CISC (Complex Instruction Set Computer, soit « ordinateur à jeu


d'instruction complexe ») consiste à câbler dans le processeur des instructions complexes,
difficiles à créer à partir des instructions de base.

L'architecture CISC est utilisée en particulier par les processeurs de type 80x86. Ce
type d'architecture possède un coût élevé dû aux fonctions évoluées imprimées sur le silicium.

D'autre part, les instructions sont de longueurs variables et peuvent parfois nécessiter
plus d'un cycle d'horloge. Or, un processeur basé sur l'architecture CISC ne peut traîter
qu'une instruction à la fois, d'où un temps d'exécution conséquent.

2-Architecture RISC

Un processeur utilisant la technologie RISC (Reduced Instruction Set Computer, soit


« ordinateur à jeu d'instructions réduit ») n'a pas de fonctions évoluées câblées.

Les programmes doivent ainsi être traduits en instructions simples, ce qui entraîne un
développement plus difficile et/ou un compilateur plus puissant. Une telle architecture possède
un coût de fabrication réduit par rapport aux processeurs CISC. De plus, les instructions,
simples par nature, sont exécutées en un seul cycle d'horloge, ce qui rend l'exécution des
programmes plus rapide qu'avec des processeurs basés sur une architecture CISC. Enfin, de
tels processeurs sont capables de traîter plusieurs instructions simultanément en les traitant
en parallèle.

Améliorations technologiques

Au cours des années, les constructeurs de microprocesseurs (appelés fondeurs), ont


mis au point un certain nombre d'améliorations permettant d'optimiser le fonctionnement du
processeur.

A- Le parallélisme

Le parallélisme consiste à exécuter simultanément, sur des processeurs différents,


des instructions relatives à un même programme. Cela se traduit par le découpage d'un
programme en plusieurs processus traités en parallèle afin de gagner en temps d'exécution.

Ce type de technologie nécessite toutefois une synchronisation et une communication


entre les différents processus, à la manière du découpage des tâches dans une entreprise : le
travail est divisé en petits processus distincts, traités par des services différents. Le
fonctionnement d'une telle entreprise peut être très perturbé lorsque la communication entre
les services ne fonctionne pas correctement.

19
Support de cours : Architecture des ordinateurs

B- Le pipeline

Le pipeline (ou pipelining) est une technologie visant à permettre une plus grande
vitesse d'exécution des instructions en parallélisant des étapes.

Pour comprendre le mécanisme du pipeline, il est nécessaire au préalable de


comprendre les phases d'exécution d'une instruction. Les phases d'exécution d'une instruction
pour un processeur contenant un pipeline « classique » à 5 étages sont les suivantes :
 LI : (Lecture de l'Instruction (en anglais Fetch instruction) depuis le cache ;
 DI : Décodage de l'Instruction (Decode instruction) et recherche des opérandes (Registre
ou valeurs immédiate);
 EX : Exécution de l'Instruction (Execute instruction) (si ADD, on fait la somme, si SUB, on
fait la soustraction, etc.);
 MEM : Accès mémoire (Memory access), écriture dans la mémoire si nécessaire ou
chargement depuis la mémoire ;
 ER : Ecriture (Write instruction) de la valeur calculée dans les registres.

Les instructions sont organisées en file d'attente dans la mémoire, et sont chargées les unes
après les autres.

Grâce au pipeline, le traitement des instructions nécessite au maximum les cinq étapes
précédentes. Dans la mesure où l'ordre de ces étapes est invariable (LI, DI, EX, MEM et
ER), il est possible de créer dans le processeur un certain nombre de circuits spécialisés
pour chacune de ces phases.

L'objectif du pipeline est d'être capable de réaliser chaque étape en parallèle avec les étapes
amont et aval, c'est-à-dire de pouvoir lire une instruction (LI) lorsque la précédente est en
cours de décodage (DI), que celle d'avant est en cours d'exécution (EX), que celle située
encore précédemment accède à la mémoire (MEM) et enfin que la première de la série est
déjà en cours d'écriture dans les registres (ER).

Il faut compter en général 1 à 2 cycles d'horloge (rarement plus) pour chaque phase du
pipeline, soit 10 cycles d'horloge maximum par instruction. Pour deux instructions, 12 cycles
d'horloge maximum seront nécessaires (10+2=12 au lieu de 10*2=20), car la précédente
instruction était déjà dans le pipeline. Les deux instructions sont donc en traitement dans le
processeur, avec un décalage d'un ou deux cycles d'horloge). Pour 3 instructions, 14 cycles
d'horloge seront ainsi nécessaires, etc.

20
Support de cours : Architecture des ordinateurs

Le principe du pipeline est ainsi comparable avec une chaîne de production de


voitures. La voiture passe d'un poste de travail à un autre en suivant la chaîne de montage et
sort complètement assemblée à la sortie du bâtiment. Pour bien comprendre le principe, il
est nécessaire de regarder la chaîne dans son ensemble, et non pas véhicule par véhicule. Il
faut ainsi 3 heures pour faire une voiture, mais pourtant une voiture est produite toute les
minutes !

Il faut noter toutefois qu'il existe différents types de pipelines, de 2 à 40 étages, mais
le principe reste le même.

C- La technologie super scalaire

La technologie super scalaire (en anglais superscaling) consiste à disposer


plusieurs unités de traitement en parallèle afin de pouvoir traiter plusieurs instructions par
cycle.

D- Hyper Threading

HyperThreading (ou HyperThreading, noté HT, traduisez HyperFlots ou HyperFlux)


est une technologie qui consiste à définir deux processeurs logiques au sein d'un processeur
physique. Ainsi, le système reconnaît deux processeurs physiques et se comporte en
système multitâche en envoyant deux thréads simultanés, on parle alors
de SMT (Simultaneous Multi Threading). Cette « supercherie » permet d'utiliser au mieux les
ressources du processeur en garantissant que des données lui sont envoyées en masse.

E- Multi-cœur
Un processeur multi-cœur est tout simplement un processeur composé non pas de
1 mais de 2 (ou 4 ou 8) unités de calcul. Ainsi, pour un processeur bi-cœur (ou Dual Core) le
processeur dispose à fréquence d'horloge égale d'une puissance de calcul deux fois plus
importante. Pour autant, le gain n'est pas systématiquement visible. En effet, il faut que les
logiciels et les systèmes d'exploitation sachent gérer correctement ces processeurs afin
qu'un gain significatif soit perceptible. Ainsi, sous Windows, seul Vista et Sept exploitent
correctement ces processeurs. Dans ce cas, la version 64 bits est conseillée.

TRAVAUX DIRIGES

1-Qu’est-ce qu’un processus ?


2-Qu’est-ce qu’une instruction ? Enumérez les types d’instructions ? De quoi est constitué
une instruction arithmétique ?
3-Qu’elles différences faites-vous entre un microcontrôleur RISC ET CISC ?
4-Qu’est-ce qu’un SDP ?
5-Enumerez en présentant les constituants d’un microprocesseur ?
6-Quelle est le rôle du pointeur d’instruction et du registre d’instruction ?
7-Quels sont les différents registres existant dans un microcontrôleur ?
8-Expliquer le principe de communication du processeur avec la mémoire centrale
9-Enumerez 03 constructeurs de microprocesseur.
10-En dehors des PC, citer 04 appareils dans lesquelles on trouve le microprocesseur.
11-Quel est le rôle du drapeau (flag) dans un microprocesseur ?
12-Il existe combien de type d’instructions ? citez-les
13-A quoi sert le compteur ordinal ?
14-Elucider le mécanisme de traitement d’une instruction par le microprocesseur.
15-Qu’est-ce qu’un processeur multi cœur ? donnez un exemple

21
Support de cours : Architecture des ordinateurs

16-expliquez le principe du pipeline


17- Qu’est-ce l’Hyper threading
18- Qu’elles différences faites-vous entre le pipeline et le parallélisme ?

22
Support de cours : Architecture des ordinateurs

CHAPITRE III – LES MEMOIRES


INFORMATIQUES
I- INTRODUCTION

Une mémoire est un circuit à semi-conducteur permettant d’enregistrer, de conserver


et de restituer des informations (instructions et variables). C’est cette capacité de
mémorisation qui explique la polyvalence des systèmes numériques et leur adaptabilité à de
nombreuses situations. Les informations peuvent être écrites ou lues. Il y a écriture lorsqu'on
enregistre des informations en mémoire, lecture lorsqu'on récupère des informations
précédemment enregistrées.

II- ORGANISATION D’UNE MEMOIRE

Une mémoire peut être représentée comme une armoire de rangement constituée de
différents tiroirs. Chaque tiroir représente alors une case mémoire qui peut contenir un seul
élément : des données. Le nombre de cases mémoires pouvant être très élevé, il est alors
nécessaire de pouvoir les identifier par un numéro. Ce numéro est appelé adresse. Chaque
donnée devient alors accessible grâce à son adresse

Adresse Case mémoire


7 = 111
6 = 110
5 = 101
4 = 100
3 = 011
2 = 010
1 = 001
0 = 000 0001 1010

Avec une adresse de n bits il est possible de référencer au plus 2n cases mémoire.
Chaque case est remplie par un mot de données (sa longueur m est toujours une puissance
de 2). Le nombre de fils d’adresses d’un boîtier mémoire définit donc le nombre de cases
mémoire que comprend le boîtier. Le nombre de fils de données définit la taille des données
que l’on peut sauvegarder dans chaque case mémoire. En plus du bus d’adresses et du bus
de données, un boîtier mémoire comprend une entrée de commande qui permet de définir le
type d’action que l’on effectue avec la mémoire (lecture/écriture) et une entrée de sélection
qui permet de mettre les entrées/sorties du boîtier en haute impédance (quantité servant à
déterminer l’amplitude du courant pour un voltage donné dans un circuit à courant alternatif).

III- CARACTERISTIQUES D’UNE MEMOIRE

La capacité : c’est le nombre total de bits que contient la mémoire. Elle s’exprime aussi
souvent en octet.
Le format des données : c’est le nombre de bits que l’on peut mémoriser par case
mémoire. On dit aussi que c’est la largeur du mot mémorisable.
Le temps d’accès : c’est le temps qui s'écoule entre l'instant où a été lancée une opération
de lecture/écriture en mémoire et l'instant où la première information est disponible sur le bus
de données.

23
Support de cours : Architecture des ordinateurs

Le temps de cycle : il représente l'intervalle minimum qui doit séparer deux demandes
successives de lecture ou d'écriture.
Le débit : c’est le nombre maximum d'informations lues ou écrites par seconde.
Volatilité : elle caractérise la permanence des informations dans la mémoire. L'information
stockée est volatile si elle risque d'être altérée par un défaut d'alimentation électrique et non
volatile dans le cas contraire.

IV- LES TYPES DE MEMOIRE

 Mémoire RAM
 Mémoire ROM
 Les registres
 Les mémoires caches
 Les mémoires de masses

a- Les mémoires RAM

Les mémoires RAM ont une particularité : le temps d’accès est toujours le même, quelle
que soit l’adresse de la donnée que l’on souhaite consulter ou modifier. Toutes les mémoires
n’ont pas cette particularité : ce n’est pas le cas d’un disque dur, par exemple, dont le temps-
d ’accès dépend de l’emplacement de l’information sur le disque dur et de la position de la tête
de lecture.
Toutes les RAM actuelles sont des mémoires volatiles. Néanmoins, il existe des projets
de recherche qui travaillent sur la conception d’une mémoire nommée la MRAM qui serait une
mémoire RAM non-volatile. Reste à finir le travail de recherche, ce qui n’est pas pour tout de
suite !
Il existe deux types de RAM : les SRAM ou RAM statiques et les DRAM ou RAMS dynamique.

a-1 les SRAM

Leurs données ne s’effacent pas tant qu’elles sont alimentées en courant. Ces mémoires sont
souvent (bien que ce ne soit pas une obligation) fabriquées avec des bascules, fameux circuit
de mémorisation qu’on a vu il y a de cela quelques chapitres. Vu que ces bascules n’utilisent
pas mal de transistors (au minimum 6, voir plus), nos cellules mémoires auront tendance à
prendre un peu de place. En conséquence, une cellule mémoire de SRAM est plus grosse
qu’une cellule de mémoire DRAM (qui n’utilisent qu’un seul transistor, et un autre composant
électronique : un condensateur), ce qui signifie qu’on peut mettre beaucoup moins de cellule
SRAM que de cellules de DRAM sur une surface donnée. Pour cette raison, on dit souvent
que les mémoires SRAM ne peuvent contenir beaucoup de bits. Cette mémoire SRAM est
dont utilisé lorsqu’on souhaite avoir une mémoire rapide mais en faible quantité. Elles sont
assez, mais très chère. Pour info, votre processeur contient beaucoup de mémoire
directement intégrées dans des circuits (les registres et les caches) qui sont toutes faites avec
de la SRAM.il faut dire que les mémoires intégrées au processeur ont absolument besoin
d’être rapides et qu’on a rarement besoin d’en mettre beaucoup, ce qui fait que la SRAM est
un choix assez adapté.

a-2 les DRAM

Les DRAM sont plus lentes, mais peuvent stocker beaucoup plus de bits que la SRAM.il
faut dire qu’une cellule mémoire de DRAM prend beaucoup moins de place qu’une cellule de
SRAM, ce qui fait que les mémoires DRAM ont souvent une grande capacité comparé
aux SRAM. C’est ce qui fait qu’elles sont utilisées pour la mémoire principale de nos
PC : quand on lance un programme assez gourmand en même temps en plus du système
d’exploitation, il vaut mieux avoir suffisamment de RAM.

24
Support de cours : Architecture des ordinateurs

Mais ces DRAM ont tous de même désavantages : elles sont plus lentes que les SRAM
pour diverses raisons techniques. De plus, avec les DRAM, les bits stockés en mémoire
s’effacent tout seul en quelques millièmes ou centièmes de seconde (même si on n’y touche
pas). Et sans compter que lire une donnée stockée en mémoire va obligatoirement effacer son
contenu.il faut donc réécrire régulièrement chaque bit de la mémoire, ou après lecture, pour
éviter qu’il ne s’efface. On parle de rafraichissement mémoire.
Ce rafraichissement mémoire prend du temps, et a tendance à légèrement diminuer l’efficacité
des DRAM. Autre fois, ce rafraichissement était effectué par un circuit sur la carte mère et était
chargé de toutes la gestion de la mémoire (on parle de contrôleur mémoire). Dans une telle
situation, les ordres de rafraîchissement de la mémoire transitent donc par le Bus, le rendant
temporairement incapable de transférer des données. Ce défaut, autres fois très pénalisant
ne l’est plus de nos jours : de nos jours, les mémoires RAM contiennent un circuit qui se charge
du rafraichissement mémoire dans la DRAM. Les pertes de l’information sont ainsi plus
mitigées.
Avec les mémoires à acces séquentielle, trouver une donnée aurait été tres simple : il suffisait
de parcourir la mémoire depuis le debut jusqu’à la bonne donnée .Mais sur nos ordinateurs,
toutes les mémoires sont des mémoires a accès aléatoires, ce qui fait qu’on peur acceder a
n’importe quelle donnée dans notre mémoire, sans trop se soucier de l’ordre d’accès .
Pour accéder à une donnée, on est obligé d’indiquer à notre mémoire la position de celle-ci
dans la mémoire.

Et on fait comment ?
Faut avouer qu’avec des registres, des mémoires RAM, des mémoires (EEP)ROM et
éventuellement un disque dur, ça fait un sacré paquet ! il existe plusieurs solutions, mais la
grande majorité des mémoires de nos ordinateurs utilisent toutes une méthode déjà vue
auparavant : l’adressage. Cette solution est très simple : chaque case mémoire se voit
attribuer un nombre binaire unique, l’adresse, qui va permettre de la sélectionner et de
l’identifier celle-ci parmi toutes les autres.

Remarques :
Voici un historique de quelques DRAM qui ont ou sont utilisées dans les PC :
• La DRAM FPM (Fast Page Mode, 1987) : Elle permet
d'accéder plus rapidement à des données en
introduisant la notion de page mémoire. (33 à 50 Mhz)
• La DRAM EDO (Extended Data Out, 1995) : Les
composants de cette mémoire permettent de conserver
plus longtemps l'information, on peut donc ainsi
espacer les cycles de rafraîchissement. Elle apporte aussi la possibilité d’anticiper sur le
prochain cycle mémoire. (33 à 50 Mhz)
• La DRAM BEDO (Bursted EDO) : On n'adresse plus chaque unité de mémoire
individuellement lorsqu'il faut y lire ou y écrire des données. On se contente de transmettre
l'adresse de départ du processus de lecture/écriture et la longueur du bloc de données ( Burst).
Ce procédé permet de gagner beaucoup de temps, notamment avec les grands paquets de
données tels qu'on en manipule avec les applications modernes. (66 Mhz)
• La Synchronous DRAM (SDRAM, 1997) : La
mémoire SDRAM a pour particularité de se
synchroniser sur une horloge. Les mémoires FPM,
EDO étaient des mémoires asynchrones et elle
induisaient des temps d'attentes lors de la synchronisation. Elle se compose en interne de
deux bancs de mémoire et des données peuvent être lues alternativement sur l'un puis sur
l'autre de ces bancs grâce à un procédé d'entrelacement spécial. Le protocole d'attente
devient donc tout à fait inutile. Cela lui permet de supporter des fréquences plus élevées
qu’avant (100 Mhz).

25
Support de cours : Architecture des ordinateurs

• La DDR-I ou DDR-SDRAM (Double Data Rate


Synchronous DRAM, 2000) : La DDR-SDRAM
permet de recevoir ou d'envoyer des données lors
du front montant et du front descendant de l’horloge.
(133 à 200 MHz)

b- Les mémoires mortes (ROM)

Pour certaines applications, il est nécessaire de pouvoir conserver des informations de


façon permanente même lorsque l'alimentation électrique est interrompue. On utilise alors des
mémoires mortes ou mémoires à lecture seule (ROM : Read Only Memory). Ces mémoires
sont non volatiles.
Ces mémoires, contrairement aux RAM, ne peuvent être que lue. L’inscription en mémoire des
données restent possible mais est appelée programmation. Suivant le type de ROM, la
méthode de programmation changera. Il existe donc plusieurs types de ROM :
 ROM
 PROM
 EPROM
 EEPROM
 FLASH EPROM.

b-1- La ROM

Elle est programmée par le fabricant et son contenu ne peut plus être ni modifié., ni effacé
par l'utilisateur.
Structure :
Cette mémoire est composée d'une matrice dont la programmation s’effectue en
reliant les lignes aux colonnes par des diodes. L'adresse permet de sélectionner une ligne de
la matrice et les données sont alors reçues sur les colonnes (le nombre de colonnes fixant la
taille des mots mémoire).

Avantages :
 Densité élevée
 Non volatile
 Mémoire rapide
Inconvénients :
 Écriture impossible
 Modification impossible (toute erreur est fatale).
 Délai de fabrication ( 3 à 6 semaines)
 Obligation de grandes quantités en raison du coût élevé qu'entraîne la production du
masque et le processus de fabrication.

b-2- La PROM

C’est une ROM qui peut être programmée une seule fois par l'utilisateur
(Programmable ROM). La programmation est réalisée à partir d’un programmateur
spécifique.
Structure :
Les liaisons à diodes de la ROM sont remplacées par des fusibles pouvant être détruits ou
des jonctions pouvant être court-circuitées.
Avantages :
 Identique à la ROM
 Claquage en quelques minutes
 Coût relativement faible
Inconvénients :

26
Support de cours : Architecture des ordinateurs

 Modification impossible (toute erreur est fatale).

b-3- L’EPROM ou UV-EPROM

Pour faciliter la mise au point d'un programme ou tout simplement permettre une
erreur de programmation, il est intéressant de pouvoir reprogrammer une PROM. La
technique de claquage utilisée dans celles-ci ne le permet évidemment pas. L'EPROM
(Erasable Programmable ROM) est une PROM qui peut être effacée.
Structure
Dans une EPROM, le point mémoire est réalisé à partir d’un transistor FAMOS
(Floating gate Avalanche injection Metal Oxyde
Silicium). Ce transistor MOS a été introduit par Intel en 1971 et a la particularité de posséder
une grille flottante.
Avantages :
 Reprogrammable et non Volatile
Inconvénients :
 Impossible de sélectionner une seule cellule à effacer
 Impossible d’effacer la mémoire in-situ.
 L’écriture est beaucoup plus lente que sur une RAM. (Environ 1000x)

b-4- L’EEPROM

L’EEPROM (Electically EPROM) est une mémoire programmable et effaçable


électriquement.
Elle répond ainsi à l’inconvénient principal de l’EPROM et peut être programmée in situ.
Structure
Dans une EEPROM, le point mémoire est réalisé à partir d’un transistor SAMOS
reprenant le même principe que le FAMOS sauf que l’épaisseur entre les deux grilles est
beaucoup plus faible.
Programmation
Une forte tension électrique appliquée entre grille et source conduit à la programmation
de la mémoire. Une forte tension inverse provoquera la libération des électrons et donc
l’effacement de la mémoire.
Avantages :
 Comportement d'une RAM non Volatile.
 Programmation et effacement mot par mot possible.
Inconvénients :
 Très lente pour une utilisation en RAM.
 Coût de réalisation.

b-5- La FLASH EPROM

La mémoire Flash s'apparente à la technologie de l’EEPROM. Elle est programmable


et effaçable électriquement comme les EEPROM.
Structure
Il existe deux technologie différentes qui se différencient par l’organisation de leurs
réseaux mémoire : l’architecture NOR et NAND. L’architecture NOR propose un assemblage
des cellules élémentaires de mémorisation en parallèle avec les lignes de sélection comme
dans une EEPROM classique. L’architecture NAND propose un assemblage en série de ces
mêmes cellules avec les lignes de sélection. D’un point de vue pratique, la différence
majeure entre NOR et NAND tient à leurs interfaces. Alors qu’une NOR dispose de bus
d’adresses et de données dédiés, la NAND est dotée d’une interface d’E/S indirecte. . Par
contre, la structure NAND autorise une implantation plus dense grâce à une taille de cellule
approximativement 40 % plus petite que la structure NOR.

27
Support de cours : Architecture des ordinateurs

Avantages
 Programmation et effacement mot par mot possible.
 Temps d’accès faible.
Inconvénients
 Coût élevé
V- CRITERES DE CHOIX D’UNE MEMOIRE

Les principaux critères à retenir sont :


 Capacité
 Vitesse
 Consommation
 Coût

Généralement, un ordinateur contient plusieurs mémoires de taille et de vitesse différentes.


Ces mémoires peuvent être classées en quatre grands types.
Les mémoires de masse : qui stocke les informations qui doivent être conservées même
après extinction du système et qui sont accédée très rarement.
La mémoire principale : qui stocke toutes les informations temporairement auxquelles le
processeur doit accéder peu souvent mais qui doivent être conservées suffisamment
longtemps.
Les mémoires caches : qui accélèrent l’accès à la mémoire principale.
Les registres : très rapides contenant des instructions ou données que le processeur doit
manipuler.

On voit bien que les mémoires d’un ordinateur sont organisées de la plus lente à la
plus rapide. Le but de cette organisation est de placer les données les plus accessibles ou qui
ont de bonnes probabilités d’être accédées, dans une mémoire qui soit la plus rapide possible.
Le tout est de faire en sorte de placer les données intelligemment, et les repartir correctement
dans cette hiérarchie des mémoires.
Ce placement se base sur 02 principes qu’on appelle les principes de localité spatiale et
temporelle. Pour simplifier :
Un programme a tendance à réutiliser les instructions et données qui ont été accédées dans
le passé : c’est la localité temporelle ; et un programme qui s’exécute sur un processeur à
tendance à utiliser des instructions et des données qui ont des adresses mémoires très
proches, c’est la localité spatiale.
Ces deux principes semblent très simples, mais sont lourds de conséquences. On peut
exploiter ces 2 principes pour placer correctement nos données dans la bonne mémoire. Par
exemple, si on a accédé récemment à une donnée, il vaut mieux la copier dans une mémoire
plus rapide, afin d’y accéder rapidement les prochaines fois : on profite de la localité
temporelle. On peut aussi classer les données consultées ou modifiées fréquemment dans les
registres ou la mémoire cache au lieu de les classer en mémoire RAM. On peut aussi profiter
de la localité spatiale : si on accède à une donnée, autant pré charger aussi les données juste
à côté, au cas où elles seraient accédées.
Placer les bonnes données au bon endroit (dans la cache plutôt qu’en RAM) permet d’avoir
de sacrés gains de performances. Ce placement des données dans la bonne mémoire peut
être géré par le matériel de l’ordinateur, par la façon dont sont construits nos programmes, ou
généralement par le programmeur.
Par exemple :
La mémoire cache est souvent gérée directement par le matériel de notre ordinateur, d’une
façon qui peut être prise en compte par le programmeur.
Les registres sont générés par le programmeur (s’il programme en assembleur ou en langage
machine), ou par langage de programmation (par le compilateur pour être précis) ; la RAM est
implicitement gérée par le programmeur, etc.

28
Support de cours : Architecture des ordinateurs

Bref, sachez qu’un programmeur peut parfaitement prendre en compte le fait que les
mémoires d’un ordinateur ne vont pas à la même vitesse, et peut concevoir ses programmes
de façon à placer un maximum de données utile à la bonne mémoire. En effet, la façon dont
est conçu un programme joue énormément sur la façon donc celui-ci accèdera aux données,
et sur sa localité spatiale et temporelle. Vu que de nos jours, nos programmes passent de plus
en plus de temps à attendre que les données à manipuler soient lues ou écrites depuis la
mémoire, ce genre de choses commence à devenir une nécessité.
Bref, un programme peut, et doit, prendre en compte les principes de localité vus plus haut
dès la conception de ses programmes. Cette contrainte va se faire de plus en plus forte quand
on devra passer aux architectures multi-cœur.
Maintenant que cette petite remarque est faite, parlons un peu des différentes mémoires.
Commençons par ces fameux registres.

a)- Registres

Les registres sont fabriqués avec des mémoires SRAM. Ces registres sont très souvent
intégrés dans le processeur de votre machine, mais quelques périphériques possèdent eux
aussi des registres. La différence est que les registres de notre processeur vont stocker
temporairement des données pour pouvoir les manipuler rapidement. Les périphériques
utilisent des registres pour communiquer avec le processeur, bien plus rapide qu’eux. Sur les
processeurs X86 ainsi que la majorité des processeurs existants ou ayant existé, les registres
ne sont pas adressables. Sur de tels processeurs, chaque registre est identifié par un numéro
qui n’a rien à voir avec une adresse ! Ce numéro, ou nom de registre, permet d’identifier le
registre que l’on veut, mais ne sort jamais du processeur : ce nom de registre, ce numéro, ne
se retrouve jamais sur le bus d’adresse.

b)-Cache

Un cache est une mémoire qui doit être assez rapide, et est donc fabriqué avec la
SRAM, avez véloce. Ce cache est généralement intégré dans le processeur de votre
ordinateur, mais quelques périphériques possèdent eux aussi des caches, comme certains
disques durs.
Un cache n’est jamais adressable ! cela est dû au fait que chaque donnée présente
dans la mémoire cache est une copie d’un emplacement de la mémoire RAM. Le contenu du
cache est géré par un circuit qui décide quoi charger dans le circuit et quand. Lorsque le
processeur veut ainsi accéder à une mémoire RAM (en lecture ou en écriture), il va envoyer
l’adresse de cette case sur le bus. Celle-ci sera interceptée par les circuits chargés de gérer
le cache qui regarderont alors si le cache contient une copie de la case à manipuler. Si c’est
le cas, on lit ou écrit la donnée dans le cache. Dans le cas contraire, on accède à la mémoire
RAM. Cela explique qu’on n’ait pas besoin de donner des adresses aux cases mémoires du
cache : les circuits de gestion du cache savent à quelle case mémoire en RAM correspond
chaque case mémoire du cache.

c)-mémoires principales

La mémoire principale sert de mémoire de travail, et parfois de mémoire programme.


C’est dedans qu’on va stocker les données à manipuler et éventuellement le ou les
programme(s) à exécuter (sur les architectures VON NEUMANN ou sur les architectures
HARVARD modifiées). Par conséquent, on va devoir accéder à son contenu assez souvent et
pouvoir gérer cela de façon manuelle : toutes les mémoire RAM sont donc adressables.
La mémoire principale est fabriquée avec la DRAM, qui peut contenir plus de données sur une
surface égale que la SRAM.
Il faut dire que, contenir un système d’exploitation moderne et plusieurs programmes
en même temps nécessitant au moins quelques centaines de Go. L’utilisateur de DRAM au

29
Support de cours : Architecture des ordinateurs

lieu de SRAM permet à notre mémoire d’atteindre les 2 à 4 Go, ce qui fait tout de même 4
milliards de cases mémoires adressables pour 4 Go.

d)-mémoires de masse

Ces mémoires servent surtout à stocker de façon permanente des données ou des
programmes qui ne doivent pas être effacés :
Ce seront donc des mémoires non-volatiles, souvent fabriquées avec de la ROM ou des
dispositifs magnétiques. Les mémoires de masse servent toujours à stocker un programme
ou quelques paramètres / constantes utiles. On doit donc accéder à leur contenu et elles
sont donc adressables, à part certaines vielles mémoires magnétiques qui font exception. Vu
que ces mémoires doivent souvent stocker une grande quantité de bits (un programme
prend souvent beaucoup de place), elles doivent avoir une capacité énorme comparé aux
autres types de mémoires, et sont très lentes.
Parmi ces mémoires de masse, on trouve notamment :
 Les disques durs ;
 Les mémoires FLASH, utilisées dans les clés USB, voire dans les disques durs SSD ;
 Les disques optiques, comme les CD-ROM, DVD-ROM, et autres CD du genre ;
 Les fameuses disquettes, totalement obsolètes de nos jours ;
Mais aussi quelques mémoires très anciennes et rarement utilisées de nos jours, comme les
rubans perforés et quelques autres.

VI- NOTION DE HIERARCHIE MEMOIRE

Une mémoire idéale serait une mémoire de grande capacité, capable de stocker un
maximum d’informations et possédant un temps d’accès très faible afin de pouvoir travailler
rapidement sur ces informations. Mais il se trouve que les mémoires de grande capacité sont
souvent très lentes et que les mémoires rapides sont très chères. Et pourtant, la vitesse
d’accès à la mémoire conditionne dans une large mesure les performances d’un système. En
effet, c’est là que se trouve le goulot d’étranglement entre un microprocesseur capable de
traiter des informations très rapidement et une mémoire beaucoup plus lente (ex : processeur
actuel à 3Ghz et mémoire à 400MHz). Or, on n’a jamais besoin de toutes les informations au
même moment. Afin d’obtenir le meilleur compromis coût-performance, on définit donc une
hiérarchie mémoire. On utilise des mémoires de faible capacité mais très rapide pour stocker
les informations dont le microprocesseur se sert le plus et on utilise des mémoires de capacité
importante mais beaucoup plus lente pour stocker les informations dont le microprocesseur se
sert le moins. Ainsi, plus on s’éloigne du microprocesseur et plus la capacité et le temps
d’accès des mémoires vont augmenter.

30
Support de cours : Architecture des ordinateurs

TRAVAUX DIRIGES

1) Donner la hiérarchie des mémoires selon le temps d’accès.


2) Quelles sont les éléments caractéristiques d’une mémoire ?
3) Que représente pour vous les symboles suivant : Hertz, Octet ?
4) Vous disposez d’un disque dur de capacité 1509 949 440 bits, on vous demande
après avoir défini ce que c’est un bit ? Un Octet ? De convertir ce nombre en Octet et
en Ko
5) A quoi sert la carte graphique d’un ordinateur ?
6) Compléter le tableau ci-dessous par oui ou non.
ROM RAM Mémoire Flash Clé USB
Mémoire Morte
Mémoire Volatile
Mémoire
Secondaire

a. Définir système informatique et quelle différence existe-t-il entre un


système information organisationnel et celui informatisé
b. L’ordinateur de votre école dispose d’un livre de Mathématique
indispensable pour votre formation. Ce livre de mathématique ayant
une capacité de 31 Mo n’occupe une infirme partie de votre disque dur
de 10Go
i. Ne disposant que des disquettes de 3.5 pouces HD, combien
de disquette faut-il pour enregistrer ce livre ?
ii. Quel est l’espace restant sur le disque ?
iii. Combien de livre de ce type peut-on enregistrer dans ce
disque ?
7) Vous disposez d’un téléphone portable donc la carte mémoire à une capacité de 118
Mo, si vous décidez de l’utiliser pour le stockage des photos, et qu’il s’avère que
photos pèse exactement 64 Ko
a. Combien de photos pouvez-vous garder dans votre
téléphone ?
b. Si vous décidez d’effacer toutes les photos contenue dans
cette carte mémoire et de les remplacer par un document
contenant plusieurs pages de textes saisie dans Microsoft
Word ?
c. Combien de page pourra-t-on enregistrer dans cette mémoire
si une demie page contient en moyenne 1000 caractères en
tenant compte du fait qu’en code ASCII un caractère est codé
sur 8 bits ?
d. Combien de page si vous utilisez le code UNICODE où un
caractère est codé sur 16 bits ?
8) Quelle particularité existe-t-il entre une mémoire et une mémoire informatique ?
9) Qu’est-ce que la capacité d’une mémoire ?
10) Etant donné qu’il existe plusieurs types de mémoire informatique, quelle différence
faites-vous entre ces mémoires informatiques ?
11) Quelle différence faites-vous entre une mémoire non volatile et celle volatile ? Donner
en chacun un exemple.
12) Quelle différence faites-vous entre une mémoire ROM et celle RAM ?
13) Citez en présentant les types de mémoire morte ?
14) Présenter le principe de recherche des enregistrements dans une mémoire
séquentielle et une mémoire à accès direct ?

31
Support de cours : Architecture des ordinateurs

15) Qu’est-ce que le temps d’accès à la mémoire ? Et quelle conclusion peut-on faire
entre le temps d’accès d’une mémoire séquentielle par rapport à une mémoire
indexée ?
16) Classifiez les mémoires suivantes en terme de rapidité et en terme de capacité :
mémoire cache, registre, mémoire centrale et disque dur.
17) Dans un tableau, faite une étude comparative entre les mémoire SRAM et celles
DRAM.
18) Que signifie le sigle CMOS ? Et comment procède-t-on pour effacer la mémoire
CMOS ?
19) Quelle différence faites-vous entre une mémoire synchrone et celle asynchrone ?
Donner 02 exemples pour chacune.
20) Qu’est-ce que le rafraichissement mémoire ?
21) Un PC peut-il fonctionner sans disque dur ? justifiez votre réponse.
22) Faite un schéma récapitulatif des différents types de mémoires informatiques.
23) Qu’est ce qui détermine si une mémoire est synchrone ou asynchrone ?
24) Combien de type d’accès à lieu dans une mémoire ? citer les.

32
Support de cours : Architecture des ordinateurs

CHAPITRE IV : LES BUS

I. INTRODUCTION

Dans notre ordinateur, tous les composants (mémoire, processeurs…), sont fabriqués
séparément. Pour relier tous ces composants ensemble, on place ces composants sur un gros
circuit imprimé nommé la carte mère, sur laquelle on trouve un ou plusieurs bus pour relier le
tout. En somme, une carte mère n’est donc rien qu’un gros tas de fils reliés à des connecteurs
sur lesquels on va brancher des composants. Enfin presque, il y a des trucs en plus dessus :
le BIOS, de quoi créer les signaux d’horloge servant à cadencer les périphériques, etc. Mais
ces composants ne communiquent que par un seul bus. Il existe un bus pour communiquer
avec le disque dur, un pour la carte graphique, un pour le processeur, un pour la mémoire,
etc. De ce fait, de nombreux bus ont étés inventés et un ordinateur « lambda », avec sa souris,
son écran et son unité centrale contient un nombre impressionnant de bus.

Comme par exemple :


 Le bus PCI (Peripheral Component Interconnect), utilisé pour les carte sons et qui
servait autre fois à communiquer avec les cartes graphiques ;
 Le bus AGP (Accelerated Graphics Port), autre fois utilisé pour la carte graphique ;
 Le bus PCI-EXPRESS, utilisé pour communiquer avec des cartes graphiques ou sons ;
 Le bus P-ATA, relié au disque dur ;
 Le bus S-ATA, utilisé pour communiquer avec le disque dur ;
 Le bus LOW PIN COUNT, qui permet d’accéder au clavier, aux souris, au lecteur de
disquette, et aux ports parallèles et séries ;
 Les bus ISA (Industry Standard Architecture), et son cousin le bus EISA (Extended
Industry standard Architecture), autrefois utilisé pour des cartes d’extensions ;
 Le bus SCSI (Small Computer System Interface) et des variantes (SCSI parallèle, serial
Attached SCSI, ISCSI) qui permettent de communiquer avec des disques durs ;

II-LES CARACTERISTIQUES DES BUS

 Sa largeur : C’est le nombre de bits qui peuvent être transmis simultanément sur notre
bus
 Son débit binaire : C’est le nombre de bits que notre bus peut transmettre par
seconde. Plus celui-ci est élevé, plus le bus est rapide. NB : Nous rappelons
Débit=fréquence x largeur
 Son caractère HALF DUPLEX, FULL DUPLEX, ou SIMPLEX : vous verrez ce que
ça signifie dans la suite du chapitre.
 Son caractère synchrone ou asynchrone : certains bus possèdent un fil sur lequel
circule un signal d’horloge permettant de synchroniser les différentes composantes :
ce sont les bus synchrones. D’autre se passent du signal d’horloge, et synchronisent
leurs composant par d’autres méthodes.
 Son protocole : le protocole d’un bus défini comment celui-ci est géré. Ce protocole
définit quand et comment les données doivent être envoyées sur le bus.
Mais ça ne se limite pas à ça ; en effet, certains bus ont besoin de mécanismes assez
sophistiqués pour fonctionner correctement. Pour donner un exemple, on peut citer le cas dans
lequel plusieurs composants électroniques doivent transmettre leurs données sur un seul et
unique bus. Le protocole doit alors intégrer des mécanismes permettant aux composants de
ne pas se marcher sur les pieds en monopolisant le bus ou en écrivant les données en même
temps.

33
Support de cours : Architecture des ordinateurs

III-LES TYPES DE BUS

1) Bus série et parallèle


Il existe des bus qui peuvent échanger qu’un seul bit à la fois. On appelle ce genre
de bus un BUS SERIE. D’autres bus peuvent échanger plusieurs bits en même temps
et sont appelles BUS PARALLELE. Dans nos ordinateurs, les bus qui relient le
processeur à la mémoire (ou la mémoire aux périphériques) sont des bus parallèles.
Ils sont généralement divisés en trois sous bus :
 Le bus d’adresse ; par lequel les adresses transitent
 Le bus de données par lequel les données s’échangent entre composants.
 Le bus de commande, qui contient au moins le bit R/W et qui gère les échanges
d’informations sur le bus.
Simplex, Half duplex ou Full duplex
Un autre paramètre important concernant nos bus est le sens de transfert des données.
Pour expliquer cela, on va devoir clarifier quelques notions assez simples.

Un composant qui envoie une donnée sur le bus est appelé un émetteur, ceux qui se
contentent de recevoir une donnée sur le bus sont les appelés récepteurs.

2) Bus Simplex
Ici les informations ne vont que dans un sens. On a donc deux cas : soit les informations
sont transmises d’un périphérique vers un autre composant (par exemple le processeur).
L’autre sens est interdit !
Soit les informations sont transmises d’un composant vers le périphérique. L’autre sens est
interdit !
Il n’y a qu’un seul des composants qui puisse être émetteur et l’autre reste à tout jamais
récepteur.
3) Bus Half-duplex
Sur un bus Half-duplex, il est possible d’être émetteur ou récepteur, suivant la situation.
Par contre, impossible d’être à la fois émetteur et récepteur.
4) Bus Full-duplex
Un bus Full-duplex permet d’être à la fois émetteur et récepteur. L’astuce des bus Full-
duplex est simple : il suffit de regrouper 2 bus Simplex ensemble ! Il y’a un bus pour
l’émission et un pour la réception.
Ces bus sont donc plus rapides, vu qu’on peut émettre et recevoir des données en même
temps, mais nécessitent plus de fils à câbler, ce qui peut être un désavantage.

Bus Synchrones et asynchrones

5) Bus synchrones
Certains bus sont synchronisés par un signal d’horloge : ce sont les bus synchrones. Sur
de tels bus, un fil est spécialement dédié à l’horloge, cette fameuse tension périodique vue il
y’a quelques chapitres. Quand à nos composant, ils sont reliés aux bus via les bascules, afin
de synchroniser les lectures des composants sur le bus.
Avec ce genre de bus, le temps de transmission d’une donnée sur le bus est fixé une fois pour
toute. Ainsi, le composant qui cherche à effectuer une lecture ou une écriture sait combien de
cycles d’horloge sa demande va prendre.

6) Bus asynchrones
Ces se passent du signal d’horloge. Ils ont un protocole conçu spécialement pour faire
communiquer deux périphériques / composants sans les synchroniser sur une horloge. Pour
cela, ces bus permettent à deux composants de se synchroniser grâce à des fils spécialisés
du bus de commande, qui transmettent des bits particuliers.

34
Support de cours : Architecture des ordinateurs

TRAVAUX DIRIGES

1. Tous les composant d’un PC sont reliés par un exemple de fils conducteurs. Quel
autre appellation peut-on donner à ces fils conducteurs ?
2. Enumérez en donnant le nom de chaque type de bus.
3. Qu’est-ce que le FSB (Front Side Bus) ?
4. Qu’est-ce qu’un émetteur et un récepteur ?
5. Quelle différence faites-vous entre un bus Simplex, Half duplex et Full duplex ?
6. Quelles sont les caractéristiques d’un bus ?
7. Expliquez ce terme technique : un bus de mémoire à largeur de 32 bits.
8. Donnez 05 exemples de bus.
9. Quelle différence faites-vous entre l’architecture HAVARD et de VON NEUMANN ?
10. Compléter le tableau.
Fréquence en MHz 256 320 126 124 233
Largeur du bus en Bit 8 16 64 128 256
Bande passante ou débit ? ? ? ? ?

35
Support de cours : Architecture des ordinateurs

CHAPITRE-V- LE CHIPSET

I- INTRODUCTION
L'organisation des bus de nos ordinateurs a évoluée au cours du temps pendant que
de nombreux bus apparaissaient. On considère qu'il existe trois générations deux bien
distinctes :

 Une première génération avec un bus unique, la plus ancienne ;


 Une seconde génération avec des bus segmentés ;

II- PREMIERE GENERATION


Pour les bus de première génération, un seul et unique bus reliait tous les
composants de l'ordinateur. Ce bus s'appelait le bus système ou backplane bus.

Ce bus était partagé entre tous les composants : chacun d’entre eux monopolisait le
bus durant un moment, et le libérait quand il avait fini de transmettre des données dessus.
Ces bus de première génération avaient le fâcheux désavantage de relier des composants
allant à des vitesses très différentes : il arrivait fréquemment qu'un composant rapide
doive attendre qu'un composant lent libère le bus. Le processeur était le composant le
plus touché par ces temps d'attente.
III- SECONDE GENERATION
Pour régler ce problème, on a divisé le bus système en deux : un bus pour les
périphériques lents, et un autre pour les périphériques rapides. Deux composants lents
peuvent ainsi communiquer entre eux sans avoir à utiliser le bus reliant les périphériques
rapides, qui est alors utilisable à volonté par les périphériques rapides (et vice versa), qui est
alors utilisable à volonté par les périphériques rapides. Les composants rapides et lents,
communiquent chacun de leur côté sans se marcher dessus.

36
Support de cours : Architecture des ordinateurs

Comme vous le voyez sur cette image, les composants considérés comme rapides sont le
processus et la mémoire. Ceux-ci sont souvent associés à la carte graphique. Le reste des
composants est considéré comme lent.
IV- NORTHBRIDGE ET SOUTHBRIDGE
Sur certains ordinateurs, le chipset est divisé en 2 :
 Le North bridge :
Une partie qui s’occupe de tous les bus reliés aux composants rapides : processeurs,
RAM, carte graphique.
 Le South bridge :

Et une partie qui s’occupe de gérer les bus des périphériques lents, comme les disques durs,
les port USB, le clavier, etc.

Address bus

CPU Data Bus North bridge

Control Bus

RAM

South bridge

I /O Other

De nos jours
De nos jours, nos ordinateurs contiennent bien plus que deux bus, et presque chaque
composant ou contrôleur de périphérique est connecté sur le Chipset par un bus.
La preuve par exemple :

37
Support de cours : Architecture des ordinateurs

PENTIUM 4

Socket 478 FSB (800MHz,604GB/sec)

DDR 400 AGP 8X


(3.2GB/sec) (2.1GB/sec) CARTE
RAM DDR 400 NORTH BRIDGE CSA GRAPHIQUE
(3.2GB/sec) (0.266GB/sec)
Hubink1.5 (266 MB/sec)
1GB Ethernet
Serial ATA PATA
Disque 150MB/sec (100MB/sec)
dur
PATA
Serial ATA
(100MB/sec)
Disque 150MB/sec
dur

Carte AC/97 (1MB/sec)


son SOUTHBRIDGE

(20MB/sec)

USB 2.0 10/100MB Ethernet


(60MB/sec)

PCI Bus(132MB/sec)

Sur des ordinateurs ayant des processeurs (2009-2010), le northbridge a disparu : celui-ci
est directement dans le processeur.

a. Front Side Bus


Parmi tous ces bus, un bus fait l’objet d’une attention particulière : le Front Side Bus. C’est le
bus qui relie le processeur au chipset. De plus, celui-ci est rapide, le processeur a moins de
risque d’être ralenti par la mémoire et par les opérations de communications avec le chipset.
Ce Front Side Bus (FSB) est cadencé à une fréquence qui est considéré comme l’horloge de
base par laquelle toutes les autres fréquences découlent. Ainsi, la fréquence du processeur
est un multiple de la fréquence du FSB. Mais le processeur n’est pas le seul à avoir ce luxe :
toutes les autres fréquences de l’ordinateur sont déduites de la fréquence du FSB par d’autres
coefficients multiplicateurs.

38
Support de cours : Architecture des ordinateurs

Sur certaines cartes mères, il est possible de modifier la fréquence du FSB et/ou les
coefficients multiplicateurs : on peut ainsi faire varier la fréquence de notre processeur ou de
notre mémoire. Certains préfèrent l’augmenter pour avoir un processeur ou une mémoire plus
rapide, et font ce qu’on appelle l’overcloking (surfréquençage en français). D’autre pratiquent
l’undercloking, et diminuent la fréquence de leurs processeurs pour que celui-ci chauffe moins
et pour gagner un peu d’argent en faisant baisser leur fracture. Mais il s’agit là des pratiques
très dangereuses qui peuvent faire rendre l’âme du processeur prématurément : ces
manipulations doivent se faire par des professionnelles et des personnes qualifiées.

b. Back Side Bus

Moins connu que le FSB, il existe un autre bus qui avait autre fois son importance sur
certaines cartes mères : Back Side Bus. Autre fois, la mémoire cache était (totalement ou
en partie) séparée du processeur. Le Back Side Bus était chargé de relier le processeur
à la mémoire cache.

V- ARCHITECTURE SANS FRONT SIDE BUS

Récemment, le FSB a subi quelques évolutions. Sur les cartes mères récentes, le
northbridge a été intégré au processeur, ce qui a nécessité quelques modifications.
L’organisation des bus sur nos ordinateurs réels ressemble plus au schéma qui suit

En clair, on a un bus qui relie le processeur à la mémoire, et un autre qui relie le


processeur au Southbridge, avec parfois un autre bus pour la carte graphique. Ces
nouveaux bus reliant le processeur au Southbridge vous sont peut-être connus si vous
allez souvent sur des sites parlant de l’actualité du Hardware : il ne s’agit ni plus ni moins
que des bus Intel, quickpath InterConnect de chez Intel, et l’Hyper Transport d’AMD.

39

Vous aimerez peut-être aussi