Support Cours Architecture+Td
Support Cours Architecture+Td
DESCRIPTIF DU COURS
BUT
Familiariser les étudiants avec les constituants phares des ordinateurs à savoir : le
microprocesseur, les mémoires, les bus, le disque dur, les chipsets etc…
Donner un aperçu général sur l’architecture des nouvelles machines.
A la fin de ce cours, l’étudiant sera capable :
- De maitriser l’architecture de base d’un ordinateur ;
- De bien comprendre tous ce qui tourne autour des mémoires informatiques ;
- De maitriser parfaitement la technologie des microprocesseurs ;
- De maitriser les notions du bus et de chipset ;
- D’être capable d’expliquer le mécanisme d’échanges des données entre les mémoires
et le microprocesseur ;
- De maitriser les critères de choix d’un ordinateur performant sur le marché.
1
Support de cours : Architecture des ordinateurs
CHAPITRE 0 : GENERALITES
I. INTRODUCTION
Les différents organes du système sont reliés par des voies de communication appelées bus.
Mémoire
Unité centrale Interface E/S
principale
BUS 2
Support de cours : Architecture des ordinateurs
1-L’unité centrale
Elle est composée par le microprocesseur qui est chargé d’interpréter et d’exécuter
les instructions d’un programme, de lire ou de sauvegarder les résultats dans la mémoire et
de communiquer avec les unités d’échange. Toutes les activités du microprocesseur sont
cadencées par une horloge.
On caractérise le microprocesseur par :
sa fréquence d’horloge : en MHz ou GHz
le nombre d’instructions par secondes qu’il est capable d’exécuter : en MIPS
la taille des données qu’il est capable de traiter : en bits
Remarque :
Les disques durs, disquettes, CDROM, etc… sont des périphériques de stockage et sont
considérés comme des mémoires secondaires.
4-Les bus
5- Décodage d’adresses
3
Support de cours : Architecture des ordinateurs
Décodeur d’adresses
BUS D’ADRESSES
Bus de données
Remarque : lorsqu’un composant n’est pas sélectionné, ses sorties sont mises à l’état «
haute impédance » afin de ne pas perturber les données circulant sur le bus. (Elle présente
une impédance de sortie très élevée = circuit ouvert).
Remarques :
La réalisation de circuits intégrés de plus en plus complexe a été rendue possible par
l’apparition du transistor en 1947. Il a fallu attendre 1958 pour voir apparaître le 1ier circuit
intégré réalisé par Texas Instrument.
Rappels
Les informations traitées par un microprocesseur sont de différents types (nombres,
instructions, images, vidéo, etc…) mais elles sont toujours représentées sous un format
binaire. Seul le codage changera suivant les différents types de données à traiter. Elles sont
représentées physiquement par 2 niveaux de tensions différents.
En binaire, une information élémentaire est appelé bit et ne peut prendre que deux valeurs
différentes : 0 ou 1.
4
Support de cours : Architecture des ordinateurs
Une information plus complexe sera codée sur plusieurs bit. On appelle cet ensemble un
mot.
Un mot de 8 bits est appelé un octet.
5
Support de cours : Architecture des ordinateurs
I-PRESENTATION
II-CARACTERISTIQUES
Il existe plusieurs façons de caractériser une carte mère, notamment selon les
caractéristiques suivantes :
le facteur d'encombrement,
le chipset,
le type de support de processeur,
les connecteurs d'entrée-sortie.
1- Facteur d’encombrement d’une carte mère
On désigne généralement par le terme « facteur d’encombrement » (ou facteur de
forme, en anglais form factor), la géométrie, les dimensions, l’agencement et les
caractéristiques électriques de la carte mère. Afin de fournir des cartes mères pouvant
s’adapter dans différents boitiers de marques différentes, des standards ont été mis au
point :
AT baby / AT full format est un format utilisé sur les premiers ordinateurs PC du type
386 ou 486. Ce format a été remplacé par le format ATX possédant une forme plus
propice à la circulation de l'air et rendant l'accès aux composants plus pratique ;
ATX : Le format ATX est une évolution du format Baby-AT. Il s'agit d'un format étudié
pour améliorer l'ergonomie. Ainsi la disposition des connecteurs sur une carte mère
ATX est prévue de manière à optimiser le branchement des périphériques (les
connecteurs IDE sont par exemple situés du côté des disques). D'autre part, les
composants de la carte mère sont orientés parallèlement, de manière à permettre une
meilleure évacuation de la chaleur ;
1- ATX standard : Le format ATX standard présente des dimensions
classiques de 305x244 mm Il propose un connecteur AGP et 6
connecteurs PCI.
2- Micro-ATX : Le format micro ATX est une évolution du format ATX,
permettant d'en garder les principaux avantages tout en proposant un format
de plus petite dimension (244x244 mm), avec un coût réduit. Le format micro-
ATX propose un connecteur AGP et 3 connecteurs PCI.
3- Flex-ATX : Le format Flex ATX est une extension du format micro ATX afin
d'offrir une certaine flexibilité aux constructeurs pour le design de leurs
ordinateurs. Il propose un connecteur AGP et 2 connecteurs PCI.
4- mini-ATX : Le format mini-ATX est un format compact alternatif au format
micro-ATX (284x208 mm), proposant un connecteur AGP et 4
6
Support de cours : Architecture des ordinateurs
Ainsi, du choix d'une carte mère (et de son facteur de forme) dépend le choix du boîtier. Le
tableau ci-dessous récapitule les caractéristiques des différents facteurs de forme :
2- Composants intégrés
7
Support de cours : Architecture des ordinateurs
a- Le Chipset
Les chipsets des cartes-mères actuelles intègrent généralement une puce graphique et
presque toujours une puce audio, ce qui signifie qu'il n'est pas nécessaire d'installer une carte
graphique ou une carte son. Ces cartes intégrées sont maintenant presque toujours de bonne
qualité et il n'est en général pas nécessaire de les désactiver dans le setup du BIOS, même si
on veut installer des cartes d'extension de meilleure qualité dans les emplacements prévus à
cet effet ; le simple fait de mettre en place une carte d'extension est suffisant pour désactiver
la carte intégrée.
L'horloge temps réel (notée RTC, pour Real Time Clock) est un circuit chargé de la
synchronisation des signaux du système. Elle est constituée d'un cristal qui, en vibrant, donne
des impulsions (appelés tops d'horloge) afin de cadencer le système. On appelle fréquence
de l'horloge (exprimée en MHz) le nombre de vibrations du cristal par seconde, c'est-à-dire le
nombre de tops d'horloge émis par seconde. Plus la fréquence est élevée, plus le système
peut traiter d'informations.
Lorsque l'ordinateur est mis hors tension, l'alimentation cesse de fournir du courant à la carte
mère. Or, lorsque l'ordinateur est rebranché, le système est toujours à l'heure. Un circuit
électronique, appelé CMOS (Complementary Metal-Oxyde Semiconductor, parfois
appelé BIOS CMOS), conserve en effet certaines informations sur le système, telles que
l'heure, la date système et quelques paramètres essentiels du système.
Le CMOS est continuellement alimenté par une pile (au format pile bouton) ou une
batterie située sur la carte mère. Ainsi, les informations sur le matériel installé dans
l'ordinateur (comme par exemple le nombre de pistes, de secteurs de chaque disque dur) sont
conservées dans le CMOS. Dans la mesure où le CMOS est une mémoire lente, certains
systèmes recopient parfois le contenu du CMOS dans la RAM (mémoire rapide), le terme de
8
Support de cours : Architecture des ordinateurs
« memory shadow » est employé pour décrire ce processus de copie en mémoire vive.
Le CMOS a permis de mettre des canaux complémentaires sur une même puce. Par rapport
à la TTL ou TTLS, le CMOS est beaucoup moins rapide, mais a consomme en revanche
infiniment moins d'énergie, d'où son emploi dans les horloges d'ordinateurs, qui sont
alimentées par des piles. Le terme de CMOS est parfois utilisé à tort pour désigner l'horloge
des ordinateurs.
Lorsque l'heure du système est régulièrement réinitialisée, ou que l'horloge prend du retard, il
suffit généralement d'en changer la pile !
c- Le BIOS
Il est possible de configurer le BIOS grâce à une interface (nommée BIOS setup,
traduisez configuration du BIOS) accessible au démarrage de l'ordinateur par simple pression
d'une touche (généralement la touche Suppr. En réalité le setup du BIOS sert uniquement
d'interface pour la configuration, les données sont stockées dans le CMOS. Pour plus
d'informations n'hésitez pas à vous reporter au manuel de votre carte mère).
3- Le support de processeur
La carte mère possède un emplacement (parfois plusieurs dans le cas de cartes mères
multiprocesseurs) pour accueillir le processeur, appelé support de processeur. On distingue
deux catégories de supports :
Slot (en français fente) : il s'agit d'un connecteur rectangulaire dans lequel on enfiche le
processeur verticalement
Socket (en français embase) : il s'agit d'un connecteur carré possédant un grand nombre
de petits connecteurs sur lequel le processeur vient directement s'enficher
Au sein de ces deux grandes familles, il existe des versions différentes du support, selon le
type de processeur. Il est essentiel, quel que soit le support, de brancher délicatement le
processeur afin de ne tordre aucune de ses broches (il en compte plusieurs centaines).
9
Support de cours : Architecture des ordinateurs
Afin de faciliter son insertion, un support appelé ZIF (Zero Insertion Force,
traduisez force d'insertion nulle) a été créé. Les supports ZIF possèdent une petite manette,
qui, lorsqu'elle est levée, permet l'insertion du processeur sans aucune pression et, lorsqu'elle
est rabaissée, maintient le processeur sur son support.
La mémoire vive (RAM pour Random Access Memory) permet de stocker des
informations pendant tout le temps de fonctionnement de l'ordinateur, son contenu est par
contre détruit dès lors que l'ordinateur est éteint ou redémarré, contrairement à une mémoire
de masse telle que le disque dur, capable de garder les informations même lorsqu'il est hors
tension. On parle de « volatilité » pour désigner ce phénomène.
Pourquoi alors utiliser de la mémoire vive alors que les disques durs reviennent moins
chers à capacité égale ? La réponse est que la mémoire vive est extrêmement rapide par
comparaison aux périphériques de stockage de masse tels que le disque dur. Elle possède en
10
Support de cours : Architecture des ordinateurs
La mémoire vive se présente sous la forme de barrettes qui se branchent sur les connecteurs
de la carte mère.
Les connecteurs d'extension (en anglais slots) sont des réceptacles dans lesquels il est
possible d'insérer des cartes d'extension, c'est-à-dire des cartes offrant de nouvelles
fonctionnalités ou de meilleures performances à l'ordinateur. Il existe plusieurs sortes de
connecteurs :
Connecteur ISA (Industry Standard Architecture) : permettant de connecter des cartes
ISA, les plus lentes fonctionnant en 16-bit
Connecteur VLB (Vesa Local Bus): Bus servant autrefois à connecter des cartes
graphiques
Connecteur PCI (Peripheral Component InterConnect) : permettant de connecter des
cartes PCI, beaucoup plus rapides que les cartes ISA et fonctionnant en 32-bit
Connecteur AGP (Accelerated Graphic Port): un connecteur rapide pour carte graphique.
Connecteur PCI Express (Peripheral Component InterConnect Express) : architecture de
bus plus rapide que les bus AGP et PCI.
Connecteur AMR (Audio Modem Riser): ce type de connecteur permet de brancher des
mini-cartes sur les PC en étant équipés
11
Support de cours : Architecture des ordinateurs
TRAVAUX DIRIGES
12
Support de cours : Architecture des ordinateurs
I- PRESENTATION
Le processeur (CPU, pour Central Processing Unit, soit Unité Centrale de Traitement)
est le cerveau de l'ordinateur. Il permet de manipuler des informations numériques, c'est-à-
dire des informations codées sous forme binaire, et d'exécuter les instructions stockées en
mémoire.
Le premier microprocesseur (Intel 4004) a été inventé en 1971. Il s'agissait d'une unité de
calcul de 4 bits, cadencé à 108 kHz. Depuis, la puissance des microprocesseurs augmente
exponentiellement. Quels sont donc ces petits morceaux de silicium qui dirigent nos
ordinateurs?
II- FONCTIONNEMENT
Le processeur (noté CPU, pour Central Processing Unit) est un circuit électronique
cadencé au rythme d'une horloge interne, grâce à un cristal de quartz qui, soumis à un courant
électrique, envoie des impulsions, appelées « top ». La fréquence d'horloge (appelée
également cycle, correspondant au nombre d'impulsions par seconde, s'exprime en Hertz
(Hz). Ainsi, un ordinateur à 200 MHz possède une horloge envoyant 200 000 000 de
battements par seconde. La fréquence d'horloge est généralement un multiple de la fréquence
du système (FSB, Front-Side Bus), c'est-à-dire un multiple de la fréquence de la carte mère.
III- INSTRUCTION
Une instruction est l'opération élémentaire que le processeur peut accomplir. Les
instructions sont stockées dans la mémoire principale, en vue d'être traitée par le processeur.
Une instruction est composée de deux champs :
Le code opération, représentant l'action que le processeur doit accomplir ;
Le code opérande, définissant les paramètres de l'action. Le code opérande dépend de
l'opération. Il peut s'agir d'une donnée ou bien d'une adresse mémoire.
Le nombre d'octets d'une instruction est variable selon le type de donnée (l'ordre de
grandeur est de 1 à 4 octets).
Les instructions peuvent être classées en catégories dont les principales sont :
13
Support de cours : Architecture des ordinateurs
1. Le PC contient l'adresse de l'instruction suivante du programme. Cette valeur est placée sur
le bus d'adresses par l'unité de commande qui émet un ordre de lecture.
2. Au bout d'un certain temps (temps d'accès à la mémoire), le contenu de la case mémoire
sélectionnée est disponible sur le bus des données.
3. L'instruction est stockée dans le registre instruction du processeur.
14
Support de cours : Architecture des ordinateurs
V- LES REGISTRES
15
Support de cours : Architecture des ordinateurs
Les caches du premier niveau sont très rapides d'accès. Leur délai d'accès tend à
s'approcher de celui des registres internes aux processeurs.
La mémoire cache de second niveau (appelée L2 Cache, pour Level 2 Cache) est
située au niveau du boîtier contenant le processeur (dans la puce). Le cache de second
niveau vient s'intercaler entre le processeur avec son cache interne et la mémoire vive. Il
est plus rapide d'accès que cette dernière mais moins rapide que le cache de premier
niveau.
La mémoire cache de troisième niveau (appelée L3 Cache, pour Level 3 Cache)
autrefois située au niveau de la carte mère (utilisation de la mémoire centrale), elle est
aujourd'hui intégrée directement dans le CPU.
Tous ces niveaux de cache permettent de réduire les temps de latence des différentes
mémoires lors du traitement et du transfert des informations. Pendant que le processeur
travaille, le contrôleur de cache de premier niveau peut s'interfacer avec celui de second
niveau pour faire des transferts d'informations sans bloquer le processeur. De même, le cache
de second niveau est interfacé avec celui de la mémoire vive (en l'absence de cache de
troisième niveau intégré), pour permettre des transferts sans bloquer le fonctionnement normal
du processeur.
Signaux de commande
Les signaux de commande sont des signaux électriques permettant d'orchestrer les
différentes unités du processeur participant à l'exécution d'une instruction. Les signaux de
commandes sont distribués grâce à un élément appelé séquenceur. Le signal Read / Write,
en français lecture / écriture, permet par exemple de signaler à la mémoire que le processeur
désire lire ou écrire une information.
16
Support de cours : Architecture des ordinateurs
Unité fonctionnelles
Le processeur est constitué d'un ensemble d'unités fonctionnelles reliées entre elles.
L'architecture d'un microprocesseur est très variable d'une architecture à une autre, cependant
les principaux éléments d'un microprocesseur sont les suivants :
Une unité d'instruction (ou unité de commande, en anglais control unit) qui lit les
données arrivant, les décode puis les envoie à l'unité d’exécution.
L'unité d'instruction est notamment constituée des éléments suivants :
Séquenceur (ou bloc logique de commande) chargé de synchroniser
l'exécution des instructions au rythme d'une horloge. Il est ainsi chargé de
l'envoi des signaux de commande ;
Compteur ordinal contenant l'adresse de l'instruction en cours ;
Registre d'instruction contenant l'instruction suivante.
Une unité d'exécution (ou unité de traitement), qui accomplit les tâches que lui a
données l'unité d'instruction. L'unité d'exécution est notamment composée des éléments
suivants :
L'unité arithmétique et logique (notée UAL ou en
anglais ALU pour Arithmetical and Logical Unit). L'UAL assure les fonctions
basiques de calcul arithmétique et les opérations logiques (ET, OU, Ou
exclusif, etc.) ;
L'unité de virgule flottante (notée FPU, pour Floating Point Unit), qui
accomplit les calculs complexes non entiers que ne peut réaliser l'unité
arithmétique et logique.
Le registre d'état ;
Le registre accumulateur.
Une unité de gestion des bus (ou unité d'entrées-sorties), qui gère les flux
d'informations entrant et sortant, en interface avec la mémoire vive du système ;
17
Support de cours : Architecture des ordinateurs
Assemblés, les transistors peuvent constituer des circuits logiques, qui, assemblés
à leur tour, constituent des processeurs. Le premier circuit intégré date de 1958 et a été mis
au point par la société Texas Instruments.
Les transistors MOS sont ainsi réalisés dans des tranches de silicium
(appelées wafer, traduisez gaufres), obtenues après des traitements successifs. Ces
tranches de silicium sont alors découpées en éléments rectangulaires, constituant ce que
l'on appelle un « circuit ». Les circuits sont ensuite placés dans des boîtiers comportant des
connecteurs d'entrée-sortie, le tout constituant un « circuit intégré ». La finesse de la
gravure, exprimée en microns (micromètres, notés µm), définit le nombre de transistors par
unité de surface. Il peut ainsi exister jusqu'à plusieurs millions de transistors sur un seul
processeur.
VIII- FAMILLES
Chaque type de processeur possède son propre jeu d'instruction. On distingue ainsi les
familles de processeurs suivants, possédant chacun un jeu d'instruction qui leur est propre :
80x86 : le « x » représente la famille. On parle ainsi de 386, 486, 586, 686, etc.
ARM
IA-64
MIPS
Motorola 6800
PowerPC
SPARC
...
Jeu d’instruction
18
Support de cours : Architecture des ordinateurs
1-Architecture CISC
L'architecture CISC est utilisée en particulier par les processeurs de type 80x86. Ce
type d'architecture possède un coût élevé dû aux fonctions évoluées imprimées sur le silicium.
D'autre part, les instructions sont de longueurs variables et peuvent parfois nécessiter
plus d'un cycle d'horloge. Or, un processeur basé sur l'architecture CISC ne peut traîter
qu'une instruction à la fois, d'où un temps d'exécution conséquent.
2-Architecture RISC
Les programmes doivent ainsi être traduits en instructions simples, ce qui entraîne un
développement plus difficile et/ou un compilateur plus puissant. Une telle architecture possède
un coût de fabrication réduit par rapport aux processeurs CISC. De plus, les instructions,
simples par nature, sont exécutées en un seul cycle d'horloge, ce qui rend l'exécution des
programmes plus rapide qu'avec des processeurs basés sur une architecture CISC. Enfin, de
tels processeurs sont capables de traîter plusieurs instructions simultanément en les traitant
en parallèle.
Améliorations technologiques
A- Le parallélisme
19
Support de cours : Architecture des ordinateurs
B- Le pipeline
Le pipeline (ou pipelining) est une technologie visant à permettre une plus grande
vitesse d'exécution des instructions en parallélisant des étapes.
Les instructions sont organisées en file d'attente dans la mémoire, et sont chargées les unes
après les autres.
Grâce au pipeline, le traitement des instructions nécessite au maximum les cinq étapes
précédentes. Dans la mesure où l'ordre de ces étapes est invariable (LI, DI, EX, MEM et
ER), il est possible de créer dans le processeur un certain nombre de circuits spécialisés
pour chacune de ces phases.
L'objectif du pipeline est d'être capable de réaliser chaque étape en parallèle avec les étapes
amont et aval, c'est-à-dire de pouvoir lire une instruction (LI) lorsque la précédente est en
cours de décodage (DI), que celle d'avant est en cours d'exécution (EX), que celle située
encore précédemment accède à la mémoire (MEM) et enfin que la première de la série est
déjà en cours d'écriture dans les registres (ER).
Il faut compter en général 1 à 2 cycles d'horloge (rarement plus) pour chaque phase du
pipeline, soit 10 cycles d'horloge maximum par instruction. Pour deux instructions, 12 cycles
d'horloge maximum seront nécessaires (10+2=12 au lieu de 10*2=20), car la précédente
instruction était déjà dans le pipeline. Les deux instructions sont donc en traitement dans le
processeur, avec un décalage d'un ou deux cycles d'horloge). Pour 3 instructions, 14 cycles
d'horloge seront ainsi nécessaires, etc.
20
Support de cours : Architecture des ordinateurs
Il faut noter toutefois qu'il existe différents types de pipelines, de 2 à 40 étages, mais
le principe reste le même.
D- Hyper Threading
E- Multi-cœur
Un processeur multi-cœur est tout simplement un processeur composé non pas de
1 mais de 2 (ou 4 ou 8) unités de calcul. Ainsi, pour un processeur bi-cœur (ou Dual Core) le
processeur dispose à fréquence d'horloge égale d'une puissance de calcul deux fois plus
importante. Pour autant, le gain n'est pas systématiquement visible. En effet, il faut que les
logiciels et les systèmes d'exploitation sachent gérer correctement ces processeurs afin
qu'un gain significatif soit perceptible. Ainsi, sous Windows, seul Vista et Sept exploitent
correctement ces processeurs. Dans ce cas, la version 64 bits est conseillée.
TRAVAUX DIRIGES
21
Support de cours : Architecture des ordinateurs
22
Support de cours : Architecture des ordinateurs
Une mémoire peut être représentée comme une armoire de rangement constituée de
différents tiroirs. Chaque tiroir représente alors une case mémoire qui peut contenir un seul
élément : des données. Le nombre de cases mémoires pouvant être très élevé, il est alors
nécessaire de pouvoir les identifier par un numéro. Ce numéro est appelé adresse. Chaque
donnée devient alors accessible grâce à son adresse
Avec une adresse de n bits il est possible de référencer au plus 2n cases mémoire.
Chaque case est remplie par un mot de données (sa longueur m est toujours une puissance
de 2). Le nombre de fils d’adresses d’un boîtier mémoire définit donc le nombre de cases
mémoire que comprend le boîtier. Le nombre de fils de données définit la taille des données
que l’on peut sauvegarder dans chaque case mémoire. En plus du bus d’adresses et du bus
de données, un boîtier mémoire comprend une entrée de commande qui permet de définir le
type d’action que l’on effectue avec la mémoire (lecture/écriture) et une entrée de sélection
qui permet de mettre les entrées/sorties du boîtier en haute impédance (quantité servant à
déterminer l’amplitude du courant pour un voltage donné dans un circuit à courant alternatif).
La capacité : c’est le nombre total de bits que contient la mémoire. Elle s’exprime aussi
souvent en octet.
Le format des données : c’est le nombre de bits que l’on peut mémoriser par case
mémoire. On dit aussi que c’est la largeur du mot mémorisable.
Le temps d’accès : c’est le temps qui s'écoule entre l'instant où a été lancée une opération
de lecture/écriture en mémoire et l'instant où la première information est disponible sur le bus
de données.
23
Support de cours : Architecture des ordinateurs
Le temps de cycle : il représente l'intervalle minimum qui doit séparer deux demandes
successives de lecture ou d'écriture.
Le débit : c’est le nombre maximum d'informations lues ou écrites par seconde.
Volatilité : elle caractérise la permanence des informations dans la mémoire. L'information
stockée est volatile si elle risque d'être altérée par un défaut d'alimentation électrique et non
volatile dans le cas contraire.
Mémoire RAM
Mémoire ROM
Les registres
Les mémoires caches
Les mémoires de masses
Les mémoires RAM ont une particularité : le temps d’accès est toujours le même, quelle
que soit l’adresse de la donnée que l’on souhaite consulter ou modifier. Toutes les mémoires
n’ont pas cette particularité : ce n’est pas le cas d’un disque dur, par exemple, dont le temps-
d ’accès dépend de l’emplacement de l’information sur le disque dur et de la position de la tête
de lecture.
Toutes les RAM actuelles sont des mémoires volatiles. Néanmoins, il existe des projets
de recherche qui travaillent sur la conception d’une mémoire nommée la MRAM qui serait une
mémoire RAM non-volatile. Reste à finir le travail de recherche, ce qui n’est pas pour tout de
suite !
Il existe deux types de RAM : les SRAM ou RAM statiques et les DRAM ou RAMS dynamique.
Leurs données ne s’effacent pas tant qu’elles sont alimentées en courant. Ces mémoires sont
souvent (bien que ce ne soit pas une obligation) fabriquées avec des bascules, fameux circuit
de mémorisation qu’on a vu il y a de cela quelques chapitres. Vu que ces bascules n’utilisent
pas mal de transistors (au minimum 6, voir plus), nos cellules mémoires auront tendance à
prendre un peu de place. En conséquence, une cellule mémoire de SRAM est plus grosse
qu’une cellule de mémoire DRAM (qui n’utilisent qu’un seul transistor, et un autre composant
électronique : un condensateur), ce qui signifie qu’on peut mettre beaucoup moins de cellule
SRAM que de cellules de DRAM sur une surface donnée. Pour cette raison, on dit souvent
que les mémoires SRAM ne peuvent contenir beaucoup de bits. Cette mémoire SRAM est
dont utilisé lorsqu’on souhaite avoir une mémoire rapide mais en faible quantité. Elles sont
assez, mais très chère. Pour info, votre processeur contient beaucoup de mémoire
directement intégrées dans des circuits (les registres et les caches) qui sont toutes faites avec
de la SRAM.il faut dire que les mémoires intégrées au processeur ont absolument besoin
d’être rapides et qu’on a rarement besoin d’en mettre beaucoup, ce qui fait que la SRAM est
un choix assez adapté.
Les DRAM sont plus lentes, mais peuvent stocker beaucoup plus de bits que la SRAM.il
faut dire qu’une cellule mémoire de DRAM prend beaucoup moins de place qu’une cellule de
SRAM, ce qui fait que les mémoires DRAM ont souvent une grande capacité comparé
aux SRAM. C’est ce qui fait qu’elles sont utilisées pour la mémoire principale de nos
PC : quand on lance un programme assez gourmand en même temps en plus du système
d’exploitation, il vaut mieux avoir suffisamment de RAM.
24
Support de cours : Architecture des ordinateurs
Mais ces DRAM ont tous de même désavantages : elles sont plus lentes que les SRAM
pour diverses raisons techniques. De plus, avec les DRAM, les bits stockés en mémoire
s’effacent tout seul en quelques millièmes ou centièmes de seconde (même si on n’y touche
pas). Et sans compter que lire une donnée stockée en mémoire va obligatoirement effacer son
contenu.il faut donc réécrire régulièrement chaque bit de la mémoire, ou après lecture, pour
éviter qu’il ne s’efface. On parle de rafraichissement mémoire.
Ce rafraichissement mémoire prend du temps, et a tendance à légèrement diminuer l’efficacité
des DRAM. Autre fois, ce rafraichissement était effectué par un circuit sur la carte mère et était
chargé de toutes la gestion de la mémoire (on parle de contrôleur mémoire). Dans une telle
situation, les ordres de rafraîchissement de la mémoire transitent donc par le Bus, le rendant
temporairement incapable de transférer des données. Ce défaut, autres fois très pénalisant
ne l’est plus de nos jours : de nos jours, les mémoires RAM contiennent un circuit qui se charge
du rafraichissement mémoire dans la DRAM. Les pertes de l’information sont ainsi plus
mitigées.
Avec les mémoires à acces séquentielle, trouver une donnée aurait été tres simple : il suffisait
de parcourir la mémoire depuis le debut jusqu’à la bonne donnée .Mais sur nos ordinateurs,
toutes les mémoires sont des mémoires a accès aléatoires, ce qui fait qu’on peur acceder a
n’importe quelle donnée dans notre mémoire, sans trop se soucier de l’ordre d’accès .
Pour accéder à une donnée, on est obligé d’indiquer à notre mémoire la position de celle-ci
dans la mémoire.
Et on fait comment ?
Faut avouer qu’avec des registres, des mémoires RAM, des mémoires (EEP)ROM et
éventuellement un disque dur, ça fait un sacré paquet ! il existe plusieurs solutions, mais la
grande majorité des mémoires de nos ordinateurs utilisent toutes une méthode déjà vue
auparavant : l’adressage. Cette solution est très simple : chaque case mémoire se voit
attribuer un nombre binaire unique, l’adresse, qui va permettre de la sélectionner et de
l’identifier celle-ci parmi toutes les autres.
Remarques :
Voici un historique de quelques DRAM qui ont ou sont utilisées dans les PC :
• La DRAM FPM (Fast Page Mode, 1987) : Elle permet
d'accéder plus rapidement à des données en
introduisant la notion de page mémoire. (33 à 50 Mhz)
• La DRAM EDO (Extended Data Out, 1995) : Les
composants de cette mémoire permettent de conserver
plus longtemps l'information, on peut donc ainsi
espacer les cycles de rafraîchissement. Elle apporte aussi la possibilité d’anticiper sur le
prochain cycle mémoire. (33 à 50 Mhz)
• La DRAM BEDO (Bursted EDO) : On n'adresse plus chaque unité de mémoire
individuellement lorsqu'il faut y lire ou y écrire des données. On se contente de transmettre
l'adresse de départ du processus de lecture/écriture et la longueur du bloc de données ( Burst).
Ce procédé permet de gagner beaucoup de temps, notamment avec les grands paquets de
données tels qu'on en manipule avec les applications modernes. (66 Mhz)
• La Synchronous DRAM (SDRAM, 1997) : La
mémoire SDRAM a pour particularité de se
synchroniser sur une horloge. Les mémoires FPM,
EDO étaient des mémoires asynchrones et elle
induisaient des temps d'attentes lors de la synchronisation. Elle se compose en interne de
deux bancs de mémoire et des données peuvent être lues alternativement sur l'un puis sur
l'autre de ces bancs grâce à un procédé d'entrelacement spécial. Le protocole d'attente
devient donc tout à fait inutile. Cela lui permet de supporter des fréquences plus élevées
qu’avant (100 Mhz).
25
Support de cours : Architecture des ordinateurs
b-1- La ROM
Elle est programmée par le fabricant et son contenu ne peut plus être ni modifié., ni effacé
par l'utilisateur.
Structure :
Cette mémoire est composée d'une matrice dont la programmation s’effectue en
reliant les lignes aux colonnes par des diodes. L'adresse permet de sélectionner une ligne de
la matrice et les données sont alors reçues sur les colonnes (le nombre de colonnes fixant la
taille des mots mémoire).
Avantages :
Densité élevée
Non volatile
Mémoire rapide
Inconvénients :
Écriture impossible
Modification impossible (toute erreur est fatale).
Délai de fabrication ( 3 à 6 semaines)
Obligation de grandes quantités en raison du coût élevé qu'entraîne la production du
masque et le processus de fabrication.
b-2- La PROM
C’est une ROM qui peut être programmée une seule fois par l'utilisateur
(Programmable ROM). La programmation est réalisée à partir d’un programmateur
spécifique.
Structure :
Les liaisons à diodes de la ROM sont remplacées par des fusibles pouvant être détruits ou
des jonctions pouvant être court-circuitées.
Avantages :
Identique à la ROM
Claquage en quelques minutes
Coût relativement faible
Inconvénients :
26
Support de cours : Architecture des ordinateurs
Pour faciliter la mise au point d'un programme ou tout simplement permettre une
erreur de programmation, il est intéressant de pouvoir reprogrammer une PROM. La
technique de claquage utilisée dans celles-ci ne le permet évidemment pas. L'EPROM
(Erasable Programmable ROM) est une PROM qui peut être effacée.
Structure
Dans une EPROM, le point mémoire est réalisé à partir d’un transistor FAMOS
(Floating gate Avalanche injection Metal Oxyde
Silicium). Ce transistor MOS a été introduit par Intel en 1971 et a la particularité de posséder
une grille flottante.
Avantages :
Reprogrammable et non Volatile
Inconvénients :
Impossible de sélectionner une seule cellule à effacer
Impossible d’effacer la mémoire in-situ.
L’écriture est beaucoup plus lente que sur une RAM. (Environ 1000x)
b-4- L’EEPROM
27
Support de cours : Architecture des ordinateurs
Avantages
Programmation et effacement mot par mot possible.
Temps d’accès faible.
Inconvénients
Coût élevé
V- CRITERES DE CHOIX D’UNE MEMOIRE
On voit bien que les mémoires d’un ordinateur sont organisées de la plus lente à la
plus rapide. Le but de cette organisation est de placer les données les plus accessibles ou qui
ont de bonnes probabilités d’être accédées, dans une mémoire qui soit la plus rapide possible.
Le tout est de faire en sorte de placer les données intelligemment, et les repartir correctement
dans cette hiérarchie des mémoires.
Ce placement se base sur 02 principes qu’on appelle les principes de localité spatiale et
temporelle. Pour simplifier :
Un programme a tendance à réutiliser les instructions et données qui ont été accédées dans
le passé : c’est la localité temporelle ; et un programme qui s’exécute sur un processeur à
tendance à utiliser des instructions et des données qui ont des adresses mémoires très
proches, c’est la localité spatiale.
Ces deux principes semblent très simples, mais sont lourds de conséquences. On peut
exploiter ces 2 principes pour placer correctement nos données dans la bonne mémoire. Par
exemple, si on a accédé récemment à une donnée, il vaut mieux la copier dans une mémoire
plus rapide, afin d’y accéder rapidement les prochaines fois : on profite de la localité
temporelle. On peut aussi classer les données consultées ou modifiées fréquemment dans les
registres ou la mémoire cache au lieu de les classer en mémoire RAM. On peut aussi profiter
de la localité spatiale : si on accède à une donnée, autant pré charger aussi les données juste
à côté, au cas où elles seraient accédées.
Placer les bonnes données au bon endroit (dans la cache plutôt qu’en RAM) permet d’avoir
de sacrés gains de performances. Ce placement des données dans la bonne mémoire peut
être géré par le matériel de l’ordinateur, par la façon dont sont construits nos programmes, ou
généralement par le programmeur.
Par exemple :
La mémoire cache est souvent gérée directement par le matériel de notre ordinateur, d’une
façon qui peut être prise en compte par le programmeur.
Les registres sont générés par le programmeur (s’il programme en assembleur ou en langage
machine), ou par langage de programmation (par le compilateur pour être précis) ; la RAM est
implicitement gérée par le programmeur, etc.
28
Support de cours : Architecture des ordinateurs
Bref, sachez qu’un programmeur peut parfaitement prendre en compte le fait que les
mémoires d’un ordinateur ne vont pas à la même vitesse, et peut concevoir ses programmes
de façon à placer un maximum de données utile à la bonne mémoire. En effet, la façon dont
est conçu un programme joue énormément sur la façon donc celui-ci accèdera aux données,
et sur sa localité spatiale et temporelle. Vu que de nos jours, nos programmes passent de plus
en plus de temps à attendre que les données à manipuler soient lues ou écrites depuis la
mémoire, ce genre de choses commence à devenir une nécessité.
Bref, un programme peut, et doit, prendre en compte les principes de localité vus plus haut
dès la conception de ses programmes. Cette contrainte va se faire de plus en plus forte quand
on devra passer aux architectures multi-cœur.
Maintenant que cette petite remarque est faite, parlons un peu des différentes mémoires.
Commençons par ces fameux registres.
a)- Registres
Les registres sont fabriqués avec des mémoires SRAM. Ces registres sont très souvent
intégrés dans le processeur de votre machine, mais quelques périphériques possèdent eux
aussi des registres. La différence est que les registres de notre processeur vont stocker
temporairement des données pour pouvoir les manipuler rapidement. Les périphériques
utilisent des registres pour communiquer avec le processeur, bien plus rapide qu’eux. Sur les
processeurs X86 ainsi que la majorité des processeurs existants ou ayant existé, les registres
ne sont pas adressables. Sur de tels processeurs, chaque registre est identifié par un numéro
qui n’a rien à voir avec une adresse ! Ce numéro, ou nom de registre, permet d’identifier le
registre que l’on veut, mais ne sort jamais du processeur : ce nom de registre, ce numéro, ne
se retrouve jamais sur le bus d’adresse.
b)-Cache
Un cache est une mémoire qui doit être assez rapide, et est donc fabriqué avec la
SRAM, avez véloce. Ce cache est généralement intégré dans le processeur de votre
ordinateur, mais quelques périphériques possèdent eux aussi des caches, comme certains
disques durs.
Un cache n’est jamais adressable ! cela est dû au fait que chaque donnée présente
dans la mémoire cache est une copie d’un emplacement de la mémoire RAM. Le contenu du
cache est géré par un circuit qui décide quoi charger dans le circuit et quand. Lorsque le
processeur veut ainsi accéder à une mémoire RAM (en lecture ou en écriture), il va envoyer
l’adresse de cette case sur le bus. Celle-ci sera interceptée par les circuits chargés de gérer
le cache qui regarderont alors si le cache contient une copie de la case à manipuler. Si c’est
le cas, on lit ou écrit la donnée dans le cache. Dans le cas contraire, on accède à la mémoire
RAM. Cela explique qu’on n’ait pas besoin de donner des adresses aux cases mémoires du
cache : les circuits de gestion du cache savent à quelle case mémoire en RAM correspond
chaque case mémoire du cache.
c)-mémoires principales
29
Support de cours : Architecture des ordinateurs
lieu de SRAM permet à notre mémoire d’atteindre les 2 à 4 Go, ce qui fait tout de même 4
milliards de cases mémoires adressables pour 4 Go.
d)-mémoires de masse
Ces mémoires servent surtout à stocker de façon permanente des données ou des
programmes qui ne doivent pas être effacés :
Ce seront donc des mémoires non-volatiles, souvent fabriquées avec de la ROM ou des
dispositifs magnétiques. Les mémoires de masse servent toujours à stocker un programme
ou quelques paramètres / constantes utiles. On doit donc accéder à leur contenu et elles
sont donc adressables, à part certaines vielles mémoires magnétiques qui font exception. Vu
que ces mémoires doivent souvent stocker une grande quantité de bits (un programme
prend souvent beaucoup de place), elles doivent avoir une capacité énorme comparé aux
autres types de mémoires, et sont très lentes.
Parmi ces mémoires de masse, on trouve notamment :
Les disques durs ;
Les mémoires FLASH, utilisées dans les clés USB, voire dans les disques durs SSD ;
Les disques optiques, comme les CD-ROM, DVD-ROM, et autres CD du genre ;
Les fameuses disquettes, totalement obsolètes de nos jours ;
Mais aussi quelques mémoires très anciennes et rarement utilisées de nos jours, comme les
rubans perforés et quelques autres.
Une mémoire idéale serait une mémoire de grande capacité, capable de stocker un
maximum d’informations et possédant un temps d’accès très faible afin de pouvoir travailler
rapidement sur ces informations. Mais il se trouve que les mémoires de grande capacité sont
souvent très lentes et que les mémoires rapides sont très chères. Et pourtant, la vitesse
d’accès à la mémoire conditionne dans une large mesure les performances d’un système. En
effet, c’est là que se trouve le goulot d’étranglement entre un microprocesseur capable de
traiter des informations très rapidement et une mémoire beaucoup plus lente (ex : processeur
actuel à 3Ghz et mémoire à 400MHz). Or, on n’a jamais besoin de toutes les informations au
même moment. Afin d’obtenir le meilleur compromis coût-performance, on définit donc une
hiérarchie mémoire. On utilise des mémoires de faible capacité mais très rapide pour stocker
les informations dont le microprocesseur se sert le plus et on utilise des mémoires de capacité
importante mais beaucoup plus lente pour stocker les informations dont le microprocesseur se
sert le moins. Ainsi, plus on s’éloigne du microprocesseur et plus la capacité et le temps
d’accès des mémoires vont augmenter.
30
Support de cours : Architecture des ordinateurs
TRAVAUX DIRIGES
31
Support de cours : Architecture des ordinateurs
15) Qu’est-ce que le temps d’accès à la mémoire ? Et quelle conclusion peut-on faire
entre le temps d’accès d’une mémoire séquentielle par rapport à une mémoire
indexée ?
16) Classifiez les mémoires suivantes en terme de rapidité et en terme de capacité :
mémoire cache, registre, mémoire centrale et disque dur.
17) Dans un tableau, faite une étude comparative entre les mémoire SRAM et celles
DRAM.
18) Que signifie le sigle CMOS ? Et comment procède-t-on pour effacer la mémoire
CMOS ?
19) Quelle différence faites-vous entre une mémoire synchrone et celle asynchrone ?
Donner 02 exemples pour chacune.
20) Qu’est-ce que le rafraichissement mémoire ?
21) Un PC peut-il fonctionner sans disque dur ? justifiez votre réponse.
22) Faite un schéma récapitulatif des différents types de mémoires informatiques.
23) Qu’est ce qui détermine si une mémoire est synchrone ou asynchrone ?
24) Combien de type d’accès à lieu dans une mémoire ? citer les.
32
Support de cours : Architecture des ordinateurs
I. INTRODUCTION
Dans notre ordinateur, tous les composants (mémoire, processeurs…), sont fabriqués
séparément. Pour relier tous ces composants ensemble, on place ces composants sur un gros
circuit imprimé nommé la carte mère, sur laquelle on trouve un ou plusieurs bus pour relier le
tout. En somme, une carte mère n’est donc rien qu’un gros tas de fils reliés à des connecteurs
sur lesquels on va brancher des composants. Enfin presque, il y a des trucs en plus dessus :
le BIOS, de quoi créer les signaux d’horloge servant à cadencer les périphériques, etc. Mais
ces composants ne communiquent que par un seul bus. Il existe un bus pour communiquer
avec le disque dur, un pour la carte graphique, un pour le processeur, un pour la mémoire,
etc. De ce fait, de nombreux bus ont étés inventés et un ordinateur « lambda », avec sa souris,
son écran et son unité centrale contient un nombre impressionnant de bus.
Sa largeur : C’est le nombre de bits qui peuvent être transmis simultanément sur notre
bus
Son débit binaire : C’est le nombre de bits que notre bus peut transmettre par
seconde. Plus celui-ci est élevé, plus le bus est rapide. NB : Nous rappelons
Débit=fréquence x largeur
Son caractère HALF DUPLEX, FULL DUPLEX, ou SIMPLEX : vous verrez ce que
ça signifie dans la suite du chapitre.
Son caractère synchrone ou asynchrone : certains bus possèdent un fil sur lequel
circule un signal d’horloge permettant de synchroniser les différentes composantes :
ce sont les bus synchrones. D’autre se passent du signal d’horloge, et synchronisent
leurs composant par d’autres méthodes.
Son protocole : le protocole d’un bus défini comment celui-ci est géré. Ce protocole
définit quand et comment les données doivent être envoyées sur le bus.
Mais ça ne se limite pas à ça ; en effet, certains bus ont besoin de mécanismes assez
sophistiqués pour fonctionner correctement. Pour donner un exemple, on peut citer le cas dans
lequel plusieurs composants électroniques doivent transmettre leurs données sur un seul et
unique bus. Le protocole doit alors intégrer des mécanismes permettant aux composants de
ne pas se marcher sur les pieds en monopolisant le bus ou en écrivant les données en même
temps.
33
Support de cours : Architecture des ordinateurs
Un composant qui envoie une donnée sur le bus est appelé un émetteur, ceux qui se
contentent de recevoir une donnée sur le bus sont les appelés récepteurs.
2) Bus Simplex
Ici les informations ne vont que dans un sens. On a donc deux cas : soit les informations
sont transmises d’un périphérique vers un autre composant (par exemple le processeur).
L’autre sens est interdit !
Soit les informations sont transmises d’un composant vers le périphérique. L’autre sens est
interdit !
Il n’y a qu’un seul des composants qui puisse être émetteur et l’autre reste à tout jamais
récepteur.
3) Bus Half-duplex
Sur un bus Half-duplex, il est possible d’être émetteur ou récepteur, suivant la situation.
Par contre, impossible d’être à la fois émetteur et récepteur.
4) Bus Full-duplex
Un bus Full-duplex permet d’être à la fois émetteur et récepteur. L’astuce des bus Full-
duplex est simple : il suffit de regrouper 2 bus Simplex ensemble ! Il y’a un bus pour
l’émission et un pour la réception.
Ces bus sont donc plus rapides, vu qu’on peut émettre et recevoir des données en même
temps, mais nécessitent plus de fils à câbler, ce qui peut être un désavantage.
5) Bus synchrones
Certains bus sont synchronisés par un signal d’horloge : ce sont les bus synchrones. Sur
de tels bus, un fil est spécialement dédié à l’horloge, cette fameuse tension périodique vue il
y’a quelques chapitres. Quand à nos composant, ils sont reliés aux bus via les bascules, afin
de synchroniser les lectures des composants sur le bus.
Avec ce genre de bus, le temps de transmission d’une donnée sur le bus est fixé une fois pour
toute. Ainsi, le composant qui cherche à effectuer une lecture ou une écriture sait combien de
cycles d’horloge sa demande va prendre.
6) Bus asynchrones
Ces se passent du signal d’horloge. Ils ont un protocole conçu spécialement pour faire
communiquer deux périphériques / composants sans les synchroniser sur une horloge. Pour
cela, ces bus permettent à deux composants de se synchroniser grâce à des fils spécialisés
du bus de commande, qui transmettent des bits particuliers.
34
Support de cours : Architecture des ordinateurs
TRAVAUX DIRIGES
1. Tous les composant d’un PC sont reliés par un exemple de fils conducteurs. Quel
autre appellation peut-on donner à ces fils conducteurs ?
2. Enumérez en donnant le nom de chaque type de bus.
3. Qu’est-ce que le FSB (Front Side Bus) ?
4. Qu’est-ce qu’un émetteur et un récepteur ?
5. Quelle différence faites-vous entre un bus Simplex, Half duplex et Full duplex ?
6. Quelles sont les caractéristiques d’un bus ?
7. Expliquez ce terme technique : un bus de mémoire à largeur de 32 bits.
8. Donnez 05 exemples de bus.
9. Quelle différence faites-vous entre l’architecture HAVARD et de VON NEUMANN ?
10. Compléter le tableau.
Fréquence en MHz 256 320 126 124 233
Largeur du bus en Bit 8 16 64 128 256
Bande passante ou débit ? ? ? ? ?
35
Support de cours : Architecture des ordinateurs
CHAPITRE-V- LE CHIPSET
I- INTRODUCTION
L'organisation des bus de nos ordinateurs a évoluée au cours du temps pendant que
de nombreux bus apparaissaient. On considère qu'il existe trois générations deux bien
distinctes :
Ce bus était partagé entre tous les composants : chacun d’entre eux monopolisait le
bus durant un moment, et le libérait quand il avait fini de transmettre des données dessus.
Ces bus de première génération avaient le fâcheux désavantage de relier des composants
allant à des vitesses très différentes : il arrivait fréquemment qu'un composant rapide
doive attendre qu'un composant lent libère le bus. Le processeur était le composant le
plus touché par ces temps d'attente.
III- SECONDE GENERATION
Pour régler ce problème, on a divisé le bus système en deux : un bus pour les
périphériques lents, et un autre pour les périphériques rapides. Deux composants lents
peuvent ainsi communiquer entre eux sans avoir à utiliser le bus reliant les périphériques
rapides, qui est alors utilisable à volonté par les périphériques rapides (et vice versa), qui est
alors utilisable à volonté par les périphériques rapides. Les composants rapides et lents,
communiquent chacun de leur côté sans se marcher dessus.
36
Support de cours : Architecture des ordinateurs
Comme vous le voyez sur cette image, les composants considérés comme rapides sont le
processus et la mémoire. Ceux-ci sont souvent associés à la carte graphique. Le reste des
composants est considéré comme lent.
IV- NORTHBRIDGE ET SOUTHBRIDGE
Sur certains ordinateurs, le chipset est divisé en 2 :
Le North bridge :
Une partie qui s’occupe de tous les bus reliés aux composants rapides : processeurs,
RAM, carte graphique.
Le South bridge :
Et une partie qui s’occupe de gérer les bus des périphériques lents, comme les disques durs,
les port USB, le clavier, etc.
Address bus
Control Bus
RAM
South bridge
I /O Other
De nos jours
De nos jours, nos ordinateurs contiennent bien plus que deux bus, et presque chaque
composant ou contrôleur de périphérique est connecté sur le Chipset par un bus.
La preuve par exemple :
37
Support de cours : Architecture des ordinateurs
PENTIUM 4
(20MB/sec)
PCI Bus(132MB/sec)
Sur des ordinateurs ayant des processeurs (2009-2010), le northbridge a disparu : celui-ci
est directement dans le processeur.
38
Support de cours : Architecture des ordinateurs
Sur certaines cartes mères, il est possible de modifier la fréquence du FSB et/ou les
coefficients multiplicateurs : on peut ainsi faire varier la fréquence de notre processeur ou de
notre mémoire. Certains préfèrent l’augmenter pour avoir un processeur ou une mémoire plus
rapide, et font ce qu’on appelle l’overcloking (surfréquençage en français). D’autre pratiquent
l’undercloking, et diminuent la fréquence de leurs processeurs pour que celui-ci chauffe moins
et pour gagner un peu d’argent en faisant baisser leur fracture. Mais il s’agit là des pratiques
très dangereuses qui peuvent faire rendre l’âme du processeur prématurément : ces
manipulations doivent se faire par des professionnelles et des personnes qualifiées.
Moins connu que le FSB, il existe un autre bus qui avait autre fois son importance sur
certaines cartes mères : Back Side Bus. Autre fois, la mémoire cache était (totalement ou
en partie) séparée du processeur. Le Back Side Bus était chargé de relier le processeur
à la mémoire cache.
Récemment, le FSB a subi quelques évolutions. Sur les cartes mères récentes, le
northbridge a été intégré au processeur, ce qui a nécessité quelques modifications.
L’organisation des bus sur nos ordinateurs réels ressemble plus au schéma qui suit
39