Gestion Énergétique des Réseaux 802.11
Gestion Énergétique des Réseaux 802.11
N° d’ordre :…………
Série :…………
Mémoire
Présenté en vue de l’obtention du diplôme
Magister en Informatique
SUJET DU MÉMOIRE :
Présenté le : / / .
Par : Saida HEDNA
Composition de jury :
Dr. Abdelmadjid ZIDANI Président (Maître de conférences à l’université de Batna).
Pr. Azzeddine BILAMI Rapporteur (Professeur à l’université de Batna).
Dr. Ammar LAHLOUHI Examinateur (Maître de conférences à l’université de Batna).
Dr. Okba KAZZAR Examinateur (Maitre de conférences à l’université de Biskra).
A mes Parents,
à la mémoire de mon grand-père,
et à toutes les personnes importantes dans ma vie.
REMERCIEMENTS
Je voudrais remercier ma famille pour leur support tout au long de mes études :
À ma chère mère et à mon père pour m’avoir élevé et donné un certain regard
sur ce qui m’entoure; À mes frères (mon frère et mon fils Halim); À ma sœur; À
ma grand-mère pour leur soutien; À l’ensemble des familles Hedna et Lounis
pour les moments de détente passés ensemble.
Je remercie plus particulièrement mon mari, pour sa confiance, sa patience, son
soutien incessant et son encouragement durant la rédaction de ce mémoire et
tout au long de mes études en informatique. Tu sais d’où je viens et c’est en
grande partie grâce à toi que tu me verras atteindre les objectifs que je me suis
fixés.
Je souhaite à tous mes collègues une bonne continuation et tous mes vœux de
réussite. Je pense à Mehdaoui Asma, Mehdaoui Rahima, Benbekhta Affaf, Kalkil
Naima, Sabeg Samra, Smair Fhadila, Radjai Wahiba, Ibrir Radhia, et Haid Nabila.
Pour d’autres, je leurs souhaite bonne chance pour leur future carrière,
spécialement pour Sedrat Saida, Mansouri Rahma, Berrou Yasmina.
3
RÉSUMÉ
Les réseaux ad hoc sont des réseaux caractérisés par des ressources limitées en
énergie. La conservation d'énergie est donc un facteur primordial pour la durée de vie
du réseau. Plusieurs propositions existent pour traiter ce problème. Elles se situent au
niveau de différentes couches de la pile des protocoles de communication comme le
mécanisme PSM (Power Saving Mode) défini par le standard 802.11.
Mots clés : Réseaux sans fil, Réseaux ad hoc, OLSR, PSM, économie d’énergie,
Routage ad hoc.
4
TABLE DES MATIÈRES
1. INTRODUCTION ............................................................................................................................... 11
5
2.4.5.5 SYNCHRONISATION........................................................................................................... 31
2.4.5.6 MODE DE GETION D'ÉNERGIE ............................................................................................. 31
2.4.6 LES VARIANTES DE LA NORME IEEE 802.11 ........................................................................... 33
2.4.7 LES ÉQUIPEMENTS 802.11 .................................................................................................. 36
2.4.7.1 LES ADAPTATEURS SANS FIL .............................................................................................. 36
2.4.7.2 LES POINT D'ACCÉS .......................................................................................................... 38
2.4.7.3 LES AUTRES TYPES D'ÉQUIPEMENTS .................................................................................. 38
2.4 CONCLUSION ................................................................................................................................ 39
3. RÉSEAUX AD HOC ET ROUTAGE .................................................................................................. 40
6
5. AMÉLIORATIONS DES PERFORMANCES D’OLSR AVEC PAA ................................................. 80
7. REFERENCES .................................................................................................................................. 94
8. ANNEXES ......................................................................................................................................... 98
7
LISTE DES FIGURES
FIGURE 2.12 - LE LINK-SYS WAP11 EST UN POINT D'ACCÈS IEEE 802.11B .................................................. 38
FIGURE 4.3- UN NIVEAU DE LA PUISSANCE COMMUNE N'EST PAS APPROPRIÉ POUR LES RÉSEAUX
NON-HOMOGÈNES ............................................................................................................................ 60
8
FIGURE 4.4.B - COUP MONTÉ DE NAVS PAR LES POSTES C ET D QUAND A ET B ÉCHANGENT LEUR
DIALOGUE RTS–CTS–DONNEE–ACK ........................................................................................... 63
FIGURE 4.6 - UN DIAGRAMME DE LA FRÉQUENCE POSSIBLE POUR L'ALLOCATION DES TONS OCCUPÉS ............ 65
FIGURE 4.7 - ROUTAGE PAR CLUSTERPOW DANS UN RÉSEAU NON-HOMOGÈNE TYPIQUE. ......................... 66
FIGURE 4.8 - LES CHEMIN DU MIN-PUISSANCE ET MAX-MIN DANS LE PROTOCOLE OMM ................................ 77
FIGURE 4.9 - EXEMPLES D'ARBRE DE LA PUISSANCE MINIMUM ET ARBRE DE LA VIE DU MAXIMUM .................... 78
FIGURE 5.1 - EXEMPLE D'ÉTABLISSEMENT OU NÉGOCIATION POUR L'OBTENTION DES SUPPORTEURS ............. 83
9
LISTE DES TABLES
TABLEAU 2.1 - CARACTÉRISTIQUES DES DIFFÉRENTES COUCHES PHYSIQUES DANS LE STANDARD IEEE 802.11 ........ 21
10
INTRODUCTION
1. Introduction
1.1 Contexte et motivations
1
Un MANET [1] est un cas particulier de réseaux sans fil où chaque nœud peut
directement joindre ses voisins en utilisant son interface radio où il a la possibilité de
contacter n’importe quel autre nœud à l’intérieur du réseau en utilisant les nœuds
intermédiaires (situés entre la source et la destination). Ces derniers se chargent de
relayer les messages et offrir, ainsi, un réseau autonome, conçu et supporté par
l’ensemble des participants.
Une fonctionnalité très importante des MANETs est le routage. La notion de routage
regroupe un ensemble de procédures assurant l’ouverture et l’entretien d’une
communication entre deux nœuds. Dans les MANETs, il est nécessaire de créer de
nouveaux protocoles qui répondent aux nouveaux besoins des applications et qui
prennent en compte les nouveaux paramètres du réseau (mobilité, liens asymétriques,
nœuds cachés, etc.). Ces protocoles peuvent être classifiés selon plusieurs critères en
différentes familles, la plus utilisée est : la classification Proactifs/Réactifs/Hybride.
Donc, ces derniers essaient de satisfaire plusieurs propriétés, comme: mise en œuvre
distribuée, utilisation effective de la bande passante et capacité de la batterie,
Viser une exploitation efficace de l’énergie dans les MANET fait recours à toutes les
couches de la pile des protocoles de communication. Les solutions proposées dans
1
Mobile Ad hoc Network
11
cette optique, sont classées en trois familles à savoir : le contrôle de la puissance de
transmission, le mode d’énergie basse et le routage orienté énergie. Toutes ces
approches proposées dans les MANET visent une consommation efficace d’énergie.
Dans le cadre de notre travail, nous nous intéresserons seulement aux approches
visant les deux niveaux : mode d’énergie basse (basé sur le mécanisme PSM du
protocole MAC) et le routage orienté énergie. Etant donné que ces deux protocoles, en
plus de leurs fonctionnalités de bases, peuvent supporter des mécanismes de
sauvegarde de l’énergie il est évident que l’échange d’informations entre eux sur l’état
des nœuds est primordial. L’absence de ces informations conduira, d’une part, le
protocole de routage à solliciter souvent des nœuds à faible énergie qui sont sensés
d’être mis en veille par le protocole MAC et d’autre part, le protocole MAC à mettre en
veille des nœuds non actifs à grande énergie sélectionnés éventuellement par le
protocole de routage pour acheminer des données. Ces deux derniers problèmes
nécessitent de considérer les interactions entre les protocoles en question et de bien
les étudier afin de dégager des solutions qui les optimisent. Notre étude rentre dans
cette optique et vise l’amélioration des performances du protocole de routage OLSR
pour une meilleure économie d’énergie dans les MANET.
Le second est dédié à donner une vue générale sur les réseaux sans fil et 802.11.
Dans ce chapitre, les caractéristiques fondamentales sont énumérées telles que le
modèle en couches, les modes, les topologies et les protocoles d’accès de la norme.
Les différentes dérivées de la norme de base sont aussi spécifiées.
Le quatrième chapitre propose un état de l’art sur les principales approches proposées
pour résoudre le problème d’économie d’énergie dans les réseaux mobile ad hoc.
12
LES RÉSEAUX SANS FIL
Les réseaux sans fil (Wireless Networks) constituent de plus en plus une technologie
émergente permettant à ses utilisateurs un accès à l’information et aux services
électroniques indépendamment de leurs positions géographiques. Le succès de ce
type de réseaux ces dernières années est suscité par un grand intérêt de la part des
particuliers, des entreprises et du milieu industriel. En effet, ce type de réseaux est
perçu comme une nouvelle alternative complémentaire aux réseaux filaires
traditionnels, car ils sont autant utilisés dans le cadre des réseaux locaux d’entreprise,
pour une utilisation purement professionnelle, que dans le cadre des réseaux locaux
personnels à domicile. Dans les réseaux à moyenne et large couverture aussi, la
technologie sans fil devient dominante.
13
périmètre géographique plus ou moins étendu, c'est la raison pour laquelle on entend
parfois parler de "mobilité".
Portée
Satellite
Global WMAN
GPRS
Extérieur
UMTS WLAN
GSM
802.11b 802.11g
802.11n
Intérieur
WPAN 820.15 Débit
2
Wireless Person Area Network
3
Institute of Electrical and Electronics Engineers
14
• IEEE 802.15.1, le plus connu, en charge de la norme Bluetooth, lancé
par Ericsson en 1994, proposant un débit théorique de 1 Mbps pour une
portée maximale d'une trentaine de mètres. La technologie Bluetooth
possède l'avantage d'être très peu gourmande en énergie, ce qui la rend
particulièrement adaptée à une utilisation au sein de petits
périphériques. Bluetooth opère dans la bande de fréquence des 2.45
GHz.
•
4
IEEE 802.15.3, en charge de la norme UWB , qui met en œuvre une
technologie très spéciale : l’émission à une puissance extrêmement
faible, sous le bruit ambiant, mais sur pratiquement l’ensemble du
spectre radio (entre 3,1 et 10,6 GHz). Les débits atteints sont de l’ordre
du Gbit/s sur une distance de 10 mètres.
•
6
L’IEEE 802.11, soutenu par l'alliance WECA offre des débits allant
jusqu'à 54 Mbps sur une distance de plusieurs centaines de mètres.
Dans la suite du rapport nous nous intéresserons principalement à ce
type de réseaux sans fil locaux. Une description plus détaillée des
différentes normes sera présentée dans la section 2.4.6.
4
Ultra-Wide Band
5
Wireless Local Area Network
6
Wireless Ethernet Compatibility Alliance
15
•
7 8
HiperLAN2 , norme Européenne élaborée par l’ETSI . HiperLAN2
permet d'obtenir un débit théorique de 54 Mbps sur une zone d'une
centaine de mètres dans la gamme de fréquence comprise entre 5 150
et 5 300 MHz. mais il semble difficile de prévoir un avenir à la
normalisation de l'ETSI dans ce domaine car celle-ci n'est pas soutenue
par les industriels.
•
9
DECT , norme des téléphones sans fils domestiques. Alcatel et Ascom
développent pour les environnements industriels, telles les centrales
nucléaires, une solution basée sur cette norme qui limite les
interférences. Les points d'accès résistent à la poussière et à l'eau. Ils
peuvent surveiller les systèmes de sécurité 24/24h et se connecter
directement au réseau téléphonique pour avertir le responsable en cas
de problèmes.
C'est également dans cette catégorie que peuvent être classés les réseaux
11
téléphoniques de troisième génération utilisant la norme UMTS pour transmettre de
la voix et des données. Cette norme UMTS propose des taux de transmission radio
théoriques pouvant aller jusqu'à 2 Mbit/s sur des distances de plusieurs kilomètres.
7
HIgh Performance Radio LAN 2.0
8
European Telecommunications Standards Institute
9
Digital Enhanced Cordless Telecommunication
10
Wireless Metropolitan Area Network
11
Universal Mobile Telecommunication System
12
Wireless Wide Area Network
16
• GSM (Global System for Mobile Communication ou en français Groupe
Spécial Mobile)
En ce qui concerne les WWAN, c’est plutôt l’interconnexion des réseaux précédents
qui les supporte. Pour cela, il fallait définir une norme d’interconnexion, qui a été
apportée par les spécifications du groupe IEEE 802.21. On peut aussi classer dans
cette catégorie la norme IEEE 802.20, qui correspond à des cellules cohérentes et
permet les accès large bande.
Pour définir la norme WirelessLAN, les concepteurs ont pris en considération les points
suivants :
13
Wired Equivalent Privacy
17
• Gestion intelligente de la puissance afin de garantir une durée accrue
des batteries composant les différents systèmes.
Point Point
d’accès d’accès
Ensemble de Station
Services de
Bases(BSS)-cell
ule unique
14
Access Point
15
Independent Basic Service Set
18
L’avantage de ces réseaux réside dans la facilité de mise en place et d’ajouter de
nouvelles stations sur le réseau. L’absence de structures fixes diminue aussi le coût de
leur mise en œuvre.
• Authentification, désauthentification
L’authentification permet aux stations d’un BSS d’échanger leurs identités. 802.11 ne
propose qu’un seul type d’authentification au niveau liaison, les fonctions plus
avancées ne sont pas traitées dans le cadre de la norme. La désauthentification
consiste simplement à effacer de la mémoire une station authentifiée.
• Sécurité
802.11 spécifie un mécanisme pour protéger les informations véhiculées sur le réseau.
Ce mécanisme, appelé WEP, est optionnel.
16
MAC Service Data Unit
19
2.4.2.2 Distribution System Service (DSS)
17
Les DSS servent à transmettre des messages dans le DS , ce qui permet entre autre
d’assurer la mobilité (roaming). Le 802.11 définit trois types de mobilité :
Pour assurer la mobilité des stations, 802.11 a besoin des services appelés les
services d’association. Il est important de garder en mémoire qu’une association
n’est possible que si le BSS dispose d’un AP. Un réseau ad hoc ne génère aucune
association.
Association
Ce service permet à un AP de connaître les stations contenues dans son BSS. Une
station arrivant dans le BSS d’un AP doit s’identifier auprès de cette AP. Il est important
de relever qu’une station ne peut être associée qu’à un seul AP à la fois.
Cette particularité facilite le routage des MSDU dans le DS. Bien qu’une station ne soit
associée qu’à un seul AP, elle peut, dans la mesure où le nombre d’AP visible est
supérieur à un, choisir entre plusieurs AP.
Désassociation
Lorsqu’une station quitte un BSS, l’association entre AP et la station est supprimée.
Cette opération est appelée désassociation.
Réassociation
Lorsqu’une station change de BSS, l’association est transmise d’un AP à l’autre par le
DS. La réassociation permet le roaming entre BSS. Pour améliorer la rapidité du
changement de BSS, une pré-authentification est possible.
17
Distribution System
18
Open System Interconnection
20
Réseau
802.2 LLC
Comme montré dans Table 2.1. Trois couches PHY différentes sont disponibles pour
l'IEEE 802.11 WLAN. Par exemple IEEE 802.11b utilise l’Étalement de Spectre à
Séquence Directe (DSSS), l’infrarouge (IR), et l’étalement de Spectre avec Saut de
Fréquence (FHSS); alors qu'IEEE 802.11a utilisent le Multiplexage par Répartition
Orthogonale de la Fréquence (OFDM).
Débit(Mbps) 6, 9, 12, 18, 24, 36, 48, 1, 2, 5.5, 11 1, 2, 5.5, 6, 9, 11, 12, 18, 22,
54 24, 33, 36, 48, 54
Table2.1: Caractéristiques des différentes couches physiques dans le standard IEEE 802.11
19
Medium Access Control
20
Physical Layer Convergence Protocol
21
Clear Channel Assessment
22
Physical Medium Dependent
21
2.4.4.1 DSSS : Étalement de Spectre à Séquence Directe
23
Le DSSS est une couche physique utilisant une technique radio. C’est une
technologie de transmission par spectre étalé, où la porteuse est successivement
modulée par l’information et par un code pseudo aléatoire de débit beaucoup plus
important. Le signal résultant occupe donc une bande très importante.
Dans cette technique, la bande des 2.4 GHz est divisée (comme le montre la figure
2.5) en 14 sous-canaux de 22MHz. Pour minimiser le bruit de fond et les interférences
locales, une technique dite "chipping" est utilisée. Elle consiste à convertir les bits de
données en une série de bits redondants. Le bit 1 sera remplacé par une succession
de 11 bits 0 ou 1 (appelée code PN) pendant le temps de transmission. Le bit 0 sera
remplacé par le complément de la succession de bits utilisée pour le bit 1.
On étale ainsi le signal sur une bande de fréquence plus large en sur-modulant chaque
bit du paquet à transmettre par ce code PN répétitif. Au niveau du récepteur, le signal
original est retrouvé après la réception de tout le canal étalé et en le démodulant avec
le même code.
Dans le protocole 802.11b, pour pouvoir supporter les 2 nouveaux débits 5.5 Mbit/s et
11 Mbit/s, seul le DSSS est utilisé. En effet, le FHSS ne pourrait pas supporter ces
nouveaux débits sans violer les règles actuelles du FCC26 .
Cette augmentation des débits est réalisée grâce aux techniques de modulation et de
27
codage comme le CCK . Mais quelle que soit le débit employé, et c’est d’ailleurs
pourquoi ces techniques ont été autorisées, le signal est toujours étalé sur 22 MHz
(=2*taille codage*vitesse de symbole).
Comme nous avons dit, dans cette technique la bande passante est divisée en 14
canaux de 22MHz, ceci implique que seuls 3 canaux (sur les 14 prévus par la norme)
peuvent être utilisés de manière adjacente si on veut éviter totalement le recouvrement
de spectre.
23
Direct Spread Spectrum Sequence
24
Binary Phase Shift Keying
25
Quadature Phase Shift Keying
26
Federal Communication Commission
27
Complementary Code Keying
22
Figure 2-5 : Étalement de Spectre à Séquence Directe
Cette technique offre des débits de transmission allant de 5.5 à 11 Mbps. Avec
comme avantages :
Une densité spectrale faible du signal transmis, car ce dernier est large
bande,
La technologie FHSS est plus simple à mettre en œuvre, car l’utilisation d’un simple
microcontrôleur suffit à la gestion des fonctions de sauts de fréquences pour la
conception des systèmes en FHSS. En effet, cette technique coûte moins chère que
29
des systèmes utilisant la technologie DSSS qui nécessite l’utilisation de circuits LSI
28
Frequency Hoping Spread Spectrum
29
Large-Scale Integration
23
pour la conception des algorithmes de codages [3]. De plus elle offre une meilleure
portée due à une plus grande sensibilité de l’étage de réception, ainsi qu’une bonne
réjection des interférences. Les modules développés en FHSS peuvent être
considérés comme des récepteurs à bande étroite changeant continuellement de
fréquences et disposant d’un très bon niveau de réjection vis-à-vis des signaux
d’interférences.
Par contre, cette méthode est limitée par son débit maximum de 2 Mbits/s. Elle introduit
aussi une certaine complication au niveau MAC, qui se traduit par une de multiplication
d’en-têtes et donc de réduction de débit [4].
2.4.4.3 Infrarouge
Le mode de communication par infrarouge est simple, peu réglementé et peu coûteux.
En utilisant un faisceau de lumière, ce mode est basé sur l’utilisation des mêmes
fréquences que celles utilisées sur les fibres optiques. Malgré que la lumière infrarouge
possède une large bande passante, offrant par conséquent des débits relativement
importants, la portée de ce type de communications reste faible. En revanche, les
infrarouges peuvent pénétrer à travers le verre, mais pas à travers des obstacles
opaques, ce qui représente un avantage en termes de sécurité. Mais, comme les
réseaux infrarouges sont sensibles aux interférences lumineuses, la coupure du
faisceau lumineux implique l’interruption de la transmission.
L’OFDM est particulièrement bien adapté aux réseaux locaux ou métropolitains, mais
perd de son intérêt sur des réseaux à grandes échelles. Ceci est dû au fait que cette
technique élimine les phénomènes de bruits ponctuels ou d’évanouissements
30
Orthogonal Frequency Distributed Multiplexing
24
temporaires du signal sans recourir à des techniques complexes. En revanche, cette
technologie paraît moins efficace lorsque les perturbations s’amplifient, car il faut
mettre en place des méthodes de filtrages ou de codages qui réduisent de manière
significative les débits. Actuellement l’OFDM est utilisé dans plusieurs applications
telles que les satellites, l’ADSL ou le câble pour la diffusion des données, du son ou de
l’image.
Mais, cette technologie s’oriente de plus en plus vers les systèmes de communications
sans fil. Ainsi, des normes telles que 802.11a et 802.11g peuvent offrir des débits
théoriques jusqu’à 54 Mbps, là où la norme 802.11b qui n’utilise pas OFDM, se limite à
11 Mbps.
Avant d’expliquer les trois techniques. Il faut noter que 802.11 utilise un intervalle de
34
temps appelé IFS qui a été défini pour permettre la gestion de l’accès au canal
2.4.5.1 CSMA/CA
Dans les réseaux filaires, lorsqu’un émetteur souhaite envoyer un signal sur le canal, il
est capable de détecter la présence d’une communication coexistente sur le médium
de transmission. En effet, s’il émet un signal sur le canal filaire et qu’il ne retrouve pas
son propre message sur le câble, il peut en déduire qu’il y a eu une collision avec un
signal également présent sur le médium. Cette détection de collision est la base de la
25
technique d’accès CSMA/CD (collision detection). En CSMA/CD, s’il y a détection de
collision, l’émetteur cherche à émettre à nouveau ses données après un temps
d’attente aléatoire. La détection de collision est possible car la distance de
transmission dans un câble est limitée de sorte que les niveaux de puissance de tous
les signaux émis sur le support sont du même ordre de grandeur.
La figure 2-6 [50] montre l’envoi et l’acquittement d’une trame, l’utilisation des IFS est
bien mise en évidence dans cet exemple.
Bien que cette méthode permette de limiter les collisions, il est cependant possible que
deux stations viennent à émettre en même temps. Dans ce cas, il y a une collision et la
trame est perdue. Contrairement aux réseaux câblés utilisant CSMA/CD, une station
802.11 n’a pas les moyens de détecter une collision.
26
DIFS
Émetteur Donnée
SIFS
Récepteur ACK
DIFS
Autre Contention Window
Chaque trame doit donc être acquittée par la station de destination. Lorsqu’une trame
n’est pas acquittée, la station retransmet la trame après avoir attendu DIFS et après un
processus de Backoff.
CWi = 2CWi-1+1
2.4.5.2 RTS/CTS
Les WLANs sont victimes d’un phénomène appelé « station cachée » (hidden station).
La figure ci-dessous [50] permet de mieux comprendre le problème.
STA1 STA3
STA 2
1
Zone de
Zone de couverture
couverture de STA3
L de STA1
e
s
27
Les stations STA1 et STA3 sont trop éloignées l’une de l’autre pour être en mesure de
détecter si l’autre est en train de transmettre. Donc si STA1 transmet des informations
à STA2 et que STA3 désire faire de même, il y aura une collision car STA3 n’a pas
détecté la transmission entre STA1 et STA2.
Octets : 2 2 6 6 4
Frame Duration RA TA FCS
Control
En-tête MAC
Octets : 2 2 6 4
Frame Duration RA FCS
Control
En-tête MAC
35
Request To Send
36
Network Allocation Vector
28
Le mécanisme utilisé par RTS/CTS peut laisser penser qu’il est moins performant que
CSMA/CA car il nécessite l’envoi de deux trames avant de pouvoir émettre de
l’information. Cela est vrai mais seulement dans le cas où la longueur des données est
petite. Le fait qu’avec RTS/CTS les collisions ne peuvent survenir que pendant l’envoi
de la trame RTS garantit que de longues trames ne seront pas à répéter suite à une
collision. Pour optimiser les transmissions un seuil appelé RTS threshold a été
introduit.
Lorsque les trames à envoyer sont petites, c’est CSMA/CA qui est utilisé. Dans le cas
où les trames sont plus grandes qu’un certain seuil (RTS Threshold), c’est alors
RTS/CTS qui est utilisé.
DIFS
RTS Donnée
Émetteur
Autre NAV(RTS) CW
NAV (CTS)
2.4.5.3 Polling
37
La méthode du Polling est une méthode PCF , elle nécessite un point de coordination
(PC38 ). Le point de coordination est un AP, le Polling ne fonctionne donc pas dans un
réseau ad hoc.
37
Point Coordination Function
38
Point Coordination
39
Contention-Free Period
29
contient la durée de la CFP (CFP Max Duration), ce qui permet aux stations du BSS
d’initialiser leur NAV, garantissant ainsi qu’aucune d’entre elles n’émettra pendant la
CFP.
DCF DCF
B PCF B PCF
Busy
NAV NAV
En plus du CF-end et de la balise, deux autres trames ont été spécifiées pour le
polling ; CF-Poll et CF-Ack. CF-Poll permet au PC de désigner la station avec laquelle
il désire communiquer. CF-Ack est utilisé aussi bien par le PC que par les stations pour
acquitter les trames reçues.
2.4.5.4 Fragmentation
Afin d’optimiser les performances, la couche MAC offre un service de fragmentation.
En effet, dans le cas où la probabilité d’erreur par bit est importante, le fait d’envoyer
des trames trop longues rend la probabilité qu’elles soient erronées trop importante.
Pour diminuer le risque de devoir renvoyer une trame suite à une erreur, il s’agit de
diminuer la dimension des trames en les fractionnant en trames plus petites.
40
Association Identifier
30
La fragmentation est différente pour CSMA/CA et RTS/CTS. Avec CSMA/CA,
lorsqu’une station a accès au canal, elle le conserve jusqu’à ce que tous les fragments
soient transmis. Chaque segment doit, bien sûr, être acquitté séparément.
Avec RTS/CTS, le principe est un peu différent. Lorsqu’une station a pris le contrôle du
canal, les autres stations ont déjà initialisé leur NAV. Pour cela, les nouvelles durées
de réservation pour la réinitialisation des NAV sont incluses dans les fragments et dans
les acquittements échangés par les stations. À la fin de la transmission, le dernier
fragment et le dernier acquittement ne contiennent aucune réservation (durée de la
réservation égale à 0).
2.4.5.5 Synchronisation
Toutes les stations appartenant à un même BSS sont synchronisées par la même
horloge. En effet, chaque station dispose d’une horloge interne mais se synchronise à
41
l’horloge commune au BSS. La procédure de synchronisation (TSF ) est réalisée par
la diffusion périodique d’un beacon contenant un timer. La gestion de la
synchronisation est différente pour un réseau ad hoc comparé à un réseau basé
infrastructure.
41
Timing Synchronization Function
42
Target Beacon Transmission Time
31
43
peut, lorsqu’elle n’a pas besoin de communiquer, se mettre à l’état Doze . A l’opposé,
44
lorsqu’une station désirant communiquer, elle doit se trouver dans l’état Awake .
Comme pour la synchronisation, les méthodes de sauvegarde d’énergie sont
différentes pour un BSS basé infrastructure et un BSS ad hoc.
Périodiquement l’AP diffuse un beacon contenant la liste des adresses des stations
45
pour lesquelles il a un message en mémoire, cette liste est appelée TIM . Les stations
sont programmées pour se réveiller (mode awake) à chaque beacon et ainsi, être en
mesure de recevoir la liste TIM. Les stations n’appartenant pas à la liste retournent
dans le mode Doze. Si une station se reconnaît dans la liste fournie par l’AP, elle
envoie, alors, une trame PS-Poll indiquant à l’AP de lui faire parvenir les trames qui lui
sont destinées. L’AP transmet les trames et la station concernée les acquitte. Les
stations peuvent alors se remettre en mode Doze.
Lorsque l’AP doit transmettre une trame multicast ou broadcast, il utilise alors une
46
balise contenant le champ DTIM à la place du champ TIM. Dans ce cas, toutes les
stations doivent rester éveillées et recevoir la trame multicast ou broadcast.
Pendant la fenêtre ATIM, les stations ayant des trames à échanger à des stations qui
étaient endormies envoie leur liste de stations.
Au bout de la fenêtre ATIM, les stations qui n’ont aucune trame à recevoir retourne en
mode Doze, les autres acquittent la liste reçue, reçoivent les données qui leur sont
destinées et les acquittent.
43
La station est incapable de transmettre ou de recevoir, elle utilise le minimum de son énergie.
Si elle a des messages à envoyer, elle les sauvegarde localement.
44
La station utilise toute sa puissance pour envoyer et recevoir des paquets à tout moment
45
Traffic Indication Map
46
Delivery Traffic Indication Message
47
Ad hoc Traffic Indication Map
32
2.4.6 Les variantes de la norme IEEE 802.11
La norme IEEE 802.11 est en réalité la norme initiale offrant des débits de 1 ou 2 Mbps.
Des révisions ont été apportées à la norme originale afin d'optimiser le débit (c'est le
cas des normes 802.11a, 802.11b et 802.11g, appelées normes 802.11 physiques) ou
bien préciser des éléments afin d'assurer une meilleure sécurité ou une meilleure
interopérabilité. Dans la section suivante on va citer un ensemble des variantes de la
norme IEEE 802.11 :
Débit Nombre de
Débit Longueur de code Modulation
(symboles) bits/symbole
48
Wireless Ethernet Compatibility Alliance
49
Complementary Code Keying
33
2.4.6.2 802.11a
En parallèle à la norme précédente, en 1999 l'IEEE a finalisé une nouvelle couche
physique: 802.11a. Dénommée Wi-Fi5 par le WECA, cette couche physique utilise la
bande radio U-NII des 5GHz, qui offre une largeur de bande plus importante (300MHz)
et qui est beaucoup moins encombrée que la bande ISM. Par contre, elle est
totalement incompatible avec les autres normes physiques. De plus la modulation de
50
fréquence utilisée, OFDM est différente des autres normes physiques. On a constaté
que plus les trames sont longues plus le chevauchement, dû aux interférences, inter
trame est moindre. Cela démontre que plusieurs canaux à faible débit sont plus
efficaces qu'un seul à haut débit.
De même que pour Wi-Fi, Wi-Fi5 utilise le " Variable Rate Shifting " lorsque
l'environnement se dégrade, le débit passant de 54Mbit/s à 48 puis 36, 24, 12 et 6
Mbit/s pour finir. Il est à noter que la portée est inférieure aux normes utilisant la bande
ISM, car plus la fréquence est élevée, plus la portée diminue.
50
Orthogonal Frequency Division Multiplexing
34
marques des points d'accès présents dans l'infrastructure réseau. Ceci concerne le
roaming.
2.4.6.7 802.11g
Dernière couche physique apportée au standard 802.11 avant le 802.11n (elle a été
validée en juin 2003), cette norme utilise la bande ISM comme Wi-Fi ainsi que la
technique de codage CCK, ce qui la rend compatible avec Wi-Fi. Par contre elle utilise
l’OFDM, ce qui lui permet d'atteindre un débit max de 54Mbit/s mais avec une
consommation d'énergie plus importante.
2.4.6.8 802.11h
La norme 802.11h vise à rapprocher la norme 802.11 du standard Européen
(HiperLAN 2, d'où le h de 802.11h) et être en conformité avec la réglementation
européenne en matière de fréquences et d'économie d'énergie.
Pour remédier à ces défauts, le groupe IEEE 802.11i travaille dans les quatre
directions suivantes :
•
52
complémentation du WEP pour améliorer le contrôle d’intégrité de
chaque paquet et lutter contre les clés faibles de RC4 ;
2.4.6.10 802.11Ir
La norme 802.11IR a été élaborée de manière à utiliser des signaux infrarouges. Cette
norme est désormais dépassée techniquement.
51
Advanced Encryption Standard
52
Wired Equivalent Privacy
35
2.4.6.11 802.11j
La norme 802.11j est à la réglementation japonaise ce que le 802.11h est à la
réglementation européenne.
2.4.7.1.1Cartes PCMCIA
Il existe plusieurs sortes de cartes PCMCIA se distinguant par
leur puissance ou la présence d’un connecteur antenne.
a. Le connecteur antenne
Généralement de type Lucent (Orinoco, avaya), MCX, MMCX
ils permettent de rajouter une antenne à gain, ce qui peut être
intéressant si vous êtes situé assez loin d'un point d'accès par
exemple.
53
World-Wide Spectrum Efficiency ou TGn Sync
54
Multiple-input multiple-output
36
b. La puissance
La puissance des cartes Wireless va de 30mW à plus de 200mW, habituellement les
cartes que vous rencontrerez dans le commerce auront une puissance de 30 mW (env.
15 dBm).
2.4.7.1.2Cartes PCI
L'atout principal des cartes PCI par rapport aux cartes PCMCIA est l'antenne, qui est
soit intégrée à la carte, soit amovible (donc possibilité de connecter l'antenne de votre
choix).
2.4.7.1.3Cartes USB
Les cartes USB se divisent en 2 grandes familles :
A noter que Linksys a sortie une carte USB qui ressemble à un "Pen drive", donc qui
peux intéresser les possesseurs de portables sans ports PCMCIA.
Une bonne partie des cartes USB sont modifiables pour y ajouter un connecteur
antenne.
37
2.4.7.1.4Cartes COMPACT FLASH
Il y a peu de différences entre les cartes Compact Flash et les
cartes PCMCIA, si ce n'est leur format et leurs pilotes, certaines
cartes sont fournies avec des pilotes Windows (pour PC de
bureau et portable) en plus des pilotes pocket PC et d'autres
non.
La différence primordiale entre les deux versions est que la configuration du v1.1
pouvait se faire grâce à un port USB présent à l'arrière de l'appareil. La configuration
par USB s'étant avérée une mauvaise idée, le port USB a donc été supprimé dans la
version 2.2.
38
Chaînes WiFi 802.11: offrant la capacité de lire les MP3 directement sur le disque dur
d'un ordinateur grâce à l'interface Ethernet sans fil intégrée. Elle préfigure toute une
génération de produits, capables de lire, outre les CD audio, les radios qui émettent en
MP3 sur Internet.
Assistant personnel: le PDA intégrant le 802.11 est parfois plus avantageux qu'un
portable pour lire ses mails, importer des documents voir surfer sur le net.
Caméra vidéo: transmettre des images à distance à l'ordinateur qui les enregistre.
Les composants Wi-Fi 802.11 ne sont pas plus onéreux que ceux des réseaux filaires,
bientôt toutes les plates-formes seront vendues avec des modules Wi-Fi intégrés.
C'est déjà le cas dans le monde des PC portables, qui, sous l'impulsion d'Intel, fait sa
révolution sans fil grâce au Centrino.
2.5 Conclusion
Ce chapitre a donc introduit les connaissances de bases, commençant par la définition
des réseaux sans fil et les différentes catégories de réseaux sans fil, et plus
précisément les réseaux IEEE 802.11, à démontrer l’importance des couches basses
du modèle en couche. On a cité aussi les différentes variantes de cette norme, et enfin
on a fait un parcours rapide sur les équipements 802.11.
Dans le chapitre suivant, nous nous intéressons plus spécialement aux réseaux ad hoc
et au problème de routage dans ce type de réseaux.
39
RÉSEAU AD HOC ET ROUTAGE
1. Réseau ad hoc
3.1 Définition
55
L’IETF , qui représente l’organisme responsable de l’élaboration des standards pour
Internet, définit les réseaux ad hoc, appelé également MANET (Mobile Ad hoc
NETworks), de la manière suivante :
" Un réseau ad hoc est un système autonome de plates-formes mobiles (par exemple
un routeur interconnectant différents hôtes et équipements sans fil) appelées nœuds
qui sont libres de se déplacer aléatoirement et sans contraintes. Ceci provoque des
changements rapides et imprédictibles de la topologie du réseau. Ce système peut
fonctionner d’une manière isolée ou s’interfacer à des réseaux fixes au travers de
passerelles. Dans ce dernier cas, un réseau ad hoc est un réseau d’extrémité".
Les caractéristiques de ces réseaux engendrent des contraintes à leur mise en œuvre:
55
Internet Engineering Task Force
40
Connexions variables : Les nœuds peuvent avoir plusieurs interfaces radios,
présentant des propriétés de débits ou de fréquences différents. Ces variations
donnent naissance à des connexions asymétriques.
Contraintes d’énergie : Les batteries utilisées par les nœuds ne sont pas illimitées.
Les services supportés par ces nœuds sont donc restreints. C’est un problème
d’autant plus important que les nœuds sont responsables du routage des paquets dans
le réseau, ce qui consomme beaucoup d’énergie.
Taille : la plupart des algorithmes utilisés pour les réseaux ad hoc sont optimisés pour
de petits réseaux. Il y a donc des améliorations à apporter dans certains domaines
(sécurité, routage,...) pour pouvoir passer à une échelle supérieure.
Vulnérabilité : Les réseaux sans fil sont par nature plus sensibles aux problèmes de
sécurité. Pour les réseaux ad hoc, le problème ne se situe pas, principalement, au
niveau du support physique mais dans le fait que tous les nœuds sont équivalents et
potentiellement nécessaires au fonctionnement du réseau.
Les premières applications dans les réseaux ad hoc sont apparues avec le projet
56
PRNet [6] en 1972. Ce projet a été inspiré par l’efficacité de la technologie par
commutation de paquets, le partage de la bande passante, le routage
store-and-forward, et ses applications dans l’environnement mobile sans fil.
57
SURAN [6] a été développé par la DARPA en 1983 pour dresser les principaux
problèmes du projet PRNet dans le domaine de la scalabilité, la sécurité, la capacité de
traitement et gestion d’énergie. Les objectifs étaient de proposer des algorithmes qui
peuvent supporter jusqu’à une dizaine de milliers de nœuds, tout en utilisant des
mécanismes radio simples, avec une faible consommation d’énergie, et un faible coût.
58
Ce travail a amené à la conception de la technologie LPR [6] en 1987, dotée d’une
couche radio DSSS avec un processeur pour la commutation de paquets intégré (Intel
8086). De plus, une famille de protocoles pour la gestion du réseau a été développée,
et une topologie hiérarchique du réseau basée sur un groupe «clustering» dynamique
est utilisée pour remédier au problème de la scalabilité. Des améliorations pour
56
Packet Radio Network
57
Survivable Radio Networks
58
Low-cost Packet Radio
41
l’adaptabilité de la couche radio, la sécurité et l’augmentation de la capacité ont été
proposées aussi.
Tactical Internet (IT) [6] est l’une des implémentations des réseaux sans fil ad hoc
grandeur nature développée par l’armée américaine en 1997, utilisant des débits de
plusieurs dizaines de kilobits par seconde.
60
Un autre déploiement a été réalisé en 1999, avec ELB ACTD [6] qui permet de
démontrer la faisabilité de concepts militaires pour les communications des bateaux en
mer aux soldats sur la terre par l’intermédiaire d’un relais aérien. Vingt nœuds dans le
réseau ont été considérés.
Réseaux Mesh : c’est une technologie émergente qui permet d’étendre la portée d’un
réseau ou de le densifier.
59
Global Mobile
60
Extending the Littoral Battle space Advanced Concept Technology Demonstration
42
En plus, dans un WLAN, un réseau ad hoc fournit une solution pour étendre une
couverture sans fil avec un coût minimum. Dans un WWAN (ex : UMTS), il permet
d’accroître la capacité globale du réseau sans fil. En fait, plus de bande passante
agrégée peut être obtenue en réduisant la taille des cellules et en créant des
pico-cellules. Afin de supporter une telle architecture, les opérateurs disposent de deux
options : déployer plus de stations de base (une station de base par cellule), ou utiliser
un réseau ad hoc pour atteindre la station de base. La deuxième solution est
clairement plus flexible et moins coûteuse. La figure suivante montre un exemple
d’illustration des réseaux ad hoc.
43
• Les nœuds peuvent entrer et sortir du réseau à tout moment, soit parce
qu'ils s'éteignent, soit parce qu'ils sortent de la portée radio des nœuds
du réseau;
Avec l'apparition des systèmes de positionnement bas coût, une quatrième catégorie
peut être ajoutée aux trois précédentes : elle est basée sur la position des nœuds du
réseau, ce sont les protocoles géographiques.
44
Dans les paragraphes suivants, une présentation non exhaustive des protocoles
représentatifs de ces différentes familles est réalisée au travers de leurs principales
caractéristiques.
Dans l'approche de routage par vecteur de distance, un nœud échange avec ses
voisins une estimation de la distance vers tous les nœuds du réseau. Cet échange
d’informations couplé avec un algorithme de recherche du plus court chemin Bellman
(1957) et de Ford et Fulkerson (1962) permet à chaque nœud de converger vers une
connaissance exacte de la topologie du réseau. C’est-à-dire que chaque routeur
communique aux autres routeurs la distance qui les sépare (en nombre de sauts). Ainsi,
lorsqu'un routeur reçoit un de ces messages il incrémente cette distance de 1 et
communique le message aux routeurs directement accessibles. Les routeurs peuvent
donc conserver de cette façon la route optimale d'un message en stockant l'adresse du
routeur suivant dans la table de routage de telle façon que le nombre de sauts pour
atteindre un réseau soit minimal. Le protocole RIP 61 est le protocole ‘vecteur de
distance’ le plus connu.
Dans le protocole de type ‘Link State’, les nœuds transmettent en diffusion dans le
réseau l’état des liens avec leurs voisins. Ainsi tous les nœuds finissent par détenir le
voisinage de chacun des nœuds du réseau. On conçoit alors facilement que l’on puisse
connaître la topologie complète du réseau. Pour calculer les routes optimales vers un
nœud, il sera facile d’utiliser l’algorithme de Dijkstra. Cet algorithme procède au calcul
des distances par une récurrence montante. D’abord on considère ses voisins qui sont
donc à distance 1, puis les voisins de ses voisins. Ces nœuds sont à distance 2 et on
continuera ainsi.
62
Les protocoles ad hoc proactifs qui ont été standardisés au sein de l’IETF sont OLSR ,
63
et TBRPF .
61
Routing Internet Protocol
62
Optimized Link State Routing
63
Topology Broadcast Based on Reverse-Path Forwarding
45
3.4.1.2 Synthèse
Le principal avantage de ces protocoles est leur réactivité. En effet, à tout moment
chaque élément du réseau connaît un moyen d'atteindre les autres membres du
réseau.
3.4.2.2 Synthèse
Le routage à la demande permet de réduire le nombre des messages de contrôle, mais
il induit une lenteur à cause de la recherche des chemins, ce qui peut dégrader les
performances des applications interactives (par exemple les applications des bases de
données distribuées). En outre, il est impossible de connaître au préalable la qualité du
chemin (en termes de bande passante, délais,… etc.). Une telle connaissance est
importante dans les applications multimédias.
64
Ad hoc On demand Distance Vector
46
3.4.3 Protocoles de routage Hybrides
3.4.3.1 Fonctionnement
Les protocoles hybrides combinent les deux idées : celle des protocoles proactifs et
celle des protocoles réactifs. Ils utilisent un protocole proactif pour avoir des
informations sur les voisins les plus proches (au maximum les voisins à deux sauts).
Au-delà de cette zone prédéfinie, le protocole hybride fait appel aux techniques des
protocoles réactifs pour chercher des routes.
3.4.3.2 Synthèse
Ce type de protocoles s’adapte bien aux grands réseaux, cependant, il cumule aussi
les inconvénients des protocoles réactifs et proactifs en même temps (messages de
contrôle périodique, le coût d’ouverture d’une nouvelle route, …etc.).
• Aucun de ces protocoles n'a réellement été conçu pour un routage avec
QoS, sauf OLSR qui prend en compte la qualité des liens.
47
3.5 Présentation du protocole OLSR
Un exemple de protocole de routage proactif basé sur la topologie, actuellement
largement utilisé dans les réseaux ad-hoc mobiles à sauts multiples est le protocole
65
dénommé OLSR . Ce protocole est défini dans le document RFC n°3626 de l’IETF.
65
Optimized Link State Routing Protocol
66
Multi-Point Relays
67
Topology control
48
• « champ Réservé » : Ce champ doit contenir « 0000000000000000 »
En réalité, Les messages HELLO ne sont destinés qu'aux nœuds voisins (à un saut) de
l'expéditeur, ils doivent donc ne jamais être routés par un MPR.
3.5.2.2 Message TC
Le message TC permet au MPR de transmettre la liste des voisins qui l'ont choisi
comme MPR. Il sert à établir les tables de routage. La table de routage est calculée par
chaque nœud, à partir des informations contenues dans la table de voisinage et la
table topologique, en utilisant par exemple l’algorithme de plus court chemin de
Djikstra.
Aussi, pour que le message TC soit diffusé sur tout le réseau, la valeur du TTL dans
l'header du message est 255, la valeur maximale. La structure du paquet TC est
illustrée à la figure 3.4.
0 1 2 3
0 1 2 3 4 5 6 7 8 9 0 1 2 3 64 5 6 7 8 9 0 1 2 3 4 5 6 7 8 9 0 1
ANSM Champ réservé
L’adresse principale du voisin annoncé
L’adresse principale du voisin annoncé
de ne pas tenir compte des informations obsolètes, pour tenir les tables le
plus à jour possible.
68
Advertised Neighbor Sequence Number
49
3.5.3 Découverte de voisinage
Chaque nœud doit détecter ses voisins adjacents, c'est à dire ceux avec qui il a des liens
directs. Les liens considérés comme valides sont ceux vérifiés dans les deux directions et
sont dits symétriques.
Pour accomplir cette tâche, chaque nœud diffuse périodiquement un massage Hello
contenant des informations sur son voisinage et l’état des liens vers ses nœuds
voisins.
Les échange des paquets Hello permettent à chaque nœud de prendre connaissance
de son voisinage à un et à deux sauts.
Dans la table de voisinage, chaque nœud enregistre la liste de ses voisins, l’état des
liens et pour chaque voisin la liste des voisins à deux sauts qu’il peut couvrir. Une
entrée dans cette table est de la forme : N_time défit la durée pour laquelle l’entrée est
valide, si elle expire l’entrée sera supprimée.
L’ensemble des MPRs est recalculé s’il ya un changement dans le voisinage à un saut
(si un lien bidirectionnel disparaît dans le voisinage) ou le voisinage à deux sauts
toujours en terme de liens bidirectionnels.
50
m
Grâce aux messages Hello, chaque nœud est capable de connaître les voisins qui l’ont
choisi comme MPR. Cet ensemble appelé l’ensemble des sélecteurs multipoints69 et
aussi enregistré sur la table des sélecteurs multipoints.
Comme pour tout paradigme proactif, le paquet TC est envoyé par chaque nœud à des
intervalles réguliers pour déclarer l’ensemble des sélecteurs MPR. Il s’agit de la liste
des voisins du nœud générateur l’ayant choisi comme MPR. Un numéro de
séquence(MSSN) est associé à l’ensemble des sélecteurs MPR et est attaché à cette
liste. La liste des adresses peut être partielle mais dans ce cas, elle doit être complétée
au bout d’une durée de rafraîchissement prédéfinie. Un nœud n’ayant pas été choisi
comme MPR ne génère pas de message TC.
69
MultiPoint Relay Selector
51
Chaque nœud maintient une table de topologie dans laquelle il enregistre les
informations apportées par les messages TC. La table de topologie est ainsi mise à
jour après chaque réception d’un message TC. Sur la base de cette table, la table de
routage sera à son tour calculée. Une entrée de la table de topologie peut avoir le
format suivant : cette entrée se lit comme suit :
Ce qui signifie que le nœud identifié par R_dest est estimé être à une distance égale à
R_dist du nœud local et le voisin à un saut dont l’adresse est R_next est le prochain
saut à emprunter dans le chemin reliant le nœud local à R_dest.
Si l’une des tables de voisinage ou de topologie change alors la table de routage doit
être recalculée. La mise à jour de la table nécessite simplement un calcul local et
n’implique aucun envoi des paquets supplémentaires.
52
• L_link_pending : est un booléen qui indique si le lien est considéré comme
établi ou non. Initialement, tout nouveau lien est considéré comme transitoire
en positionnant le booléen L_link_pending à vrai,
• L_lost_link : est le temps nécessaire pour déclarer le lien comme perdu une
fois il devient transitoire (L_link_pending passe à vrai).
3.6 Conclusion
Dans ce chapitre, un état de l’art sur les réseaux Ad hoc les protocoles de routage qui
lui sont dédiés a été présenté. Parmi ces protocoles, nous avons prêté une attention
particulière au protocole de routage proactif OLSR, parce qu’ils définissent le contexte
de notre travail.
Dans le prochain chapitre, nous allons exposer les travaux récents sur la gestion de
l’économie d’énergie dans les réseaux ad hoc.
53
ÉTAT DE L’ART
4. Etat de l’art
4.1 Introduction
L’énergie est un facteur majeur pour les réseaux sans fil et dans le contexte de mobilité
du fait que les stations du réseau sont en activité permanente (radio : écoute du canal,
réception, transmission ou niveau supérieur : routage, traitement de l’information, …).
Cette activité ne pourrait être présente et continue qu’à travers les batteries des
stations présentant l’inconvénient d’être de charge limitée. Plusieurs travaux ont
démontrée que l'activité d’un réseau sans fil est très coûteuse en énergie.
En réalité, la partie radio d’un dispositif sans fil peut être dans l’un des quatre états
suivants [7]: Transmission, Réception, Idle ou Sleep.
• Sleep: c’est quand la station est éteinte et le nœud n'est pas capable de
détecter des signaux radio, c’est à dire aucune communication n'est
possible. La puissance Psleep est le plus petit en général.
Dans la table 4.1, nous rapportons les valeurs référencés de Ptransmit, Precevoir, Pidle et
Psleep prises pour 802.11. L’exemple concerne une carte PC Lucent WaveLan Silver, et
pour 802.15.4 l’exemple concerne la FreeScale MC 13192 SARD [7].
54
Valeur d’énergie
L’état
802.11 802.15.4
Donc on remarque que la proportion la plus élevée d’énergie consommée par les
70
interfaces réseaux sans fil (WNIC ) est celle consommée durant l’activité de la
communication à travers essentiellement la transmission. Les modèles existants pour
évaluer le comportement de la consommation d'énergie d'un réseau ad hoc mobile ont
montré [8] que les coûts apparentés de plusieurs composants d'énergie comportent la
puissance de la transmission aussi bien que la puissance de réception. Cependant,
ces activités liées à la communication ne sont pas les seules qui consomment de
l'énergie. Même dans les états idle et sleep, un mobile doit assurer sa connectivité au
réseau à travers l'envoie périodique de messages de contrôle et l'écoute du canal.
Plusieurs études et recherches [9] ont montré que l’écoute du canal auquel opère le
protocole est la source primaire de la perte de puissance. Même au niveau du routage,
la participation des nœuds intermédiaires à l'opération de routage et le traitement du
trafic de contrôle, associé au protocole de routage utilisé, multiplient la consommation
de l'énergie.
En effet, le niveau routage du modèle en couches des réseaux WLANs est plus
complexe en mode Ad Hoc qu’en mode infrastructure. Les nœuds devront être à
double fonctionnalités : routeur et nœud de terminaison et donc la consommation
d’énergie est encore plus importante. En fait, les informations échangées pour
n’importe quel protocole de routage proactif ou réactif augmentent la charge des
nœuds et celle du réseau. Ceci induit une perte additionnelle d’énergie entre la fonction
de gestion et de maintenance des routes et celle de transmission. Donc la conservation
d’énergie pourrait être accomplie à différents niveaux avec différentes techniques.
Dans notre cas, nous pouvons classer les techniques d’économie d’énergie en trois
classes : contrôle de puissance de transmission « transmission power control », mode
de puissance basse « low-power mode» et routage orienté puissance « power-aware
routing ».
70
Wireless Network Interface Card
55
Nous présentons dans ce qui suit les principales approches existantes pour la
conservation d'énergie.
iii. Il peut réduire les interférences des ondes radio et donc augmenter la
réutilisation spatiale de la bande passante.
56
peuvent coexister simultanément. Cela augmentera grandement l'utilisation de la
bande passante sans fil.
C
D
B
A
F
E
(a)
C
D
B
A
F
E
(b)
Selon [11], La puissance de transmission détermine la portée sur laquelle le signal peut
être reçu d'une manière cohérente, et par conséquent c’est un paramètre critique pour
déterminer la performance du réseau (débit, délai, et consommation d'énergie). La
sélection de la "meilleure" portée de transmission a été étudiée en détail dans la
littérature. En effet, [12] montre que plus la portée des nœuds est grande, plus la
puissance nécessaire à la transmission est grande. De plus, la portée d'un nœud influe
directement sur la zone d'interférence. Augmenter la portée, implique aussi augmenter
la probabilité d'interférence, le taux de collision et le taux de perte et diminue la
capacité de transmission des nœuds.
57
topologie dépend de facteurs “incontrôlable” tel que mobilité du nœud, interférences,
bruit, aussi bien que sur des paramètres “contrôlable” tel que la puissance de
transmission et la direction de l'antenne. Alors que des travaux de recherche
considérables ont été réalisés sur les mécanismes qui réagissent efficacement aux
changements dans la topologie dû aux facteurs incontrôlables, le domaine
d'ajustement des paramètres contrôlables a reçu peu d’attention. Donc le contrôle de
topologie vise à réduire la portée des nœuds, si possible, d'où la réduction des
interférences et les collisions permettant ainsi une meilleure conservation d'énergie
[14].
Le mécanisme proposé dans [15] permet d'ajuster la puissance d'un nœud jusqu'à ce
qu'il ait un nombre de voisins limité. Ceci n'assure pas dans tous les cas la connectivité
du réseau. Souvent, les nœuds peuvent se retrouver dans des îlots séparés avec
quelques voisins directs. Donc Ramanathan et al [15] ont présenté deux algorithmes
71
centralisés « CONNECT et BICONN-AUGMENT »pour réduire au minimum la
puissance maximum utilisée par un nœud tout en maintenant la connectivité ou la
bi-connectivité du réseau. Les auteurs considèrent un réseau bi-connecté si la perte
d'un seul nœud ne découpe pas le réseau. L’algorithme CONNECT est un algorithme
itératif simple qui fusionne différents composants jusqu'à ce qu’il ne reste qu’un seul.
Initialement, chaque nœud est son propre composant. Les paires de nœuds sont
sélectionnées dans un ordre non-décroissant de leurs distances mutuelles. Si les
nœuds sont dans des composants différents, alors la puissance de transmission de
chacun est augmentée pour être capable d'atteindre juste l'autre. Cela est fait jusqu'à
ce que le réseau soit connecté. Augmenter un réseau connecté à un réseau
bi-connecté se fait par l’algorithme BICONN-AUGMENT, qui utilise la même idée que
CONNECT pour la construction itérative du réseau bi-connecté. Sauf qu’en plus, une
phase du post-traitement peut être appliquée pour assurer la distribution minimum
par-nœud des puissances de transmission par la suppression des connexions
redondantes.
Dans un réseau mobile ad hoc, la topologie peut souvent changer comme nous l’avons
déjà expliqué. Par conséquent, les puissances de transmission des nœuds doivent
être réajustées continuellement afin de maintenir la topologie désirée. En même temps
les auteurs proposent deux heuristiques distribuées pour le contrôle de la topologie
72
des réseaux mobiles. Dans LINT , chaque nœud est configuré avec trois paramètres:
Le degré "désiré" du nœud dd, un seuil élevé d de degré du nœud et un faible seuil dl.
Chaque nœud vérifiera périodiquement le nombre de voisins actifs « le degré » dans
sa table des voisins. Si le degré est plus grand que dh, le nœud réduit sa puissance
71
Biconnectivity Augmentation
72
Local Information No Topology
58
opérationnelle. Si le degré est inférieur à dl, le nœud augmente sa puissance
opérationnelle. Si ni l'un ni l'autre est vrai, aucune mesure n’est prise, donc la
modification de niveau de la puissance se fait de tel sorte que le degré du nœud soit
73
gardé dans les seuils. LILT améliore encore LINT en outrepassant le seuil élevé
lorsque le changement de la topologie a indiqué par les résultats de la mise à jour de
routage dans une connectivité indésirable. Alors LINT utilise les informations du voisin
localement disponible collectée par quelque protocole de routage, et tente de garder le
degré (nombre des voisins) de chaque nœud borné. Alors que LILT utilise l’information
du voisin localement disponible, mais utilise aussi l'information de la topologie globale
qui est disponible avec quelques protocoles de routage tel que les protocoles de l’état
de lien.
La limite de la
région du relais
L’asymptote de la
région du relais
73
Local Information Link-State Topology
59
Pour tout nœud i qui a l'intention de transmettre au nœud j, où le nœud j se trouve dans
la région du relais d'un troisième nœud r, pour que le nœud i consomme moins de
puissance, il choisit de relayer par le biais du nœud r au lieu de transmettre directement
au nœud j. La clôture du nœud i est alors définit comme l'union du complément de
régions du relais de tous les nœuds, que le nœud i peut atteindre, en utilisant sa
puissance de transmission maximale. Il est montré que le réseau est fortement
connecté si chaque nœud maintient des liaisons avec tous les nœuds existant dans sa
clôture et la topologie résultante est une topologie avec une puissance minimale. Dans
cette approche, l’algorithme donne le graphique de la clôture, supposant qu’il n'y a
qu'un seul puit de données (destination) dans le réseau, ce qui est impossible dans la
pratique. De plus, un modèle explicite de propagation du canal est nécessaire pour
calculer la région du relais.
Le protocole COMPOW [10] a pour objectif d'ajuster la puissance des nœuds selon
une valeur commune. Ce niveau de puissance est le niveau minimal permettant
d'assurer la connectivité du réseau. Ce protocole met en évidence l'importance des
liens bidirectionnels puisqu'une destination directe ne peut répondre à une source que
si sa puissance de transmission est au moins égale à celle de la source. De ce fait,
assurer une puissance commune permet d'assurer des liens bidirectionnels. Ce
protocole vise aussi à augmenter la capacité de transmission du réseau avec le plus
petit niveau d'énergie ou de portée possible tout en gardant la connectivité du réseau.
Ces derniers challenges posent le problème de recherche de la meilleure couverture
du réseau et du contrôle de partitionnement. Donc on peut dire que COMPOW marche
bien si les nœuds sont distribués de façon homogène dans l'espace, même si un seul
nœud éloigné pourrait provoquer que chaque nœud doit utiliser un niveau élevé de
puissance.
100 mW
1 mW
Figure 4.3 : Un niveau de puissance commune n'est pas approprié pour les réseaux
non-homogènes.
Dans [16], les auteurs proposent de calculer le digramme de Voronoî [17] sur
l'ensemble des nœuds du réseau, dont la topologie et la localisation des nœuds est
connue à un instant donné, puis d'en déduire la triangulation de Delaunay qui permet
60
de relier les nœuds ayant des cellules voisines, aussi on peut extraite l'information du
voisinage de la triangulation Delaunay puisque les cellules qui sont proches sont
connectées. Dans cette technique l'usage du diagramme de Voronoi, efficacement et
sans perte d'optimalité, transforme le problème géométrique continu à un problème du
graphique discret. Le diagramme de Delaunay assure une connectivité totale des
nœuds du réseau selon des liens courts assurant une portée minimale.
61
données. De la même façon, la station u calcule son niveau de puissance pdesiré pour
transmettre sa trame ACK.
Les auteurs dans [24] indiquent que le protocole précédent peut dégrader le débit du
réseau et peut même causer une consommation d'énergie plus grande. Avant
d'expliquer les raisons, il y a trois termes qui doivent être définis: la portée de la
transmission (déjà définie), la portée de détection de porteuse, et la zone de détection
de porteuse. Quand une station v est dans la portée de la transmission d'une autre
station u, la station v peut recevoir et décoder correctement des trames de la station u,
alors que si la station v est dans la portée de détection de porteuse de la station u, elle
peut détecter mais pas nécessairement décoder correctement la transmission de la
station u. Habituellement, la portée de détection de porteuse est plus grand que la
portée de la transmission (une supposition typique est que le rayon du premier est
deux fois plus grand que le deuxième). Noté que la portée de la transmission et la
portée de détection de porteuse dépendent aussi du niveau de la puissance de
transmission de l’émetteur. La zone de détection de porteuse est définie comme la
région du la portée de détection de porteuse à l'exclusion de la portée de la
transmission. Donc, quand une station est dans la zone de détection de porteuse d'un
émetteur, il peut juste détecter le signal mais pas décoder correctement les données
transmises. Ces définitions sont illustrées dans la figure 4.4(a) [24].
62
La zone de détection de porteuse
D A La portée de transmission
La portée de détection de
porteuse
(a)
DIFS SIFS
A RTS DONNEE
SIFS SIFS DIFS
CTS ACK
B
DIFS
C NAV(RTC)
(b)
Figure 4.4 : (a) Un exemple de portée de la transmission, la portée de détection de porteuse, et
la zone de détection de porteuse. (b) NAVs utilisé par C et D quand A et B échangent leur
dialogue RTS–CTS–Données–ACK.
Dans [24], les auteurs ont proposé un nouveau protocole de contrôle de la puissance
au niveau MAC pour prévenir le problème de collisions dans le protocole de base.
Dans ce protocole, les trames RTS et CTS sont envoyées avec un niveau de
puissance pmax. Les nœuds dans la zone de détection de porteuse ont initialisé leurs
74 75
NAVs pour une durée EIFS quand ils détectent des signaux qui ne peuvent pas être
74
Network Allocation Vector
63
décodés correctement. Les trames ACK sont aussi envoyées avec un niveau minimum
de la puissance exigé pdesiré. La différence principale est que le niveau de la puissance
pour transmettre des trames de Données est périodiquement augmenté par rapport au
niveau de la puissance pdesiré et au niveau de la puissance pmax. Le niveau de la
puissance de transmission des trames de données est alterné entre pmax et pdesiré avec
une période d'un EIFS. La figure 4.5 montre les changements des niveaux de la
puissance de transmission pendant l'échange RTS–CTS–Données–ACK. Avec une
telle modification, les autres stations qui peuvent causer des collisions observeront
périodiquement l'existence des porteurs et remettre leur transmission. Puisque la
puissance de transmission des trames de données est augmentée chaque durée EIFS,
les NAVs adéquats peuvent être remis à d’autres stations. Aussi, la longueur de la
durée de transmission au niveau de la puissance pmax devrait être assez importante
pour la détection de porteuse.
P max
Pdesiré
0
DIFS SIFS
A RTS DATA
SIFS SIFS DIFS
B CTS ACK
Dans [23], le contrôle de puissance est adopté pour réduire l’interférence et pour
améliorer le débit dans la couche MAC. Les auteurs de [23] ont proposé aussi un
nouveau protocole MAC qui combine les mécanismes de contrôle de la puissance, le
dialogue RTS/CTS et deux tons occupés « busy tones». L'idée principale est d’utiliser
l'échange des RTS et CTS entre deux stations pour déterminer leurs distances
relatives. Cette information est utilisée alors pour contraindre le niveau de puissance à
utiliser par le nœud pour transmettre ses paquets de données. L’utilisation des niveaux
de puissance inférieurs peut augmenter la réutilisation du canal. Il conserve aussi
l'énergie de la batterie et réduit les interférences du Co-canal avec les autres nœuds
voisins. Dans ce mécanisme le canal est fendu en deux sous canaux: un canal des
données et un canal de contrôle. Le canal de contrôle est utilisé pour transmettre des
dialogues RTS/CTS.
75
Extended Inter-Frame Space
64
Les deux tons occupés sont le ton occupé de transmission ‘BTt’ et le ton occupé de
réception ‘BTr’. Ces deux tons occupés sont placés sur le spectre à des fréquences
différentes avec assez de séparation. La figure 4.6 montre une allocation du spectre
possible. BTt indique que certain nœuds transmettent, tandis que BTr indique que
certain nœuds reçoivent. Un émetteur doit initialiser son BTt quand il transmet un
paquet de données et un récepteur doit initialiser son BTr quand il répond à l’émetteur
par un CTS. Quand un hôte désire envoyer un RTS, il doit s'assurer qu'il n'y a aucun
BTr autour lui. Inversement, un hôte doit s'assurer qu'il n'y a aucun BTt autour, pour
répondre par un CTS.
BTr BTt
Canal de
control Canal de données
La fréquence
Figure 4.6 : Un diagramme de la fréquence possible pour l'allocation des tons occupés.
A travers les analyses théoriques et les expériences, le protocole est vérifié pour être
capable d'augmenter considérablement l'utilisation du canal dû au recouvrement du
signal réduit. La Conservation d'énergie et la réduction de l'interférence qui sont
accomplies simultanément.
Dans [7], les auteurs étudient le protocole MAC d'IEEE 802.11 et proposent des
modifications dans les formats de l'en-tête des paquets CTS et les paquets de données
afin de supporter le contrôle de la puissance. En plus, dix niveaux de la puissance de
transmission sont définis. Le récepteur informe l’émetteur du niveau de la puissance
appropriée à travers un paquet CTS, tandis que l’émetteur informe le récepteur par un
paquet de données. Donc, pendant un échange RTS–CTS–Données–ACK, l’émetteur
et le récepteur peuvent déterminer des puissances de transmission adéquates à
utiliser. Les résultats de l’évaluation des performances montrent une réduction de
10–20% dans la consommation de la puissance et une amélioration de 15% dans le
débit.
65
avance un paquet pour une destination d qui utilise le plus petit niveau de puissance p
tel que la destination d soit accessible. On peut le qualifier d’algorithme avide, car
chaque nœud utilise le niveau de puissance le plus bas qui garantit l’accessibilité à la
destination selon l'information qu’il possède. Cela est exécuté à la source et au niveau
de chaque nœud intermédiaire. La conséquence est que si un nœud supplémentaire
en aval sait comment atteindre la destination par l’utilisation d’un niveau de la
puissance inférieure, alors il utilise le niveau de la puissance inférieure pour avancer le
paquet. La figure 4.7 [25] illustre les routes choisies, et le niveau de la puissance
utilisée quand l’algorithme précité, est exécuté sur un réseau rassemblé typique.
Le protocole PAMAS (Power Aware Multi-AccesS) [26] utilise deux canaux séparés
pour l’échange de messages de contrôle (c’est-à-dire, les messages RTS et CTS) et
des messages de données. L’utilisation de deux canaux séparés limite ainsi le nombre
de collisions entre les messages de données et de contrôle. Par conséquent, le
nombre de collisions est réduit puisqu’un terminal peut à la fois recevoir ou émettre des
données tout en interdisant aux autres terminaux d’utiliser le canal de transmission de
données. Concrètement, quand un terminal A transmet un paquet à un terminal B, A
envoie en parallèle un message RTS à B. Cependant, si un voisin de A ou B (ou des
deux) reçoit ou transmet un paquet, il envoie un busy tone avec le message CTS
envoyé en réponse.
66
effet opposé de l’économie d’énergie s’il n’est pas exploité convenablement. Ce
mécanisme crée deux problèmes à résoudre:
• Comment fait une station qui envoie des paquets à une autre station dans un
mode d’économie d’énergie « PS»?
L’économie d’énergie IEEE 802.11 est basée sur le stockage et la synchronisation. Les
paquets destinés à une station dans un mode PS doivent être stockés jusqu'à son
“réveil”. Les stations doivent être synchronisées de telle manière que les paquets
soient transmis seulement si le receveur projeté est prêt (réveillé) pour la réception.
Dans le mode infrastructure, le stockage et la synchronisation sont exécutées de façon
centrale par un Point d'Accès (AP). Ceci est donc plus compliqué dans un réseau ad
hoc, parce que le stockage et la synchronisation doivent être exécutés de manière
distribuée.
La synchronisation des nœuds du réseau au niveau du mécanisme PSM fait que tous
les nœuds utilisant le mode PS doivent, si leurs activités le permettent, entrer en mode
Doze durant la même période puis se réveiller aux mêmes instants. Cette
caractéristique fait que durant une communication entre une source et une destination
utilisant une route à plusieurs sauts, plusieurs nœuds en mode Doze peuvent se
trouver sur la route. Un paquet traversant le réseau peut rencontrer tout un îlot de
nœuds en mode Doze empêchant le paquet d'être routé à destination. Ceci représente
une faille au niveau de PSM qui peut induire un risque de partitionnement du réseau au
moment du routage.
Par ailleurs, un nœud utilisant le mode PS restera actif durant tout le reste de la période
Intervalle de balise s'il a reçu des annonces de messages durant la période ATIM ou s'il
a des messages à envoyer. Cependant, le nœud ne sera pas réellement en
communication durant toute la période puisqu'il n'aura pas accès au canal à tout
instant et peut terminer la réception ou la transmission de ses données avant la fin de
la période.
Slotted PSM [27] consiste donc à diviser la période allant de la fin de la période ATIM
jusqu'au reste de la période Intervalle de balise en un certain nombre de slots de
temps, chacun sera alloué pour un nœud donné pour effectuer sa communication.
67
Chaque nœud restera actif uniquement durant les slots qui lui seront alloués et pourra
ainsi être en mode doze plus longtemps.
Une amélioration récente de PSM, adoptant le même principe que Slotted PSM, est le
mécanisme TA-PSM (Traffic Aware Power Saving Mode) [28]. Cette nouvelle
approche est partie de la constatation du fait que deux nœuds en mode PS restent en
état Awake pour le reste de l’Intervalle de balise afin d'échanger des paquets de
données, mais peuvent terminer leur communication avant la fin de cette période.
TA-PSM consiste à réduire la consommation d'énergie des nœuds du réseau activant
PSM en les rendant plus sensibles à la charge du trafic. Chaque source doit à cet effet,
indiquer à sa destination l'éventuelle fin de leur communication et ceci en activant un
champ particulier dans le dernier paquet qu'elle lui adresse.
S-MAC [13] est un mécanisme permettant aux nœuds d'entrer en mode veille pour des
périodes assez longues. Dans S-MAC, un nœud entre en mode veille quand un voisin
est en cours de transmission. S-MAC emploie le modèle d’écoute et de mise en veille
périodique pour réduire la consommation d'énergie en évitant l'écoute à vide.
Cependant, ceci exige la synchronisation entre les nœuds voisins. La latence est
augmentée puisqu'un émetteur doit attendre le récepteur à ce qu’il se réveille avant de
commencer la transmission. S-MAC emploie la synchronisation pour former des
groupes virtuels des nœuds sur la même liste de sommeil. Cette technique coordonne
les nœuds pour réduire au minimum la latence additionnelle. T-MAC [29] étend
S-MAC en ajustant la longueur de la période de réveil des nœuds selon les
communications environnantes. Ceci permet de réduire l'énergie consommée suite à
l'écoute passive du canal.
68
D'autres propositions [30] se basent sur une architecture à deux canaux radios
assurant une conservation de l'énergie à travers la mise en veille d'un premier canal et
l'utilisation du second à une puissance minimale pour réveiller un voisin spécifique ou
pour écouter périodiquement le canal.
L'objectif de ces protocoles est de construire un ensemble de nœuds actifs, de tel sorte
que tous les autres nœuds peuvent entrer dans l’état Sleep pour garder leur énergie.
On assure en même temps la connectivité du réseau et les fonctionnalités
d'application.
76
La GAF [31] est une autre technique qui emploie la connaissance des positions
géographiques des nœuds pour choisir les coordonnateurs. Les positions
géographiques des nœuds sont employées pour diviser la topologie complète en
zones de taille fixes (secteur géographique fixe). Les zones sont créées tels que deux
nœuds quelconques dans deux zones adjacentes quelconques peuvent communiquer.
La taille de la zone est ainsi dictée par la portée radio des nœuds qui est supposée être
fixe. Seulement un nœud dans chaque zone doit être éveillé et peut être le
coordonnateur. Ainsi, en exploitant la connaissance des positions géographiques, GAF
simplifie la procédure de sélection de coordonnateur.
SPAN [25] est un algorithme distribué et aléatoire pour le choix des coordonnateurs.
Chaque nœud prend la décision d'être un coordonnateur ou pas. La transition entre les
deux états est faite à base de probabilités. L'équité est assurée en faisant du nœud à la
quantité d’énergie la plus importante, le plus probable d’être un coordonnateur. L’autre
critère employé dans le choix des coordonnateurs est la valeur qu’un nœud ajoute à la
connectivité globale du réseau. Un nœud reliant plus de nœuds aura plus de chances
d’être choisit comme coordonnateur. La notion d’aléatoire est employée pour éviter des
coordonnateurs multiples simultanés. Pour l'efficacité, ces émissions sont portées
(piggy-backed) sur les messages de contrôle du protocole de routage.
69
raison, beaucoup d'efforts de la recherche ont été consacrés à développer des
protocoles de routage orienté énergie.
Avant de présenter les protocoles qui appartiennent à cette approche, nous présentons
d’abord les métriques qui ont été utilisées pour déterminer le chemin de routage orienté
économie d’énergie au lieu du plus court chemin.
La première métrique est utile pour prévoir le chemin à travers lequel la consommation
d'énergie totale pour délivrer un paquet est minimisée. Ici, chaque liaison sans fil est
annotée avec le coût de la liaison en termes d’énergie de la transmission sur la liaison
et le chemin de la min-puissance est celui qui minimise la somme des coûts de la
liaison le long du chemin. C'est-à-dire si on suppose qu’un paquet j travers les nœuds
n1, . . ,nk où le n1 est la source et nk la destination. Soit T(a,b) dénote l'énergie
consommée dans la transmission (et la réception) d’un paquet sur un seul saut de a à
b. Alors l'énergie à consommer par le paquet j est :
k −1
ej = ∑ T (n , n
i =1
i i +1 )
70
Donc, l'objectif de cette métrique est de :
Cependant, depuis que la durée de vie future du réseau est pratiquement difficile à
estimer, les trois métriques suivantes ont été proposées afin d’accomplir l'objectif
indirectement. La Variance d'énergies de la batterie résiduelles des nœuds mobiles est
une indication simple de balance énergétique et peut être utilisée pour étendre la vie du
réseau. La métrique de coût-par-paquet est semblable à la métrique
d'énergie-par-paquet mais elle inclue la vie de la batterie résidu de chaque nœud en
plus de l'énergie de la transmission. Le protocole de routage orienté énergie
correspondant préfère la liaison sans fil qui exige une énergie de la transmission basse,
mais en même temps évite le nœud avec faible énergie résiduelle dont le coût du
nœud est élevé. Avec la dernière métrique, chaque chemin candidat est annoté avec le
coût maximum du nœud parmi les nœuds intermédiaires et le chemin avec le coût
minimum, chemin du min-maximum, est sélectionné. Cela est dénommé aussi dans
quelques protocoles comme chemin du maximum-min parce qu'il utilise la vie de la
batterie résiduelle des nœuds plutôt que leur coût du nœud.
71
proportionnellement avec le nombre de sauts. Donc nous pouvons distinguer trois
familles de protocoles de routage orientés économie d’énergie:
Dans [33], Les auteurs proposent de transmettre les messages en leur affectant
l’énergie minimale nécessaire pour atteindre la destination. Ensuite, la route choisie est
celle qui consomme le moins d’énergie pour arriver à destination. Cette solution est
basée sur des protocoles existants tels que DSR ou AODV. La puissance minimale
pour accéder au prochain saut de transmission est fournie par la couche MAC. La route
sélectionnée est ensuite incluse dans le paquet de demande de route avec
l’identification du nœud et est rediffusée sur un saut jusqu’à ce que le message
atteigne le destinataire. Le destinataire inverse alors l’ordre de la route incluse dans
l’en-tête de la requête de localisation, puis incorpore avec les valeurs les puissances
d’émission relatives, dans le message renvoyé à la source. Ainsi, la source obtient la
puissance d’émission nécessaire pour chaque saut à partir de la réponse, et calcule le
coût énergétique pour ladite route. Un autre protocole de routage est proposé dans
[13], ce protocole calcule l’énergie additionnelle dissipée par un flux à acheminer sur
un chemin donné, prenant en considération le SINR et l'énergie perdu par les
interférences. Ensuite, il utilise l'algorithme de Dijkstra pour trouver le chemin qui
minimise cette énergie additionnelle. L'avantage de ce protocole est qu'il prend en
considération l'impact de la transmission du flux dans la région d'interférence.
Cependant, ce protocole est complexe et exige que tous les nœuds connaissent la
topologie globale du réseau. En plus, tels protocoles utilisent toujours les mêmes
nœuds (ce qui minimisent l'énergie consommé) sans aucune considération sur leur
énergie résiduelle, Par conséquent, ces nœuds épuisent leurs batteries plus
rapidement que les autres et donc la vie du réseau est minimisée.
Les auteurs de [34] proposent trois fonctions de coût pour des techniques de routage,
ils prennent en considération un modèle d’interférence à deux sauts pour la
conception des fonctions de coût, c.à.d. lorsqu’un nœud transmet, tous ses voisins à
un saut reçoivent le paquet, le décodent. Ses voisins à deux sauts consomment eux
aussi de l’énergie en recevant un signal non intelligible parce qu’ils sont actifs et en état
d’écoute. Les fonctions de coût vont utiliser différentes approches pour optimiser la
durée de vie du réseau. La première fonction de coût consiste à réduire l’énergie
nécessaire pour router un paquet entre une source et une destination. Cette fonction
Eθ1 prend en compte l’énergie nécessaire pour la transmission d’un paquet, ils
considèrent l’énergie consommée par les voisins à un et deux sauts de l’émetteur pour
recevoir ce paquet. Ce qui représente l’énergie totale consommée dans le réseau pour
72
une transmission. Eθ1est utilisée pour donner un poids aux liens entre un nœud et ses
voisins à un saut : le poids du lien (k; i) entre k et n’importe quel voisin à un saut est
égal à Eθ1du nœud k. Eθ1 (k; i) a la forme suivante :
E θ 1 (k, i) = E tx + ∑ E RX + ∑ EI
n1∈ N 1( k ) n 2∈ K 2 ( k )
Où
Ensuite, ils ont proposé une heuristique qui calcule le chemin optimal entre une source
et une destination. Cette heuristique applique un algorithme du plus court chemin sur le
graphe dont le poids des liens est calculé par l’utilisation de Eθ1. Cette technique
permet : (1) de minimiser la consommation d’énergie pour le routage d’une information
dans le réseau (2) et de trouver un chemin énergétiquement optimal. Par contre,
l’énergie restante des nœuds est la seule contrainte non prise en compte dans cette
fonction, ce qui augmente le risque qu’un nœud avec une énergie restante faible
participe dans un routage.
• les protocoles qui sélectionnent le chemin qui passe par les nœuds avec
la plus haute énergie résiduelle
77
Distributed energy-efficient ad hoc routing
78
Route-Request
73
79
Le protocole REAR proposé dans [36] garantie que chaque flux puisse avoir assez
d'énergie sur le chemin sélectionné: c’est-à-d les nœuds avec une basse énergie
résiduelle sont évités. Pour accomplir son objectif, le montant d'énergie demandé par
la transmission d’end-to-end du flux doit être réservé dans chaque nœud intermédiaire.
En plus, pour améliorer la précision, un deuxième chemin est calculé pour acheminer
le flux dans le cas de l’échec du premier chemin. Ce chemin est disjoint par rapport au
premier chemin et a assez d'énergie pour router le flux. Mais, il n'y a aucune
réservation de ressources d'énergie sur ce deuxième chemin. Ce protocole assure
l'énergie nécessaire pour acheminer un flux par les nœuds intermédiaires, mais il ne
prend pas en compte l’énergie dissipée par la réception des paquets et les
interférences. Cependant, le chemin sélectionné ne minimise pas l'énergie demandé
pour transmettre un paquet du flux de sa source à sa destination. Donc, la vie du
réseau ne peut être maximisée.
80
Le protocole de routage LEAR [37] est basé sur DSR [38] mais modifie la procédure
de la découverte de la route pour équilibrer la consommation d'énergie. Dans DSR,
quand un nœud reçoit un message route-requête, il attache son identité dans l'en-tête
du message et l'avance vers la destination. Donc, un nœud intermédiaire relaie
toujours des messages si la route correspondante est sélectionnée. Cependant, dans
LEAR, un nœud détermine si avancer le message du route-requête ou pas selon sa
puissance de batterie résiduelle (Er). Quand Er est plus important que sa valeur du
seuil (Thr), le nœud avance le message route-request; autrement, il écarte le message
et refuse de participer à relayer des paquets. LEAR est un algorithme distribué où
chaque nœud prend en compte seulement l'information locale tel qu'Er et Thr, pour sa
décision de routage.
Les auteurs de [13] ont proposé une deuxième fonction de coût qui prend en compte
l’énergie résiduelle des nœuds et qui assigne un poids pour un lien entre deux nœuds.
Cette fonction prend en compte le minimum de l’énergie résiduelle d’un nœud après
une transmission d’un paquet avec le minimum des énergies résiduelles des voisins à
un et deux sauts de l’émetteur.
79
Reliable Energy Aware Routing
80
Localized Energy-Aware Routing
74
• ETX, ERX et EI désignent respectivement l’énergie d’une transmission,
réception et overhearing.
L’utilisation de cette fonction de coût permet une sélection des nœuds avec une
énergie résiduelle importante pour participer dans le routage d’une information.
Pour calculer un chemin, cette fonction de coût utilisent un algorithme qui maximise le
minimum des poids des liens constituants la route et qui permet ainsi de choisir les nœuds avec
le plus d’énergie pour participer dans le routage.
Gupta et al. [39] classifient les nœuds en trois zones: normal, avertissement, danger,
qui correspondent respectivement à plus de 20 %, entre 10-20 % et moins de 10 %, de
l’énergie maximale. Ce protocole affecte un coût d’utilisation énergétique à chaque
zone. Par exemple, le coût correspondant au routage de l’information via un nœud se
trouvant dans la zone danger ou avertissement est plus important que celui
correspondant au routage de l’information via un nœud puissant en zone normale.
L’idée principale est d’acheminer les informations à travers des n.uds ayant de bonnes
capacités énergétiques restantes.
Le protocole CMMBCR [25] utilise le concept d'un seuil pour maximiser la vie de
chaque nœud et utiliser la batterie équitablement. Si tous les nœuds dans quelques
routes possibles entre une paire source-destination ayant l’énergie de la batterie
restante plus grande que le seuil, la route du min-puissance parmi ces routes est
sélectionnée. Si toutes les routes possibles ont des nœuds avec capacité de la batterie
inférieure au seuil, le chemin maximum-min est sélectionné. Cependant, la valeur du
seuil est fixée, cela donne une conception plus simple. Les concepteurs de ce
protocole ont proposé une métrique de performance intéressante pour mesurer la
75
balance d'énergie: la séquence de l'expiration, définie comme la séquence de temps
quand les nœuds mobiles épuisent leur capacité de la batterie. Les métriques
traditionnelles pour estimer l'énergie sont la variation de la puissance de la batterie
restante, la capacité moyenne de la batterie restante et la vie du réseau à mesurer par
rapport à l’instant où tout nœud épuise sa capacité de la batterie pour la première fois.
Depuis que ces métriques fournissent des informations limitées sur la balance de
l'énergie, la séquence de l'expiration donne des informations plus exactes sur la
manière de consacrer équitablement l'énergie.
81
Le protocole OMM [41] maximise la vie du réseau sans la connaissance du taux de
génération des données en avance. Il optimise deux métriques différentes des nœuds
dans le réseau: minimiser la consommation de la puissance (min-puissance) et
maximiser la puissance résiduelle minimale (max-min). La seconde métrique est utile
dans la prévention d’événements des nœuds surchargés.
Dans cet exemple, chaque chemin contient seulement un nœud intermédiaire et donc
leurs énergies résiduelles (nœuds A, B, et C) sont comparées. Le nœud C a une
énergie résiduelle de 30 mais il diminuera à 9 si ce chemin est utilisé pour transférer les
paquets de S à D. de même façon, les nœuds A et B aura l'énergie résiduelle de 13 et
2, respectivement, comme montré dans la figure 4.8(b). Donc, le chemin max-min
parmi les trois chemins min-pouvoir est S→A→D.
81
Online Max-Min Routing
76
Coût du lien
(L’énergie de transmission) Coût du nœud Coût du nœud
S (L’énergie résiduelle) S (L’énergie résiduelle
10 après la transmission)
10 10
(25) (13)
(30) (9)
C B A C (2) B A
8 12
21
D D
Dans la figure 4.9.a, dans le réseau donné, il y a trois nœuds {a, b, c}, le nœud a est la
source. La valeur auprès d'un nœud représente l'énergie résiduelle de la batterie de ce
nœud. Nous inscrivons aussi (pvu, tvu) à côté de chaque arc (v, u), où la valeur pvu
représente la puissance exigée pour la transmission du données du nœud v au nœud u,
et la valeur tvu représente le temps maximum que l'arc (v,u) pourrait écouler avant
l'épuisement de la batterie dans le nœud v. Notez que le produit de pvu et tvu sur chaque
arc (v,u) est égal à l'énergie résiduelle de la batterie ev du nœud v. L'objectif est de
construire un arbre de diffusion basé sur ces deux métriques. L’arbre de diffusion de la
puissance minimale est donné dans Figure 4.9.b avec l'arbre de la puissance total max
{pab,pac } = pac = 4 et de la vie de l'arbre min{tab, tac} = tac = 3, et l’arbre de diffusion de la
vie maximum est donné dans Figure2.9.c avec l'arbre de puissance totale tab + tbc = 2 +
4 = 6 et de la vie de l'arbre min { tab , tbc} = tbc = 4.
77
a 12 b 12
c 12
(2, 8)
a a a
(4, 3) (4, 3)
(2, 6) (2, 6) (2, 6)
16 (4, 2) 16 16
b (4, 4) b b (4, 4)
(4, 2)
c c c
8 8 8
Figure 4.9 : Exemples d'arbre de la puissance minimale et arbre de la vie maximale. (a) Une
topologie du réseau; (b) l'arbre de la puissance minimale; (c) l'arbre de la vie maximale.
Nous avons observé qu'il y a un tradeoff entre ces deux métriques de l'optimisation
orienté énergie. Quand tous les nœuds ont beaucoup d'énergie, le chemin avec le total
d'énergie consommée qui soit considéré comme minimum est le meilleur. De l'autre
côté, le chemin avec la vie maximale est meilleur aussi, en incorporant l’énergie de la
batterie résiduelle basé sur l'observation des arbres du multicast/broadcast qui devrait
éviter des nœuds avec une petite énergie résiduelle.
78
Dans [45], les auteurs proposent MMRE-AOMDV un protocole de routage
82
multi-chemin basé sur AOMDV et exploitant la Maximale Minimale Énergie
Résiduelle des nœuds. Ce protocole a été conçu à l'origine pour les nœuds a
batterie-limité et les réseaux ad hoc très dynamiques où l’échec du lien et les routes
brisées arrivent fréquemment. Dans ce protocole une nouvelle découverte de chemins
est nécessaire seulement si tous les chemins vers la destination ne sont plus valables.
L'idée principale dans MMRE-AOMDV est d’équilibrer la consommation d'énergie
nécessaire, de prévenir les nœuds critiques qui épuisent leurs énergies et de les faire
sortir du réseau en cas de besoin. En réalité, si un ou plusieurs nœuds critiques
épuisent leurs énergies, le réseau sera découpé finalement, et il peut y avoir la
disponibilité de plusieurs nœuds avec énergie importante, qui ne peuvent plus
communiquer. Le protocole MMRE-AOMDV utilise les informations de routage
disponibles dans le protocole AOMDV. Donc une petite modification additionnelle est
exigée pour le calcul de la maximale minimale énergie résiduelle nécessaire sur un
chemin. Le protocole MMRE-AOMDV a deux composants principaux :
4.5 Conclusion
Dans ce chapitre, nous avons dressé un état de l’art sur les principales approches
proposées pour résoudre le problème d’économie d’énergie dans les réseaux mobiles
ad hoc.
82
Ad Hoc On-Demand Multipath Routing Protocol
79
OLSR-PAA : AMÉLIORATIONS DES
PERFORMANCES D’OLSR AVEC PAA
5. OLSR-PAA
5.1 Introduction
En se basant sur les classes d’économie d’énergie présentées dans la section
précédente, on remarque qu’il ya une interaction entre ces différentes classes. D’un
coté, le problème majeur d’un protocole de routage est d’assurer un routage unicast.
La solution la plus évidente est de router vers la destination en utilisant le minimum de
sauts possibles. Cela a été le choix par défaut dans les réseaux filaires et récemment
dans les MANET. Cette approche est intéressante dans la mesure où elle est bien
étudiée et minimise les délais. Mais, la principale préoccupation des MANET est
l’utilisation de l’énergie. Dans ce contexte, la politique de minimiser le nombre de
nœuds participants au routage n’est pas toujours la plus adéquate à une meilleure
utilisation de l’énergie. Nous avons vu dans la section précédente que beaucoup de
propositions ont été faites dans la littérature à savoir la conception des protocoles de
routage qui prennent en compte l’aspect ʺénergieʺ et qui visent une consommation
minimale de cette dernière lors de leur fonctionnement [13][28] [44]. La majorité de ces
solutions vise à utiliser, dans le routage, des nœuds avec une quantité assez suffisante
d’énergie et éviter au maximum les nœuds à faible énergie. Le principe de cette
stratégie est d’éviter une courte vie des nœuds (et donc celle du réseau), ainsi éviter
les ruptures de routes et une utilisation non équitable de l’énergie. De l’autre coté,
beaucoup des améliorations de protocoles MAC (IEEE 802.11 PSM) proposés
dernièrement dans le cadre de l’économie d’énergie optent pour la méthode de mise
en veille des nœuds lorsqu’ils ne sont pas actifs (pas de réception et pas d’émission).
Un nœud non actif peut être mis en veille même s’il dispose d’une grande quantité
d’énergie. Mais du fait de cette grande quantité, le nœud sera plus probable d’être
sélectionné par le protocole de routage afin de participer au routage et dire que ce
nœud et en phase d’économie d’énergie (mode veille). Ce problème s’accentue si le
80
nœud passé en mode veille a créé une rupture de connectivité du réseau, alors cela
perturbera tout le réseau et conduira à retarder la procédure de découverte de
nouvelles routes et regagner la connectivité du réseau (si il y a d’autres nœuds plus
adéquats pour participer dans le routage, sinon, attendre le réveil du ou des nœuds qui
sont en mode veille). Tous ces processus encombreront le réseau avec le trafic
manipulé(les messages de contrôle et les overheads).
Nous proposons, dans la section qui suit, une amélioration pour les interactions entre
un des protocoles de conservation d’énergie de la couche MAC et le protocole de
routage pour une meilleure prise en compte des problèmes cités précédemment. On
doit faire une interaction entre le protocole de routage OLSR et le mécanisme
83
PAA [47].
PAA permettra de réduire le nombre de nœuds actifs dans le réseau à un instant donné
afin d'augmenter la charge utile du réseau et d'épargner de l'énergie. Cet objectif
permettra de :
83
Power-Aware Alternation
81
diffusion, routage, maintenance de routes . . .). Rendre inactif un nœud
pendant certaines périodes permettra d'allonger sa durée de vie.
Le principe de notre approche consiste que les nœuds choisissent des nœuds parmi
leurs MPRs qui seront élus comme supporteurs et avec qui ils vont alterner des
périodes d'activité et des périodes d'inactivité, si leurs besoins le rendent possible.
Durant les périodes d'inactivité d'un nœud, son ou ses supporteurs récupèrent et
stockent les messages en sa destination. L'alternance des périodes d'activité et
d'inactivité s'effectue d'une manière prédéfinie. Les instants de changements d'états
sont fixes, un nœud peut réaliser une alternance complète des états. Nous définissons
trois états pour un nœud :
État d’activité : le nœud transmet et reçoit des paquets à n’importe quel instant,
État d’inactivité : le nœud éteint sa carte d’interface ou bien est en mode d’économie
d’énergie,
État pré-inactif : lorsqu’un nœud décide d’entrer en état d’inactivité, il arrête d’envoyer
ses messages de contrôle périodiques, c.-à-d. messages Hello et TC.
Pour cela nous définissons également une Inter période : période séparant deux
changements d'états durant laquelle tous les nœuds du réseau doivent être actifs et
s'échangent les messages sauvegardés.
82
5.2.1 Phase d'établissement ou négociation pour l'obtention d'un
supporteur
En réalité, un nœud décidera d’entrer en mode inactive si son niveau de batterie
devient bas. Dans notre mécanisme, avant que le nœud entré dans l’état inactif, il
devient en état pré-inactif et il doit assurer que le changement d’état ne provoquera pas
une rupture de connectivité dans le réseau.
Après la définition des MPRs de chaque nœud, le nœud pré-inactif doit définir
l’ensemble de supporteurs. Le mécanisme PAA nécessite une phase d'établissement
durant laquelle les nœuds du réseau voulant activer PAA s'organisent en un réseau
virtuel de supporteurs. Initialement, chaque nœud doit exécuter un algorithme qui lui
permettra d'obtenir un supporteur. La relation de support est une relation binaire et
réciproque. A un instant donné, un nœud peut avoir plusieurs supporteurs qui l'ont au
préalable sollicité à leurs tours. Partons d'un exemple pour expliquer l'algorithme
d'obtention d'un supporteur. Considérons un réseau composé de 6 nœuds dont les
relations de voisinage sont représentées par des flèches dans la figure 5-1[47].
N
J
M L
83
• Si le nœud n'a aucun supporteur et il veut entrer dans cette coopération, alors il
accepte directement et devient candidat,
L'organigramme de la figure 5.2 [47] résume le fonctionnement d'un nœud lançant une
requête d'obtention d'un supporteur. Il montre l'utilisation de plusieurs temporisateurs
dont les divers rôles.
84
Activer PAA
Non
Nombre de supporteurs
=0 et Energie >SE
Oui
Envoyer une requête
Non
Oui
T1 expiré et non Déclencher un timer T3
réception d’acceptation
Non
T3 expiré et non
réception d’une
Déclencher T et collecter des confirmation
acceptations
Non
Non
Non
85
5.2.3 Fonctionnement en mode synchrone forcé
Soit le réseau illustré par la figure 5-3. Les relations mutuelles de support sont illustrées
par les flèches bidirectionnelles.
A chaque instant, les nœuds supporteurs ont donc des états opposés (actif/inactif) sauf
durant les périodes D.
1 2
Ceci présente donc l'avantage de ce mode qui ne requièr pas de trafic de contrôle
supplémentaire tout au long du fonctionnement de l'alternance. Durant la période D,
tous les nœuds du réseau doivent être actifs. Durant cette période, les nœuds peuvent
échanger un trafic normal ainsi que les messages tamponnés. Le délai D est choisi tel
qu'il permet aux nœuds qui sortent de la phase d'inactivité de récupérer leurs
messages à partir de leurs nœuds supporteurs. Il doit être suffisant pour tenir compte
des conditions du réseau et du temps nécessaire pour transmettre les messages
stockés.
86
{ ….. }
Finsi
Si (le nœud pré-inactif est considéré comme le dernier saut au destinataire) alors
Finsi
seuil_énergie = valeur ; {la valeur est donnée en fonction de plusieurs paramètres tel le type
d’application,…}
Si ((l’énergie de ce nœud > seuil_énergie) et (son adresse est sélectionner dans le message)) alors
Finsi
Fin si
{……}
87
Où Etx, Erx, et Eo dénotent le montant d'énergie a dépensé pour transmettre le paquet de
nœud na, pour recevoir le paquet au nœud nb et pour entendre le paquet,
respectivement. N représente le nombre moyen des nœuds voisins affecté par une
transmission de nœud na. L’équation implique que quand le réseau est plus dense,
l’entendre des paquets causent plus de consommation d'énergie.
NS-2 est un logiciel de simulation de tout type de réseaux informatique développé dans
le cadre du projet VINT au Laboratoire National de Lawrence Berkeley [48], sous lequel
la version 2.33 est sortie. Les premières versions de ce simulateur ne supportaient que
les architectures des réseaux filaires. Cependant avec l’avènement de la technologie
sans fil, d’autres versions ont été développées et étendues pour supporter les réseaux
sans fil et plus particulièrement les réseaux MANETs.
Avant de réaliser nos simulations nous avons testé, à travers des exemples, les
différents modules de NS-2. En examinant les résultats obtenus, nous avons pu mettre
en évidence quelques bugs au niveau de la couche MAC, et au niveau de la couche
physique. Les correctifs nécessaires ont été apportés.
Par défaut le protocole OLSR n’est pas inclus dans NS-2, en tout cas pas dans les
versions stables disponibles (jusqu’à la version 2.33 qu’on va adopter). Pour l’installer,
il fallait apporter des modifications sur certains fichiers du simulateur, pour pouvoir
88
intégrer les librairies et classes OLSR. Rappelons qu’on a adopté UM-OLSR [49],
l’implémentation de l’université de Muricia, la plus stable, et la mieux commentée.
Une autre étude de simulation est réalisée, en faisant varier cette fois-ci le nombre de
nœuds entre 0 et 50 afin de consulter la charge du réseau en termes de messages de
négociation, permettant de sélectionner les supporteurs dans notre Approche.
Nous considérons dans cette section un réseau ad-hoc constitué d’un nombre fixe de
nœuds, une topologie peu dense constituée de 10 nœuds dans une région de 870m x
870m. La variation du nombre des nœuds, permet de comparer les performances de
notre protocole avec celle d’OLSR classique.
Région 870*870
nombre de sources 3
89
1 Energie Totale du Réseau
On va s’intéresser à travers cette série de simulations à comparer les performances de
notre extension avec les performances d’OLSR classique, en termes de
consommation d’énergie.
Sur ce graphe l’énergie totale du réseau avant amélioration décroît plus vite que celle
du réseau après amélioration sur l’intervalle [0,500] sec. Puis sur l’intervalle [500,1000]
sec, nous remarquons une stabilisation du niveau de l’énergie totale du réseau avant
amélioration, cela est dû à la perte de connexité du réseau. En effet à t = 500 le nombre
de nœud vivant du réseau avant amélioration est de 4, et ces 4 nœuds ne
communiquent pas probablement à cause de l’éloignement. Sur le même intervalle,
l’énergie du réseau après amélioration continue de décroître, preuve que les nœuds
continuent de communiquer. Nous concluons à partir de l’évolution de l’énergie sur
l’intervalle 50,600] que notre amélioration a réalisé une économie de 11% sur l’énergie
totale du réseau.
90
2 Durée de Vie du Réseau
Par contre pour le réseau après amélioration le nombre de nœuds vivants reste
constant jusqu’à t = 750 sec, où il commence à décroître rapidement. Grâce à l’emploi
d’un seuil d’énergie par notre solution, le protocole de routage OLSR favorise les
nœuds disposant d’une plus grande énergie résiduelle et procède à l’utilisation
équitable de cette dernière. A partir de ce graphe, on constate que notre approche a
réalisé une augmentation de 20% de la durée de vie moyenne d’un nœud, et par
conséquent a augmenté aussi la durée de vie de tout le réseau.
3 Charge du réseau
Dans cet étude, on va modifier le nombre de nœuds entre 0 et 50 afin de consulter la
charge du réseau en terme de messages de négociation.
91
Figure 5-6 : pourcentage de message de négociation générée en fonction du nombre de nœuds
5.3.3 Conclusion
Dans ce chapitre, nous avons implémenté, notre solution sous NS-2. Plusieurs
simulations ont été lancées, sous des scénarios divers et multiples. L’objectif est de
valider les améliorations apportées par notre solution par rapport à OLSR classique.
Les résultats obtenus sont très concluants et satisfaisants, avec des taux de perte de
données réduits, une économie de l’énergie importante allant jusqu'à 11% et une
augmentation de la durée de vie moyenne d’un nœud mobile allant jusqu'à 20%.
92
CONCLUSION GÉNÉRALE
6 Conclusion Générale
Dans cette approche de recherche, nous avons présenté, en premier lieu, les solutions
existantes pour la conservation d'énergie dans les réseaux ad hoc en mettant l'accent
sur les approches au niveau routage et les améliorations touchant le mécanisme PSM
de la couche MAC de la norme IEEE 802.11.
Nous avons proposé une amélioration du protocole OLSR dont le but est de satisfaire
les besoins des réseaux ad hoc, dans le contexte d’économie d’énergie. L’idée est
basée sur une adaptation du protocole OLSR avec l’une des approches d’amélioration
du mécanisme PSM. On a alors combiné le mécanisme PAA avec le protocole de
routage OLSR.
Le mécanisme PAA se base sur la suppression de toute activité réseau d'un nœud
pendant certaines périodes afin de conserver son énergie. Durant son inactivité, les
messages en sa destination seront récupérés par un ou plusieurs nœuds appelés
supporteurs. Ces supporteurs sont sélectionnés à partir de l’ensemble des MPRs du
protocole OLSR, en prenant en considération la contrainte de leurs niveaux d’énergie.
Donc, avec cette adaptation, les nœuds ayant une énergie faible sont évités dans le
routage afin de maintenir un bon niveau d’énergie pour tous les nœuds mobiles. Nous
avons démontré par différents scénarios de simulation que la solution proposée est
efficace et apporte une nette amélioration sur les plans que nous venons de citer.
93
RÉFÉRENCES
7 Références
[1] Rabih MOAWAD « QoS dans les WPAN, WLAN et WMAN ». Thèse. Université
LIBANAISE des réseaux et télécommunications. Décembre 2004.
[3] Mohamed BRAHMA « Étude de la QoS dans les Réseaux Ad hoc: Intégration du
Concept de l’Ingénierie du Trafic ». Thèse de doctorat .Université de haute alsace UFR des
sciences et techniques. 13 décembre 2006.
[6] Rabah MERAIHI, « Gestion de la qualité de service et contrôle de topologie dans les
réseaux ad hoc ». Thèse de doctorat, De l’Ecole Nationale Supérieure des
Télécommunications 2004.
[7] S. Agarwal, S.V. Krishnamurthy, R.H. Katz, and S.K. Dao, “Distributed Power Control in
Ad Hoc Wireless Networks”, IEEE International Symposium on Personal, Indoor and Mobile
Radio Communications (PIMRC), 2001.
94
[10] S Narayanaswamy, V Kawadia, R. S. Sreenivas et P. R. Kumar “Power control in
Ad-hoc Networks: Theory, Architecture, Algorithm and Implementation of the COMPOW
Protocol”, European Wireless Conference, 2002.
[11] Marwan Krunz, Alaa Muqattash, and Sung-Ju Lee. “Transmission Power Control in
Wireless Ad Hoc Networks: Challenges, Solutions, and Open Issues”, Université
d'Arizona, mobile and Media Systems Lab Hewlett-Packard Laboratories Palo Alto, CA
94303, 2004.
[12] Gupta P. et Kumar P. R., “The capacity of wireless networks”, Actes des transactions
IEEE sur l’informatique théorique, 2000, p.388-404.
[13] Yumei Liu, Lili Guo,Huizhu Ma,Tao Jiang, “Energy Efficient on–demand Multipath
Routing Protocol for Multi-hop Ad Hoc Networks”. IEEE Xplore. Downloaded on October
2008, 978-1-4244-2204.
[14] Burkhart M., von Rickenbach P.,Wattenhofer R. et Zollinger A., “Does topology control
reduce interference?”, Actes du 5me symposium international ACM sur les réseaux mobiles
ad hoc, Tokyo, Japan, 2004, p. 9-19.
[16] Meguerdichian S., Koushanfar F., Potkonjak M. et Srivastava M. B., “Coverage problems
in wireless ad hoc sensor networks”, Actes de la seconde conférence international ACM sur
les réseaux sans fil et de sensors et leurs applications, San Diego, USA, 2003, p. 115-121.
[18] R. Wattenhofer, L. Li, P. Bahl, and Y. M. Wang, “Distributed Topology Control for
Power Efficient Operation in Multihop Wireless Ad Hoc Networks” IEEE INFOCOM, 2001,
p. 1388–1397.
[22] Gomez, J., Campbell, A. T., Naghshineh, M., and Bisdikian, C. “Conserving
transmission power in wireless ad hoc networks”. In ICNP'01. 2001.
95
[23] S. L.Wu, Y. C. Tseng, and J. P. Sheu, “Intelligent Medium Access for Mobile Ad Hoc
Networks with Busy Tones and Power Control” IEEE Journal on Selected Areas in
Communications, Sep 2000, vol. 18, p. 1647–1657.
[24] E.-S. Jung and N.H. Vaidya. “A power control MAC protocol for ad hoc networks”. In
MOBICOM, 2002, p. 36–47.
[25] Toh C-K. “Maximum battery life routing to support ubiquitous mobile computing in
wireless ad hoc networks”. IEEE Communications 2001; 39(6): 138–147.
[26] K.M. Sivalingam, J.C. Chen, P. Agrawal, et al. “Design and analysis of low-power
access protocols for wireless and mobile ATM networks”. Wireless Networks, 6(1), 2000.
[27] Changsu Suh, Young-Bae Ko and Jai-Hoon Kim, "Enhanced Power Saving for IEEE
802.11 WLAN with Dynamic Slot Allocation," LNCS, 2005, Vol. 3794, p. 466-477.
[28] A. Belghith et W. Akkari, "Traffic Aware Power conservation mechanism for ad hoc
networks", soumis au International Journal of Computing and Information Sciences (IJCIS),
Canada, 2006.
[29] S. Singh, M. Woo and C.S. Raghavendra, “Power-Aware Routing in Mobile Ad hoc
Networks”, Proc. of Mobile Computing and Networking (Mobicom), 1998, p. 181-190.
[30] Rabaey J. M., Ammer M. J., da Silva Jr. J. L., Patel D., and Roundy S., " PicoRadio
Supports for Ad Hoc Ultra-Low Power Wireless Networking ", Actes de la conférence
IEEE Computer, Juillet 2000.
[31] Van Dam T. et Langendoen K., "An Adaptive Energy-Efficient MAC Protocol for
Wireless Sensor Networks ", Actes de la conférence ACM SenSys 2003, Novembre 2003.
[32] V. Kawadia and P. R. Kumar, “Power control and clustering in ad hoc networks”, in
Proceedings of IEEE INFOCOM, 2003.
[33] S. Doshi, S. Bhandare, et T.X. Brown. “An on-demand minimum energy routing
protocol for a wireless ad hoc network”. In Proc. of ACM SIGMOBILE, 2002.
[35] Hong-ryeol Gil, Joon Yoo, and Jong-won Lee. “An On-demand Energy-efficient Routing
Algorithm for Wireless Ad hoc Networks”, 2003.
[36] H. Hassanein, Jing Luo, “Reliable Energy Aware Routing In Wireless Sensor
networks”, IEEE Workshop DSSNS, April 2006.
[37] V. Rodoplu and T.H.Meng. “Minimum energy mobile wireless networks”. IEEE J.
Select. Areas Commun, Aug 1999, vol. 17, no. 8, pp. 1333–1344.
96
[38] Pei G, Gerla M, Chen T-W. “Fisheye state routing: a routing scheme for ad hoc
wireless networks”. Proceedings of IEEE International Conference on Communications (ICC)
2000; p. 70–74.
[39] N. Gupta, S.R. Das. “energy-aware on-demand routing for mobile ad hoc networks”.
In Proc. of IEEE IWDC, 2002.
[40] C. K. Toh. “Maximum Battery Life Routing to Support Ubiquitous Mobile Computing
in Wireless Ad Hoc Networks”. IEEE Communications Magazine, June 2001.
[42] J.H. Chang, L. Tassiulas, “Energy conserving routing in wireless ad hoc networks”, in:
IEEE INFOCOM, New York, USA, 2000, p. 22– 31.
[43] Song Guo, Oliver Yang, “Multicast lifetime maximization for energy constrained
wireless ad-hoc networks with directional antennas”, in: IEEE Globecom, Dallas, USA,
December 2004, p. 4120–4124.
[44] R.C. Shah, J.M. Rabaey, “Energy Aware Routing for Low Energy Ad Hoc Sensor
Networks”, IEEE WCNC, March 2002, Vol 1, p. 17-21.
[45] A. Srinivas. E. Modiano, “Minimum Energy Disjoint Path Routing in Wireless Ad-Hoc
Networks”, MOBICOM’2003 September 2003.
[46] Woo K, Yu C, Youn HY, Lee B. “Non-blocking, localized routing algorithm for
balanced energy consumption in mobile ad hoc networks”. Proceedings of Int Symposium
on Modeling, Analysis and Simulation of Computer and Telecommunication Systems
MASCOTS 2001; p. 117–124.
97
ANNEXES
protected:
double energy_;
;
98
Dans la définition de la classe EnergyModel au-dessus, il y a une seule variable
classe « energy_ » qui représente le niveau d'énergie dans le nœud à tout moment
donné. Le constructeur EnergyModel(energy) exige que l'énergie-initial soit
passée le long de comme un paramètre. Les autres méthodes de la classe sont
utilisées pour diminuer le niveau d'énergie du nœud pour chaque paquet transmis
« DecrTxEnergy (txtime, P_tx) » et chaque paquet reçu « DecrRcvEnergy
(rcvtime, P_rcv) » par ce nœud. P_tx et P_rcv sont la puissance de la
transmission et de la réception (respectivement) exigé par l'interface du nœud ou la
couche physique PHY.
D
ans notre scénario de simulation, Les valeurs des paramètres de la configuration
précités du modèle d'énergie sont données dans la table suivante:
99
100