0% ont trouvé ce document utile (0 vote)
107 vues118 pages

Mmoire Ngalle Mpackobon

Transféré par

Daryn Freeze Nyangono
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats DOCX, PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
107 vues118 pages

Mmoire Ngalle Mpackobon

Transféré par

Daryn Freeze Nyangono
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats DOCX, PDF, TXT ou lisez en ligne sur Scribd

See discussions, stats, and author profiles for this publication at: [Link]

net/publication/375090792

ANALYSE ET REDUCTION DE LA LATENCE DES PAQUETS DE DONNEES DES


RESEAUX MOBILES DE 3e ET DE 4e GENERATION : CONTRIBUTION A
L’OPTIMISATION DU RESEAU DE MTN CAMEROUN

Research · December 2019


DOI: 10.13140/RG.2.2.10639.36008

CITATIONS
READS
0
28

2 authors:

Aristide Aurelien Ngalle Mpacko


Malong Yannick
University of Douala
NATIONAL HIGHER POLYTECHNIC SCHOOL OF DOUALA
5 PUBLICATIONS 2 CITATIONS
6 PUBLICATIONS 2 CITATIONS

SEE PROFILE SEE PROFILE

All content following this page was uploaded by Aristide Aurelien Ngalle Mpacko on 31 October 2023.

The user has requested enhancement of the downloaded file.


REPUBLIQUE DU CAMEROUN
REPUBLIC OF CAMEROON
UNIVERSITE DE DOUALA
UNIVERSITY OF DOUALA
******** *******
FACULTE DE GENIE INDUSTRIEL FACULTY OF INDUSTRIAL ENGINEERING
[Link] [Link]

Département de Télécommunications et Technologies de


l’Information et de la Communication (TTIC)

OPTION : Réseaux et Télécommunications

Mémoire de fin d’études rédigé et soutenu publiquement en


vue de l’obtention du diplôme d’Ingénieur en Génie Industriel

ANALYSE ET REDUCTION DE LA LATENCE DES


PAQUETS DE DONNEES DES RESEAUX
MOBILES DE 3E ET DE 4E GENERATION :
CONTRIBUTION A L’OPTIMISATION DU
RESEAU DE MTN CAMEROUN
Par :

NGALLE MPACKO Aristide Aurélien 14G00172

Sous l’encadrement
Académique de : Professionnel de :
Dr. MALONG Yannick M. Westly MANIOR
Ingénieur en Télécommunications Ingénieur en Télécommunications
Enseignant à la FGI MTN Cameroun

M. MOUSSANG Gaëtan Arnaud


Ingénieur en Télécommunications
Enseignant à la FGI

Année académique 2018-2019


FACULTE DE GENIE INDUSTRIEL FGI

DEPARTEMENT DE TELECOMMUNICATIONS ET TECHNOLOGIES DE


L’INFORMATION ET DE LA COMMUNICATION

Ce mémoire intitulé :
« ANALYSE ET REDUCTION DE LA LATENCE DES PAQUETS DE DONNEES DES
RESEAUX MOBILES DE 3e ET DE 4e GENERATION : CONTRIBUTION A
L’OPTIMISATION DU RESEAU DE MTN CAMEROUN »

Rédigé et soutenu publiquement par :

NGALLE MPACKO Aristide Aurélien

Le : Samedi 21 Décembre 2019

Devant un Jury constitué de :


 Président : Dr MEZOUE Cyril
 Rapporteur : Dr MALONG Yannick
 Examinateur : Dr EKE Samuel
 Membre : M. MATANGA Jacques

Année académique 2018-2019


Dédicace

A ma famille

i
Remerciements
Ce mémoire est le fruit d'un stage effectué en entreprise et des connaissances que nous
avons acquises durant nos études. En ce sens que son élaboration n'est pas un effort
strictement personnel. Nous tenons, très sincèrement, à remercier des personnes sans
lesquelles ce travail n’aurait sans doute pas eu le même aboutissement. Nous remercions
particulièrement :

- Pr Adolphe MOUKENGUE IMANO Doyen de la Faculté de Génie Industriel, pour


la nouvelle dynamique impulsé à la faculté ;
- Pr Robert NZENGWA ancien Doyen de la Faculté de Génie Industriel, pour la
formation de qualité institué à la faculté ;
- Dr Jean NDOUMBE Chef de département de la filière TTIC, pour ses conseils et son
accompagnement durant le cursus académique ;
- Dr. Yannick MALONG enseignant à la faculté de Génie Industriel pour son
encadrement académique, sa disponibilité et ses orientations ;
- M. Gaëtan MOUSSANG de Huawei Cameroun pour son encadrement et son
orientation dans le choix du thème de mémoire ;
- M. Westly MANIOR de MTN Cameroun pour son encadrement de haute qualité
- Les enseignants de la Faculté de Génie Industriel ;
- Toute l’équipe du Management Service and Assurance de Huawei Cameroun,
- Toute l’équipe du département technique de MTN Cameroun ;
- Mme EBOLLE DIMOUAMOUA épouse ETOKO Chef de service chargé des
affaires générales à la Faculté de Génie Industriel, pour son accompagnement tout au
long de mon cursus académique ;
- Au Révérend EL OBEL pour ses multiples enseignements et conseils bénissants.

ii
Avant-Propos
Le besoin criard en ingénieurs auquel le Cameroun fait face a poussé les intellectuels à
penser à un moyen palliatif de résolution de ce problème. Ainsi ces derniers, tenant compte
de l'optique de l'émergence du Cameroun dans les horizons proches, ont pensé à la formation
des ressources humaines qualifiées à cet effet. De cette idée de formation, est née par ricochet
la Faculté de Génie Industriel (FGI) de l'Université de Douala.

La Faculté de Génie Industriel (FGI) de l’Université de Douala est opérationnelle


depuis décembre 2006 à la suite de l’arrêté ministériel N°06/0130/MINESUP/DDES du 18
octobre 2006 portant ouverture de la Faculté de Génie Industriel à l’Université de Douala et
du décret n°93/030 du 19 janvier, 1993 portant organisation administrative et académique de
l'Université de Douala. Cette dernière a pour but de former des ressources compétitives sur le
marché aussi bien national qu'international avec les capacités managériales qui leur sont
inculquées. Les produits finis sortis de cette faculté ont en plus des compétences managériales
des compétences techniques poussées. Ainsi, la Faculté de Génie Industriel est un
établissement de formation d’Ingénieurs-Managers. Ceux-ci sont dotés d’une grande capacité
en technique de management intégré (ISO 9001/08, ISO 14001, OHSAS 18001, ISO 26000 et
ISO 50001) dans les filières suivantes :

- Technologie de construction industrielle (TCI),


- Technologie automobile (TAU),
- Robotique industrielle (ROI),
- Pêche industrielle (PEI),
- Hygiène-Sûreté-Sécurité industrielle (HSSI),
- Génie civil (GCI),
- Télécommunications et technologie de l’information et de la communication
(TTIC),
- Génie chimique
- Génie des procédés

Ces Départements sont chargés de concevoir, d'exécuter, de suivre les programmes


d'enseignement et d'assurer la gestion académique des examens et autres évaluations des
connaissances. On y pratique le système Licence-Master -Doctorat LMD avec une
prédominance du Master. Les programmes officiels régissent le déroulement des

iii
enseignements dans la faculté. En effet, l’étudiant admis au concours de la faculté de génie
industrielle suit le parcours suivant :

- Le cycle Licence : dans ce cycle d’une durée de trois ans, l’étudiant doit rassembler
180 crédits. Ce cycle est sanctionné par l’obtention d’une Licence en Génie
Industriel.
- Le cycle Master : d’une durée de deux ans (120 crédits), ce cycle est sanctionné par
l’obtention d’un Master en Génie Industriel.
- Le cycle Doctorat : d’une durée de trois ans (180 crédits), il est sanctionné par un
Doctorat en Génie Industriel.

Ces programmes comportent un ensemble d'enseignements organisés en cours


magistraux, travaux dirigés, travaux pratiques, bureau d’études techniques, travaux
personnels, visites à l’entreprise et/ou stages techniques.

iv
Résumé
Ce mémoire présente un travail effectué à MTN Cameroun, où il nous a été demandé de
travailler sur la latence afin de la réduire, car sa valeur ne reflétait pas les objectifs de
l’entreprise. C’est à cet effet que notre thème est intitulé « Analyse et réduction de la
latence des paquets de données des réseaux mobiles de 3 è et de 4è génération :
Contribution à l’optimisation du réseau de MTN Cameroun ». Pour mieux aborder notre
sujet, nous sommes partis des généralités sur les réseaux mobiles, dont nous avons présenté
l’évolution et parler en profondeur de l’UMTS et de la LTE ; nous avons ensuite fait une
étude de l’existant ce qui nous a permis de ressortir la problématique et les différents objectifs
à atteindre ; un état de l’art sur les travaux qui traitent sur la réduction de la latence nous a
donné une vision globale de l’avancement de la science à ce sujet ; l’analyse des différents
segments du réseau nous a permis d’identifier les causes de la latence en fonction de la
variation de certains facteurs. C’est ainsi qu’après avoir détecté les causes d’une
augmentation de la latence nous avons proposé une solution permettant de la réduire et
d’optimiser le réseau de manière générale.

Mots clés : Réseaux mobiles, UMTS, LTE, Optimisation, Performance, Latence, QoS,
3G, 4G.

v
Abstract
This thesis presents a work done at MTN Cameroon, where we were asked to work on
latency in order to reduce it, because its value did not reflect the objectives of the company. It
is for this purpose that our theme is entitled "Analysis and reduction of the latency of data
packets of 3rd and 4th generation mobile networks: Contribution to the optimization of
the MTN Cameroon network". To better tackle our subject, we started from generalities on
mobile networks, whose evolution we presented and talked in depth about UMTS and LTE;
we then made a study of the existing one which enabled us to highlight the problem and the
various objectives to be reached; a state of the art on works dealing with the reduction of
latency has given us a global vision of the advancement of science on this subject; the
analysis of the different network segments allowed us to identify the causes of latency based
on the variation of certain factors. This is how, after detecting the causes of an increase in
latency, we proposed a solution making it possible to reduce and optimize the network in
general.

Keywords: Mobile Networks, UMTS, LTE, Optimization, Performance, Latency, QoS,


3G, 4G.

vi
Sigles et abréviations
1G Première Génération
2G Deuxième Génération
3G Troisième Génération
3GPP 3rd Generation Paternship Project
4G Quatrième Génération
5G Cinquième Génération

A
AF Assurance Forwarding
AMC Adaptive Modulation and Coding
AMPS Advanced Mobile Phone System

B
BE Best Effort
BGP Border Gateway Protocol
BMC Broadcast/Multicast
Control BPSK Binary Phase Shift
Keying BR Bloc Ressource
BR Backward Reporting

C
CDMA Code Division Multiple Access
CN Core Network

D
DCS Digital Communication System

E
EDGE Enhanced Data rate for GSM Evolution
EF Enhanced Forwarding
EGP Exterior Gateway Protocol
EPC Evolved Packet Core
EPS Evolved Packet System
EUTRAN Evolved Universal Terestrial Radio Access Network

F
FDD Frequency Division Duplex
FDMA Frequency Division Multiple Access

vii
FM Forward Monitoring

G
GGSN Gateway GPRS Support Node
GMSC Gateway MSC
GMSK Gaussian Minimum Shift Keying
GPRS General Packet Radio Service
GSM Global System for Mobile Telecommunication

H
HLR Home Location Register
HSDPA High Speed Downlink Packet Access
HSPA High Speed Packet Access
HSPA+ High Speed Packet
Access+ HSS Home Subscriber Server
HSUPA High Speed Uplink Packet Access

I
ICMP
IGMP
IGP Interior Gateway Protocol
IGRP
IMT International Mobile Telecommunications
IntSerV Integrated Sevices
IP Internet Protocol
IPPM Internet Protocol Performance
Measurement ISIS Intermediate System to Interediate
System ITU International Telecommunication Union

J
K
KHz Kilo Hertz

L
LTE Long Term Evolution

M
MAC Medium Access Control
ME Mobile Equipment
MHz Mega Hertz
MIMO Multiple Iput Multiple Output

viii
MME Mobility Management Entity
MOS Mean Opinion Score
MPLS Multiple Protocol Label Switching
MSC Mobile Switching Centre
MTN Mobible Telecommunication Network

N
NMT Nordic Mobile Telephone

O
OFDM Orthogonal Frequency Division Multiplexing
OFDMA Orthogonal Frequency Division Multiple
Access OSI Open System Interconnection
OSPF Open Short Path First
OVSF Orthogonal Variable Spreading Factor

P
PCRF Policy and Control Rules Fonction
PDCP Packet Data Convergence Protocol
PGW Packet Data Network Gateway
PSTN Public Switching Transport
Network

Q
QAM Quadrature Amplitude Modulation
QDS Qualite de Service
QoE Quality of Experience
QoS Quality of Service
QPSK Quadrature Phase Shift Keying

R
RAB Radio Access Bearer
RAN Radio Access Network
RB Radio Bearer
RIP Routing Interior Protocol
RLC Radio Link Control
RNC Radio Network Controller
RRC Radio Ressource Control
RSVP Resource reSerVation
Protocol RTT Round Trip Time

ix
SC-
FDMA Single Carrier-Frequency Division Multiple Access
SGSN Serving GPRS Suppoert Node
SGW Serving Gateway
SISO Single-input Single-output

T
TACS Total Access Communication
System TCP Transmission Control Protocol
TDD Time Division Duplex
TDMA Time-Division Multiple Access
TTL Time To Live

U
UDP User Data Protocol
UE User Equipment
UIT Union Internationale des
Télécommunications UMTS Universal Mobile
Telecommunication System USIM UMTS Subscriber
Identity Module
UTRA Universal Terrestral Radio Access

V
VLR Visitor Location Register

W
WCDMA Wide band Code Division Multiple Access
WIMAX Worldwide Interoperability for Microwave Access

x
Liste des tableaux
Tableau 1-1 : Comparaison des modes d'accès GSM et UTRA FDD et TDD [2]............9
Tableau 1-2 : Tableau comparatif du WiMAX et de la norme HSDPA [6]...................11
Tableau 1-3: Tableau récapitulatif des technologies des différentes générations [2].....12
Tableau 1-4: Principaux paramètres WCDMA [9].........................................................19
Tableau 1-5 : Objectifs en termes de latence fixes par MTN Cameroun [17]................29
Tableau 2-1: Débit et Latence des différentes générations.............................................41
Tableau 2-2: Comparaison des modèles IntServ et DiffServ..........................................47
Tableau 3-1: Evaluation de la latence du réseau 3G.......................................................61
Tableau 3-2: Evaluation de la latence du réseau 4G.......................................................61
Tableau 3-3 : Comparatif des protocoles de routage.......................................................69

xi
Listes des figures
Figure 1-1 : Evolution des réseaux mobiles [1]................................................................4
Figure 1-2: Exemple de téléphone 1G [3].........................................................................6
Figure 1-3 : Spécification de la 5G [8]............................................................................14
Figure 1-4: Architecture globale du système UMTS......................................................15
Figure 1-5 : Architecture globale du système LTE.........................................................21
Figure 1-6: Un signal OFDM [11]..................................................................................24
Figure 1-7: Structure de la trame LTE [12].....................................................................25
Figure 1-8: Constellation pour une modulation 16 QAM et 64 QAM [13]....................26
Figure 1-9 : Logo de MTN [14]......................................................................................27
Figure 1-10: Architecture générale de MTN Cameroun [15]..........................................28
Figure 2-1 : Comparaison des modèles OSI et TCP/IP [24]...........................................33
Figure 2-2: Format d'un paquet IP [24]...........................................................................34
Figure 2-3: Algorithme de Dijkstra [11].........................................................................36
Figure 2-4: Algorithme de Bellman-Ford [11]................................................................36
Figure 2-5: Plage de fréquences des ondes électromagnétiques et leur utilisation [26]. 37
Figure 2-6: Les différentes classes de services en UMTS [14].......................................42
Figure 2-7: La QoS en LTE [35].....................................................................................44
Figure 2-8: Différents QCI [35]......................................................................................45
Figure 2-9: Illustration du modèle IntServ [29]..............................................................46
Figure 2-10: Illustration du modèle DiffServ [29]..........................................................47
Figure 2-11:Analyse de l'impact de la distance du mobile à l'eNodeB sur la latence
d’Ashish [12]............................................................................................................49
Figure 2-12: Différents composants pouvant influencer la latence selon Xiaoling [18] 50
Figure 3-1: Modélisation de la démarche........................................................................53
Figure 3-2: Logo U2000 [31]..........................................................................................54
Figure 3-3: Logo eNSP [32]............................................................................................54
Figure 3-4: Logo UNET [33]..........................................................................................55
Figure 3-5: Mesure de la latence, segmentation en fonction des domaines du réseau [30]
.................................................................................................................................56
Figure 3-6: Interface d’U2000.........................................................................................57
Figure 3-7: Mode de fonctionnement du protocole IPPM..............................................58
Figure 3-8 : Configuration de la session IPPM...............................................................59
Figure 3-9: Session IPPM non activée............................................................................59
Figure 3-10 : Session IPPM activée................................................................................60
Figure 3-11: Apport des différentes parties du réseau sur la latence 3G........................62
Figure 3-12: Apport des différentes parties du réseau sur la latence 4G........................62
Figure 3-13: Proportion de la latence dans la partie accès 3G........................................63
Figure 3-14 : Proportion de la latence dans la partie accès 4G.......................................64
Figure 3-15: Présence d'interférence dans une cellule 3G..............................................66
Figure 3-16: Analyse du temps de transmission des paquets par un routeur..................67
Figure 3-17 : illustration du protocole BFD [34]............................................................70
Figure 4-1: Méthode d'optimisation.................................................................................73
Figure 4-2 : Ajustement du Tilt et de l'Azimut [36]........................................................75
Figure 4-3 : Présence d'interférence dans la ligne Pingo Pk10-Ndoghem PK12............75
Figure 4-4: Ajustement du tilt d’une cellule 3G de 2 à 6................................................76
Figure 4-5 : Elimination d'interférence dans la ligne Pingo Pk10-Ngoghem Pk12........76
Figure 4-6 : Interface du logiciel UNET.........................................................................77

xii
Figure 4-7 : Architecture d’un réseau pour simulation du routage..................................78
Figure 4-8 : Configuration du protocole IS-IS................................................................79
Figure 4-9 : Configuration du routeur de PK17..............................................................79
Figure 4-10: Comparaison des différents protocoles en termes de latence.....................80
Figure 4-11: Modification de la modulation pour l'augmentation de la capacité du canal
.................................................................................................................................81
Figure 4-12 : Mise à niveau des ports pour pallier à la congestion.................................82
Figure 4-13: Vérification des performances....................................................................82
Figure 4-14: Augmentation du gain................................................................................83
Figure 4-15: Evolution de la latence dans la partie RAN................................................84
Figure 4-16: Evolution de la latence du réseau avant et après optimisation...................85
Figure 4-17 : Proposition d’une nouvelle architecture....................................................86

xiii
Table des matières
Dédicace..........................................................................................................................................................i
Remerciements................................................................................................................................................ii
Avant-Propos..................................................................................................................................................iii
Résumé............................................................................................................................................................v
Abstract..........................................................................................................................................................vi
Sigles et abréviations....................................................................................................................................vii
Liste des tableaux...........................................................................................................................................xi
Listes des figures...........................................................................................................................................xii
Table des matières........................................................................................................................................xiv
INTRODUCTION GENERALE.....................................................................................................................1
CHAPITRE I : GENERALITES SUR LES RESEAUX MOBILES ET ETUDE DE L’EXISTANT............3
1.1. Evolution des réseaux mobiles................................................................................................4
1.1.1. La 1ère Génération (1G)..................................................................................................4
1.1.2. La 2e Génération (2G)...................................................................................................6
1.1.3. La 3e Génération (3G)...................................................................................................8
1.1.4. La 4e Génération (4G).................................................................................................10
1.1.5. La 5e Génération (5G).................................................................................................13
1.2. L’UMTS...............................................................................................................................14
1.2.1. Architecture de l’UMTS [2]........................................................................................14
1.2.2. L’interface radio de l’UMTS.......................................................................................17
1.3. La LTE..................................................................................................................................20
1.3.1. Architecture du système LTE [10]..............................................................................21
1.3.2. L’interface radio du LTE.............................................................................................23
1.4. Etude de l’existant.................................................................................................................26
1.4.1. Contexte......................................................................................................................27
1.4.2. Architecture.................................................................................................................27
1.4.3. Problématique..............................................................................................................28
1.4.4. But et objectifs.............................................................................................................29
1.4.5. Besoins fonctionnels et non-fonctionnels....................................................................29
CHAPITRE II : ETAT DE L’ART...............................................................................................................31
2.1. Généralités sur les réseaux IP...............................................................................................32
2.1.1. Généralités sur l’IP......................................................................................................32
2.1.2. Les protocoles de routage............................................................................................34
2.1.3. Les supports de transmissions......................................................................................36
2.2. Généralistes sur la QoS et la latence.....................................................................................38
2.2.1. QoS : Types et définitions...........................................................................................38
2.2.3. Les paramètres indicateurs de la QoS..........................................................................39
2.2.4. La latence....................................................................................................................40
2.2.5. La QoS dans l’interface radio de la 3G et 4G..............................................................41
2.3. Modèles de gestion de la QoS...............................................................................................45
2.4.1. Le modèle IntSerV (Integrated Services)....................................................................45
2.4.2. Le modèle DiffSerV (Differenciated Services)...........................................................46
2.4. Méthodes d’optimisation de la latence..................................................................................48
2.4.1. Ashish Kurian, « Latency analysis and Reduction in a 4G Network »........................48
2.4.2. Xiaolin Jiang et une équipe de l’IEEE, « Low-latency Networking: Where Latency
Lurks and How to Tame It »......................................................................................................49
CHAPITRE III : ANALYSE DE LA LATENCE........................................................................................51

xiv
3.1. Modélisation..........................................................................................................................52
3.1.1. Outils...........................................................................................................................53
3.1.2. Evaluation de la latence...............................................................................................55
3.2. Configuration au niveau des sites..........................................................................................56
3.2.1. Généralistes sur le IPPM.............................................................................................57
3.2.2. Le compteur RTT de IPPM.........................................................................................58
3.2.3. Configuration du protocole IPPM...............................................................................58
3.3. Analyse de la latence............................................................................................................60
3.3.1. Impact des différentes parties sur la latence totale......................................................60
3.3.2. Les causes d’une latence élevée..................................................................................64
CHAPITRE IV : OPTIMISATION, RESULTATS ET RECOMMANDATIONS.......................................72
Introduction..........................................................................................................................................73
4.1. Optimisation..........................................................................................................................73
4.1.1. Optimisation de l’interface radio.................................................................................74
4.1.2. Amélioration du routage..............................................................................................78
4.1.3. Optimisation des supports de transmission..................................................................80
4.2. Résultats................................................................................................................................83
4.2.1. Réduction de la latence au niveau RAN......................................................................83
4.2.2. Réduction de la latence de bout en bout......................................................................84
4.3. Proposition d’architecture et recommandations....................................................................85
4.3.1. Architecture de la solution...........................................................................................86
4.3.2. Recommandations........................................................................................................87
4.4. Enjeux financier de la réduction de la latence.......................................................................87
CONCLUSION GENERALE.......................................................................................................................89
BIBLIOGRAPHIE...........................................................................................................................................i
Annexe A........................................................................................................................................................v
Annexe B......................................................................................................................................................viii

xv
INTRODUCTION GENERALE

1
D
epuis leur avènement dans le début des années 1990 jusqu’à nos jours, les
réseaux mobiles ont connu une évolution considérable. Les constructeurs ou
les organismes en charge de leur normalisation ne cessent d’améliorer les
technologies au fil des différentes générations ceci avec pour objectif d’améliorer
l’expérience de l’utilisateur. Conçues à l’origine pour offrir uniquement un service de
téléphonie mobile (à savoir la voix), les technologies de communications radio mobiles ont
considérablement évolué et permettent désormais une connexion à haut-débit en toute
mobilité. Les équipementiers ainsi que les opérateurs mobiles ont su accompagner cette
évolution en introduisant de nouveaux types de modulations et de technologies d’accès de
réseau.

L’histoire des réseaux mobiles est jalonnée par quatre générations essentielles qui sont en
l’occurrence la 1G, 2G, 3G, 4G et bientôt la 5G dont le lancement est prévu dès l’année
prochaine c’est-à-dire en 2020. Ces générations diffèrent entre autre par les moyens mis en
œuvre pour l’accès à la ressource radio, les technologies d’accès radio utilisées, les bandes de
fréquences, l’architecture du réseau. L’évolution de ces techniques a été guidée par la volonté
d’accroître la capacité ainsi que les débits offerts par le système. Nous reviendrons en détail
sur les caractéristiques de ces différentes générations. La 3 e et la 4e génération grâce, aux
performances qu’ils offrent ont permis l’entrée dans le monde des réseaux mobiles de
nouvelles applications à savoir la vidéoconférence, le streaming vidéo et audio, le
téléchargement et l’ouverture des pages web a une vitesse considérable, un gain de temps
considérable aux utilisateurs par rapport aux différentes tâches qu’ils pourraient exécuter sur
internet.

De nos jours, le marché des télécommunications est très porteur et générateur de revenu
et les entreprises de ce secteur se battent avec acharnement pour dans un premier temps
maintenir leur clientèle et d’une autre part conquérir de nouveaux clients. Pour se faire, ils
s’attèlent à ce que leur réseau ait la meilleure qualité de service et les meilleures
performances possibles. Pour évaluer cette qualité de service offert à leur utilisateur ils
s’appuient sur certains indicateurs de performances comme le débit ou la latence. La latence
est un indicateur très puissant qui nous permet d’avoir une vue globale sur l’état d’un réseau
mobile et d’en détecter d’éventuelles problèmes. En ce sens qu’une augmentation de la
latence par rapport aux normes définis peut nous indiquer l’état de santé d’un réseau mobile.

C’est dans cette optique que notre travail porte sur l’analyse et la réduction de la latence
des réseaux 3G et 4G. Comment calculer la latence ? Quels sont les causes d’une
augmentation de la latence ? Comment optimiser la latence ? Pour ce faire, notre travail est
1
divisé en quatre

1
chapitres comme suit : dans le chapitre 1 nous ferons une synthèse de l’évolution des réseaux
mobiles (1G, 2G, 3G, 4G et 5G) ensuite nous détaillerons les réseaux 3G et 4G ; dans le
chapitre 2 il sera question de la latence, des réseaux IP et des modèles de la QoS ; le chapitre
3 présentera la mise de la solution ; le chapitre 4 portera sur l’analyse et l’interprétation des
résultats ainsi que quelques recommandations.

2
CHAPITRE I : GENERALITES
SUR LES RESEAUX MOBILES ET
ETUDE DE L’EXISTANT

3
Introduction

Dans ce chapitre, nous parlerons de l’évolution des réseaux mobiles en général, depuis
la 1ère génération jusqu’à la 5e. De manière particulière nous nous intéresserons à l’UMTS et
la LTE, nous détaillerons leur architecture et leurs différentes technologies. Et enfin, nous
présenterons l’existant, le contexte de notre travail et la problématique.

1.1. Evolution des réseaux mobiles


Depuis leur apparition dans le début des années 1970 jusqu’à nos jours, les réseaux
mobiles ont évolué tant sur le plan architecturale comme fonctionnel. Nous pouvons en effet
dénombrer 4 voire 5 générations de réseaux mobiles depuis leur avènement.

Figure 1-1 : Evolution des réseaux mobiles [1]

1.1.1. La 1ère Génération (1G)

Au début des années 1970, apparu la 1ere génération des réseaux mobiles. Cette
génération reposait sur un système de communication mobile analogique, et était
essentiellement dédiée à la voix. Plusieurs standards de téléphonies de 1ere génération ont vu
le jour, parmi lesquels nous pourront citer AMPS, NMT, et TACS.

4
[Link]. AMPS
AMPS (Advanced Mobile Phone System), apparu en 1976 aux Etats-Unis, constitue le
premier standard de réseau cellulaire et est principalement utilise en Outre-Atlantique, en
Russie et en Asie. Comme méthode d’accès elle a d’abord utilise le FDMA (Frequency
Division Multiple Access - Accès Multiple par Division en Fréquence) puis, par la suite, pour
un souci d’amélioration de la capacité du système, le TDMA (Time-Division Multiple
Access) fut introduit. La bande de fréquence de l’AMPS se situe aux alentours de 800 MHz.
Plus précisément, sont disponibles : La bande de fréquence 824-849 MHz pour les canaux
ascendants (du terminal vers la station de base) ; La bande de fréquence 869-894 MHz pour
les canaux descendants (de la station de base vers les terminaux). En tout, 832 canaux sont
disponibles, répartis entre deux opérateurs. Ce qui fait donc 416 canaux par opérateurs.
Chaque canal AMPS a une largeur de 30 KHz [2].

[Link]. NMT

NMT (Nordic Mobile Telephone), c’est la première norme de communication mobile en


Europe. Elle fut conçue à la demande des opérateurs scandinaves par Ericsson et Nokia en
1978. La Suède (en 1981), puis la Finlande, la Norvège et le Danemark (en 1982) ont chacun
déployé un système basé sur cette norme. Il a été mis en service pour répondre aux problèmes
de congestion des réseaux de téléphonie existants à cette époque. Il est basé sur une
technologie analogique et utilise deux fréquences 400 MHZ et 900 MHZ, correspondant à
NMT-400 avec 200 canaux de largeur 25 KHz et NMT-900 avec 1999 canaux de largeur 12.5
KHz. Il permet en autre le cryptage des communications [2].

[Link]. TACS

Le système TACS (Total Access Communication System) est un système de


communication mobile analogique introduit avec succès au Royaume-Uni dans les années
1985, et dans plusieurs autres pays. Le TACS est un dérivé du système de téléphonie mobile
avancé (AMPS) développé par AT&T pour les États-Unis. Ses principales différences sont
les fréquences radio, la bande passante des canaux radio et les débits de signalisation des
données. Il fonctionne dans la bande 890-915 MHz / 935-960 MHz; la bande dans laquelle le
GSM a été introduit plus tard. La bande passante des canaux radio était de 25 kHz, offrant
1000 canaux

5
duplex dans la bande des 900 MHz. Une version modifiée de TACS appelée est utilisée au
Japon [2].

Figure 1-2: Exemple de téléphone 1G [3]

1.1.2. La 2e Génération (2G)

La 2e génération des réseaux mobiles a vu le jour au début des années 1990, avec
l’arrivée du GSM, puis au début des années 2000 a connu l’arrivée du GPRS et quelques
années plus tard la norme EDGE. Le GSM était à commutation de circuit et n’admettait que
le transfert de la voix. Le transfert des données a été possible avec l’entrée du GPRS et la
commutation de paquet.

[Link]. Le GSM (2G)

Le GSM (Global System for Mobile communication) est apparu en 1992 en Europe,
connaissant un énorme succès et fut déployé dans un grand nombre de pays, permettant
l'itinérance entre ces derniers. Le GSM est fondé sur le concept cellulaire. Et permet un débit
de 9.6 Kbps [2].

Il occupe deux bandes de fréquences aux alentours des 900 [MHz] : La bande de
fréquence 890 - 915 [MHz] pour les communications montantes ; et La bande de fréquence
935 - 960 [MHz] pour les communications descendantes. Comme chaque canal fréquentiel
utilisé pour une communication a une largeur de bande de 200 [kHz], cela laisse la place pour
125 canaux fréquentiels à répartir entre les différents opérateurs. Mais, le nombre
d'utilisateurs augmentant, il s'est avéré nécessaire d'attribuer une bande supplémentaire aux
alentours des 1800 [MHz]. On a donc porté la technologie GSM 900 [MHz] vers une bande
ouverte à plus haute fréquence. C'est le système DCS-1800 (Digital Communication
System) dont les caractéristiques sont

6
quasi identiques au GSM en termes de protocoles et de service. Ici nous avons 374 canaux
fréquentiels. La technique d’accès utilisée est le FDMA et le TDMA et Il introduit la
modulation GMSK (Gaussian Minimum Shift Keying) [4].

[Link]. Le GPRS (2.5G)

Le General Packet Radio Service (GPRS) définit par le 3GPP dans la Release 97 fut
lancer en France au début de l'année 2002. Il ne constitue pas à lui seul un réseau mobile à
part entière, mais il représente la première évolution du GSM adaptée au transfert de données.
Il repose sur la transmission en mode paquet ce qui permet une gestion optimale des
ressources. En effet, l’architecture GSM fournit les services voix, tandis que l’architecture
GPRS fournit les services de données par paquets avec un débit élevé [4].

Le GPRS permet d’atteindre un débit théorique maximal de 171.2 kbits/s, ce qui


correspond à un débit d’environ 115 kbits/s pour l’utilisateur final dans des conditions
optimales. Le GPRS utilise les mêmes canaux et les mêmes bandes de fréquences attribuées
au GSM, c'est-à-dire dans les 900 MHz et 1800 MHz et enfin une troisième pour les USA,
dans les 1900 MHz. Il est conçu pour réutiliser au maximum les infrastructures GSM
existantes. Néanmoins, son déploiement nécessite la mise en place d'une infrastructure réseau
fournissant un accès paquet à des réseaux de données à commutation de paquet de type X.25
ou IP, et l'introduction de passerelles pour s'adosser aux réseaux GSM existants. Il définit
quatre niveaux de codage convolutionnels CS1, CS2, CS3 et CS4 suivant la qualité de liaison
souhaitée et le taux de brouillage existant dans la cellule. Ces codes définissent, en fonction
du degré de protection des données transmises, le débit numérique [2].

[Link]. EDGE (2.75G)

EDGE (Enhanced Data rate for GSM Evolution), définit par le 3GPP dans la Release 98,
développé au cours de l'année 2005, représente une seconde forme d’évolution du GSM et du
GPRS. Il s'applique aussi bien au mode circuit du GSM qu'au mode paquet du GPRS. La
technologie EDGE peut théoriquement atteindre un débit maximum de 473 kbit/s. En
pratique, le débit (maximum) a été fixé au niveau du standard de la norme EDGE à 384 kbit/s
par l’ITU (International Telecommunication Union) dans le but de respecter la norme
IMT-2000

7
(International Mobile Telecommunications-2000). Le standard EDGE constitue également le
point de convergence entre la famille GSM et AMPS aux Etats Unis [2].

La norme EDGE a l’avantage de pouvoir rapidement s’intégrer au réseau GSM existant.


En effet, elle utilise les mêmes bandes de fréquences 890 à 915 MHz (Uplink) et 935 à 960
MHz (Downlink). De même la largeur des canaux fréquentiels est la même, soit 200 kHz (RF
carrier spacing) chacune. La véritable différence entre EDGE et GPRS se situe au niveau du
type de modulation et du codage. La modulation utilisée pour la technologie EDGE est la
modulation 8-PSK (Phase-shift keying). La technologie EDGE 9 schémas sont possibles
désignés MCS1 à MCS9 et permet des débits jusqu’à 3 fois supérieurs à ceux du GPRS [2].

1.1.3. La 3e Génération (3G)

La 3e génération déployée au début des années 2000 est venu rompre avec le mode de
multiplexage utilise dans la 2G. En effet, dans le souci d’augmenter le débit et de diminuer
les effets des interférences, la technologie WCDMA vu le jour.

[Link]. UMTS (3G)

L’UMTS (Universal Mobile Telecommunications System) a été introduit par le 3GPP


dans la Release 99. Il est issu du GSM et déployé autour du globe à partir de l’année 2002. Il
désigne une technologie de la famille dite IMT 2000, standard règlementé par l’organisme
UIT (Union Internationale des Télécommunications), comme norme pour les systèmes de
télécommunications mobiles dits de troisième génération. Il existe 6 systèmes d’accès radio
retenu par la norme IMT 2000 : UTRA/FDD, UTRA/TDD, TD-SCDMA, CDMA2000,
UWC-
136, DECT. L’UMTS quant à lui regroupe les deux premières technologies [2].

L’UMTS exploite la nouvelle technologie W-CDMA. Il supporte les deux schémas de


duplexage FDD et TDD, et permet d'atteindre des débits allant de 384 kbit/s jusqu'à 2 Mbit/s.
Il fonctionne dans la bande de fréquence située entre 1900 MHz et 2200 MHz organisée
comme suit : de 1920 à 1980 MHz pour la liaison montante ; de 2110 à 2170 MHz pour la
liaison descendante. La largeur fréquentiel du canal est de 5 MHz. Il utilise la modulation
BPSK (uplink) et QPSK (downlink). Il est compatible avec tous les réseaux du monde du fait
de la possibilité de roaming au niveau mondial [4].

8
Tableau 1-1 : Comparaison des modes d'accès GSM et UTRA FDD et TDD [2]

GSM UTRA/FDD UTRA/TDD


FDMA FDMA FDMA
Technique d'accès multiple TDMA CDMA TDMA
CDMA
Mode de duplexage FDD FDD TDD
Séparation entre fréquence 200 5000 5000
925-960 1900-1920
Voie
1805-1880 2110-2170 2010-2025
Descendante
1850-1910
spectre de fréquence (MHz)
1900-1920
Voie Montante 1920-1980 2010-2025

BPSK
Type de modulation GMSK QPSK
QPSK
Périodicité du contrôle de puissance (Hz) 2 1500 100 - 750
Durée d'une trame 4.615 10 10
Durée d'un slot 0.577 0.667 0.667
Asynchrone
Synchronisation entre station Asynchrone Synchrone
Synchrone

[Link]. HSPA (3G+)

Le HSPA (High Speed Packet Access) a été introduit par le 3GPP dans les Releases 5 en
2002 et 6 en 2005 et évalué à 3.5G (nommé aussi 3G+), regroupe : HSDPA pour la voie
descendante et le HSUPA pour la voie montante. Ce standard utilise la bande de fréquence
900/2100 MHz et permet d'atteindre des dé- bits de 5,8 Mbit/s en voie montante utilisant les
modulations QPSK et BPSK, et 14,4 Mbit/s en voie descendante utilisant les modulations
QPSK et 16QAM. [4]

Le HSDPA encore appelé la 3.5G offre des débits pouvant atteindre 8 à 10 Mb/s sur le
lien descendant. Le HSDPA peut être installé et déployé sans changer radicalement

9
l’architecture de l’UMTS. Il permet du coup aux opérateurs de réaliser cette évolution à
moindre coût.

L’HSUPA (High Speed Uplink Packet Access) est défini dans la release 6 du 3GPP. Il
s’agit d’une optimisation de l'HSDPA sur le lien montant (du mobile vers le réseau). Cette
évolution permet le haut débit en voie montante (jusqu’à 5,8 Mb/s maximum théorique, 1,2
Mb/s en pratique avec les mobiles actuels), ainsi qu’une amélioration du débit descendant
puisqu’on double le débit prévu par le HSDPA (7,2 Mb/s).

[Link]. HSPA+ (3G++)

L’HSPA+ (High Speed Packet Access+), parfois nommée H+, 3G++, HSPA ou 3G
Dual Carrier, est une norme de téléphonie mobile 3G de la famille UMTS ; c'est une
évolution de la norme HSPA permettant d'atteindre des débits théoriques crêtes de 21 Mbit/s
par cellule radio en téléchargement, soit 42 Mbit/s en « Dual Carrier » et
théoriquement jusqu'à 84 Mbit/s en mode DC + MIMO 2×2. Elle permet en liaison montante
un débit maximal de 11,5 Mbit/s avec des terminaux compatibles (catégorie 7). Elle fait
partie de la 3G transitionnelle issue de la famille 3GPP ; elle est définie dans les versions 7 et
8 (release 8) des normes 3GPP publiées en 2008 [5].

1.1.4. La 4e Génération (4G)

Dans la quête des performances réseaux sans cesse grandissante, la 4 e Génération des
réseaux mobiles vu le jour avec des débits pouvant aller jusqu’à 100 Mbits/s. Parmi cette
génération nous pouvons classer la LTE, et aussi le WiMAX mobile.

[Link]. Le WiMAX Mobile

WIMAX ou Worldwide Interoperability for Microwave Access, est une technologie dans
le domaine de communication basée sur le standard IEEE 802.16. Il est applique au réseau
métropolitain (MAN ≤ 1 km) et permet des tailles de cellules comprises entre 6 à 10 km. [6]

La première norme de WiMAX a été élaborée en 2001 (802.16). Elle définissait des
réseaux métropolitains sans fils dans les bandes de fréquences 10 à 66 Ghz. Deux années plus
tard, la norme 802.16a, complétait la norme 802.16 pour les fréquences inférieures à 10 Ghz.
Ces deux normes ont été ensuite regroupées sous le standard 802.16d. Cette norme constitue

10
notamment ce qu’on appelle le WiMAX fixe. Ses fréquences vont de 2 à 11 Ghz, et permet
un débit maximum de 75 Mbps avec une bande passante de 20 Mhz. Il existe également
d’autres variantes de 802.16 notamment le 802.16f qui concerne les réseaux maillés. [6]

En 2005, un nouveau standard le 802.16e a vu le jour, définissant les possibilités


d’utilisation de la technologie pour des applications mobiles. Le standard IEEE 802.16e
constitue donc ce qui est communément désigne le WiMAX mobile. Ce standard utilise des
fréquences de 2 à 6 Ghz. Ses bandes passantes utilisées sont 1.25, 3, 5, 7, 10, 20 Mhz. Il
permet un débit de 30 Mbps avec une bande passante de 10 Mhz. La technique d’accès
utilisée par le WiMAX est l’OFDMA (Orthogonal Frequency Division Mode Access) et son
mode de duplexage est le mode TDD (Time Division Duplex). Les principales technologies
d’accès utilisées sont le MIMO (Multiple Input Multiple Output), AMC (Adaptative and
Modulation Code), HARQ (Hybrid Adaptaive Reponse Request) [6].

Tableau 1-2 : Tableau comparatif du WiMAX et de la norme HSDPA [6]

Technologie WiMAX HSDPA


Standard IEEE 802.16e WCDMA/UMTS
Débit 30 Mbit/s (avec une bande 2 Mbit/s (HSDPA pouvant
passante de 10MHz) aller jusqu’à 10 Mbit/s)
Couverture 6 km à 10 km 2 km à 5 km
Fréquence 2 GHz to 6 GHz 900 MHz, 1800 MHz, 2100
MHz
Bande passante 1.25 MHz à 20 MHz 5 MHz
Technique d’accès OFDMA, MIMO/AAS, AMC CDMA, AMC
Mode de duplexage TDD FDD
Mobilité lente (<120km/h) Rapide

11
[Link]. La LTE

L’idée et le projet pour développer la technologie LTE (Long Term Evolution) sont
menés par l'organisme de standardisation 3GPP visant à rédiger les normes techniques de la
future quatrième génération en téléphonie mobile. Cette technologie a comme but de
permettre le transfert de données à très haut débit. En théorie, elle permet d'atteindre des
débits de l'ordre de 50 Mb/s en lien montant et de 100 Mb/s en lien descendant avec une
portée plus importante, un nombre d'appels par cellule supérieur et un temps de latence plus
faible. LTE implique de modifier le cœur du réseau et les émetteurs radio. La norme LTE
définie par le consortium 3GPP1, a d'abord été considérée comme une norme de troisième
génération « 3.9G » (car proche de la 4G), spécifiée dans le cadre des technologies 2000, car
dans les « versions 8 et 9
» de la norme, elle ne satisfaisait pas toutes les spécifications techniques imposées pour les
normes 4G par l'Union internationale des télécommunications (UIT).

[Link]. La LTE-A

La LTE-A (Long Term Evolution - Advanced) est considéré comme étant la 4.5G ou
bien la passerelle entre la LTE (4G) et la 5G. La LTE-A a été introduit par la 3GPP dans la
Release 10 qui a vu le jour dans les années 2012. LTE Advanced est donc une évolution de la
norme LTE avec des compléments fonctionnels qui permettent une introduction progressive
des nouvelles fonctions dans les réseaux LTE préexistants. Cette technologie a été créée afin
de booster la LTE en termes de débit, temps de latence, capacité, couverture et diminuer
l’interférence surtout dans le sens ascendant. La LTE-A est considéré par les connaisseurs du
domaine de la télécommunication comme la vrai 4eme génération ; car c’est avec les facteurs
introduit dans cette 3GPP RL10 qu’on a pu obtenir de meilleures performances [4].

Tableau 1-3: Tableau récapitulatif des technologies des différentes générations [2]

12
Largeur Technique Modulation Modulation Bande de
de canal d'accès DL UL fréquences
FDMA
GS/GPRS/EDGE 200 KHz GMSK 8PSK 900/1800
TDMA
UMTS 5 MHz CDMA QPSK BPSK 1900/2200
CDMA QPSK BPSK
HSPA 5 MHz 900/2100
TDMA 16 QAM QPSK
CDMA QPSK BPSK
5 MHz/10
HSPA+ TDMA 16 QAM QPSK 900/2100
MHz
64 QAM 16 QAM
LTE 1.4, 3, 5, OFDMA QPSK QPSK
10, 15, 20 SC-FDMA 16 QAM 16 QAM 1900/2200
MHz 64 QAM
OFDMA QPSK QPSK
1.4 MHz à
LTE-A SC-FDMA 16 QAM 16 QAM 2600
100 MHz
64 QAM
1.25, 3, 5,
WiMAX 7, 10, 20 OFDMA 64 QAM 16 QAM 2 à 6 GHz
MHz

1.1.5. La 5e Génération (5G)

La 4G a à peine fini de se déployer que la future génération de réseau mobile pointe son
nez. Ce sera la 5ème génération de réseau mobile. La clé technologique de la 5G se situe dans
l’utilisation de fréquences plus élevées du spectre, par rapport à celles affectées actuellement.
La 4G et ses prédécesseurs ont eu recours, en gros, à des bandes de fréquences en dessous de
6 GHz. La 5G promet l’utilisation notamment d’un spectre élargi de 30 à 300 GHz, les ondes
que l’on appelle millimétriques [7].

La norme 5G apporte, en théorie, des améliorations substantielles sur trois axes : les
débits, la latence et la densité. La 5G promet des vitesses autour d’au moins 100 Mbit/s en
moyenne perçus par l’utilisateur, pouvant grimper beaucoup plus haut dans le meilleur des
cas. On parle d’un maximum de 20 Gbit/s. Plus que le débit, en augmentation constante, c’est
sans doute sur la réduction de la latence que la 5G pourrait vraiment faire la différence. Elle
passerait de 10 à 1 ms idéalement. Le débit a évidemment une importance pour la
transmission descendante de données. La latence, elle, ouvre des perspectives sur
l’interactivité qui peut complètement bouleverser les usages, notamment professionnels [8].

13
Figure 1-3 : Spécification de la 5G [8]

1.2. L’UMTS
Dans cette partie nous présenterons en détails l’UMTS, son architecture, son interface
radio et les temps de latence qu’elle admet.

1.2.1. Architecture de l’UMTS [2]

L'architecture d'un réseau d'UMTS est répartie en deux groupes. Le premier groupe
correspond au réseau d’accès radio (RAN, Radio Access Network ou UTRAN, UMTS
Terrestrial RAN) qui supporte toutes les fonctionnalités radio. Le deuxième groupe
correspond au réseau cœur (CN, Core Network) qui est responsable de la commutation et du
routage des communications (voix et données) vers les réseaux externes. Pour compléter le
système, on définit également le terminal utilisateur (UE, User Equipment) qui se trouve
entre l’utilisateur proprement dit et le réseau d’accès radio.

14
Figure 1-4: Architecture globale du système UMTS

[Link]. L’équipement usager UE, User


Equipement

Le terminal utilisateur (UE) est composé de deux parties suivantes :

- Le terminal mobile (ME, mobile Equipment) correspond au terminal radio utilisé


pour les communications radio sur l’interface Uu.
- La carte USIM (UMTS Subscriber Identity Module) est une carte à puce qui stocke
l’identité de l’abonné, les algorithmes et les clefs d’authentification, les clefs de
chiffrement, ainsi que certaines données relatives à l’abonnement de l’utilisateur qui
sont nécessaires au niveau du terminal [4].

[Link]. Le réseau d’accès radio

La fonction de principale de l’UTRAN est de transférer les données générées par


l’usager, il est considéré comme une passerelle entre l’équipement usager et le réseau cœur
via les interfaces Uu et Iu. Il est également chargé d’autres fonctions tel que :

- La sécurité : Il permet la confidentialité et la protection des informations échangées


par l’interface radio en utilisant des algorithmes de chiffrement et d’intégrité.
- La mobilité : Une estimation de la position géographique est possible à l’aide du
réseau d’accès UTRAN.

15
- La gestion des ressources radio : Le réseau d’accès est chargé d’allouer et de
maintenir des ressources radio nécessaires à la communication.
- La synchronisation : Il est aussi en charge du maintien de la base temps de
référence des mobiles pour transmettre et recevoir des informations.

Le réseau d’accès UTRAN est composé de plusieurs éléments : une ou plusieurs stations
de base appelées NodeB, des contrôleurs radio RNC (Radio Network Controller) et des
interfaces de communication entre les différents éléments du réseau UMTS [4].

Le RNC Radio Network Controller : Le RNC (Radio Network Controller) est


l’élément de réseau en charge de la gestion et du contrôle des canaux radio (établissement /
maintien / libération des connexions radio). Pour un mobile donné, le RNC effectue
l’établissement de la connexion RRC (Radio Ressource Contrôle) qui est responsable
d’échanger la signalisation avec le réseau, il contrôle la puissance d’émission/réception et il
gère la configuration ou la reconfiguration de l’interface radio et la mobilité du mobile
(handover) ainsi que le contrôle de la qualité du lien radio [4].

Le NodeB : Le NodeB est l'élément chargé de gérer la couche physique de l’interface


air entre l'UTRAN et tous les UEs localisés dans la cellule ou les secteurs qu’il dessert. Il
assure principalement des fonctions telles, le contrôle de puissance des mobiles, le codage et
le décodage de canal, de l’adaptation du débit et de l’étalement, la modulation.

[Link]. Le réseau cœur (CN, Core Network)

Le réseau cœur a pour rôle la commutation des appels et le routage des paquets à
l’intérieur du réseau et l’interconnexion avec les autres réseaux en vue de gérer les services
souscrits par un abonné. Ses principaux éléments sont [8] :

- Le HLR (Home Location Register) est la base de données de référence qui gère
l’ensemble des abonnés et leurs profils. Le profil d’un abonné regroupe de
nombreuses informations telles que son numéro de téléphone, les services qu’il a le
droit d’utiliser, les informations relatives aux services supplémentaires tels que les
renvois d’appel, les restrictions d’appels, etc.

- Le MSC/VLR (Mobile Switching Centre/Visitor Location Register) correspond au


commutateur (MSC) et à la base de données (VLR). Le MSC permet la
commutation

16
des connexions circuit alors que le VLR contient une copie de profil de l’abonné et
certaines informations plus précises relatives à la localisation de l’abonné.

- Le GMSC (Gateway MSC) est un commutateur connecté directement aux réseaux


externes en mode circuit. Toutes les communications entrantes et sortantes, en mode
circuit, passent nécessairement par un GMSC.

- Le SGSN (Serving GPRS Suppoert Node) possède des fonctionnalités similaires au


MSC/VLR mais est utilisé pour les communications paquet. La partie du réseau
gérée par le SGSN est couramment appelée « domaine paquet ».

- Le GGSN (Gateway GPRS Support Node) les fonctionnalités du GGSN sont très
proches de celles du GMSC, mais le GGSN fait partie du domaine paquet et non
circuit. Il ne traite donc que des connexions en mode paquet.

Quant aux réseaux externes, ils se partagent en deux catégories :

- Les réseaux circuit tels que le Réseaux Téléphonique Commuté Public en anglais
PSTN (Public Switching Transport Network) ou le Réseau Numérique à Intégration
de services.
- Les réseaux paquet tels que le réseau Internet et d’autres réseaux publics ou privés
de transmission de données.

1.2.2. L’interface radio de l’UMTS

Dans cette partie nous parlerons tour à tour des méthodes d’accès utilisées en UMTS, de
la technologie WCDMA, du spectre de fréquence et des protocoles radio.

[Link]. Les modes d’accès

La norme UMTS présente deux techniques de multiplexage sur l’interface radio : le TDD
(Time Division Duplex) et le FDD (Frequency Division Duplex).

Le mode TDD : Dans le mode TDD le transfert de données depuis le mobile vers la
station de base (Uplink) s’effectue à la même fréquence qu’en sens inverse (Downlink) avec
une largeur de canal de 5 MHz. Les séquences Uplink et Downlink sont séparées dans le
temps. Ce mode est conseillé dans les micros et pico cellules utilisant la modulation
QPSK

17
(Quadrature Phase Shift Keying) à 3.84 Mchips ou la modulation 8PSK (Eight level Phase
Shift Keying) à 1.28 Mchips où le facteur d’étalement varie de 1 à 16 [7].

Le mode FDD : Dans le mode FDD : les liaisons montantes UL (uplink) et descendantes
DL (downlink) s’effectuent en même temps, mais sur des fréquences différentes. Il est utilisé
dans les micros et les macros cellules. La séparation entre porteuses est également de 5 MHz
utilisant la modulation QPSK à 3.84 Mchips et un facteur d’étalement qui varie de 4 à 256 en
UL et de 4 à 512 en DL [3].

[Link]. La technique d’accès WCDMA

La technique d’accès multiple adoptée par l’UMTS est appelée le WCDMA (Wide band
Code Division Multiple Access) c’est une technique a étalement de spectre. L’étalement de
spectre peut être défini comme « une technique qui permet de transmettre un signal
d’information sur une largeur de bande plusieurs fois supérieure à la largeur de bande
minimale que le signal ne le demande ».

Intérêt de l’étalement de spectre

C = B log2 (1 + S/N)  S/N = ln2 C/B (1.1)

Avec :

- C : la capacité de canal (bits/s).


- B : la largeur de bande du signal transmit (Hz).
- S : la puissance du signal (Watt).
- N : Bruit.

On voit que le rapport signal à bruit est inversement proportionnel à la largeur de bande
donc si la largeur de bande augmente et la capacité du canal reste identique le rapport signal à
bruit nécessaire diminue

Dans le WCDMA on fait appel à deux familles de codes :

- Des codes de canalisation appelés codes orthogonaux à facteur d’étalement variable,


OVSF (Orthogonal Variable Spreading Factor)

18
- Des codes d’embrouillage couramment Scrambling codes ou PN (Pseudo Noise
codes).

Tableau 1-4: Principaux paramètres WCDMA [9]

[Link]. Le spectre de fréquence

Deux plages ont été réservées au TDD, soit 35 MHz chacune. Le FDD occupe quant à
lui 120 MHz de spectre apparié, soit 60 MHz pour la voie montante (FDD-UL) et 60 MHz
pour la voie descendante (FDD-DL) :

- 1 900 à 1 920 MHz : TDD.


- 1 920 à 1 980 MHz : FDD-UL, sens mobile vers Node B.
- 2010 à 2 025 MHz : TDD.
- 2110 à 2 170 MHz : FDD-DL, sens Node B vers mobile.

[Link]. Les protocoles et les canaux de


l’interface radio

Les Protocoles

Les protocoles de l’interface radio de l’UTRAN s’appliquent aux 3 premières couches


du modèle OSI (Open System Interconnection), respectivement la couche physique, la couche
liaison données et la couche réseau.

Couche 1 : Cette couche représente la couche physique de l’interface radio qui réalise
les fonctions de codage, décodage, modulation et d’entrelacement.

19
Couche 2 : Cette couche est divisée en plusieurs sous couches :

- Sous-couche MAC (Medium Access Control) : a pour rôle de multiplexer les


données sur les canaux de transport radio.
- Sous-couche RLC (Radio Link Control) : permet la fiabilité du transport des
données entre deux équipements du réseau.
- La sous-couche BMC (Broadcast/Multicast Control) : est en charge d’assurer les
fonctions de diffusion de messages sur l’interface radio.
- Sous-couche PDCP (Packet Data Convergence Protocol) : permet de compresser
les données via des algorithmes de compression. Cela permet d’exploiter plus
efficacement les ressources radio. PDCP compresse les en-têtes des paquets TCP/IP.

Couche 3 : Cette couche gère la connexion de signalisation établie entre le réseau


d’accès et l’équipement usager, utilisée lors de l’établissement ou de la libération de la
communication [2].

[Link]. Les canaux

Trois types de canaux radio ont été définis dans l’UMTS, répartit en trois grandes classes
: les canaux physiques, les canaux logiques, les canaux de transport. Les canaux physiques
véhiculent l’information sur l’interface radio, les canaux logiques sont définis par la nature
de l’information transportée et les canaux de transport sont définis par les caractéristiques de
la transmission sur l’interface radio (voir Annexe).

1.3. La LTE
Dans le début des années 2000, plusieurs opérateurs mobiles et équipementiers télécoms
et organisations se sont réunies dans le but de développer un réseau de mobile, dit nouvelle
génération, basée sur la 3G et appelée LTE (Long Term Evolution). Le principal avantage de
ce nouveau standard, est de permettre des débits pouvant aller jusqu'à 1 Gigabit/s en vitesses
fixes (stable), et 100 Mbit/s pour les utilisateurs mobiles. Dans ce chapitre, nous allons
présenter un aperçu général sur le réseau 4G (LTE), son architecture, ses spécifications
techniques, plus précisément, la couche physique et principalement l’interface air et les
innovations apportées par rapport aux autres réseaux mobiles.

20
1.3.1. Architecture du système LTE [10]

D'un point de vue physique, l’architecture LTE/EPC est composée de crois domaines :
l'UE ; le réseau d'accès, appelé LTE ou E-UTRAN (Evolved-UTRAN) ; le réseau cœur,
appelé EPC.
L'architecture générale LTE/EPC est présentée sur la figure suivante :

Figure 1-5 : Architecture globale du système LTE

[Link]. L’Equipement Usager

Le domaine de l’UE comprend :

- L'équipement mobile (ME ou Mobile Equipment en anglais) assure la gestion de la


connexion avec le réseau mobile (établissement, reconfiguration, relâche) et la
continuité de service en mobilité, de façon transparence pour l'équipement terminal.
- L'équipement terminal (TE ou Terminal Equipment en anglais) désigne l'élément
physique sur lequel l'utilisateur accède aux services du réseau mobile. Il peut s'agir
d'un ordinateur personnel, d'un appareil photo ou de tout autre équipement
domestique utilisant un équipement mobile externe ou intégré pour l'accès au réseau
mobile. Il échange donc essentiellement des paquets de données IP avec le ME.

Pour pouvoir supporter différentes capacités matérielles, différents équipements


utilisateurs (UE) sont défini. Les catégories sont différenciées selon le débit maximal,
supporté, des données dans les deux liaisons montante et descendante.

21
[Link]. Le réseau d’accès E-UTRAN

L’E-UTRAN (Evolved Universal Terestrial Radio Access Network) désigne le réseau


d’accès à la LTE, il a une architecture horizontale vu que les contrôleurs des stations de base
ont été supprimés ; il est composé de stations de base nommées eNodeB, d’antennes radio et
des liaisons de transmission (en fibre optique, en cuivre ou en faisceaux hertziens). L'eNodeB
est connecté à l'EPC par l'intermédiaire de l'interface S1. Plus précisément, les flux du plan
usager sont gérés par l'interface S1-U définie entre S-GW et eNodeB tandis que les flux du
plan de contrôle sont pris en charge par l'interface S1-MME définie entre MME et eNodeB.

L’eNodeB : L’eNodeB joue le rôle du NodeB et du RNC (Radio Network Control) dans
les réseaux UMTS. Cela permet de réduire le délai d’accès et de simplifier la fonction
d’opération et de maintenance du réseau. L’eNodeB est responsable de la transmission et de
la réception radio avec l’UE.

L’interface X2 : c’est une interface logique. Elle est introduite dans le but de permettre
aux eNodeBs d’échanger des informations de signalisation durant le Handover ou la
signalisation, sans faire intervenir le réseau cœur.

L’interface S1 : c’est l’interface intermédiaire entre le réseau d’accès et le réseau cœur.


Elle peut être divisée en deux interfaces élémentaires : le S1-U (S1- Usager) entre l'eNodeB
et le SGW et S1-C (S1-Contrôle) entre l'eNodeB et le MME.

[Link]. Le réseau cœur EPC (Evolved


Packet Core)

Les principaux nœuds logiques de l'EPC sont :

S-GW (Serving Gateway) : tous les paquets IP à destination d'utilisateurs sont transférés à
travers la S-GW, qui sert de point d'ancrage pour les bearers de données lorsque l'UE est en
mobilité entre plusieurs eNodeB. La S-GW sert également de point d'ancrage pour
l'interfonctionnement avec d'autres technologies d'accès 3GPP comme I' UMTS ou le GPRS.

MME (Mobility Management Entity) : le MME est le nœud de contrôle qui gère la
signalisation entre l'UE et le réseau cœur. Le MME est responsable de la gestion des bearers
et

22
notamment des phases d'établissement, de reconfiguration et de relâche des bearers. Le MME
a en charge la gestion de la connexion de signalisation et de la sécurité entre le réseau et l'UE.

P-GW (Packet Data Network Gateway) : la P-GW a pour premier rôle d'allouer une
adresse IP à l'UE. Elle permet également de mettre en application la qualité de service. Elle
supporte la fonction appelée Deep Packet Inspection (en français, inspection approfondie des
paquets), qui analyse les paquets du plan usager, identifie la nature des flux, applique les
règles prédéfinies pour tous les clients ou par client en fonction de l’offre souscrite.

HSS (Home Subscriber Server): le HSS contient les informations de souscription de


l'utilisateur telles que le profil de QoS de l'abonné ou les restrictions d'accès en itinérance. Il
contient également les informations concernant les réseaux de données (PDN) auxquels
l'utilisateur peut se connecter.

PCRF (Policy and Control Rules Fonction) : le PCRF est un nœud optionnel au sein de
l'architecture EPC. Toutefois, il permet d'appliquer des règles de gestion évoluées sur le trafic
et la facturation de l'utilisateur en fonction de son offre. Pour mettre en œuvre ces règles, il
communique avec le PCEF (Policy Control Enforcement Function), fonction intégrée à la P-
GW. Le PCRF peut également indiquer lors de l'établissement d'une session ou en cours de
session les caractéristiques de qualité de service (QoS Class ldentifîer et débits) à appliquer
par le PCEF sur les flux de données.

1.3.2. L’interface radio du LTE

La couche physique utilise la technique OFDMA (Orthogonal Frequency Division


Multiple Access) pour le flux descendant (d’eNodeB vers UE) et la technique SC-FDMA
(Single Carrier-Frequency Division Multiple Access) pour le flux ascendant. Elle offre aussi
la possibilité d’utiliser trois modes de transmission: Full Duplex FDD (Frequency Division
Duplex), Half-Duplex FDD et TDD (Time Division Duplex).

[Link]. Principe de l’OFDM

L’OFDM (Orthogonal Frequency Division Multiplexing) est d’abord une technique


d’accès à répartition de fréquence à la seule différence qu’en OFDM, les sous porteuses se
chevauchent et son orthogonales. Les Systèmes OFDM subdivisent la bande passante (BP) en
plusieurs sous-porteuses étroites et transmettent les données en flux parallèles, qui sont

23
orthogonales entre-elles, ce qui leur permet d’être très proches les unes des autres
(Espacement entre sous-porteuses de 15 KHz). Un intervalle de garde est ajoute après chaque
symbole pour contrer les effets du multi trajets. Et aussi pour contrer les éventuelles
entrelacements, un préfixe cyclique (CP) qui représente la copie de la fin d’un symbole, est
recopie au début de celui-ci.

OFDMA (Orthogonal Frequency Division Multiple Access): En OFDMA, les


utilisateurs se voient attribuer un nombre précis de sous-porteuses pour un time slot
prédéterminé, appelées PRBs, (Physical Resource Blocks). Ces derniers ont chacun une
dimension temps et fréquence. La Répartition des PRBs est géré par une fonction de
planification à la station de base.

SC-FDMA (Single carrier Frequency Multiple Access) : En LTE Uplink, un concept


différent est utilisé en technique d'accès. Bien qu’on utilise encore une forme de technologie
OFDMA, l'implémentation est appelé Single Carrier Frequency Division Multiple Access
(SC- FDMA). Elle offre des performances et une complexité globale similaire à l’OFDMA
mais utilise en revanche une technique de multiplexage fréquentiel à une seule porteuse.

Figure 1-6: Un signal OFDM [11]

[Link]. Les bandes de fréquences

Le LTE utilise des bandes de fréquences hertziennes d’une largeur de : 1,4 MHz ; 3MHZ
; 5 MHZ ; 10 MHZ ; 15 MHZ et 20 MHz dans une plage de fréquences allant de 450 MHz à
3,8 GHz selon les pays. Les bandes utilisées en LTE FDD sont : 700 MHz, 800 MHz, 900
MHz, 1800 MHz, 2100 MHz, 2600 MHz. Le support pour les deux sens de transmission
utilise deux bandes passantes appariées dans le mode FDD (Frequency Division Duplex) ou
une seule

24
bande passante dans le mode TDD (Time Division Duplex). Pour le mode FDD, chaque sens
de transmission fonctionne simultanément dans la bande passante attribuée. Pour le mode
TDD, les deux sens de transmission fonctionnent dans la bande passante, chaque sens se
voyant attribuer une portion du temps.

[Link]. La structure de la trame


Une trame LTE dure 10 ms. Elle est découpée en 10 sous trames d'une durée de 1 ms. Chaque Sous trame est
divisée en deux slots de 0,5ms. Un slot dure donc 0,5 ms, durée pendant laquelle est transmis 7 symboles par bande
OFDM. Un bloc élémentaire en LTE utilise donc un spectre de 12*15kHz=180 kHz. On l'appelle Bloc Ressource ou
RB, les 12 bandes de 15 kHz. Par conséquent, 7 symboles *12 bandes = 84 symboles sont transmis en 0,5 ms. Le LTE
regroupe un bloc de données à transmettre en 12 bandes de 15 kHz (technique OFDM).

Figure 1-7: Structure de la trame LTE [12]

[Link]. La modulation et le MIMO

La modulation utilisée dans le LTE est une modulation adaptative (AMC), qui varie en
fonction de la distance qui sépare l’abonné de l’eNodeB. L'Adaptive Modulation and Coding
(AMC) est une technique de modulation/codage adaptative de l'information, utilisée
notamment dans les transmissions radio, sur les réseaux de téléphonie mobile WiMAX,
UMTS (HSDPA), LTE et depuis 2012 sur les faisceaux hertziens. Elle consiste à adapter les
codes correcteurs et les modulations utilisés en fonction de la qualité du signal. Chaque sous-
porteuse est modulée à l'aide de différents niveaux de modulation : QPSK (4-QAM), 16-
QAM, 64- QAM. Chacune de ces modulations est utilisée pour un lien précis tel que :

25
- Modulations Downlink : QPSK, 16QAM et 64QAM
- Modulations Uplink : QPSK et 16QAM Uplink-downlink

Figure 1-8: Constellation pour une modulation 16 QAM et 64 QAM [13]

La technologie d’antenne MIMO est l’une des technologies clés utilisé par LTE. Il s’agit
d’une technologie dans laquelle plusieurs antennes sont utilisées à la fois à l’émetteur et au
récepteur pour améliorer la communication (permettant des transferts de données à plus
longue portée et avec un débit plus élevé qu’avec des antennes utilisant la technique SISO
(Single- input Single-output)).

[Link]. Les canaux

Dans le but d’être flexible et permettre différents schéma pour la transmission de


données, les spécifications de l’E-UTRAN ont introduit plusieurs types de canaux : les
canaux logiques, les canaux physiques et les canaux de transport (voir annexe).

1.4. Etude de l’existant


Dans cette partie après avoir présenté le contexte de notre étude et l’architecture
existante, nous introduirons la problématique ainsi que les différents objectifs à atteindre.

26
1.4.1. Contexte

Fournir une bonne qualité de service à son client est l’une des préoccupations majeures
de MTN Cameroun. C’est dans ce sens qu’elle est portée sans cesse dans l’optimisation de
ses performances afin que ses abonnés aient la plus haute satisfaction possible. En nous
inscrivant dans la même lancée, lors de notre passage à Huawei Cameroun, qui est une
entreprise partenaire de MTN, et qui a la charge d’assurer la maintenance de son réseau, il
nous a été proposés de travailler sur un paramètre clé, indicateur de la bonne qualité de
service : la latence. C’est un paramètre qui, bien optimisé, permet aux utilisateurs de pouvoir
jouir comme il se doit des caractéristiques et performances, des réseaux 3G et 4 G.

Figure 1-9 : Logo de MTN [14]

1.4.2. Architecture

L’architecture du réseau mobile de MTN Cameroun est calquée sur les normes en
vigueurs définies par le 3GPP (3rd Generation Paternship Project). On y retrouve les réseaux
de 2e, 3e et de 4e génération. Il est composé de plus de 1000 sites répandus sur toute l’étendue
du territoire camerounais.

27
Figure 1-10: Architecture générale de MTN Cameroun [15]

Le réseau d’accès ou RAN (Radio Access Network) de MTN Cameroun est basé sur le
protocole IP. Les sites communiquent entre eux, et avec le réseau cœur, grâce à des adresses
IP sources et destinations. Dans ce réseau nous retrouvons des sites qui agrègent d’autres
sites appelés communément « cluster », et d’autres non appelé « end site ». Le routage
appliqué dans la partie accès de même que dans la partie cœur est adossé sur le protocole
MPLS.

1.4.3. Problématique

Du fait du dynamisme du réseau et de sa densité sans cesse croissante, son optimisation


régulière est impérative. L’un des indicateurs de la bonne qualité du service fourni par MTN
est la latence. Il a été observé que cette latence est élevée pour les paquets 3G et 4G et ne sont
pas en accord avec les objectifs fixés par l’entreprise. En effet, à notre arrivé, la latence des
données pour les paquets 3G était de 151.60 ms et 138.70 ms pour les paquets 4G. Ces
valeurs étaient pas bonnes par rapport aux objectifs fixés par l’entreprise Tableau 1-5. Le
problème posé est donc « Comment réduire la latence des données dans les réseaux 3G et
4G ? »

28
Tableau 1-5 : Objectifs en termes de latence fixes par MTN Cameroun [17]

Technologie Objectifs
Très bon < 150 ms
3G Bon 150-200 ms
mauvais >200 ms
Très bon < 70 ms
4G Bon 70-100 ms
Mauvais >100 ms

Cette problématique peut se diviser en différents sous problèmes dont nous nous
attellerons à résoudre :
- Comment calculer la latence du réseau ?
- Quels sont les différents compteurs qui nous permettraient d’avoir la latence en
temps réel ?
- Identifier quel segment du réseau favorise l’augmentation de la latence
- Quels sont les différents facteurs susceptibles d’influencer la latence ?
- Quelles sont les différentes actions à mener afin de remédier aux problèmes de
latence ?

1.4.4. But et objectifs

Le but recherché étant la réduction du temps de latence des paquets du réseau afin
d’améliorer la qualité de l’expérience de l’utilisateur final, nous nous sommes définit
plusieurs objectifs à atteindre de manière séquentielle qui sont les suivants :
- Trouver un compteur qui nous permettra de mesurer la latence ;
- Configurer ce paramètre dans les stations de base afin de pouvoir capturer
effectivement sa valeur en temps réel ;
- Identifier les problèmes qui pourraient causer une augmentation de la latence ;
- Apporter des solutions et recommandations à ces problèmes.

1.4.5. Besoins fonctionnels et non-fonctionnels

De manière fonctionnelle, notre solution doit :


- Pouvoir permettre de mesurer la latence du réseau ;

29
- Pouvoir contribuer à la détection des délais de transfert de paquets élevés et des
sites concernes ;
- Proposer une configuration optimale du réseau afin de réduire au plus le temps de
latence ;
- Diminuer le temps de latence globale dans le réseau.

Comme besoin non fonctionnel nous devons proposer une solution qui pourrait nous
permettre de prédire une éventuelle hausse du temps de latence dans le réseau afin d’y
remédier de manière préventive.

Conclusion

Dans ce premier chapitre, nous avons présenté l’évolution des réseaux mobiles en
général, leur technologie et leurs différentes caractéristiques. Nous avons mis un accent
particulier sur les réseaux de 3e et 4e génération car faisant partie de l’objet de notre travail.
Une étude de l’existant nous a permis de ressortir la problématique et de déterminer les
différents objectifs à atteindre.

30
CHAPITRE II : ETAT DE L’ART

31
Introduction
Pour mieux aborder le sujet, il est important de connaitre les différents travaux relatifs
à notre étude déjà effectue, et de s’assurer de la maitrise de certains concepts préalables.
C’est dans cette optique que cette partie est consacrée à la revue de la littérature sur la
latence, à la connaissance approfondie de certains concepts en UMTS et en LTE ainsi qu’à la
qualité de service.

2.1. Généralités sur les réseaux IP


Dans cette partie nous présenterons l’architecture TCP/IP en le comparant avec le
modèle OSI. Nous présenterons également le format d’un paquet IP, ses différents champs, et
enfin nous parlerons des protocoles de routage IP.

2.1.1. Généralités sur l’IP

Le réseau d’accès de l’’entreprise MTN Cameroun étant basé sur le protocole IP, un
rappel sur ce dernier nous semble important. C’est dans cette optique que cette partie est
dédiée aux généralités sur le protocole internet.

[Link]. IP, Internet Protocol


TCP/IP, du nom de ses deux protocoles principaux (TCP, Transmission Control Protocol
et IP, Internet Protocol), est un ensemble de protocoles permettant de résoudre les problèmes
d’interconnexion en milieu hétérogène. À cet effet, TCP/IP décrit un réseau logique (réseau
IP) au-dessus du ou des réseaux physiques réels, auxquels sont effectivement connectés les
ordinateurs. Précédant le modèle OSI, TCP en diffère fortement, non seulement par le
nombre de couches, mais aussi par l’approche. Le modèle OSI spécifie des services
(approche formaliste), TCP/IP des protocoles (approche pragmatique). [23]

32
Figure 2-1 : Comparaison des modèles OSI et TCP/IP [24]

Le protocole IP qui tient sa nécessite d’interconnecte les réseaux (Interconnection


Network) est un protocole de niveau réseau. Il est responsable de la transmission des données
en mode connexion ; de l’adressage et le routage des paquets entre stations par
l’intermédiaire des routeurs ; de la fragmentation des paquets si nécessaires.

[Link]. Format d’un paquet IP


Le paquet IP, ou datagramme IP, est organisé en champs de 32 bits

- Version (4 bits) : il s'agit de la version du protocole IP.


- Longueur d'en-tête, ou IHL pour Internet Header Length (4 bits) : il s'agit du
nombre de mots de 32 bits constituant l'en-tête (nota : la valeur minimale est 5). Ce
champ est codé sur 4 bits.
- Type de service (8 bits) : indique comment le datagramme doit être traité.
- Longueur totale (16 bits) : il indique la taille totale du datagramme en octets. La
taille de ce champ étant de 2 octets, la taille totale du datagramme ne peut dépasser
65536 octets. Il permet de déterminer où sont situées les données.
- Identification, drapeaux (flags) et déplacement de fragment sont des champs qui
permettent la fragmentation des datagrammes.
- Durée de vie appelée aussi TTL, pour Time To Live (8 bits) : ce champ indique
le nombre maximal de routeurs à travers lesquels le datagramme peut passer. Ainsi
il est décrémenté à chaque passage dans un routeur et quand celui-ci atteint la valeur
critique de 0, le routeur détruit le datagramme. Cela évite l'encombrement du réseau
par les datagrammes perdus.

33
- Protocole (8 bits) : En notation décimale, il permet de savoir de quel protocole est
issu le datagramme : ICMP : 1 ; IGMP : 2 ; TCP : 6 ; UDP : 17
- Somme de contrôle de l'en-tête, ou en anglais header checksum (16 bits) : ce
champ contient une valeur codée sur 16 bits qui permet de vérifier l'intégrité de l'en-
tête afin de déterminer si celui-ci n'a pas été altéré pendant la transmission.
- Adresse IP source (32 bits) : Ce champ représente l'adresse IP de la machine
émettrice, il permet au destinataire de répondre.
- Adresse IP destination (32 bits) : adresse IP du destinataire du message
- Données : d’une taille maximum de (65536 octets) – (les octets d’entête et
d’options). Elle véhicule la PDU de couche supérieure (généralement un segment
TCP ou UDP)

Figure 2-2: Format d'un paquet IP [24]

2.1.2. Les protocoles de routage

Un protocole de routage est un ensemble de processus, d’algorithme et de messages


standardisés utilisé pour échanger, entre routeurs, des informations sur des réseaux, des routes
ou encore des préfixes. Il existe deux grands types de protocoles de routages : protocoles de
routages statique et dynamique. [28]

[Link]. Routage statique et dynamique


Routage statique : Dans le routage statique, les routeurs sont configures un à un au sein
du réseau. Les routes statiques sont subdivisées en deux : les routes explicites et les routes
par défaut. La route explicite spécifie le chemin vers une destination connue et la route par
défaut permet d’atteindre une destination inconnue.

34
Routage dynamique : Dans ce type de routage, les informations relatives à la route sont
mises à jour automatiquement entre les routeurs. Les protocoles de routage dynamiques sont
classés en deux familles, les IGP et les EGP.

- Les IGP (Interior Gateway Protocol) : Les IGP assurent le routage interne à un
système autonome. Ces protocoles sont clases en deux catégories : les protocoles à
vecteur de distance et les protocoles à état de liens.
 Les protocoles de routage à vecteur de distance (RIP, IGRP) déterminent
la direction (vecteur) et la distance vers un point du réseau. La distance peut
être représentée par le nombre de sauts vers cette liaison. Ces protocoles
utilisent les algorithmes du cout minimum de Bellman-Ford.
 Les protocoles à état de liens (OSPF, ISIS) ont été conçus pour pallier les
limitations des protocoles de routage à vecteur de distance. Chaque routeur
calcule de manière fréquente tous les plus courts chemins de tous les nœuds
vers lui-même et met à jour sa table de routage. Les protocoles à états de liens
utilisent les algorithmes du plus court chemin Dijkstra (Short Path First).

- Les EGP (Exterior Gateway Protocol) : Ils assurent le routage entre des systèmes
autonomes différents. Exemple le BGP (Border Gateway Protocol).

[Link]. Les algorithmes de Dijkstra et de


Bellman Ford
Algorithme de Dijkstra

En théorie des graphes, l'algorithme de Dijkstra (prononcé [dɛɪkstra]) sert à résoudre le


problème du plus court chemin. Il permet, par exemple, de déterminer un plus court chemin
pour se rendre d'une ville à une autre connaissant le réseau routier d'une région. Plus
précisément, il calcule des plus courts chemins à partir d'une source dans un graphe orienté
pondéré par des réels positifs. On peut aussi l'utiliser pour calculer un plus court chemin entre
un sommet de départ et un sommet d'arrivée. L'algorithme porte le nom de son inventeur,
l'informaticien néerlandais Edsger Dijkstra, et a été publié en 1959.

35
Figure 2-3: Algorithme de Dijkstra [11]

Algorithme de Bellman Ford

L'algorithme de Bellman-Ford, aussi appelé algorithme de Bellman–Ford–Moore1, est un


algorithme qui calcule des plus courts chemins depuis un sommet source donné dans un
graphe orienté pondéré. Il porte le nom de ses inventeurs Richard Bellman et Lester Randolph
Ford junior (publications en 1956 et 1958), et de Edward Forrest Moore qui le redécouvrit en
1959. Contrairement à l'algorithme de Dijkstra, l'algorithme de Bellman-Ford autorise la
présence de certains arcs de poids négatif et permet de détecter l'existence d'un circuit
absorbant, c'est-à- dire de poids total strictement négatif, accessible depuis le sommet source.

Figure 2-4: Algorithme de Bellman-Ford [11]

2.1.3. Les supports de transmissions

L’infrastructure d’un réseau, la qualité de service offerte, les solutions logicielles à


mettre en œuvre dépendent largement des supports de transmission utilisés. Les supports de
transmission exploitent les propriétés de conductibilité des métaux (paires torsadées, coaxial),

36
celles des ondes électromagnétiques (faisceaux hertziens, guides d’onde, satellites) ou encore
celles du spectre visible de la lumière (fibre optique).

La paire torsadée : La paire torsadée ou symétrique est constituée de deux conducteurs


identiques torsadés. Les torsades réduisent l’inductance de la ligne (L). Généralement
plusieurs paires sont regroupées sous une enveloppe protectrice appelée gaine pour former un
câble. Elles sont utilisées pour la desserte locale des raccordements téléphoniques, liaisons
d’accès aux réseaux de données et surtout les réseaux locaux et permettent des débits
considérables : 100 Mbit/s sur 100 m, voire 1 Gbit/s. [25]

Le câble coaxial : Une paire coaxiale ou câble coaxial est constituée de deux
conducteurs concentriques maintenus à distance constante par un diélectrique. Le câble
coaxial possède des caractéristiques électriques supérieures à celles de la paire torsadée. Il
autorise des débits plus élevés et est peu sensible aux perturbations électromagnétiques
extérieures. Le taux d’erreur sur un tel câble est d’environ 10–9. En transmission numérique,
notamment dans les réseaux locaux, on utilise des câbles d’impédance 50Ω à des débits pouvant
atteindre 10 Mbit/s sur des distances de l’ordre du kilomètre. [25]

Les faisceaux hertziens : Un conducteur rectiligne alimenté en courant haute fréquence


ou radiofréquence peut être assimilé à un circuit oscillant ouvert. Un tel circuit ou antenne
d’émission rayonne une énergie (onde électromagnétique). Cette énergie électromagnétique
recueillie par un autre conducteur distant ou antenne de réception est transformée en un
courant électrique similaire à celui d’excitation de l’antenne d’émission (théorème de
réciprocité). La figure 4.26 illustre le principe d’une liaison radioélectrique. Les ondes
radioélectriques peuvent, dans certains cas, remplacer avantageusement les liaisons filaires
(cuivre ou optique). Les faisceaux hertziens ou câbles hertziens, par analogie aux réseaux
câblés peuvent être analogiques ou numériques. Les débits peuvent atteindre 155 Mbit/s. [25]

Figure 2-5: Plage de fréquences des ondes électromagnétiques et leur utilisation [26]

37
La fibre optique : Une fibre optique est un fil de verre ou en plastique très fin qui a la
propriété de conduire de la lumière. Elle offre un débit d’information nettement supérieur à
celui des câbles coaxiaux et peut servir de support à un réseau large bande. Elle est compose
d’un cœur, d’une gaine et d’une couche de protection. Il existe deux types de fibre : la fibre
monomode et la fibre multimode. Ses principaux avantages sont une faible atténuation, une
grande bande passante (>10 GHz), insensibilité aux perturbations électromagnétiques, liaison
non détectable, Isolation électrique. [27]

2.2. Généralistes sur la QoS et la latence


Dans cette partie nous parlerons de la qualité de service en général et de la latence en
particulier.

2.2.1. QoS : Types et définitions

La qualité de service (QDS) ou Quality of service (QoS) est la capacité de transmission


dans de bonnes conditions d’un certain nombre de paquet dans une connexion entre un
émetteur et un récepteur. Elle regroupe un ensemble de technologies mise en œuvre pour
assurer des débits suffisants et constants sur tous les types de réseaux. En effet, l'évaluation
de l'état du réseau, la détection des disfonctionnements et l’analyses des remontées terrain,
sont des tâches primordiales pour que l'opérateur puisse avoir une maîtrise sur le réseau et
mener à bien ses actions et interventions de maintenance. Le but de la QoS est donc
d’optimiser les ressources du réseau et de garantir de bonnes performances aux applications.
Nous pouvons classer la QoS en trois types : La qualité de service intrinsèque ; La qualité de
service perçue ; La qualité de service évaluée [19].

[Link]. La qualité de service intrinsèque


Ce type de QoS est directement fourni par le réseau lui-même. La QoS intrinsèque est
décrite par des paramètres objectifs tels que le délai et les pertes des paquets. [19]

[Link]. La qualité de service perçue


Appelé aussi qualité d’expérience ou en anglais Quality of Experience (QoE) et qui
représente la qualité ressentie par l’utilisateur. En général la QoE est utilisée pour évaluer les
applications à temps réels telles que la qualité d’audio et de vidéo. La qualité de service
perçue

38
est liée aux performances du réseau, mais elle est mesurée par une moyenne attribuée par les
utilisateurs selon leurs opinions sur le service offert.

Généralement, la méthode la plus utilisée est le Mean Opinion Score (MOS) qui
représente une technique où les utilisateurs accordent une note, valeur entre 1 (qualité très
mauvaise) et 5 (qualité excellente) à une application selon leurs perceptions de la qualité.
Ensuite, une moyenne est calculée des notes de ces derniers. Ainsi, la note attribuée par les
utilisateurs peut concerner la disponibilité du service, le temps de la réponse de l’application.
Par ailleurs, il n’existe pas fortement une correspondance entre la QoS intrinsèque et la
qualité perçue vu que cette dernière est très subjective (Hardy, 2001). [19]

[Link]. La qualité de service évaluée


La qualité de service évaluée est traduite par la volonté d’un utilisateur de garder un
service spécifique ou non. Ce type de qualité dépend fortement de la qualité d’expérience et
d’autres critères tels que le prix, l’assistance offerte avec le service et le marketing. [19]

2.2.3. Les paramètres indicateurs de la QoS

Au sein d’un réseau donné, la qualité de service est évaluée en fonction des différents
équipements qui composent ce réseau, ainsi que du trafic qui y circule, etc. Des applications
multimédia telles que la voix-IP ou la vidéo à la demande, en plus des applications
classiques, seront de plus en plus utilisées dans ce type de réseaux. Ces applications
multimédia nécessitent un niveau minimal de qualité de service en termes de débit, de délai,
de gigue ou de taux de pertes de paquets. [20]

Le Débit : Il définit le volume maximal pouvant être atteint pour la transmission de


l’information (bits) par unité de temps (s) dans une communication entre un émetteur et un
récepteur.

La perte de paquets : Elle correspond aux octets perdus lors de la transmission des
paquets. Elle s’exprime en taux de perte. Plutôt rare, Elle correspond au nombre de paquet de
donnés qui n’ont pas étaient reçu par la destination lors d’une communication. Cela peut être
causé par plusieurs facteurs, la plupart du temps due à un encombrement du réseau.

Le délai de transit (La latence) : C’est le délai de traversée du réseau, d’un bout à
l’autre, par un paquet. Les différentes applications présentes dans un réseau n’auront pas le
même degré

39
d’exigence en fonction de leur nature : faible, s’il s’agit d’une messagerie électronique ou de
fichiers échangés, ce degré d’exigence sera fort s’il s’agit de donnés "voix". La latence
dépend du temps de propagation (fonction du type de média de transmission), du temps de
traitement (fonction du nombre d’équipements traversés) et de la taille des paquets (temps de
sérialisation).

La gigue : Désigne les variations de latence des paquets. La présence de gigue dans les
flux peut provenir des changements d’intensité de trafic sur les liens de sorties des
commutateurs. Plus globalement, elle dépend du volume de trafic et du nombre
d’équipements sur le réseau. [20]

2.2.4. La latence

La latence peut être définie comme le temps de transmission d’un paquet sur tout son
chemin réseau. Le chemin que parcours un paquet est généralement le suivant : Le paquet est
créé par une application, confié au système d’exploitation, transmis à une carte d’interface
réseau (NIC), codé, acheminé sur un support physique (cuivre, fibre, air), reçu par un
dispositif intermédiaire (commutateur, routeur), analysé, retransmis sur un autre support, etc.
Les mesures les plus courantes sont effectuées avec un ‘’Ping’’ qui mesure le temps de
transmission total des paquets (RTT, round-trip-time) complet.

On distingue deux types de latence : La latence du plan de contrôle ; La latence du plan


usager.

La latence du plan de contrôle représente le temps nécessaire pour établir une connexion
et accéder au service. La latence du plan usager représente le délai de transmission d’un
paquet au sein du réseau une fois la connexion établie. De manière générale, la latence traduit
donc la capacité du système à traiter rapidement des demandes d’utilisateurs ou de services.
Une latence forte limite l’interactivité d’un système et s’avère pénalisante pour l’usage de
certains services de données. L’UMTS et ses évolutions HSPA offrent une latence du plan
usager supérieure à 70 ms, valeur trop importante pour offrir des services tels que les jeux
vidéo en ligne. Le LTE vise une latence du plan usager inférieure à 5 ms dans des conditions
de faible charge du réseau et pour des paquets IP de petite taille.

40
Tableau 2-1: Débit et Latence des différentes générations

Génération Débit Latence


2G 100-400 300-1000
Kbit/s ms
3G 0.5-5 100-500
Mbit/s ms
4G 1-50 Mbit/s <100ms

2.2.5. La QoS dans l’interface radio de la 3G et 4G

Dans les réseaux mobiles 3G et 4G, la QoS peut également être implémentée. Dans
cette partie nous présenterons la QoS dans l’interface radio de la 3G et de la 4G.

[Link]. Gestion de la QoS en 3G


Les spécifications du 3GPP définissent quatre classes de QoS pour le transport des
applications multimédia dans l’UMTS. La différence entre ces classes se base essentiellement
sur des exigences sur le délai du transfert, le taux d’erreur binaire et la priorité de circulation.
[36]

- Services conversationnel : Le meilleur exemple de cette classe est la téléphonie. Elle


peut être aussi utilisée pour les nouvelles applications Internet à aspect conversationnel
en temps réel comme la voix sur IP. Cette classe exige des contraintes strictes sur le délai
de transfert des paquets ainsi que sur la variation du délai de transfert.

- Services streaming : Cette classe est utilisée pour les flux unidirectionnels comme les
applications de diffusion vidéo ou audio. Il n’existe pas de contraintes strictes sur le délai
de transfert pour les applications « streaming ». Par contre, la variation du délai est un
paramètre important parce qu’il est perceptible par l’utilisateur.

- Services interactifs : Cette classe est utilisée pour les applications qui nécessitent une
interaction entre les deux extrémités de la communication. Un exemple d’application de
cette classe est la navigation web. Cette classe est de type transactionnel. Elle nécessite
une certaine contrainte sur le délai de transfert des paquets parce que l’utilisateur attend
une réponse dans une fenêtre de temps. Cette contrainte n’est pas stricte puisque ce sont
des applications non temps réel. En revanche, cette classe doit assurer un taux de perte
des

41
paquets assez faible parce que les applications transportées par cette classe sont très
sensibles aux pertes.

- Services background : C’est la classe la moins exigeante en termes de délai de transfert.


Les applications transportées par cette classe sont des applications dont l’utilisateur
n’attend pas les paquets dans une période limitée citant comme exemple les e-mails et les
SMS. Cette classe est très sensible à la perte de paquets.

Figure 2-6: Les différentes classes de services en UMTS [14]

[Link]. Gestion de la QoS en 4G


Le développement du réseau Internet et le nombre d’utilisateurs pouvant se connectés à
ce réseau impose le recours à des niveaux importants de QoS. Dans cette perspective,
plusieurs groupes de travail ont vu le jour pour les réseaux 4G. Les nouveaux besoin en
termes de mobilité des utilisateurs et la croissance des réseaux permettant le nomadisme des
utilisateurs ont fait migrer le problème vers la des réseaux sans fil.

· Le Bearer EPS est un équivalent du contexte PDP en 2G/3G. Il représente un concept


logique qui est établi entre le terminal et la PDN GW et qui agrège plusieurs flux data
transportés entre les deux entités. Il permet d’identifier de manière unique des flux de trafic
recevant la même qualité de service entre le terminal et la PDN GW. Tous les flux associés à
un bearer EPS reçoivent les mêmes traitements en termes de forwarding (expédition des
paquets). Il existe deux types de bearers EPS :

42
- Le Default bearer, le premier bearer établi lorsque le terminal se connecte à un
PDN, il reste actif durant toute la connexion.
- Le Dedicated bearer, établi lorsqu'il est nécessaire de fournir la QoS à un service
spécifique (comme la VoIP, la vidéo, etc.). [22]

Le bearer par défaut : Un bearer par défaut ou default bearer est établi pour chaque UE,
lors de la procedure d'enregistrement au réseau. Une adresse IP est allouée à l'UE par la P-
GW. Ce bearer reste établi pendant la durée de la connectivité PDN et fournit à l'UE une
connectivité IP permanente. Les valeurs de ses paramètres sont définies par le MME, en
fonction des données de souscription de l'utilisateur fournies par le HSS. Le bearer par défaut
est systématiquement sans débit garanti (N-GBR) car il est établi de manière permanente et
une garantie de service impliquerait la réservation permanente de ressources.

Le bearer dédié : Les bearers dédiés sont établis à n’importe quel moment après la
procédure d’enregistrement pour que l’utilisateur puisse profiter de services nécessitant une
QoS spécifique. Les supports dédiés sont les supports secondaires créés au-dessus du support
par défaut existant. Ils partagent l'adresse IP précédemment établie par le porteur par défaut,
donc le support dédié ne nécessite pas d'occuper adresse IP supplémentaire. Par ailleurs, un
même utilisateur peut gérer des bearers dédiés établis avec un ou plusieurs PDN et donc
potentiellement avec un ou plusieurs P-GW. Les supports dédiés sont principalement utilisés
en tant que services GBR (débit garanti) bien qu'ils puissent également être un service non-
GBR. Un bearer avec débit garanti (GBR) est alloué principalement aux services dits temps
réel tels que la voix ou le streaming vidéo. Toutefois, on peut aussi imaginer l'allocation d'un
bearer GBR à un service de téléchargement pour des utilisateurs ayant souscrit à des
abonnements dits premium. Au sein du réseau, une ressource est dédiée pendant toute la
durée de vie du bearer EPS avec débit garanti. Quant aux bearers sans debit garanti (non-
GBR), ils sont principalement alloués aux services non temps-réel tels que le téléchargement
de données. Ces bearers n'ont pas de ressource dédiée au sein du réseau.

43
Figure 2-7: La QoS en LTE [35]

Le QCI (QoS Class ldentifier) : Le QCI est un paramètre défini au sein du système
LTE/EPC pour différencier les Qualités de service entre les flux de services différents. L'UE
et les nœuds du réseau tels que l'eNodeB, la SGW, la P-GW déterminent le traitement à
appliquer aux paquets de données d'un bearer EPS en fonction de la valeur de QCI définie
pour ce bearer. 9 QCI sont identifiés, chacun avec ses caractéristiques: type de ressource
(GBR/non- GBR), priorité, délai de transmission et taux d’erreur. L'objectif de ces QCI
normalisés est d'assurer que les services reçoivent le même niveau de QoS de bout-en-bout
dans un environnement impliquant plusieurs constructeurs d'infrastructure. Ces
caractéristiques ne sont pas transmises explicitement dans la signalisation entre les
équipements seules les valeurs de QCI le sont.

GBR et N-GBR : Pour un support EPS, avoir un type de ressource GBR signifie que la
bande passante du support est garantie. Evidemment, un support EPS de type GBR a un
"débit binaire garanti" associé comme l'un de ses paramètres de QoS. Seul un support EPS
dédié peut être un support de type GBR et aucun support EPS par défaut ne peut être de type
GBR. Le QCI d'un support EPS de type GBR peut aller de 1 à 4. Pour un support EPS, avoir
un type de ressource non-GBR signifie que le support est un support de type best-effort et que
sa bande passante n'est pas garantie. Un support EPS par défaut est toujours un support non-
GBR, alors qu'un support EPS dédié peut être GBR ou non- GBR. Le QCI d'un support EPS
non-GBR peut aller de 5 à 9.

44
Figure 2-8: Différents QCI [35]

2.3. Modèles de gestion de la QoS


La plupart des réseaux IP sont basés sur des modèles de gestion de la QoS. Ces modèles
se diffère par le niveau de garantit qu’il offre ou non de la QoS. Les différents modèles
proposés pour le management de la QoS dans les réseaux de nouvelles générations sont :
IntServ et DiffServ.

2.4.1. Le modèle IntSerV (Integrated Services)

Ce modèle a été défini par l’IETF dans le but de proposer une architecture de service
intégré. L’objectif principal de ce modèle est d’éviter la congestion en utilisant une technique
de réservation de ressources avant de commencer le transfert de données. Ce modèle prend en
charge la qualité de service sans changer le protocole IP et son implémentation se fait dans
les entités du réseau (routeurs). Le modèle IntServ utilise le protocole RSVP (Resource
reSerVation Protocol) pour signalisation de bout en bout. Le principe de fonctionnement de
ce protocole est la réservation de ressource de bout en bout avant tout transfert de données.
Une fois la réservation des ressources est effectuée, le flux qui traverse une entité et qui fait
l’objet d’une réservation sera identifié en fonction de l’adresse et le port source et destination,
ainsi que le protocole de transmission utilisé. Par ailleurs, les routeurs doivent introduire
quatre nouvelles fonctionnalités :

- L’ordonnanceur de paquets : qui détermine l’ordre de service des paquets envoyé


;
- Les classificateurs de paquets : qui classent les flots des paquets dans les classes
spécifiques (BE, CL ou GS) ;

45
- Le contrôle d’admission : permets de vérifier l’admissibilité d’un nouveau flot et
d’autoriser son arrivée munie d’une certaine QoS sans affecter les flots existants ;
- Le protocole de réservation de ressource RSVP : ce protocole permet la
signalisation hors bande et établir des réservations de bande passante sur chaque
routeur traversé dans le réseau.

Figure 2-9: Illustration du modèle IntServ [29]

2.4.2. Le modèle DiffSerV (Differenciated Services)

Ce modèle a été proposé pour résoudre le problème de complexité d’IntServ.


Contrairement à IntServ qui effectue le traitement de flux de bout en bout, le modèle DiffServ
traite de flux au niveau des routeurs situés aux extrémités du réseau (routeurs de frontière) en
agrégeant le flux par classe. Dans ce mode, chaque classe de service est identifiée par une
valeur dans l’entête IP qui a été redéfini et renommé par DSCP (Differenciated Service Code
Point). Il s’agit du champ TOS () pour IPv4 et TC (Traffic Class) pour IPv6. Chaque classe
de service possède ces caractéristiques en termes de métrique de la QoS (délai, gigue, perte).
Ce pendant trois classes de services ont été définies dans ce modèle chacun d’eux soumis à un
traitement spécifique :

- Transfert accéléré (EF, Enhanced Forwarding) : Cette classe de service est


applicable sur un trafic qui nécessite un faible retard, une faible gigue, et des faibles
taux de pertes, un débit relativement constant et une transmission rapide ;

46
- Transfert assuré (AF, Assurance Forwarding) : Cette classe de service assure la
transmission quand il ne dépasse pas la largeur de bande maximale autorisée. Si le
trafic généré dépasse la bande passante autorisée, ce dernier sera divisé en quatre
classes AF ;
- Best Effort (BE) : Cette classe de service est applicable aux services insensibles à
délai, gigue, et perte de paquets.

Figure 2-10: Illustration du modèle DiffServ [29]

Apres une présentation de ses deux modèles de gestion de la QoS, une étude comparative
entre les deux a été faite et le résumé est présenté dans le tableau ci-dessous.

Tableau 2-2: Comparaison des modèles IntServ et DiffServ

IntServ DiffSev
S'adapte aux réseaux peu
Réseau supporte S'adapte aux réseaux denses
denses
Exigences d’une
Le nœud concerne n'a besoin
connaissance du reseau connaissance point à
de connaitre que ses voisins
point des nœuds
Nécessité un SLA entre
Nécessité du SLA Ne nécessite pas de SLA
différents nœuds du réseau
Sa lourdeur le rend Facile à mettre à mettre en
Mise e place
difficile à mettre en place place

47
2.4. Méthodes d’optimisation de la latence
Dans cette partie nous présentons différents travaux qui traitent de la latence dans les
réseaux 3G et 4G. Notamment deux articles, paru en 2018, l’un d’Ashish Kurian et l’autre de
Xiaolin accompagné par un groupe tous de l’IEEE.

2.4.1. Ashish Kurian, « Latency analysis and Reduction in a 4G


Network »

Ce travail a porté sur l’identification des facteurs qui affectent la latence des paquets
dans les réseaux 4G afin de prévoir ou d’anticiper ce qui pourrait également causer une forte
latence dans les réseaux 5G à venir et d’y remédier. Il voulait aussi étudier si l’architecture
actuelle de la 4G pourrait permettre d’atteindre les objectifs, en termes de latence, fixés par le
réseau 5G. De son étude il a identifié 6 facteurs pouvant affecter la latence du réseau et aussi
il a calculé l’impact de chaque facteur sur la latence du réseau. Ces facteurs sont : La charge
du réseau ; La position de l’utilisateur par rapport à l’eNodeB ; La taille du paquet ; Le débit
du paquet ; La planification du réseau d’accès ; Si l’Edge computing permet le routage au
niveau du cœur du réseau.

Au bout de son étude il évalua deux techniques pouvant permettre la réduction de la


latence du réseau.

La première est la programmation différenciée dans le réseau radio. Avec différents


niveaux de différenciation, la valeur par laquelle l'utilisateur considéré est priorisé par rapport
aux autres utilisateurs varie pour étudier les améliorations de latence. Dans une planification
différenciée, la latence ressentie par le réseau central n'est pas affectée. Dans la deuxième
technique de réduction de latence, l’Edge Computing (EC) est utilisé pour réduire la latence
du réseau central. Dans EC, le service de données pour les appareils connectés au réseau
mobile est fourni dans le réseau d'accès radio sans avoir à passer par l'ensemble du réseau
central. Il peut permettre d'accélérer les services et applications, augmentant ainsi la réactivité
des services.

48
Figure 2-11:Analyse de l'impact de la distance du mobile à l'eNodeB sur la latence
d’Ashish [12]

Cette figure illustre l’un des tests effectué au cours de ce travail qui consiste à mesurer la
variation de la latence en fonction de la position du mobile par rapport à l’eNodeB.

Au bout de son étude, il arriva à la conclusion selon laquelle l’on ne peut pas, avec
l’architecture actuelle des réseaux 4G, atteindre les exigences en termes de latence des
réseaux 5G, et qu’un nouveau design architectural est nécessaire.

2.4.2. Xiaolin Jiang et une équipe de l’IEEE, « Low-latency Networking:


Where Latency Lurks and How to Tame It »

Dans cet article, il est montré que pour réaliser des réseaux à faible temps de latence, il
est important de déterminer où et comment la latence se produit et quelles méthodes peuvent
aider à la réduire. Ce groupe a examiné comment le retard accumule dans la couche physique
et à la couche de transport influence la latence, et montré comment caractériser le retard de
bout en bout en fonctions de plusieurs composants. Et ils ont discuté de la façon dont
différentes techniques peuvent influencer un ou plusieurs composants de retard. Puis, ils ont
soutenu que ces techniques doivent être optimisées ensemble pour réduire la latence tout en
satisfaisant d'autres exigences telles que la fiabilité et le débit.

49
Figure 2-12: Différents composants pouvant influencer la latence selon Xiaoling [18]

Conclusion

Dans cette partie, nous avons fait un état de l’art sur la réduction de la latence, qui
nous a conduits vers deux articles de thèses qui nous proposent des méthodes ou alors
des pistes de résolution de ce problème. La latence étant un indicateur de performance de
la QoS d’un réseau, nous avons également fait une présentation générale de la QoS et des
différents types, ainsi que des modèles de gestion de la QoS ont été présentés.

50
CHAPITRE III : ANALYSE DE
LA LATENCE

51
Introduction

Les généralités sur les réseaux mobiles, la présentation des indicateurs de performances
en général et la latence en particulier, le rappel sur le protocole IP étant fait nous sommes
suffisamment outillés pour attaquer ce problème de latence. Pour atteindre notre objectif,
nous aurons besoin dans un premier temps de calculer la latence, puis l’analyser afin de
ressortir les différents impacts et enfin de la réduire. C’est dans cette optique que cette partie
est consacrée à l’analyse et la réduction de la latence.

3.1. Modélisation
Pour la résolution du problème posé qui est celui de la réduction de la latence, nous
avons suivi une démarche propre à nous que nous avons appelé « MDR » Mesurer-Détecter-
Résoudre. En effet, dans un premier temps il a été question de pouvoir mesurer la latence,
dans le second déterminer quel segment du réseau a une latence anormalement élevé et enfin
résoudre le problème. Mais il faut le dire que cette démarche est contenue dans une
méthodologie de résolution de problème générale divisée en 4 phases :

- 1ere phase : Définition du problème ;


- 2e phase : Analyse des causes,
- 3e phase : Recherche, Proposition des solutions ;
- 4e phase : Mise en application et bilan.

52
Figure 3-1: Modélisation de la démarche

Pour mieux appréhender le sujet, il est important pour nous de pouvoir traduire ce
problème de latence de façon mathématique. Cette partie y sera donc dédiée. Et par la suite
nous présenterons quelques outils logiciels dont nous nous sommes servis tout au long de
notre travail.

3.1.1. Outils

Dans le cadre de notre travail, nous avons eu à utiliser divers outils dont les
descriptions sont les suivantes.

[Link]. U2000
IManager U2000 gère de manière centralisée les éléments de réseau mobile (NE)
Huawei, y compris les NE LTE / EPC. Le U2000 fournit des fonctions de base, telles que la
gestion de la configuration, la gestion des performances, la gestion des pannes, la gestion de
la sécurité,

53
la gestion des journaux, la gestion de la topologie, la gestion des logiciels et la gestion du
système. Il fournit également diverses fonctions optionnelles.

Figure 3-2: Logo U2000 [31]

[Link]. eNSP
eNSP est une plate-forme de simulation de réseau graphique. Grâce à la simulation
d'équipements de réseau réels, cette plate-forme aide les professionnels des TIC et les clients
à se familiariser rapidement avec les produits Huawei Datacom, à comprendre et à maîtriser
le fonctionnement et la configuration des produits associés et à améliorer le réseau TIC des
entreprises. Des capacités de planification, de construction, d’exploitation et de maintenance
pour aider les entreprises à mettre en place des réseaux TIC plus efficaces et plus
performants.

Figure 3-3: Logo eNSP [32]

[Link]. UNET
GENEX U-Net est un outil professionnel qui prend totalement en charge la planification
de réseaux sans fil. Il prend en charge la planification d'un réseau mono-système et la
planification d'un réseau multi-système. Par exemple, U-Net peut être utilisé pour planifier le
réseau en utilisant à la fois la technologie GSM et la technologie UMTS ou le réseau en
utilisant
54
la technologie GSM, la technologie UMTS et la technologie LTE-FDD. Pendant tout le cycle
de vie du réseau, U-Net aide les opérateurs à mener à bien la conception initiale du réseau, la
simulation du réseau, la prévision de la couverture et l'optimisation du réseau.

Figure 3-4: Logo UNET [33]

3.1.2. Evaluation de la latence

La latence de bout en bout ou End to End (E2E) en anglais, est la résultante des
différentes latences accumulées par le paquet lors de sa traversée du réseau. En effet, comme
illustrée dans la figure ci-dessous, le temps de latence E2E de traversée d’un paquet de
donnée peut être donné par la formule suivante :

TE2E = TNTWK + TBACKBONE + TSERVER (3.1)

Or :

TNTWK = TAIR + TRAN + TCORE (3.2)

Donc :

TE2E = TAIR + TRAN + TCORE + TBACKBONE + TSERVER (3.3)

Avec :

TE2E : Latence entre l’Ue et Internet

55
TCORE: Latence entre l’Ue et le premier nœud du cœur du réseau (SGSN, SGW)

TRAN : Latence entre le nodeB/enodeB et la RNC/SGW

TBACKBONE : Latence dans le cœur de réseau MPLS

TSERVER : Latence rencontrée dans les serveurs hors du réseau de MTN

Notre travail étant principalement axé sur la partie accès le temps de la latence qui nous
intéresse est celui donne par l’équation (3.2)

Figure 3-5: Mesure de la latence, segmentation en fonction des domaines du réseau [30]

3.2. Configuration au niveau des sites


Afin de réduire la latence, plusieurs actions doivent menées de bout en bout du réseau.
En effet, des configurations doivent être faites en termes de protocoles et de paramètres à
activer ou à modifier dans chaque segment du réseau. C’est ainsi que tour à tour nous avons
été appelé à déployer des solutions tant au niveau des sites, de l’interface radio, qu’au niveau
du transport.

Au niveau des sites, la première contrainte rencontrée est celle de configurer le


paramètre qui nous permettrait d’avoir la valeur de la latence. En effet, pour optimiser on a
besoin des valeurs actuelles pour pouvoir les améliorer. Grace à l’outil U2000, il nous a été
possible de configurer un protocole, le protocole IPPM, sur près de 200 sites afin de nous
permettre d’avoir les valeurs de la latence à optimiser.

56
Figure 3-6: Interface d’U2000

3.2.1. Généralistes sur le IPPM

IPPM (IP Performance Measurement) est un protocole qui, par ses compteurs, nous
permet d’obtenir la qualité de service d’un lien de transmission. Il mesure la qualité du trafic
acheminé sur les liens de transmission. La figure 1 montre la position de l'IP PM dans le
modèle TCP / IP. La figure 2 illustre les principes de la propriété intellectuelle.

L'IP PM vérifie les conditions de perte de paquet, de délai et de gigue de paquets d'une
liaison par l'extrémité locale qui émet des trames de surveillance avant FM (Forward
Monitoring) et par l'extrémité homologue répondant par des trames de rapport en arrière BR
(Backward Reporting). Le nombre de trames FM est utilisé pour représenter le nombre de
trames transmises par l'extrémité locale, alors que celui des trames BR est utilisé pour
représenter le nombre de trames reçues par l'extrémité homologue. L'extrémité locale calcule
le retard, la gigue et le taux de perte de paquets dans la direction local à homologue en
fonction des trames BR reçues.

57
Figure 3-7: Mode de fonctionnement du protocole IPPM

Parmi ses compteurs nous avons des compteurs qui nous permettent d’avoir la, les pertes
de paquets, et la latence. Le compteur qui nous permet d’avoir la latence est le RTT (Round
Trip Time).

3.2.2. Le compteur RTT de IPPM

Ce paramètre a des compteurs qui mesurent les durées d'aller-retour moyennes


([Link]), maximales ([Link]) et minimales
([Link]) pour les paquets IP sur le réseau de transport au cours d'une période
de mesure. Ils indiquent la latence du réseau de transport.

La valeur du compteur [Link] est calculée à l'aide de la formule suivante:

Retard total des trames FM et BR sur le lien


𝐕𝐒. 𝐈𝐏𝐏𝐌. 𝐑𝐭𝐭. 𝐌𝐞𝐚𝐧𝐬 =Nombre total de trames FM et BR transmises
(3.4)

La valeur maximale parmi les résultats d'échantillonnage des trames FM et BR est


utilisée comme valeur du compteur [Link]. La valeur minimale parmi les
résultats d'échantillonnage des trames FM et BR est utilisée comme valeur du compteur
[Link].

3.2.3. Configuration du protocole IPPM

Le protocole IPPM se configure au niveau des sites par des sessions IPPM à ajouter. Ces
sessions prennent en compte l’adresse source, l’adresse de destination, et le DSCP

58
correspondant au paquet qui transite sur le réseau. Un exemple de configuration est donné
dans la figure suivante :

Figure 3-8 : Configuration de la session IPPM

Apres l’activation de la session, celle si doit être dans l’état ‘’IP PM UP’’ si ce n’est pas
les cas deux cas de figure sont possibles : soit le chemin est mal configur2 soit la valeur du
DSCP est changée par le routeur.

Figure 3-9: Session IPPM non activée

Dans le premier cas on doit s’assurer que les adresses sources et de destinations
appartiennent à des nœuds qui communiquent ensemble. Et dans le second, la valeur du
DSCP doit être configurée dans le routeur de manière à correspondre à celle configurée dans
le site.

59
Figure 3-10 : Session IPPM activée

Les configurations faites au niveau des sites par exemple nous ont permis de recueillir
certaines données qui doivent être soumises à l’analyse. C’est ainsi que cette partie est
consacrée à l’analyse et l’interprétation de la latence et ainsi que des propositions et
recommandations.

3.3. Analyse de la latence


Reprenons l’équation (3.3) :

TE2E = TAIR + TRAN + TCORE + TBACKBONE + TSERVER (3.3)

3.3.1. Impact des différentes parties sur la latence totale

Apres analyse du réseau sur une période de près de 30 semaines nous avons observé que
l’impact de la latence dans les différents segments du réseau sur la latence globale n’est pas
proportionnellement égale. En effet, une latence rencontrée dans la partie RAN n’affecte pas
de la même façon la latence E2E qu’une latence rencontrée dans la partie AIR par exemple.

60
Tableau 3-1: Evaluation de la latence du réseau 3G

Tableau 3-2: Evaluation de la latence du réseau 4G

Ces données ci-dessus présentent la latence des réseaux 3G et 4G de MTN Cameroun par
région et par secteur. Nous pouvons observer qu’il y a des régions qui présentent des
latences plus élevées que d’autres. Et que l’impact des différents secteurs du réseau sur la
latence de bout en bout n’est pas le même.

Ce qu’on peut ajouter c’est que le choix de l’optimisation au niveau de la partie accès
n’a pas été fait au hasard mais suivant différentes raisons.

- Premièrement nous pouvons observer que la latence dans la partie Cœur est soit nulle
soit invariable. C’est-à-dire qu’une optimisation dans cette partie est presque impossible
car les équipements dans cette partie sont interconnectes et il n’y a également dans cette
partie pas de variation majeure.

- Deuxièmement la partie Server qui comprends le réseau backbone conçu avec un support
de transmission fibre, et les différents servers d’application

Toutefois en ce qui concerne la latence dans la partie accès, elle est constituée de la
latence dans la partie

61
Latence 3G

3%6%
24% T - RAN (ms)
T - CORE (ms)
SERVER SIDE
T – AIR (ms)
67%

Figure 3-11: Apport des différentes parties du réseau sur la latence 3G

Latence 4G

15% 9%
0% T - RAN (ms)
T - CORE (ms)
SERVER SIDE
T – AIR (ms)
76%

Figure 3-12: Apport des différentes parties du réseau sur la latence 4G

De cette analyse nous ressortons qu’en 3G, TNTWK vaut environ 33% de la latence totale.
Et en 4G, TNTWK vaut environ 24% de la latence totale.

TNTWK3G = 33% TE2E4G (3.4)

TNTWK4G=24% TE2E4G (3.5)

62
Une réduction de la latence sur la partie accès a donc un impact considérable sur la
latence globale.

En ce qui concerne la latence au niveau de l’accès à proprement parlé elle est constituée
de la latence au niveau de l’interface Radio, de la partie RAN et de la partie Core. En ce qui
concerne la partie Core nous observons une latence nulle c’est le cas en 4G ou constante c’est
le cas en 3G tout simplement parce qu’à ce niveau les équipements sont interconnectés et
qu’il n’y a aucun changement ou phénomène majeure pouvant impacter la latence.

Reprenons l’équation (3.2) :

TNTWK = TAIR + TRAN + TCORE (3.2)

Avec TCORE= cte ou TCORE=0

La proportion de chaque partie est donnée par les figures suivantes :

Latence acces 3G

19%
T - RAN (ms)
8%
T - CORE (ms)
T – AIR (ms)
73%

Figure 3-13: Proportion de la latence dans la partie accès 3G

63
Latence acces 4G

37% T - RAN (ms)


T - CORE (ms)
63% T – AIR (ms)
0%

Figure 3-14 : Proportion de la latence dans la partie accès 4G

L’enjeu donc, d’après ces données présentées ci-dessus se trouve au niveau de la partie
RAN et Radio qui représente plus de 90% de la latence d’accès.

Apres analyse de ces données collectées, et investigation des secteurs du réseau ou cette
latence a été avéré, nous avons identifié plusieurs causes d’une latence élevée.

3.3.2. Les causes d’une latence élevée

Nous pouvons identifier différentes causes de délais de bout en bout : Délais de


traitement ; Délais liés à la mise en tampon ; Délais de transmission ; Délais de propagation
[21]. Ces causes se retrouvent au niveau de l’interface radio, des nœuds du réseau, des
supports de transmissions et de la façon dont les informations sont routées.

Délais de traitement : Temps requis pour analyser un en-tête de paquets et décider où


l’envoyer (décision d’acheminement, par exemple) A l’intérieur d’un routeur, ce délai dépend
du nombre d’entrées de la table d’acheminement, de la mise en œuvre des structures de
données, du matériel utilisé, etc. Ceci peut inclure la vérification d’erreurs, notamment le
calcul de la somme de contrôle des en-têtes IPv4 et IPv6.

Délais liés à la mise en tampon : Temps écoulé entre la mise en file d’attente d’un
paquet et sa transmission. Le nombre de paquets en attente dans la file d’attente est fonction
de l’intensité et de la nature du trafic. Les algorithmes de file d’attente des routeurs
s’efforcent

64
d’adapter les délais en fonction des préférences spécifiées ou imposent des délais équivalents
sur l’ensemble du trafic.

Délais de transmission : Temps requis pour faire passer tous les bits d’un paquet sur le
support de transmission utilisé.

D = T/N (3.6)
Avec :
N=nombre de bits par seconde
T=taille du paquet,
D=délai

Délais de propagation : Une fois un bit “poussé” sur le support de transmission, temps
requis pour qu’il se propage jusqu’à la fin de sa trajectoire physique. La vitesse de
propagation du circuit dépend principalement de la longueur du circuit physique. Dans la
majorité des cas, cette vitesse est proche de celle de la lumière.

DP = d/v (3.7)

Avec :
d = distance
v = vitesse de propagation :

[Link]. Au niveau de l’interface radio


La cause majeure d’une latence au niveau de l’interface radio est une mauvaise qualité de
signal. En effet que ce soit en 3G ou en 4G l’on retrouve au niveau des couches MAC et RLC
de l’interface radio, des protocoles qui garantissent la fiabilité de la transmission des paquets
qui sont le ARQ (Adapative Repeat Request) et HARQ (Hybrid-ARQ). Si nous avons une
mauvaise qualité du signal qui se traduit par des pertes de paquets, la retransmission de ces
paquets pourra allonger le temps de transmission. En ce qui concerne la mauvaise qualité du
signal nous avons deux causes majeures : la mauvaise couverture et les interférences.

Les interférences sont dues aux signaux émis par les autres stations. On peut distinguer :
Les interférences co-canaux qui sont dues aux signaux émis par les autres stations de base
utilisant la même fréquence. Les interférences de canaux adjacents dues aux signaux émis par

65
les stations de base utilisant des fréquences voisines. La mauvaise couverture est due à un
défaut de dimensionnement qu’il faut corriger.

Que ce soit l’interférence comme la mauvaise couverture, ceux-ci favorisent une


mauvaise qualité du signal qui se traduit par une retransmission de paquet qui augmente le
temps de latence.

Figure 3-15: Présence d'interférence dans une cellule 3G

Cette figure illustre une cellule 3G qui subit des interférences de canaux adjacents des
cellules voisines. Du à cela, la qualité du signal dans cette zone est mauvaise et les
utilisateurs ont du mal à ouvrir des pages web.

[Link]. Nœud et support de transmission


Le temps mis dans un paquet dans un nœud puis dans le support est fonction de la taille
du paquet, du débit de la connexion et de la distance qui sépare les nœuds émetteurs et
récepteurs. Si nous reprenons dans un premier temps l’équation (3.6) :

D = T/N (3.6)

Ainsi, pour transmettre 1024 bits avec une connexion Ethernet rapide (100 Mbps) :
D = 1024/1x10e8 = 10,24 microsecondes.

Dans le cas du réseau de MTN nous avons analysé le temps de transmission d’un paquet
a l’heure charge et nous avons les données suivantes : le débit de connexion est d’environ 70
Mbps avec une taille de données à transmettre égale à une MTU de 9100 octets on a :

66
T = 9100 x 8 = 72 800 bits

On aura donc le délai de transmission égal à :

D= 72 800/70x10e6 = 1,04 ms

Figure 3-16: Analyse du temps de transmission des paquets par un routeur

En ce qui concerne le temps de propagation, reprenons l’équation :

DP = d/v (3.7)

Que ce soit la fibre ou le Faisceau Hertzien, la vitesse de propagation est proche de la


lumière et équivaut à 300km/s. avec une distance moyenne entre les sites dans le réseau de
MTN de 200m, le temps de propagation est :

DP = 200/3x10e8 = 66,66 us

En additionnant ces deux résultats obtenus nous obtenons la latence sur le plan du
transport qui est égale au temps de transmission additionné au temps de propagation :

Ttrans = Ttr + Tpro (3.8)

Avec :

Ttrans : Temps de transport

67
Ttr : Temps de transmission
Tpro : Temps de propagation

Nous aurons donc pour le réseau de MTN un temps de transport moyen égal à :

Ttrans = 1,04+0.00066 = 1.0406 ms

[Link]. La congestion
Au niveau du support de transmission, en l’occurrence du faisceau hertzien, le principal
enjeu se trouve au niveau de la congestion. En effet, plus le lien est congestionné plus le
paquet est susceptible d’être ralenti durant son trajet, et plus la latence est élevée.

Un support de transmission est dans un état de congestion lorsque la capacité de données


y transitant est supérieure ou tant à dépasser la capacité maximale du lien de transmission.
Plusieurs situations peuvent conduire à la congestion, on a en l’occurrence :

- Un trafic utilisé supérieur au trafic configuré : Ce cas intervient quand les données de
dimensionnement deviennent obsolètes, en d’autres termes, quand la population d’une
zone augmente et que le trafic utilisé par celle-ci devient supérieur à la bande passante
initialement prévue.

- Une restriction du port utilisé : Le port peut être configuré à une mesure inferieure au
trafic qui devrait y transiter. Un port configuré en 100 Mbps n’acceptera que du trafic de
cette mesure, même si le trafic qui lui parvient est supérieur à 100 Mbps, on dira donc
dans ce cas que le port congestionné.

- Le type de câble utilisé : Un câble de capacité 100 Mbps ne peut pas transporter plus
que cette capacité, même si le trafic qui lui parvient est supérieur à cette valeur, on dira
donc dans ce cas que le câble congestionné.

[Link]. Le mauvais routage


La manière dont les informations sont routées constitue également un point fondamental
dans la détermination de la latence. Un mauvais routage peut entrainer une hausse de la
latence. C’est pour cela qu’il est primordial de pouvoir configurer les protocoles de routage
qui favorise

68
une diminution de la latence. Pour réduire la latence le choix est porté sur les protocoles de
routage à état de liens qui font converger plus rapidement leur table de routage et qui utilisent
l’algorithme du plus court chemin pour router les paquets.

Tableau 3-3 : Comparatif des protocoles de routage

Vecteur de distance Etat de lien


Algorithme de Bellman-Ford (RIP) Algorithme de Dijkstra (OSPF, ISIS)
Facile à configurer Compétences requises
Partage des tables de routage Partage des liaisons
Réseaux plats Réseaux organises en areas
Convergence plus lente Convergence rapide, répartition des charges
Topologies limitées Topologies complexes et larges
Peu consommateur de RAM et CPU Relativement discret
Mises à jour régulière en
Gourmand en RAM et CPU
broadcast/multicast
Pas de signalisation Signalisation fiable et en mode connecte

Dans le souci de diminuer le temps de traitement des routeurs, après analyses, nous
avons opté pour différentes solutions de protocoles qui nous permettraient de minimiser la
latence. Ces solutions sont le protocole IGP IS-IS, le protocole de routage EGP iBGP, la
technologie MPLS, le protocole RSVP pour la QoS, et le BFD pour le contrôle de l’état des
liens.

IS-IS Intermediate System to Intermediate System (IS-IS) est un protocole IGP


(Interior Gateway Protocol) qui s'exécute dans un système autonome (AS). IS-IS est
également un protocole de routage à l'état des liens, qui utilise l'algorithme SPF (Shortest
Path First) pour calculer les itinéraires.

iBGP Le protocole BGP (Border Gateway Protocol) est un protocole de vecteur de


chemin qui permet aux périphériques entre systèmes autonomes (AS) de communiquer et de
sélectionner des itinéraires optimaux. BGP a été conçu pour remplacer EGP. Contrairement à
EGP, BGP peut sélectionner des itinéraires optimaux, empêcher les boucles de routage,
transmettre efficacement les informations de routage et gérer un grand nombre de routes.

MPLS Dans les réseaux IP, les tables de routage sont de plus en plus grande, et donc
longue à parcourir. Chaque nouveau nœud apparait comme une source de latence et il faut
avoir des routeurs de plus en plus robustes pour pouvoir parcourir très rapidement ces
tables. Le

69
MPLS offre une meilleure rapidité de commutation des paquets, car la décision de routage se
fait en analysant un label. Chaque routeur possède une table associant un port/label d'entrée à
un port/label de sortie. Cette table est rapide à parcourir, ce qui a pour but d'accroître la
rapidité de routage par rapport à un réseau IP.

RSVP-TE est une extension du protocole RSVP (Ressource ReSerVation Protocol)


pour les réseaux MPLS. Il permet de prendre en compte la notion de Qualité de Service et
d’ingénierie de trafic. RSVP-TE est un protocole de signalisation qui gère l'allocation de la
bande passante et la véritable ingénierie du trafic à travers un réseau MPLS. Comme LDP,
RSVP-TE utilise des messages de découverte et de publicités pour échanger les LSPs PATH
entre tous les hôtes. Cependant, RSVP-TE comprend également un ensemble de fonctions qui
contrôlent le flux de trafic à travers un réseau MPLS. Considérant que LDP est limitée à
l'utilisation de plus court chemin de l'IGP configuré comme voix de transit à travers le réseau,
RSVP-TE utilise une combinaison de l’algorithme CSPF et de l’algorithme Explicit Route
Objects (ERO) afin de déterminer comment le trafic sera acheminé à travers le réseau.

BFD (Bidirectionnal Forwarding Detection, détection de transfert bidirectionnel) utilise


les messages BFD en tant que messages de pulsation. Si le contrôleur de la station de base
envoie consécutivement des messages BFD mais ne reçoit aucune réponse, il détermine que
la liaison est défaillante. Une fois qu'une session BFD est établie entre les périphériques local
et homologue, les périphériques échangent périodiquement des paquets de contrôle BFD en
mode asynchrone. Si l'extrémité homologue reçoit des paquets de contrôle BFD au cours de la
période de détection spécifiée, la session BFD est UP. Sinon, la session est DOWN.

Figure 3-17 : illustration du protocole BFD [34]

70
Conclusion

Dans cette partie il était question pour nous d’analyser le réseau afin de pouvoir détecter
quel segment contribue à la hausse de la latence. Apres avoir configuré le protocole IPPM au
niveau des sites, ce qui nous a permis d’avoir les performances en temps réel, nous avons pu
identifier les segments concernés et mettre en exergue les causes de cette latence. Comme une
maladie dont nous connaissons déjà l’origine, les causes de la latence étant déjà identifiées il
ne reste plus qu’à y remédier premièrement et deuxièmement proposer une solution
d’architecture globale du réseau pouvant réduire au maximum la latence.

71
CHAPITRE IV :
OPTIMISATION,
RESULTATS ET
RECOMMANDATIONS

72
Introduction
Dans notre travail, pour simuler et vérifier nos hypothèses, nous avons travaillé sur la
liaison reliant les sites de PK17 Université  MTN_Switch. Nous y avons mené plusieurs
actions qui ont contribué à l’optimisation du réseau et à la réduction de la latence. Ces
différentes opérations nous ont conduites à la proposition d’une architecture nouvelle et d’un
nouveau dimensionnement du réseau de MTN en vue d’une optimisation générale.

4.1. Optimisation
L'optimisation est une branche des mathématiques cherchant à modéliser, à analyser et à
résoudre analytiquement ou numériquement les problèmes qui consistent à minimiser ou
maximiser une fonction sur un ensemble. Elle cherche à donner à une entité les meilleures
conditions d’utilisation, de fonctionnement, de rendement. C’est un processus qui consiste, à
l’aide d’outils informatiques ou non, d’améliorer les performances de l’existant.

Début

Aucune
Latence
action

Redimensionnement des
Optimisation de la Amélioration du
liens de transmission
qualité du signal routage

Optimisation
de la latence

Fin

Figure 4-1: Méthode d'optimisation

73
La méthode d’optimisation que nous avons utilisée est une fusion des méthodes
présentées à la section 2.4. Nous allons procéder en 3 dimensions, la première étant
l’optimisation de l’interface radio notamment en améliorant la qualité du signal ; la deuxième
étant l’optimisation des supports de transmission notamment en réduisant la congestion, et la
troisième l’optimisation du routage.

4.1.1. Optimisation de l’interface radio

S’agissant de l’interface radio, la qualité du signal reçu, ainsi que les ressources
disponibles ont un impact considérable sur la latence des paquets. Dans cette partie nous
présentons les actions menées pour réduire les problèmes d’interférences et de congestion au
niveau de l’interface radio.

[Link]. Amélioration de la qualité du signal


Pour résoudre les problèmes liés à la qualité du signal reçu dans une cellule en général
et aux interférences en particulier, nous pouvons modifier le tilt ou l’azimut de l’antenne.

Le TILT

Le tilt d’une antenne est son angle d’inclinaison dans le plan vertical c’est-à-dire du haut vers
le bas. Il est donc utilisé pour diriger le faisceau de l’antenne. Lorsqu’il est dirigé vers le bas
on l’appel (Down Tilt ou Tilt Négatif) et lorsqu’il est dirigé vers le haut on le nomme (Up
Tilt ou Tilt Positif). L’inclinaison peut se faire de deux façons souvent complémentaires : tilt
mécanique réalisé par une inclinaison de l’antenne (vers le haut ou vers le bas), et tilt
électrique, réalisé par légère modification des caractéristiques électriques de l’antenne. La
valeur du tilt est comprise entre 0 et 10°.

L’AZIMUT

L’azimut est la direction principale d’émission d’une antenne ; exprimé en degrés l’azimut est
compté positivement dans le sens horaire, en partant du nord (l’azimut 0°). L’azimut est donc
l’orientation de l’antenne par rapport au nord et sa valeur est comprise entre (0 et 36°)
nécessaire pour vérifier qu’une communication se déroule normalement. La figure si dessous
illustre l’ajustement du tilt et de l’azimut.

74
Figure 4-2 : Ajustement du Tilt et de l'Azimut [36]

Dans notre exemple de simulation, la liaison Pingo PK10-Ndoghem PK12 présentait des
interférences de canaux adjacents qu’il fallait corriger.

Figure 4-3 : Présence d'interférence dans la ligne Pingo Pk10-Ndoghem PK12

Pour résoudre le problème, grâce au logiciel U2000 et à la fonction RET (Remote Electric
Tilt) nous opérons un ajustement à distance du tilt pour le ramener sa valeur a 6.

75
Figure 4-4: Ajustement du tilt d’une cellule 3G de 2 à 6

Apres avoir ajuste le Tilt de l’antenne, les interférences ont été effectivement éliminées
comme nous le pouvons le voir dans la figure ci-dessous.

Figure 4-5 : Elimination d'interférence dans la ligne Pingo Pk10-Ngoghem Pk12

[Link]. Elimination de la congestion


L‘élimination de la congestion dans l’interface radio se fait par une augmentation des
ressources disponibles dans la cellule. En 4G il s’agit soit d’augmenter la bande passante, soit
de réduire le nombre d’utilisateurs pouvant accéder à une cellule. En 3G plus par contre il
s’agira de revoir les codes ressources pour ajuster la capacité de la cellule. Tout ceci est fait
par une replanification des cellules pouvant être simulée avant implémentation dans UNET.

76
Figure 4-6 : Interface du logiciel UNET

Le LTE permet d'exploiter des largeurs de bande de 1,4 MHz, 3 MHz, 5 MHz, 10 MHz,
15 MHz et 20 MHz. Une ressource bloc correspond à une bande de 180 kHz, si la
communication utilise : Une bande de 1,4 MHz, alors 6 RB peuvent être exploitées ; Une
bande de 3 MHz, alors 15 RB peuvent être exploitées ; Une bande de 5 MHz, alors 25 RB
peuvent être exploitées ; une bande de 10 MHz, alors 50 RB peuvent être exploitées ; une
bande de 15 MHz, alors 75 RB peuvent être exploitées ; une bande de 20 MHz, alors 100 RB
peuvent être exploitées.

Si l'opérateur a une bande de

- 15 MHz : Il possède 75 RB, il peut donc transmettre 75*84 symboles * 6 bits en 0,5 ms.
Autrement dit, 37800 bits sont transmis en 0,5 ms. Le débit s'exprime en bit par seconde
dont 37800/0.0005 = 75,6 Mbits/s

- 20 MHz : Il possède 100 RB, il peut donc transmettre 100*84 symboles * 6 bits transmis
en 0,5 ms. Autrement dit, 50400 bits sont transmis en 0,5 ms. Le débit s'exprime en bit
par seconde dont 50400/0.0005 = 100,8 Mbits/s

77
4.1.2. Amélioration du routage

Parmi les causes d’une latence élevée nous avons un mauvais routage. Dans cette partie,
Il est question d’analyser et de définir les protocoles de routage qui favorisent une
diminution de la latence.

[Link]. Simulation
Notre simulation a pour but de mesurer l’impact des différents protocoles sur la latence.
En effet, nous cherchions à connaitre quel est le protocole de routage qui favorise le plus une
diminution de la latence. Pour cela, à l’aide du logiciel eNSP, nous avons conçu une
architecture qui s’apparente à celle mise en pour relier le site de PK17 et MTN_SWITCH.
L’architecture st présente dans la figure ci-dessous avec le plan d’adressage.

Figure 4-7 : Architecture d’un réseau pour simulation du routage

La démarche entreprise a été faite en 3 étapes. La première étape nous avons après
avoir déployé le réseau, nous avons implémenté dans chaque routeur le protocole à état de
lien IS- IS. Puis nous avons effectué un test PING pour mesurer la latence.

78
Figure 4-8 : Configuration du protocole IS-IS

Dans la deuxième étape nous avons configuré le protocole iBGP, et à la troisième étape
nous avons implémenté le MPLS. A chaque étape nous avons effectué un PING afin de
mesurer la latence.

Figure 4-9 : Configuration du routeur de PK17

79
Les résultats des tests de PING fait précédemment nous montrent que l’application du
MPLS en plus d’ IS-IS et du BGP contribue fortement à la diminution de la latence des
paquets au niveau du routage. La figure ci-dessous présente une comparaison en termes de
latence des différents protocoles.

Ping ms
31
30
29
28
27
26
25
24
23
22
IS-IS MPLS-TE iBGP

Figure 4-10: Comparaison des différents protocoles en termes de latence

On constate clairement que le MPLS-TE adossé au IS-IS et au iBGP favorise


grandement la diminution de la latence au niveau du routage des paquets.

4.1.3. Optimisation des supports de transmission

Pour améliorer les performances des supports de transmission notamment en optimisant


les liens, nous avons deux méthodes que nous pouvons employer. Soit modifier la modulation
en ce qui concerne les supports hertziens. Soit alors en ce qui concerne la fibre optique
modifier la puissance et le gain d’émission.

[Link]. La modulation pour résoudre la


congestion
La modulation est définie comme l’adaptation du signal au canal de transmission. Il
existe des modulations analogiques et des modulations numériques. Mais le type de
modulation utilisée dans les réseaux mobiles sont les modulations numériques. Les types de
modulations numériques les plus fréquemment utilisées sont :

80
- La modulation par déplacement de phase (Phase Shift Keying PSK)
- La modulation par déplacement de fréquence (Frequency Shift Keying PSK)
- La modulation par déplacement deux porteuses en quadrature (Quadrature Shift
Keying QAM)

Figure 4-11: Modification de la modulation pour l'augmentation de la capacité du canal

Aussi, il est possible que la congestion soit causée par la configuration physique du port,
ceci suppose que si un port est configure à 100 Mbps, il congestionnera si le trafic qui lui
parvient, ou qui en sort est supérieur à 100 Mbps. Il suffit dans ces cas d’augmenter la
capacité du port.

81
Figure 4-12 : Mise à niveau des ports pour pallier à la congestion

L’augmentation d’un canal supplémentaire est une option pour pallier au problème de
congestion. En effet, telle une file d’attente dans laquelle on augmente le nombre de serveurs,
l’augmentation d’un canal augmente la rapidité du service et donc diminue la latence.

[Link]. Optimisation des performances de


la fibre
La fibre peut présenter de mauvaises performances pour plusieurs raisons :

- Fluctuations du terrain : les éboulements, les travaux de génie civil ou d’autres crises
naturelles impliquant le tremblement du sol, sont capables de faire vibrer la fibre de verre
véhiculant le signal lumineux, et provoquer par conséquent des pertes de la qualité du
signal transmis.

- Une fibre de mauvaise qualité : chaque fois qu’il y’a coupure de fibre, on procède a sa
soudure. Le point d’impact (lieu de soudure), devient donc un point d’atténuation. Et s’il
faut s’imaginer plusieurs points d’impact, on comprend aisément que la fibre subisse de
graves atténuations.

La première étape est de vérifier les dites performances en question, la précision à faire ici est
que lorsque la puissance d’entrée (Input Power) est inférieure ou égale à -60 dBm.

Figure 4-13: Vérification des performances

Dans le cas de la figure ci-dessus, on a la puissance d’émission qui est de -60 dBm. On a
donc à ce moment deux alternatives : Augmenter le gain en émission ou Réduire l’atténuation
en réception

82
[Link]. Procédure d’augmentation du gain
Pour augmenter le gain, on agit sur la puissance d’entrée et le gain en entrée

Figure 4-14: Augmentation du gain

- Qui représente la puissance d’entrée (Input Power), on la modifie en fonction de la


puissance de référence (Reference Input Power).

- Qui représente le gain d’entrée (Input Power), on le modifie en fonction du gain d’entrée
(Reference Input Power).

4.2. Résultats
A l’issu de toutes les opérations menées afin d’optimiser le réseau nous avons obtenu des
résultats satisfaisant du point de vue de la latence dans le réseau. Car en effet, ne l’oublions
pas le but de cette optimisation ou de ses actions visait principalement à réduire la latence.

4.2.1. Réduction de la latence au niveau RAN

Au niveau du RAN (Radio Access Network) qui est la partie d’accès entre le NodeB et la
RNC en ce qui concerne la 3G ; et l’eNodeB et la SGW pour la 4G, nous avons mené en
générale dans tous les sites du réseau, des actions en droite ligne avec ce qui a été fait et
présenté précédemment. Ces actions nous ont conduites à une amélioration des performances
du réseau et aussi à une diminution de la latence.

Ainsi le seuil critique et acceptable de la latence au niveau de l’accès étant de 10 ms (à


l’heure chargée et pour le site le plus éloigné) nous avons au fil des mois recueillies les
données en terme de pourcentage des sites dont la latence est de moins de 10ms.

83
% sites avec une latence <10 ms
120,00%

100,00%

80,00%

60,00%

40,00%

20,00%

0,00%
Y4 H2 Y5 H1 Wk31 Wk32 Wk33 Wk34 Wk35 Wk36 Wk37 Wk38 Wk39 Wk40 Wk41 Wk42 Wk43

Figure 4-15: Evolution de la latence dans la partie RAN

Nous pouvons observer qu’à la deuxième moitié de l’année 2018 (Y4 H2) le pourcentage
des sites avec une latence de moins de 10 ms est faible et est de l’ordre de 68%. A la première
moitié de l’année 2019 (Y5 H1) le pourcentage reste pratiquement le même et est autour de
75%. A partir de la semaine 31 (Wk31), semaine du début de l’optimisation, nous observons
une hausse considérable de ce pourcentage qui va monter et se stabilisé autour de 98%.

En d’autres termes, grâce au travail effectué, le pourcentage des sites avec une latence
inferieur à 10ms est passé de 68% à la fin de l’année 2018 à 98% à la fin de l’année 2019. Ce
qui témoigne une amélioration de l’ordre de 44.17%.

4.2.2. Réduction de la latence de bout en bout

De manière générale, nous avons pu contribuer à la réduction de la latence de bout en


bout des paquets dans le réseau de MTN Cameroun. En effet, au début de notre analyse et de
notre optimisation, la latence de bout en bout c’est-à-dire du UE jusqu’à au serveur de
Google la latence 4G était de 138.70ms et de 151.60ms pour la 3G. Au moment de
l’établissement de ce mémoire, la latence en 3G est passée à 98.4ms et à 110.10 ms pour la
3G.

84
Latence de bout en bout

98,4
4G
138,70

110,10
3G
151,60

0,00 20,00 40,00 60,00 80,00 100,00 120,00 140,00 160,00

Latence ms Apres Latence ms Avant

Figure 4-16: Evolution de la latence du réseau avant et après optimisation.

4.3. Proposition d’architecture et recommandations


A la fin de notre analyse nous ressortons avec une solution qui consiste à un
redimensionnement du réseau en vue d’une optimisation des performances et d’’une
réduction de la latence.

85
4.3.1. Architecture de la solution

Figure 4-17 : Proposition d’une nouvelle architecture

86
La nouvelle architecture que nous proposons est définir pour la partie accès du réseau et
a pour but d’optimiser les performances du réseau et de réduire au maximum la latence. C’est
une architecture en cluster qui vise à définir des sous réseaux virtuels afin de diminuer le
nombre de nœuds à traverser pour atteindre la destination. L’ensemble des spécifications de
cette architecture est définie dans les recommandations ci-dessous.

4.3.2. Recommandations

Pour une meilleure optimisation de son réseau, nous avons certaines recommandations à
faire à l’entreprise d’accueil, qui implémentée, grâce à nos prévisions, pourront ramener la
latence 3G et 4G a 100.90ms et 89.20 ms respectivement :
- Implémenter un nouveau protocole TWAMP qui permettrait d’avoir les indicateurs
de performances des sites 4G de manière automatique et en temps réel
- Opter pour une architecture en cluster avec le nombre de saut entre la station de base et
le contrôleur ou le SGW inferieur a 5.
- Redimensionner les liaisons hertziennes et passer à un débit de 5Gbps
- Diminuer la distance entre les sites et passer de 200m à 150m
- Faire un redimensionnement de la couverture radio et diminuer la taille des cellules
- Diminuer le nombre d’utilisateurs dans une cellule
- Définir une bande passante de 20Mhz pour la 4G
- Favoriser les hautes fréquences, 2100 MHz pour la 3G et 1800 MHz pour la 4G
- Augmenter le débit au niveau des routeurs et configurer les ports avec un débit de 1Gbps
- Stabiliser les liaisons fibre optiques

4.4. Enjeux financier de la réduction de la latence


Voici quelques exemples extrêmes qui nous aideront à comprendre l’importance de la
réduction de la latence. En 2010, Google a dépensé 1,9 milliard de dollars dans un centre de
données situé en plein centre-ville de New York, là où les prix du secteur immobilier sont
parmi les plus élevés dans le monde, car ce centre leur donne un accès direct aux réseaux
locaux et mondiaux. Les entreprises faisant des transactions d’actions paient des milliers de
dollars afin d’obtenir l’information quelques secondes plutôt que leurs concurrents. En outre,
elles financent un projet de 400 millions de dollars visant à réduire la latence entre New
York et

87
Londres de 5 millisecondes. En ce qui concerne les algorithmes des transactions sur le
marché de la bourse, réduire la latence de quelques millisecondes peut équivaloir à des
milliards de dollars. [35]

Dans le domaine du commerce électronique, cette étude de cas réalisée par un détaillant
de lunettes démontre qu’un délai d’une seconde dans le chargement d’une page cause une
perte de 7 % en conversions. Une étude effectuée par Amazon en 2008 indique, quant à elle,
qu’une augmentation de la latence de 100 millisecondes lui fait perdre 1 % de ses ventes.
Selon une recherche menée par Akamai, un délai d’une seconde dans le chargement d’une
page cause en moyenne une perte de 7 % en conversion, et une réduction de 11 % de la
consultation des pages et de 16 % de la satisfaction de la clientèle. [35]

L’entreprise MTN Cameroun compte 8.7 millions d’abonnés au 31 mars 2019 contre
7.684 millions au 31 décembre 2018, soit une augmentation de 11.68% en 3 mois. Et le
revenu moyen par utilisateur est d’environ 2 000 FCFA minimum. Soit un revenu mensuel
pour MTN de 17.400 milliards de FCFA. Ceci est possible entre autre par les stratégies
commerciales développées par celle-ci mais surtout la qualité de son réseau.

Si nous reprenons l’étude d’Akamai notamment sur la latence. Une hausse de la latence
d’une seconde pourrait faire perdre 16% de sa clientèle soit environ 1.392 millions abonnées
ce qui représenterait environ 2.784 milliards de perte mensuel. Or une diminution de la
latence qui contribue à une amélioration de la qualité de l’expérience de l’utilisateur, pourrait,
dans la même dynamique que l’année précédente contribuer à faire gagner environ 2 millions
d’abonnés au bout de 12 mois soit un gain de 4 milliards mensuel.

Conclusion

Dans cette partie, nous avons premièrement présenté les résultats de nos actions
menées, puis proposer une architecture générale qui permettrait d’optimiser le réseau de et
par ricochet réduire la latence, et en fin nous nous avons présenté les enjeux financiers de la
réduction de la latence.

88
CONCLUSION GENERALE

89
L
es indicateurs de performances sont des outils puissants permettant d’évaluer la
qualité d’un réseau. Il en existe plusieurs dont la latence qui est le temps de
traversé d’un paquet de bout en bout du réseau. De la même manière qu’une
latence basse, informe plus ou moins de la bonne santé du réseau, de même une latence
élevée peut indiquer certains défauts dans le réseau qu’il faudrait corriger. L’entreprise MTN
Cameroun, structure d’accueil, présentait une latence des paquets de données élevées ne
correspondant pas aux exigences et objectifs fixés. C’est dans cette optique qu’il nous a été
demandé de travailler sur l’analyse et la réduction de la latence des paquets de données des
réseaux mobiles 3G et 4G qui nous a conduit à une contribution à l’optimisation du réseau.

Pour atteindre notre objectif, nous avons subdivisé notre travail en quatre chapitres. Dans
le premier chapitre, dans un premier temps nous avons présenté les généralités sur les réseaux
mobiles et ensuite mis un accent particulier sur les réseaux 3G en l’occurrence l’UMTS et les
réseaux 4G en l’occurrence la LTE. Dans le deuxième chapitre nous avons présenté l’état de
l’art ou nous avons évoqué deux articles de thèses qui nous ont brillamment guidés dans notre
travail. Dans ce chapitre nous avons également parlé de QoS, de ses indicateurs, des modèles
de gestion de la QoS et puis précisément de la latence. Le troisième chapitre quant à lui a été
dédié à l’analyse et à la réduction à proprement parlé. Nous y avons présenté la méthode de
mesure de la latence, analysé ses différentes causes et son impact en fonction des parties du
réseau. Et enfin, le quatrième chapitre nous présente dans un premier temps les différents
résultats de nos actions menées, puis une proposition architecturale globale en vue de
l’optimisation du réseau.

Ce travail bien qu’il a été mené dans un environnement bien précis qui est celui de MTN
Cameroun, présente une approche qui peut être réutilisée dans tous les réseaux similaires
basés sur le protocole IP. La méthode de réduction de la latence ainsi présentée est simple,
efficace et applicable à d’autres environnements.

L’objectif de notre travail étant atteint nous pouvons dire que la réduction de la latence a
une certaine limite du fait de l’architecture même des réseaux 3G et 4G et de ce fait pour
atteindre des temps de latence très bas voire en dessous de 10 ms les entreprises seront
appelées à migrer vers d’autres architecture comme l’implémentation de la SDN (Software
Defined Network) ou l’évolution vers une autre technologie à savoir la 5 e génération des
réseaux mobiles.

90
BIBLIOGRAPHIE

I
[1] J. THOMSON, Investing in 5G Technology, article in [Link], 2019

[2] C. KONLACK., Cours de Réseaux Mobiles, Faculté de Génie Industriel, 2017-2018

[3] M. BENCHINE & S. MAALIOU, Evaluation des performances du réseau LTE, Mémoire
de fin d’étude de Master en Télécommunication, Université de Tunis, 2008

[4] P. PARREND, Aspects physiques et architecturaux des réseaux de télécommunication


notamment de téléphonie, 2005

[5] Y. BOUGUEN, É. HARDOUIN, F-X Wolff, LTE et les réseaux 4G, Eyrolles 2012

[6] G. SHARMA, R. CHAWLA, Comparative Analysis of Quality of Service for Various


Service Classes in WiMAX Network using NS-3, Issue 7 2014

[7] P. YONGWAN, 5G Vision and Requirements of 5G Forum, 2014

[8] A. COLAZZO, R. Ferrari, R. LAMBIASE, Achieving low latency in communication in


future wireless networks: 5G NORMA approach

[9] X. LAGRANGE, Principes et évolution de l’UMTS, Lavoisier 2007

[10] L. DUFRESNE, Quel est l’effet de la QoS sur des petits réseaux de labo ?, projet d’étude

[11] [Link]

[12] J. XIAOLIN, S. HOSSEIN, Ghadikolaei, Low-latency Networking: Where Latency


Lurks and How to Tame It, IEEE 2018

[13] Quality of Service in 4G/5G networks, White Paper, AIRBUS

[14] S. MITRA, M. ALI, Quality of service (QoS) issues in multimedia wireless network- a
survey, Journal of Mobile Mulitimedia, 2007-2009

[15] A. TANENBAUM, Les réseaux, 3-ème édition, Dunod, 1999

[16] L. PETERSON, B. S. DAVIE, Computer Networks, a systems approach, 2nd edition,


Morgan Kaufmann, 1999

II
[17] J. F. KUROSE, K. W. ROSS, Computer Networking, a top-down approach featuring the
Internet, Addison-Wesley, 2001

[18] Quality of Service (QoS) in LTE, BEC technologies

[19] H. TOUNSI, Optimisation de la couverture radio du réseau 4G de Tunisie Telecom,


Mastère professionnel en Nouvelles Technologies des Télécommunications et Réseaux
(N2TR)

[20] M. DELLYS et M. OUAMRI, Aspects d’Optimisation de l’Interface Radio UTRAN


d’un Réseau UMTS, Mémoire de Fin de Cycle En Vue d'Obtention du Diplôme Master
Recherche, 2014

[21] A. RADU, Evaluation de la Qualité de Service par l’utilisateur final dans les systèmes
mobiles, THÈSE Pour obtenir le grade de Docteur de l’Université de Marne-La-Vallée, 2004

[22] T. IDRISSA, D. WOULEYMATOU, Analyse et optimisation des indicateurs QoS de


réseaux 4G / LTE, Mémoire de fin de cycle En vue de l’obtention du diplôme de MASTER
en Réseau et Télécommunication, 2018

[23] O. BOUFERSAKHA, Dimensionnement et planification d’un réseau LTE, MEMOIRE


Présenté pour l’obtention du diplôme de MASTER En Télécommunications, 2017

[24] SEGHIRI N., SIDHOUM L., Etude, analyse et optimisation de la capacité et la qualité
de service de réseau 4G-LTE, 2018

[25] [Link]
ouille-Tuihani/nouvelle_page_3.htm

[26] [Link]

[27] [Link]
usages-et-pourquoi-la-technologie-est-importante

[28] [Link]
[Link]

[29] [Link]

III
[30] [Link]
srf=ACYBGNQ_RKldo2Vqxze8Gaz7vZVj972jVA:1574286763028&source=lnms&tbm=isc
h&sa=X&ved=2ahUKEwiViqOa4_nlAhXIwAIHHRRVDSIQ_AUoAXoECAoQAw&biw=1
366&bih=625#imgrc=5G-W_e2nEi6MGM:

[31] [Link]
utions/fibre_optique.pdf

[32] [Link]

[33] S. KHAZRI, Déploiement d’IMS et provisionnement de la QoS dans le nuage


informatique, Maîtrise en génie concentration : réseaux de télécommunications, 2015

[34] I. ZENATI, O. BOUFERSAKHA, Dimensionnement et planification d’un réseau LTE,

[35] [Link], Gestion des ressources des réseaux mobiles de nouvelle génération par
rapport à la mobilité des utilisateurs, THÈSE présentée pour obtenir le grade de Docteur en
Sciences de l’Université d’Avignon et des Pays de Vaucluse France & Université
Mohammed V-Agdal Rabat – Maroc, 2009

[36] Y. MESSAOUDI, A. BELHOUL, Evaluation de qualité de service et Optimisation du


réseau UMTS/AT Mobilis à Béjaia, Mémoire de fin de cycle En vue de l’obtention du
diplôme de MASTER en Télécommunication, 2017

IV
Annexe A
Les canaux physiques

C'est un canal de la couche physique qui fournit le moyen de transmettre par radio les
données issues de la couche transport. Un canal physique va donc correspondre à un sous
ensemble constitué d'éléments de la ressource radio disponible. Généralement, on lui associe
certaines caractéristiques radios particulières. Les canaux physiques downlink :

PDSCH (Physical Downlink Shared Channel) : sert à la transmission des canaux de


transport DL-SCH, PCH.

PBCH (Physical Broadcast Channel) : sert à la transmission des canaux de transport BCH.

PCFICH (Physical Control Format Indicator Channel) : indique le nombre de symboles


OFDM utilisés pour la transmission du PDCCH dans une sous-trame.

PDCCH (Physical Downlink Control Channel) : sert à la transmission d'information de


contrôle, schéma de modulation, codage, allocation des ressources pour le DL-SCH et le PCH
en downlink, allocation de ressources HARQ pour le UL-SCH en uplink, etc...

PHICH (Physical Hybrid ARQ Indicator Channel) : sert à la transmission des


acquittements HARQ.

MBSFN (Multicast/Braodcast for a Single Frequency Network) : canal de broadcast pour


du tra-c usager, mais pas encore utilisé commercialement en Release 8 (le sera sur la release
10 normalement).

Les canaux physiques uplink :

PUSCH (Physical Uplink Shared Channel) : sert à la transmission du canal de transport


UL- SCH.

PUCCH (Physical Uplink Control Channel) : sert à la transmission des acquittements


HARQ et à l'allocation de ressources.

PRACH (Physical Radom Access Channel) : sert à la transmission du RACH.

V
Les canaux logiques

Un canal logique est caractérisé par le type d'information qu'il transporte, et non pas par
comment ces données vont être véhiculées. Il existe 2 types de canaux logiques qui
permettent de scinder véhiculé les informations de 2 grands types distincts, les informations
dit du plan de contrôle et les informations dit du plan usage. Les informations du plan de
contrôle sont toutes les informations échangées par réseau d'accès (interne, vers le mobile ou
vers le cœur de réseau) permettant son fonctionnement propre (authentifier un mobile, établir
un appel, etc.). Les informations du plan usager sont toutes les informations échangées par
l'usager via le réseau d'accès.

Les canaux logiques fournis par la couche MAC sont :

BCCH (Broadcast Control CHannel) : c'est un canal logique de contrôle qui permet de
diffuser les informations de base d'une cellule permettant l'accès, comme son identifiant, la
largeur de bande à utiliser, la liste des cellules voisines LTE 3G ou GSM etc...

PCCH (Paging Control CHannel) : c'est un canal logique de contrôle qui permet de diffuser
des notications d'appel. Lorsque que quelqu'un cherche à joindre un mobile, un message de
paging par le coeur de réseau vers le réseau d'accès. Toutes les cellules de la zone à laquelle
le mobile est supposé appartenir vont alors diffuser l'information qu'on cherche à le joindre.
Ce type d'information transite donc par ce canal logique.

DCCH (Dedicated Control CHannel) : c'est un canal logique de contrôle qui permet de
véhiculer toute la signalisation d'appel quand un canal dédié au mobile existe. Par exemple, la
reconfiguration d'une connexion ou un handover se font en utilisant ce canal

DTCH (Dedicated Traffc CHannel) : c'est un canal logique du plan usager qui permet de
véhiculer toutes les informations usager. Par exemple, si vous être en train de regarder une
vidéo, c'est par ce canal que les informations vont transiter.

Les canaux de transport

Un canal de transport se distingue d'un autre par la manière dont les données vont être
transportées sur la couche physique. On retrouve principalement les canaux suivants :

VI
BCH (Broadcast CHannel) : le BCH porte exclusivement le BCCH et sert donc à la
diffusion du Master Information Block (MIB). Ce message broadcasté contient toutes les
informations nécessaires pour que le mobile puisse reconnaitre le réseau d'accès et s'attacher
sur la cellule.

DL-SCH (DownLink Shared CHannel) : pour la transmission de données dédiées (contrôle


ou usager) ou d'informations cellules non basiques (comme la liste des cellules voisines) en
lien descendant. Ce canal va donc porter des canaux logiques DCCH, DTCH, CCCH ou
BCCH.

PCH (Paging CHannel) : pour diffuser les informations de paging sur la cellule et donc
porte le canal logique PCCH. RACH (Random Access CHannel) : ce canal sert uniquement à
gérer l'accès initial du mobile ou lors d'un handover sur une cellule.

UL-SCH (UpLink Shared CHannel) : pour la transmission de données dédiées (contrôle ou


usager) en uplink. Ce canal va donc porter des canaux logiques DCCH, DTCH, ou CCCH
[27].

VII
Annexe B
Tableau : Code DSCP et correspondance :

VIII
View publication stats

Vous aimerez peut-être aussi