CHAPITRE 1 : CONCEPTS ET OUTILS DE SUPERVISION
LEÇON 1 : IMPORTANCE DE LA SUPERVISION ET OUTILS DE
SUPERVISION
I. IMPORTANCE DE LA SUPERVISION
INTRODUCTION
La gestion d'un système informatique est un travail permanent. Ainsi le service informatique ou
l'administrateur réseaux doit savoir à tout moment l'état des équipements et des services sur les réseaux.
C'est pour cela qu'on a recourt à une technique de suivi qui est la supervision, qui permet de surveiller,
d'analyser, de rapporter et d'alerter les fonctionnements normaux et anormaux des systèmes
informatiques.
Pour mener à bien leur mission de supervision, les administrateurs utilisent généralement des
moniteurs de supervision informatique, qui permettent d'avoir une vue globale sur le fonctionnement
du réseau, les performances des systèmes et d'alerter par différents moyens l'apparition d'une anomalie
1. LA SUPERVISION
1.1. Définitions
La supervision est une technique industrielle de suivi et de pilotage informatique de procédés de
fabrication automatisés. La supervision concerne l'acquisition de données (mesures, alarmes, retour
d'état de fonctionnement) et des paramètres de commande des processus généralement confiés à
des automates programmables.
La supervision informatique désigne l’ensemble des outils et ressources déployés pour veiller au bon
fonctionnement de votre système d’information. Le but est de mettre en place une maintenance
préventive afin d’éviter les interruptions de service et de détecter en amont les failles des
infrastructures informatiques pour contrer les cyber-attaques.
Dans l'informatique, la supervision est la surveillance du bon fonctionnement d’un système ou d’une
activité.
La supervision informatique
La supervision est la « surveillance du bon fonctionnement d’un système ou d’une activité ».
Page 1 sur 14
Elle permet de surveiller, rapporter et alerter les fonctionnements normaux et anormaux des systèmes
informatiques.
Elle répond aux préoccupations suivantes :
Technique : surveillance du réseau, de l’infrastructure et des machines ;
Applicative : surveillance des applications et des processus métiers ;
Contrat de service : surveillance du respect des indicateurs contractuels ;
Métier : surveillance des processus métiers de l’entreprise.
En cas de dysfonctionnement, le système de supervision permet d'envoyer des messages sur la console
de supervision, ou bien d'envoyer un courriel à l'opérateur et ce 24h/24 et 7j/7 dans certaines
entreprises.
Figure 1 : représentation d’une plate-forme de supervision.
1.2. Que supervise-t-on ?
Les éléments qui peuvent être supervisés sont :
Page 2 sur 14
Supervision système : la supervision système porte principalement sur les trois principales
ressources systèmes, c'est-à-dire l’utilisation du processeur, de la mémoire (RAM) et de l’espace disque
Supervision réseau : la supervision réseau porte sur la surveillance de manière continue de la
disponibilité des services en ligne du fonctionnement, des débits, de la sécurité mais également du
contrôle des flux.
Supervision des applications : La supervision des applications (ou supervision applicative)
permet de connaître la disponibilité des machines en terme de services rendus en testant les applications
hébergées par les serveurs.
Les différents types de supervision sont :
• La supervision technique
Elle va consister à surveiller le réseau, l’infrastructure et les machines du système d’information
(Processeur, Mémoire, Stockage)
• La supervision Applicative
Elle va consister à surveiller les applications et les processus métiers.
• Contrat de service :
Elle va consister à surveiller le respect des indicateurs, afin de voir si on respecte bien les contraintes
que nous impose par exemple un contrat avec un client
• La supervision Métier
Elle va consister à surveiller les processus métiers de l’entreprise
Pour résumer, la supervision va dépendre de l'activité de l'entreprise mais aussi de son besoin. On
trouve rarement un même type de supervision d'une entreprise à l'autre.
Mais cela reste abstrait. Concrètement on supervise les serveurs, le switch, les routeurs, les téléphones
IP, les caméras IP, les badgeuses, les sondes, la bande passante, le CPU, la mémoire, les disques, les
processus, les services, le bon déroulement des actions (backups, transferts, consolidation). Tout est
supervisable. On va récupérer et analyser des informations provenant des équipements.
On supervise les systèmes suivants :
Des serveurs :
Page 3 sur 14
Hard : températures, alimentation électrique, ventilateurs, carte RAID, . . .
Système : charge CPU, utilisation mémoire, occupation des disques, intégrité du système, logs,
...
Réseau : nombre de paquets, d’erreurs ou de collisions, . . .
Pour chaque service : port accessible, réponse correcte au protocole, temps de réaction,
Des équipements réseaux : état de chaque interface : câble, vitesse, VLAN, . . . nombre de
paquets, d’erreurs ou de collisions Des périphériques : Imprimantes : nombre de pages imprimées, état
des consommables Onduleurs Sondes températures . . .
1.3. Pourquoi superviser ?
On supervise pour avoir une visibilité sur le système d'information. Cela permet d'avoir des
informations rapidement, de connaître l’état de santé du réseau, des systèmes, des performances. Donc
on a rapidement une image de notre système.
Superviser permet aussi de prévenir les pannes et anticiper les pannes. En effet on obtient une alerte
quand un disque dur atteint 80% de sa capacité, et donc on évite un crash du système à cause d'un
disque dur plein. Grâce à un outil de supervision on peut aussi remonter les informations d’ids
(intrusion détection system) et fournir des indicateurs au Dsi. Cela centralise les informations
remontées par divers outils.
Grâce à la supervision on peut aussi connaître rapidement l’effet d’une action (ajout d'un nouveau
client, nouvelle machine etc. …) sur le système. Donc on pourra connaître et chiffrer techniquement
l'impact de ce type de modification et réagir rapidement si besoin est.
En cas de dysfonctionnement, la productivité de la société est affectée. Il faut donc toujours être au
courant de ce qu'il se passe.
Pour résumer, on supervise pour être alerté de problèmes, et si possible les anticiper. On va effectuer
une batterie de test, et analyser les résultats sous forme de graphiques ou autres, et en fonction de
critères déclencher des actions (redémarrage de services, alerte de l'administrateur sur le comportement
d'un processus etc.), mettre en place des actions face à des évènements. On aura donc une visibilité sur
tout.
1.4. Comment superviser ?
La supervision peut se résumer à cette formule :
Informations + Traitement = Supervision
Page 4 sur 14
La principale source d'informations va être SNMP (Simple network management Protocol), c'est un
protocole qui permet le management d'équipement. SNMP est présent sur quasiment tous les
équipements réseaux, ainsi que tous les système d'exploitations. Il permet d'obtenir, de positionner des
informations et de remonter des alarmes.
Voici son fonctionnement :
Sur chaque équipement on trouve un agent SNMP. Cet agent gère les informations relatives à
l’équipement et sont stockées dans une base de données propre : la MIB (Management Information
Base). On positionne un manager SNMP sur l'unité qui va servir de console d'administration.
1.5. Quel est l’intérêt de la supervision (informatique) ?
Surveillance et mesure de performances
Un système de supervision informatique est avant tout un outil de surveillance qui a l’œil sur tout.
Grâce à la collecte de données, il peut surveiller le système ou l’installation donnée et délivre aux
administrateurs des informations très utiles : les paramètres clés, les performances, la disponibilité des
matériels, l’état physique des machines (températures, tension…), les charges des machines (débit,
nombre d’utilisateurs…), niveau de production, taux de rebut, taux de valorisation…
Résolution automatique des problèmes
Tous les dysfonctionnements ne nécessitent pas forcément l’intervention des techniciens. Certains sont
dans les cordes des systèmes de supervision. Ils règlent eux-mêmes certains problèmes, sans
l’intervention des administrateurs. Si par exemple, une machine donnée chauffe trop, peut-être une
foreuse, le système peut ordonner son arrêt le temps que sa température se stabilise.
Paramétrage automatique du système
L’outil de supervision informatique se chargera de vous fournir les paramètres clés qui garantiront le
bon fonctionnement de vos systèmes et activités. Mieux encore, ces paramètres clés sont saisis
automatiquement.
Paramétrage d’évènements et gestion d’alarmes
Le paramétrage et gestion d’alarmes est sans aucun doute l’une des fonctionnalités les plus importantes
en supervision informatique. Elle offre à l’administrateur la possibilité de paramétrer des évènements
qui lorsqu’ils se produisent déclencheront aussitôt une procédure. Cette procédure peut être n’importe
Page 5 sur 14
quoi : l’envoi de messages d’alerte, la diffusion d’alarmes, arrêt de production, changement du dosage
des matières premières…
1.6. D’autres avantages de la supervision informatique
Les avantages de la supervision informatique n’en finissent pas. En voici d’autres :
Pour une surveillance plus simple grâce à un tableau de bord : les systèmes de supervision
disposent d’un tableau de bord ou d’une interface web qui facilite la surveillance. C’est grâce à cette
interface que l’administrateur peut aussi communiquer avec les machines.
Durée de vie prolongée des machines : la santé d’une machine et de tous ses composants est
surveillée en détail. La surchauffe, l’usure et les autres menaces pour le bien-être de la machine sont
prises en charge en temps opportun, ce qui allonge la durée de vie de la machine.
Planifier un budget approprié afin de se préparer aux exigences techniques : la surveillance
informatique vous aide à identifier à l’avance le problème de manque de performances et vous permet
de conserver un inventaire valide de tous les appareils et services requis qui doivent être modifiés à
l’avenir.
Augmenter le retour sur investissement pour les entreprises : la supervision permettra à
l’équipe informatique de consacrer moins de temps à la surveillance de vos systèmes informatiques et
plus de temps à offrir de la valeur aux utilisateurs finaux.
2. Architecture d’un système de supervision
Un système de supervision efficace sera basé sur une console centrale qui aura les fonctions suivantes
:
o Interroger un agent installé sur chaque équipement (=⇒ vue de l’intérieur),
o Interroger chaque service ou équipement directement (=⇒ vue de l’extérieur), recevoir les
alertes émises par les équipements.
o Notifier les administrateurs,
o Agir pour remettre en service ou protéger un équipement,
o Archiver les données récoltées,
o Produire des rapports statistiques ou graphiques,
o Permettre de visualiser l’état du système d’information.
3. Quelques Standards normalisés de la Supervision
Page 6 sur 14
La supervision informatique est régie par ses propres normes et standards, par rapport au management
et de l’infrastructure. Ces standards sont pour la plupart gérer par la DMTF (« Distributed Management
Task Force »).
a. DMTF, « Distributed Management Task Force »
Le DMTF, « Distibuted Management Task Force », a été fondée en 1992. C’est une organisation
ouverte où des entreprises ou d’autres organisations et des personnes physiques peuvent devenir
membres. Elle est organisée en groupe de travail où les participants développent et maintiennent
conjointement les standards. Elle développe et maintien des standards pour l’administration de
systèmes informatiques et d’entreprises. Ces standards permettent de développer des composants
systèmes, d’administrations, d’infrastructures de telle façon qu’ils soient indépendants de la plateforme
et neutre par rapport à la technologie employée.
b. SNMP, « Simple Network Management Protocol »
SNMP, « Simple Network Management Protocol », est un protocole de communication qui permet aux
administrateurs réseaux de gérer les différents équipements du réseau, de les superviser et de
diagnostiquer des problèmes anormaux à distance. Ce protocole sera plus détaillé en annexe.
c. ITIL, « Information Technology Infrastrtucture Library »
ITIL, « Information Technology Infrastructure Library », est un ensemble de bonne pratique pour la
gestion d’un système d’information. C’est un référentiel très large qui aborde les sujets suivants :
Comment organiser un système d’information ?
Comment améliorer l’efficacité du système d’information ?
Comment réduire les risques d’incidents ?
Comment augmenter la qualité des services informatiques ?
L’adoption des bonnes pratiques de l’ITIL par une entreprise, comme c’est le cas du Service Technique
du Groupe Caillé, permet d’assurer à ses clients un service répondant aux normes de qualités
préétablies au niveau international. Il aide les entreprises à atteindre leurs objectifs en termes de qualité
et de maitrise de coûts.
d. WMI, « Windows Management Instrumentation »
Page 7 sur 14
La technologie WMI, « Windows Management Instrumentation », est une mise en œuvre de l’initiative
WBEM (Web-Based Entreprise Management) de DMTF (Distributed Management Task Force) pour
les plates-formes Windows.
WBEM est un ensemble de technologie et de standards Internet de gestion développé pour unifier la
gestion des environnements d’informatique distribuée. Il fournit la capacité aux industriels de délivrer
un ensemble de standard de bases bien intégrées aux outils de supervision, facilitant l’échange de
données à travers d’autres technologies et plateformes.
WMI est un système de gestion interne de Windows qui prend en charge la surveillance et le contrôle
de ressource système via un ensemble d’interface. Il fournit un modèle cohérent et organisé
logiquement des états de Windows.
WMI améliore considérablement les capacités de gestions de Windows grâce à une interface unique,
cohérente, extensible. Grâce aux WMI, les informaticiens et les administrateurs pourront s’acquitter
beaucoup plus facilement de leurs tâches de gestion.
3. Méthodes de supervision informatique
Pour mettre en place une politique de supervision nous disposons de plusieurs méthodes :
L'analyse des fichiers logs ou journaux : dans ces fichiers sont enregistrés l'historique du
fonctionnement du système et des applications et analyser ces fichiers nous permet de savoir à quel
moment une application à cesser de fonctionner.
L'exécution et la récupération des résultats des commandes réseaux et des scripts locaux ou
distantes.
L'utilisation du protocole de gestion SNMP (Simple Network Management Protocol) : ce
protocole permet la gestion des équipements et le diagnostic des problèmes du réseau.
4. Les moniteurs de supervisions
De nos jours, superviser son réseau devient facile car le monde de la supervision déborde de logiciels.
Ces logiciels qui existent sur le marché de la supervision sont fiables, sécuriser et permettent d'effectuer
des vérifications sur les machines et les services sur le réseau local et distant, de collecter et vérifier
les résultats des tests de supervision envoyés par les agents de supervision et d'alerter l'administrateur
réseaux en cas de fonctionnement anormale d'un hôte ou d'un service. En se basant sur le coût d'achat
de ces logiciels peut les classer en deux grands groupes qui sont : les logiciels payants et logiciels
libres.
Page 8 sur 14
i. Les moniteurs de supervision payant
Les moniteurs de supervision payant sont proposés par les éditeurs de logiciel qui ont compris
rapidement dès le début des réseaux que superviser sera la clé de réussite des systèmes informatiques
et un atout pour les entreprises. C'est pour cela que les entreprises n'hésitent pas à investir pour
l'obtention d'une solution de supervision. Alors vu la demande croissante, le nombre d'éditeurs
augmente donnant naissance à une variété de logiciels et parmi eux on peut citer :
HP OpenView : c'est un logiciel destiné aux petites et moyennes entreprises et permet de
centraliser les informations de supervision sur un seul poste. Il favorise la gestion du réseau en offrant
aux administrateurs une vue globale du système d'information, un contrôle homogène des différents
composants du système informatique et une vision des incidents et leur impact.
IBM Tivoli Monitoring : c'est un logiciel conçu pour aider les entreprises à surveiller et gérer
les matériels et les logiciels essentiels notamment les systèmes d'exploitation, les bases de données et
les applications sur des environnements répartis. Il permet la surveillance de manière proactive des
ressources systèmes vitales, détecte efficacement les goulets d'étranglement et les problèmes potentiels
des applications et répond automatiquement aux évènements.
Ces logiciels possèdent tous les avantages dans le domaine de la supervision mais leur inconvénient
face à la concurrence est leur coût d'achat élevé. Ainsi les entreprises ont tendance à se tourner vers le
monde libre où les logiciels proposés commencent à être compétitifs et deviennent de plus en plus
professionnels.
ii. Les moniteurs de supervision libre
Les moniteurs de supervision libre sont des logiciels proposés gratuitement par des développeurs qui
cherchent à se faire connaître à travers leurs produits en œuvrant dans le social. Parmi ces logiciels on
peut citer :
NAGIOS : c'est le moniteur de supervision le plus rependu parmi les logiciels open source et
est suivi par toute une communauté de développeurs. Il permet la supervision du réseau et des systèmes
et s'adapte aux systèmes d'information de moyenne taille au plus important. Nous allons l'étudier plus
en détail dans la suite de ce rapport.
MRTG (Multi Router Traffic Grapher) : ce moniteur de supervision génère des pages HTML
qui représentent en temps réelle trafic réseau. Son architecture logicielle permet l'intégration de
composants hétérogènes, ainsi il s'intègre étroitement avec Nagios.
Page 9 sur 14
CACTI : principal successeur de MRTG, il est basé sur RRDTool et permet de représenter
graphiquement le statut des périphériques réseaux en utilisant le protocole SNMP ou grâce à des scripts
écrit en perl, en C, ou en PHP. Le monitoring de CACTI est fondé sur la supervision réseau et la
métrologie et cependant il est très efficace dans la gestion des données de performances.
ZABBIX : c'est un moniteur qui est beaucoup plus orienté du côté de la supervision système.
Il a une architecture tout-en-un avec des agents dédiés que l'on doit installer sur les éléments distants.
Il est facile à installer et à configurer mais le revers de la médaille est qu'il ne gère pas les éléments
imprévus que l'on souhaitera ajouter au plutard.
ZENOSS : c'est un concurrent direct des solutions de supervision payantes comme HP
OpenView ou IBM Tivoli Monitoring car il est disponible en version commerciale avec des supports
pour les administrateurs et version libre sous licence GPL. Il offre les fonctions de découverte,
d'inventaire, de supervision de ~~ disponibilité, gestion de la performance et des évènements.
Ces logiciels cités offrent tous l'avantage commun d'être gratuit, donc en fonction des besoins de
supervision nous devons faire un choix parmi eux. Nous choisissons Nagios comme logiciel de base
pour la supervision du réseau car c'est le plus rependu, dispose d'une forte communauté de
développeurs, ses fonctionnalités couvrent tous les aspects de la supervision, son architecture logicielle
est modulaire et permet l'intégration d'autres logiciels comme CENTREüN, CACn, NAGVIS, ... pour
faciliter l'administration, le reporting et avoir une vue complète de tous les éléments du réseau.
CONCLUSION
Nous avons abordé la supervision informatique pour nous faire une idée de comment nous pouvons
connaître l'état des hôtes et des services. Notre logiciel de base que nous allons utiliser est pour la
supervision est NAGIOS, qui est le plus rependu dans ce domaine et que nous présentons dans le
chapitre suivant.
II. PRESENTATION DE ITIL
INTRODUCTION
ITIL signifie Information Technology Infrastructure Library et regroupe un ensemble de bonnes pratiques pour
la gestion d’un système d’information établies en 1989 par l’agence centrale de l’informatique et des
télécommunications du gouvernement britannique (CCTA) aujourd’hui transformée en Direction britannique du
commerce (OGC). Pratiquement, c’est un recueil contenant les meilleures pratiques constatées et glanées dans
diverses organisations de toutes tailles. ITIL démontre le cadre de l’organisation, les objectifs, les processus liés
Page 10 sur 14
aux activités majeures du service d’informations et leurs interactions. Il s’agit d’une sorte de canevas sur lequel
les directions des systèmes d’informations peuvent s’appuyer pour dessiner leur propre organisation.
Après quelques temps, au milieu des années 1990, ITIL est devenu un standard adopté mondialement
pour la gestion des services d’informations et le langage commun ainsi acquis permit aux différents
acteurs des services informatiques de mieux communiquer.
ITIL a connu plusieurs itérations, avec une réorganisation de ses ouvrages, et un élargissement son
périmètre :
1980- 2000 : les premières recommandations émanent de la CCTA (central computer and
télécommunications agency)
2001 : ITIL V2 : l’office public britannique du commerce (OGC) participe à la rédaction de ces
recommandations. Huit livres de base
2007 : ITIL V3 : périmètre étendu à la satisfaction des services métiers. Cinq livres de base
2011 : révision de la V3
2019 : ITIL V4 incorpore DevOps, Agile, Lean et les infrastructures cloud computing.
Depuis 2014, AXELOS prend en charge les évolutions d’ITIL.
1- Buts de ITIL
Les buts d’une organisation informatique orientée « clients » et « qualité » sont similaires quelle que
soit la taille de l’entreprise.
Ils répondent aux défis auxquels doivent répondre les responsables informatiques aujourd’hui, soit :
Aligner les services informatiques au « business » de l’entreprise.
Assurer la qualité des services tout en réduisant le coût total de possession de l’informatique
(TCO)
Avoir une utilisation rentable et efficace des ressources et des éléments à disposition
(principalement les personnes, les processus et les produits)
’organisation fournit des services qui ont été contractualisés avec les « clients » (SLA OLA).
Amélioration de l’image grâce à la transparence des activités et au respect des conventions de
service.
Page 11 sur 14
Dans le meilleur des cas, en partenariat avec les organisations « métiers » de l’entreprise,
devenir une force de proposition pour le développement d’opportunités d’affaires.
En effet, dans les années 80, les besoins commerciaux exigent le déploiement de nouveaux services
informatiques et notamment de services supports nécessaires à la résolution des problèmes rencontrés
par les clients avec les outils informatiques.
ITIL répond à cette problématique en définissant le service informatique comme un ensemble de
processus. La démarche ITIL vise à sensibiliser l’ensemble des acteurs du service informatique sur
l’impact qu’a la disponibilité et la performance des outils sur la santé de l’entreprise. La version 3
d’ITIL publiée en 2007 met l’accent sur la maîtrise des cycles de vie des services. Cette dernière
version s’articule autour de 5 livres :
Stratégie des services : ce livre définit comment aligner les stratégies d’entreprises et l’outil
informatique, ceci afin de définir une cohérence pour mieux diriger l’entreprise dans ses
projets. L’objectif est de faire collaborer les différents départements de l’entreprise et de
s’assurer de la création de valeur durant le cycle de vie des applications informatiques.
Conception des services : ce livre propose des moyens de concevoir des services performants
en prenant en compte les points de vue internes à l’entreprise, mais aussi le point de vue des
fournisseurs et des clients.
Transition des services : cet ouvrage décrit comment élaborer une stratégie de transition en
prenant en compte les risques liés à la mise en place de nouveaux services. L’objectif est de planifier
au mieux les ressources associées au changement, de diminuer leurs impacts et bien entendu de valider
l’adéquation des nouveaux services avec la stratégie de l’entreprise.
Exploitation des services : ce volume explicite comment suivre la stratégie opérationnelle pour
garantir la qualité de service offerte aux utilisateurs. En effet, lors de la phase d’exploitation, un certain
nombre d’événements peuvent survenir et peuvent être des
incidents ou des problèmes. La figure ci-dessous représente les processus ITIL de gestion des
événements.
Page 12 sur 14
Figure 2 : Processus ITIL de gestion des événements
2- Normes
Le British Standards Institute (BSI) établit la première norme formelle et internationale pour la gestion
des services informatiques, la BS15000.
Cette norme est née de l’ITIL et complète celle-ci. Elle a même servi de base pour la réécriture d’ITIL.
Cette norme était partagée en deux, la première décrivait les conditions qu’une organisation devait
remplir pour l’obtention d’une certification. Il s’agissait d’une description formelle de la norme.
La deuxième se nommait « Code des Meilleures Pratiques » et se voulait être un recueil à destination
des fournisseurs de services informatiques souhaitant se conformer à la norme (le livret se nomme
PD005).
Il existe un livret d’auto-évaluation pour les organisations visant une certification, le PD0015.
Cela devait constituer un passage vers une norme ISO, ce qui fut le cas en 2005 avec la création de la
norme ISO 20000 comprenant également deux parties. La première, ISO 20000–1, représente la partie
certification de la norme. Elle définit les exigences de gestion des services de TI.
La seconde, ISO 20000–2, est un code de bonnes pratiques de gestion des services de TI. En tant que
guide, cette partie ne peut être certifiée.
Page 13 sur 14
3- Pourquoi utilise-t-on l’ITIL ?
Les objectifs du référentiel ITIL s’avèrent nombreux. Il contribue entre autres à :
Organiser efficacement les systèmes d’information ;
Optimiser la gestion des services informatiques en structurant les processus ;
Faire gagner du temps aux équipes grâce à un cadre de travail déjà éprouvé ;
Placer les clients et les utilisateurs au centre de l’action ;
Améliorer la communication avec les clients et les fournisseurs ;
Gérer et anticiper les risques informatiques ;
Permettre une traçabilité et un meilleur suivi des actions des services IT ;
inscrire leurs activités dans une démarche d’amélioration continue.
Page 14 sur 14