0% ont trouvé ce document utile (0 vote)
54 vues88 pages

Projet Python Powerbi

Ce document présente un projet de fin d'études réalisé par Bouafia Lobna dans le cadre de l'obtention d'une Licence en Informatique de Gestion, axé sur la conception et le développement d'une application de Business Intelligence pour la gestion des ressources humaines. Le projet est encadré par Mme Grati Lilia et soutenu devant un jury le 27 mai 2024. Il inclut une analyse approfondie des besoins, une étude des outils techniques, ainsi que la création de tableaux de bord pour le suivi des employés.

Transféré par

oumayma Gy
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
54 vues88 pages

Projet Python Powerbi

Ce document présente un projet de fin d'études réalisé par Bouafia Lobna dans le cadre de l'obtention d'une Licence en Informatique de Gestion, axé sur la conception et le développement d'une application de Business Intelligence pour la gestion des ressources humaines. Le projet est encadré par Mme Grati Lilia et soutenu devant un jury le 27 mai 2024. Il inclut une analyse approfondie des besoins, une étude des outils techniques, ainsi que la création de tableaux de bord pour le suivi des employés.

Transféré par

oumayma Gy
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

République Tunisienne

Ministère de l’Enseignement Supérieur


et de la Recherche Scientifique
Université de Sfax
Institut Supérieur d’Administration des Affaires

Projet de fin d’études


En vue de l’obtention du diplôme de
Licence en Informatique de Gestion " Business Computing " - Business
Intelligence

Conception et développement d'une application BI pour la gestion des


ressources humaines

Réalisé par
BOUAFIA LOBNA

Encadré par
Mme. Grati Lilia

Soutenu le : 27/05/2024 à 09:00 à la salle Amphi karim

Devant un jury composé de :

Président : Mr. Chaabane Achraf

Membre : Mme Grati Lilia

Année universitaire 2023-2024


Dédicace

Je dédie ce modeste travail à : Mes chers parents,


À mon cher père Bouafia Abd lekrim, Merci pour ton soutien constant et ton amour
inconditionnel. Ce rapport est dédié à toi, mon guide et mon inspiration.
À ma mère EL Bey Najia, Ma source d’inspiration éternelle, ta présence inconditionnelle a été
le pilier de ma vie, et je suis infiniment reconnaissante de t’avoir comme mère, je t’aime plus
que les mots ne puissent l’exprimer.
À mon frère extraordinaire Bouafia Bilel
Mon pilier inébranlable et mon guide infatigable. À travers chaque défi, tu as été ma force et
ma source d'inspiration. Ta présence constante, ton soutien inconditionnel et ton amour sans
limite ont été les fondations sur lesquelles j'ai construit mon chemin vers le succès. Dans ce
rapport de fin d'études, je tiens à te dédier mes accomplissements, car chaque victoire est aussi
la tienne. Merci d'être mon tout, ma personne idéale. Avec tout mon amour et ma gratitude
éternelle.
À Mes sœurs et ma belle-sœur
Dédié à mes sœurs Mariem et Rihab et ma belle-sœur Rim, les piliers de mon univers familial.
Votre amour, votre soutien et votre présence ont enrichi ma vie de bonheur et d'inspiration.
À Mes amis,
En témoignage de l’attachement, de l’amour et de l’affection que je vous porte. Je vous
remercie de m’avoir soutenu et d’être toujours présents pour moi. Je vous dédie ce travail avec
tous mes vœux de bonheur, de santé et de réussite
À mon amie regrettée : Marwa
Ta lumière brille toujours dans mon cœur. Ton absence est un vide, mais tes souvenirs me
guident. Tu me manques infiniment, ton amitié est éternelle

Je dédie ce moment spécial à toute ma famille, à mes oncles, mes tantes, mes cousins et
cousines, qui ont été une source de soutien, de joie et d'inspiration tout au long de ma vie. Votre
amour inconditionnel et votre présence ont enrichi chaque étape de mon parcours.

Bouafia Lobna
Remerciements

Je tiens, au terme de ce travail, à exprimer mes remerciements à toute personne qui a contribué,
de près ou de loin, à son bon déroulement.
Je tiens à exprimer ma profonde gratitude envers mon encadrante Mme Grati Lilia pour son
soutien infaillible et ses encouragements constants tout au long de mon projet de fin d'études.
Votre expertise, votre patience et vos conseils avisés ont été des atouts précieux qui ont
contribué à la réussite de ce travail. Merci pour votre engagement et votre dévouement à chaque
étape de ce parcours académique.

Je tiens à exprimer ma gratitude envers Monsieur Gharbi Slim, Responsable du Service


Informatique, pour son soutien précieux pendant mon stage chez Nutrisud. Ses conseils éclairés
et son accompagnement ont été des éléments essentiels de mon expérience professionnelle.
Merci pour tout, Monsieur Gharbi Slim.

Je tiens à exprimer ma gratitude envers toute l’équipe de l’entreprise pour m'avoir aidé à mieux
comprendre le fonctionnement de l’organisme. Je les remercie également pour l’ambiance
formidable et la bonne humeur qui ont marqué toute la durée de mon stage. Merci à tous pour
cette expérience enrichissante.

Enfin, je tiens à exprimer toute ma reconnaissance et ma gratitude envers les membres du jury
pour l’honneur qu’ils m'ont fait en acceptant d’examiner et d’évaluer ma contribution.

J'adresse également mes remerciements à l’administration et à l’ensemble du corps enseignant


de l’ISAAS pour la formation de qualité qu'ils m'ont dispensée tout au long de ces années.
Table des matières :
Introduction générale .................................................................................................................. 1
1 Chapitre 1 :Cadre général du projet ................................................................................... 3
Introduction ............................................................................................................................ 4
1.1 Cadre général de la mission ......................................................................................... 4
1.2 Présentation de la Société NUTRISUD ....................................................................... 4
1.3 Organigramme du groupe ALFA ................................................................................ 4
1.4 Problématique .............................................................................................................. 5
1.5 Analyse de l’existant ................................................................................................... 5
1.5.1 Etude de l’existant ................................................................................................ 5
1.5.2 Critique de l’existant ............................................................................................ 6
1.6 Solution proposée ........................................................................................................ 6
1.7 Méthodologie de la gestion du projet .......................................................................... 6
1.7.1 Choix de la méthode ............................................................................................. 6
1.7.2 La méthode classique GIMSI ............................................................................... 6
1.7.3 La méthode agile SCRUM BI .............................................................................. 7
1.7.4 Scrum BI VS GIMSI ............................................................................................ 9
1.7.5 Méthode adoptée .................................................................................................. 9
Conclusion .......................................................................................................................... 9
2 Chapitre2 : Phase Préparatoire et Outils Techniques ....................................................... 10
Introduction .............................................................................................................................. 11
2.1 Notion de l’informatique décisionnelle BI ................................................................ 11
2.1.1 Définition de l’informatique décisionnelle ........................................................ 11
2.1.2 Objectifs de l’informatique décisionnelle .......................................................... 11
2.1.3 Les étapes du processus de l’informatique décisionnelle ................................... 12
2.1.3.1 Phase de Collecte ........................................................................................ 12
2.1.3.2 Phase d’intégrité .......................................................................................... 12
2.1.3.3 La phase d’organisation .............................................................................. 12
2.1.3.4 La phase restitution ..................................................................................... 14
2.2 Etude comparative des approches de conception du Data Warehouse : .................... 14
2.2.1 Approche Bottom-Up de Ralph Kimball : ......................................................... 14
2.2.2 Approche Top-Down de Bill Inmon: ................................................................. 15
2.2.3 Approche Bottom-line ........................................................................................ 16
2.2.4 Tableau Comparatif et choix de l’approche de conception du Data Warehouse :
16
2.3 Vue d'ensemble des outils et technologies utilisés .................................................... 17
2.3.1 Étude comparative des outils ETL ..................................................................... 17
2.3.2 Choix d’outils ETL............................................................................................. 20
2.3.3 Étude comparative des outils de visualisation.................................................... 20
2.3.4 Choix d’outils de visualisations ......................................................................... 22
2.3.5 Choix de base de données .................................................................................. 22
Conclusion ................................................................................................................................ 22
3 Chapitre 3 : CONCEPTION, ANALYSE et SPÉCIFICATION DES BESOINS ........... 23
Introduction .............................................................................................................................. 24
3.1 Spécification des exigences ....................................................................................... 24
3.1.1 Exigences fonctionnelles .................................................................................... 24
3.1.2 Exigences non fonctionnelles ............................................................................. 24
3.2 Analyse des besoins ................................................................................................... 25
3.3 Conception globale de l’entrepôt de données ............................................................ 26
3.3.1 Étude du modèle conceptuel .............................................................................. 27
3.3.2 Choix du modèle conceptuel .............................................................................. 29
3.3.3 Schéma global de la conception ......................................................................... 29
3.3.3.1 Identification des tables de faits .................................................................. 30
3.3.3.2 Identification des dimensions ..................................................................... 31
3.4 Identification des indicateurs de performances ......................................................... 34
Conclusion ............................................................................................................................ 35
4 Chapitre 4 : Préparation des Données .............................................................................. 36
Introduction .......................................................................................................................... 37
4.1 Objectifs..................................................................................................................... 37
4.2 Extraction, Transformation et Chargement (ETL) avec Python ................................ 37
4.2.1 Phase d’Extraction.............................................................................................. 38
4.2.1.1 Identification des sources de données : ....................................................... 38
4.2.1.2 Chargement des bibliothèques : .................................................................. 44
4.2.1.3 Importation des données : ........................................................................... 45
4.2.2 Phase transformation .......................................................................................... 45
4.2.2.1 Conversion des types de données : ............................................................. 47
4.2.2.2 Gestion des données manquantes :.............................................................. 47
4.2.2.3 Nettoyage des données : .............................................................................. 48
4.2.2.4 Normalisation des données : ....................................................................... 48
4.2.2.5 Création de nouvelles variables : ................................................................ 48
4.2.2.6 Fusion et combinaison de données : ........................................................... 49
4.2.2.7 Filtrage des données : .................................................................................. 49
4.2.2.8 Structuration des Données : Tables de Mesure et Tables de Faits pour une
Analyse Efficace .......................................................................................................... 49
4.2.3 Phase de chargement .......................................................................................... 52
4.2.3.1 Installation des bibliothèques nécessaires : ................................................. 52
4.2.3.2 Connexion à la base de données : ............................................................... 53
4.2.3.3 Chargement des données : .......................................................................... 53
4.2.3.4 Validation et vérification : .......................................................................... 53
4.2.3.5 Fermeture de la connexion : ........................................................................ 55
Conclusion ........................................................................................................................ 55
5 Chapitre 5 : Création des Tableaux de Bords ................................................................... 56
Introduction .............................................................................................................................. 57
5.1 Environnement technique et importation des données .............................................. 57
5.2 Modéliser les données et créer des mesures en DAX ................................................ 60
5.3 Créer des rapports ...................................................................................................... 62
5.3.1 Page d’accueil .................................................................................................... 63
5.3.2 Tableaux de bord 1 : Suivi des Employées ........................................................ 63
5.3.2.1 Explication de choix des graphes : .............................................................. 64
5.3.3 Tableaux du bord 2 : Suivi des salaires des employées ..................................... 69
5.3.3.1 Explication de choix des graphes : .............................................................. 69
5.3.4 Tableaux de bord 3 : Suivi des Congés des Employés ....................................... 73
5.3.4.1 Explication de choix des graphes : .............................................................. 73
5.4 Partager l’applications ............................................................................................... 75
Conclusion ................................................................................................................................ 76
Conclusion Générale ................................................................................................................ 77
6 Bibliographie .................................................................................................................... 78
Liste des Figures :
Figure 1: Logo NUTRISUD, le siège du groupe ALFA ........................................................... 4
Figure 2: organigramme du groupe Alfa ................................................................................... 5
Figure 3: Les étapes de la méthode Gimsi (1) ........................................................................... 7
Figure 4: Le processus de la méthode Scrum (2) ...................................................................... 8
Figure 5: le processus d'un projet Business Intelligence (BI) ................................................. 12
Figure 6: Exemple des data Mart ............................................................................................ 13
Figure 7: Explication de l'architecture de base de l'entrepôt de données Kimball .................. 15
Figure 8:Explication de l'architecture d'entreposage de données de base de Bill Inmon........ 16
Figure 9:Logo de python ......................................................................................................... 17
Figure 10: Logo de SSIS ......................................................................................................... 17
Figure 11: Logo de Talend ...................................................................................................... 18
Figure 12: Logo Power BI....................................................................................................... 20
Figure 13: Logo QlikView ...................................................................................................... 20
Figure 14: Logo tableau .......................................................................................................... 21
Figure 15:Logo PostgreSQL ................................................................................................... 22
Figure 16:Diagramme de cas d’utilisation .............................................................................. 26
Figure 17:le schéma d’un modèle en étoile ............................................................................. 27
Figure 18:exemple d’un modèle en flocons de neige.............................................................. 28
Figure 19:exemple d’un modèle en constellation ................................................................... 28
Figure 20:Modélisation du data Warehouse............................................................................ 29
Figure 21: les champs de la table Fact_RH .............................................................................. 30
Figure 22 : Dimension Employé ............................................................................................. 32
Figure 23: Dimension Contrat ................................................................................................. 33
Figure 24: Dimension Temps .................................................................................................. 34
Figure 25:Importation des données ......................................................................................... 45
Figure 26:Illustration des fausses dates de données sources ................................................... 45
Figure 27:Identification des types de données erronées dans les sources ............................... 46
Figure 28:Détection des Valeurs Manquantes ........................................................................ 46
Figure 29:Conversion des types de données ........................................................................... 47
Figure 30:Gestion des données manquantes ........................................................................... 47
Figure 31:Nettoyage des données ........................................................................................... 48
Figure 32:Normalisation des données ..................................................................................... 48
Figure 33:Création de nouvelles variables .............................................................................. 49
Figure 34:Création de nouvelles variables .............................................................................. 49
Figure 35:Filtrage des données ................................................................................................ 49
Figure 36: Dimension Contrat après le traitement .................................................................. 50
Figure 37:Dimension Employées après le traitement ............................................................. 51
Figure 38: Dimension Temps après le traitement ................................................................... 51
Figure 39: Table de fait Fact_RH après le traitement ............................................................. 52
Figure 40:Installation des bibliothèques nécessaires .............................................................. 52
Figure 41:Connexion à la base de données ............................................................................. 53
Figure 42:Chargement des données ........................................................................................ 53
Figure 43: Chargement de dimension Contrat dans PostgreSQL ........................................... 54
Figure 44:Chargement de dimension Employées dans PostgreSQL ....................................... 54
Figure 45:Chargement de dimension Temps dans PostgreSQL ............................................. 54
Figure 46:Chargement de Table de fait Fact_RH dans PostgreSQL ...................................... 54
Figure 47:Fermeture de la connexion ..................................................................................... 55
Figure 48: Sélection du type de Base de données dans power BI. .......................................... 58
Figure 49: Connexion au serveur de base de données ............................................................ 59
Figure 50: Sélection des dimensions et table de fait à importer ............................................. 60
Figure 51: Schéma du Data Warehouse importé dans Microsoft Power BI ........................... 61
Figure 52: Création de mesure Nombre d'employés en DAX................................................. 61
Figure 53: Création de mesure Masse Salariale en DAX ....................................................... 62
Figure 54: Création de mesure Somme des Avances en DAX ............................................... 62
Figure 55: Création de mesure Totale jours Congés Prix en DAX ......................................... 62
Figure 56: Création de mesure Cout congés chômées payer en DAX .................................... 62
Figure 57: Création de mesure Age moyenne en DAX .......................................................... 62
Figure 58:Nombre total d'employés au [DATE] calculé dynamiquement .............................. 62
Figure 59:Page d’accueil ......................................................................................................... 63
Figure 60:Tableau de bord de suivi des Employés ................................................................. 64
Figure 61:Nombre total d'employés, Age moyen, Nouveaux recrutement et Cout salariale
moyen ....................................................................................................................................... 64
Figure 62: Répartition des employés par statut professionnel ................................................ 65
Figure 63:l'évolution du nombre d'employées au cours du temps .......................................... 66
Figure 64:Répartition du nombre d'employées par nature de contrat ..................................... 66
Figure 65:Répartition des employées par service et statut professionnel ............................... 67
Figure 66:Répartition des employés par catégorie d'Age ....................................................... 68
Figure 67:Des Segments contient les Date, Société et Site ..................................................... 68
Figure 68:Tableau du bord Suivi des Salaires des Employés ................................................. 69
Figure 69: Répartition de la Masse Salariale par Statut Professionnel ................................... 70
Figure 70:Analyse de la Masse Salariale par Nature de Contrat............................................. 70
Figure 71:Analyse des Avances, Masse Salariale et Salaire Net par Année et Mois ............. 71
Figure 72:Comparaison de la Masse Salariale en 2023 et 2024 ............................................. 71
Figure 73:Comparaison des Salaires et Salaire Moyen par Année ......................................... 72
Figure 74:Analyse de la Masse Salariale et Salaire Moyen par Service ................................. 72
Figure 75: Tableaux de bord Suivi des Congés des Employés ............................................... 73
Figure 76:Récapitulatif des Coûts des Congés Chômés et des Jours de Congés Pris par
Service en 2023 ........................................................................................................................ 74
Figure 77:Répartition mensuelle des Jours de Congés Pris en 2023....................................... 74
Figure 78:Répartition Mensuelle des Jours de Travail en 2023 .............................................. 75
Figure 79:Tableau Récapitulatif des Indicateurs Clés ............................................................ 75
Figure 80:connexion au service à l'aide du compte étudiant ................................................... 76
Liste des Tableaux :
Tableau 1: Etude comparative entre les deux méthodes : Scrum et Gimsi ............................... 9
Tableau 2:Etude comparative entre les deux approches Tow-Down de Inmon et Bottom-Up
de Kimball ................................................................................................................................ 16
Tableau 3: Etude comparative entre les Outils de ETL .......................................................... 19
Tableau 4: Etude comparative entre les Outils de visualisation ............................................. 21
Tableau 5:Table de fait ........................................................................................................... 31
Tableau 3-6: Les Dimensions ................................................................................................. 31
Tableau 7: les champs de la table Employé ............................................................................ 33
Tableau 3-8: les champs de la table Contrat ........................................................................... 34
Tableau 9:les champs de la table Employé ............................................................................. 34
Tableau 10:indicateurs de performances ................................................................................ 35
Tableau 11:Table EMPCTR de la source ............................................................................... 39
Tableau 12: Table EMPLOID de la source ............................................................................. 40
Tableau 13: Table HISTOPAYE ............................................................................................ 41
Tableau 14: Table EMPLOCTR ............................................................................................. 43
Tableau 15: Table SERVICE .................................................................................................. 44
Liste des acronymes :

BI Business Intelligence

Dashboard Tableau de bord

DAX Data Analysis Expressions

DMT Datamart

DWH Data Warehouse

ETL Extract Transform Load

GIMSI Généralisation Information Système Initiative

KPI Key Performance Indicator

MDX Multidimensional Expressions

RH Ressources Humaines

SID Système d’Information Décisionnelle


Introduction générale

1
Nous vivons à l’ère où la progression technologique a révolutionné notre vie quotidienne,
notamment dans le monde des affaires. Les entreprises bénéficient désormais d'outils et de
stratégies basés sur les données, permettant une compréhension approfondie de leurs clients et
de leurs propres opérations. Ainsi, l'informatique décisionnelle (BI) devient cruciale pour le
succès et la durabilité des entreprises, offrant aux décideurs des informations précieuses pour
prendre des décisions éclairées.
Dans ce contexte, "NUTRISUD", une entreprise spécialisée dans la fabrication de prémélanges
et d'aliments pour la nutrition animale en Tunisie, souhaite améliorer ses services en ajoutant
un module BI. Cette initiative vise à fournir des informations précises, pertinentes et en temps
réel pour soutenir la prise de décision. En facilitant l'accès aux données et aux analyses, la BI
permettra à « NUTRISUD » d'optimiser ses opérations et d'accroître son efficacité, ce qui se
traduira par des économies de temps et d'argent.
L'objectif de notre projet, intitulé "Conception et développement d’une application BI pour la
gestion des ressources humaines ", est de mener une analyse approfondie des données de cette
société afin de fournir des outils pour générer des rapports et des tableaux de bord interactifs.
Ces visualisations permettront aux utilisateurs de comprendre rapidement les informations clés
et les indicateurs de performance pertinents pour leur activité.
Le présent rapport s’articule autour des chapitres suivants :
• Dans le premier chapitre, "Cadre général du projet", nous nous concentrons sur la
présentation de l'organisme d'accueil ainsi que sur le contexte global du projet. Après une
étude et une critique de l'existant qui nous aidera à proposer une solution appropriée, nous
exposons la méthodologie de gestion de projet sélectionnée.
• Le deuxième chapitre, appelé "Phase de préparation et outils techniques", nous
commençons par la définition de la notion de l’informatique décisionnelle, ainsi qu'une
étude comparative des approches de conception du Data Warehouse (DWS).
Puis, nous mettons l’accent sur les outils et les logiciels que nous avons utilisé après une
étude détaillée de plusieurs exemples.
• Le troisième chapitre, "Conception et analyse spécifique des besoins", nous commençons
par l'analyse des besoins fonctionnels et non fonctionnels, nous exposons le schéma global
de conception puis nous exposons les indicateurs clés de performance.
• Le quatrième chapitre, nommé "Préparation des données", décrit les étapes nécessaires pour
extraire, transformer et charger les données dans l'entrepôt de données.
• Enfin, le cinquième chapitre, intitulé "Création des tableaux de bord", met l'accent sur la
visualisation des données à travers des tableaux de bord interactifs, cruciaux pour la prise
de décision.
Nous clôturons ce rapport en récapitulant le travail réalisé et ses apports pour l’entreprise et
pour nos compétences professionnelles et personnelles

2
Chapitre 1 : Cadre général du projet

3
Introduction

Dans ce premier chapitre, nous allons présenter en premier notre organisme d’accueil
‘NUTRISUD’. Ensuite, nous allons entamer la description générale de notre projet et ceci en
détaillant l’étude de l’existant, la critique de l’existant ce qui nous permettra de définir notre
solution proposée. Ce chapitre sera clôturé par la présentation de la méthodologie choisie et la
planification prévisionnelle du projet.

1.1 Cadre général de la mission

Ce travail fait partie de notre projet de fin d'études pour l'obtention d'un diplôme de licence
en informatique de gestion, spécialité Business Intelligence, à l'Institut Supérieur
d’Administration des Affaires de Sfax (ISAAS). D'une durée de trois mois au sein de la société
NUTRISUD, il vise à y mettre en place une solution décisionnelle.

1.2 Présentation de la Société NUTRISUD

Le groupe Alfa, fondé à l'initiative de M. Hatem Chaabouni, s'est développé dans le domaine
de l'industrie avicole et alimentaire en Tunisie. NUTRISUD, créée en 1995, se spécialise dans
la fabrication d'aliments composés pour animaux et opère en tant que société mère du groupe.
Au fil des années, le groupe s'est étendu à travers des acquisitions et des créations d'entreprises,
renforçant ainsi sa présence sur le marché.

Figure 1: Logo NUTRISUD, le siège du groupe ALFA

1.3 Organigramme du groupe ALFA

4
Figure 2: organigramme du groupe Alfa

1.4 Problématique
L'absence d'un outil BI impacte négativement la capacité de NUTRISUD à traiter
efficacement les données relatives à ses employés.
Pour améliorer la satisfaction et la fidélisation de ces derniers, ainsi que pour prendre des
décisions éclairées en matière de ressources humaines, NUTRISUD envisage d'intégrer la BI
dans sa solution. La question clé est donc :
"Comment segmenter les données des employés pour améliorer la productivité et le suivi du
personnel ?"
1.5 Analyse de l’existant
1.5.1 Etude de l’existant
Les services des ressources humaines de l'entreprise gèrent divers aspects administratifs et
sociaux du personnel, mais font face à des défis dans la gestion et l'analyse des données. Ils ont
besoin d'indicateurs pour évaluer la performance sociale de l'entreprise et prendre des décisions
informées en matière de gestion des ressources humaines.

5
1.5.2 Critique de l’existant
La société dispose d'une base de données centrale, mais la diversité des sources de données rend
difficile l'organisation et la structuration efficaces des informations. La fiabilité des données est
également cruciale, tout comme la complexité de la structure de la base de données, qui peut
rendre l'accès aux informations difficile. De plus, la représentation des données historiques pose
des défis supplémentaires en termes de traçabilité et de visualisation.
1.6 Solution proposée
Pour remédier aux problèmes identifiés dans la critique de l'existant, NUTRISUD envisage de
mettre en place une solution BI (Business Intelligence) pour la gestion des ressources humaines.
Cette solution consistera en la création d'un système centralisé permettant une vision globale
des données, facilitant ainsi la génération de rapports. Elle comprendra des outils pour la
collecte, l'analyse et la visualisation des données provenant de diverses sources.
Les avantages attendus de cette solution sont la surveillance en temps réel des performances et
des tendances des employés, la génération de rapports et de tableaux de bord pour des décisions
éclairées, ainsi que la mise en place d'alertes pour détecter les problèmes potentiels. Cela
favorisera également la collaboration entre les départements, améliorant ainsi l'efficacité et les
résultats globaux de l'entreprise.
Les objectifs de cette solution sont les suivants :
• Mise en place d'un entrepôt de données centralisé, intégré, non volatile et historisé.
• Offrir une vision globale de toutes les informations de l'activité, permettant la génération
de rapports par tous les utilisateurs, quel que soit leur niveau de compétence en
informatique.
1.7 Méthodologie de la gestion du projet
La gestion de projet a pour objectif d’assurer la coordination entre les acteurs et les tâches.
Avant de commencer la réalisation de notre projet, nous allons traiter et évaluer d’abord le choix
de la méthode de gestion de projet à suivre.
1.7.1 Choix de la méthode
Pour réussir un projet décisionnel dans les délais définis en répondant exactement aux exigences
du client, nous devons suivre la méthode la plus adéquate avec notre projet. Il existe plusieurs
méthodes de gestion de projet répandues de nos jours. Nous allons nous focaliser
principalement sur les deux méthodes « GIMSI » et « SCRUM BI ». Nous étudierons chacune
de ces méthodes afin de pouvoir dégager une fiche comparative qui va nous aider à choisir la
méthode la plus appropriée pour notre projet
1.7.2 La méthode classique GIMSI
« Gimsi » est une méthode coopérative de conception de systèmes d'aide à la décision et plus
précisément d'assistance au pilotage par tableaux de bord.
Structurée en 10 étapes successives, elle s'inscrit dans un mode management moderne fondé

6
sur de solides principes de gouvernance et de développement durable. La méthode privilégie la
coopération et le partage de la connaissance (1)

Figure 3: Les étapes de la méthode Gimsi (1)

1.7.3 La méthode agile SCRUM BI


« Scrum » est une des méthodes de gestion de projet Agile. En tant que telle, son objectif est
d’améliorer la productivité des équipes agiles même à distance, tout en permettant
une optimisation du produit grâce à des feedbacks réguliers avec les utilisateurs finaux (2).
Scrum divise le processus de développement en itérations appelées : sprints, qui durent
généralement entre 2 et 4 semaines. Pendant chaque sprint, l'équipe de développement crée un
incrément fonctionnel du produit, avec une planification et une rétrospective en début et fin de
sprint pour assurer l'efficacité et l'amélioration continue du processus.
➢ Les rôles dans la méthode scrum comprennent:

• Product owner : Le propriétaire du produit, ou Product owner est le représentant des


parties prenantes et du client.
• Scrum master : Le Scrum Master a pour rôle de veiller à ce que la méthodologie Scrum
soit correctement appliquée.

7
• L’équipe : une équipe Scrum est une équipe multidisciplinaire composée de moins d’une
dizaine de membres.
➢ Les événements scrum :
• La phase de démarrage : La phase de démarrage appelée également Sprint 0 permet de
laisser le temps aux travaux préparatoires au projet.
• Réunion de planification du sprint : Le Product Owner dont faire le bilan avec l’équipe
sur la vision du produit, les dates de livraisons, l’objectif du sprint.
• Réalisation du sprint : Quotidiennement une réunion d’une quinzaine de minutes
maximum doit avoir lieu devant le tableau des tâches afin que chacun puisse faire le
bilan.
➢ Rétrospective du sprint : L’objectif de la revue de sprint est d’inspecter l’incrément
produit au cours du sprint écoulé, faire un point sur l’avancement de la release et adapter
au besoin (3).

Figure 4: Le processus de la méthode Scrum (2)

8
1.7.4 Scrum BI VS GIMSI

Tableau 1: Etude comparative entre les deux méthodes : Scrum et Gimsi

Critère Scrum Gimsi


Processus de travail Itératif Séquentiel
Planification Au début de chaque sprint Au début du projet
Contrôle du produit Contrôle régulier Contrôle à la fin de
réalisation
Relation client Assez permanente Au début et à la livraison du
projet

1.7.5 Méthode adoptée

Nous avons choisi la méthodologie GIMSI, qui se révèle parfaitement adaptée à la gestion
de projets en Business Intelligence et répond efficacement à nos besoins et objectifs pour ce
projet. Cette méthode nous guide tout au long du développement et de la mise en place du
système de tableau de bord d'entreprise. En suivant les différentes phases recommandées par
cette approche, notre objectif est de créer un tableau de bord aligné sur notre stratégie, tout en
laissant une marge de manœuvre aux décideurs locaux lors de la mise en œuvre des stratégies
globales.

Conclusion
Dans ce premier chapitre, nous avons initié notre rapport en présentant notre organisme
d'accueil ainsi que notre mission. En analysant le système actuel de l'entreprise, nous avons
identifié plusieurs lacunes, ce qui a renforcé notre compréhension des besoins et nous a permis
de définir notre solution proposée. Ensuite, nous avons examiné diverses approches et
méthodologies dans le domaine de la Business Intelligence afin de sélectionner celle qui
convient le mieux à notre projet. Ce chapitre constitue une base solide pour la suite de notre
étude, où nous mettrons en œuvre notre solution en suivant la méthodologie choisie.

9
2 Chapitre2 : Phase Préparatoire et Outils
Techniques

10
Introduction

Nous abordons, au cours de ce chapitre, le concept de l’intégration des données ou l’ETL


d’une part et le Data Warehousing et les Data Marts et leurs architectures d’autre part. De plus,
Nous étudions en détails les approches de conception d’un Data Warehouse et nous clôturons
par une étude des outils techniques que nous allons utiliser au cours de notre travail.
2.1 Notion de l’informatique décisionnelle BI
Afin de bien pouvoir présenter notre solution proposée, il serait intéressant d’avoir un aperçu
sur les notions de base de l’informatique décisionnelle.
2.1.1 Définition de l’informatique décisionnelle
L’informatique décisionnelle, aussi appelée business intelligence (BI), désigne un
ensemble de méthodes, de moyens et d’outils informatiques utilisés pour piloter une entreprise
et aider à la prise de décision : tableaux de bord, rapports analytiques et prospectifs. (4)
Elle repose à la fois sur la collecte, le stockage et l’exploitation des données éparses,
déstructurées et hétérogènes que génère une société : archives papier, bases de données, feuilles
de calcul, données clients collectés, etc. L’informatique décisionnelle fournit aux décideurs des
outils d’analyse et des indicateurs sur lesquels ils peuvent s’appuyer pour prendre les
orientations stratégiques sans avoir à gérer tous ces aspects techniques.
2.1.2 Objectifs de l’informatique décisionnelle
Malgré la variété des domaines d’activités des entreprises, ces derniers recourent souvent
à un système informatique décisionnel avec des raisons communes en donnant un avantage à
l’entreprise et à atteindre ces objectifs plus facilement. En effet l’informatique décisionnelle a
plusieurs objectifs qui vont être cités ci-dessous :
• L’exploitation de plusieurs données sources hétérogènes à la fois (fichier Excel, Base de
données, CRM, ERP, Fichier XML).
• Visualiser les données plus clairement, et ceci en créant des rapports et des tableaux de bord
pour mieux assimiler les données.
• Accéder à l’information à tout moment et avec n’importe quelle machine
• Mieux gérer les risques.
• Anticiper les défaillances des fournisseurs et des clients.
• Mieux gérer la trésorerie et les coûts (5).

11
2.1.3 Les étapes du processus de l’informatique décisionnelle
Un Système d'Information Décisionnel (SID) assure quatre fonctions qui sont : la collecte,
l'intégration, la diffusion et la restitution des données. Le principe de fonctionnement d’un
SID peut être résumé par le schéma suivant (6) :

Figure 5: le processus d'un projet Business Intelligence (BI)

2.1.3.1 Phase de Collecte


La collecte est donc l'ensemble des tâches consistant à détecter, à sélectionner, à
extraire et à filtrer les données brutes issues des environnements pertinents pour obtenir des
indicateurs utiles dans le cadre de l’aide à la décision. Les sources de données internes et/ou
externes étant souvent hétérogènes tant sur le plan technique que sur le plan sémantique
2.1.3.2 Phase d’intégrité
Cette deuxième étape est l’intégration des données. Une fois les données centralisées par un
outil d’ETL, celles-ci doivent être structurées au sein de l'entrepôt de données. Cette étape est
toujours faite par un ETL grâce à un connecteur permettant l’écriture dans le data warehouse.
L’intégration est en fait un pré-traitement ayant pour but de faciliter l’accès aux données
centralisées aux outils d'analyse. Ainsi, l'intégration consiste à concentrer les données collectées
dans un espace unifié.
2.1.3.3 La phase d’organisation
La troisième phase permet de stocker les données dans un entrepôt appelé : Data
warehouse. Cet entrepôt contient les données orientées métier, non volatiles (datées),
historisées et documentées. Cette structure de données est volontairement
généralement dénormalisée pour pouvoir optimiser les temps de réponses lorsque l’on fait des
analyses de type OLAP qui se réfère à une base de données multidimensionnelle
Une fois ces données stockées dans le Datawarehouse, on va pouvoir créer des magasins de
données appelés : Datamarts.

12
➢ Data warehouse : Un Data warehouse (ou entrepôt de données en français), est un
système informatique qui permet de stocker et d'analyser de grandes quantités de
données provenant de différentes sources. Les données sont généralement structurées,
c'est-à-dire qu'elles sont organisées selon un schéma prédéfini pour faciliter leur
analyse.
Le but d'un Data Warehouse est de fournir une vue globale et consolidée des données pour aider
les décideurs à prendre des décisions éclairées. Les données stockées dans un Data Warehouse
sont généralement historiques et peuvent remonter sur plusieurs années.
Pour construire un Data Warehouse, il est nécessaire d'extraire, de transformer et de
charger les données provenant de différentes sources. Les données sont ensuite nettoyées et
organisées en fonction d'un modèle de données spécifique. Les utilisateurs peuvent ensuite
interroger le Data Warehouse à l'aide d'outils de requête et de visualisation pour obtenir des
informations pertinentes sur les activités de l'entreprise (7)
➢ Un Data Mart : peut être appelé un sous-ensemble d’un Data Warehouse ou d’un
sous-groupe de données d’entreprise correspondant à un certain ensemble
d’utilisateurs. Data Warehouse implique plusieurs Data Mart logiques qui doivent
être persistants dans leur illustration de données pour garantir la robustesse d’un Data
Warehouse. Un Data Mart est un ensemble de tables qui se concentrent sur une seule
tâche. Elles sont conçues selon une approche ascendante (8).

Figure 6: Exemple des data Mart

13
2.1.3.4 La phase restitution
La dernière phase concerne la restitution des résultats. On distingue à ce niveau plusieurs
types d’outils différents :
• Les outils de reporting et de requêtes
• Les outils d’analyse
• La phase de Datamining
Les outils de reporting et de requêtes permettent la mise à disposition de rapports périodiques,
pré-formatés et paramétrables par les opérationnels. Ils offrent une couche d’abstraction
orientée métier pour faciliter la création de rapports par les utilisateurs eux-mêmes en
interrogeant le datawarehouse grâce à des analyses croisées. Ils permettent également la
production de tableaux de bord avec des indicateurs de haut niveau pour les managers,
synthétisant différents critères de performance.

2.2 Etude comparative des approches de conception du Data Warehouse :


Il en existe plusieurs, cependant les plus utilisées sont l’approche « Top-Down »
prônée par Inmon, l’approche « Bottom-up » de Kimball et l’approche « Hybride » qui dérive
des deux premières approches.

2.2.1 Approche Bottom-Up de Ralph Kimball :


Pour intégrer les données, l'approche Kimball du cycle de vie de l'entrepôt de données
suggère l'idée de dimensions de données conformes. Il existe sous la forme d'une table de
dimension de base partagée entre différentes tables de faits (telles que le client et le produit) au
sein d'un entrepôt de données ou sous la forme des mêmes tables de dimension dans divers
magasins de données Kimball. Cela garantit qu'un seul élément de données est utilisé de
manière similaire dans tous les faits.
L'approche Kimball du cycle de vie de l'entrepôt de données est également basée sur des faits
conformes, c'est-à-dire des magasins de données qui sont mis en œuvre séparément avec une
architecture robuste (9)

14
Figure 7: Explication de l'architecture de base de l'entrepôt de données Kimball

2.2.2 Approche Top-Down de Bill Inmon:

L’approche Top-Down a été conçue par Bill Inmon, le père de l'entrepôt de données
pendant les années 70. Bill Inmon crée une source unique de vérité pour l'ensemble de
l'entreprise. Le chargement des données devient moins complexe en raison de la structure
normalisée du modèle. Cependant, l'utilisation de cette disposition pour l'interrogation est
difficile car elle comprend de nombreux tableaux et liens.
Cette méthodologie d'entrepôt de données Inmon propose de construire des magasins de
données séparément pour chaque division, comme la finance, le marketing, les ventes, etc.
Toutes les données entrant dans l'entrepôt de données sont intégrées. L'entrepôt de données agit
comme une source de données unique pour divers magasins de données afin de garantir
l'intégrité et la cohérence dans l'ensemble de l'entreprise (9)

15
Figure 8:Explication de l'architecture d'entreposage de données de base de Bill Inmon

2.2.3 Approche Bottom-line


Les concepts d'entrepôt de données Kimball et Inmon peuvent être utilisés pour concevoir
avec succès des modèles d'entrepôt de données. En fait, plusieurs entreprises utilisent un
mélange de ces deux approches (appelé modèle de données hybride).
Dans le modèle de données hybride, la méthode Inmon crée un modèle d'entrepôt de données
dimensionnel d'un entrepôt de données. En revanche, la méthode Kimball est suivie pour
développer des magasins de données en utilisant le schéma en étoile.

2.2.4 Tableau Comparatif et choix de l’approche de conception du Data Warehouse :

Tableau 2:Etude comparative entre les deux approches Tow-Down de Inmon et Bottom-Up de
Kimball

Top-Down de Bill Inmon Bottom-Up de Ralph


Kimball
Domaine Orienté Plusieurs domaines en même Orienté sujet
temps
Maintenance Facile Difficile, demande du temps
Temps Construction Coûteuse en temps Rapide
Architecture Un DWH qui par la suite va Plusieurs DTM qui forment
être divisé en plusieurs DTM un DWH
Niveau complexité Équipe spécialisée dans le Une équipe d’amateurs en
domaine est capable

Suite à cette étude comparative, nous avons fini par choisir Kimball comme étant l’approche la
plus appropriée, car elle assure un gain de temps important de plus le niveau de difficulté est

16
acceptable en dépit de nos données et enfin elle permet de répondre aux critères de ce projet
d’une façon optimale.

2.3 Vue d'ensemble des outils et technologies utilisés


Pour réussir un projet de décision, il est crucial de choisir les bons outils décisionnels pour
le développer. De nos jours, il existe des solutions BI propriétaires et open source sur le marché,
ainsi que des outils spécialisés pour des tâches spécifiques du processus de décision. Nous
examinons certains de ces outils pour déterminer les plus appropriés pour notre projet.

2.3.1 Étude comparative des outils ETL

• Python : Le langage de programmation Python est l’un des plus utilisés pour la Data
Science et l’analyse de données. Il s’avère très pratique pour effectuer des tâches
complexes liées à la transformation de données, la visualisation, le Machine Learning
ou l’intelligence artificielle (10).

Figure 9:Logo de python

• SSIS : SQL Server Intégration Services est une plateforme qui permet de générer des
solutions de transformation et d’intégration de données au niveau de l’entreprise.
Utilisez les services d’intégration pour résoudre des problèmes métier complexes (11).

Figure 10: Logo de SSIS

17
• Talend Open Studio : Talend Studio for Data Intégration est un outil permettant la
gestion des données hétérogènes ou homogènes au sein d'un système d'information
(12).

Figure 11: Logo de Talend

18
Tableau 3: Etude comparative entre les Outils de ETL

Outils Avantages Inconvénients


Python -Polyvalence : offrant une vaste -Performance : langage
gamme de bibliothèques et de interprété qui s'exécute plus
frameworks pour l'analyse de lentement que les langages
données et le traitement ETL, tels compilés
que Pandas, NumPy, et -Compatibilité : Python a
SQLAlchemy. plusieurs versions et
-Flexibilité : permet une implémentations ce qui peut
personnalisation et une entraîner des problèmes de
Adaptation précises aux besoins compatibilité et des incohérences
spécifiques du projet, grâce à sa dans le code et l'environnement
syntaxe simple et expressive et à ETL
sa capacité à intégrer des modules
externes.
SSIS -Intégration avec SQL Server : -Les transformations complexes
SSIS s'intègre parfaitement avec peuvent nécessiter des scripts
l'écosystème SQL Server personnalisés.
-Interface graphique conviviale : -La configuration de la gestion
SSIS propose une interface des erreurs peut être complexe
graphique intuitive pour pour les débutants.
concevoir,
Talend -Interface graphique intuitive -Documentation limitée : Bien
open permettant la compréhension des que la communauté de Talend
Studio flux. soit active, la documentation
-Fonctionnalités avancées : Il officielle peut parfois être limitée
offre des fonctionnalités avancées -Limitations de la version
telles que la gestion des erreurs, la gratuite : il existe des limitations
planification des tâches. par rapport aux versions
commerciale

19
2.3.2 Choix d’outils ETL

Nous avons choisi Python comme principal outil pour notre projet ETL est une décision
judicieuse. Sa polyvalence, sa facilité d'apprentissage, sa forte communauté de développeurs et
son intégration avec d'autres technologies en font un choix idéal. Avec Python, nous bénéficions
d'une flexibilité maximale pour mettre en œuvre des workflows ETL complexes tout en assurant
une compatibilité avec diverses sources de données et systèmes existants.

2.3.3 Étude comparative des outils de visualisation

• Power BI : Microsoft Power BI est une solution d'analyse de données de Microsoft. Il


permet de créer des visualisations de données personnalisées et interactives avec une
interface suffisamment simple pour que les utilisateurs finaux créent leurs propres
rapports et tableaux de bord (13).

Figure 12: Logo Power BI

• QlikView : est un outil de visualisation de données qui permet de convertir des données
en informations. Grâce à cet outil, les utilisateurs peuvent regrouper, rechercher,
analyser et visualiser leurs rapports et tableaux de bord.

Figure 13: Logo QlikView

• Tableau : est une Solution Saas leader du marché de la Business Intelligence et de la


Data Visualisation. Cet outil permet aux entreprises et aux particuliers d'analyser leurs
données de manière intuitive sous la forme de tableaux de bord (14).

20
Figure 14: Logo tableau

Tableau 4: Etude comparative entre les Outils de visualisation

Outils Avantages Inconvénients


Power Bi +Plate-forme avancée dotée d’un large - Pas un bon outil pour
éventail de fonctionnalités gérer des données massives.
+Une grande variété d’options - la version gratuite est
graphiques pour a visualisation. limité en termes de stockage
de données.
QlikView +Modèle de données associatif : - Considérablement chère.
permet aux utilisateurs de découvrir des - Les fonctionnalités
relations entre les données de manière captivantes de ne sont pas
dynamique suffisantes pour satisfaire les
+Flexibilité de conception : QlikView utilisateurs
offre une grande flexibilité dans la
conception des tableaux de bord
Tableau +Large gamme de visualisations : -schéma complexes n’est
Tableau offre une vaste gamme de pas faciles a modélisé
visualisations - Aucune option pour la
+ Capacités de visualisation planification et
exceptionnelles. l’actualisation automatique
des rapports et/ou Tableaux
de bords

21
2.3.4 Choix d’outils de visualisations

Après une analyse comparative, Power BI émerge comme le choix optimal pour plusieurs
raisons clés. Tout d'abord, son intégration transparente avec l'écosystème Microsoft offre une
expérience utilisateur fluide, surtout pour ceux déjà familiers avec ces outils. De plus, sa facilité
d'utilisation, avec une interface intuitive et des fonctionnalités de glisser-déposer, permet une
création rapide de visualisations percutantes

2.3.5 Choix de base de données

Nous avons choisi PostgreSQL comme base de données pour accompagner Python et Power
BI dans notre projet. Cette décision est stratégique, car PostgreSQL offre une robustesse, une
évolutivité et une compatibilité SQL complètes, garantissant ainsi la sécurité et l'intégrité de
nos données. L'intégration fluide de PostgreSQL avec Python nous permet une manipulation et
une analyse efficaces des données, tandis que Power BI peut se connecter facilement à
PostgreSQL pour créer des visualisations dynamiques et informatives. Ensemble, ces trois
technologies forment une combinaison puissante pour répondre aux besoins de notre projet
d'analyse de données, offrant à la fois des capacités de stockage solides et des outils avancés de
traitement et de visualisation.

Figure 15:Logo PostgreSQL

Conclusion
Dans ce chapitre, nous avons présenté les notions d’intégration des données ou l’ETL, le Data
Warehousing ainsi que le Data Marts. Ensuite, nous avons étudié les approches et les modèles
de conception d’un Data Warehouse. Finalement, nous avons étudié les outils techniques à
utiliser pour l’intégration des données et le Dashboarding.
Dans le chapitre suivant, nous allons définir les besoin fonctionnel et non fonctionnel, Analyser
les besoins et identifier les indicateurs de performances.

22
3 Chapitre 3 : Conception, Analyse et spécification
des besoins

23
Introduction

Dans ce chapitre nous entamons notre travail en définissant les exigences fonctionnelles
et non fonctionnelles de notre système décisionnel afin de favoriser une conception claire et
précise. Ensuite, nous nous penchons sur les détails de la conception de l’entrepôt de données,
en créant une structure solide et cohérente pour stocker et organiser les données. Enfin, nous
identifions les différents indicateurs de performance.

3.1 Spécification des exigences

Nous présentons dans cette section les exigences fonctionnelles et non fonctionnelles.

3.1.1 Exigences fonctionnelles


Investir dans une solution de Business Intelligence, c’est répondre aux attentes des
décideurs pour les aider à diriger l’entreprise dans la bonne direction. Les décideurs exigent
certaines fonctionnalités qui répondent à leurs besoins :
• Accès rapide et facile aux statistiques sur l'effectif total de l'entreprise.
• Visualisation de la répartition des employés par catégorie pour mieux comprendre la
structure de l'effectif.
• Identification du nombre d'employés actifs et inactifs pour suivre la disponibilité de la
main-d'œuvre.
• Analyse de la répartition des employés par département ou service pour optimiser la
gestion des ressources humaines et la planification des effectifs.
En répondant à ces besoins fonctionnels, le système de gestion des ressources humaines aidera
les gestionnaires RH à mieux comprendre et gérer leur effectif, contribuant ainsi à une meilleure
gestion des talents et à l'atteinte des objectifs organisationnels.

3.1.2 Exigences non fonctionnelles


Les exigences non fonctionnelles décrivent les contraintes que notre application doit respecter.
Elles concernent généralement la performance, la simplicité, la fiabilité et maintenance de
l'application :
✓ Simplicité : Avoir des rapports simples et faciles à interpréter fait partie des finalités
d’un projet décisionnel.
✓ Ergonomie : Il faut avoir des interfaces simples et faciles à gérer.
✓ Performance : le temps de réponse de la solution doit être optimisé au maximum vu le
grand volume de données qui implique un temps de traitement important.

24
✓ Maintenance : L'application doit être facile à maintenir et garantir la rapidité du
processus, se rapprochant ainsi autant que possible du temps réel.

3.2 Analyse des besoins

Dans cette section, nous procédons à une analyse globale en utilisant un diagramme
de cas d’utilisation pour décrire les principales fonctionnalités accessibles aux acteurs. Nous
avons choisi d’utiliser le langage de modélisation UML (Unified Modeling Language) en raison
de sa polyvalence et de sa flexibilité. La figure17 présente un diagramme de cas d’utilisation
général, offrant une représentation claire et structurée des relations entre les acteurs et les cas
d’utilisation.

25
Figure 16:Diagramme de cas d’utilisation

Grâce à cette analyse globale, nous pouvons construire une base solide lors du développement
et de la conception du projet.

3.3 Conception globale de l’entrepôt de données


Un entrepôt de données est un système informatique qui a pour but de collecter, gérer, conserver
et analyser les données issues de différentes sources. Il est généralement utilisé pour prendre
des décisions d’affaires éclairées. Comme la conception globale fait partie de l’étape de

26
préparation de l’entrepôt données, nous commencerons par présenter la table des faits, puis les
dimensions, afin d’obtenir une modélisation qui répond de manière adéquate aux exigences de
l’entreprise.
• Fait : C’est la table centrale du modèle dimensionnel, elle contient des mesures et des clés des
dimensions définis pour garantir le lien entre elles. Autrement dit, tout ce que vous voulez
analyser
• Dimensions : Les dimensions permettent d’analyser les données de faits en fournissant un
cadre pour une analyse détaillée et pertinente, chaque dimension comporte un ou plusieurs
attributs.
3.3.1 Étude du modèle conceptuel
➢ Modèle en étoile :
La modélisation en étoile est le modèle le plus simple et celui qui est le plus couramment utilisé
dans le design des Data Warehouses. Le schéma ci-dessus permet de comprendre l’origine de
cette appellation « en étoile ».

Figure 17:le schéma d’un modèle en étoile

La modélisation dimensionnelle offre plusieurs avantages tels que la simplicité et les


performances des requêtes, l'administration de chargement simplifiée, la facilité de parcours
des données, l'intégrité référentielle intégrée et les jointures faciles. Cependant, elle présente
également des inconvénients tels que les redondances dans les dimensions et une alimentation
complexe. Malgré cela, la modélisation dimensionnelle reste une méthode populaire pour
concevoir des entrepôts de données performants et efficaces.
➢ Modèle en flocon de neige
Le schéma en flocons de neige est une adaptation du schéma en étoile, qui met davantage
l'accent sur la hiérarchisation des dimensions. Cette méthode est particulièrement utile lorsque
la corrélation doit être plus flexible à travers les différents niveaux et les composantes d'une
dimension.

27
Figure 18:exemple d’un modèle en flocons de neige

Le schéma en flocons de neige offre une plus grande flexibilité dans les données, réduit le
volume et simplifie la maintenance des tables de dimensions. Cependant, il peut nécessiter
plusieurs jointures pour accéder aux données souhaitées et la navigation peut être plus difficile.

➢ Modèle en constellations
Le modèle en constellation est une méthode de conception pour les entrepôts de données
qui combine plusieurs modèles en étoile en utilisant des tables de faits partagées. Cette méthode
est particulièrement utile lorsque les données doivent être analysées à partir de différents points
de vue et que des tables de faits partagées peuvent être utilisées pour connecter les différents
modèles en étoile.
Le modèle en constellation permet une grande flexibilité dans l'analyse des données et permet
de répondre à des besoins d'analyse complexes en reliant des modèles en étoile différents.
Cependant, cette méthode peut également entraîner une complexité accrue en raison du nombre
de tables et de jointures nécessaires.

Figure 19:exemple d’un modèle en constellation

Le modèle en constellation offre une meilleure gestion des données, mais peut être complexe
en raison du grand nombre de tables et de jointures nécessaires. Malgré cela, nous avons choisi

28
ce modèle pour notre projet en raison de la complexité de nos requêtes et du nombre important
de tables de faits partageant plusieurs dimensions.

3.3.2 Choix du modèle conceptuel


Nous avons choisi d'utiliser le modèle en étoile pour la création de notre Data Warehouse,
en organisant nos données autour d'une table centrale de faits et de tables de dimensions. La
table centrale de faits contient les mesures clés que nous souhaitons analyser

3.3.3 Schéma global de la conception


Dans ce schéma, la table de faits représente les mesures principales ou les événements
centraux que vous souhaitez analyser, tandis que les tables de dimensions contiennent les
attributs des entités associées à ces mesures. Les dimensions sont reliées à la table de faits par
des clés étrangères.
Ce schéma en étoile est particulièrement efficace pour l'analyse de données car il simplifie les
requêtes et permet des performances élevées lors de l'interrogation des données. De plus, la
réduction de la redondance des dimensions contribue à minimiser l'espace de stockage
nécessaire tout en assurant une intégrité et une cohérence des données.

Figure 20:Modélisation du data Warehouse

29
3.3.3.1 Identification des tables de faits

Une table de faits est une structure centrale qui stocke les données quantitatives et
contextuelles importantes, souvent liées à des événements ou des transactions, et est
généralement entourée de tables de dimensions pour permettre une analyse
multidimensionnelle des données.

Figure 21: les champs de la table Fact_RH

30
Tableau 5:Table de fait

Attributs Description attributs


Matricule L’identifiant de la table Dim_Employée (Clé
étrangère)
Contrat L’identifiant de la table Dim_Contrat (Clé
étrangère)
id L’identifiant de la table Dim_Temps(Clé
étrangère)
Brut Salaire brut de chaque employé
Sal_Net Salaire net de chaque employé
Net_payer Salaire net à payer de chaque employé
Avance Avance du salaire
Prêt Prêt sur salaire
Nb_jour_Trav Nombre de jours de travail
Date La date de versement du salaire

3.3.3.2 Identification des dimensions

Ces tables de dimension fournissent un contexte autour des mesures principales dans
la table de faits, ce qui permet d'analyser les données selon différents attributs et dimensions.

Tableau 3-6: Les Dimensions

Nom dimension Description dimension


Dim_Employe Dimension enregistre les informations relatives aux
employés.
Dim_Contrat Contient des informations relatives aux contrats d’employés.
Dim_Temps Fournit une structure pour analyser les données en fonction
du temps

31
➢ Dimension Employé

Figure 22 : Dimension Employé

32
Tableau 7: les champs de la table Employé

Attributs Description attributs


Matricule Un numéro unique à chaque employé
Société Société dans laquelle l'employé travaille
Site Site dans laquelle l'employé travaille
Service Service dans laquelle l'employé travaille
Sexe Sexe de l'employé.
Age Age de l'employé.
Catégorie_d’Age Catégorie d’Age de l’employé
Site de travail Site de travail de l’employé
Statut_professionnel Le statut de l'employé dans l'organisation
Situation_Familiale Situation Familiale de l’employé
Enfant_a_charge Enfant en charge de l’employé
Date_d’ancienneté La date à laquelle l'employé a commencé à
travailler
Date_de_Naissance La date de naissance de l'employé.
Adresse Adresse de l’employé
Ville Ville de l’employé
Nom_pays Nom du pays de l’employé

➢ Dimension Contrat

1.
Figure 23: Dimension Contrat

33
Tableau 3-8: les champs de la table Contrat

Attributs Description attributs


Contrat Un numéro unique à chaque contrat
Nature_de_contrat Nature de contrat
Motif_Contrat Motif de contrat
Nb_contrat Nombre de contrats
Date_debut Date début de contrat
Fin_contrats Date fin de contrat

➢ Dimension Temps

Figure 24: Dimension Temps

Tableau 9:les champs de la table Employé

Attributs Description attributs


ID Identifiant de la dimension
Date C'est l'attribut principal de la dimension temps
Année L'année calendaire à laquelle la date appartient
Mois Le mois calendaire auquel la date appartient.
Jour Le jour de la semaine correspondant à la date.

3.4 Identification des indicateurs de performances

Un indicateur clé de performance (KPI) est une mesure quantitative essentielle qui
permet de contrôler et de gérer une activité, de prouver l'efficacité avec laquelle une entreprise
atteint ses objectifs clés, et de prendre des décisions stratégiques éclairées. Nous avons identifié
ces indicateurs lors de la phase de capture des besoins exprimés par la NUTRISUD.

34
Tableau 10:indicateurs de performances

Indicateurs Description Règle technique


Nombre totale d’employées Nombre totale Le nombre d’employées de la
d’employées au sien de Denier date de paie
l’entreprise
Age Moyen Age Moyen d’employées Age Moyen d’employées de la
dernière date de paie
Coût Salarial Moyen Coût Salarial Moyen Le Coût Salarial Moyen de la
d’employées par mois dernière date de paie

Nouveaux Recrutement Nouveaux Recrutements Nouveaux recrutements de la


Estimation par rapport le dernière date de paie par
mois précédent rapport les employées du mois
précèdent
Masse Salariale Masse Salariale Masse Salarial de la dernière
d’employées par mois date de paie
Somme des Avances Somme des Avances Somme des Avances de la
d’employées par mois dernière date de paie
Charges totales Charges totales Charges totales d’employées
d’employées par mois de la dernière date de paie

Conclusion

Au cours de ce chapitre, nous avons identifié les exigences fonctionnelles et non


fonctionnelles de notre projet, Nous avons également présenté le modèle conceptuel de notre
entrepôt de données, ainsi que sa conception globale. Enfin, nous avons identifions les KPI sur
lesquels se portera notre analyse.

35
4 Chapitre 4 : Préparation des Données

36
Introduction
Dans le cadre de ce chapitre, nous continuons notre travail dans le processus complet de
mise en œuvre d'un système d'analyse de données, depuis l'extraction initiale des données
jusqu'à leur visualisation dynamique. Notre objectif est de fournir une compréhension
approfondie et accessible de cette démarche, en mettant en lumière les pratiques de Business
Intelligence (BI) qui sous-tendent chaque étape.

4.1 Objectifs
L'objectif de notre travail ETL dans le domaine des ressources humaines est de
permettre l'analyse des données des employés pour parvenir à une segmentation des effectifs.
En effet, la segmentation des effectifs est un processus crucial pour comprendre les différents
groupes d'employés au sein de l'entreprise, leurs compétences, leurs besoins en formation et
leur potentiel de développement professionnel. Grâce à une architecture ETL robuste, nous
collectons, transformons et chargeons les données des employés dans une base de données
adaptée. Nous veillons à nettoyer et normaliser les données pour garantir leur qualité et leur
pertinence. En utilisant des techniques d'analyse de données, nous identifions ensuite les
différents segments d'employés et leurs caractéristiques clés.
Ce travail ETL nous permet de fournir des données fiables et précises pour soutenir la
segmentation des effectifs, aidant ainsi l'entreprise à adapter sa stratégie de gestion des
ressources humaines, à proposer des programmes de développement et de rétention ciblés, et à
favoriser l'épanouissement professionnel de chaque groupe d'employés. Ce processus jouera un
rôle essentiel dans la réalisation de l'objectif de segmentation des effectifs, qui est crucial pour
favoriser l'engagement des employés, renforcer la culture d'entreprise et soutenir la croissance
et la réussite globale de l'organisation.

4.2 Extraction, Transformation et Chargement (ETL) avec Python


Dans cette partie consacrée à l'ETL (Extraction, Transformation et Chargement), nous
plongeons au cœur du processus fondamental de la Business Intelligence et de l'analyse de
données. L'ETL représente l'infrastructure essentielle qui permet aux organisations de collecter,
nettoyer, transformer et charger les données en vue de leur utilisation ultérieure dans les
analyses et les prises de décision stratégiques.
Au cours de cette exploration, nous détaillerons chaque phase de l'ETL, en mettant en lumière
les méthodes, les outils et les meilleures pratiques associés afin que cette partie puisse fournir
une compréhension approfondie des processus et des techniques nécessaires pour mener à bien
des projets d'ETL efficaces.

37
4.2.1 Phase d’Extraction
Dans le processus d'extraction des données, nous avons utilisé Python pour récupérer les
informations essentielles contenues dans les fichiers Excel RH de la société Nutrisud. Voici une
description détaillée de cette étape
4.2.1.1 Identification des sources de données :
Lorsque nous abordons le fichier Excel concernant les ressources humaines (RH) de la
société Nutrisud sans avoir de préalable connaissance sur ce domaine spécifique, nous sommes
confrontés à un défi particulier. Le domaine des ressources humaines est vaste et complexe,
impliquant une multitude de données variées et souvent interconnectées. Sans avoir une idée
claire de la structure et du contenu de ce fichier, il devient essentiel de procéder avec méthode
et stratégie pour en extraire des informations significatives.
Nous devons alors adopter une approche exploratoire, en examinant attentivement les
différentes feuilles de calcul, les colonnes, les en-têtes et les valeurs pour identifier des schémas
et des tendances éventuelles. Il est probable que le fichier contienne des informations telles que
les effectifs, les postes, les salaires, les formations, les performances, etc. Nous pouvons
également rencontrer des termes et des acronymes spécifiques au domaine des RH, nécessitant
une recherche supplémentaire pour les comprendre correctement. En somme, bien que nous
n'ayons pas d'idée préconçue sur le contenu du fichier RH de Nutrisud, notre approche
méthodique et notre capacité à explorer et à interpréter les données nous permettront d'en tirer
des insights précieux pour notre analyse.

38
Tableau 11:Table EMPCTR de la source

39
Tableau 12: Table EMPLOID de la source

40
Tableau 13: Table HISTOPAYE

41
42
Tableau 14: Table EMPLOCTR

43
Tableau 15: Table SERVICE

4.2.1.2 Chargement des bibliothèques :


À l'aide de Python, nous avons importé les bibliothèques nécessaires à notre processus
d'extraction, en mettant notamment en œuvre Pandas pour la manipulation des données et xlrd
pour la lecture des fichiers Excel (10).
✓ Pandas : est une bibliothèque open-source très populaire en Python qui offre des
structures de données et des outils d'analyse de données efficaces et faciles à utiliser.
Elle est largement utilisée dans le domaine de la science des données et de l'analyse de
données.
✓ Numpy : est une bibliothèque fondamentale en Python qui fournit des structures de
données et des fonctions pour effectuer des calculs numériques efficaces et optimisés.
Elle est largement utilisée dans les domaines de la science des données, de l'analyse
numérique et du calcul scientifique.
✓ Matplotlib : est une bibliothèque du langage de programmation Python destinée à tracer
et visualiser des données sous forme de graphiques.
✓ Seaborn : est une bibliothèque permettant de créer des graphiques statistiques en
Python.

44
4.2.1.3 Importation des données :
Nous avons utilisé la fonction read_excel() de Pandas pour charger les données à partir des
fichiers Excel dans des DataFrames, une structure de données tabulaire puissante et flexible.

Figure 25:Importation des données

Après le changement de fichier Excel source, nous avons opté pour encoding='latin1' et
delimiter=';' lors de l'importation des données avec Pandas. Cela a permis de traiter les
caractères spéciaux correctement et de séparer précisément les valeurs en colonnes distinctes.
Cette approche garantit une importation précise des données, assurant ainsi la qualité et
l'intégrité de notre analyse

4.2.2 Phase transformation


La phase de transformation des données joue un rôle crucial dans le processus d'analyse de
données. Elle permet de préparer les données extraites du fichier Excel RH de Nutrisud pour
l'analyse ultérieure, en les rendant exploitables, fiables et cohérentes. Voici quelques raisons
pour lesquelles la phase de transformation est essentielle :

Figure 26:Illustration des fausses dates de données sources

45
Figure 27:Identification des types de données erronées dans les sources

Figure 28:Détection des Valeurs Manquantes

46
4.2.2.1 Conversion des types de données :
• Nous avons converti les types de données selon les besoins de l'analyse. Par exemple,
nous avons converti les dates au format objet, en objets datetime pour faciliter la
manipulation et l'analyse temporelle.

Figure 29:Conversion des types de données

4.2.2.2 Gestion des données manquantes :


• Nous avons traité les valeurs manquantes en les supprimant ou en les remplaçant
par des valeurs appropriées, telles que la moyenne ou la médiane, selon le
contexte.

Figure 30:Gestion des données manquantes

47
4.2.2.3 Nettoyage des données :
• Nous avons nettoyé les données en identifiant et en corrigeant les erreurs, les
valeurs aberrantes et les doublons pour garantir la qualité et la cohérence des
données.

Figure 31:Nettoyage des données

4.2.2.4 Normalisation des données :


• Nous avons normalisé les données pour les mettre à l'échelle ou les ramener à une plage
commune, facilitant ainsi la comparaison et l'analyse des différentes variables

Figure 32:Normalisation des données

4.2.2.5 Création de nouvelles variables :


• Nous avons dérivé de nouvelles variables à partir des données existantes pour obtenir
des insights supplémentaires. Par exemple, nous avons calculé l’âge en fonction de la
date de naissance, et nous avons calculé l'ancienneté en fonction de la date d'embauche

48
Figure 33:Création de nouvelles variables

4.2.2.6 Fusion et combinaison de données :


• Si les données étaient réparties sur plusieurs fichiers ou tables, nous les avons
fusionnées ou combinées en une seule structure de données pour faciliter
l'analyse.

Figure 34:Création de nouvelles variables

4.2.2.7 Filtrage des données :


• Nous avons filtré les données pour extraire les données pertinentes pour notre
analyse, en fonction de critères spécifiques tels que les dates, les catégories, les
régions, etc.

Figure 35:Filtrage des données

4.2.2.8 Structuration des Données : Tables de Mesure et Tables de Faits pour une Analyse
Efficace
Après avoir appliqué les transformations nécessaires aux données extraites du fichier Excel RH
de Nutrisud, nous avons procédé à la création de deux types de DataFrames distincts : les tables
de mesure et les tables de faits. Cette distinction nous permet d'organiser les données de manière

49
à faciliter le chargement dans la base de données et à préparer l'environnement pour l'analyse
ultérieure.
Les tables de mesure contiennent des données descriptives et statiques qui fournissent des
informations sur les entités de l'entreprise, telles que les employés et les Contrats, etc. Ces tables
agissent comme des points de référence pour les analyses futures et sont souvent utilisées pour
filtrer, agréger ou segmenter les données lors de la création de rapports ou de visualisations.
D'autre part, les tables de faits contiennent des mesures numériques ou quantitatives qui
représentent les événements ou les transactions de l'entreprise, tels que les salaires nets, brut
des employés, les heures travaillées etc. Ces tables servent de base pour les analyses analytiques
et les rapports de performance, où les mesures sont agrégées et comparées selon différents
critères.

En organisant les données de cette manière, nous créons une structure cohérente et bien définie
qui facilite le chargement des données dans la base de données PostgreSQL. De plus, cette
approche nous permet de mieux comprendre la nature des données et de préparer efficacement
l'environnement pour l'analyse ultérieure.

Figure 36: Dimension Contrat après le traitement

50
Figure 37:Dimension Employées après le traitement

Figure 38: Dimension Temps après le traitement

51
Figure 39: Table de fait Fact_RH après le traitement

4.2.3 Phase de chargement


Une fois la phase de transformation des données achevée, nous procédons à la connexion à la
base de données PostgreSQL pour charger les données transformées. Voici comment nous
établissons cette connexion
4.2.3.1 Installation des bibliothèques nécessaires :
Tout d'abord, nous nous assurons d'avoir installé les bibliothèques Python nécessaires pour
interagir avec PostgreSQL. La bibliothèque la plus couramment utilisée est psycopg2.

Figure 40:Installation des bibliothèques nécessaires

52
4.2.3.2 Connexion à la base de données :
Une fois la structure de la base de données prête, nous établissons une connexion à la base
de données PostgreSQL à l'aide d'outils tels que Psycopg2 ou S en Python. Cela nous permet
d'interagir avec la base de données et d'exécuter des requêtes SQL pour charger les données.

Figure 41:Connexion à la base de données

4.2.3.3 Chargement des données :


Nous transférons les données préparées depuis les DataFrames de Python dans les tables
correspondantes de la base de données. Cela peut être réalisé en utilisant des requêtes SQL
d'insertion ou en utilisant des méthodes spécifiques des bibliothèques Python, telles que
to_sql() de Pandas.

Figure 42:Chargement des données

4.2.3.4 Validation et vérification :


Après le chargement des données, nous effectuons des vérifications pour nous assurer que
les données ont été correctement chargées dans la base de données PostgreSQL.

53
Figure 43: Chargement de dimension Contrat dans PostgreSQL

Figure 44:Chargement de dimension Employées dans PostgreSQL

Figure 45:Chargement de dimension Temps dans PostgreSQL

Figure 46:Chargement de Table de fait Fact_RH dans PostgreSQL

54
4.2.3.5 Fermeture de la connexion :
Enfin, une fois le chargement des données terminé, nous fermons la connexion à la base de
données en utilisant la méthode close () de l'objet connexion.

Figure 47:Fermeture de la connexion


Conclusion

Dans ce chapitre nous avons mis en évidence l'importance cruciale de l'extraction, de


la transformation et du chargement des données pour préparer efficacement les données en vue
d'une analyse ultérieure. En utilisant des outils comme pandas, les données peuvent être
extraites de diverses sources, transformées pour assurer leur qualité et leur cohérence, puis
chargées dans une base de données pour une manipulation et une analyse facile. En maîtrisant
ces processus, les analystes peuvent obtenir des insights précieux pour prendre des décisions
éclairées et maintenir un avantage concurrentiel.

55
5 Chapitre 5 : Création des Tableaux de Bords

56
Introduction

Après avoir transformé les données brutes en des données exploitables, nous nous
intéressons, dans cette phase, à la conception et le développement des tableaux de bord.

La finalité de créer des tableaux de bord interactif a pour objectif la prise des décisions
stratégiques par le biais des indicateurs de performances.

5.1 Environnement technique et importation des données

Arrivant à ce niveau, les données sont filtrées et transformées et il est le temps pour
les exploiter dans ce processus. Nous avons opté pour l’outil Microsoft Power BI après l’étude
de plusieurs outils de visualisation de données (voir chapitre 2). Ce logiciel permet la création
des rapports et des tableaux de bord interactifs, efficaces et faciles à interpréter. Nous
commençons, comme décrit dans la figure (48), par établir une connexion entre Microsoft
Power BI et notre base de données PostgreSQL pour obtenir les données exploitables :

57
Figure 48: Sélection du type de Base de données dans power BI.

Ensuite, nous devons saisir le nom du serveur et le nom de la base de donner, indiqué
dans la figure (49).

58
Figure 49: Connexion au serveur de base de données

Nous remarquons dans la même fenêtre (figure (49)), l’existence de deux modes de connectivité
des données :
• Import (Importation des données)
• DirectQuery (Connexion directe)

L’option « Import » nous permet d’importer une copie des données existantes dans notre
base de données. Le traitement ne sera pas appliqué directement sur la base de données source.
L’avantage de cette option est la rapidité des requêtes appliquées et la possibilité d’importer
des données via plusieurs sources. Par contre, l’option « DirectQuery » nous permet d’exploiter
les données directement et en temps réel à partir de leur source. Dans le cas où nous aurons
besoin d’importer des données à partir de plus qu’une source, cette option ne sera pas utile.
➢ Nous choisissons de travailler avec l’option « Import » pour garantir une meilleure
performance.
Une fois la connexion établie, nous atteignons l’étape où nous sommes confrontés à nos
données. À ce stade, nous pouvons sélectionner les données spécifiques que nous souhaitons
importer et utiliser dans Power BI comme illustre la figure (50).

59
Figure 50: Sélection des dimensions et table de fait à importer

En suivant ces étapes, nous pouvons importer avec succès les données dans Power BI et passer
à la visualisation et à l’analyse des données.

5.2 Modéliser les données et créer des mesures en DAX

Une fois que toutes les tables de faits et les tables de dimensions ont été créées, l’usager doit
maintenant les « faire parler » entre elles. Pour cela, il créera des relations entre les champs
avec des clés communes, en respectant certaines conventions. Il pourra également bonifier son
modèle par le biais de mesures, créées en Langage DAX (Data Analysis Expression).

60
Figure 51: Schéma du Data Warehouse importé dans Microsoft Power BI

Une fois les données obtenues, nous passons à la création des rapports. Power BI
propose une large gamme de graphiques que nous pouvons utiliser dans ces rapports. De plus,
dans le but d’améliorer les analyses, il offre la possibilité de créer de nouvelles mesures autres
que celles qui existent dans les tables de faits grâce au langage DAX.
• DAX : Il regroupe des méthodes, des opérateurs et des valeurs fixes qui permettent de
formuler des expressions et des formules pour effectuer des calculs. À l’aide de DAX,
Il est possible de générer des informations à partir des données déjà présentes dans votre
modèle.
Voilà quelques représentations des requêtes Dax utilisées pour visualiser les différents tableaux
de bord

Figure 52: Création de mesure Nombre d'employés en DAX

61
Figure 53: Création de mesure Masse Salariale en DAX

Figure 54: Création de mesure Somme des Avances en DAX

Figure 55: Création de mesure Totale jours Congés Prix en DAX

Figure 56: Création de mesure Cout congés chômées payer en DAX

Figure 57: Création de mesure Age moyenne en DAX

Figure 58:Nombre total d'employés au [DATE] calculé dynamiquement

5.3 Créer des rapports

Dans le processus de création de rapports dans Power BI Desktop, la visualisation des


données revêt une importance primordiale. À travers des visualisations interactives, les
utilisateurs peuvent explorer et interpréter les données pour prendre des décisions éclairées.
Dans cette étape cruciale, nous avons développé plusieurs visualisations pour représenter les
résultats de nos analyses et mettre en lumière les tendances et les insights clés. Dans ce rapport,
nous présentons un aperçu des rapports et tableaux de bord créés, mettant en avant les liens vers
les feuilles de données qui les contiennent. Ces outils visuels sont conçus pour faciliter la
navigation et l'exploration des données, offrant ainsi aux utilisateurs une compréhension
approfondie des informations présentées.

62
5.3.1 Page d’accueil

La page d’accueil vise à créer une interface regroupant les liens vers les feuilles de données
qui contiennent les tableaux de bord et les rapports que nous avons réalisés. La figure (59)
contient 3 liens :
• Un lien vers la feuille du Suivi des Employés.
• Un lien vers la feuille du Suivi des Salaires des Employés.
• Un lien vers la feuille du Suivi des Congés des Employés.

Figure 59:Page d’accueil

5.3.2 Tableaux de bord 1 : Suivi des Employés

Ce tableau de bord offre un aperçu concis de la gestion des ressources humaines. Il présente des
données telles que le nombre total d'employés, l'âge moyen, les nouveaux recrutements, le coût
salarial moyen, ainsi que des répartitions par statut professionnel, service, nature de contrat et
catégorie d'âge. Avec des filtres par date, société et site, il permet une personnalisation des
données pour une analyse approfondie et une compréhension précise de la situation des
ressources humaines dans différentes perspectives.

63
Figure 60:Tableau de bord de suivi des Employés

Ce tableau de bord offre une vision concise mais complète de la situation des ressources
humaines, fournissant ainsi des informations précieuses pour la prise de décisions stratégiques
et la gestion efficace du personnel.

5.3.2.1
5.3.2.2 Explication de choix des graphes :

Dans notre choix d'outils de visualisation pour les tableaux de bord, les cartes se sont avérées
des options particulièrement efficaces. Elles ont permis une présentation concise mais puissante
des indicateurs clés tels que le nombre total d'employés, l'âge moyen, les nouveaux
recrutements et le coût salarial moyen. Leur simplicité visuelle a facilité la compréhension
instantanée de ces données essentielles, fournissant ainsi une vue d'ensemble claire de la
situation.

Figure 61:Nombre total d'employés, Age moyen, Nouveaux recrutement et Cout salariale moyen

64
L'histogramme est un outil de visualisation essentiel pour représenter la distribution d'une
variable continue le long d'un axe spécifique. Dans notre cas, la figure (62) démontre son
efficacité dans la visualisation du nombre d'employées selon leur statut professionnel. Sur l'axe
des abscisses (X), nous plaçons les différents statuts professionnels, tandis que sur l'axe des
ordonnées (Y), nous représentons le nombre correspondant d'employées. Cette représentation
graphique offre une vue instantanée de la répartition des effectifs selon les différents statuts
professionnels, permettant ainsi une analyse rapide et une meilleure compréhension de la
structure organisationnelle

Figure 62: Répartition des employés par statut professionnel

Pour suivre l'évolution du nombre d'employées au fil du temps et par société, nous avons opté
pour l'utilisation du graphique à zones empilées, illustré dans la figure (63). Ce choix s'est
justifié par sa capacité à représenter les totaux cumulés à l'aide des données numériques
disponibles dans notre cas. Grâce à ce graphique, nous pouvons aisément comparer les effectifs
de chaque société tout en visualisant leur évolution au fil du temps. Cela offre une perspective
claire et concise de la croissance ou de la décroissance des effectifs dans chaque société,
facilitant ainsi l'analyse des tendances et la prise de décisions stratégiques.

65
Figure 63:l'évolution du nombre d'employées au cours du temps

La figure(64) utilise un graphique en secteurs pour visualiser le nombre et le pourcentage


d'employés par nature de contrat. Cette représentation graphique offre une vue instantanée de
la répartition des effectifs selon les différents types de contrat, en mettant en évidence à la fois
les chiffres absolus et les proportions relatives. Cette approche permet une compréhension
rapide de la répartition de la main-d'œuvre en fonction des différents types de contrat, ce qui
peut être crucial pour la gestion des ressources humaines et la planification stratégique.

Figure 64:Répartition du nombre d'employées par nature de contrat

Pour représenter le nombre d’employées par service et par statut professionnel, nous avons
sélectionné le graphique à barres empilées, tel qu'illustré dans la figure (65).

66
Ce choix de visualisation permet une présentation claire et concise des effectifs par service, tout
en mettant en évidence la répartition interne des différents statuts professionnels au sein de
chaque service.
Cette méthode offre ainsi une vue détaillée de la structure organisationnelle, facilitant
l'identification des tendances et la prise de décisions stratégiques en matière de gestion des
ressources humaines.

Figure 65:Répartition des employées par service et statut professionnel

Nous avons utilisé un graphique en entonnoir pour présenter la répartition des employés par
catégorie d'âge. Cette représentation visuelle permet de mettre en évidence la distribution des
effectifs selon les différentes tranches d'âge de manière progressive, avec les catégories les plus
nombreuses en haut de l'entonnoir et les moins nombreuses en bas.

67
Cette visualisation offre une compréhension instantanée de la répartition générationnelle au sein
de l'entreprise, mettant en lumière les éventuels déséquilibres ou tendances démographiques
importantes.

Figure 66:Répartition des employés par catégorie d'Age

Afin de permettre une analyse plus ciblée de nos données, nous avons utilisé des filtres qui
incluent la segmentation par date, société et site. En utilisant ces filtres, les utilisateurs peuvent
restreindre les données pour se concentrer sur des périodes spécifiques, des entités
commerciales particulières ou des sites spécifiques. Cette fonctionnalité offre une flexibilité
d'analyse, permettant aux utilisateurs d'explorer les données selon différents contextes et de
répondre à des questions spécifiques en fonction de leurs besoins. En fin de compte, cela facilite
une prise de décision plus précise et éclairée.

Figure 67:Des Segments contient les Date, Société et Site

68
5.3.3 Tableaux du bord 2 : Suivi des salaires des employées

Le deuxième tableau de bord offre une analyse approfondie de la gestion de la masse salariale
et des aspects financiers associés. Il comprend plusieurs visualisations clés pour une
compréhension détaillée de ces données cruciales.

Figure 68:Tableau du bord Suivi des Salaires des Employés

5.3.3.1 Explication de choix des graphes :

Répartition de la Masse Salariale par Statut Professionnel (Graphique en secteur) : Ce


graphique permet une vue d'ensemble de la répartition des coûts salariaux selon les différents
statuts professionnels, offrant une compréhension immédiate de la structure des coûts salariaux.

69
Figure 69: Répartition de la Masse Salariale par Statut Professionnel

Analyse de la Masse Salariale par Nature de Contrat (Graphique en anneau) : Cette


représentation visuelle met en lumière la répartition de la masse salariale en fonction des types
de contrats, facilitant ainsi l'identification des tendances dans les coûts associés à chaque type
d'engagement.

Figure 70:Analyse de la Masse Salariale par Nature de Contrat

Analyse des Avances, Masse Salariale et Salaire Net par Année et Mois (Histogramme
groupé) : Cet histogramme offre une comparaison détaillée des avances, de la masse salariale
et du salaire net au fil du temps, permettant de suivre les évolutions mensuelles et annuelles des
dépenses salariales.

70
Figure 71:Analyse des Avances, Masse Salariale et Salaire Net par Année et Mois

Comparaison de la Masse Salariale en 2023 et 2024 (Graphique en courbe et histogramme


groupé) : Ces visualisations permettent une comparaison directe des coûts salariaux entre deux
années, mettant en évidence les variations et les tendances dans les dépenses salariales au fil du
temps.

Figure 72:Comparaison de la Masse Salariale en 2023 et 2024

Comparaison des Salaires et Salaire Moyen par Année (Graphique en courbe et


histogramme groupé) : Ces graphiques offrent une comparaison des salaires et du salaire
moyen au fil des années, fournissant ainsi des insights sur l'évolution de la rémunération des
employés.

71
Figure 73:Comparaison des Salaires et Salaire Moyen par Année

Analyse de la Masse Salariale et Salaire Moyen par Service (Graphique en courbe et


histogramme empilé): Ces visualisations offrent une analyse détaillée de la masse salariale et
du salaire moyen par service, permettant de comparer les performances financières entre les
différents départements. Les courbes mettent en évidence l'évolution des dépenses salariales,
tandis que les histogrammes empilés permettent de voir la répartition des coûts salariaux par
service.

Figure 74:Analyse de la Masse Salariale et Salaire Moyen par Service

72
5.3.4 Tableaux de bord 3 : Suivi des Congés des Employés

Dans la dernière table de bord dédiée au suivi des congés des employés, nous avons choisi
des visualisations spécifiques pour fournir un aperçu clair et détaillé de différents aspects liés
aux congés.

Figure 75: Tableaux de bord Suivi des Congés des Employés

5.3.4.1 Explication de choix des graphes :

Graphique en courbe et histogramme empilé pour Récapitulatif des Coûts des Congés
Chômés et des Jours de Congés Pris par Service en 2023 : Cette visualisation offre une vue
globale des coûts associés aux congés chômés et des jours de congés pris par service pour
l'année 2023. La combinaison d'une courbe et d'un histogramme empilé permet de comparer les
coûts et les jours de congés pris par service de manière visuellement percutante.

73
Figure 76:Récapitulatif des Coûts des Congés Chômés et des Jours de Congés Pris par Service en 2023

Figure 77:Répartition mensuelle des Jours de Congés Pris en 2023

Graphique en courbe pour Répartition Mensuelle des Jours de Travail en 2023 : Cette
visualisation en courbe présente la répartition mensuelle des jours de travail tout au long de
l'année 2023. Elle permet de suivre les variations dans le nombre de jours travaillés par mois,
offrant ainsi des insights sur les tendances de présence au travail.

74
Figure 78:Répartition Mensuelle des Jours de Travail en 2023

Tableau Récapitulatif des Indicateurs Clés : Ce tableau fournit un résumé des principaux
indicateurs liés aux congés des employés, offrant une vue synthétique des données telles que le
nombre de jours de congés pris, les coûts associés et d'autres indicateurs pertinents.

Figure 79:Tableau Récapitulatif des Indicateurs Clés

5.4 Partager l’applications

75
Une fois le rapport finalisé, il a été mis en ligne via le service Power BI, après une
connexion au service à l'aide du compte étudiant. Cette étape permet de rendre le rapport
accessible à distance à tous les utilisateurs autorisés, facilitant ainsi le partage et la collaboration
autour des données et des insights générés. En publiant le rapport sur le service Power BI, les
utilisateurs peuvent accéder aux visualisations et aux analyses en temps réel, que ce soit sur un
ordinateur de bureau, une tablette ou un appareil mobile, offrant ainsi une flexibilité d'accès et
une portabilité des informations essentielles pour la prise de décisions.

Figure 80:connexion au service à l'aide du compte étudiant

Conclusion
Dans cette étape de création de rapports avec Power BI Desktop, nous avons souligné
l'importance cruciale de la visualisation des données pour éclairer les décisions. En développant
des visualisations interactives, nous avons permis aux utilisateurs d'explorer les données sous
différents angles et de découvrir des tendances significatives. Les exemples de rapports et de
tableaux de bord présentés illustrent comment ces outils offrent un aperçu clair et détaillé des
informations clés, facilitant ainsi la compréhension et l'interprétation des données. En intégrant
des liens vers les feuilles de données pertinentes, nous avons simplifié l'accès aux informations
spécifiques, permettant aux utilisateurs d'explorer les données en profondeur. En résumé, cette
étape de création de rapports est une pierre angulaire du processus d'analyse des données,
fournissant aux utilisateurs les outils nécessaires pour extraire des insights significatifs et
prendre des décisions stratégiques éclairées.

76
Conclusion Générale
À la lumière de notre exploration approfondie de la mise en place d'une solution BI pour la
gestion des ressources humaines chez « Nutrisud », cette conclusion offre un récapitulatif des
principales réalisations et contributions de notre projet.
Tout d'abord, notre analyse initiale du contexte global du projet et de l'existant chez
« Nutrisud » nous a permis de comprendre les besoins spécifiques de l'entreprise en matière de
gestion des ressources humaines. Nous avons identifié les lacunes dans les processus existants
et avons proposé une solution BI sur mesure pour répondre à ces besoins.
Ensuite, nous avons entrepris une phase de préparation et d'identification des outils techniques
nécessaires à la mise en place de la solution BI. Nous avons examiné en détail les différentes
approches de conception du Data Warehouse et avons sélectionné les outils et logiciels les
mieux adaptés aux besoins de « Nutrisud ».
Dans le cadre de la conception et de l'analyse spécifique des besoins, nous avons identifié les
indicateurs clés de performance et concevoir un schéma global de la solution BI. Cette phase
nous a permis de définir clairement les objectifs du projet et d'orienter nos efforts vers leur
réalisation.
Par la suite, nous avons mis en œuvre les étapes nécessaires pour préparer les données, en
extrayant, transformant et chargeant les données dans l'entrepôt de données. Ce processus
crucial nous a permis d'assurer la qualité et la fiabilité des données utilisées dans la solution BI.
Enfin, nous avons créé des tableaux de bord interactifs qui offrent à « Nutrisud » une
visualisation claire et détaillée de ses données RH. Ces tableaux de bord permettent aux
décideurs de comprendre rapidement les informations clés et de prendre des décisions éclairées
pour optimiser la gestion des ressources humaines de l'entreprise.
Ce projet a également été une opportunité d'enrichir nos compétences professionnelles et
personnelles. En travaillant sur la conception et la mise en œuvre d'une solution BI complète,
nous avons renforcé notre expertise dans le domaine de l'informatique décisionnelle, ainsi que
notre capacité à analyser les besoins des entreprises et à proposer des solutions adaptées.
Pour l'avenir, il serait bénéfique pour « Nutrisud » de poursuivre le développement et
l'amélioration de sa solution BI, en intégrant de nouveaux indicateurs de performance et en
affinant les tableaux de bord pour répondre aux besoins évolutifs de l'entreprise. De plus,
l'organisation pourrait explorer d'autres domaines où l'informatique décisionnelle pourrait
apporter de la valeur, tels que la gestion de la chaîne d'approvisionnement ou le suivi de la
qualité des produits. En conclusion, ce projet de mise en place d'une solution BI pour la gestion
des ressources humaines chez « Nutrisud » pourrait offrir des perspectives prometteuses pour
une gestion plus efficace et efficiente des ressources humaines, tout en ouvrant la voie à de
nouvelles opportunités d'amélioration et de croissance.

77
6 Bibliographie
1. https://www.piloter.org/mesurer/methode/methode-gimsi-10-points.htm. [En ligne]
2. https://www.tuleap.org/fr/agile/comprendre-methode-agile-scrum-10-minutes. [En ligne]
3. https://formations.imt-atlantique.fr/bi/bi_mener_projet_decisionnel.html. [En ligne]
4. https://formations.imt-
atlantique.fr/bi/bi_definition.html#:~:text=L'informatique%20d%C3%A9cisionnelle%2C%
20aussi%20appel%C3%A9e,bord%2C%20rapports%20analytiques%20et%20prospectifs.
[En ligne]
5. https://www.megabyte.be/logiciel-de-gestion/informatique-decisionnelle-business-
intelligence/. [En ligne]
6. https://www-igm.univ-mlv.fr/~dr/XPOSE2006/DELTIL_PEREIRA/processus.html. [En
ligne]
7. https://blent.ai/blog/a/data-warehouse-definitions-exemples. [En ligne]
8. https://waytolearnx.com/2018/08/difference-entre-un-datawarehouse-et-un-
datamart.html. [En ligne]
9. https://www.astera.com/fr/type/blog/data-warehouse-concepts/. [En ligne]
10. https://datascientest.com/comment-combiner-python-et-power-bi-pour-la-data-
science#:~:text=Le%20langage%20de%20programmation%20Python,Learning%20ou%20
l'intelligence%20artificielle. [En ligne]
11. https://learn.microsoft.com/fr-fr/sql/integration-services/sql-server-integration-
services?view=sql-server-ver16. [En ligne]
12. https://www.next-decision.fr/editeurs-bi/etl/talend-
studio#:~:text=Talend%20Studio%20for%20Data%20Integration%20est%20un%20outil%
20permettant%20la,les%20probl%C3%A9matiques%20autour%20des%20donn%C3%A9es
. [En ligne]
13. https://fr.wikipedia.org/wiki/Microsoft_Power_BI. [En ligne]
14. https://www.data-bird.co/blog/tableau-software. [En ligne]
15. https://www.tuleap.org/fr/agile/comprendre-methode-agile-scrum-10-minutes. [En
ligne]
16. https://formations.imt-atlantique.fr/bi/bi_mener_projet_decisionnel.html. [En ligne]
17. https://perso.univ-lyon1.fr/haytham.elghazel/BI/presentation.html. [En ligne]
18. https://blent.ai/blog/a/data-warehouse-definitions-exemples. [En ligne]
19. https://fr.wikipedia.org/wiki/Datamart. [En ligne]
20. https://www-igm.univ-mlv.fr/~dr/XPOSE2006/DELTIL_PEREIRA/processus.html. [En
ligne]
21. https://www.lecfomasque.com/comment-utiliser-power-bi/. [En ligne]

78

Vous aimerez peut-être aussi