0% ont trouvé ce document utile (0 vote)
80 vues69 pages

RS1951

Ce document présente le rapport de stage d'une étudiante en informatique de gestion. Le rapport décrit le contexte et les objectifs d'un projet de mise en place d'une solution BI intégrant des outils d'IA pour l'analyse et le suivi d'un CRM. Le rapport contient également une description détaillée de la méthodologie et des outils utilisés pour la conception de l'infrastructure de données.

Transféré par

abidsiwar371
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
80 vues69 pages

RS1951

Ce document présente le rapport de stage d'une étudiante en informatique de gestion. Le rapport décrit le contexte et les objectifs d'un projet de mise en place d'une solution BI intégrant des outils d'IA pour l'analyse et le suivi d'un CRM. Le rapport contient également une description détaillée de la méthodologie et des outils utilisés pour la conception de l'infrastructure de données.

Transféré par

abidsiwar371
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Ministère de l’Enseignement Supérieur

de la Recherche Scientifique
  
Université de Carthage
  
Faculté des Sciences Economiques et de Gestion de Nabeul

Rapport de Stage
En vue de l’obtention du diplôme de Licence en
« Informatique de Gestion »
Spécialité
« Business Intelligence »

Titre :

Conception et développement
d’une solution BI intégrant des outils IA
pour l’analyse et le suivi d’un CRM

Réalisé au sein de : DIESE

Elaboré par : HADDAD Siwar


Encadré par :
Encadrante universitaire Mme. BOUAFIF Fadoua
Encadrant professionnel M. HADDAD Cherif

Année universitaire : 2022/ 2023


Dédicaces
Je dédie ce travail

À la plus belle personne, celle qui incarne la quintessence de la tendresse,

de la patience et de la générosité,

À toi, ma mère, qui, avec ta présence bienveillante, tu as été mon refuge

et avec ton amour infini tu as été ma douce étreinte qui a enveloppé chaque étape

de ma vie. Je t'exprime aujourd'hui ma gratitude éternelle.

À toi, mon père, dont la présence solide et rassurante a marqué chaque

instant de mon existence. Tu as été mon guide, mon mentor et mon protecteur. Ta détermination et

ton dévouement ont tracé la voie de ma persévérance. Je te suis profondément reconnaissante pour

tout ce que tu as fait pour moi.

À vous, ma chère petite sœur et mon cher petit frère, vous qui êtes mes

précieux compagnons dans la vie. Un grand merci.

Et à mes chers amis, à ceux qui ont été présents à mes côtés, partageant

mes hauts et mes bas. Vos encouragements et votre soutien m’ont été d’une vraie

bénédiction.

Je dédie mon travail, ainsi que mes mots, imprégnés d'émotion et de

reconnaissance, à vous tous. Que cette dédicace soit le reflet de l'amour profond que je vous porte,

et une expression sincère de ma gratitude pour votre présence

précieuse dans ma vie.


Remerciements
Au seuil de ce travail, mes mots se parent de gratitude envers tous ceux qui

ont œuvré, avec bienveillance et dévouement, à sa réalisation.

Je souhaite, tout d’abord, exprimer ma reconnaissance sincère à l’égard de Madame BOUAFIF

Fadoua, mon encadrante académique, pour ses conseils avisés et son assistance qui m’ont insufflé

une direction juste à mon travail.

Je tiens également à exprimer ma gratitude envers l'organisme d'accueil pour

m'avoir accueillie et offert une expérience enrichissante. Leur confiance en mes compétences

et les opportunités d'apprentissage que j'ai eues au sein de leur structure ont grandement

contribué à ma formation et à mon développement professionnel.

Je ne manquerai pas cette occasion pour adresser mes remerciements

les plus sincères à tous mes enseignants qui ont veillé à cultiver mon esprit de curiosité

et d'apprentissage, guidant mes pas sur le chemin de la connaissance et de l'excellence,

ainsi qu’aux membres du jury qui, par leur regard avisé

et leur expertise, ont évalué mon travail.

Et enfin, en cet instant solennel, ma gratitude s'étend à toutes les âmes qui, de

Près ou de loin, ont contribué à la réalisation de ce travail. Vos soutiens indéfectibles, vos

encouragements sincères et vos précieux conseils ont donné vie à ce projet.


Table des matières

Introduction générale 1
1 Cadre Général Du Projet 3
1.1 Présentation de l'organisme d'accueil . . . . . . . . . . . . . . . . . 4

1.1.1 Informations générales . . . . . . . . . . . . . . . . . . . . . 4

1.1.2 Structure et organisation . . . . . . . . . . . . . . . . . . . . 4

1.2 Présentation du projet . . . . . . . . . . . . . . . . . . . . . . . . . 5

1.2.1 Contexte du projet . . . . . . . . . . . . . . . . . . . . . . . 5

1.2.2 Etude de l'exitant et description de l'environnement actuel . 5

1.2.2.1 GSoft . . . . . . . . . . . . . . . . . . . . . . . . . 6

1.2.2.2 GSoft CRM . . . . . . . . . . . . . . . . . . . . . . 6

1.2.3 Critique de l'existant . . . . . . . . . . . . . . . . . . . . . . 6

1.2.4 Solution proposée . . . . . . . . . . . . . . . . . . . . . . . . 7

1.3 Spécication des besoins . . . . . . . . . . . . . . . . . . . . . . . . 7

1.3.1 Besoins fonctionnels . . . . . . . . . . . . . . . . . . . . . . 7

1.3.2 Besoins non fonctionnels . . . . . . . . . . . . . . . . . . . . 8

1.4 Méthodologie adoptée . . . . . . . . . . . . . . . . . . . . . . . . . 8

1.4.1 Présentation de la méthodologie . . . . . . . . . . . . . . . . 8

1.4.2 Planication agile du projet . . . . . . . . . . . . . . . . . . 10

1.4.2.1 Présentation des Sprints . . . . . . . . . . . . . . . 10

1.4.2.2 Product Backlog . . . . . . . . . . . . . . . . . . . 10

2 Concepts Théoriques Et État De L'art 12


2.1 Gestion de la Relation Client . . . . . . . . . . . . . . . . . . . . . 13

2.2 Informatique Décisionnelle . . . . . . . . . . . . . . . . . . . . . . . 14

2.2.1 Dénition . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

2.2.2 Architecture d'un système décisionnel . . . . . . . . . . . . . 14

2.2.2.1 Sources de données . . . . . . . . . . . . . . . . . . 15

2.2.2.2 Processus ETL . . . . . . . . . . . . . . . . . . . . 15

i
Table des matières

2.2.2.3 L'entrepôt de données (data warehouse) . . . . . . 15

2.2.2.4 Les magasins de données (data marts) . . . . . . . 16

2.2.2.5 Outils de reporting . . . . . . . . . . . . . . . . . . 18

2.2.2.6 Outils OLAP . . . . . . . . . . . . . . . . . . . . . 18

2.2.2.7 Tableaux de bords . . . . . . . . . . . . . . . . . . 18

2.2.2.8 Outils d'exploration de données (Data mining) . . 18

2.3 Intelligence Articielle . . . . . . . . . . . . . . . . . . . . . . . . . 18

2.4 Apprentissage Automatique . . . . . . . . . . . . . . . . . . . . . . 19

3 Mise en Place de L'Infrastructure de Données 20


3.1 Sprint 1 : Conception de l'architecture de l'Entrepôt de données et

développement des processus ETL . . . . . . . . . . . . . . . . . . . 21

3.1.1 Sprint Backlog . . . . . . . . . . . . . . . . . . . . . . . . . 21

3.1.2 Outils Utilisés . . . . . . . . . . . . . . . . . . . . . . . . . . 22

3.1.2.1 Sql Server Management Studio 19 . . . . . . . . . . 22

3.1.2.2 Sql Server Integration Services 2022 . . . . . . . . 22

3.1.3 Conception de l'architecture de l'entrepôt de données . . . . 23

3.1.3.1 Spécication des objectifs de l'entrepôt de données 23

3.1.3.2 Choix de l'approche de modélisation . . . . . . . . 23

3.1.3.3 Identication des tables de dimensions . . . . . . . 23

3.1.3.4 Identication des tables de faits . . . . . . . . . . . 27

3.1.3.5 Conception du schéma en ocon de neige de l'en-

trepôt des données . . . . . . . . . . . . . . . . . . 29

3.1.4 Description des sources de données . . . . . . . . . . . . . . 31

3.1.5 Développement des processus ETL . . . . . . . . . . . . . . 32

3.1.5.1 Staging_Package . . . . . . . . . . . . . . . . . . . 32

3.1.5.2 DataWarehousing_Package . . . . . . . . . . . . . 34

3.1.5.3 Planication des processus ETL . . . . . . . . . . . 35

3.2 Sprint 2 : Analyse et Création du Modèle Tabulaire . . . . . . . . . 35

3.2.1 Sprint BackLog . . . . . . . . . . . . . . . . . . . . . . . . . 35

3.2.2 Outils Utilisés . . . . . . . . . . . . . . . . . . . . . . . . . . 36

3.2.3 Conception du modèle tabulaire . . . . . . . . . . . . . . . . 36

3.2.3.1 Importation des données . . . . . . . . . . . . . . . 36

3.2.3.2 Dénition des relations . . . . . . . . . . . . . . . . 37

3.2.3.3 Dénition des hiérarchies . . . . . . . . . . . . . . 37

3.2.3.4 Dénition des perspectives . . . . . . . . . . . . . . 37

3.2.4 Développement des mesures . . . . . . . . . . . . . . . . . . 38

3.2.5 Déploiment et planication du modèle tabulaire . . . . . . . 39

ii
Table des matières

3.2.5.1 Déploiment du modèle tabulaire . . . . . . . . . . . 39

3.2.5.2 Planication de l'actualisation du modèle . . . . . 39

4 Exploitation des Données 40


4.1 Sprint 3 : Création de rapports et de tableaux de bord . . . . . . . 41

4.1.1 Sprint BackLog . . . . . . . . . . . . . . . . . . . . . . . . . 41

4.1.2 Outils Utilisés . . . . . . . . . . . . . . . . . . . . . . . . . . 41

4.1.3 Obtention des données . . . . . . . . . . . . . . . . . . . . . 42

4.1.4 Création du tableau de bord `Ore' . . . . . . . . . . . . . . 42

4.1.4.1 Présentation des KPIs . . . . . . . . . . . . . . . . 42

4.1.4.2 Présentation du tableau de bord . . . . . . . . . . 43

4.1.5 Création du tableau de bord `Prospection' . . . . . . . . . . 43

4.1.5.1 Présentation des KPIs . . . . . . . . . . . . . . . . 43

4.1.5.2 Présentation du tableau de bord . . . . . . . . . . 44

4.1.6 Création du tableau de bord `Fidélisation Et Communication' 45

4.1.6.1 Présentation des KPIs . . . . . . . . . . . . . . . . 45

4.1.6.2 Présentation du tableau de bord . . . . . . . . . . 45

4.2 Sprint 4 : Analyse prédictive et machine learning . . . . . . . . . . 46

4.2.1 Sprint BackLog . . . . . . . . . . . . . . . . . . . . . . . . . 46

4.2.2 Outils Utilisés . . . . . . . . . . . . . . . . . . . . . . . . . . 47

4.2.3 Spécication des objectifs de l'utilisation de L'apprentissage

automatique . . . . . . . . . . . . . . . . . . . . . . . . . . . 47

4.2.4 Choix des algorithmes . . . . . . . . . . . . . . . . . . . . . 47

4.2.4.1 La régression linéaire . . . . . . . . . . . . . . . . . 48

4.2.4.2 L'arbre de décision . . . . . . . . . . . . . . . . . . 48

4.2.5 Réalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . 48

4.2.6 Visualisation des prédictions . . . . . . . . . . . . . . . . . . 49

4.3 Sprint 5 : Création de site web de consultation . . . . . . . . . . . . 49

4.3.1 Sprint Backlog . . . . . . . . . . . . . . . . . . . . . . . . . 49

4.3.2 Réalisation du diagramme de cas d'utilisation . . . . . . . . 50

4.3.3 Publication des rapports réalisés . . . . . . . . . . . . . . . . 50

4.3.4 Développement et présentation des interfaces des pages . . . 50

4.3.4.1 Page de connexion . . . . . . . . . . . . . . . . . . 51

4.3.4.2 Page de présentation des tableaux de bord . . . . . 51

4.3.4.3 Page de présentation du tableau de bord de pré-

diction . . . . . . . . . . . . . . . . . . . . . . . . . 52

Conclusion générale 53

iii
Table des matières

Bibliographie 54
Annexe 56

iv
Table des gures

1.1 logo de DIESE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

1.2 organigramme de la société DIESE . . . . . . . . . . . . . . . . . . 5

1.3 logo de GSoft . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

1.4 logo de GSoft CRM . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

1.5 Approche itérative et agile (Scrum) . . . . . . . . . . . . . . . . . . 9

2.1 Customer Relationship Management(CRM) . . . . . . . . . . . . . 13

2.2 Architecture d'un système décisionnel . . . . . . . . . . . . . . . . . 14

2.3 Schéma en étoile et Schéma en ocon de neige . . . . . . . . . . . . 16

2.4 Approche d'Inmon . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

2.5 Approche de Kimball . . . . . . . . . . . . . . . . . . . . . . . . . . 17

3.1 Logo de Sql Server Management Studio(SSMS) . . . . . . . . . . . 22

3.2 Logo de Sql Server Integration Services(SSIS) . . . . . . . . . . . . 22

3.3 Conception de l'entrepôt des données . . . . . . . . . . . . . . . . . 29

3.4 Conception du DataMart `Ore' . . . . . . . . . . . . . . . . . . . . 30

3.5 Conception du DataMart `Prospection' . . . . . . . . . . . . . . . . 30

3.6 Conception du DataMart `FidelisationEtCommunication' . . . . . . 31

3.7 Les processus ETL pour alimentation de l'entrepôt de données . . . 32

3.8 Staging_Package . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

3.9 Exemple d'une tâche de chargement vers la zone de staging . . . . . 33

3.10 DataWarehousing_Package . . . . . . . . . . . . . . . . . . . . . . 34

3.11 Exemple d'alimentation d'une table des faits . . . . . . . . . . . . . 35

3.12 Logo de Sql Server Analysis Services(SSAS) . . . . . . . . . . . . . 36

3.13 Liste des relations existantes entre les tables . . . . . . . . . . . . . 37

3.14 Calcul de la mesure nombre total des ores acceptées avec DAX . . 38

4.1 Logo de Power BI . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

4.2 Tableau de bord `Ore' . . . . . . . . . . . . . . . . . . . . . . . . . 43

4.3 Tableau de bord `Prospection' . . . . . . . . . . . . . . . . . . . . . 44

v
Table des gures

4.4 Tableau de bord `Fidélisation Et Communication' . . . . . . . . . . 46

4.5 Logo de Jupyter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47

4.6 Tableau de bord de prédiction . . . . . . . . . . . . . . . . . . . . . 49

4.7 Diagramme de cas d'utilisation de la réalisation du site web . . . . 50

4.8 Page de connexion du site . . . . . . . . . . . . . . . . . . . . . . . 51

4.9 Page de consultation des tableaux de bord . . . . . . . . . . . . . . 51

4.10 Page de consultation du tableau de bord de prédiction . . . . . . . 52

11 Arbre de décision . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57

vi
Liste des tableaux

1.1 Product Backlog . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

1.1 Product Backlog . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

2.1 Comparaison des approches d'Inmon et de Kimball [13] . . . . . . . 18

3.1 Sprint Backlog du premier Sprint . . . . . . . . . . . . . . . . . . . 21

3.2 Attributs de la dimension `Dim_Date' . . . . . . . . . . . . . . . . 24

3.3 Attributs de la dimension `Dim_Client' . . . . . . . . . . . . . . . . 24

3.4 Attributs de la dimension `Dim_Contact' . . . . . . . . . . . . . . . 24

3.5 Attributs de la dimension `Dim_Fonction' . . . . . . . . . . . . . . 25

3.6 Attributs de la dimension `Dim_Secteur' . . . . . . . . . . . . . . . 25

3.7 Attributs de la dimension `Dim_Ville' . . . . . . . . . . . . . . . . 25

3.8 Attributs de la dimension `Dim_Utilisateur' . . . . . . . . . . . . . 26

3.9 Attributs de la dimension `Dim_ObjetOre' . . . . . . . . . . . . . 26

3.10 Attributs de la dimension `Dim_EtatOre' . . . . . . . . . . . . . . 26

3.11 Attributs de la dimension `Dim_ObjetAction' . . . . . . . . . . . . 27

3.12 Attributs de la dimension `Dim_ResultatAction' . . . . . . . . . . . 27

3.13 Attributs de la dimension `Dim_CanalCommunication' . . . . . . . 27

3.14 Attributs de l a table de faits `Fact_Ore' . . . . . . . . . . . . . . 28

3.15 Attributs de la table de faits `Fact_Prospection' . . . . . . . . . . . 28

3.16 Attributs de la table de faits `Fact_FidelisationEtCommunication' . 28

3.16 Attributs de la table de faits `Fact_FidelisationEtCommunication' . 29

3.17 Sprint Backlog du deuxième Sprint . . . . . . . . . . . . . . . . . . 36

4.1 Sprint Backlog du troisième Sprint . . . . . . . . . . . . . . . . . . 41

4.2 Liste des KPIs du tableau de bord `Ore' . . . . . . . . . . . . . . . 42

4.2 Liste des KPIs du tableau de bord `Ore' . . . . . . . . . . . . . . . 43

4.3 Liste des KPIs du tableau de bord `Prospection' . . . . . . . . . . . 44

4.4 Liste des KPIs du tableau de bord `Fidélisation Et Communication' 45

4.5 Sprint Backlog du quatrième Sprint . . . . . . . . . . . . . . . . . . 46

4.6 Sprint Backlog du cinquième Sprint . . . . . . . . . . . . . . . . . . 50

vii
Liste des sigles et acronymes

BI Business Intelligence

CRM Customer Relationship Management

DAX Data Analysis Expressions

DWH Data Warehouse

ETL Extraction Transformtion Load

IA Intelligence Articielle

KPI Key Performance Iindicator

ML Machine Learning

SGBD Système de Gestion des Bases de Données

viii
Introduction générale

Nous vivons dans une ère caractérisée par une concurrence acharnée et des attentes

grandissantes de la part des clients. Cette réalité s'inscrit dans un contexte où les avan-

cées technologiques ne cessent de se développer, orant ainsi de nouvelles opportunités

mais aussi de nouveaux dés aux entreprises. Dans ce paysage commercial en perpétuelle

évolution, la gestion ecace des relations avec les clients est devenue un élément essentiel

pour garantir la croissance et la pérennité des entreprises.

C'est là que les systèmes de gestion de la relation client (CRM) se sont imposés comme des

outils indispensables pour les entreprises souhaitant gérer ecacement leurs interactions

avec les clients. En eet, ces systèmes permettent de centraliser les informations clients,

de suivre de près les interactions et les transactions, ainsi que de mettre en place des

stratégies de prospection et de délisation.

Cependant, face à la croissance exponentielle des données disponibles, il est devenu impé-

ratif de tirer pleinement parti de ces informations an de prendre des décisions éclairées

et d'implémenter des actions ecaces.

C'est dans ce contexte que la Business Intelligence (BI) et l'intelligence articielle (IA)

entrent en jeu. La BI permet de collecter, d'organiser, d'analyser et de visualiser de ma-

nière ecace les données commerciales, orant ainsi une vue globale des activités commer-

ciales et des performances. De son côté, l'IA propose des capacités avancées d'apprentis-

sage automatique et de traitement, permettant l'automatisation des tâches, la prédiction

des comportements clients et une meilleure prise de décisions.

Conscient de l'importance de cette évolution, notre organisme d'accueil s'est engagé

dans un projet visant à améliorer son logiciel CRM en intégrant la Business Intelligence

et l'intelligence articielle.

Dans ce cadre, notre projet de n d'études consistera à conçevoir et développer une

solution BI qui fait recours aux outils IA pour suivre et analyser les données stockées du

CRM.

Le présent rapport est structuré en quatre chapitres an de fournir une vision complète

de notre projet :

1
Introduction générale

 Le premier chapitre  Cadre général du projet  : présente le cadre général du


projet, notamment la présentation de l'oganisme d'accueil ainsi que celle du projet

en exposant la problématique, la solution, les besoins et la méthodologie utilisée.

 Le deuxième chapitre  Concepts théoriques et état de l'art  : examine l'état


de l'art et les concepts théoriques liés à la Business Intelligence, à l'intelligence

articielle et aux systèmes CRM, en mettant l'accent sur les techniques, les mé-

thodologies et les outils utilisés.

Les chapitres suivants détaillent les sprints réalisés dans le cadre du projet.

 Le troisième chapitre  Mise en place de l'infrastructure de données  : se


concentre sur les sprints 1 et 2, qui portent sur la conception de l'entrepôt de

données, les processus ETL et la création d'un modèle tabulaire.

 Le quatrième chapitre  Exploitation des données  : aborde les sprints 3, 4 et


5, qui se concentrent sur la visualisation des tableaux de bord, l'analyse prédictive

et le développement du site web de consultation.

Nous clôturons ce rapport avec une conclusion générale.

2
Chapitre 1
Cadre Général Du Projet

3
Chapitre 1. Cadre Général Du Projet

Introduction
Dans ce chapitre, nous allons présenter en premier lieu l'organisme d'accueil `DIESE'
au sein duquel s'est eectué notre stage de n d'études pour entamer par la suite un aperçu

de notre projet tout en détaillant l'existant, la critique de l'existant et la solution proposée.

Nous clôturons ce chapitre par la méthodologie de travail choisie pour la réalisation de ce

projet.

1.1 Présentation de l'organisme d'accueil


1.1.1 Informations générales
DIESE est une société tunisienne qui propose des solutions digitales et logicielles sur

mesure et dédiées dans le domaine des technologies de l'information(IT) tout en regrou-

pant toutes les expertises : design, Tech et conseil.

Elle accompagne ses clients an de les aider à révéler de nouvelles opportunités qui

s'adaptent aux évolutions du marché.

En tant que plateforme de solutions digitales complètes, DIESE aide ses clients à

augmenter leur capacité à travers un large spectre d'ores et services de haut niveau qui

comprennent :

 l'ingénierie logicielle : DIESE propose la solution logicielle GSoft(sera détaillée


dans la section suivante) pour gérer l'ensemble des processus de l'entreprise cliente

intégrant l'ensemble de ses fonctions.

 le développement web : DIESE crée des sites web vitrine, e-commerce ainsi que
des applications web métier uniques, entièrement administrables et sur-mesure.

 le marketing digital : DIESE accompagne ses clients pour concevoir et mettre


en place une stratégie de communication digitale performante et sur-mesure an

de tirer le meilleur parti de cette nouvelle tendance.

 le support et maintenance : DIESE ore des services d'assistance, prise en

charge et dépannage.

Figure 1.1  logo de DIESE

1.1.2 Structure et organisation


La structure de la société est présentée dans la gure suivante (gure 1.2) :

4
Chapitre 1. Cadre Général Du Projet

Figure 1.2  organigramme de la société DIESE

Au sommet de l'organigramme on trouve la direction générale au long avec l'assistance

chargées de la supervision des diérents départements. Juste en dessous, nous trouvons

trois sous-directions :

 Direction technique : responsable de la gestion des projets, du développement de

produits soit le développement web et le développement GSoft ainsi que du support

et de la maintenance des produits ou services oerts.

 Direction Admistrative et comptable : responsable de la gestion nancière, admi-

nistrative et juridique de l'entreprise.

 Direction Commerciale : responsable de toutes les activités liées aux ventes, au

Marketing et la gestion des relations avec les clients.

La réalisation du projet se déroule dans le département de développement GSOFT.

1.2 Présentation du projet


1.2.1 Contexte du projet
Le présent projet s'inscrit dans le cadre d'un stage de n d'études d'une durée de

quatre mois au sein de l'entreprise DIESE en vue d'obtention du diplôme de licence

d'informatique de gestion spécialité Business Intelligence.

1.2.2 Etude de l'exitant et description de l'environnement actuel


Comme spécié précedemment, DIESE fournit des services de mise en place de son

propre logiciel GSoft.

5
Chapitre 1. Cadre Général Du Projet

1.2.2.1 GSoft
Créé en 2003, GSoft permet de gérer l'ensemble des processus et fonctions d'une en-

treprise, qu'elle soit petite, moyenne ou grande, notamment la gestion des ressources

humaines, la gestion nancière et comptable, l'approvisionnement, le stock, la vente, la

distribution, la production, l'aide à la décision ainsi que la gestion des relations clients.

GSoft est un logiciel ouvert développé autour du système de gestion des bases de don-

nées(SGBD) Microsoft SQL Server et de l'outil Crystal Reports.

Figure 1.3  logo de GSoft

GSoft ore plusieurs produits, dont GSoft CRM.

1.2.2.2 GSoft CRM


Cette solution CRM(Customer Relationship Management), développée en interne par

DIESE, permet à ses utilisateurs de gérer leurs relations clients en organisant et en au-

tomatisant les communications ainsi que toutes les activités en relation directe avec leurs

clients (prospections, visites, missions, ventes, relances, délisations).

Figure 1.4  logo de GSoft CRM

Seulement que GSoft CRM n'intègre pas un système automatique d'analyse des don-

nées stockées. Et par la suite, pour extraire les informations nécessaires à la prise des

décisions, ses utilisateurs doivent consulter des tables de la base de données centralisée

du logiciel.

Ainsi, le projet portera sur l'amélioration de ce logiciel.

1.2.3 Critique de l'existant


Vu que la societé DIESE souhaite fournir à ses clients un moyen d'analyse et de prise de

décision, on peut bien cerner les suivantes limitations au niveau de la solution existante :

6
Chapitre 1. Cadre Général Du Projet

 Absence de fonctionnalités avancées d'analyse et de suivi de l'activité des clients.

 L'analyse des données des clients est basée sur des tables de données transaction-

nelles ce qui rend l'interprétation dicile sans une connaissance approfondie des

bases de données.

 Processus de prise de décision longs et peu ecaces.

 Les rapports fournis par le logiciel sont statiques et ne prennent pas en compte le

facteur temps.

 Absence de moyen automatisé pour surveiller les indicateurs clés de performance

(KPI).

 Absence d'un système de visualisation des données.

1.2.4 Solution proposée


L'objectif est d'améliorer la version existante pour garantir une meilleure prise de

décision.

De ce fait, la solution proposée consiste à concevoir et à développer un module de Business

Intelligence (BI) qui intègre des outils d'Intelligence Articielle (IA) dans le but d'analyser

et mieux suivre les données du CRM selon des indicateurs clés de performance pertinents.

L'intégration des outils d'IA est illustrée par la réalisation des analyses prédictives ainsi

que des analyses de classication.

Ce module BI sera ajouté à GSoft CRM et sera accessible par l'ensemble des clients de la

société qui utilise le logiciel.

1.3 Spécication des besoins


Les besoins fonctionnels et non fonctionnels sont les suivants :

1.3.1 Besoins fonctionnels


Cette solution doit être en mesure de :

 Collecter les données de façon automatisée à partir du CRM existant et d'autres

sources externes (ex : Base de données, chiers Excel, ERP, etc.).

 Traiter les données (Nettoyage, préparation et transformation).

 Stocker les données : préparation de l'entrepôt des données pour y charger les

données traitées.

 Analyser les données en utilisant des techniques d'apprentissage automatique pour

la prédiction et la détection des tendances.

7
Chapitre 1. Cadre Général Du Projet

 Visualiser les données pour une analyse plus approfondie en fournissant des ta-

bleaux de bord et des rapports interactifs qui présentent les résultats de l'analyse

de manière claire et concise.

 Optimiser les processus de prise de décision.

 Tenir compte de l'aspect sécurité

1.3.2 Besoins non fonctionnels


Les besoins non fonctionnels de la solution sont :

 Performance : La solution doit être capable de traiter des volumes importants de

données de manière ecace pour une analyse en temps réel.

 Scalabilité : La solution doit être capable de gérer des volumes de données en

croissance continue.

 Facilité d'utilisation : La solution devra être conviviale et facile à utiliser par les

décideurs de l'entreprise.

 Maintenance : La solution devra être facile à maintenir et à mettre à jour, en

réduisant les coûts et les temps d'arrêt.

 Pertinence des KPI choisis.

1.4 Méthodologie adoptée


1.4.1 Présentation de la méthodologie
Lors de la conception et de la réalisation de notre projet, nous avons opté pour la

méthodologie agile Scrum.

Cette méthode est parmi les méthodes agiles les plus utilisées. Elle garantit un pilotage

rapide du travail et est le cadre de référence que la société utilise lors de la réalisation de

ses projets.

Scrum est `un cadre de travail permettant de répondre à des problèmes complexes

et changeants, tout en livrant de manière productive et créative des produits de la plus

grande valeur possible'[1].

Chaque Scrum se déroule en itérations qui dure généralement entre deux et quatre se-

maines appelées Sprints et peuvent être regroupés en Release pour fournir des versions
incorporants plus de fonctionnalités.

Cette méthodologie dénit plusieurs évènements (parfois appelés cérémonies) qui se pro-

duisent à l'intérieur de chaque sprint :

 Planication du sprint ( Sprint Planning) où l'équipe de développement décide


les objectifs à atteindre durant le sprint.

8
Chapitre 1. Cadre Général Du Projet

 Réunions quotidiennes rapides ( Daily Scrums) pour faire le point sur l'avance-
ment et ajuster la direction si nécessaire.

 Activités de développement.

 Revue du sprint ( Sprint Review) pour examiner les résultats obtenus et discuter
les ajustements à apporter pour améliorer les prochains sprints.

 Rétrospective du sprint ( Sprint Retrospective) où elle rééchit sur les points

forts et les points faibles du sprint passé et envisage des améliorations pour les

sprints futurs.

Ces évènements sont représentés dans la gure suivante :

Figure 1.5  Approche itérative et agile (Scrum)


[2]

Il existe trois rôles clés dans Scrum : le propriétaire du produit(Product Owner) , le maître

Scrum(Scrum Master) et l'équipe Scrum :

 Product Owner : le responsable de ce que l'équipe construit, de la mise à jour


et de l'ordre de priorité du travail.

Dans notre cas, c'est le directeur général.

 Scrum Master : s'assure que le processus Scrum est suivi par l'équipe et conti-
nuellement à la recherche de l'amélioration, tout en résolvant les obstacles et les

autres problèmes bloquants qui surviennent pendant le sprint.

Dans notre cas, c'est le responsable du département de développement.

 Équipe Scrum : Ceux qui construisent réellement le produit[2].


Dans notre cas , c'est nous.

Nous trouvons aussi les artefacts Scrum(comme montrés dans la gure 1.5) qui sont des

éléments de travail ou des documents créés au cours du processus. Les principaux artefacts

de Scrum incluent :

 Product Backlog : Une liste ordonnée et émergente de ce qui est nécessaire pour
améliorer le produit. C'est l'unique source du travail entrepris par la Scrum Team.

 Sprint Backlog : Composé de l'Objectif de Sprint (le  pourquoi ), de l'ensemble


des éléments du Product Backlog choisis pour le Sprint (le  quoi ), ainsi que d'un

plan d'action pour la réalisation de l'Increment (le  comment )[1].

9
Chapitre 1. Cadre Général Du Projet

 Increment : Une version du produit qui est potentiellement utilisable, intégrant


toutes les fonctionnalités ajoutées ou améliorées durant le sprint.

La méthodologie Scrum est bien adaptée avec des sprints de deux semaines dans ce projet

puisque les objectifs et la limitation temporelle sont parfaitement délimités et connus.

1.4.2 Planication agile du projet


1.4.2.1 Présentation des Sprints
Puisque nous avons opté pour Scrum agile comme méthodologie de travail, notre projet

serait, alors, divisé en Sprints qui ont été identiés comme suit :

 Sprint 1 : Conception de l'architecture de l'entrepôt de données et développement


des processus ETL.

 Sprint 2 : Analyse et création du modèle tabulaire.


 Sprint 3 : Création de rapports et de tableaux de bord.
 Sprint 4 : Analyse prédictive et machine learning.
 Sprint 5 : Création de site web de Consultation.

1.4.2.2 Product Backlog


Ci-dessous (table 1.1), le product backlog prévisionnel du projet, dans lequel nous

avons spécié les fonctionnalités et les tâches à réaliser, organisées par ordre de priorité

en fonction de leur importance pour les utilisateurs naux :

Table 1.1  Product Backlog

ID User Story Priorité Sprint


1 En tant qu'développeur, je sou- 1 Sprint 1

haite pouvoir importer des don-

nées de CRM pour les analyser

dans la solution BI.

2 En tant qu'développeur, je sou- 2 Sprint 2

haite pouvoir eectuer un modèle

tabulaire pour une analyse plus

approfondies de mes données.

10
Chapitre 1. Cadre Général Du Projet

Table 1.1  Product Backlog

ID User Story Priorité Sprint


3 En tant qu'utilisateur, je veux 3 Sprint 3

pouvoir accéder à des graphiques

et des tableaux de bord person-

nalisables pour suivre les données

de mon CRM.

4 En tant qu'utilisateur, je souhaite 4 Sprint 4

pouvoir utiliser des algorithmes

de machine learning et d'IA pour

prédire les tendances futures de

mes données CRM.

5 En tant que utilisateur, je sou- 5 Sprint 5

haite consulter les tableaux de

bord sur le web.

6 En tant qu'utilisateur, je veux 6 Sprint 2

pouvoir automatiser les processus

ETL pour une mise à jour régu-

lière des données.

Conclusion
Durant ce chapitre, nous avons présenté le cadre général du projet. Nous avons com-

mencé par présenter l'organisme d'accueil. Ensuite, nous avons étudié l'existant, la so-

lution proposée pour cerner par la suite les besoins et nir avec la présentation de la

méthode adoptée ainsi que le plan de travail suivi, pour l'aboutissement aux objectifs

désirés.

Dans le chapitre suivant, nous allons dénir les notions théoriques en rapport avec le

projet.

11
Chapitre 2
Concepts Théoriques Et État De L'art

12
Chapitre 2. Concepts Théoriques Et État De L'art

Introduction
Dans ce chapitre, nous allons exposer l'état de l'art et la dénition des diérentes no-

tions liées au projet allant de `la gestion de la relation client' pour passer à `l'informatique

décisionnelle' et nir par `l'intelligence articielle'.

2.1 Gestion de la Relation Client


Gestion de la Relation Client ou Customer Relationship Management (CRM), terme

introduit au milieu des années 1990, est une stratégie d'entreprise qui permet de gérer

toutes les relations et interactions avec ses clients et prospects. Il s'agit d'une approche

centrée sur le client qui vise l'amélioration de l'expérience client et la délisation de la

clientèle tout en fournissant un service personnalisé, une communication ecace et une

gestion ecace des données clients.

Le CRM vise à créer de la valeur pour l'entreprise en créant de la valeur pour le client.

Celà revient au fait qu'il permet aux entreprises de collecter les données clients et les

utiliser pour mieux comprendre leurs besoins, leurs préférences et leurs comportements, et

les segmenter en groupes ayant des besoins similaires an d'orir une meilleure pertinence

et personnalisation des produits et des services.

En eet, les systèmes CRM aident les entreprises à créer de relations à long terme avec

ses clients, basées sur la conance, la loyauté et la satisfaction impliquant par la suite la

rationalisation des processus et l'augmentation de leur rentabilité[3, 4, 5].

Figure 2.1  Customer Relationship Management(CRM)


[6]

13
Chapitre 2. Concepts Théoriques Et État De L'art

2.2 Informatique Décisionnelle


2.2.1 Dénition
Informatique Décisionnelle ou Business Intelligence, souvent appelée BI, peut être dé-

nie comme le processus de collecte, d'intégration, analyse et visualisation des données an

de garantir une meilleure prise de décision. Les techniques et outils de BI comprennent

l'entreposage de données, l'exploration de données, l'analyse en ligne traitement (OLAP)

et autres.

Le terme est apparu pour la première fois en 1989 par Howard Dressner du groupe Gartner

en tant que terme générique pour décrire des concepts et des méthodes visant à améliorer

la prise de décision en entreprise en utilisant un support basé sur des faits[7].

L'objectif principal de la BI est de fournir aux décideurs des informations opportunes,

exactes et pertinentes qui peuvent les aider à prendre de meilleures décisions.

BI est particulièrement utile dans les environnements commerciaux complexes et dyna-

miques, où les décideurs besoin de naviguer dans de grandes quantités de données et de

réagir rapidement aux circonstances changeantes.

En d'autres termes, les systèmes BI mettent l'accent sur l'analyse de grands volumes de

données structurées (et dans une certaine mesure semi-structurées) pour fournir des in-

formations et des connaissances exploitables au bon moment, au bon endroit et sous la

bonne forme.

2.2.2 Architecture d'un système décisionnel

Figure 2.2  Architecture d'un système décisionnel

14
Chapitre 2. Concepts Théoriques Et État De L'art

1
L'architecture détaillée d'un système décisionnel (BI) , comme indiquée dans la gure

ci-dessus (gure 2.2), est composée des éléments suivants :

2.2.2.1 Sources de données


Ce sont les données brutes, stockées de manière distribuées, variées et hétérogènes. Les

sources de données peuvent inclure des systèmes de gestion de bases de données (SGBD),

des chiers plats, des applications de gestion de la relation client (CRM) et d'autres

systèmes de l'entreprise.

2.2.2.2 Processus ETL


Le processus Extraction, Transformation et Chargement (ETL) consiste à extraire

les données de diérentes sources, à les transformer (nettoyage, normalisation, ltrage,

agrégation..) en un format cohérent et à les charger périodiquement au sein de l'entropôt

des données.

L'ETL est essentiel pour garantir que les données soient propres, organisées et prêtes à

l'emploi pour l'analyse et la prise de décision[8].

2.2.2.3 L'entrepôt de données (data warehouse)


Il s'agit d'une collection de données orientée sujet, intégrée, non volatile et historisée,

qui supporte les processus de prise de décision de l'entreprise.

Il est conçu pour stocker les données transformées et normalisées de manière à ce qu'elles

puissent être facilement accessibles et utilisées pour la génération de rapports, l'analyse

et la création des tableaux de bord[8, 9].

Les données sont généralement organisées en deux types de tables : dimensions et faits.

Tables de faits (Fact Tables) : contiennent les mesures numériques et quantitatives,

les indicateurs clés de performance (KPI) et les données transactionnelles agrégées. Ces

mesures sont souvent les résultats de calculs ou d'agrégations eectués sur des données

brutes[10].

Les tables de faits sont généralement de grande taille et sont liées aux tables de dimensions

par des clés étrangères.

Tables de dimensions (Dimension Tables) : contiennent des informations détaillées

qui décrivent les données de la table de faits. dans un contexte plus large et d'aider à

l'analyse des données en fournissant des points de référence[10].

Les tables de dimensions sont généralement plus petites que les tables de faits.

1. Un ensemble de composants logiciels et matériels qui permettent la collecte, la gestion, l'analyse et


la présentation des données an que les utilisateurs puissent prendre des décisions bien rééchies.

15
Chapitre 2. Concepts Théoriques Et État De L'art

Pour représenter ces tables dans les entrepôts de données, le plus courant est d'utiliser

les deux modèles de conception : schéma en étoile (Star schema) ou schéma en ocon de

neige (Snowake schema).

Dans un schéma en étoile, la table de faits est centrale et entourée de tables de dimensions.

Le schéma en ocon de neige est une variante du schéma en étoile, dans lequel les tables

de dimensions sont normalisées : les attributs redondants sont supprimés et placés dans

des tables séparées. [10]

Figure 2.3  Schéma en étoile et Schéma en ocon de neige

2.2.2.4 Les magasins de données (data marts)


Ce sont des extraits de l'entrepôt de données centrés sur un seul sujet ou fonction.

Les données sont organisées de manière adéquate pour permettre des analyses rapides à

des ns de prise de décision et améliorer le temps de réponse des utilisateurs grâce au

catalogage des données spéciques[11].

Il est à noter que pour concevoir et construire un entrepôt de données, les deux approches

les plus couramment utilisées sont l'approche de Kimball et l'approche d'Inmon.

L'approche d'Inmon :
L'approche d'Inmon met l'accent sur la construction d'un entrepôt de données cen-

tralisé et intégré qui sert de source unique de vérité pour l'ensemble de l'organisation.

Elle repose sur la modélisation en 3NF (troisième forme normale) et la normalisation des

données, permettant ainsi une meilleure intégrité et cohérence des informations.

L'approche d'Inmon vise à capturer les données opérationnelles de l'ensemble de l'en-

treprise, à les transformer en structures logiques et à les consolider dans l'entrepôt de

données. Cela facilite l'analyse et le reporting tout en garantissant la cohérence et la

qualité des données[12].

16
Chapitre 2. Concepts Théoriques Et État De L'art

Figure 2.4  Approche d'Inmon


[13]

L'approche de Kimball
L'approche de Kimball, également connue sous le nom de modélisation dimensionnelle,

est une méthodologie de conception d'entrepôts de données axée sur les besoins métier et

la simplicité. Elle se concentre sur la création de modèles de données dimensionnels qui

facilitent l'analyse et la compréhension des données.

L'approche de Kimball met l'accent sur l'identication des faits et des dimensions clés,

la structuration des données en schémas en étoile ou en ocons, et la création d'un en-

vironnement de reporting et d'analyse performant. Elle favorise également l'itération et

l'agilité dans le processus de conception, permettant aux organisations de construire pro-

gressivement leur datawarehouse en fonction des besoins évolutifs[10].

Figure 2.5  Approche de Kimball


[13]

Le tableau suivant (table 2.1) montre une comparative entre les deux approches de concep-

17
Chapitre 2. Concepts Théoriques Et État De L'art

tion d'entrepôt de données :

Table 2.1  Comparaison des approches d'Inmon et de Kimball [13]

Critère Approche d'Inmon Approche de Kimball


Type d'approche Approche descendante Approche ascendante

Intégration de se concentre sur les domaines à se concentre sur les domaines

données l'échelle de l'entreprise. d'activité individuels

Temps de complexe et prend plus de temps. ecace et prend moins de temps.

construction

Entretien l'entretien est facile. l'entretien est dicile.

Modèle de don- Les données sont dans un modèle Les données sont dans un modèle

nées normalisé dénormalisé.

2.2.2.5 Outils de reporting


Ces outils permettent aux utilisateurs de générer des rapports à partir des données

stockées dans l'entrepôt de données. Les rapports peuvent être générés sous diérents

formats tels que PDF, Excel, HTML, etc.

2.2.2.6 Outils OLAP


Les outils de traitement analytique en ligne (OLAP) sont des outils permettant aux

utilisateurs d'analyser facilement les données stockées dans l'entrepôt de données en créant

des cubes multidimensionnels.

2.2.2.7 Tableaux de bords


Ce sont des outils qui fournissent une vue synthétique des données à travers des gra-

phiques, des diagrammes et des indicateurs de performance clés (KPI). Ils permettent de

visualiser les tendances, les écarts et les points d'alerte pour faciliter la prise de décision.

2.2.2.8 Outils d'exploration de données (Data mining)


Ces outils permettent d'explorer les données pour découvrir des modèles et des ten-

dances qui ne sont pas évidents à première vue.

2.3 Intelligence Articielle


L'intelligence articielle est un domaine vaste et évolutif qui englobe de nombreuses

approches, techniques et applications diérentes.

Cette notion a vu le jour dans les années 1950 grâce au mathématicien Alan Turing dans

18
Chapitre 2. Concepts Théoriques Et État De L'art

son livre `Computing Machinery and Intelligence' où il a soulèvé la question d'apporter

aux machines une forme d'intelligence[14].

Globalement, l'IA peut être dénie comme la simulation ou l'imitation de l'intelligence

humaine dans des machines programmées. Son but est de permettre à des ordinateurs de

penser et d'agir comme des êtres humains[14].

La dénition précise de l'IA, cependant, peut changer selon le contexte et la perspective

de la personne ou de l'organisation qui utilise le terme. Certaines dénitions peuvent

mettre l'accent sur la capacité des systèmes d'IA à eectuer des tâches spéciques, tandis

que d'autres peuvent se concentrer sur leur capacité à apprendre et à s'adapter au l du

temps.

Parmi les branches de l'IA, on trouve l'apprentissage automatique ou Machine Learning

(ML).

2.4 Apprentissage Automatique


L'apprentissage automatique est le processus de trouver des modèles cachés dans les

données.

Considéré comme un sous-ensemble de l'IA, l'apprentissage automatique (Machine lear-

ning en anglais (ML)) expose l'apprentissage expérientiel associé à l'intelligence hu-

maine, tout en ayant la capacité d'apprendre et de s'améliorer grâce à l'utilisation d'algo-

rithmes de calcul(ou modèles). Ces algorithmes utilisent de grands ensembles d'entrées et

de sorties de données(données étiquetées) ou de données non étiquetées pour apprendre

ecacement à la machine et l'entraîner à faire des recommandations ou des décisions au-

tonomes.

Lorsque l'algorithme est susamment répété et modié, la machine devient capable de

prédire un résultat à partir d'une entrée. Les extrants sont ensuite comparés à un en-

semble de résultats connus an de juger de l'exactitude des algorithmes, qui seront par

la suite ajustés de manière itérative pour perfectionner la capacité à prédire d'autres

résultats[15, 16].

Conclusion
Durant ce chapitre, nous avons déni les notions majeures liées à notre projet soient

CRM, IA et ML.

Dans le chapitre qui suit, nous entamerons la première étape de réalisation où nous allons

commencer par la mise en place de l'infrastructure des données.

19
Chapitre 3
Mise en Place de L'Infrastructure de
Données

20
Chapitre 3. Mise en Place de L'Infrastructure de Données

Introduction
Dans ce chapitre, nous allons nous concentrer sur les deux premiers sprints du projet

qui porteront sur la mise en place de l'infrastructure de données nécessaire pour soutenir

l'analyse et la visualisation ultérieures. Nous commencerons par exposer la conception de

notre entrepôt de données, pour passer au dévelopement des processus d'ETL (Extract,

Transform, Load) et nir par présenter la création du modèle tabulaire des données.

3.1 Sprint 1 : Conception de l'architecture de l'En-


trepôt de données et développement des processus
ETL
3.1.1 Sprint Backlog
Nous spécions les tâches à réaliser dans ce premier sprint ainsi que la durée estimée

dans le sprint backlog suivant (table 3.1) :

Table 3.1  Sprint Backlog du premier Sprint

ID Eléments du backlog et Tâches Estimation


1 Conception de l'architecture de l'entrepôt de données : 5 jours

 Spécication des objectifs de l'entrepôt de données

 Choix de l'approche de modélisation.

 Identifaction des tables de faits et des tables des di-

mensions.

 Conception du schema en ocon de neige.

2 Identication des sources de données. 2 jours

3 Développement et test des processus ETL : 10 jours

 Développement du package 'Sources vers zone de sta-

ging'.

 Développement de package 'Zone de transit vers

DWH'.

 Planication des processus ETL.

21
Chapitre 3. Mise en Place de L'Infrastructure de Données

3.1.2 Outils Utilisés


3.1.2.1 Sql Server Management Studio 19
SQL Server Management Studio, abrégé SSMS, est un environnement intégré fourni

par Microsoft pour la gestion de toute infrastructure SQL, de SQL Server à Azure SQL

Database[17].

SSMS permet de :

 Congurer, surveiller et administrer des instances de SQL Server et des bases de

données.

 Déployer, surveiller et mettre à niveau les composants de la couche données.

 Créer des requêtes et des scripts.

 Interroger, concevoir et gérer des bases de données et des entrepôts de données.

Figure 3.1  Logo de Sql Server Management Studio(SSMS)

3.1.2.2 Sql Server Integration Services 2022


SQL Server Integration Services, abrégé SSIS, est une plateforme d'intégration de

données et un outil ETL développé par Microsoft[18].

Elle permet de :

 Extraire et transformer des données provenant d'une grande variété de sources.

 Générer des solutions d'intégration de données.

 Nettoyer et explorer des données.

 Charger les données dans une ou plusieurs destinations(tels les entrepôts de don-

nées).

Figure 3.2  Logo de Sql Server Integration Services(SSIS)

22
Chapitre 3. Mise en Place de L'Infrastructure de Données

3.1.3 Conception de l'architecture de l'entrepôt de données


3.1.3.1 Spécication des objectifs de l'entrepôt de données
Dans le cadre de notre projet, an d'analyser et de suivir le CRM, la conception de

l'entrepôt de données sera orientée vers les trois sujets suivants :

 Ore : Regroupe les éléments liés à l'ore de produits et services de l'entreprise,


tels que la vente de produits, la mise en place, la formation et l'assistance technique,

répondre aux besoins des clients existants et attirer de nouveaux clients.

 Prospection : Regroupe les éléments liés à la prospection de nouveaux clients, tels


que la recherche de nouveaux clients et la présentation des services. La prospection

est une étape importante pour attirer de nouveaux clients et assurer la croissance

de l'entreprise.

 Fidélisation et Communication : Regroupe les éléments liés à la délisation et à


la communication avec les clients existants, tels que, le suivi d'aaire, le lancement

de nouveaux produits, la délisation et la promotion. Le but est de renforcer les

relation et maximiser leur valeur à long terme pour l'entreprise.

3.1.3.2 Choix de l'approche de modélisation

Comme mentionné et déni dans le chapitre précédent (partie 2.2.2.4), il existe deux

approches couramment utilisées pour concevoir et construire un entrepôt de données, soit

l'approche de Kimball et l'approche d'Inmon.

Dans notre cas, nous avons opté pour l'approche de Bill Inmon puisqu'elle garantit la

cohérence des données ainsi qu'une grande exibilité et une evoluvité facile de l'entrepôt

De plus c'est une approche approfondie et centralisée orant une vue globale et uniée de

toutes les données clients et de leurs interactions.

3.1.3.3 Identication des tables de dimensions


Nous avons identié les tables de dimensions suivantes :

- La dimension `Dim_Date' : contient les informations relatives aux dates. Elle

peut être utilisée pour ltrer les données par période et pour eectuer des agrégations

temporelles.

Le tableau (table 3.2) montre les attributs de la dimension `Dim_Date' ainsi que leurs

types :

23
Chapitre 3. Mise en Place de L'Infrastructure de Données

Table 3.2  Attributs de la dimension `Dim_Date'

Attributs Types
Id_Date (clé primaire) varchar

Date date

Annee int

Mois int

Jour int

- La dimension `Dim_Client' : stocke les informations sur les clients. Elle peut être

utilisée pour analyser les performances par client, segmenter les clients, etc.

Le tableau (table 3.3) montre les attributs de la dimension `Dim_Client' ainsi que leurs

types :

Table 3.3  Attributs de la dimension `Dim_Client'

Attributs Types
Code_Client (clé primaire) varchar

Nom_Client varchar

Email varchar

Secteur_Activite varchar

Ville_Client varchar

Date_Ajout date

Concerné_Client varchar

- La dimension `Dim_Contact' : contient les détails des contacts clients. Elle peut

être utilisée pour suivre les interactions spéciques avec les contacts clients.

Le tableau (table 3.4) montre les attributs de la dimension `Dim_Contact' ainsi que leurs

types :

Table 3.4  Attributs de la dimension `Dim_Contact'

Attributs Types
Code_Client (clé primaire) varchar

Num_Contact (clé primaire) varchar

Fonction_Contact varchar

Nom_Contact varchar

Email varchar

Telephone varchar

Mobile varchar

24
Chapitre 3. Mise en Place de L'Infrastructure de Données

- La dimension `Dim_Fonction' : répertorie les diérentes fonctions ou rôles que

peuvent occuper les contacts clients, par exemple, ssistant(e), chef Département, Gérant,

etc. Elle permet de segmenter les contacts clients en fonction de leur rôle dans le processus

de vente.

Le tableau (table 3.5) montre les attributs de la dimension `Dim_Fonction' ainsi que leurs

types :

Table 3.5  Attributs de la dimension `Dim_Fonction'

Attributs Types
Code_Fonction (clé primaire) varchar

Designation_Fonction varchar

- La dimension `Dim_Secteur' : répertorie les diérents secteurs d'activité auxquels

appartiennent les clients. Elle permet de segmenter les clients en fonction de leur secteur

d'activité pour une analyse plus précise.

Le tableau (table 3.6) montre les attributs de la dimension `Dim_Secteur' ainsi que leurs

types :

Table 3.6  Attributs de la dimension `Dim_Secteur'

Attributs Types
Code_Secteur (clé primaire) varchar

Designation_Secteur varchar

- La dimension `Dim_Ville' : stocke les informations sur les villes. Elle peut être

utilisée pour analyser les performances des ventes par région géographique.

Le tableau (table 3.7) montre les attributs de la dimension `Dim_Ville' ainsi que leurs

types :

Table 3.7  Attributs de la dimension `Dim_Ville'

Attributs Types
Code_Ville (clé primaire) varchar

Designation_Ville varchar

Region_Ville varchar

- La dimension `Dim_Utilisateur' : contient les informations sur les utilisateurs

du système. Elle peut être utilisée pour attribuer les actions, les ores et les activités de

prospection à des utilisateurs spéciques.

Le tableau (table 3.8) montre les attributs de la dimension `Dim_Utilisateur' ainsi que

leurs types :

25
Chapitre 3. Mise en Place de L'Infrastructure de Données

Table 3.8  Attributs de la dimension `Dim_Utilisateur'

Attributs Types
Code_Utilisateur (clé primaire) varchar

Nom_Utilisateur varchar

Departement_Commercial varchar

- La dimension `Dim_ObjetOre' : contient les diérents types d'objets ou de

catégories auxquels les ores proposées peuvent appartenir, tels que "Vente Produits",

"Assistance Technique", "Mise En Place", "Formation", etc. Elle peut être utilisée pour

suivre les performances par type d'ore, analyser les préférences des clients ou identier

les catégories d'ores les plus rentable.

Le tableau (table 3.9) montre les attributs de la dimension `Dim_ObjetOre' ainsi que

leurs types :

Table 3.9  Attributs de la dimension `Dim_ObjetOre'

Attributs Types
Code_ObjetOre (clé primaire) varchar

Designation_Objet varchar

Description_Objet varchar

- La dimension `Dim_EtatOre' : répertorie les diérents états possibles d'une ore,

tels que en cours, accepté, refusé, etc. Elle permet de suivre l'état des ores et d'analyser

le taux de conversion des ores proposées.

Le tableau (table 3.10) montre les attributs de la dimension `Dim_EtatOre' ainsi que

leurs types :

Table 3.10  Attributs de la dimension `Dim_EtatOre'

Attributs Types
Code_EtatOre (clé primaire) varchar

Designation_Etat varchar

- La dimension `Dim_ObjetAction' : répertorie les diérents types d'actions réa-

lisées, tels que "Appel lancement nouveau produit", "Promotion", "Suivi aaire", "Fi-

délisation", etc. Elle permet de catégoriser les actions entreprises lors des activités de

délisation et de communication.

Le tableau (table 3.11) montre les attributs de la dimension `Dim_ObjetAction' ainsi que

leurs types :

26
Chapitre 3. Mise en Place de L'Infrastructure de Données

Table 3.11  Attributs de la dimension `Dim_ObjetAction'

Attributs Types
Code_ObjetAction (clé primaire) varchar

Designation_Objet varchar

Description_Objet varchar

- La dimension `Dim_ResultatAction' : liste les résultats possibles des actions de

prospection et de délisation et de communication , tels que "Favorable", "Intérresé",

"Non Intéressé", etc. Elle permet de suivre les résultats des actions entreprises et d'ana-

lyser leur ecacité.

Le tableau (table 3.12) montre les attributs de la dimension `Dim_ResultatAction' ainsi

que leurs types :

Table 3.12  Attributs de la dimension `Dim_ResultatAction'

Attributs Types
Code_Resultat (clé primaire) varchar

Designation_Resultat varchar

- La dimension `Dim_CanalCommunication' : contient les informations relatives

aux canaux utilisés pour la prospection ou les actions de délisation et communication.

Elle peut être utilisée pour ltrer les données par type de canal (par téléphone ou sur

place).

Le tableau (table 3.13) montre les attributs de la dimension `Dim_CanalCommunication'

ainsi que leurs types :

Table 3.13  Attributs de la dimension `Dim_CanalCommunication'

Attributs Types
Code_CanalCommunication (clé primaire) varchar

Designation_CanalCommunication varchar

3.1.3.4 Identication des tables de faits


Nous avons identié les tables de faits suivantes :

- La table de faits `Fact_Ore' :


Le tableau (table 3.14) montre les attributs de la table de faits `Fact_Ore' ainsi que

leurs types :

27
Chapitre 3. Mise en Place de L'Infrastructure de Données

Table 3.14  Attributs de l a table de faits `Fact_Ore'

Attributs Types
Reference (clé primaire) varchar

Id_Date (clé étrangère) varchar

Code_Client (clé étrangère) varchar

Code_Utilisateur (clé étrangère) varchar

Code_ObjetOre (clé étrangère) varchar

Code_EtatOre (clé étrangère) varchar

Montant_HT decimal

Montant_TTC decimal

- La table de faits `Fact_Prospection' :


Le tableau (table 3.15) montre les attributs de la table de faits `Fact_Prospection' ainsi

que leurs types :

Table 3.15  Attributs de la table de faits `Fact_Prospection'

Attributs Types
Reference (clé primaire) varchar

Id_Date (clé étrangère) varchar

Code_Client (clé étrangère) varchar

Code_Utilisateur (clé étrangère) varchar

Code_ResultatFinalProspection (clé étrangère) varchar

Code_Canal_Prospection (clé étrangère) varchar

Nbre_Tentatives_Realisees int

Duree_Process int

- La table de faits `Fact_FidelisationEtCommunication' :


Le tableau (table 3.16) montre les attributs de la table de faits

`Fact_FidelisationEtCommunication' ainsi que leurs types :

Table 3.16  Attributs de la table de faits `Fact_FidelisationEtCommunication'

Attributs Types
Reference (clé primaire) varchar

Id_Date (clé étrangère) varchar

Code_Client (clé étrangère) varchar

Code_Utilisateur (clé étrangère) varchar

Code_ObjetAction (clé étrangère) varchar

28
Chapitre 3. Mise en Place de L'Infrastructure de Données

Table 3.16  Attributs de la table de faits `Fact_FidelisationEtCommunication'

Attributs Types
Code_ResultatFinalAction (clé étrangère) varchar

Code_Canal_Action (clé étrangère) varchar

Nbre_Tentatives_Realisees int

Duree_Process int

3.1.3.5 Conception du schéma en ocon de neige de l'entrepôt des données


Dans la gure (gure 3.3), nous schématisons l'architechture de l'entrepôt de données

`GSoft_CRM_DW' :

Figure 3.3  Conception de l'entrepôt des données

Cet entrepôt de données peut éventuellement être partitionné en trois datamarts (Ma-

gasins de données) dont l'architecture de chacun est montrée dans les gures suivantes

(gure 3.4, 3.5 et 3.6) :

29
Chapitre 3. Mise en Place de L'Infrastructure de Données

Figure 3.4  Conception du DataMart `Ore'

Figure 3.5  Conception du DataMart `Prospection'

30
Chapitre 3. Mise en Place de L'Infrastructure de Données

Figure 3.6  Conception du DataMart `FidelisationEtCommunication'

3.1.4 Description des sources de données


Notre projet consiste à développer une solution qui sera opérationnelle dans GSoft

CRM et prête à l'utilisation par tous ses clients.

Dans notre cas, pour l'implémentation et le test, nous avons utilisé les données d'un des

client de DIESE qui sont fournies sous forme de :

 Tables transactionnelles d'une base de données SQL2000 :


 Table `Client'

 Table `Utilisateur'

 Table `Contact'

 Table `Ore'

 Table `Action'

 Table `CanalCommunication'

31
Chapitre 3. Mise en Place de L'Infrastructure de Données

 Fichiers Plats :
 Fichier `Archivage des ores de 2019'

 Fichier `Archivage des ores de 2020'

 Fichier `Archivage des actions de 2019'

 Fichier `Archivage des actions de 2020'

3.1.5 Développement des processus ETL


Le processus d'intégration des données dans notre entrepôt de données suit un chemi-

nement qui va des sources de données vers une zone de staging (ou de transit) ETL, puis

vers l'entrepôt de données lui-même.

Les données sont extraites des sources d'origine, puis elles passent par des étapes de trans-

formation et de consolidation dans la zone de staging ETL. Une fois préparées, les données

sont chargées dans l'entrepôt de données nal à l'aide d'un autre processus ETL.

Ce processus est illustré lors du développement des deux packages SSIS développés (dé-

taillés par la suite) :

 Staging_Package

 DataWarehousing_Package

Figure 3.7  Les processus ETL pour alimentation de l'entrepôt de données

3.1.5.1 Staging_Package
Dans le package SSIS 'Staging_Package' (gure 3.8 ci-dessous), les données sont ex-

traites à partir des sources précédemment citées, collectées et combinées.

Par la suite, elles subissent des opérations de nettoyage et de transformation telles que :

 la conversion de type des données

 la génération des nouvelles colonnes dérivées

 Le tri des données

 Le fractionnement des données selon le contexte

 L'union et la fusion des données

32
Chapitre 3. Mise en Place de L'Infrastructure de Données

 La gestion des valeurs NULL

 L'ajout de colonnes

Et pour nir, ces données sont chargées dans les tables de la zone de staging an d'être

exportées vers l'entrepôt.

Figure 3.8  Staging_Package

La gure 3.9 montre l'exemple de chargement des données de prospection et celles

de délisation vers les tables `Stg_Prospection' et `Stg_ FidelisationEtCommunication'

dans la zone de transit.

Figure 3.9  Exemple d'une tâche de chargement vers la zone de staging

33
Chapitre 3. Mise en Place de L'Infrastructure de Données

3.1.5.2 DataWarehousing_Package
Le package SSIS 'DataWarehousing_Package' est représenté dans la gure 3.10 ci-

dessous.

Une fois qu'elles ont été extraites et préparés dans la zone de staging, les données sont

mappées aux structures correspondantes dans l'entrepôt de données. et associés avec les

tables de dimensions et les tables des faits (grâce à la tâche SSIS 'lookup').

Après, elles subissent des tansformations supplémentaires qui impliquent :

 La gestion des doublons

 La génération de nouvelles colonnes dérivées (pour les mesures)

 La recherche avec ou sans correspondance

 La normalisation

Et par la n, ces données sont chargées (insérées ou mises à jour) dans les tables de

dimensions et de faits de l'entrepôt de données et sont prêtes à être utilisées pour les

futurs analyses.

Figure 3.10  DataWarehousing_Package

La gure ci-après (gure 3.11) montre l'exemple de l'alimentation de la table des faits

`prospection'.

34
Chapitre 3. Mise en Place de L'Infrastructure de Données

Figure 3.11  Exemple d'alimentation d'une table des faits

Les deux packages sont, par la suite, déployés dans SQL Server.

3.1.5.3 Planication des processus ETL


En raison de la nature dynamique des données et des transactions eectuées par les

sociétés clientes, nous avons pris la décision d'automatiser et de planier les processus

ETL à l'aide de l'Agent SQL Server qui est un composant clé de SSMS qui permet de

programmer l'exécution de diverses tâches et travaux administratives.

Cela nous permet d'assurer des mises à jour régulières de la zone de staging et de l'entrepôt

de données et de garantir, ainsi, la synchronisation constante et précise de nos données

avec l'évolution de notre activité et reéter les modications survenant dans les sources

de données.

3.2 Sprint 2 : Analyse et Création du Modèle Tabulaire


3.2.1 Sprint BackLog
Nous spécions les tâches à réaliser dans ce deuxième sprint ainsi que la durée estimée

dans le sprint backlog suivant (table 3.17) :

35
Chapitre 3. Mise en Place de L'Infrastructure de Données

Table 3.17  Sprint Backlog du deuxième Sprint

ID Eléments du backlog et Tâches Estimation


1 Conception du modèle tabulaire : 3 jours

 Importation des données.

 Dénition des relations.

 Dénition des hiérarchies.

 Dénition des perspectives.

2 Dévéloppement des mesures. 3 jours

3 Planication des actualisations. 2 jours

3.2.2 Outils Utilisés


Sql Server Analysis Services 2022
SQL Server Analysis Services, abrégé SSAS, est une plateforme de traitement analy-

tique en ligne et d'exploration de données développée par Microsoft qui fournit une vue

agrégée des données pour eectuer des analyses complexes[19].

Elle permet de créer, à partir de sources de données relationnelles de :

 des cubes multidimensionnels : basés sur une structure de données multidi-

mensionnelle traditionnelle, où les données sont organisées en dimensions et en

mesures.

 des modèles tabulaires : utilisent une approche de modélisation en colonnes

pour fournir des performances élevées et une compression des données.

Figure 3.12  Logo de Sql Server Analysis Services(SSAS)

Dans notre cas, nous avons opté pour la création d'un modèle tabulaire.

3.2.3 Conception du modèle tabulaire


3.2.3.1 Importation des données
Une fois que notre entrepôt de données est établi et que les processus ETL sont mis en

place, les données sont devenues prêtes à l'exploitation et à l'utilisation pour la création

du modèle tabulaire.

36
Chapitre 3. Mise en Place de L'Infrastructure de Données

Nous n'avons qu'à congurer l'entrepôt `GSoft_CRM_DWH' comme étant une source

de données du modèle.

3.2.3.2 Dénition des relations


Comme elles ont été précedemment dénies lors de la conception de l'entrepôt des

données, les relations entre les tables (faits et dimensions) sont automatiquement créées

lors de l'importation des données. Il ne nous reste qu'à vérier leurs validités.

Ces relations sont montrées dans la gure suivante (gure 3.14) :

Figure 3.13  Liste des relations existantes entre les tables

3.2.3.3 Dénition des hiérarchies


An de faciliter la navigation entre les colonnes et l'exploration des données et les

structurer de manière logique, nous avons créé les hiérarchies suivantes :

 Dim_Date :

Jour → M ois → Année


Jour → M ois → T rimestre → Année
 Dim_Ville :

V ille → Région

3.2.3.4 Dénition des perspectives


En tenant en compte de l'architecture de notre entrepôt de données, nous avons opté
1
pour la création de quatre perspectives :

1. Une perspective dénit un sous-ensemble visible d'un modèle qui fournit des points de vue ciblés,
spéciques à l'entreprise ou spéciques à l'application du modèle tabulaire[20].

37
Chapitre 3. Mise en Place de L'Infrastructure de Données

 La perspective 'Globale'

 La perspective 'Ore'

 La perspective 'Prospection'

 La perspective 'Fidélisation et Communication'

3.2.4 Développement des mesures


Nous avons déni des mesures ainsi que leurs formules à l'aide du langage Data Ana-
2
lysis Expressions (DAX) . Ces mesures sont placées dans la grille des mesures du modèle

et seront utiliser ultérieurement pour la visualisation des données et la génération des

rapports. Elles sont réparties comme telles :

 Fact_Ore :
 Nombre total des ores

 Nombre total des ores (acceptées(gure 3.15)/déclinées/en cours)

 Montant des ores (acceptées/déclinées/en cours)

 Fact_Prospection :
 Nombre total des prospections eectuées

 Nombre total des prospections (conrmé/favorable/non intéressé/injoignable)

 Moyenne de tentatives pour conclure une prospection

 Durée moyenne du cycle de prospection

 Fact_FidélisationEtCommunication :
 Nombre total des actions eectuées

 Nombre total des actions (conrmé/favorable/non intéressé/injoignable)

 Moyenne de tentatives pour conclure une action

 Durée moyenne du cycle d'action

Figure 3.14  Calcul de la mesure nombre total des ores acceptées avec DAX

2. DAX est un langage de formule utilisé pour créer des calculs avancés et personnalisés sur les données
des tables et des colonnes grâce à des fonctions, des opérateurs, etc[21].

38
Chapitre 3. Mise en Place de L'Infrastructure de Données

3.2.5 Déploiment et planication du modèle tabulaire


3.2.5.1 Déploiment du modèle tabulaire
Une fois que le modèle tabulaire est créé, il est déployé vers SSMS où il peut être

interrogé à l'aide de requêtes MDX (Multidimensional Expressions) et DAX, en fonction

des besoins d'analyse. Cela permet d'eectuer des analyses approfondies sur les données

du modèle et d'obtenir plus d'informations pour la prise de décision.

3.2.5.2 Planication de l'actualisation du modèle


En raison de l'évolution continue des ux de données des clients, nous avons aussi

opté pour l'automatisation et la planication du processus de l'actualisation du modèle

tabulaire créé.

Pour cela, nous avons utilisé l'outil de planication des travaux Agent SQL Server.

Conclusion
Dans ce chapitre, nous nous sommes appliqué à la mise en place de l'infrastructure de

données. Nous avons déni, au début, la structure de notre entrepôt de données, identié

les sources et développé les ux ETL nécessaires. Et par la n, nous avons conçu et crée

le modèle tabulaire corespondant.

Dans le chapitre suivant, nous allons procéder pour les actions d'analyse, visualisation et

Consultation des données.

39
Chapitre 4
Exploitation des Données

40
Chapitre 4. Exploitation des Données

Introduction
Dans ce chapitre, nous aborderons les trois derniers sprints qui traiteront l'exploita-

tion des données. Nous débuterons par la visualisation des tableaux de bord interactifs

créés pour passer ensuite à l'analyse prédictive des données. Enn, nous procéderons à la

création du site web dédié à la consultation pour les décideurs des entreprises.

4.1 Sprint 3 : Création de rapports et de tableaux de


bord
4.1.1 Sprint BackLog
Nous spécions les tâches à réaliser dans ce troisième sprint ainsi que la durée estimée

dans le sprint backlog suivant (table 4.1) :

Table 4.1  Sprint Backlog du troisième Sprint

ID Eléments du backlog et Tâches Estimation


1 Obtention des données 1 jour

2 Création du tableau de bord `Ore' : 2 jours

 Présentation des KPIs.

 Présentation du tableau de bord.

3 Création du tableau de bord `Prospection' : 2 jours

 Présentation des KPIs.

 Présentation du tableau de bord.

4 Création du tableau de bord `Fidélisation Et Communica- 2 jours

tion' :

 Présentation des KPIs.

 Présentation du tableau de bord.

4.1.2 Outils Utilisés


Power BI
Power BI est une plateforme d'analyse et de visualisation de données développée par

Microsoft[22].

Elle permet de :

 Se connecter à plusieurs sources de données diérentes.

41
Chapitre 4. Exploitation des Données

 Transformer et nettoyer ces données pour créer un modèle de données.

 Créer des visuels et des graphiques qui donnent des représentations des données.

 Créer des rapports correspondant à des collections de visuels.

 Partager des rapports avec d'autres personnes au sein de la même organisation à

l'aide du service Power BI

Figure 4.1  Logo de Power BI

4.1.3 Obtention des données


Avant de procéder à la création des rapports et des tableaux de bord, nous avons

établi une connexion en direct (live connection) entre les données de SSAS (issues du

sprint précédent) et Power BI.

Cette connexion en direct nous garantit l'accés, en temps réel et de manière dynamique,

aux données du modèle tabulaire créé, sans nécessité d'importation ou de duplication des

données à chaque fois. De plus, elle nous permet de tirer parti des capacités d'analyse

avancées et des fonctionnalités de modélisation de SSAS.

Notre rapport sera composé de trois tableaux de bord chacun orienté vers un objectif.

4.1.4 Création du tableau de bord `Ore'


4.1.4.1 Présentation des KPIs
Pour la création de ce tableau de bord, nous avons utilisé les KPIs suivants (montrés

dans la table 4.2) :

Table 4.2  Liste des KPIs du tableau de bord `Ore'

KPI Axe Visuel utilisé


Nombre total des ores ∅ Carte

Date(année et mois) Graphique en courbe

Date(année et trimstre) et Histogramme groupé

état d'ore

Catégorie d'ore Graphique en anneau

Etat d'ore Graphique en anneau

Total du montant des ores acceptée ∅ Carte

Client Entonnoir

42
Chapitre 4. Exploitation des Données

Table 4.2  Liste des KPIs du tableau de bord `Ore'

KPI Axe Visuel utilisé


Total du montant des ores déclinée ∅ Carte

Client Entonnoir

Total du montant des ores en cours ∅ Carte

Taux des montants des ores pour Catégorie d'ore Graphique à barres

chaque état empilées (%)

4.1.4.2 Présentation du tableau de bord


La gure suivante (gure 4.2) représente le tableau de bord de la perspective `Ore'

Figure 4.2  Tableau de bord `Ore'

Ce tableau de bord est une représentation visuelle complète des données des ores et

des métriques liées à cet aspect. Il ore une interface interactive permettant aux décideurs

de surveiller et d'analyser les diérents types d'ores ainsi que leurs revenus et résultats.

De plus, il inclut des ltres(par date, type d'ore et état) qui permettent de personnaliser

les données achées en fonction des besoins.

4.1.5 Création du tableau de bord `Prospection'


4.1.5.1 Présentation des KPIs
Pour la création de ce tableau de bord, nous avons utilisé les KPIs suivants (montrés

43
Chapitre 4. Exploitation des Données

dans la table 4.3) :

Table 4.3  Liste des KPIs du tableau de bord `Prospection'

KPI Axe Visuel utilisé


Nombre total de prospections ∅ Carte

Date(année et mois) Graphique en courbe

Date(année et trimstre) et Histogramme groupé

résultat

Résultat de prospection Graphique en anneau

Canal de prospection Graphique en anneau

Moyenne de tentatives pour ∅ Carte

conclure une prospection

Durée moyenne du cycle de pros- ∅ Carte

pection

Nombre de prospections eec- Utilisateur Graphique à barres

tuées avec résultat groupées

Taux de conversion des prospects ∅ Jauge

en clients

4.1.5.2 Présentation du tableau de bord


La gure suivante 4.3 représente le tableau de bord de la perspective `Prospection'

Figure 4.3  Tableau de bord `Prospection'

44
Chapitre 4. Exploitation des Données

Ce tableau de bord est une représentation visuelle complète des données des pros-

pections ainsi que les métriques liées à cette perspective. Il ore une interface interactive

permettant aux décideurs de surveiller et d'analyser les diérentes prospections des clients,

leurs résultats, les canals utilisés et les taux de conversion des prospects en clients.

De plus, il inclut des ltres(par date et résultat de prospection) qui permettent de per-

sonnaliser les données achées en fonction des besoins.

4.1.6 Création du tableau de bord `Fidélisation Et Communica-


tion'
4.1.6.1 Présentation des KPIs
Pour la création de ce tableau de bord, nous avons utilisé les KPIs suivants (montrés

dans la table 4.4) :

Table 4.4  Liste des KPIs du tableau de bord `Fidélisation Et Communication'

KPI Axe Visuel utilisé


Nombre total d'actions ∅ Carte

Date(année et mois) Graphique en courbe

Date(année et trimstre) et Histogramme groupé

résultat

Catégorie d'action Graphique en anneau

Résultat d'action Graphique en anneau

Canal de communication Graphique en anneau

Moyenne de tentatives pour ∅ Carte

conclure une action

Durée moyenne du cycle d'action ∅ Carte

Taux de résultat d'actions Catégorie d'action Graphique à barres

empilées (%)

4.1.6.2 Présentation du tableau de bord


La gure suivante (gure 4.4) représente le tableau de bord de la perspective `Fidéli-

sation Et Communication'

Ce tableau de bord est une représentation visuelle complète des données des actions de

délisation et et de communication ainsi que les métriques liées à cette perspective. Il

ore une interface interactive permettant aux décideurs de surveiller et d'analyser les dif-

férentes types d'actions, leurs résultats, les canals utilisés et les durées des actions.

De plus, il inclut des ltres(par date, catégorie d'action et résultat de l'action) qui per-

mettent de personnaliser les données achées en fonction des besoins.

45
Chapitre 4. Exploitation des Données

Figure 4.4  Tableau de bord `Fidélisation Et Communication'

4.2 Sprint 4 : Analyse prédictive et machine learning


4.2.1 Sprint BackLog
Nous spécions les tâches à réaliser dans ce quatrième sprint ainsi que la durée estimée

dans le sprint backlog suivant (table 4.5) :

Table 4.5  Sprint Backlog du quatrième Sprint

ID Eléments du backlog et Tâches Estimation


1 Spécication des objectifs de l'utilisation de L'apprentissage 5 jours

automatique :

 Prédiction du nombre des ores futures

 Prédiction du potentiel montant des ores acceptées.

 Prédiction des taux futurs de conversion des prospects

en clients

 Le classement et l'évaluation des résultats des actions

de délisation et communication

2 Choix des algorithmes. 2 jours

3 Réalisation. 7 jours

4 Visualisation des prédictions. 2 jours

46
Chapitre 4. Exploitation des Données

4.2.2 Outils Utilisés


Jupyter
Jupyter, une interface web interactive, est un environnement de développement connu

dans le domaine de l'analyse de données, de l'apprentissage automatique et de la science

des données [23].

Il permet de :

 Ecrire et d'exécuter du code en direct en prenant en charge plusieurs langages,

notamment, Python.

 Faciliter le processus d'exploration des données.

 Analyser les données.

 Générer des visualisations riches.

Figure 4.5  Logo de Jupyter

4.2.3 Spécication des objectifs de l'utilisation de L'apprentis-


sage automatique
Une fois les tableaux de bord construits, nous passons à l'inclusion des fonctionnalités

de prédiction et de classement dans le CRM.

Dans ce contexte, nous avons utilisé alors l'apprentissage automatique pour :

 La prédiction du nombre des ores futures.

 La prédiction du potentiel de montant des ores acceptées.

 La prédiction des taux futurs de conversion des prospects en clients.

 Le classement et l'évaluation des résultats des actions de délisation et communi-

cation.

L'objectif est de tirer parti des données collectées et des visualisations créées précedem-

ment pour anticiper les performances futures de l'entreprise, identier les opportunités

d'amélioration et prendre des décisions plus éclairées.

4.2.4 Choix des algorithmes


An d'atteindre nos objectifs, nous avons utilisé les algorithmes d'apprentissage sui-

vants :

47
Chapitre 4. Exploitation des Données

4.2.4.1 La régression linéaire


La régression linéaire est un type d'algorithme d'apprentissage automatique supervisé

qui calcule la relation linéaire entre une variable dépendante et une ou plusieurs carac-

téristiques indépendantes. Le but est de trouver la meilleure équation linéaire qui peut

prédire la valeur de la variable dépendante en fonction des variables indépendantes[24].

Nous avons utilisé cet algorithme pour :

 La prédiction du nombre des ores futures : Ce choix est justié par la nature
continue de nos variables cibles(le nombre d'ore) et la relation linéaire attendue

avec nos variables explicatives(dans notre cas, l'année et le mois).

 La prédiction du potentiel montant des futures ores acceptées : Cet

algorithme nous a permis de prendre en compte les variables telles que la catégorie

d'ore, l'historique des montants précédents pour générer des prédictions sur le

montant potentiel des ores à venir.

 La prédiction des taux futurs de conversion des prospects en clients :

Cet algorithme nous a permis de se focaliser sur les caractéristiques des prospects

ainsi que les taux de conversion précédents pour établir les prédictions futurs de

conversion des prospects.

4.2.4.2 L'arbre de décision


L'arbre de décision est un algorithme polyvalent d'apprentissage automatique super-

visé, utilisé à la fois pour les problèmes de classication et de régression. Il s'agit dune

structure arborescente de type organigramme où chaque n÷ud interne désigne la fonc-

tionnalité, les branches désignent les règles et les n÷uds feuilles désignent le résultat de

l'algorithme[25].

Nous avons utilisé cet algorithme pour :

 Le classement et l'évaluation des résultats des actions de délisation et


communication : En eet, cet algorithme nous a permis d'analyser les caractéris-
tiques de chaque action, comme le canal de communication et la catégorie d'action,

pour prédire la classe de résultat à laquelle appartiendraient les futurs actions.

4.2.5 Réalisation
Pour la réalisation de ces tâches de prédiction et de classication, nous avons utilisé

le langage Python.

Nous avons, tout à bord, commencé par la collecte des données nécessaires à nos modèles

d'apprentissage automatique. Nous les avons extrait à partir de notre entrepôt des données

et eectué un prétraitement pour les rendre adaptées à l'analyse.

48
Chapitre 4. Exploitation des Données

Par la suite, nous avons sélectionné les algorithmes appropriés choisis en fonction des

objectifs spéciques de notre projet (la régression linéaire et les arbres de décision).

Une fois les modèles d'apprentissage automatique construits, nous les avons entraînés

en utilisant l'ensemble de données d'entraînement et évalués en utilisant l'ensemble de

données de test.

Ceux-ci faits, les modèles sont désormais prêts et nous pouvons les utiliser pour prédire

le nombre des ores futures, estimer les montants potentiels et les taux de conversion des

prospects en clients ou encore classer et évaluer les résultat des actions de délisation et

communication.

4.2.6 Visualisation des prédictions


Après l'éxécution du code et l'obtention des tables de prédiction, nous les avons trans-

féré vers power BI comme source de données pour les visualiser comme montré dans la

gure 4.6.

Figure 4.6  Tableau de bord de prédiction

Voir annexe pour la représentation de l'arbre de décision.

4.3 Sprint 5 : Création de site web de consultation


4.3.1 Sprint Backlog
Nous spécions les tâches à réaliser dans ce dernier sprint ainsi que la durée estimée

dans le sprint backlog suivant (table 4.6) :

49
Chapitre 4. Exploitation des Données

Table 4.6  Sprint Backlog du cinquième Sprint

ID Eléments du backlog et Tâches Estimation


1 Réalisation du diagramme de cas d'utilisation. 1 jour

2 Publication des rapports réalisés. 1 jour

3 Développement et présentation des interfaces des pages : 2 jours

 Page de connexion.

 Page de présentation des tableaux d'ores.

 Page de présentation du tableau de bord de prédiction.

4.3.2 Réalisation du diagramme de cas d'utilisation


Le site web doit permettre aux décideurs de pouvoir se connecter, consulter et navi-

guer entre les diérents tableaux de bord précedemment réalisés dans les deux dernières

sections.

Ainsi le diagramme de cas d'utilisation sera illustré comme tel(gure 4.7)

Figure 4.7  Diagramme de cas d'utilisation de la réalisation du site web

4.3.3 Publication des rapports réalisés


Pour pouvoir utiliser les rapports précedemment créés et les insérer dans le site web,

nous avons besoin de les publier sur le service power BI.

Pour cela, nous avons créé une passerelle de données(On-premises data Gateway) qui nous

a permis de relier les données sur site avec le service, tout en assurant une actualisation

régulière des informations.

4.3.4 Développement et présentation des interfaces des pages


Le site web de consultation développé est constitué de trois pages :

50
Chapitre 4. Exploitation des Données

4.3.4.1 Page de connexion


Dans cette page, l'utilisateur est mené à entrer ses données d'authentication. Ces

dernières seront vérier : seuls les décideurs ont l'accés aux tableaux de bord. L'utilisateur

possède l'option de récupérer son mot de passe en cas d'oubli. (gure 4.8)

Figure 4.8  Page de connexion du site

4.3.4.2 Page de présentation des tableaux de bord


Dans cette page, le décideur peut consulter les rapports et naviguer entre les pages.

(gure 4.9)

Figure 4.9  Page de consultation des tableaux de bord

51
Chapitre 4. Exploitation des Données

4.3.4.3 Page de présentation du tableau de bord de prédiction


Dans cette page, le décideur peut consulter les rapports de prédiction. (gure 4.10)

Figure 4.10  Page de consultation du tableau de bord de prédiction

Conclusion
Dans ce chapitre, nous avons tout d'abord visualisé les données dans des tableaux

de bord signicatifs puis nous avons réalisé une analyse prédive pour cerner les futures

tendances et actions. Vers la n, nous avons développé un site web de consultation pour

les décideurs.

52
Conclusion générale

Au terme de ce projet de n d'études, nous avons créé une solution complète, amélio-

rée et intégrée du logiciel GSoft CRM. Cette solution permet à ses utilisateurs d'exploiter

pleinement les données des clients et leurs interactions, de prendre des décisions éclairées

et de suivre les performances de manière proactive.

De la conception de l'entrepôt de données à la création des tableaux de bord, en passant

par l'analyse prédictive et la consultation en ligne, chaque sprint a apporté des fonc-

tionnalités essentielles à notre solution, permettant ainsi à notre organisme d'accueil de

prospérer et de rester compétitive sur le marché.

Pour les perspectives futures, nous envisageons d'explorer davantage les possibilités

oertes par l'intelligence articielle et le traitement du langage naturel pour améliorer

encore plus la solution de CRM. Nous pourrions développer des chatbots pour une assis-

tance en ligne en temps réel, utiliser l'analyse sémantique pour extraire des informations

précieuses à partir des données non structurées, ou encore mettre en place des systèmes

de recommandation personnalisés pour les clients.

Dans l'ensemble, ce stage de n d'études a été une expérience très enrichissante, tant

sur le plan académique que professionnel. Il nous a permis d'appliquer les connaissances

théoriques acquises tout au long de notre cursus universitaire à un projet concret dans un

environnement professionnel.

Nous avons assimilé des compétences pratiques en matière de gestion de projet, d'analyse

de données et d'utilisation d'outils d'apprentissage automatique, tout en développant

notre capacité à travailler en équipe et à relever des dés concrets.

53
Bibliographie
[1] K. Schwaber and J. Sutherland, The scrum guide, 2020. [En ligne]. Disponible

sur : https://scrumguides.org/docs/scrumguide/v2020/2020-Scrum-Guide-US.pdf

[2] Microsoft Corporation, Qu'est-ce que scrum ? Novembre 2022, Consulté le 02 Mars

2023. [En ligne]. Disponible sur : https://learn.microsoft.com/en-us/devops/plan/

what-is-scrum

[3] F. Buttle, Customer Relationship Management : Concepts and Technologies. Rout-

ledge, 2015.

[4] M. W. Johnson, C. M. Christensen, and H. Kagermann, Reinventing your business

model, Harvard Business Review, vol. 86, no. 12, pp. 5059, 2008.

[5] D. Lu and P. M. Swatman, Customer relationship management : An overview,

Informatik/Informatique, vol. 44, no. 6, pp. 713, 2003.

[6] L. Fabrique, Le guide sur les logiciels crm marketing : dénition et

fonctionnalités, Consulté le 10 Mars 2023. [En ligne]. Disponible sur :

https://www.lafabriquedunet.fr/crm/logiciels-crm-marketing/

[7] F. Burstein and C. Holsapple, Handbook on decision support systems 2. Springer,

2008.

[8] P. Ponniah, Data Warehousing Fundamentals : A Comprehensive Guide for IT Pro-

fessionals. John Wiley and Sons, 2010.

[9] Microsoft, Qu'est-ce qu'un entrepôt de données ? Consulté le 11 Mars

2023. [En ligne]. Disponible sur : https://azure.microsoft.com/fr-fr/resources/

cloud-computing-dictionary/what-is-a-data-warehouse/#data-warehouse-denition

[10] R. Kimball and M. Ross, The Data Warehouse Toolkit : The Denitive Guide to

Dimensional Modeling. John Wiley and Sons, 2013.

[11] Oracle, Tout ce que vous devez savoir sur un data mart, Consulté le 11

Mars 2023. [En ligne]. Disponible sur : https://www.oracle.com/fr/database/

data-mart-denition.html

[12] W. Inmon, Building the Data Warehouse, 4th ed. John Wiley and Sons, 2005.

[13] GeeksforGeeks, Diérence entre kimball et inmon - geeksforgeeks, Consulté

le 30 Mai 2023. [En ligne]. Disponible sur : https://www.geeksforgeeks.org/

dierence-between-kimball-and-inmon/

54
Bibliographie

[14] Intelligence articielle : qu'est-ce que c'est ? Consulté le 08 Mars 2023.

[En ligne]. Disponible sur : https://www.futura-sciences.com/tech/denitions/

informatique-intelligence-articielle-555/

[15] J. M. Helm1, A. M. Swiergosz1, H. S. Haeberle2, J. M. Karnuta1, J. L. Schaer1,

V. E. K. 1, A. I. Spitzer3, and P. N. Ramkumar, Machine learning and articial

intelligence : Denitions, applications, and future direction, en ligne, Janvier 2020.

[16] K. Murphy, Machine learning : A probabilistic perspective, MIT Press, 2012.

[17] Microsoft, Qu'est-ce que sql server management studio (ssms) ? Consulté le 03

Avril 2023. [En ligne]. Disponible sur : https://learn.microsoft.com/en-us/sql/ssms/

sql-server-management-studio-ssms?view=sql-server-ver16

[18] Microsoft, sql server integration services, Consulté le 03 Avril 2023. [En

ligne]. Disponible sur : https://learn.microsoft.com/fr-fr/sql/integration-services/

sql-server-integration-services?view=sql-server-ver16

[19] Microsoft, sql server analysis services, Consulté le 16 Avril 2023. [En ligne].

Disponible sur : https://learn.microsoft.com/en-us/analysis-services/ssas-overview?

view=asallproducts-allversions

[20] Microsoft, Perspectives dans les modèles tabulaires, Consulté le 17

Avril 2023. [En ligne]. Disponible sur : https://learn.microsoft.com/

en-us/analysis-services/ssas-overview?view=asallproducts-allversionshttps://learn.

microsoft.com/en-us/analysis-services/tabular-models/perspectives-ssas-tabular?

view=asallproducts-allversions

[21] Microsoft, Dax dans les modèles tabulaires, Consulté le 18 Avril 2023. [En

ligne]. Disponible sur : https://learn.microsoft.com/en-us/analysis-services/

tabular-models/understanding-dax-in-tabular-models-ssas-tabular?view=

asallproducts-allversions

[22] Microsoft, Qu'est-ce que power bi desktop ? Consulté le 27 Avril 2023. [En

ligne]. Disponible sur : https://learn.microsoft.com/fr-fr/power-bi/fundamentals/

desktop-what-is-desktop

[23] jupyter, Jupyter, Consulté le 12 Mai 2023. [En ligne]. Disponible sur :

https://jupyter.org/

[24] GeeksforGeeks, Régression linéaire dans l'apprentissage automatique, Consulté

le 12 Mai 2023. [En ligne]. Disponible sur : https://www.geeksforgeeks.org/

ml-linear-regression/

[25] geeksforgeeks, Arbre de décison, Consulté le 12 Mai 2023. [En ligne]. Disponible

sur : https://www.geeksforgeeks.org/decision-tree/

55
Annexe

56
Annexe .

Annexe 11  Arbre de décision

57
Résumé
Ce travail a été réalisé au sein de la société DIESE dans le cadre d'un projet de

n d'études pour l'obtention de diplôme de licence en informatique de gestion spécialité

Business Intelligence à la faculté des sciences économiques et de gestion à Nabeul.

Le projet vise à améliorer un logiciel CRM existant et à orir une solution complète en y

intégrant des fonctionnalités avancées de BI et d'IA.

À travers cinq sprints successifs, nous avons mis en place une infrastructure de données

solide, développé des modèles d'analyse prédictive, créé des tableaux de bord interactifs

et conçu un site web dédié à la consultation des données.

Ces améliorations permettent aux utilisateurs du logiciel d'accéder à des visualisations,

d'optimiser les actions de prospection et de délisation, et de prendre des décisions éclai-

rées.

Mots clés : Informatique décisionnelle(BI), Entrepôt de données, CRM, Intelligence Ar-


ticielle(IA), Apprentissage automatique(ML)

Abstract
This work was carried out within the company DIESE as a part of a project of end of

studies for obtaining a bachelor's degree in Business Computing, specializing in Business

Intelligence at the Faculty of Economics and Management in Nabeul.

The project aims to improve an existing CRM software and oer a complete solution by

integrating advanced BI and AI functionalities.

Through ve successive sprints, we have established a solid data infrastructure, develo-

ped predictive analytics models, created interactive dashboards and designed a website

dedicated to consulting data.

These enhancements allow software users to access visualizations, optimize prospecting

and loyalty actions, and make informed decisions

Mots clés : Business Intelligence(BI), Data warehouse, CRM, Articial Intelligence(IA),


Machine Learning(ML)

Vous aimerez peut-être aussi