0% ont trouvé ce document utile (0 vote)
41 vues138 pages

Pfe v0

Ce document est une dédicace et des remerciements pour un travail académique, soulignant le soutien de la famille, des amis, des professeurs et des mentors. Il présente également une table des matières détaillant les chapitres d'un rapport de stage, incluant des sections sur le contexte, la méthodologie, l'état de l'art, l'analyse et la conception, ainsi que le développement et l'implémentation d'un modèle de prévision. Le document se termine par une conclusion générale et des perspectives.

Transféré par

mohamedcablage
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
41 vues138 pages

Pfe v0

Ce document est une dédicace et des remerciements pour un travail académique, soulignant le soutien de la famille, des amis, des professeurs et des mentors. Il présente également une table des matières détaillant les chapitres d'un rapport de stage, incluant des sections sur le contexte, la méthodologie, l'état de l'art, l'analyse et la conception, ainsi que le développement et l'implémentation d'un modèle de prévision. Le document se termine par une conclusion générale et des perspectives.

Transféré par

mohamedcablage
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Dédicaces

Je dédie ce travail à :

Ma famille, qui a toujours été un soutien inconditionnel tout au long de mon parcours
académique et professionnel. Leur amour et leur encouragement ont été essentiels pour me
permettre d'atteindre mes objectifs.

Mes amis, qui ont partagé avec moi les joies et les défis de ce voyage. Leurs encouragements
et leur soutien moral ont été précieux pour me motiver et me rappeler l'importance de
persévérer.

Mes professeurs et mentors, qui m'ont transmis leur savoir et leur expertise, et qui ont joué un
rôle essentiel dans mon développement académique et professionnel. Leurs conseils et leurs
enseignements ont été une source d'inspiration et d'apprentissage constant.

Toutes les personnes qui ont contribué de près ou de loin à la réalisation de ce travail, que ce
soit par leurs conseils, leur expertise ou leur soutien logistique. Leur contribution a été
précieuse et a grandement enrichi ce projet.

Je dédie ce travail à moi-même, en tant que symbole de ma détermination, de mon


engagement et de mon désir constant de progresser. Ce travail est le fruit de mon travail
acharné et de ma passion pour le domaine, et je suis fier d'avoir pu le mener à bien.

Chahine Ben Lila Dit Chammar


Remerciments

Avant de poursuivre avec le développement de ce rapport de stage de fin


d'études, il est essentiel de débuter par des remerciements envers les personnes
qui ont contribué de manière significative à cette expérience professionnelle.
Leur soutien et leur bienveillance ont fait de ce stage un moment précieux.
Je tiens à exprimer ma gratitude envers :

Mr Iheb Matoussi, mon encadrant académique, pour son assistance, son


soutien constant, ses conseils pertinents et son encadrement direct et amical tout
au long de ce stage.

Mr Mohamed Riahi, mon encadrant pédagogique au sein de Groupe Délice,


qui a partagé avec moi ses vastes connaissances et m'a prodigué d'excellents
conseils tout au long de ce projet.

Mr Montasar Riahi, le directeur SI, pour son soutien et ses encouragements


constants.

Enfin, je souhaite exprimer ma profonde gratitude envers tout le personnel


administratif et les enseignants de Polytechnique International (PI) qui ont
rempli avec excellence leur mission d'enseignement. Je les remercie non
seulement pour les connaissances qu'ils m'ont transmises, mais aussi pour leur
engagement à former et à guider les étudiants.
Table des matiéres

Introduction générale

Chahiptre1: contexte générale et planifications .........................................................

1.1 Cadre de projet ..................................................................................................................

1.2 Présentation de l’organisme d’accueil ...............................................................................

1.2.1 Présentation du groupe délice ....................................................................................

1.2.2 Présentation de l’entreprise centrale laitière du cap bon

1.2.3 Système d’information du groupe ..............................................................................

1.2.4 Organigramme ...........................................................................................................

1.3 Contexte du projet .............................................................................................................

1.3.1 Étude de l’existant ......................................................................................................

1.3.2 Problématique ............................................................................................................

1.3.3 Solution proposée..........................................................................................................

1.4 Méthodologie de travail et planification ...........................................................................

1.4.1 L’approche Agile .......................................................................................................

1.4.2 Choix de Scrum ? .......................................................................................................

1.4.3 les intervenants du projet : ............................................................................................

1.4.4 Découpage de la solution en Sprints .............................................................................

Chahiptre2 : état de l’Art .....................................................................................

2.1 les domaines de notre projet ................................................................................................

2.2 Digitalisation ........................................................................................................................


2.2.1 Définition de la digitalisation........................................................................................

2.2.2 Digitalisation dans les entrepris ....................................................................................

2.2.3 L'impact de la digitalisation sur les entreprises ..........................................................

2.2.4 Mise en œuvre de la digitalisation ................................................................................

2.2.4 .1 La transformation des usages et des fonctions ......................................................

2.2.4 .2 Les clefs de la digitalisation des processus métiers ............................................

2.2.5 Influence de la digitalisation sur le budget de l'entreprise ............................................

2.1 Système de Rolling Forecast «Prévision glissantes » ......................................................

2.3.1 Généralité ......................................................................................................................

2.3.2 Définition ......................................................................................................................

2.3.3 Domaines d'application .................................................................................................

2.3.4 Différence entre « rolling forecast » et plan prévisionnel classique .............................

2.3.5 Technologies adoptées pour l'outil de pilotage du Rolling Forecast

2.4 Présentation des techniques de modélisation et d'analyse prédictive ..................................

2.4.1 Généralité ......................................................................................................................

2.4.2 Modèles Statistiques .....................................................................................................

[Link] Définition ...............................................................................................................

[Link]. Approches .............................................................................................................

[Link] Domaines d'Application .......................................................................................

2.4.3 Machine Learning .......................................................................................................

[Link] Définition ...............................................................................................................

[Link] les approches de machine Learning .......................................................................

[Link] Domaines d’application .........................................................................................

2.4.4 Comparaison entre les Modèles de Prévision Statistiques et les Modèles de Machine
Learning ...................................................................................................................................

2.5 Informatique Décisionnelle (BI) .......................................................................................


2.5.1 Définition ......................................................................................................................

2.5.2 Les univers : décisionnel et opérationnel ......................................................................

[Link] Le monde opérationnel ..........................................................................................

[Link] Le monde décisionnel ............................................................................................

[Link] Synthèse ...............................................................................................................

2.5.3 Architecture d’un système décisionnel ......................................................................

[Link] Les sources de données ..........................................................................................

[Link] Outils d’extraction, de transformation et de chargement .......................................

[Link] Entrepôt de données ..............................................................................................

[Link] Outils de visualisation ............................................................................................

2.5.4 L’impact de la Business Intelligence (BI) sur les entreprises .......................................

Chapitre 3 : Sprint0 : Analyse et conception ......................................................

3.1 Spécification des besoins ...................................................................................................

3.1.1 Les besoins fonctionnels .............................................................................................

3.1.2 Les besoins non fonctionnels ......................................................................................

3.1 Identification des acteurs ...................................................................................................

3.3 architecture générale ..........................................................................................................

3.1.1 Architecture fonctionnelle..........................................................................................

3.3.2 Architecture technique ................................................................................................

3.2 Représentation des besoins................................................................................................

3.4.1 présentation du langage de modélisation unifié .........................................................

3.4.2 Diagramme de cas d’utilisation globale .....................................................................

3.4.3 Gestion de l’ETL ........................................................................................................

3.4.4 Gestion des tableaux de bord ......................................................................................

3.4.5 Gestion du modèle de prévision .................................................................................


3.4.6 Supervision des tableaux de bord ...............................................................................

3.4.2 Diagramme de séquence ..................................................................................................

3.3 Diagramme de gant ...........................................................................................................

3.8 Environnements de travail ......................................................................................................

3.8.1 Environnement technique ................................................................................................

3.8.2 Environnement logiciel ...................................................................................................

3.8.3 Langage de programmation .............................................................................................

Chapitre 4 : Sprint1 : PRÉPARATION, INTÉGRATION ET


VISUALISATION DES DONNÉES .............................................................................

4.1 Modèle conceptuel de la solution ........................................................................................

4.2 Source de données................................................................................................................

4.3 Powr Query :ETL .................................................................................................................

4.3.1 Extraction ......................................................................................................................

4.3.2 Transformations ............................................................................................................

4.4 power pivot :Modelisation: ..................................................................................................

4.4.1 Modélisation multidimensionnelle...............................................................................

4.4.2 Architecture du Data Warehouse avec Data Marts .......................................................

4.4.3 Architecture de Data Warehouse ..................................................................................

4.4.4 Modèle adopte ...............................................................................................................

4.5 Power view :visualisation ....................................................................................................

4.5.1 Rôle du Dashboard ........................................................................................................

4.5.2 Structure du Dashboard................................................................................................

4.5.3 Les indicateurs clés de performance ............................................................................

4.5.4 Maquette du Dashboard ...............................................................................................

4.5.5 Dashboard finale ........................................................................................................


4.5.6 Publication et déploiement de Dashboard : ..............................................................

Chapitre 5 : Sprint2 : Le développement et l’implémentation du modèle de


prévision .................................................................................................................

5.1 Compréhension du domaine ................................................................................................

5.1.1 Compréhension du métiers ...........................................................................................

5.1.2 Compréhension des données .........................................................................................

5.2 Caractéristique de notre série temporelle .........................................................................

5.3 La prévision des séries temporelles (Time séries forecasting) ...........................................

5.3.1 Les prévisions chronologiques dans le machine learning. ............................................

5.3.2 les modelés de prévision ...............................................................................................

5.4.2 étude de corrélation ......................................................................................................

5.4.3 Réduction des Données .................................................................................................

5.5 L'application de la méthode de prévision............................................................................

5.6 Evaluation et validation des modèles ...................................................................................

5.6.1 Evaluation des modèles.................................................................................................

5.6.2 Validation des modèles. ................................................................................................

5.7 Evaluation et validation des modèles ...................................................................................

Conclusion générale et perspectives

Bibliographie et netographie
Tables des figures

Figure 1 Logo du groupe délice ............................................................................................... 17

Figure 2 Les produits de délice ................................................................................................ 17

Figure 3 Histoire du groupe ..................................................................................................... 18

Figure 4 Stratégie du groupe .................................................................................................... 18

Figure 5 ERP Oracle JD EDWARSS ....................................................................................... 20

Figure 6 Figure : Organigramme de la société « Délice Holding » ......................................... 21

Figure 7 Les produits finies ...................................................................................................... 22

Figure 8 les 12 types de forecast .............................................................................................. 24

Figure 9 L'approche Kanban .................................................................................................... 27

Figure 10 Processus XP............................................................................................................ 29

Figure 11 Processus Scrum ...................................................................................................... 30

Figure 12 Processus CRISP-DM ............................................................................................. 32

Figure 13 la planification des sprints ....................................................................................... 33

Figure 14 Les domaines de projet ............................................................................................ 35

Figure 15 La digitalisation ....................................................................................................... 36

Figure 16 Agile vs Traditionnelle ........................................................................................... 39

Figure 17 Plan prévisionnelle ................................................................................................... 40

Figure 18 Rolling Forecast vs Le plan prévisionelle classique ................................................ 42

Figure 19 Les approches majeures de Machine Learning ........................................................ 46

Figure 20 Architecture d'un système décisionnel ..................................................................... 51

Figure 21 Data Warehouse et Data Mart .................................................................................. 53

Figure 22 Architecture fonctionnelle ....................................................................................... 59

Figure 23 Architecture technique ............................................................................................. 61


Figure 24 Diagramme de cas d'utilisation globale ................................................................... 63

Figure 25 Diagramme de cas d'utilisation de gestion de l'ETL ................................................ 64

Figure 26 Diagramme de cas d'utilisation de gestion des tableaux de bord ............................. 65

Figure 27 Diagramme de cas d'utilisation de gestion du modèle de prévision ....................... 66

Figure 28 Diagramme de cas d'utilisation pour superviser les tableaux de bord .................... 67

Figure 29 Diagramme de séquence .......................................................................................... 69

Figure 30 Diagramme de Gant ................................................................................................. 70

Figure 31 Les caractéristiques de la machine ........................................................................... 71

Figure 32 Logo Bureau à distance ............................................................................................ 73

Figure 33 Connexion Bureau à distance .................................................................................. 74

Figure 34 Logo SQL Server ..................................................................................................... 75

Figure 35 Logo DAX STUDIO ................................................................................................ 76

Figure 36 Logo Google collab ................................................................................................. 76

Figure 37 Logo miro ................................................................................................................ 77

Figure 38 Logo Power BI ......................................................................................................... 79

Figure 39 Logo Python ............................................................................................................ 79

Figure 40 Langage M et DAX .................................................................................................. 80

Figure 41 Architecture Global.................................................................................................. 83

Figure 42 Connexion au SQL Serve ........................................................................................ 83

Figure 43 Base de donnée ........................................................................................................ 84

Figure 44 Choisir source de donnée ......................................................................................... 85

Figure 45 paramètre de connexion ........................................................................................... 86

Figure 46 Requête SQL ............................................................................................................ 87

Figure 47 Les tables obtenus .................................................................................................... 87

Figure 48 Les fonctions de power query .................................................................................. 88

Figure 49 Editeur avancé de Powr query ................................................................................. 89


Figure 50 Les transformations appliquées à la table "Forecast" .............................................. 89

Figure 51 Les transformations appliquées à la table "Clients" ................................................ 90

Figure 52 Schéma en étoile ...................................................................................................... 91

Figure 53 Schéma en flocon ..................................................................................................... 92

Figure 54 Architecture du Data warehouse .............................................................................. 93

Figure 55 Modèle en étoile....................................................................................................... 94

Figure 56 Maquette du tableau bord ........................................................................................ 99

Figure 57 Dashboard finale ...................................................................................................... 99

Figure 58 Power BI service .................................................................................................... 100

Figure 59 Stationnarité ........................................................................................................... 104

Figure 60 Les composantes des données de séries temporelles ............................................. 107

Figure 61 SARIMA FORECAST .......................................................................................... 109

Figure 62 LSTM ..................................................................................................................... 111

Figure 63 Architecture exportation de table ........................................................................... 112

Figure 64 Connexion au DAX Studio .................................................................................... 112

Figure 65 Le format de l'output .............................................................................................. 113

Figure 66 Exportation de la table FORECASTS ................................................................... 114

Figure 67 Les colonnes de table Forecasts ............................................................................. 115

Figure 68 Etude de corrélation ............................................................................................... 116

Figure 69 Table Forecasts après réduction ............................................................................. 117

Figure 70 Les processus de prévision .................................................................................... 117

Figure 71 Les données du Produit 60 ..................................................................................... 118

Figure 72 L’évolution de la quantité du produit ................................................................... 118

Figure 73 Rolling mean et Standard Deviation pour le produit 60 ........................................ 119

Figure 74 Ttest Dickey-Fuller pour la quantité du produit 60 ............................................... 119

Figure 75 Comparaison de l’évolution de la quantité du produit 60 ...................................... 120


Figure 76 Rolling mean et Standard Deviation pour le produit 60 ....................................... 120

Figure 77 Auto corrélation VS Partiel Auto corrélation ........................................................ 121

Figure 78 Le résumé du model ARIMA (4,1,4) ..................................................................... 122

Figure 79 : Évolution de la quantité du produit 60 de 2019 à2023 et la prévision ................ 123

Figure 80 La description du data ........................................................................................... 124

Figure 81 « AC » vs « PAC »................................................................................................ 124

Figure 82 Étude de saisonnarité et tendance .......................................................................... 125

Figure 83 Le résumé du model SARIMAX ........................................................................... 125

Figure 84 Diagnostic du modèle ............................................................................................ 126

Figure 85 Évolution de la quantité du produit 60 et la prévision ........................................... 126

Figure 86 Évolution de la quantité du produit 60 VS la prévision donnée par le modèle


SARIMAX VS ARIMA ........................................................................................................ 127

Figure 87 LSTM à chaque époque de l'entraînement. ............................................................ 129

Figure 88 Évolution de la quantité du produit 60 et la prévision LSTM ............................... 130

Figure 89 Formule MAPE ...................................................................................................... 131

Figure 90 Les processus de l'intégration de modèle ............................................................... 133

Figure 91 Script Python.......................................................................................................... 133

Figure 92 Interface de Script Python...................................................................................... 134


Listes des tableaux
Tableau 1 Illustration de l’équipe SCRUM............................................................................. 33

Tableau 2 OLTP VS OLAP ..................................................................................................... 50

Tableau 3 les étapes de L'ETL ................................................................................................ 52

Tableau 4 La description du cas d'utilisation générale ............................................................. 64

Tableau 5 La description de cas d'utilisation de l'ETL............................................................ 65

Tableau 6 La description de cas d'utilisation de gestion de tableau de bord ........................... 66

Tableau 7 la description détaillé du cas d’utilisation de gestion de modèle ............................ 67

Tableau 8 La description du cas d’utilisation de supervision des tableaux de bord ............... 68

Tableau 9 Les caractéristiques de notre machine virtuelle....................................................... 73

Tableau 10 Power BI vs Tableau vs QlikView ........................................................................ 78

Tableau 11 Descriptions des tables .......................................................................................... 88

Tableau 12 Table de fait "FORECASTS" ................................................................................ 95

Tableau 13 Table de Dimension "Société"............................................................................... 95

Tableau 14 Table de Dimension “Produits" ............................................................................. 96

Tableau 15 Les KPI .................................................................................................................. 98

Tableau 16 Evaluation MAPE................................................................................................ 132


Liste des Abréviations

- BI :Buisiness Intelligence
- CLC : Centrale Laitière Du Cap Bon
- ML : Machine Learning
- ETL : Extract Transform Load
- ARIMA : Autoregressive Integrated Moving Average
- SARIMAX : Seasonnal Autoregressive Integrated Moving Average
- MAPE : Mean Absolute Percentage Error
- ERP : Enterprise Resource Planning
- XP : Extreme Programming
- DW : Datawareouse
- DG : Direction Générale
- DCG : Direction De Contrôl De Gestion
- KPI : Des Indicateurs Clés De Performance
- CRISP DM : Cross-Industry Standard Process for Data Mining
- SI : Système D’information
- IA : Intelligence Artificielle
- NLP : Traitement Du Langage Naturel
- SVM : Les Machines À Vecteurs De Support
- OLTP : Online Transactional Processing
- OLAP :Online Analytical Processing
- SGBD : Système De Gestion De Bases De Données
- SQL : Structured Query Language
- DAX :Data Analysis Expressions
- UML : Unified Modeling Language
- IP : Intrenet Protocol
- VPN :Virtual Private Network
Introduction générale
La digitalisation et les nouvelles technologies ont profondément transformé le paysage des
affaires au cours des dernières décennies. Les entreprises ont dû s'adapter à ce nouvel
environnement en intégrant des solutions technologiques avancées pour rester compétitives et
répondre aux demandes croissantes des consommateurs. Dans ce contexte, l'informatique
décisionnelle (BI) a émergé comme un outil essentiel pour aider les organisations à prendre des
décisions éclairées et à optimiser leurs performances.
La digitalisation consiste à intégrer les technologies de l'information et de la communication
dans tous les aspects de l'entreprise, de la gestion des opérations à la relation client. Elle permet
d'automatiser des processus, d'améliorer l'efficacité opérationnelle et de collecter des données en
temps réel pour une analyse approfondie. L'informatique décisionnelle, quant à elle, se concentre
sur la transformation de ces données en informations pertinentes et exploitables pour la prise de
décision stratégique.
Dans le cadre de ce projet de fin d'année, l'entreprise Group Délice nous a confié la tâche de
digitaliser ses processus de prévision budgétaire. La prévision budgétaire est un élément essentiel
de la planification financière, permettant à une entreprise de déterminer les ressources
nécessaires et d'évaluer ses objectifs financiers futurs. Cependant, elle peut souvent être un
processus complexe et laborieux, nécessitant une collecte et une analyse de données rigoureuses.
Notre objectif est de mettre en place un outil de prévision budgétaire basé sur l'informatique
décisionnelle et la machine Learning, qui permettra à Group Délice de simplifier et d'optimiser
ce processus. En utilisant des techniques de modélisation et d'analyse prédictive, nous créerons
un système qui fournira des prévisions précises et fiables, facilitant ainsi la prise de décision
stratégique et la gestion des ressources.
Au cours de ce rapport, nous examinerons en détail les cinq chapitres clés qui composent
notre projet de digitalisation de la prévision budgétaire pour l'entreprise Group Delice. Chaque
chapitre abordera des aspects spécifiques du projet et contribuera à la réalisation de notre objectif
global. Voici un aperçu des chapitres à venir :

❖ Chapitre 1 : Contexte général et planifications


Dans ce chapitre, nous introduirons le contexte global du projet, y compris la digitalisation et
l'importance croissante de l'informatique décisionnelle dans les entreprises. Nous présenterons
également Group Delice, l'entreprise qui nous a confié cette mission, ainsi que son système
d'information et son organigramme. Enfin, nous discuterons de l'étude de l'existant, de la
problématique identifiée et de la solution proposée, en mettant l'accent sur la méthodologie de
travail et la planification adoptées.

❖ Chapitre 2 : État de l'Art


Ce chapitre sera consacré à une revue approfondie de la littérature et des connaissances
existantes dans les domaines de la digitalisation, de l'informatique décisionnelle et de la
prévision budgétaire. Nous examinerons les concepts clés tels que la transformation numérique,
le système de rolling forecast, les techniques de modélisation et d'analyse prédictive, ainsi que
l'architecture d'un système décisionnel. Nous discuterons également de l'impact de ces
technologies sur les entreprises et les avantages potentiels qu'elles peuvent offrir.

❖ Chapitre 3 : Sprint 0 - Analyse et conception


Dans ce chapitre, nous nous concentrerons sur la phase initiale du projet, où nous spécifierons
les besoins fonctionnels et non fonctionnels, identifierons les acteurs impliqués et définirons
l'architecture générale du système. Nous présenterons des représentations visuelles telles que le
langage de modélisation unifié, les diagrammes de cas d'utilisation et de séquence, ainsi que le
diagramme de Gantt pour la planification du projet. Nous aborderons également les
environnements de travail, tant du point de vue technique que logiciel.

❖ Chapitre 4 : Sprint 1 - Préparation, intégration et visualisation des données


Ce chapitre se concentrera sur la phase de préparation des données, y compris la conception
d'un modèle conceptuel de la solution et l'identification des sources de données pertinentes. Nous
expliquerons le processus d'extraction et de transformation des données à l'aide de Power Query,
ainsi que la modélisation multidimensionnelle et l'architecture du Data Warehouse avec Data
Marts à l'aide de Power Pivot. Enfin, nous discuterons de la visualisation des données à l'aide de
Power View et de la création d'un tableau de bord final.

❖ Chapitre 5 : Sprint 2 - Le développement et l'implémentation du modèle de prévision


Dans ce dernier chapitre, nous aborderons la phase de développement et d'implémentation du
modèle de prévision budgétaire. Nous commencerons par comprendre le domaine d'affaires de
Group Délice, en analysant les métiers et les données spécifiques. Nous présenterons ensuite les
concepts de prévision des séries temporelles, en mettant l'accent sur les modèles classiques et les
algorithmes d'apprentissage automatique. Nous développerons le modèle de pré vision,
l'intégrerons dans l'outil d'informatique décisionnelle et effectuerons des tests et des ajustements
pour garantir la précision des résultats.

En suivant cette structure en cinq chapitres, nous fournirons une analyse complète du projet de
digitalisation de la prévision budgétaire pour Group Délice. Chaque chapitre contribuera à notre
objectif d'améliorer le processus de prévision budgétaire grâce à l'utilisation de nouvelles technologies
et de l'informatique décisionnelle.

En conclusion, notre rapport se clôture par une synthèse générale qui récapitule l'ensemble du
travail accompli et les objectifs que nous avons atteints. De plus, nous aborderons les perspectives
envisagées pour l'avenir afin de mettre en lumière les opportunités d'amélioration et d'expansion de
notre projet.
Chahiptre1 : contexte générale et planifications

1.1 Introduction :
Le présent chapitre a pour but de situer le contexte général dans lequel s'inscrit ce
[Link] commencerons par présenter l'organisme en question, en fournissant un bref
aperçu de ses activités et de sa structure organisationnelle. Ensuite, nous décrirons le contexte
du projet en étudiant l'existant et en présentant la problématique à laquelle il répond. Enfin,
nous aborderons la méthodologie de travail et la planification qui ont été choisies pour mener
à bien ce projet..

1.2 Cadre de projet :


Le projet s'inscrit dans le cadre d'un stage de quatre mois au sein du groupe Délice. Ce
stage fait partie de mon cursus universitaire à l'Université Polytechnique Internationale
Privée de Tunis, dans le but d'obtenir mon diplôme de licence en informatique. Le projet
consiste à mettre en place un outil automatisé de Rolling Forecast (prévision budgétaire)
pour le groupe Délice

1.3 Présentation de l’organisme d’accueil 0.


Dans cette section, nous allons exposer une présentation du groupe delice, ainsi que de sa
filiale l’entreprise d’accueil la Centrale Laitière de Cap Bon

1.3.1 Présentation du groupe delice:


Le groupe Délice est l’un des leaders tunisiens dans le secteur de l’industrie agro-
alimentaire qui opère essentiellement dans les marchés des produits laitiers mais
également sur ceux du jus et des boissons gazeuses.
Figure 1 Logo du groupe délice

Créé en 2014 par Mr hamid Meddeb, le groupe noue un partenariat avec les français
de « Danone » dans les années 1990 sur le marché des yaourts et des desserts lactés.
Le Groupe «Délice Holding» est composé de huit sociétés : ‘‘CLC’’, ‘‘CLN’’,
‘’CLSB’’, ‘’SBC’’, ‘’CF’’, ‘’Delta Plastic’’, ‘’STIAL’’ et ‘’SOCOGES’’ exerçant
dans le secteur de l’industrie agroalimentaire.
Aujourd’hui Le Groupe Délice est engagé dans une démarche de développement
durable et de responsabilité sociale, en mettant en place des programmes pour
améliorer les conditions de vie des communautés locales et en s'engageant dans des
actions environnementales. L'entreprise est également très attachée à la qualité de ses
produits et met en place des normes strictes de sécurité alimentaire et de traçabilité.

Figure 2 Les produits de délice

• Histoires du groupe

L’ histoire du groupe est présenté par la figure 3


Figure 3 Histoire du groupe

• Stratégie du groupe

Figure 4 Stratégie du groupe


1.3.2 Présentation de l’entreprise centrale laitière du cap bon

L'organisme d'accueil pour ce projet est la Centrale Laitière de Cap Bon «CLC»,
filiale du groupe Délice.
La « Centrale Laitière du Cap Bon » a démarré son activité en Janvier 1997, son
activité principale est la production de produits laitiers tels que le lait stérilisé, le
beurre, le Leben, le petit lait, le lait aromatisé et chocolaté. Elle réalise une production
annuelle d'environ 120 millions de litres de lait, 2 milles tonnes de beurre ainsi que 7
millions de litres de lait fermenté, ce qui vaut à un chiffre d’affaire de 3 millions de
dinars tunisiens.
La CLC est une société anonyme (S.A) composé de 350 salariés et 40 cadres siégeant
à l’immeuble « Le Dôme » au 2ème étage, Rue du Lac Léman aux Berges du Lac à
Tunis. Il s’agit de la 1ère entreprise dans son secteur à être certifiée ISO 90021 version
1994 et récemment ISO 90012 version 2000.

1.3.3 Système d’information du groupe

Le système d'information du groupe Délice repose sur l'utilisation d'un


ERP (Enterprise Resource Planning) appelé JDEdwards, qui offre un large
éventail de fonctionnalités essentielles à la gestion efficace de l'entreprise.
JDEdwards permet une intégration complète des processus opérationnels
et administratifs, de la gestion des ressources humaines à la logistique, en
passant par les finances et la production. Grâce à JDEdwards, le groupe
Délice bénéficie d'une vision globale de ses activités, ce qui facilite la
prise de décisions éclairées et la coordination entre les différents
départements. Le système offre également des fonctionnalités avancées
telles que la gestion des stocks, la planification des ressources, la gestion
des commandes, la gestion des fournisseurs et bien plus encore. En
centralisant toutes ces fonctionnalités au sein d'un même système,
JDEdwards permet une gestion plus efficiente, une réduction des
doublons de données et une amélioration de la productivité de l'ensemble
de l'entreprise.
Figure 5 ERP Oracle JD EDWARSS
1.3.4 Organigramme :
la hiérarchie de l'entreprise et les différents services qui y sont présents :

Directeur
Directeur Général
Président Général de
Marketing du Groupe
Directeur Gestion du
Général Groupe

Auditeur Direction
Contrôle de
Interne
Gestion

Direction Générale

Adjoint

Direction Direction Direction Direction Responsable


Ressources Contrôle de
Technique Qualité Informatique
Humaines Gestion

Direction Direction Direction Direction


Commerce et
Financier et
Production Achats Logistique
Comptable

Figure 6 Figure : Organigramme de la société « Délice Holding »


1.4 Contexte du projet :

1.4.1 Étude de l’existant :

Dans le cadre du projet, nous avons réalisé une étude approfondie de l'existant concernant
les prévisions budgétaires au sein du groupe Délice. Les prévisions budgétaires sont d'une
importance capitale pour l'entreprise, car elles permettent d'estimer les résultats financiers
futurs et de planifier les activités en conséquence.

Au sein du groupe Délice, la prévision budgétaire se concentre sur la quantité prévue de


chaque article fini, tels que le lait, les jus et d'autres produits similaires. Nous parlons de X
articles globaux. L'objectif est d'estimer avec précision les besoins en termes de quantités
pour chaque article spécifique. Cette approche permet de prendre en compte les variations de
la demande, les fluctuations saisonnières et les prévisions de vente propres à chaque article.
Ainsi, les prévisions budgétaires jouent un rôle essentiel dans la gestion globale des activités
de l'entreprise et dans la prise de décisions stratégiques. Elles permettent d'optimiser la
planification des ressources, d'ajuster les niveaux de stock, de mieux anticiper les coûts liés
aux matières premières et d'optimiser la production en fonction des prévisions de demande.
En évaluant ces facteurs clés pour chaque article, le groupe Délice peut mieux anticiper les
besoins et atteindre ses objectifs financiers de manière efficace.

Figure 7 Les produits finies


Actuellement, le responsable en charge de la prévision budgétaire collecte
quotidiennement les données nécessaires dans un tableau Excel. À partir de ces
données, il effectue les prévisions pour chaque article en termes de quantité et de
montant. Pour ce faire, il se base sur divers facteurs tels que l'estimation de la
variation des ventes saisonnières, la capacité maximale de production de l'usine, ainsi
que le pourcentage décidé annuellement lors d'une réunion entre la direction générale
et le département marketing.

Cependant, malgré l'utilisation de JDEdwards, un ERP intégré au système


d'information du groupe Délice, qui propose un module de gestion des prévisions avec
12 méthodes classiques notamment :

Méthode 1 : Pourcentage par rapport à l'année précédente.


Méthode 2 : Pourcentage calculé par rapport à l'année précédente.
Méthode 3 : Comparaison entre l'année précédente et l'année en cours.
Méthode 4 : Moyenne mobile.
Méthode 5 : Approximation linéaire.
Méthode 6 : Régression des moindres carrés.
Méthode 7 : Approximation du second degré.
Méthode 8 : Méthode flexible.
Méthode 9 : Moyenne mobile pondérée.
Méthode 10 : Lissage linéaire.
Méthode 11 : Lissage exponentiel.
Méthode 12 : Lissage exponentiel avec tendance et saisonnalité.

Nous avons constaté que ces méthodes ne fournissent pas des résultats conformes à la
réalité. Cela a conduit le groupe à continuer à utiliser la méthode traditionnelle de
prévision, qui repose sur des processus manuels et l'expertise des responsables. Cette
approche permet d'obtenir des prévisions plus précises et fiables, malgré les
fonctionnalités de prévision offertes par le système ERP.
Figure 8 les 12 types de forecast

En résumé, notre étude de l'existant a mis en évidence l'importance des prévisions


budgétaires pour le groupe Délice. Bien que disposant d'un ERP avec un module de
gestion des prévisions, le groupe préfère actuellement utiliser la méthode traditionnelle
pour garantir des résultats plus précis.

1.4.2 Problématique :
Après une analyse approfondie de l'existant, nous avons constaté que les processus
budgétaires actuels du groupe Délice reposent principalement sur des fichiers Excel et des
réunions manuelles avec plusieurs départements. Cette approche présente plusieurs
limitations, notamment en termes de temps, de coûts et de risques associés.

Le processus de prévision budgétaire actuel peut être long et coûteux en raison de la collecte
manuelle des données et des réunions impliquant différents départements. De plus, il existe
des risques d'erreurs de prévision et de dépendance excessive aux données historiques, ce qui
peut entraîner des incohérences dans les résultats.

En ce qui concerne les outils et les systèmes utilisés pour soutenir ces processus budgétaires,
nous avons constaté que l'ERP JDEdwards dispose de modèles classiques basés sur des
théories mathématiques simples. Ces modèles comprennent 12 méthodes de prévision, telles
que le pourcentage par rapport à l'année précédente, le pourcentage calculé par rapport à
l'année précédente, la comparaison entre l'année précédente et l'année en cours,... .
Cependant, malgré la disponibilité de ces modèles de prévision dans l'ERP, nous avons
constaté qu'ils ne fournissent pas des résultats satisfaisants et ne répondent pas aux besoins
spécifiques du groupe Délice. Ces modèles classiques basés sur des théories mathématiques
simples peuvent ne pas prendre en compte les spécificités du secteur alimentaire et les
variations saisonnières complexes.

Ainsi, la problématique à résoudre est de trouver une approche plus adaptée pour les
prévisions budgétaires au sein du groupe Délice. Il s'agit d'explorer des méthodes de prévision
plus avancées, tenant compte des caractéristiques propres à l'entreprise et du contexte
spécifique du secteur alimentaire. Cela permettra d'améliorer la précision des prévisions
budgétaires, de réduire les risques d'erreurs et d'optimiser la planification des activités et
l'allocation des ressources.

En résumé, l'analyse de l'existant a révélé que les processus budgétaires actuels du groupe
Délice reposent sur des fichiers Excel et des réunions manuelles, tandis que l'ERP JDEdwards
propose des modèles de prévision classiques basés sur des théories mathématiques simples.
Cependant, ces approches ne sont pas satisfaisantes en termes de précision et de pertinence.
La problématique à résoudre consiste donc à trouver une approche plus adaptée pour
améliorer et digitaliser les prévisions budgétaires au sein du groupe Délice.

1.4.3 Solution proposée :


En tant qu'étudiant en informatique, mon rôle dans ce projet est d'apporter mon
expertise en matière de digitalisation pour aider l'entreprise Délice à améliorer ses
processus budgétaires actuels. avec des solutions numériques innovantes.

La digitalisation est devenue une nécessité dans le monde économique pour améliorer
la compétitivité et l'efficacité des entreprises.

La solution proposée pour résoudre les problèmes identifiés est basée sur la
digitalisation et la mise en place d'un outil de Rolling Forecast intégré à l'ERP de
l'entreprise. Cet outil utilisera des technologies de pointe telles que le machine
learning et l'informatique décisionnelle (Business Intelligence, BI).

En utilisant les données historiques collectées par l'entreprise, le machine learning


permettra de collecter, traiter et analyser de grandes quantités de données en temps
réel. Cela permettra de prédire avec précision les résultats futurs et d'optimiser la
gestion des budgets en tenant compte des fluctuations saisonnières et des changements
du marché. Cette approche réduira les risques d'erreurs de prévision et de dépendance
excessive envers les données historiques.
L'intégration de l'outil de gestion de budget basé sur la BI permettra une meilleure
visualisation des données budgétaires et une analyse plus détaillée des tendances et
des écarts. Les responsables financiers pourront accéder à des tableaux de bord
interactifs, des graphiques et des rapports personnalisés pour prendre des décisions
éclairées.

L'intégration de cette solution dans le système ERP existant permettra de rationaliser


le processus de prévision budgétaire en automatisant les tâches manuelles et en
améliorant la communication et l'intégrité des données entre les différents
départements. Cela réduira le temps et les coûts associés aux réunions manuelles avec
plusieurs départements pour la prévision budgétaire.

Enfin, l'outil de prévision automatisé facilitera la communication et l'intégration des


données en fournissant des indicateurs clés de performance en temps réel. Les
décideurs auront accès à des informations actualisées pour prendre des décisions
rapides et efficaces.

En résumé, la digitalisation et l'utilisation de l'informatique décisionnelle, du machine


learning et de l'ERP permettront à l'entreprise Délice d'améliorer ses processus
budgétaires en automatisant les tâches, en améliorant la précision des prévisions et en
facilitant la prise de décision.

1.5 Méthodologie de travail et planification

Pour garantir une gestion efficace du projet, il est essentiel de choisir une
méthodologie de gestion qui soit systématique et disciplinée dans sa conception, son
exécution et son achèvement. Cette méthodologie consiste en un ensemble de pratiques,
de techniques, de procédures et de règles qui permettent de gérer de manière efficace un
projet spécifique, tout en fournissant une structure pour sa réalisation. Chaque approche
de gestion constitue un plan directeur qui guide la planification, la gestion et l'exécution
des tâches et des projets, de leur début à leur achèvement.

1.5.1 L’approche Agile

Pour réussir notre projet et répondre précisément aux exigences des décideurs, nous
devons suivre une méthodologie de gestion de projet adaptée à un projet de Business
Intelligence (BI)et machine Learning. Parmi les méthodes agiles répandues, nous nous
concentrerons principalement sur Scrum, XP et Kanban, qui sont toutes conformes aux
principes du Manifeste Agile. Ces méthodes favorisent l'amélioration continue, la
flexibilité, la collaboration de l'équipe et la livraison de résultats de haute qualité.
De plus, nous intégrerons la méthodologie CRISP-DM (Cross-Industry Standard
Process for Data Mining) dans notre étude de cas. CRISP-DM est une méthode
standardisée pour la gestion de projets d'exploration de données et d'analyse

❖ KANBAN
KANBAN est une méthode de gestion des connaissances Liés au travail avec un
accent sur l’organisation En fournissant un type instantané d’informations de temps en
temps aux membres de l’équipe afin de ne pas les surcharger [3].
• Processus KANBAN
KANBAN Kanban fait partie des techniques utilisées par ceux qui adoptent la méthode
dite agile. La technologie Kanban est née au Japon pour gérer les stocks et les lignes de
production. Il permet de travailler sur des systèmes "juste à temps" où les produits ne
sont disponibles qu’en cas de besoin. Les fondements de la méthodologie Agile Kanban
comprennent :
• Kanban adopte une approche visuelle pour faciliter la gestion des tâches.
• L'objectif est de minimiser les pertes, les retards et le gaspillage.
• Le réapprovisionnement se fait immédiatement, en fonction de la demande.
L'approche Kanban repose sur un tableau avec des colonnes représentant les différentes étapes
du processus et des cartes pour chaque tâche. Cela permet de visualiser facilement l'avancement
des tâches, leur position dans le processus et les détails de leur exécution. Kanban utilise le
contrôle visuel pour optimiser le flux de travail, éliminer les pertes et les retards, et permettre
un réapprovisionnement immédiat selon les besoins. Cette méthode agile trouve ses origines au
Japon, où elle était utilisée pour gérer les stocks et les lignes de production. Aujourd'hui, elle
est largement adoptée dans différents domaines pour améliorer la gestion des connaissances,
favoriser la collaboration et optimiser les processus de travail.

Figure 9 L'approche Kanban


• XP (Extreme Programming) :

La méthode XP est une approche de développement logiciel agile qui met l'accent
sur la collaboration étroite entre les membres de l'équipe et la satisfaction du client.
Elle se distingue par ses principes clés :

• Contrôle visuel du flux de tâches : Cette pratique permet de visualiser le


déroulement des tâches à travers des tableaux et de suivre leur progression dans le
processus.
• Élimination des pertes, retards et gaspillage : XP vise à réduire les activités non
productives et à optimiser le flux de travail pour une efficacité maximale.
• Réapprovisionnement immédiat à consommation : L'approvisionnement en
ressources et matériaux se fait en fonction des besoins réels, évitant les stocks inutiles.

• Processus XP
Le processus XP se déroule de manière itérative et incrémentale, en suivant les étapes clés :
✓ Compréhension des besoins : L'équipe travaille en étroite collaboration avec le
client pour identifier et comprendre les besoins spécifiques.
✓ Création de "user stories" : Des scénarios détaillés sont élaborés pour décrire
les fonctionnalités attendues.
✓ Itérations courtes (sprints) : Les fonctionnalités sont développées, testées et
livrées en itérations rapides.
✓ Pratiques de développement : XP met l'accent sur la communication continue,
les tests automatisés, la programmation en binôme et les revues de code
régulières.
✓ Livraison régulière : Des versions fonctionnelles du logiciel sont livrées à
intervalles réguliers pour obtenir les retours du client et ajuster le projet en
conséquence.
La méthode XP favorise la collaboration, la satisfaction client et la livraison de logiciels de
haute qualité grâce à son approche itérative, sa communication continue et ses pratiques de
développement rigoureuses.

Figure 10 Processus XP

• SCRUM :

Scrum est une méthodologie de gestion de projet agile largement utilisée dans le
développement logiciel. Elle se base sur la collaboration, la transparence et l'adaptation
continue pour atteindre les objectifs du projet de manière efficace.
Dans le cadre de Scrum, il y a plusieurs rôles clés :

• Product Owner : Il représente les besoins et les intérêts des parties prenantes et
définit le backlog produit, c'est-à-dire la liste des fonctionnalités et des priorités.
• Scrum Master : Il est responsable de faciliter le processus Scrum, de s'assurer que
l'équipe respecte les principes et les pratiques, et d'éliminer les obstacles qui peuvent
entraver la progression.
• Scrum Team : Il s'agit de l'équipe de développement qui est responsable de
concevoir, développer et tester les fonctionnalités du produit

• Processus SCRUM
Le processus Scrum suit les étapes suivantes :

✓ Sprint Planning : Le Product Owner et l'équipe Scrum se réunissent pour définir les
objectifs et sélectionner les éléments du backlog produit à inclure dans le sprint.
✓ Sprint Backlog : Le sprint backlog est une liste des éléments sélectionnés pour le
sprint. Il contient les tâches spécifiques à réaliser pendant le sprint pour atteindre les
objectifs fixés.
✓ Sprint : Il s'agit d'une période de temps fixe (généralement de 2 à 4 semaines) au
cours de laquelle l'équipe Scrum travaille sur les éléments sélectionnés pour le sprint.
✓ Daily Scrum : Chaque jour, l'équipe se réunit brièvement pour partager les progrès,
discuter des défis et coordonner les activités à venir.
✓ Sprint Review : À la fin du sprint, l'équipe présente les fonctionnalités développées
au Product Owner et aux parties prenantes pour obtenir leurs retours et valider les
résultats.
✓ Sprint Retrospective : L'équipe Scrum réfléchit sur le sprint écoulé, identifie les
points forts et les axes d'amélioration, et apporte des ajustements pour les prochains
sprints.
✓ Product Backlog : Le product backlog est la liste complète des fonctionnalités à
développer dans le projet. Il est continuellement mis à jour et priorisé par le Product
Owner en fonction des besoins et des retours des parties prenantes.

Scrum offre une approche itérative et incrémentale, favorisant la transparence,


l'adaptabilité et la livraison continue de valeur tout au long du projet. Il permet aux
équipes de s'organiser de manière autonome et de répondre efficacement aux changements
tout en maintenant un haut niveau de collaboration.

Figure 11 Processus Scrum


❖ CRISP-DM
CRISP-DM (Cross-Industry Standard Process for Data Mining) est une méthodologie
largement utilisée pour la gestion de projets de data mining et d'analyse de données. Elle
fournit une structure et des étapes clés pour guider les professionnels dans la réalisation de
projets d'exploration de données de manière systématique.

• Processus CRISP-DM

Le processus CRISP-DM comprend les étapes suivantes :


✓ Compréhension du problème : Cette étape consiste à clarifier les objectifs du projet,
identifier les besoins des parties prenantes, définir les critères de réussite et évaluer la
disponibilité des données.
✓ Collecte des données : Ici, les données pertinentes pour le projet sont identifiées,
recueillies et préparées pour l'analyse ultérieure. Cela peut impliquer des activités
telles que le nettoyage des données, l'intégration de différentes sources et la sélection
des variables pertinentes.
✓ Exploration des données : Cette étape vise à explorer les données en utilisant des
techniques d'analyse exploratoire pour découvrir des tendances, des schémas ou des
relations cachées. Des méthodes telles que la visualisation des données et l'analyse
statistique sont utilisées pour générer des informations significatives.
✓ Modélisation : À cette étape, des modèles prédictifs ou des modèles descriptifs sont
développés en utilisant des techniques telles que la régression, les arbres de décision,
les réseaux neuronaux, etc. Les modèles sont évalués et ajustés pour atteindre les
objectifs du projet.
✓ Évaluation : Les modèles développés sont évalués en fonction de leurs performances,
de leur précision et de leur adéquation aux objectifs du projet. Cela permet de
déterminer si les modèles sont suffisamment fiables pour être utilisés dans un contexte
opérationnel.
✓ Déploiement : À cette étape, les modèles validés sont intégrés dans le système
d'information existant, prêts à être utilisés pour prendre des décisions ou résoudre des
problèmes spécifiques. Des mesures de suivi et des procédures de maintenance sont
mises en place pour garantir leur efficacité continue.

CRISP-DM offre une approche itérative et cyclique, permettant aux professionnels de


l'analyse de données de gérer leurs projets de manière structurée, tout en favorisant la
flexibilité et l'adaptabilité aux besoins changeants. En suivant cette méthodologie, les
organisations peuvent maximiser les avantages de leurs initiatives d'exploration de données et
améliorer leur prise de décision basée sur les données.
Figure 12 Processus CRISP-DM

1.5.2 Choix de Scrum ?

Après une étude approfondie des différentes méthodologies basées sur divers critères, il a été
conclu que Scrum et CRISP-DM sont les meilleures méthodes pour notre cas.
Compte tenu de notre besoin spécifique en matière de business intelligence et de machine
learning. Nous avons choisi Scrum en raison de ses nombreux avantages, tels que sa
flexibilité, sa focalisation sur la valeur métier, sa collaboration étroite avec les parties
prenantes et sa capacité à gérer les exigences changeantes.
En revanche, nous avons décidé de ne pas utiliser la méthodologie CRISP-DM dans ce projet,
car elle se concentre principalement sur le processus de data mining et n'est pas aussi adaptée
à notre contexte global de développement d'entrepôt de données et dashboarding.
En utilisant Scrum, nous serons en mesure de livrer des fonctionnalités de haute qualité de
manière itérative et incrémentale, tout en assurant une transparence et une adaptation continue
tout au long du projet.
Rôle Acteur Mission
Product Owner Chef de département : Définir les fonctionnalités du
[Link] Riahi produit et s’assurer de leur
conformités.
Scrum Master Encadrant : assurer le bon déroulement de
[Link] Riahi la méthode Scrum
Équipe de développement Chahine Chammar Développement

Tableau 1 Illustration de l’équipe SCRUM

1.5.3 les intervenants du projet


Comme tout projet Scrum, il faut identifier les tâches et leurs responsables pour mener le travail
comme planifié.

Dans le tableau 1.1 nous présentons les différents acteurs participants dans ce projet :

Table 1.1 – Illustration de l’équipe SCRUM

1.5.4 Découpage de la solution en sprints


Nous avons choisi de diviser notre solution en 3 sprints après avoir spécifié les
besoins du décideur comme le montre la figure 13 .

Figure 13 la planification des sprints

La planification de ces sprints et l’une des étapes les plus importantes dans un projet
Scrum. Cette planification sera présentée dans la prochaine partie.
CONCLUSION
En conclusion de ce chapitre, nous avons introduit le contexte général du projet, en mettant en
évidence les différents éléments nécessaires à sa compréhension. Nous avons présenté
l'organisme d'accueil, le Groupe, ainsi que son système d'information et son organigramme.
Nous avons également abordé le contexte spécifique du projet, en examinant l'étude de
l'existant, la problématique à résoudre et la solution proposée. Nous avons souligné
l'importance de mettre en place une méthodologie de travail appropriée, en optant pour une
approche Agile, plus précisément Scrum. Nous avons également identifié les intervenants clés
du projet et découpé la solution en sprints pour une meilleure gestion du développement.
Chahiptre2 : état de l’Art

Introduction

Le chapitre 2 de notre projet se concentre sur l'état de l'art, en explorant différents


domaines liés à notre projet. Nous abordons la digitalisation, le système de Rolling
Forecast, les techniques de modélisation et d'analyse prédictive, ainsi que
l'informatique décisionnelle (BI). Chaque domaine est examiné en détail, en mettant
l'accent sur les définitions, les applications et les impacts sur les entreprises.

2.1 les domaines de notre projet


Comme illustré dans la figure les domaines qui touche notre projet sont
- La Digitalisation

- Système de Rolling Forecast «Prévision Budgétaire »

- Apprentissage Automatique « Machine Learning ML »

- Informatique Décisionnelle « Business intelligence BI »

Figure 14 Les domaines de projet

Dans les sections suivantes , nous présentons en détail chaque domaine.


2.2 la digitalisation :

2.2.1 Définition de la digitalisation

La digitalisation, également connue sous le nom de transformation numérique, désigne


le processus d'intégration des technologies numériques dans tous les aspects d'une
entreprise, de ses opérations internes à ses interactions avec les clients, fournisseurs et
partenaires. Elle englobe l'utilisation de solutions informatiques, d'outils numériques,
de plateformes en ligne et d'innovations technologiques pour optimiser les processus,
améliorer la productivité, stimuler l'innovation et créer de la valeur.

2.2.2 La digitalisation dans les entreprises

La digitalisation a un impact profond sur les entreprises de tous les secteurs, en


transformant leur manière de fonctionner, de créer de la valeur et d'interagir avec leur
écosystème. Elle permet une automatisation accrue des tâches, une gestion plus
efficace des données, une communication instantanée et une prise de décision éclairée
basée sur l'analyse des données. La digitalisation facilite également l'adaptation aux
changements rapides du marché, en permettant aux entreprises d'explorer de nouveaux
modèles d'affaires, de saisir des opportunités émergentes et de répondre aux attentes
changeantes des clients.

Figure 15 La digitalisation
2.2.3 L'impact de la digitalisation sur les entreprises

La digitalisation offre de nombreux avantages pour les entreprises, notamment :

✓ Amélioration de l'efficacité et de la productivité : Grâce à l'automatisation des


tâches, à l'optimisation des processus et à l'utilisation de technologies
avancées, les entreprises peuvent réaliser des gains d'efficacité et accroître leur
productivité.

✓ Amélioration de la prise de décision : La digitalisation permet aux entreprises


de collecter, d'analyser et d'exploiter les données de manière plus efficace, ce
qui facilite la prise de décision éclairée et basée sur des informations précises.

✓ Amélioration de l'expérience client : En intégrant des solutions numériques, les


entreprises peuvent offrir une expérience client personnalisée, interactive et
transparente, renforçant ainsi la fidélité et la satisfaction des clients.

✓ Innovation et compétitivité : La digitalisation favorise l'innovation en


permettant l'exploration de nouvelles idées, de nouveaux produits et de
nouveaux modèles d'affaires. Elle permet également aux entreprises de rester
compétitives dans un environnement en constante évolution.

✓ Agilité et flexibilité : La digitalisation offre aux entreprises une plus grande


agilité et flexibilité, leur permettant de s'adapter rapidement aux changements
du marché, d'explorer de nouvelles opportunités et de saisir des avantages
concurrentiels.

2.2.4 Mise en œuvre de la digitalisation

La mise en œuvre de la digitalisation nécessite une approche stratégique et un plan


d'action bien défini. Il est essentiel d'identifier les domaines clés à digitaliser, d'évaluer
les besoins technologiques, de former et d'accompagner les collaborateurs dans cette
transition, et de mesurer les résultats obtenus. La collaboration avec des experts en
transformation numérique peut également être bénéfique pour garantir une transition
réussie vers une entreprise digitale.

2.2.4 .1 La transformation des usages et des fonctions

La digitalisation accompagne les activités et les pratiques métiers grâce à l'utilisation


d'outils digitaux, permettant ainsi la transformation des usages et des fonctions
métiers. Que ce soit sur le terrain, dans les usines ou en avant-vente, cette
transformation vise à améliorer l'efficacité, la productivité et l'expérience des
employés. Elle implique l'intégration de nouvelles technologies telles que l'IoT et les
appareils mobiles dans les processus, afin de fournir des informations en temps réel.
L'objectif est de pouvoir piloter les actions en générant des tableaux de bord et des
indicateurs de l'efficience des processus mis en place.

2.2.4 .2 Les clefs de la digitalisation des processus métiers

La digitalisation des processus métiers est souvent abordée de manière insuffisamment


rigoureuse, où l'idée fausse prévaut selon laquelle l'introduction d'un nouveau terminal
ou le remplacement du support papier par une application suffisent pour atteindre cet
objectif. Cependant, il est essentiel de construire cette digitalisation de manière
méthodique, en adoptant une approche cohérente et en définissant des objectifs clairs.
Sans cette démarche rigoureuse, il y a un risque de mettre en place des processus mal
maîtrisés, mal structurés et peu acceptés, ce qui compromet leur efficacité. Il est donc
crucial de ne pas se laisser aveugler par une simple illusion de transformation, et de
s'engager dans une démarche réfléchie et bien planifiée pour garantir le succès de la
digitalisation des processus métiers.

• Dans cette optique, les objectifs de la digitalisation des processus


métiers comprennent :

✓ Socialiser les processus en favorisant la collaboration entre les acteurs et en améliorant


l'efficacité des tâches partagées.
✓ Faire circuler l'information en dématérialisant les documents et les processus, et en
identifiant et partageant les bonnes pratiques.
✓ Réassigner les tâches en identifiant les optimisations et en permettant à des tiers
pertinents d'effectuer certaines activités.
✓ S'ouvrir vers des tiers en autorisant l'accès au système d'information à des partenaires,
fournisseurs et clients, et en favorisant les interactions externes.
✓ Faciliter l'accès aux données en permettant le temps réel, en exploitant et gérant les
données, ainsi qu'en maintenant à jour les référentiels.

• La méthodologie de mise en œuvre de la digitalisation des processus


métiers comprend les étapes suivantes :

✓ Définir les cas d'usage en comprenant les utilisateurs, en identifiant les profils et les
usages associés, et en prenant en compte les attentes métiers.
✓ Adopter les bons terminaux en tirant parti des innovations du marché, en assurant la
compatibilité avec tous les dispositifs, et en profitant de la diversité des terminaux en
fonction des cas d'usage.
✓ Modéliser les parcours en établissant les différentes étapes du parcours, en
déterminant les moments clés et en travaillant sur l'expérience utilisateur (UX).
✓ Accompagner le changement en évaluant les changements, en définissant une stratégie
d'accompagnement et en favorisant la culture digitale.

En suivant ces étapes et en poursuivant ces objectifs, il est possible d'assurer une digitalisation
des processus métiers efficace et bénéfique pour l'entreprise.
Figure 16 Agile vs Traditionnelle

2.2.5 L’influence de la digitalisation sur le budget de l'entreprise :

L'influence de la digitalisation sur le budget de l'entreprise est significative. En effet,


en adoptant des solutions numériques et en automatisant les processus, les entreprises
peuvent réaliser des économies importantes. La digitalisation permet d'optimiser
l'utilisation des ressources, d'améliorer l'efficacité opérationnelle et de réduire les
coûts liés aux tâches manuelles et répétitives. De plus, l'intégration de technologies
telles que l'intelligence artificielle et l'apprentissage automatique offre des possibilités
de prévision plus précises et de meilleures analyses des données, ce qui permet
d'établir des budgets plus fiables et de prendre des décisions plus éclairées. Un outil
essentiel dans ce contexte est le rolling forecast, qui permet de mettre à jour
régulièrement les prévisions budgétaires en fonction des nouvelles données et des
évolutions du marché. En utilisant cet outil, les entreprises peuvent anticiper les
changements, ajuster leur budget en conséquence et garantir une meilleure gestion
financière. Ainsi, la digitalisation combinée à l'utilisation d'outils de rolling forecast
offre des avantages considérables en termes de maîtrise budgétaire, de flexibilité et de
prise de décision stratégique.
2.3 les Système de Rolling Forecast «Prévision glissantes »

2.3.1 Generalite

Dans le domaine de la gestion budgétaire, le système de Rolling Forecast, également


connu sous le nom de "Prévision glissante", est une approche dynamique qui permet aux
entreprises de mieux anticiper et de s'adapter aux changements constants de leur
environnement économique. Ce système se distingue des prévisions traditionnelles qui sont
généralement établies une fois par an et restent statiques jusqu'à la fin de l'exercice. Au
contraire, le Rolling Forecast propose une mise à jour régulière des prévisions en fonction des
nouvelles données disponibles et des évolutions du marché.

2.3.2 Définition

Le système de Rolling Forecast, également appelé « Prévision glissante », est une


approche alternative à la planification financière traditionnelle. Contrairement au plan
prévisionnel classique, le Rolling Forecast se caractérise par une mise à jour régulière des
prévisions budgétaires en fonction des nouvelles informations disponibles. Il s'agit d'une
approche plus flexible et réactive, qui permet aux entreprises de suivre de près les évolutions
du marché et d'ajuster leurs plans en conséquence.

Figure 17 Plan prévisionnelle


2.3.3 Domaines d'application

Le système de Rolling Forecast trouve des applications dans divers domaines :


• Gestion financière : en permettant une visibilité à court terme sur les performances
financières, le Rolling Forecast aide les entreprises à mieux gérer leur trésorerie, à
anticiper les fluctuations des revenus et des dépenses, et à prendre des mesures
correctives en cas de déviations.
• Planification opérationnelle : en intégrant les données de prévision dans la
planification opérationnelle, les entreprises peuvent ajuster leurs ressources, leurs
capacités de production et leurs stratégies en fonction des demandes prévues.
• Prise de décision stratégique : en fournissant des informations financières actualisées,
le Rolling Forecast permet aux dirigeants d'entreprise de prendre des décisions
éclairées concernant les investissements, les acquisitions, les nouveaux projets et les
initiatives de croissance.

2.3.4 La différence entre « rolling forecast » et plan prévisionnel classique


Le plan prévisionnel classique est établi généralement pour une période fixe, souvent
un exercice fiscal, et est rarement mis à jour en dehors de cette période. Il repose sur des
hypothèses et des projections pour l'année à venir, avec des objectifs et des cibles définis.
Cependant, cette approche statique présente certaines limites face à un environnement
commercial en constante évolution.
• Flexibilité : Le plan prévisionnel classique offre une vision à long terme, mais il peut
manquer de flexibilité pour s'adapter aux changements et aux imprévus. Les
conditions économiques, les fluctuations du marché et d'autres facteurs externes
peuvent influencer les performances financières de l'entreprise, ce qui nécessite une
réévaluation régulière des prévisions.
• Réactivité aux changements : Contrairement au plan prévisionnel classique, le Rolling
Forecast permet une mise à jour périodique des prévisions, généralement sur une
période glissante comme les 12 prochains mois. Cela signifie que les entreprises
peuvent intégrer les nouvelles données et ajuster leurs prévisions en fonction des
conditions réelles du marché, ce qui permet une prise de décision plus rapide et plus
informée.
• Adaptation aux conditions économiques : Les prévisions établies dans le cadre du plan
prévisionnel classique peuvent devenir obsolètes si les conditions économiques se
détériorent ou changent de manière significative. En revanche, le Rolling Forecast
permet aux entreprises de suivre de près les indicateurs économiques et d'ajuster leurs
prévisions en conséquence, ce qui leur permet de mieux anticiper les impacts sur leur
budget.
• Maîtrise budgétaire : Le plan prévisionnel classique peut parfois entraîner des écarts
importants entre les prévisions et les résultats réels, ce qui peut affecter la maîtrise
budgétaire de l'entreprise. En utilisant le Rolling Forecast, les entreprises peuvent
effectuer des ajustements réguliers et corriger les déviations afin de maintenir une
meilleure stabilité financière.
La figure 18 ci-dessus met en évidence les principales différences entre le système de
Rolling Forecast et le plan prévisionnel classique

Figure 18 Rolling Forecast vs Le plan prévisionelle classique


En conclusion, le système de Rolling Forecast "Prévision glissantes" se distingue du
plan prévisionnel classique en offrant une approche plus flexible, réactive et adaptable aux
conditions économiques changeantes. En intégrant les mises à jour régulières des prévisions,
les entreprises peuvent mieux anticiper les risques, saisir les opportunités et maintenir une
maîtrise budgétaire plus solide. Cela permet une gestion financière plus agile et une prise de
décision stratégique mieux informée pour assurer la pérennité et la croissance de l'entreprise
.
2.3.5 Technologies adoptées pour l'outil de pilotage du Rolling Forecast :
Les outils de pilotage du Rolling Forecast utilisent généralement des technologies
avancées pour faciliter la collecte, l'analyse et la visualisation des données financières. Voici
quelques-unes des technologies couramment adoptées pour l'outil de pilotage du Rolling
Forecast :

• Systèmes de gestion des données : Les solutions de gestion des données, telles que
les entrepôts de données ou les bases de données relationnelles, sont utilisées pour
stocker les données financières et opérationnelles nécessaires aux prévisions.

• Logiciels d'analyse et de Business Intelligence (BI) : Les outils d'analyse et de BI


permettent de traiter les données et de générer des rapports, des tableaux de bord et
des visualisations interactives pour une meilleure compréhension des tendances et
des performances passées.

• Techniques de modélisation et d'analyse prédictive : Les méthodes de modélisation


statistique et d'analyse prédictive, telles que les séries chronologiques, les modèles
de régression ou les algorithmes d'apprentissage automatique, sont utilisées pour
prévoir les résultats futurs en se basant sur les données historiques.

• Outils de planification et de budgétisation : Les outils de planification et de


budgétisation intégrés au système de Rolling Forecast permettent de définir et de
gérer les objectifs financiers, d'allouer les ressources et de suivre les performances
par rapport aux prévisions.

• Solutions de collaboration et de partage des informations : Les plateformes


collaboratives et les outils de partage de documents facilitent la communication et
la collaboration entre les différentes parties prenantes impliquées dans le processus
de prévision.
En combinant ces technologies, les outils de pilotage du Rolling Forecast offrent aux
entreprises une meilleure visibilité, une plus grande agilité et une prise de décision plus
éclairée en matière de planification financière. Ils facilitent la collaboration entre les équipes,
permettent une analyse approfondie des données et contribuent à l'optimisation des
performances financières de l'entreprise.

2.4 Présentation des techniques de modélisation et d'analyse prédictive

Dans ce qui suit ,nous allons définir la notion de l’apprentissage automatique (en
anglais Machine Learning « ML ») et les Modèles Statistiques, les approches qu’elles
présentes ainsi quelques domaines d’application

2.4.1 Généralité :

Dans le domaine de la modélisation et de l'analyse prédictive, deux approches


principales sont couramment utilisées : le machine Learning (apprentissage
automatique) et les modèles statistiques. Chacune de ces approches propose des
techniques spécifiques pour extraire des connaissances à partir des données et
effectuer des prédictions.

2.4.2 Modèles Statistiques

[Link] Définition

Les modèles statistiques sont des outils mathématiques qui permettent de décrire et
d'analyser les relations entre les variables et les données. Ils reposent sur des principes
statistiques et probabilistes pour modéliser les phénomènes et effectuer des
prédictions. Voici quelques modèles statistiques couramment utilisés :

• Régression Linéaire :

La régression linéaire est un modèle statistique qui vise à établir une relation
linéaire entre une variable dépendante et une ou plusieurs variables
indépendantes. Il est utilisé pour prédire des valeurs continues et analyser les
relations de cause à effet.

• Modèles de Séries Temporelles :


Les modèles de séries temporelles sont utilisés pour analyser et prévoir des
données qui évoluent dans le temps. L'ARIMA (Autoregressive Integrated
Moving Average) en est un exemple, qui capture les tendances, les saisons et
les composantes aléatoires des séries temporelles.
• Modèles de Classification :

Les modèles de classification permettent de classer les observations dans des


catégories prédéfinies. Parmi les exemples populaires, on retrouve la
régression logistique et les modèles discriminants, qui s'appuient sur des règles
probabilistes pour effectuer la classification.

[Link]. Les Approches

Les modèles statistiques peuvent être construits en utilisant différentes approches,


selon les caractéristiques des données et les objectifs de modélisation. Voici quelques
approches couramment utilisées :

• Méthode des Moindres Carrés


La méthode des moindres carrés est une approche fréquemment utilisée dans la
régression linéaire. Elle consiste à minimiser la somme des carrés des écarts entre les
valeurs prédites par le modèle et les valeurs réelles des données.

• Maximum de Vraisemblance
La maximisation de la vraisemblance est une approche statistique utilisée pour estimer
les paramètres d'un modèle en choisissant les valeurs qui maximisent la probabilité
d'observer les données réelles.

• Méthodes Bayésiennes
Les méthodes bayésiennes reposent sur le théorème de Bayes et permettent d'estimer
les paramètres d'un modèle en combinant des informations a priori et les données
observées. Elles fournissent des estimations probabilistes et permettent de prendre en
compte l'incertitude dans les prédictions.

[Link] Domaines d'Application

Les modèles statistiques sont largement utilisés dans de nombreux domaines pour
l'analyse et la prédiction de données. Voici quelques domaines d'application courants :

• Économie et Finance
Les modèles statistiques sont utilisés pour analyser les données financières, prévoir les
marchés, évaluer les risques et réaliser des études économiques.

• Sciences Sociales
Les modèles statistiques sont utilisés pour analyser les données sociologiques,
démographiques et politiques, étudier les comportements humains, prédire les
tendances sociales, etc.
• Sciences de la Santé
Les modèles statistiques sont utilisés pour analyser les données médicales, évaluer
l'efficacité des traitements, étudier les facteurs de risque, prédire les résultats de santé,
etc.

• Sciences de l'Environnement
Les modèles statistiques sont utilisés pour étudier les données climatiques, évaluer
l'impact des changements environnementaux, prédire les phénomènes naturels, etc.

En conclusion, les modèles statistiques offrent une approche rigoureuse pour analyser
les données et effectuer des prédictions dans différents domaines. Le choix du modèle
et de l'approche dépendra des caractéristiques des données et des objectifs spécifiques
de modélisation.

2.4.3 La Machine Learning

[Link] Définition

Le Machine Learning, ou apprentissage automatique, est une branche de l'intelligence


artificielle (IA) qui se concentre sur le développement de techniques permettant aux
ordinateurs d'apprendre à partir des données et d'améliorer leurs performances sans
être explicitement programmés

[Link] les approches de machine Learning

Dans les domaines de La machine Learning, il existe trois approches majeures


présentés dans la figure ci-dessous

Figure 19 Les approches majeures de Machine Learning


• Apprentissage supervisé : L'apprentissage supervisé est une approche du Machine
Learning où le modèle est entraîné sur des données étiquetées, c'est-à-dire des données
pour lesquelles la réponse attendue est connue. Le modèle apprend à généraliser ces
exemples étiquetés pour faire des prédictions sur de nouvelles données non étiquetées.

• Apprentissage non supervisé : L'apprentissage non supervisé est une approche du


Machine Learning où le modèle apprend à partir de données non étiquetées, cherchant
à découvrir des structures, des motifs ou des regroupements intrinsèques dans les
données sans avoir d'informations préalables sur les classes ou les réponses.

• Apprentissage par renforcement : L'apprentissage par renforcement est une approche


du Machine Learning où un agent apprend à prendre des décisions en interagissant
avec un environnement. L'agent reçoit des récompenses ou des sanctions en fonction
de ses actions, ce qui lui permet d'ajuster son comportement pour maximiser les
récompenses à long terme.

[Link] Domaines d’application

Le machine learning est largement utilisé dans de nombreux domaines pour résoudre une
variété de problèmes et améliorer les performances. Voici quelques-uns des domaines
d'application clés du machine learning :

• Vision par ordinateur : Le machine learning est utilisé pour la détection et la


reconnaissance d'objets dans les images et les vidéos, la segmentation d'images, la
reconnaissance faciale, la vision industrielle, la réalité augmentée, etc.

• Traitement du langage naturel (NLP) : Les techniques de machine learning sont


appliquées à la traduction automatique, à la génération de texte, à l'analyse des
sentiments, à la reconnaissance vocale, à la compréhension du langage naturel, aux
chatbots, etc.

• Santé : Le machine learning est utilisé dans le diagnostic médical, la prédiction des
maladies, la détection de fraudes dans les soins de santé, l'analyse d'images médicales,
la découverte de médicaments, la gestion des dossiers médicaux, etc.
• Finance : Les techniques de machine learning sont utilisées pour la prédiction des prix
des actions, l'évaluation des risques, la détection de fraudes financières, l'analyse des
données du marché, la recommandation de portefeuille, etc.

• Marketing et publicité : Le machine learning est appliqué à la segmentation des


clients, à la personnalisation des recommandations de produits, à l'analyse des données
des médias sociaux, à la prévision de la demande, à l'optimisation des campagnes
publicitaires, etc.
• Transport et logistique : Le machine learning est utilisé dans la planification des
itinéraires, la prévision de la demande de transport, la maintenance prédictive des
véhicules, l'optimisation des opérations logistiques, la détection d'anomalies, etc.

• Industrie manufacturière : Le machine learning est appliqué à l'optimisation des


processus de fabrication, la maintenance prédictive des équipements, la détection
d'anomalies dans les chaînes de production, la gestion des stocks, etc.

• Énergie et environnement : Le machine learning est utilisé pour la gestion intelligente


de l'énergie, la prévision de la demande énergétique, l'optimisation des réseaux
électriques, la détection de fuites, la surveillance environnementale, etc.

Ces exemples ne sont qu'une petite partie des nombreux domaines où le machine learning
trouve des applications concrètes. Le potentiel du machine learning est vaste et continue de
croître à mesure que de nouvelles techniques et de nouvelles applications émergent.

2.4.4 Comparaison entre les Modèles de Prévision Statistiques et les Modèles de


Machine Learning :

Les modèles de prévision statistiques et les modèles de machine learning sont deux
approches distinctes pour la prédiction et l'analyse de données. Voici une comparaison entre
ces deux types de modèles :

• Modèles de Prévision Statistiques :

✓ Les modèles de prévision statistiques reposent sur des principes et des méthodes
statistiques traditionnelles.
✓ Ils sont souvent basés sur des hypothèses spécifiques et utilisent des techniques telles
que la régression linéaire, l'analyse de séries temporelles (par exemple, ARIMA), ou
les modèles autorégressifs pour modéliser les tendances et les motifs.
✓ Les modèles statistiques peuvent être plus interprétables car ils reposent sur des
hypothèses claires et peuvent fournir des mesures de confiance statistiques pour les
prédictions.
✓ Cependant, ils peuvent être moins flexibles lorsqu'il s'agit de traiter des modèles de
données complexes et non linéaires. Ils peuvent également avoir des difficultés à
capturer des interactions complexes entre les variables.

• Modèles de Machine Learning :

✓ Les modèles de machine Learning sont des approches basées sur l'apprentissage
automatique qui utilisent des algorithmes pour apprendre à partir des données et
effectuer des prédictions.
✓ Ils sont plus flexibles et capables de modéliser des relations complexes entre les
variables, même en présence de données non linéaires

✓ Les modèles de machine Learning incluent des techniques telles que les réseaux de
neurones, les arbres de décision, les machines à vecteurs de support (SVM), les forêts
aléatoires, etc.

✓ Les modèles de machine Learning peuvent nécessiter une quantité plus importante de
données pour l'entraînement et peuvent être plus complexes à mettre en œuvre et à
interpréter que les modèles statistiques traditionnels.

✓ Cependant, ils peuvent être plus performants dans la prédiction et peuvent s'adapter à
une grande variété de problèmes et de données.

Il est important de noter que le choix entre les modèles de prévision statistiques et les modèles
de machine Learning dépend du contexte, des objectifs spécifiques et des caractéristiques des
données. Parfois, une combinaison des deux approches peut également être utilisée pour
obtenir de meilleurs résultats, en tirant parti des avantages des deux mondes.

2.5 L’Informatique Décisionnelle (BI)

2.5.1 Définition

La Business Intelligence (BI), connue également sous le nom d'informatique décisionnelle,


englobe un ensemble d'outils et de techniques conçus pour fournir aux dirigeants d'entreprise
des informations pertinentes. Son objectif est d'aider ces derniers à appréhender leur
environnement et à prendre des décisions stratégiques éclairées. Ainsi, la satisfaction des
besoins des utilisateurs est au centre d'une démarche d'informatique décisionnelle performante.

2.5.2 Les univers : décisionnel et opérationnel

Avant de plonger dans le concept de BI, il est essentiel de saisir sa philosophie sous-jacente.
Une bonne compréhension de cette philosophie peut considérablement enrichir votre analyse.
Pour ce faire, explorons d'abord les deux mondes distincts de la BI, puis nous aborderons le sujet
de leur intégration.
[Link] Le monde opérationnel

Le monde des affaires représente les tâches routinières, répétitives et atomiques


que les employés d’une entreprise effectuent pour les maintenir actifs et viables.
Le traitement des commandes, l’émission des factures, l’emballage des produits, le
suivi des colis ou l’envoi des factures sont des tâches nécessaires à la vie de votre
entreprise. Quand on parle de ce genre de comportement, on parle de chirurgie.

Les systèmes informatiques opérationnels (OLTP pour le traitement des transactions en ligne)
sont conçus pour prendre en charge les opérations de l’entreprise.
Ce sont des systèmes de gestion ou de production qui relient la vie d’une entreprise
(opérations) à un cadre plus petit, plus gérable et flexible.

[Link] Le monde décisionnel

La prise de décision est un ensemble de méthodes, d’outils et d’outils utilisés


pour gérer une entreprise et faciliter la prise de décision. L’environnement d’aide
à la décision se concentre sur les tendances, les moyennes et les écarts-types des
principaux indicateurs de santé de l’entreprise sur des mois ou des années (car les
tendances changent avec le temps). Le monde des décideurs étudie, prédit et analyse
les données de l’entreprise pour mieux évaluer toutes les activités.

Tableau 2 OLTP VS OLAP


[Link] Synthèse

• La BI émerge d'une évolution des besoins des décideurs et des analystes métier, visant à
soutenir la prise de décision et à permettre une analyse approfondie et précise au sein de
l'entreprise.

• Les systèmes opérationnels continuent de jouer un rôle essentiel en soutenant la production


et les activités quotidiennes de l'entreprise.

• En revanche, les systèmes décisionnels considèrent l'entreprise telle qu'elle est, en générant
des connaissances à partir des données et en apportant un soutien aux décisions
stratégiques.

• Les différences entre l'environnement de production et l'environnement de prise de


décision peuvent être résumées de la manière suivante :

Au lieu de considérer le monde décisionnel et le monde opérationnel comme étant en opposition, il


est préférable de les envisager comme étant interdépendants. Alors que les systèmes de traitement
transactionnel enregistrent les activités de l'entreprise, la BI observe le fonctionnement de
l'entreprise et agit en fonction de ce qu'elle observe.

2.5.3 Architecture d’un système décisionnel

Cette sous-section examine les éléments essentiels pour la mise en place d'une solution d'aide à la
décision, allant de l'extraction des données à la synthèse agrégée et à la présentation dans un format
standardisé.

Figure 20 Architecture d'un système décisionnel


[Link] Les sources de données

Afin de collecter les données pour alimenter les entrepôts, il est nécessaire de les identifier et de les
extraire de leurs sources d'origine. La plupart de ces données sont internes à l'entreprise et sont
dispersées car elles sont stockées dans les bases de données opérationnelles des différents services
(systèmes existants).

Il est également possible que certaines données proviennent de sources externes accessibles via des
services distants, des services web, etc. Ces données peuvent être complexes. Elles impliquent
l'utilisation de différentes technologies (types de fichiers, encodages, liens d'accès aux systèmes de
gestion de bases de données SGBD), environnements (systèmes d'exploitation, matériel) et principes
de sécurité pour y accéder (mécanismes, réseaux, authentification).

Toutes ces composantes doivent être prises en compte pour rassembler les données de manière
adéquate.

[Link] Outils d’extraction, de transformation et de chargement

Les outils communément appelés Extract, Transform, Load (ETL) sont des éléments essentiels pour la
construction d'un entrepôt de données. Ils permettent d'extraire les données de systèmes sources
hétérogènes, de les normaliser et de les rendre cohérentes afin de faciliter le partage des
informations. Les données sont livrées dans un format qui peut être directement stocké dans
l'entrepôt et utilisé par les décideurs et les analystes sans avoir besoin de recalculer les données.

Tableau 3 les étapes de L'ETL


[Link] Entrepôt de données

Un entrepôt de données est une base de données structurée conçue spécifiquement pour les
requêtes et l'analyse, plutôt que pour le traitement transactionnel des données. Les résultats de ces
requêtes doivent être facilement accessibles. L'entrepôt de données est généralement construit
selon un modèle multidimensionnel. Cependant, il existe deux types de stockage :

• L'entrepôt de données (Data Warehouse) : il regroupe toutes les données de l'entreprise,


provenant de différentes sources, dans une seule base de données centralisée. Cela permet
une vue globale et intégrée des données, facilitant ainsi les analyses et les prises de décision
à l'échelle de l'entreprise.

• Le marché de données (Data Mart) : il se concentre sur une partie spécifique du métier, tel
que la relation client, les ventes, ou d'autres domaines d'intérêt particuliers. Le Data Mart est
un sous-ensemble de l'entrepôt de données, contenant des données spécifiques à un
domaine ou à une fonction. Il est conçu pour répondre aux besoins d'analyse spécifiques des
utilisateurs dans ce domaine.

Figure 21 Data Warehouse et Data Mart

Ces deux types de stockage, l'entrepôt de données et le Data Mart, sont utilisés pour fournir des
données optimisées pour l'analyse et les requêtes, offrant ainsi une perspective stratégique à
l'entreprise.
[Link] Outils de visualisation

Les outils de restitution constituent la composante visuelle fournie aux utilisateurs. Ils permettent
aux analystes de manipuler les données présentes dans les entrepôts de données et les Data Marts.
Ces outils offrent des avantages tels que la génération de rapports et une facilité d'utilisation. En
effet, la structure globale d'un système décisionnel est conçue pour fournir rapidement (en quelques
secondes) des résultats correspondant aux demandes des utilisateurs, sans nécessiter de
connaissances informatiques spécifiques dans le domaine.

2.5.4 L'impact de la Business Intelligence (BI) sur les entreprises

L'impact de la Business Intelligence (BI) sur les entreprises peut être significatif et positif. Voici
quelques-uns des impacts majeurs de la BI sur les entreprises :

• Prise de décision éclairée : La BI fournit aux décideurs et aux responsables des


informations précieuses, des analyses approfondies et des indicateurs clés de
performance (KPI) en temps réel. Cela leur permet de prendre des décisions plus
éclairées, basées sur des données fiables plutôt que sur des suppositions ou des
intuitions.

• Amélioration de la performance opérationnelle : La BI permet d'identifier les


inefficacités, les goulots d'étranglement et les opportunités d'amélioration au sein de
l'entreprise. Les données analytiques permettent d'optimiser les processus,
d'automatiser des tâches et de rationaliser les opérations, ce qui conduit à une
meilleure performance opérationnelle et à des gains d'efficacité.

• Prévision et planification précises : La BI utilise des techniques d'analyse prédictive


pour anticiper les tendances futures, les comportements des clients et les
fluctuations du marché. Cela permet aux entreprises de prendre des décisions
stratégiques éclairées et de mieux planifier leurs activités à long terme.

• Identification des opportunités commerciales : La BI aide à identifier de nouvelles


opportunités commerciales en analysant les données clients, les habitudes d'achat,
les préférences et les tendances du marché. Cela permet aux entreprises de mieux
cibler leurs efforts de marketing, de développer de nouveaux produits et services, et
de maximiser leur rentabilité.

• Amélioration de la relation client : La BI permet de mieux comprendre les besoins et


les préférences des clients, en analysant les données de vente, les interactions et les
commentaires des clients. Cela permet de personnaliser les offres, d'offrir un service
client de qualité supérieure et d'améliorer la satisfaction client.
• Avantage concurrentiel : En utilisant la BI de manière stratégique, les entreprises
peuvent obtenir un avantage concurrentiel en prenant des décisions plus rapides,
plus précises et plus basées sur les données que leurs concurrents. Cela leur permet
de rester agiles, de s'adapter rapidement aux changements du marché et de saisir les
opportunités avant leurs concurrents.

En résumé, la BI a un impact positif sur les entreprises en les aidant à améliorer leur prise de
décision, leur performance opérationnelle, leur planification stratégique, leur relation client et leur
positionnement concurrentiel. Cela leur permet de rester compétitives, d'innover et de prospérer
dans un environnement commercial en évolution constante.

Conclusion

Le chapitre nous a permis d'explorer l'état de l'art dans différents domaines pertinents pour notre
projet. Nous avons examiné la digitalisation et son impact sur les entreprises, en mettant l'accent sur
la mise en œuvre et les transformations des usages et des fonctions. Nous avons également exploré
le système de Rolling Forecast et ses domaines d'application, ainsi que les techniques de
modélisation et d'analyse prédictive, telles que les modèles statistiques et l'apprentissage
automatique.

De plus, nous avons étudié l'informatique décisionnelle (BI), en décrivant son architecture et son
impact sur les entreprises. Ce chapitre nous a fourni une compréhension approfondie des concepts
clés et de leurs implications pour notre projet.

Le chapitre a jeté les bases nécessaires pour la suite de notre projet, en nous fournissant une base
solide de connaissances et d'informations. Dans les chapitres suivants, nous appliquerons ces
connaissances pour élaborer et mettre en œuvre notre solution, en tirant parti des avancées et des
bonnes pratiques présentées dans cet état de l'art.
Chapitre 3 :sprint0 :analyse et conception

Introduction
Le chapitre marque le début de la phase de Sprint0 de notre projet, qui est dédiée à l'analyse
et à la conception de notre solution. Dans ce chapitre, nous nous concentrerons sur la
spécification des besoins, l'identification des acteurs, l'architecture générale et la
représentation des besoins à travers des diagrammes et des modèles.
3.1 Spécification des besoins
L'étape de l'analyse des besoins revêt une importance capitale dans la définition d'un projet.
Son objectif est d'identifier les exigences et les attentes des parties prenantes, afin de
déterminer les fonctionnalités et les caractéristiques du système à développer.

3.1.1 Les besoins fonctionnels


L'investissement dans une solution de Business Intelligence (BI) vise à répondre aux attentes
des décideurs et à orienter l'entreprise dans la bonne direction. Les décideurs ont des
exigences spécifiques en matière de fonctionnalités pour répondre à leurs besoins :

• Analyse des besoins et spécifications fonctionnelles du groupe Délice : Cette


étape consiste à comprendre les besoins et les exigences spécifiques du
groupe Délice en matière de suivi des indicateurs budgétaires. Une analyse
approfondie des processus existants, des données disponibles et des objectifs
financiers sera réalisée.

• Conception et alimentation d'un cube d'analyse multidimensionnelle : Il s'agit


de concevoir et de mettre en place un cube d'analyse multidimensionnelle à
partir des différentes bases de données du système d'information (SI) du
groupe Délice. Ce cube permettra d'organiser les données financières et de
les rendre accessibles pour les analyses ultérieures.

• Conception et intégration d'un ensemble de tableaux de bord sur Microsoft


Power BI : Cette étape implique la conception et l'intégration d'un ensemble
de tableaux de bord sur Microsoft Power BI. Ces tableaux de bord
permettront le suivi des indicateurs budgétaires clés tels que les ventes, les
dépenses, les marges, etc. Ils fourniront une visualisation graphique et
interactive des données financières, permettant aux utilisateurs de prendre
des décisions basées sur des informations précises et en temps réel.
• Conception et implémentation des modèles de prévision : Le processus de
prévision budgétaire sera amélioré en utilisant à la fois des modèles
statistiques et des modèles d'apprentissage automatique (Machine Learning).
Ces modèles permettront d'effectuer une analyse prédictive des ventes, en
prenant en compte les données historiques, les tendances du marché, les
facteurs saisonniers, etc.

• Test et validation du modèle développé : Une fois les modèles de prévision


développés, ils seront testés et validés pour évaluer leur exactitude et leur
performance. Une comparaison des prévisions calculées à l'aide des modèles
Machine Learning proposés sera réalisée pour déterminer leur efficacité par
rapport aux méthodes traditionnelles de prévision budgétaire.

• Intégration du module de prévision dans les tableaux de bord : Le module de


prévision développé sera intégré aux tableaux de bord existants sur Microsoft
Power BI. Cela permettra aux utilisateurs d'accéder aux prévisions
budgétaires en temps réel, ce qui facilitera la prise de décisions informées et
la gestion proactive des finances de l'entreprise.

• Activation du module de prévision sur la solution ERP : Enfin, le module de


prévision sera activé et intégré à la solution ERP actuelle du groupe Délice.
Cela permettra une synchronisation automatique des données entre le
module de prévision et le système ERP, assurant ainsi l'actualisation des
informations budgétaires et une meilleure coordination des processus
financiers.

En suivant cette approche, le groupe Délice pourra bénéficier d'un système de suivi des
indicateurs budgétaires avancé, intégrant des modèles de prévision basés sur le Machine
Learning. Cela permettra une gestion plus efficace des finances, une prise de décisions
éclairée et une meilleure anticipation des résultats financiers futurs.

3.1.2 Les besoins non fonctionnels


En plus des besoins fonctionnels, notre système doit également satisfaire aux besoins non
fonctionnels suivants :
• Intégrité des données : L'entrepôt de données conçu doit garantir l'inclusion de
toutes les données provenant de différentes sources. Il est essentiel que ces données
soient de qualité, homogènes et fiables afin de répondre aux besoins des utilisateurs.

• Simplicité : Les rapports générés doivent être simples et faciles à interpréter, ce qui
constitue l'un des objectifs clés du projet décisionnel.

• Maintenabilité : Les données du data warehouse doivent être régulièrement mises à


jour, à chaque nouvelle version et chaque année, pour assurer la génération de
rapports fiables et en temps réel.

• Ergonomie : Les interfaces de l'application doivent être conviviales, offrant une


expérience utilisateur simple et intuitive.

• Fiabilité : L'application doit être hautement fiable et sécurisée, répondant de manière


optimale aux exigences fonctionnelles établies.

• Sécurité : Il est primordial de garantir la confidentialité des données de l'entreprise


en mettant en place des mécanismes d'authentification appropriés au sein de
l'application.

3.2 identification des acteurs


• Les utilisateurs : Il s'agit des directeurs de département qui ont principalement pour
objectif de visualiser les données pertinentes à leurs domaines d'activité.
• Les administrateurs : Ils jouent le rôle du Centre de Gestion (CDG) et sont chargés de
gérer les comptes d'accès, d'importer les données dans le système et de générer des
rapports.
3.3 architecture générale :

Notre architecture générale repose sur deux composantes essentielles : la partie


fonctionnelle et la partie technique. Du côté fonctionnel, nous nous efforçons de fournir aux
utilisateurs une plateforme conviviale et intuitive pour visualiser et analyser les données
pertinentes à leur domaine d'activité. Sur le plan technique, nous utilisons des technologies
robustes et évolutives pour garantir des performances optimales et une sécurité avancée. En
combinant ces deux aspects, notre architecture offre une solution complète répondant aux
besoins des utilisateurs tout en assurant une infrastructure technique solide.

3.3.1 Architecture fonctionnelle


Cette section se concentre sur la présentation de l'architecture fonctionnelle, qui se
charge de traduire les besoins fonctionnels d'un système d'information en objectifs concrets.
En d'autres termes, elle met en évidence le rôle essentiel du concepteur de système
d'information dans la création d'une architecture qui répond efficacement aux exigences
fonctionnelles.

Figure 22 Architecture fonctionnelle


Notre architecture repose sur cinq étapes clés pour assurer le bon fonctionnement du
système :

• Source de données : Cette étape consiste à identifier et collecter les


différentes sources de données pertinentes pour le système.

• Intégration des données : Les données collectées sont ensuite intégrées et


consolidées afin de garantir leur cohérence et leur qualité.

• Visualisation des données : Les données intégrées sont présentées de


manière claire et compréhensible grâce à des outils de visualisation,
permettant aux utilisateurs d'analyser et d'interpréter les informations.

• Modélisation : Dans cette étape, des modèles sont créés en utilisant des
techniques d'analyse de données et d'apprentissage automatique pour
identifier des schémas et des tendances dans les données.

• Visualisation des prédictions : Les résultats des modèles de prévision sont


affichés sous forme de visualisations pour aider les utilisateurs à prendre des
décisions éclairées en se basant sur les prédictions obtenues.

Chacune de ces étapes contribue à la création d'un système d'information fonctionnel et


performant, en assurant la collecte, l'intégration, la visualisation, la modélisation et la
présentation des données nécessaires à la prise de décision.
3.3.2 Architecture technique
Dans cette section, nous abordons l'architecture technique, qui se concentre sur
l'organisation logique de la plateforme informatique. Elle englobe les moyens techniques
essentiels, tels que les ressources matérielles, les systèmes d'exploitation et les logiciels
nécessaires, pour assurer une mise en œuvre cohérente des fonctionnalités requises.
L'architecture technique joue un rôle crucial dans la réalisation efficace et fiable du système
d'information.

Figure 23 Architecture technique

• ETL avec Power Query de Power BI :


✓ Connexion à une base de données SQL Server pour l'intégration des données.

✓ Utilisation de Power Query de Power BI pour extraire, transformer et charger


les données provenant de différentes sources.

• Modélisation (Data Warehouse) avec Power Pivot :


✓ Utilisation de Power Pivot pour construire un Data Warehouse et structurer
les données de manière logique.
✓ Création d'un modèle de données solide pour faciliter l'analyse ultérieure.
• Visualisation (Création de dashboard) avec Power View :
✓ Création de tableaux de bord interactifs et visuels en utilisant Power View de
Power BI.
✓ Visualisation des données pour une compréhension intuitive et une prise de
décision éclairée.

• Extraction de tables spécifiques en fichier CSV avec DAX Studio :


✓ Utilisation de DAX Studio pour extraire des tables spécifiques de grande taille
vers des fichiers CSV.
✓ Gestion efficace des volumes importants de données lors de l'extraction.

• Développement de modèles de prévision avec Google Colab et Python :


✓ Utilisation de Google Colab, avec Python, pour développer des modèles de
prévision avancés.
✓ Exploitation des fonctionnalités de machine learning pour une analyse
prédictive précise.

• Intégration du modèle dans le dashboard avec le script Python dans Power BI :


✓ Intégration du modèle de prévision développé dans le tableau de bord
existant.
✓ Utilisation du script Python pour connecter le modèle de prévision au
dashboard et fournir des informations prédictives.

Cette architecture technique met en œuvre des outils tels que Power Query, Power Pivot,
Power View, DAX Studio, Google Colab et Python pour assurer une extraction, une
modélisation, une visualisation, une extraction de données spécifiques, un développement
de modèles de prévision et une intégration efficace dans un tableau de bord interactif. Cela
permet d'exploiter pleinement les données et de prendre des décisions éclairées.
3.4 Représentation des besoins :
Dans cette section fonctionnelle, nous décrivons les différentes fonctionnalités à travers
l'élaboration des diagrammes de cas d'utilisation global, suivi de la présentation des cas
d'utilisation les plus pertinents et du diagramme de séquence
3.4.1 présentation du langage de modélisation unifié :
UML (Unified Modeling Language) est un langage de modélisation graphique utilisé pour
spécifier, visualiser, concevoir et documenter les artefacts d'un système logiciel.
Dans notre cas UML est utilisé comme un outil d'illustration pour représenter
graphiquement les différentes fonctionnalités du système dans le but de les visualiser et de
les comprendre plus facilement.

3.4.2 Diagramme de cas d’utilisation globale


le diagramme de cas d'utilisation est un outil essentiel pour modéliser les fonctionnalités
d'un système en se concentrant sur les interactions entre les acteurs et le système. Il offre
une vue globale des actions possibles dans le système et facilite la compréhension des
exigences fonctionnelles.
Voici le diagramme de cas d’utilisation qui décrit les fonctionnalités générales de notre
Système :

Figure 24 Diagramme de cas d'utilisation globale


Le tableau 4 présente la description détaillé du cas d’utilisation général :

Utilisateur Visualiser les différents tableaux de bord génères.


(les directeurs de Superviser les tableaux de Consulter les Détails.
département) bord
Gérer les tableaux de bord Possibilité de enrichir, archiver .
Créer un nouveau tableau de bord et le déployer.
Admin Permet de gérer la partie préparions des donnes :
(CDG) Gérer l’ETL Extraction, transformation, chargement, intégration.

Gérer le modèle de prévision Modifier l’input du script de modèle.


Modifier les paramètres de modèle.
Tableau 4 La description du cas d'utilisation générale

3.4.3 Gestion de l’ETL :


La figure 25 présente le raffinement de cas d’utilisation pour les cas gérer l’ETL par l’admin

Figure 25 Diagramme de cas d'utilisation de gestion de l'ETL


Le tableau 5 présente la description détaillé du cas d’utilisation de l’ETL :

Titre Gérer ETL


Acteur Admin.

Pré-condition Connexion à la base de données.

Post -Condition Les données sont extraites ,transformées et chargées.

1. L’admin crée une connexion de base de données

Scénario principal 2. L’admin choisit les tables avec Power Query.

3. L’admin applique les transformations requises.

4. L’admin charge les données transformées.

Scénario alternatif L'extraction des données affiche des erreurs.

Tableau 5 La description de cas d'utilisation de l'ETL

3.4.4 Gestion des tableaux de bord


La figure 26 présente le raffinement de cas d'utilisation pour gérer les tableaux de bord par
l’admin

Figure 26 Diagramme de cas d'utilisation de gestion des tableaux de bord


Le tableau 6 présente la description détaillé du cas d’utilisation de Gestion des tableaux de
bord:

Titre Gestion de tableau de bord


Acteur Admin.

Pré-condition La phase de l'ETL est exécutée avec succès.

Post -Condition
Créer un nouveau tableau de bord.

1. L’admin crée crée une nouvelle feuille dans POWER BI.

Scénario principal 2. L’admin décisionnel choisit le type de graphique avec lequel


il veut représenter ses données.

3. L’admin calcule les mesures selon le besoin.

4. L’admin enregistre et déploie le tableau de bord.

5. L’admin contrôle les accès des utilisateurs

Scénario alternatif Le tableau de bord n'affiche pas les résultats de la


transformation de données.
Tableau 6 La description de cas d'utilisation de gestion de tableau de bord

3.4.5 Gestion du modèle de prévision


La figure 27 présente le raffinement de cas d'utilisation pour gérer le modèle par l’admin

Figure 27 Diagramme de cas d'utilisation de gestion du modèle de prévision


Le tableau 7 présente la description détaillé du cas d’utilisation de gestion de modèle :

Titre Gestion de modèle


Acteur Admin.

Pré-condition Intégration de la model sur power bi.

Post -Condition Le modèle est intégré et prêt à s’exécuter

1. L’admin exécute le modèle

Scénario principal 2. L’admin vérifie les résultats.

3. L’admin applique les résultats dans le Dashboard.

Scénario alternatif L'exécution du modèle affiche des erreurs.

Tableau 7 la description détaillé du cas d’utilisation de gestion de modèle

3.4.6 Supervision des tableau de bord


La figure 28 présente le raffinement de cas d'utilisation pour superviser les tableaux de
bord par l’utilisateur :

Figure 28 Diagramme de cas d'utilisation pour superviser les tableaux de bord


Le tableau 8 présente la description détaillé du cas d’utilisation de supervision des tableaux
de bord:

Titre Supervision de tableau de bord


Acteur Utilisateur

Pré-condition L’utilisateur doit s'authentifier.

1. L’utilisateur consulte les différents tableaux de bord.

Scénario principal 2. L’utilisateur exporte des rapports.

3. L’utilisateur peut appliquer des filtres sur le tableau de bord.

Scénario alternatif Le tableau de bord n'affiche aucune nouvelle information pour


une date spécifique.

Tableau 8 La description du cas d’utilisation de supervision des tableaux de bord

3.4.2 Diagramme de séquence


Le diagramme de séquence est l'un des diagrammes les plus utilisés en UML (Unified
Modeling Language). Il est largement utilisé pour représenter le flux d'interactions entre les
objets ou les composants d'un système au fil du temps. Ce diagramme permet de visualiser
et de comprendre comment différents éléments du système coopèrent et communiquent
entre eux pour accomplir une fonctionnalité spécifique.

Voici le diagramme de séquence qui décrit le déroulement chronologique des interactions


de notre système :
Figure 29 Diagramme de séquence

3.5 Diagramme de gant


Le diagramme de Gantt, illustré dans la figure 1.11, est un puissant outil de gestion qui
permet de visualiser l'avancement des différentes tâches à accomplir et de garantir la
réussite du projet.
Figure 30 Diagramme de Gant

Étape 1 : Familiarisation avec l’environnement du travail.


Étape 2 : Analyse des besoins et des spécifications fonctionnelles du groupe.
Étape 3 : Conception des besoins.
Étape 4 : Modélisation et Développement du Sprint 1.
Étape 5 : Modélisation et développement du Sprint 2.
Rédaction du Rapport

3.8 environnement de travail


Dans cette section, nous allons répertorier les différents outils de travail utilisés pour la mise
en place de notre solution, qui sont présentés ci-dessous.

3.8.1 environnement technique


❖ l'environnement matériel existant :

Dans cette partie, nous allons présenter l'environnement matériel . Nous allons décrire les
caractéristiques de la machine sur laquelle le projet va s’exécuter.

Figure 31 Les caractéristiques de la machine


❖ l'environnement matériel fournir par l’entreprise :

• Etude de l'environnement :

près une étude approfondie des besoins du projet, il est devenu évident que l'environnement
matériel existant ne satisfaisait pas aux exigences de performance et de capacité nécessaires. Afin
d'optimiser le travail, l'entreprise a pris la décision de fournir une machine virtuelle dédiée, installée
sur ses serveurs locaux. Cette nouvelle configuration offre plusieurs avantages, notamment :

✓ Ressources améliorées : La machine virtuelle dispose de ressources matérielles


supplémentaires, telles que la puissance de calcul, la mémoire et l'espace de
stockage, pour répondre aux besoins croissants du projet. Cela permet d'optimiser
les performances et d'assurer une exécution fluide des tâches.
✓ Infrastructure adaptée : Les serveurs locaux de l'entreprise offrent une infrastructure
solide et fiable pour héberger la machine virtuelle. Cela garantit une disponibilité
élevée et une connectivité stable, réduisant ainsi les risques de perturbations ou
d'interruptions dans le travail.
✓ Contrôle accru : En ayant la machine virtuelle sur les serveurs locaux de l'entreprise,
il est possible d'avoir un contrôle direct sur l'environnement. Cela facilite la gestion
des ressources, les mises à jour logicielles et la résolution des problèmes techniques
de manière efficace et réactive.
✓ Sécurité renforcée : En utilisant l'infrastructure interne de l'entreprise, les données
sensibles et confidentielles du projet bénéficient d'une protection supplémentaire.
Les mesures de sécurité mises en place par l'entreprise garantissent la
confidentialité, l'intégrité et la disponibilité des données.

En optant pour cette solution de machine virtuelle sur les serveurs locaux, l'entreprise a
démontré son engagement envers le succès du projet en fournissant un environnement
adapté aux besoins spécifiques. Cette décision contribuera à optimiser les performances, à
assurer une gestion efficace des ressources et à renforcer la sécurité des données,
permettant ainsi un déroulement fluide du projet.
• Caractéristiques de l'environnement :
Voici un tableau présentant les caractéristiques de notre machine virtuelle

Processeur Intel Xeon E5-2670 v4 (2,30 GHz, 25 Mo de cache, 12 cœurs)

Mémoire RAM 32 Go DDR4

Stockage Disque dur SSD de 500 Go

Système d'exploitation Windows Server 2016

Réseau Carte réseau Ethernet Gigabit

Virtualisation VMware vSphere 6.5

Sauvegarde Solution de sauvegarde sur disque externe

Sécurité Pare-feu intégré et protection antivirus

Tableau 9 Les caractéristiques de notre machine virtuelle

• La connexion à la machine :

La connexion à la machine virtuelle se fait en utilisant un nom d'utilisateur et un mot de


passe créés par notre entreprise. De plus, une adresse IP est attribuée à la machine virtuelle
pour faciliter la connexion. Pour accéder à la machine, nous utilisons l'outil de connexion à
distance, tel que le Bureau à distance de Windows.

Figure 32 Logo Bureau à distance

Voici les étapes pour nous connecter localement au réseau de notre entreprise et accéder à
la machine :
1. Assurons-nous d'être connectés au réseau interne de notre entreprise, soit en étant
physiquement présents sur le site de l'entreprise, soit en utilisant un VPN (Virtual
Private Network) pour établir une connexion sécurisée depuis un emplacement
externe.
2. Lançons l'outil de connexion à distance sur notre ordinateur (par exemple, le Bureau
à distance de Windows).
3. Entrons l'adresse IP de la machine virtuelle à laquelle nous souhaitons nous
connecter.
4. Saisissons le nom d'utilisateur et le mot de passe fournis par notre entreprise pour
nous authentifier.
5. Cliquons sur "Connecter" ou sur un bouton similaire pour établir la connexion à la
machine virtuelle.

Une fois la connexion établie, nous pourrons accéder à la machine virtuelle et utiliser ses
fonctionnalités comme si nous étions connectés directement à celle-ci. Assurons-nous de
respecter les règles de sécurité de notre entreprise et de protéger nos informations
d'identification pour garantir une connexion sûre et fiable

Figure 33 Connexion Bureau à distance


3.8.2 Environnement logiciel
Dans cette section, nous allons fournir un aperçu global des outils utilisés pour la mise en
œuvre de notre travail.

• Microsoft SQL Server :

Microsoft SQL Server est une plateforme de gestion de base de données relationnelle
développée par Microsoft. Elle offre une gamme complète de fonctionnalités pour le
stockage, la manipulation et l'analyse des données. SQL Server est largement utilisé dans les
environnements professionnels pour gérer de grandes quantités de données et prendre en
charge des applications d'entreprise critiques. Il offre des outils de requête puissants, des
capacités de sécurité avancées et des fonctionnalités de réplication et de clustering pour
assurer la disponibilité et la fiabilité des données. SQL Server est compatible avec différents
langages de programmation et fournit des interfaces conviviales pour gérer les bases de
données et créer des rapports.

Figure 34 Logo SQL Server

• Dax studio :

DAX Studio est un outil de développement et de gestion pour les formules DAX (Data Analysis
Expressions). Il est principalement utilisé avec Microsoft Power BI, Power Pivot et Analysis
Services pour écrire et tester des expressions DAX avancées. DAX Studio fournit une interface
conviviale permettant aux développeurs et aux analystes de données d'écrire des formules
DAX complexes, d'exécuter des requêtes et d'analyser les résultats. Il offre des
fonctionnalités telles que la coloration syntaxique, l'autocomplétion, le débogage et la
génération automatique de code, ce qui facilite le processus de développement et
d'optimisation des formules DAX. DAX Studio est un outil puissant pour travailler avec les
modèles de données et les calculs DAX dans les environnements Microsoft.
Figure 35 Logo DAX STUDIO

• Google collab:

Google Colab est une plateforme cloud de développement et d'exécution de code


Python. Elle permet aux utilisateurs d'écrire et d'exécuter du code dans des
notebooks collaboratifs. Avec ses ressources informatiques puissantes, son
intégration avec Google Drive et ses fonctionnalités de collaboration en temps réel,
Google Colab est un outil pratique pour le développement de projets d'apprentissage
automatique et d'analyse de données. Il offre également la possibilité d'utiliser
l'accélération matérielle GPU et TPU pour des performances optimisées.

Figure 36 Logo Google collab

• Miro:

Miro est une plateforme de collaboration en ligne qui permet aux équipes de travailler
ensemble de manière synchronisée et créative, peu importe leur emplacement
géographique. Il fournit un espace de travail virtuel qui offre une variété d'outils de
visualisation et de collaboration, tels que des tableaux blancs interactifs, des diagrammes,
des post-it, des cartes, des modèles prédéfinis, des fonctionnalités de partage d'écran, de
commentaires en temps réel et bien plus encore.

Figure 37 Logo miro

❖ Outils de visualisation :

Pour le reporting, il existe plusieurs outils parmi lesquels nous avons sélectionné
les trois principaux leaders du marché, comme illustré dans le schéma ci-dessous

• Power BI : Lancé en 2015, Power BI est une plateforme de business


intelligence qui offre une visualisation interactive et la création de rapports
analytiques.
• Tableau : Considéré comme l'un des outils de BI les plus populaires,
Tableau permet aux utilisateurs de créer, visualiser et partager des rapports
interactifs.
• QlikView : Proposé par Qlik, QlikView est une solution ETL complète
qui permet aux utilisateurs de créer des visualisations de données, des
graphiques, des tableaux et des analyses statistiques.
• Étude comparative entre les outils :

Critères Power BI Tableau QlikView


Versions de La version de bureau Version de base gratuite Version de base gratuite
base est gratuite mais a des mais a des
fonctionnalités très fonctionnalités très
limitées limitées
Coût des À partir de 10 dollars 100 dollars par 30 dollars par
versions par utilisateur. utilisateur, ce qui utilisateur et par mois,
avancées semble cher pour les ce qui se situe au milieu
industries de taille en termes de coûts.
moyenne
stockage Permet de lire des Trop capable de bonnes La transformation des
des données données provenant de connexions de sources données est une
diverses sources à tout de données il va même fonction clé dans
moment avec Power BI QlikView, capable de
récupérer des données
de diverses sources
Facilité Interface similaire à Il faut avoir des .Requiert une formation
d’apprentissage Excel et familiarité connaissances en en science des données
avec les formules et science des données en raison des
fonctionnalités pour pouvoir profiter compétences en
de certaines fonctions programmation
avancées. nécessaires pour
travailler
Communauté Bénéficie de la large Possède une Dispose d'une
de clients base d'utilisateurs communauté de communauté de
d'Office 365 et clients fidèles et bien clients plus
d'autres produits établie restreinte en raison
Microsoft des compétences
en programmation

Tableau 10 Power BI vs Tableau vs QlikView


Après avoir mené une recherche approfondie et évalué différentes options d'outils
de reporting BI, notre choix s'est porté sur Power BI. Cette décision repose sur sa
réputation d'outil fiable et performant, qui répond parfaitement aux exigences de
notre projet. Il convient de noter que le Groupe Délice Holding détient une licence
pour l'utilisation de Power BI et a établi une collaboration étroite avec cet outil.

Figure 38 Logo Power BI

3.8.3 Langage de programmation :

• Python

Figure 39 Logo Python

Python est un langage de programmation polyvalent, largement utilisé dans différents domaines tels
que le développement web, l'analyse de données, l'intelligence artificielle et l'automatisation des
tâches. Ce langage se distingue par sa syntaxe claire et lisible, ce qui le rend facile à apprendre et à
comprendre.

De plus, Python dispose d'une vaste bibliothèque standard qui offre des fonctionnalités prêtes à
l'emploi, ainsi que de nombreuses bibliothèques tierces développées par la communauté pour des
tâches spécifiques. Grâce à sa popularité croissante, sa grande communauté d'utilisateurs et sa
flexibilité, Python est devenu un choix privilégié pour de nombreux développeurs et professionnels
de l'informatique.

• Le langage DAX
Le langage DAX (Data Analysis Expressions) est un langage de formules utilisé dans les outils
de Business Intelligence de Microsoft tels que Power BI, Power Pivot et Analysis Services. Il est
spécialement conçu pour la modélisation et l'analyse de données. DAX permet de créer des
formules pour effectuer des calculs, des agrégations et des manipulations de données dans un
modèle de données tabulaire. Il offre des fonctionnalités avancées telles que les mesures calculées,
les colonnes calculées, les tables calculées et les fonctions personnalisées. Grâce à DAX, les
utilisateurs peuvent effectuer des analyses complexes, créer des indicateurs clés de performance
(KPI) et générer des rapports interactifs. Son langage syntaxiquement similaire à Excel facilite
également la transition pour les utilisateurs familiers avec les formules Excel.

• Le langage M

Le langage M, également connu sous le nom de Power Query Formula Language, est un
langage de programmation utilisé dans les outils de transformation de données tels que Power
Query et Power BI. Il permet de manipuler, transformer et nettoyer les données provenant de
différentes sources. Avec une syntaxe flexible, il offre des fonctionnalités avancées telles que
l'extraction de données, la création de requêtes et la gestion des types de données. Le langage M
permet aux utilisateurs d'automatiser des tâches et de construire des flux de données complexes
pour une manipulation efficace des données.

Figure 40 Langage M et DAX


CONCLUSION

Le chapitre a été consacré à l'analyse et à la conception de notre solution, marquant ainsi


le début de la phase de Sprint0. Nous avons spécifié les besoins fonctionnels et non
fonctionnels, identifié les acteurs clés et défini l'architecture générale de notre solution.

À l'aide du langage de modélisation unifié (UML), nous avons représenté visuellement les
besoins à travers des diagrammes de cas d'utilisation globale, de gestion de l'ETL, des
tableaux de bord, du modèle de prévision et de supervision des tableaux de bord. Ces
représentations nous ont permis d'avoir une vision claire des fonctionnalités offertes par
notre solution.

Enfin, nous avons décrit les environnements de travail nécessaires, comprenant


l'environnement technique, l'environnement logiciel et le langage de programmation
utilisé.

Ce chapitre constitue une base solide pour le développement de notre solution, en


fournissant une compréhension approfondie des besoins et une représentation visuelle
claire des fonctionnalités. Dans les prochains chapitres, nous passerons à l'implémentation
de notre solution en utilisant les éléments définis dans ce chapitre.
Chapitre 4 : Sprint1 : PRÉPARATION, INTÉGRATION ET
VISUALISATION DES DONNÉES

Introduction

Le chapitre 4 marque le début du Sprint1 de notre projet, qui est dédié à la préparation, à l'intégration et
à la visualisation des données. Dans ce chapitre, nous aborderons différents aspects essentiels pour
mettre en place une solution robuste et conviviale.

4.1 Modèle conceptuel de la solution

Depuis son entrée sur le marché de la Business Intelligence, Power BI s'est rapidement imposé comme
l'un des outils les plus performants pour l'analyse de données et la prise de décision. Il offre une large
gamme de fonctionnalités, notamment une visualisation graphique avancée des données et une
intégration avec Power Query, un puissant moteur d'extraction, de transformation et de chargement
(ETL) également présent dans Excel.

Le processus de nettoyage et de filtrage des données est essentiel dans le développement d'un système
d'information. Power Query, avec son interface utilisateur intuitive, permet d'effectuer ces opérations
sur diverses sources de données. Cette fonctionnalité confère à Power BI un avantage considérable
lors de la préparation des données. Ces données peuvent ensuite être intégrées et modélisées dans un
environnement de data warehouse à l'aide de Power Pivot (DAX). Cette approche permet de
transformer les données brutes en informations structurées et accessibles via des tableaux de bord, des
rapports, etc.

La combinaison de Power Query, Power Pivot et la modélisation de données dans un data warehouse
offre une approche complète pour gérer et analyser les données. Les utilisateurs peuvent ainsi tirer le
meilleur parti de leurs sources de données, en les consolidant, les agrégeant et en appliquant des règles
métier spécifiques. Cette approche permet de créer des analyses approfondies et de prendre des
décisions éclairées basées sur des données fiables.
L'architecture globale de notre solution est présentée dans la figure 41

Figure 41 Architecture Global

4.2 Source de données :

Le groupe Délice nous a fourni une copie de leur base de données afin de garantir la
sécurité et la confidentialité des informations. Cette base de données contient quatre
tables principales qui regroupent l'historique des clients, des magasins, des ventes, et
d'autres informations relatives au groupe Délice. Afin d'exploiter efficacement ces
données, nous allons les connecter à un serveur SQL.

Cette connexion nous permettra d'accéder aux données en temps réel, de les interroger, de
les analyser et de générer des rapports pertinents pour aider le groupe Délice dans leur
prise de décision et leurs opérations quotidiennes

Cet figure présente la connexion au SQL server pour accéder à la base

Figure 42 Connexion au SQL Serve


La figure ci-dessous illustre notre base données avec les 4 tables

Figure 43 Base de donnée

4.3 Powr Query :ETL

Power Query est un outil puissant intégré à Power BI et Excel qui permet d'extraire, de transformer et
de charger (ETL) des données provenant de différentes sources. Il offre une interface conviviale pour
collecter des données provenant de sources internes et externes, telles que des bases de données, des
fichiers plats, des services Web, des applications en ligne, etc.

La première étape de l'ETL consiste à extraire les données de leurs sources respectives. Avec Power
Query, vous pouvez facilement spécifier les sources de données et récupérer les données requises. Il
propose des fonctionnalités avancées pour filtrer, trier, fusionner et nettoyer les données extraites,
garantissant ainsi la qualité et la cohérence des données importées.

Une fois les données extraites, Power Query offre de puissantes capacités de transformation. Vous
pouvez effectuer diverses opérations de nettoyage et de structuration des données, telles que la
suppression des doublons, la gestion des valeurs manquantes, la modification des types de données, la
création de colonnes calculées, etc. Ces transformations permettent de préparer les données pour
l'analyse ultérieure.

Enfin, Power Query facilite le chargement des données transformées dans votre modèle de données.
Vous pouvez choisir de charger les données dans Power BI ou Excel pour les utiliser dans des
tableaux de bord, des rapports ou des analyses plus approfondies. L'outil gère également les mises à
jour automatiques des données, garantissant que vos visualisations restent à jour avec les dernières
informations.

En résumé, Power Query simplifie le processus d'ETL en offrant une interface conviviale et des
fonctionnalités avancées pour extraire, transformer et charger les données. Il vous permet d'importer
des données provenant de différentes sources, de les nettoyer et de les préparer pour une analyse
approfondie, améliorant ainsi la qualité et la pertinence de vos analyses et rapports.

4.3.1 Extraction

L'étape d'extraction de données est une étape essentielle dans le processus de traitement et d'analyse
des données. Elle consiste à récupérer des informations à partir de différentes sources de données et à
les préparer pour une utilisation ultérieure.

Dans le contexte de l'utilisation de Power Query, l'extraction de données se fait généralement à partir
de sources telles que des bases de données, des fichiers plats, des services web, des API, etc.
Cependant, dans notre cas, nous nous concentrons sur l'extraction de données à partir d'une base de
données SQL Server.

L'extraction de données à partir de SQL Server est réalisée en se connectant directement à la base de
données et en récupérant les informations requises. Cela permet d'accéder aux tables, aux vues ou
même d'exécuter des requêtes personnalisées pour extraire les données pertinentes.

Cet extraction se fait comme il est indiqué dans cette figure

Figure 44 Choisir source de donnée


Une fois que vous avez choisi le type de base de données, la prochaine étape consiste à déterminer le
nom du serveur et le nom de la base de données auxquels vous souhaitez vous connecter comme il est
indiqué dans cette figure.

Figure 45 paramètre de connexion

Une fois la connexion établie, nous lançons des requêtes SQL spécifiques pour extraire les données
spécifiques dont nous avons besoin. Nous utilisons des requêtes ciblées pour limiter la quantité de
données extraites, en récupérant uniquement les informations pertinentes pour notre analyse. Nous
utilisons des conditions et des filtres dans nos requêtes pour préciser les critères de sélection, tels que
les dates, les catégories ou les clients spécifiques.

Nous optimisons également le processus en limitant les colonnes extraites. Si nous n'avons besoin que
de certaines colonnes d'une table, nous les spécifions dans notre requête pour éviter d'extraire des
données inutiles. Cela réduit la taille des résultats de la requête et accélère le temps d'extraction.

Nous utilisons des jointures appropriées lorsque nous avons besoin de données provenant de plusieurs
tables. Les jointures nous permettent de combiner les tables et de récupérer les données nécessaires en
une seule requête, évitant ainsi de procéder à plusieurs extractions et jointures ultérieures dans Power
Query.
Avec l'aide de notre entreprise, nous avons pu lancer six requêtes spécifiques dans le but d'obtenir le
résultat final souhaité. Chaque requête a été conçue pour extraire des données spécifiques .

Comme ci-dessus un exemple de requête SQL

Figure 46 Requête SQL

En conséquence, nous avons obtenu six tables distinctes, chacune contenant les informations
nécessaires à notre analyse comme il est indiqué dans cette figure

Figure 47 Les tables obtenus

Ces requêtes ont été soigneusement élaborées en collaboration avec notre équipe et l'entreprise pour
s'assurer que nous obtenons les données exactes dont nous avons besoin. Elles ont été testées et
validées pour garantir l'exactitude et la cohérence des résultats.

Chaque table extraite contient des informations spécifiques qui contribuent à notre analyse globale.
Par exemple, nous avons pu extraire une table contenant les données des clients, une autre contenant
les informations sur les magasins, une troisième avec les ventes, et ainsi de suite. Chaque table apporte
une perspective unique à notre analyse et nous permet de comprendre différents aspects de notre
entreprise.
❖ Le tableau 11 présente une description de ces tables

Tables Description
Produits Tableau représentant tous les détails des produits
comme Code produit ,Type, Famille, Groupe... .
Date de lancement Tableau représentant la data de lancement de
chaque produit

Client Tableau représentant tous les détails des clients


Comme nom, code catégorie ,code client ... .

Forecasts Tableau représentant l’historique de vente réel


de chaque produit (AA) .
Tableau représentant l’historique de vente
prévisionné par les 12 modèles de forecasts
généré par l’ERP de chaque produit .

Types forecast Tableau représentant les descriptions de chaque


type de forecast

Société Tableau représentant les sociétés par pole et


code société

Tableau 11 Descriptions des tables

4.3.2 Transformation

Une fois que nous avons extrait les données de notre base de données SQL Server et obtenu les
différentes tables, la prochaine étape cruciale consiste à effectuer des transformations sur ces
données. Les transformations des données sont essentielles pour garantir que les données sont
cohérentes, de haute qualité et adaptées à nos besoins d'analyse.

Cet figure 48 présente les fonctions de power query

Figure 48 Les fonctions de power query

En utilisant le langage M, nous pouvons appliquer des filtres pour sélectionner les données
pertinentes, éliminer les valeurs manquantes ou aberrantes, et effectuer des opérations de fusion et de
jointure pour combiner les données de différentes tables. Nous pouvons également effectuer des
conversions de formats de données, créer de nouvelles colonnes calculées et agréger les données à
différents niveaux.

Figure 49 Editeur avancé de Powr query

❖ Les transformations appliquées sur certaines tables :


• Transformation exécutes sur la Table Forecasts

Les transformations appliquées à la table "Forecast" ont été réalisées dans la partie des étapes de
l'éditeur Power Query, comme illustré dans la figure 50 .

Figure 50 Les transformations appliquées à la table "Forecast"


Ces transformations sont :

✓ Le renommage des colonnes .


✓ une requête visant à convertir le type de date de "Julian Date" en date
standard.
✓ Suppression des lignes en double Élimine les doublons présents dans
les données en se basant sur une ou plusieurs colonnes clés..
✓ Modifier les types des colonnes.
✓ Remplissage des valeurs manquants.

•Transformation exécutes sur la Table Clients :

Les transformations appliquées à la table "Clients" ont été réalisées dans la partie des étapes de
l'éditeur Power Query, comme illustré dans la figure 51.

Figure 51 Les transformations appliquées à la table "Clients"

Ces transformations sont :

✓ Le renommage des colonnes .


✓ Changement des entêtes des colonnes.
✓ Filtration les lignes
✓ Suppression de la colonne inutile.
✓ Modifier les types des colonnes.
✓ Remplissage des valeurs manquants.
4.4 Power pivot :Modélisation:

Power Pivot est une fonctionnalité de Power BI qui permet la modélisation de données et la création
de modèles de données plus avancés. Il permet notamment de construire des modèles de données
relationnels et d'effectuer des opérations de modélisation telles que la création de hiérarchies, l'ajout de
mesures calculées et la gestion des relations entre les tables.

4.4.1 Modélisation multidimensionnelle

La modélisation multidimensionnelle est un processus qui consiste à représenter les données dans un
cadre conceptuel en utilisant les concepts de modélisation fournis par un modèle de données
multidimensionnel. Essentiellement, les modèles multidimensionnels classent les données en faits,
qui sont accompagnés de mesures numériques, et en dimensions, qui caractérisent les faits et sont
principalement textuelles. La mise en œuvre réussie d'un entrepôt de données performant, répondant
à nos besoins, dépend principalement de l'identification précise de nos mesures et dimensions, du
choix du modèle approprié, et de l'adoption d'une approche optimisée pour la recherche
d'informations.

• Schéma en étoile

Le schéma en étoile est l'un des modèles multidimensionnels les plus couramment utilisés. Il se
distingue par sa simplicité, car chaque dimension est indépendante et n'est pas liée aux autres
dimensions. Ce schéma est particulièrement adapté pour interroger de grandes quantités de données
et bénéficie d'un soutien étendu de la part des outils de Business Intelligence.

Figure 52 Schéma en étoile


• Schéma en flocon

Le schéma en flocon est une variante du schéma en étoile dans la modélisation multidimensionnelle.
Contrairement au schéma en étoile, où les dimensions sont dénormalisées, le schéma en flocon
normalise les dimensions en les divisant en sous-tables pour réduire la redondance des données. Cela
permet d'économiser de l'espace de stockage, mais peut également augmenter la complexité des
requêtes, car elles nécessitent plus de jointures pour récupérer les informations. Le schéma en flocon
est utilisé dans des cas où la normalisation des dimensions est essentielle pour économiser de l'espace
ou lorsque les dimensions ont des hiérarchies complexes nécessitant une structure plus détaillé

Figure 53 Schéma en flocon

4.4.2 Architecture du Data Warehouse avec Data Marts :

Dans une architecture classique, le data warehouse agit comme une couche centrale qui intègre les
données provenant de différentes sources, les nettoie, les transforme et les stocke dans un format
cohérent. Les data marts sont ensuite construits en extrayant et en filtrant les données pertinentes du
data warehouse pour répondre aux besoins spécifiques de chaque groupe d'utilisateurs.

Il existe deux approches principales pour la création de data marts :

• Approche Top-Down de « Bill Inmon » : Dans cette approche, le data warehouse est conçu
en premier, puis les data marts sont dérivés du modèle de données central en sélectionnant et
en agrégeant les données nécessaires à chaque data mart. Cette approche offre une vue
globale cohérente des données, mais peut être plus complexe à mettre en œuvre.
• Approche Bottom-Up de « Ralph Kimball » : Dans cette approche, les data marts sont
construits indépendamment les uns des autres, en sélectionnant et en intégrant les données
spécifiques à chaque data mart. Les data marts sont ensuite intégrés dans le data warehouse
pour une vue consolidée des données. Cette approche offre une mise en œuvre plus rapide et
flexible, mais peut entraîner une duplication de données.

En conclusion,dans notre cas c’est une « Approche Bottom-Up » les requêtes que nous avons réalisées
dans Power Query ont permis de créer des Data Marts spécifiques à chaque domaine. En utilisant
Power Pivot, nous allons consolider ces Data Marts pour créer un Data Warehouse global. Cela nous
permettra d'intégrer et d'analyser nos données de manière cohérente, offrant une vue complète et
unifiée .

4.4.3 Architecture de Data Warehouse :

Dans notre cas, les requêtes que nous avons réalisées dans la partie Power Query nous ont permis de
créer des Data Marts. Chaque requête a extrait et transformé les données spécifiques dont nous avions
besoin pour un domaine fonctionnel ou une équipe spécifique de notre organisation. Ces Data Marts
contiennent un sous-ensemble de données pertinentes et spécifiques à chaque domaine.

Notre architecture est présenté par cet figure 54

Figure 54 Architecture du Data warehouse

Maintenant, pour créer un Data Warehouse à partir de ces Data Marts, nous devons effectuer une étape
supplémentaire de consolidation et d'intégration des données. Nous allons utiliser Power Pivot pour
combiner les différentes tables et les relier les unes aux autres en créant des relations.

En utilisant Power Pivot, nous allons définir des clés primaires et étrangères pour établir les relations
appropriées entre les tables des différents Data Marts. Cela permettra d'intégrer les données de
manière cohérente et de fournir une vue consolidée et holistique de l'ensemble de nos données.
4.4.4 Modèle adopte

Pour garantir une organisation efficace des données stockées dans notre Data Warehouse, nous avons
pris soin de choisir une approche de modélisation appropriée, visant à maximiser la restitution des
informations. Après une analyse approfondie des diverses architectures de Data Warehouse
disponibles et en prenant en considération la nature spécifique de nos données, nous avons décidé
d'adopter le modèle en étoile.

Nous avons choisi le modèle en étoile pour plusieurs raisons. Tout d'abord, il nous permet d'organiser
nos données autour d'une table de faits centrale qui regroupe les mesures numériques clés que nous
souhaitons analyser, telles que les ventes, les revenus ou les quantités. Cela facilite l'accès rapide et
efficace à ces mesures pour nos analyses approfondies.

De plus, les dimensions dans le modèle en étoile jouent un rôle essentiel en décrivant les différents
aspects contextuels des faits. Par exemple, nous pouvons avoir des dimensions telles que le temps, la
géographie, les produits ou les clients. Ces dimensions permettent de filtrer, segmenter et analyser les
données selon différents critères, offrant ainsi une vue plus complète et détaillée de nos données.

Le modèle en étoile est présenté dans la figure 55 :

Figure 55 Modèle en étoile


❖ Table des faits et des dimensions :

Selon l’architecture et le modèle que nous avons choisi, nous avons une table des faits:

• Table de fait : Forecasts

Cette table comprends tous les codes des divers dimensions en relation avec la quantité qui
sont 6 dimensions par exemple la dimension Produit , Client etc., Date de la table de fait et enfin la
quantité .

Table de fait "Forecasts"

Forecasts
Code Client
Code Produit
Code Société
Date
..
..
Quantité

Tableau 12 Table de fait "FORECASTS"

• Tables de dimensions

Notre DW contient plusieurs dimensions : dimension Client “Client”, dimension Produit


"Produit” etc.

✓ Dimension “Société ” : contient toutes les informations sur chaque société du


groupe

Tableau de Dimension “Société”

Société

Code Société
Société
Pole
...

Tableau 13 Table de Dimension "Société"


✓ Dimension “Produits” : contient toutes les informations de chaque produit
Tableau: Dimension “Produits

Produits

Code Produit
Group produit
Famille produit
...

Tableau 14 Table de Dimension “Produits"

4.5 Power view :visualisation

Power View est un composant de visualisation interactif intégré à Power BI. Il permet de créer des
rapports et des tableaux de bord dynamiques, offrant ainsi une expérience visuelle immersive pour
l'analyse des données.

Avec Power View, vous pouvez créer des visualisations interactives telles que des tableaux croisés
dynamiques, des graphiques, des cartes géographiques et des segments de données. Ces visualisations
sont liées les unes aux autres, ce qui permet d'explorer les données de manière fluide et intuitive.

4.5.1 Rôle du Dashboard

Le succès d'un projet de Business Intelligence repose largement sur la fiabilité des données regroupées
dans l'interface utilisateur connue sous le nom de tableau de bord. Il est essentiel que ce tableau de
bord offre une vision claire et cohérente des informations, alignée sur les objectifs préétablis

L'objectif principal d'un tableau de bord est de fournir une vue d'ensemble des informations
pertinentes, facilitant ainsi la compréhension des tendances, des performances et des résultats par
rapport aux objectifs fixés. Il doit être conçu de manière à présenter les données de manière
significative, en utilisant des visualisations graphiques, des indicateurs clés de performance (KPI) et
des tableaux de bord interactifs.

4.5.2 Caractéristiques du Dashboard

Pour assurer ces aspects, nous avons privilégié un tableau de bord offrant les attributs suivants :
• Disponibilité : La capacité d'accéder aux informations nécessaires au bon moment et dans le bon
format.

• Accessibilité : Notre solution met à disposition des interfaces conviviales et ergonomiques, ce qui la
rend facilement accessible et utilisable.

• Interactivité : Les utilisateurs ont la possibilité de contrôler les résultats générés en utilisant les
filtres intégrés, ce qui rend les rapports interactifs et dynamiques.

Ces caractéristiques assurent que notre tableau de bord est convivial, interactif et toujours disponible
pour répondre aux besoins des utilisateurs.

4.5.2 Structure du Dashboard

Un tableau de bord bien conçu dépasse la simple compilation de KPI. En réalité, il est conçu pour
atteindre des objectifs préétablis et être aligné sur ces derniers. Il est conçu pour répondre aux trois
questions fondamentales suivantes : Pourquoi ? Comment ? Quoi ?

4.5.3 Les indicateurs clés de performance :

Les indicateurs clés de performance, ou KPI (Key Performance Indicators), sont des mesures
quantifiables des performances liées à des objectifs spécifiques. Ils servent de repères pour évaluer les
progrès et contribuent à l'évaluation de la situation par les décideurs. Un KPI efficace doit satisfaire à
certains critères :

• Orientation : Il mesure la réalisation de l'objectif préétabli.

• Constructibilité : Il peut être facilement construit et calculé.

• Mise à jour : Les données sont régulièrement actualisées lors de leur utilisation.

• Coût acceptable : Il est développé dans le cadre du budget de l'organisation.

• Fiabilité : Il fournit des informations précises et fiables.

• Pertinence : Il aide les responsables à prendre des décisions commerciales éclairées.

En respectant ces critères, les KPIs permettent de suivre et d'évaluer les performances de manière
efficace, offrant ainsi une base solide pour la prise de décisions stratégiques
Les KPI utilisés sont présentés avec leurs objectifs dans le tableau 15 :

KPI Nom Objectifs

Graphique en Somme de quantité par mois et Afficher la quantité du vente des produits
courbe type Forecast avec type forecast en légende

Segment liste Année ,trimestre, mois , jour Filtrer la date par Année ,trimestre,
déroulante mois , jour

Segment liste Famille Produit, Produit Filtrer la somme de quantité par chaque
déroulante famille produit et produit

Segment liste Catégorie Client, Type Client, Filtrer la somme de quantité par chaque
déroulante CLIENT client

Segment liste Secteur Client Filtrer la somme de quantité par secteur


déroulante client

Segment liste Code Type Forecast, Type Filtrer la somme de quantité par type de
déroulante Forecast forecast(1,2,3,..,AA « ventes réelles »)

Tableau 15 Les KPI

4.5.4 Maquette du Dashboard

Avant de mettre en œuvre le tableau de bord, il est essentiel de le conceptualiser et de le concevoir en


fonction de nos besoins spécifiques.

La maquette choisie pour notre cas est illustrée dans la figure 56


Figure 56 Maquette du tableau bord

4.5.5 Dashboard finale


Voici le dashboard: "FORECASTS".

Figure 57 Dashboard finale


Dans le cadre de notre tableau de bord, nous avons inclus 12 méthodes statistiques pour calculer les
prévisions budgétaires. L'objectif principal est de visualiser les différences entre les prévisions
générées par ces méthodes et le budget réel.

Chacune de ces méthodes utilise des données historiques et d'autres facteurs pertinents pour générer
une prévision de budget. Ces prévisions sont ensuite comparées aux chiffres réels du budget, qui
représentent les valeurs réelles obtenues à la fin de la période de référence.

Cette comparaison permet d'évaluer la précision de chaque méthode statistique et d'identifier les écarts
entre les prévisions et les résultats réels. Cela offre aux utilisateurs du tableau de bord une perspective
claire sur la performance de chaque méthode et leur permet de prendre des décisions éclairées en
matière de planification et de gestion budgétaire.

4.5.6 Publication et déploiement de Dashboard :

La dernière étape de la phase de restitution d'un projet de Business Intelligence consiste à


déployer le tableau de bord sur Power BI Server.

Power BI Server est une plateforme de déploiement qui permet de publier et de partager des
rapports et des tableaux de bord en interne au sein de l'organisation. Cette étape est essentielle pour
permettre aux utilisateurs de l'organisation d'accéder aux informations et de bénéficier des
fonctionnalités avancées du tableau de bord. Comme indiqué dans cet figure

Figure 58 Power BI service

Une fois que le tableau de bord est déployé sur Power BI Server, l'administrateur de l’entreprise peut
associer ce rapport à un groupe d'utilisateurs spécifique en définissant des logins et des mots de
passe. Cette étape permet de contrôler l'accès au tableau de bord et de s'assurer que seules les
personnes autorisées peuvent y accéder.
Conclusion

Le chapitre a été consacré au Sprint1 de notre projet, axé sur la préparation, l'intégration
et la visualisation des données. Nous avons présenté le modèle conceptuel de notre
solution, identifié les sources de données et exploré l'ETL à l'aide de Power Query.

Nous avons également abordé Power Pivot, qui nous permet de mettre en place une
modélisation multidimensionnelle avec un Data Warehouse et des Data Marts. Enfin,
nous avons discuté de Power View pour la visualisation des données, en décrivant le rôle
des tableaux de bord, leur structure et les indicateurs clés de performance.

Ce chapitre constitue une étape cruciale dans la création d'une solution solide et
conviviale, en assurant la disponibilité et la qualité des données, ainsi qu'en fournissant
des outils de visualisation efficaces pour une analyse approfondie.
Chapitre 5 : Sprint2 : Le développement et
l’implémentation du modèle de prévision

Introduction

Le chapitre 5 marque le début du Sprint2 de notre projet, axé sur le développement et


l'implémentation du modèle de prévision. Dans ce chapitre, nous abordons différentes
étapes essentielles pour comprendre le domaine, analyser les données et mettre en place
des prévisions précises.

5.1 Compréhension du domaine

Dans cette étape, nous devons acquérir une connaissance approfondie du domaine pour lequel nous
souhaitons créer un modèle de prévision. Cela implique de comprendre nos propres objectifs de
prévision, les variables d'entrée pertinentes, les données historiques disponibles et les mesures de
performance attendues.

5.1.1 Compréhension du métiers :

Le groupe Delice souhaite effectuer des prévisions sur la quantité de chaque produit, en utilisant une
approche de rolling forecast. Cela signifie qu'ils souhaitent prévoir les quantités de produits sur une
base continue, en mettant à jour et en ajustant régulièrement leurs prévisions en fonction des
nouvelles informations et des changements de conditions.

5.1.2 Compréhension des données :

En examinant les données, nous constatons qu'elles sont constituées d'une série de dates
associées à des quantités de chaque produit. Compte tenu des besoins de l'entreprise et de la
nature de ces données, il est clair que nous avons affaire à une prévision basée sur des séries
temporelles(chronologiques).

Une série chronologique est une séquence de points de données ordonnés dans le temps, où
chaque point de données est associé à une valeur. Dans notre cas, les dates représentent le temps
et les quantités de chaque produit sont les valeurs correspondantes.

La prévision des séries chronologiques consiste à utiliser des modèles et des méthodes
statistiques pour extrapoler les tendances passées et estimer les valeurs futures. Cela nous
permet de prédire les quantités de produits à venir, en nous basant sur les données historiques
disponibles.

En comprenant cette nature temporelle de nos données et en reconnaissant qu'il s'agit d'un
problème de prévision de séries chronologiques, nous pouvons appliquer des techniques
spécifiques pour développer des modèles de prévision efficaces. Ces modèles peuvent prendre
en compte les tendances, les saisons, les cycles et d'autres motifs récurrents qui peuvent
influencer les quantités de produits au fil du temps.

L'objectif ultime de l'entreprise est d'utiliser ces modèles de prévision pour anticiper avec
précision les quantités de produits futures. Cela peut aider l'entreprise dans ses activités de
planification, de production, de gestion des stocks et de prise de décision stratégique.

En résumé, en comprenant la structure de nos données en tant que séries chronologiques et en


identifiant le besoin de l'entreprise en matière de prévisions, nous sommes prêts à appliquer des
méthodes de prévision adaptées pour générer des prévisions précises des quantités de produits à
venir.

5.2 Caractéristique de notre série temporelle :

En analysant notre série temporelle, nous constatons que nous avons :

✓ Variable dépendante : la variable dépendante est la quantité des produits que nous
cherchons à prévoir. Nous nous intéressons spécifiquement à l'évolution de cette variable
au fil du temps.
✓ Ordre chronologique : Les données sont organisées dans un ordre chronologique, ce qui
signifie que chaque observation est enregistrée dans l'ordre de leur occurrence dans le
temps. Cela nous permet d'analyser les tendances, les fluctuations saisonnières et les
schémas qui se produisent dans la série.

✓ Pas de temps fixe : En ce qui concerne la prévision, nous sommes confrontés à un


problème de prévision multistep. Cela signifie que nous cherchons à prévoir les valeurs de
la variable dépendante sur plusieurs pas de temps à l'avance. Par exemple, nous pouvons
vouloir prédire la quantité des produits pour les prochains mois, trimestres ou années.

En prenant en compte ces caractéristiques, nous pouvons conclure que nous avons une série temporelle
univariée multistep. Cela nous indique que nous devons utiliser des techniques spécifiques de
prévision pour estimer les valeurs futures de la quantité sur plusieurs pas de temps à venir.
❖ Stationnarité :

Dans le sens le plus intuitif, la stationnarité signifie que les propriétés statistiques d'un processus de
série temporelle ne changent pas avec le temps. En d'autres mots, toutes ses propriétés statistiques
(moyenne, variance, écart-type) demeurent constantes au fil du temps.

Figure 59 Stationnarité

Si vous observez attentivement les images ci-dessus, vous pouvez constater la différence entre
les deux graphiques. Dans une série temporelle stationnaire, la moyenne, la variance et l'écart-
type des valeurs observées restent presque constants au fil du temps, tandis que dans une série
temporelle non stationnaire, ce n'est pas le cas.
Il existe de nombreuses théories statistiques pour explorer les séries stationnaires par rapport
aux séries non stationnaires.

En pratique, nous pouvons supposer que la série est stationnaire si elle présente des propriétés
statistiques constantes au fil du temps, telles que :
• Moyenne constante
• Variance constante
• Une autocovariance qui ne dépend pas du temps.

✓ Rendre une série temporelle stationnaire :

Vous pouvez rendre une série stationnaire en :

• Différenciant la série (une fois ou plus)


• Prendre le logarithme de la série
• Prendre la racine n-ième de la série
• Combinaison des méthodes ci-dessus

La méthode la plus courante et la plus pratique pour rendre la série stationnaire est de la différencier
au moins une fois jusqu'à ce qu'elle devienne approximativement stationnaire.

Alors, qu'est-ce que la différenciation ? Si Y_t est la valeur à l'instant 't', alors la première différence
de Y = Yt - Yt-1. En termes simples, différencier la série ne fait rien d'autre que soustraire la valeur
suivante de la valeur actuelle. Si la première différence ne rend pas la série stationnaire, vous pouvez
passer à la deuxième différence. Et ainsi de suite.

✓ Pourquoi rendre une série non stationnaire stationnaire avant la prévision ?

La stationnarité d'une série peut être établie en examinant le graphique de la série.

Une autre méthode consiste à diviser la série en 2 parties ou plus et à calculer les statistiques
récapitulatives telles que la moyenne, la variance et l'autocorrélation. Si les statistiques sont assez
différentes, alors la série n'est probablement pas stationnaire.

Néanmoins, vous avez besoin d'une méthode pour déterminer quantitativement si une série donnée est
stationnaire ou non. Cela peut être fait en utilisant des tests statistiques appelés "tests de racine
unitaire". Il existe plusieurs implémentations de tests de racine unitaire, tels que :
• Le test augmenté de Dickey-Fuller (ADF Test)
• Le test de Kwiatkowski-Phillips-Schmidt-Shin (KPSS test, pour la stationnarité de
tendance)
• Le test de Philips Perron (PP Test)

Le plus couramment utilisé est le test ADF. Dans ce test, nous considérons d'abord l'hypothèse nulle :
la série temporelle n'est pas stationnaire. Le résultat du test contiendra la statistique de test et la valeur
critique pour différents niveaux de confiance. L'idée est d'avoir une statistique de test inférieure à la
valeur critique. Dans ce cas, nous pouvons rejeter l'hypothèse nulle et affirmer que cette série
temporelle est effectivement stationnaire.

5.3 La prévision des séries temporelles (Time series forecasting)

La prévision des séries temporelles est une technique d'analyse utilisée pour prédire les valeurs
futures d'une variable en se basant sur les données historiques. Les séries temporelles se réfèrent à
des ensembles de données qui sont enregistrées dans un ordre chronologique, où chaque
observation est associée à une valeur de variable à un moment spécifique.

Les modèles de prévision de séries chronologiques basés sur l’apprentissage automatique ont
trouvé une large implémentation dans les projets de séries chronologiques requis par diverses
entreprises pour faciliter la distribution prédictive du temps et des ressources.

5.3.1 Les prévisions chronologiques dans le machine learning.

La prévision des séries temporelles basée sur l'apprentissage automatique s'est avérée être la
méthode la plus efficace pour capturer les motifs dans la séquence de données structurées et non
structurées, ainsi que pour effectuer l'analyse et la prévision des séries temporelles de manière plus
avancée.
Figure 60 Les composantes des données de séries temporelles

Il est important de comprendre les composantes des données de séries temporelles :

✔ Tendances : pour décrire le comportement croissant ou décroissant fréquemment présenté dans


les séries temporelles, souvent de manière linéaire.

✔ Saisonnalité : pour mettre en évidence le motif répétitif des cycles de comportement au fil du
temps.

✔ Irrégularité/bruit : pour tenir compte de l'aspect non systématique des séries temporelles qui
s'écartent des valeurs du modèle commun.

✔ Cyclicité : pour identifier les changements répétitifs dans les séries temporelles et définir leur
position dans le cycle.

5.3.2 les modelés de prévision

Parmi les nombreuses méthodes visant à atteindre la précision et à minimiser les erreurs et les
pertes dans les prévisions, il existe plusieurs méthodes classiques et modernes d'apprentissage
automatique qui prouvent leur précision et leur pertinence computationnelle.

Il existe différents types d'analyse de séries temporelles. Pour notre projet nous envisageons
d'utiliser les modèles les plus largement utilisés basés sur l'apprentissage automatique sont les
suivants, classés par catégories :

• Les méthodes classiques :

Les méthodes classiques éprouvées sont le plus souvent utilisées dans l'élaboration des
prévisions chronologiques. Ces modèles peuvent fournir des prédictions de séries
chronologiques exactes au moyen de feuilles de calcul et de formules appliquées aux
ensembles de données.
Cependant, les méthodes conventionnelles présentent certains inconvénients qui les rendent
insuffisantes pour des prévisions précises dans des environnements qui changent
rapidement.

✓ ARIMA

ARIMA (AutoRegressive Integrated Moving Average) est un modèle de prévision de


séries temporelles qui combine les composantes autorégressive (AR), d'intégration (I) et
de moyenne mobile (MA). Il est utilisé pour modéliser et prévoir les données de séries
temporelles en prenant en compte les tendances, les saisons et les erreurs aléatoires. Le
modèle ARIMA est défini par les paramètres p, d et q, qui représentent respectivement
l'ordre de la composante autorégressive, le degré de différenciation et l'ordre de la
composante de moyenne mobile. L'estimation des coefficients du modèle et la
vérification des propriétés stationnaires sont des étapes importantes dans l'utilisation de
l'ARIMA. Ce modèle est largement utilisé dans différents domaines pour la prévision des
données de séries temporelles.

La syntaxe mathématique de l'ARIMA est la suivante :

ARIMA(p, d, q):

Y_t = c + Σ(φ_i * Y_t-i) + Σ(θ_i * ε_t-i) + ε_t

où :

• Y_t est la valeur de la série à l'instant t


• c est une constante
• φ_i sont les coefficients autorégressifs
• ε_t-i sont les résidus de la moyenne mobile
• θ_i sont les coefficients de la moyenne mobile
• ε_t est le terme d'erreur à l'instant t
Figure 61 SARIMA FORECAST

✓ SARIMAX

SARIMAX, abréviation de Seasonal AutoRegressive Integrated Moving Average


with eXogenous variables, est un modèle utilisé pour la prévision des séries
temporelles. Il s'agit d'une extension du modèle ARIMA qui incorpore à la fois des
composantes saisonnières et des variables exogènes.

Le modèle SARIMAX est défini par les paramètres suivants :

• p: L'ordre de la composante autorégressive non saisonnière.


• d: Le degré de différenciation non saisonnière.
• q: L'ordre de la composante de moyenne mobile non saisonnière.
• P: L'ordre de la composante autorégressive saisonnière.
• D: Le degré de différenciation saisonnière.
• Q: L'ordre de la composante de moyenne mobile saisonnière.
• s: La période saisonnière.
Le modèle SARIMAX est formulé mathématiquement comme suit :

(1 - φ₁L - φ₂L² - ... - φₚLᵖ)(1 - Φ₁Lᵇ - Φ₂L²ᵇ - ... - ΦₚLᵇᵖ)(1 - L)ᵈ(1 - Lˢ)ᴰYₜ = (1 + θ₁L +
θ₂L² + ... + θₚLᵠ)(1 + Θ₁Lᵇ + Θ₂L²ᵇ + ... + ΘₚLᵇᵠ)εₜ,

où Yₜ est la série temporelle, L est l'opérateur de retard, φ et Φ sont les coefficients


autorégressifs, θ et Θ sont les coefficients de moyenne mobile, εₜ est le terme d'erreur,
et les puissances p, b, d, et D sont les ordres correspondants.

L'estimation des coefficients du modèle SARIMAX se fait généralement à l'aide de


techniques d'estimation des moindres carrés ou d'estimation maximale de
vraisemblance. Une fois le modèle estimé, il peut être utilisé pour faire des prévisions
en prenant en compte à la fois les effets saisonniers et les variables exogènes.

• Les méthodes de machine learning :

✓ Long Short-Term Memory (LSTM)

Les réseaux de neurones LSTM (Long Short-Term Memory) sont une architecture
spécifique de réseaux de neurones récurrents (RNN) qui sont utilisés pour modéliser
et prédire des séries temporelles. Les LSTM sont conçus pour résoudre le problème
de la disparition du gradient (vanishing gradient) rencontré dans les RNN
traditionnels, ce qui les rend efficaces pour capturer les dépendances à long terme
dans les séquences temporelles.

La principale caractéristique des LSTM est leur capacité à conserver et à oublier


sélectivement des informations sur de longues périodes. Ils utilisent des cellules
mémoire qui sont capables de stocker et de mettre à jour des informations au fil du
temps. Ces cellules mémoire sont composées de différents types de portes,
notamment les portes d'entrée, les portes d'oubli et les portes de sortie, qui régulent le
flux d'informations à travers le réseau.

voici les principales équations utilisées dans les LSTM :

Porte d'oubli (Forget gate) :


f_t = σ(W_f . [h_{t-1}, x_t] + b_f)

Porte d'entrée (Input gate) :


i_t = σ(W_i . [h_{t-1}, x_t] + b_i)

Porte de mise à jour de la mémoire (Memory update gate) :


ĉ_t = tanh(W_c . [h_{t-1}, x_t] + b_c)

Cellule mémoire (Cell state update) :


C_t = f_t * C_{t-1} + i_t * ĉ_t

Porte de sortie (Output gate) :


o_t = σ(W_o . [h_{t-1}, x_t] + b_o)

Sortie cachée (Hidden state) :


h_t = o_t * tanh(C_t)

Dans ces équations, les symboles suivants sont utilisés :

• h_t : sortie cachée à l'instant t


• C_t : état de la cellule mémoire à l'instant t
• x_t : entrée à l'instant t
• σ : fonction d'activation sigmoïde
• tanh : fonction d'activation tangente hyperbolique
• W et b : poids et biais du réseau à apprendre

Les LSTM sont particulièrement adaptés à la modélisation des séries temporelles en


raison de leur capacité à capturer les dépendances à long terme et à gérer les
séquences de longueur variable. Ils sont largement utilisés dans des domaines tels que
la prévision financière, la reconnaissance de la parole, la traduction automatique et la
génération de texte, entre autres.

Figure 62 LSTM

5.4 Préparation et exploration du data

À cette étape, nous effectuons un nettoyage des données pour obtenir des informations pertinentes et
sélectionner les variables importantes. Nous lançons le processus de préparation des données pour
l'ingénierie des caractéristiques. L'élément clé de l'ingénierie des caractéristiques consiste à cibler les
domaines de connaissances du domaine qui sont essentiels pour concevoir de nouvelles
fonctionnalités dans l'ensemble de données existant.

5.4.1 Les données :

Après avoir effectué les étapes d'ETL et de modélisation, nous avons besoin de la table "Forecast" qui
a été préalablement transformée et préparée pour notre travail. Cette table est utilisée comme entrée
dans notre processus d'analyse et de développement de modèle dans Google Colab. Cependant, en
raison de la volumétrie importante de la table, nous avons rencontré des limitations pour l'exporter
directement depuis Power BI. Nous avons donc utilisé l'outil DAX Studio pour exporter la table vers
un fichier CSV, que nous avons ensuite utilisé comme input dans Google Colab. Cette approche nous
a permis de contourner les limitations liées à la volumétrie de la table et de poursuivre notre travail
d'analyse et de développement de modèle de manière efficace.
La figure 63 présente notre architecture pour obtenir les données nécessaires

Figure 63 Architecture exportation de table

❖ Exportation de la table

Voici les étapes pour exporter des données dans DAX Studio :

Connectons-nous à la source de données : Dans DAX Studio, connectez-vous à la source de


données à partir de laquelle vous souhaitez exporter les données. C’est notre instance de Power
BI.

Figure 64 Connexion au DAX Studio


Dans le menu contextuel qui apparaît dans la figure, nous devons sélectionner l'option "Export
Data" .Nous choisissons ensuite le format dans lequel nous souhaitons exporter les données,
comme CSV, Excel ou un autre format pris en charge. Nous sélectionnons également
l'emplacement où nous souhaitons enregistrer le fichier exporté.

Figure 65 Le format de l'output

Une fois que nous avons sélectionné le format et l'emplacement nous choisissons le tableau qu'on veut
l'exporter c'est la table "forecasts" et nous pouvons cliquer sur le bouton "Exporter" pour lancer le
processus d'exportation. Les données seront alors exportées dans le fichier spécifié, dans le format
sélectionné « FORECASTS. CSV».
Figure 66 Exportation de la table FORECASTS

❖ Table FORECASTS

La table "Forecasts" utilisée dans cette étude a déjà été transformée et analysée, et il n'est donc pas
nécessaire de la nettoyer davantage. Les données ont été préparées et adaptées pour répondre aux
besoins spécifiques de l'analyse et de la modélisation.

Les données utilisées dans cette étude correspondent à la table "Forecasts". Cette table contient les
informations suivantes :

Code Société : Un identifiant numérique représentant la société concernée.

Code Produit : Un code spécifique pour identifier le produit.

Code Magasin : Un identifiant numérique représentant le magasin associé (peut être manquant).

Date : La date à laquelle la transaction a eu lieu.

Quantité : La quantité du produit vendue.

Code Client : Un identifiant numérique représentant le client associé.

Type : Le type de produit.

Famille Produit : La famille à laquelle le produit appartient.

Group Produit : Le groupe auquel le produit est associé.


Figure 67 Les colonnes de table Forecasts

Ces données fournissent des informations sur les ventes réelles, c'est-à-dire les quantités vendues
de chaque produit, pour différentes sociétés, produits, magasins, dates et clients. Elles incluent
également des détails sur les types de produits, les familles de produits et les groupes de produits.
Les mesures de quantité permettent d'analyser les volumes de vente.

5.4.2 Etude de corrélation

Dans le cadre de cette étude, nous avons utilisé un ensemble de données comprenant plusieurs
variables pertinentes pour notre analyse. Notre objectif principal était de prédire la quantité de
produits vendus ou achetés, qui constitue notre variable cible.

Pour atteindre cet objectif, nous avons examiné les autres colonnes de notre jeu de données comme
des prédicteurs potentiels. Ces prédicteurs comprenaient le code de la société, le code du produit, le
code du magasin, la date de la transaction, la quantité , le code du client.

Afin d'évaluer la pertinence de ces variables par rapport à notre variable cible, nous avons effectué
des calculs de causalité prédictive et de corrélation de Pearson. La causalité prédictive nous a
permis d'identifier les relations potentielles de cause à effet entre les variables, tandis que la
corrélation de Pearson nous a fourni une mesure de la corrélation linéaire entre les variables.

En analysant ces mesures de pertinence, nous pourrons déterminer quelles variables ont une
influence significative sur la quantité de produits vendus ou achetés. Cela nous permettra de mieux
comprendre les facteurs qui influencent la demande des clients et d'optimiser nos prévisions et nos
stratégies commerciales en conséquence.
Figure 68 Etude de corrélation

5.4.3 Réduction des Données :

Après avoir évalué l'importance des variables et identifié celles qui ont un impact significatif sur la
quantité de produits vendus ou achetés, nous entamons la phase de réduction des données. Notre
objectif en tant qu'analyste est de sélectionner les variables les plus pertinentes pour notre modèle
de prédiction, tout en réduisant la complexité de notre jeu de données.

Tout d'abord, nous procédons à l'élimination des colonnes inutiles qui ne contribuent pas de
manière significative à notre analyse. Cela nous permet de réduire la dimensionnalité de nos
données et de nous concentrer sur les variables les plus informatives.

De plus, nous effectuons une agrégation de la quantité de chaque produit par la fin du mois. Cette
agrégation nous permet d'obtenir une vue globale des ventes ou des achats de produits sur une base
mensuelle, ce qui peut être plus utile pour notre analyse et notre modèle de prédiction.

En résumé, en tant qu'analyste, notre objectif est de sélectionner les variables les plus pertinentes et
d'appliquer des techniques de réduction des données pour simplifier notre modèle tout en
préservant les informations nécessaires à la prédiction précise de notre variable cible. Cela nous
permet d'obtenir des résultats plus fiables et d'approfondir notre compréhension du comportement
des ventes ou des achats de produits.

Le résultat obtenu dans la table est présenté dans cet figure 69

Figure 69 Table Forecasts après réduction

5.5 L'application de la méthode de prévision

Dans cette phase, nous abordons l'application de deux méthodes de prévision classiques, ARIMA et
SARIMAX, ainsi que la méthode de machine learning LSTM (Long Short-Term Memory) pour la
prédiction des séries chronologiques. Ces méthodes sont largement utilisées dans le domaine de la
prévision en raison de leur capacité à capturer les tendances, les motifs saisonniers et les relations
complexes entre les données chronologiques.

Cet figure présente les processus pour appliquer un modèle de prévision

en utilisant les 3 modèles

Figure 70 Les processus de prévision


❖ ARIMA (Autoregressive Integrated Moving Average) :

La modélisation ARIMA implique plusieurs étapes:

• L'analyse de la série temporelle pour identifier les motifs, la tendance et la saisonnalité


qui y sont présents.

On Prend Le Code Produit 60 comme un exemple : (lait)

Figure 71 Les données du Produit 60

Cet figure présente L'évolution de la quantité du produit 60 (Lait) par mois entre 2019 et 2023.

Figure 72 L’évolution de la quantité du produit


Cet figure présente la Détermination du Rolling mean et Standard Deviation pour le produit 60

Figure 73 Rolling mean et Standard Deviation pour le produit 60

Cet figure présente la Résultat du test Dickey-Fuller pour la quantité du produit 60

Figure 74 Ttest Dickey-Fuller pour la quantité du produit 60


• Transformation de la série :

Cet figure présente la Comparaison de l’évolution de la quantité du produit 60 par mois avant la

Différenciation et après la Différenciation

Figure 75 Comparaison de l’évolution de la quantité du produit 60

Cet figure présente la Détermination du Rolling mean et Standard Deviation

pour le produit 60 par jour

Figure 76 Rolling mean et Standard Deviation pour le produit 60


• Identification des (p, d et q) :

L'utilisation de techniques statistiques telles que l'autocorrélation partielle (PACF) et


l'autocorrélation simple (ACF) est effectuée afin de déterminer les ordres appropriés

Cet figure présente Auto corrélation et Partiel Auto corrélation pour le modèle ARIMA

.
Figure 77 Auto corrélation VS Partiel Auto corrélation

Figure 3.12 : Auto corrélation VS Partiel Auto corrélation

• L'estimation des paramètres, la validation et l'ajustement du modèle:

Cet figure présente Le résumé du model ARIMA (4,1,4)


Figure 78 Le résumé du model ARIMA (4,1,4)

Le résumé précédent contient des informations essentielles concernant l'estimation des paramètres du
modèle ARIMA(4, 1, 4). Ces paramètres sont cruciaux pour l'ajustement du modèle à nos données.
Voici comment nous pouvons utiliser ces informations pour ajuster le modèle :

✓ Coefficients (coef) : Les coefficients estimés pour les termes AR (ar.L1, ar.L2, ar.L3,
ar.L4) et MA (ma.L1, ma.L2, ma.L3, ma.L4) déterminent l'importance relative de
chaque terme dans le modèle. Ces coefficients seront utilisés pour construire les
parties autoregressive (AR) et moving average (MA) de notre modèle ARIMA.

✓ Erreurs standard (std err) : Les erreurs standard donnent une indication de la
précision de l'estimation des coefficients. Des erreurs standard plus faibles indiquent
une estimation plus précise.

✓ Valeurs z (z) : Les valeurs z mesurent l'écart d'un coefficient par rapport à sa valeur
attendue selon l'hypothèse nulle. Des valeurs z plus élevées indiquent une
significativité statistique accrue du coefficient.

✓ Valeurs p (P>|z|) : Les valeurs p indiquent la probabilité que le coefficient soit nul.
Des valeurs p inférieures à un seuil de signification (par exemple, 0,05) suggèrent que
le coefficient est statistiquement significatif.
✓ Intervalles de confiance ([0.025 0.975]) : Les intervalles de confiance à 95 % nous
fournissent une plage de valeurs plausibles pour chaque coefficient. Cela nous aide à
évaluer l'incertitude associée à l'estimation des paramètres.

En utilisant ces informations, nous pouvons ajuster le modèle ARIMA en utilisant les coefficients
estimés et les ordres spécifiés (4, 1, 4). Cela nous permettra de générer des prédictions pour notre
série temporelle.

• Prévision : Le modèle ARIMA est appliqué afin de réaliser des prédictions sur les valeurs à
venir de la série temporelle.

Cet figure présente l’évolution de la quantité du produit 60 e la prévision donnée par

le modèle ARIMA (4.1.4)

Figure 79 : Évolution de la quantité du produit 60 de 2019 à2023 et la prévision

❖ SARIMAX (Seasonal Autoregressive Integrated Moving Average with Exogenous Variables) :

La modélisation SARIMAX implique plusieurs étapes:

• L'analyse de la série temporelle pour identifier les motifs, la tendance et la saisonnalité


qui y sont présents.
Figure 80 La description du data

• Prétraitement des données : Avant de construire le modèle SARIMAX, il peut être


nécessaire de prétraiter les données en effectuant une différenciation pour rendre la série
temporelle stationnaire. On peut accomplir cela en utilisant la différenciation saisonnière et/ou
la différenciation régulière.

• Identification des ordres du modèle : Les ordres du modèle SARIMAX sont généralement
représentés par les paramètres (p, d, q) et (P, D, Q, s). Les paramètres (p, d, q) correspondent
aux ordres autoregressif, intégré et de moyenne mobile pour la composante non saisonnière
de la série, tandis que les paramètres (P, D, Q, s) correspondent aux ordres autoregressif,
intégré, de moyenne mobile et à la période saisonnière pour la composante saisonnière de la
série.

Cet figure présente Auto corrélation et Partiel Auto corrélation pour SARIMAX

Figure 81 « AC » vs « PAC »
Les courbes ci-dessous présentent l’étude de saisonnarité et tendance

Figure 82 Étude de saisonnarité et tendance

• Estimation des paramètres :


Cet résultat présente le résume du modèle SARIMAX (4,1,4)x(4,14,12)

Figure 83 Le résumé du model SARIMAX


• Diagnostic du modèle : Une fois les paramètres estimés, il est crucial de procéder à un
diagnostic du modèle afin d'évaluer la qualité de l'ajustement. Cela implique d'examiner
les résidus du modèle pour vérifier qu'ils suivent un comportement de bruit blanc et ne
présentent pas de motifs systématiques.

Figure 84 Diagnostic du modèle

• Prévisions : Une fois que le modèle a été ajusté et diagnostiqué, il peut être utilisé
pour effectuer des prévisions sur une période future. Les prévisions peuvent être générées
en utilisant la méthode "predict" du modèle SARIMAX.

Ci-dessous est l’evolution de la quantité du produit 60 de 2019 à 2023 et la prévision donnée par le
modèle SARIMAX(4.1.4)x(4,1,4,12) de 2022 à 2024

Figure 85 Évolution de la quantité du produit 60 et la prévision


Il est important de souligner que la modélisation SARIMAX peut nécessiter des itérations et des
ajustements supplémentaires afin d'obtenir un modèle optimal. L'interprétation des résultats et la
sélection des ordres du modèle peuvent également nécessiter une expertise en matière de séries
temporelles.

Ceci est la ccomparaison de l'évolution de la quantité du produit 60 entre 2019 et 2023 avec les
prévisions du modèle SARIMAX(4,1,4)x(4,1,4,12) par rapport au modèle ARIMA(4,1,4) pour la
période de 2022 à 2024.

Figure 86 Évolution de la quantité du produit 60 VS la prévision donnée par le modèle SARIMAX VS ARIMA

En conclusion, cette section présente une approche exhaustive pour la prédiction des séries
temporelles en utilisant les modèles ARIMA et SARIMAX. Nous examinerons attentivement chaque
étape du processus de modélisation et appliquerons ces méthodes à nos propres données pour générer
des prédictions précises. L'utilisation de ces modèles nous permettra d'obtenir une meilleure
compréhension des tendances, des motifs saisonniers et des variations présentes dans nos séries
temporelles, ouvrant ainsi de nouvelles perspectives pour la prise de décision et la planification.
❖ LSTM (Long Short-Term Memory) :

Dans cette section, nous explorerons l'utilisation du modèle LSTM (Long Short-Term Memory) pour
la prédiction des séries temporelles. Le modèle LSTM est un type de réseau de neurones récurrents
qui est particulièrement adapté pour capturer les dépendances à long terme dans les séries
temporelles. Contrairement aux modèles ARIMA qui reposent sur des équations mathématiques, les
modèles LSTM utilisent des réseaux de neurones pour capturer les motifs temporels complexes.
Pour expliquer le modèle LSTM et le processus utilisé pour prédire les valeurs quotidiennes, voici
les étapes :

• Division des données en ensembles d'entraînement et de test : Les données sont séparées en
deux ensembles, à savoir l'ensemble d'entraînement et l'ensemble de test, en fonction des
dates. Dans cet exemple, les données jusqu'au 31 décembre 2022 sont utilisées pour
l'entraînement, tandis que les données de l'année 2023 sont réservées pour les tests.

• Mise à l'échelle des données : Les données de l'ensemble d'entraînement et de test sont mises à
l'échelle à l'aide de la classe MinMaxScaler. Cette étape permet de normaliser les valeurs de
quantité dans une plage spécifique, par exemple, entre 0 et 1, afin de faciliter l'apprentissage
du modèle.
• Création des séquences d'entraînement pour LSTM : Les données d'entraînement sont
transformées en séquences qui contiennent les valeurs de quantité des jours précédents. Dans
cet exemple, un lookback de 3 est utilisé, ce qui signifie que chaque séquence comprend les
valeurs de quantité des 3 jours précédents. Ces séquences serviront d'entrée pour le modèle
LSTM.

• Création du modèle LSTM : Le modèle LSTM est créé en utilisant la classe Sequential de
Keras. Il est composé d'une couche LSTM avec 64 neurones en entrée, suivie d'une couche
Dense avec 32 neurones et une fonction d'activation relu, puis d'une couche Dense de sortie
avec 1 neurone.

• Compilation et entraînement du modèle LSTM : Le modèle LSTM est compilé en spécifiant la


fonction de perte (mean squared error - MSE) et l'optimiseur (Adam avec un taux
d'apprentissage de 0.01). Ensuite, le modèle est entraîné sur les séquences d'entraînement en
utilisant la fonction fit, en spécifiant la taille du lot et le nombre d'époques.
• Prédictions sur l'ensemble de test avec LSTM : Les séquences de test sont préparées de la
même manière que les séquences d'entraînement, puis utilisées pour effectuer des prédictions
avec le modèle LSTM. Les prédictions sont ensuite inversées à l'échelle d'origine à l'aide de la
méthode inverse_transform du scaler.

• Tracé des données d'origine et des prédictions LSTM : Enfin, les données d'origine (quantité
réelle) et les prédictions LSTM sont tracées sur un graphique, ce qui permet de visualiser
visuellement la performance du modèle LSTM dans la prédiction des valeurs quotidiennes.

En utilisant cette approche, le modèle LSTM est capable de prédire les valeurs de quantité par jour
pour l'année 2023 en se basant sur les données mensuelles disponibles.

Ci-dessous est l’execution des performances du modèle LSTM sont évaluées à chaque époque
de l'entraînement pour mesurer sa capacité à prédire avec précision les valeurs de la série temporelle.

Figure 87 LSTM à chaque époque de l'entraînement.

Voici quelques observations tirées des informations fournies :

• La perte (loss) diminue progressivement au fur et à mesure des époques, ce qui est
positif. Cela indique que le modèle apprend à réduire l'écart entre les valeurs prédites et
les valeurs réelles de la série temporelle.
• L'erreur absolue moyenne (mean_absolute_error) diminue également au fil des
époques, ce qui suggère que le modèle LSTM améliore sa capacité à prédire avec
précision les valeurs de la série temporelle.

• Les valeurs de perte et d'erreur absolue moyenne restent relativement faibles, ce qui
est généralement positif. Toutefois, il est important de mettre ces résultats en perspective
par rapport à la plage de valeurs de la série temporelle et de les comparer à d'autres
modèles pour obtenir une évaluation complète des performances.

On trouve ci-dessous l’évolution de la quantité du produit 60 de 2019 à 2023 et la prévision par le


modèle LSTM

Figure 88 Évolution de la quantité du produit 60 et la prévision LSTM

Après avoir analysé les résultats du modèle LSTM et en les comparant à la plage de valeurs de la
série temporelle, nous constatons que nous ne sommes pas entièrement satisfaits de ses
performances.
5.6 Evaluation et validation des modèles :
L'évaluation et la validation des modèles sont des étapes cruciales pour garantir la qualité et la
fiabilité des prédictions dans l'analyse des séries temporelles. Ces étapes visent à mesurer la
performance des modèles et à vérifier leur capacité à généraliser les prédictions sur de nouvelles
données.

5.6.1 Evaluation des modèles

Pour évaluer la précision des prédictions de nos modèles, nous avons utilisé le MAPE (Mean
Absolute Percentage Error) comme mesure.

• Définition de MAPE (Mean Absolute Percentage Error) :

Le MAPE (Mean Absolute Percentage Error) est une mesure couramment utilisée pour évaluer la
précision d'un modèle de prévision dans le domaine des séries temporelles. Il mesure en pourcentage
l'erreur moyenne absolue entre les valeurs réelles et les valeurs prédites.

Figure 89 Formule MAPE

Après avoir appliqué les modèles ARIMA, SARIMAX, LSTM pour effectuer des prédictions sur
les séries temporelles, nous avons évalué leur performance en utilisant la mesure de précision MAPE
(Mean Absolute Percentage Error).

La table ci-dessous présente les résultats de l'évaluation de ces modèles en utilisant

la mesure MAPE (Mean Absolute Percentage Error).


MODELES MAPE

ARIMA 15.3722

SARIMAX 10.9422

LSTM 11.2596

Tableau 16 Evaluation MAPE

5.6.2 validation des modèles

Après avoir évalué les résultats du MAPE pour chaque modèle, nous choisirons le modèle qui
présente le MAPE le plus faible ou les performances les plus élevées sur d'autres mesures comme étant
le meilleur modèle. L'objectif est de sélectionner le modèle qui est le plus précis et qui offre les
meilleures prédictions pour les séries temporelles étudiées. Le modèle avec le MAPE le plus faible
indique une erreur relative plus faible entre les valeurs prédites et les valeurs réelles, ce qui est
souhaitable dans la plupart des cas.

❖ Modèle finale

D'après le tableau ci-dessous représentant les résultats de l'évaluation des trois modèles, nous
pouvons conclure que nous allons utiliser le modèle SARIMAX, car il a obtenu les meilleurs résultats.
Le modèle SARIMAX présente un MAPE plus faible par rapport aux autres modèles, ce qui indique
une meilleure précision dans les prédictions des séries temporelles. Par conséquent, nous
sélectionnerons le modèle SARIMAX pour nos analyses et nos prévisions.

5.7 Déploiement du modèle sur Power Bi

Une fois que nous avons sélectionné le meilleur modèle pour nos prévisions, il est essentiel de le
déployer et de l'intégrer dans Power BI afin de visualiser les prédictions et d'automatiser le processus.
Le déploiement du modèle dans Power BI nous permet de tirer parti de la puissance de cette plateforme
de visualisation des données pour présenter nos résultats de manière interactive et dynamique.
Cet figure indique les processus pour intégrer le modèle dans power bi

Figure 90 Les processus de l'intégration de modèle

Nous disposons déjà d'un tableau de bord « FORECASTS » dans Power BI avec une source de
données configurée

les étapes pour déployer et intégrer le modèle «SARIMAX » dans Power BI

• Exportation du modèle : Tout d'abord, nous devons exporter notre modèle prédictif
depuis l'environnement de développement dans lequel il a été créé. Cela peut impliquer
l'enregistrement du modèle sous forme de fichier ou la génération d'un script Python
contenant les informations nécessaires pour exécuter le modèle.

• Connexion à Power BI : Nous ouvrons le tableau de bord existant dans Power BI.

• Intégration du script Python : À l'aide de la fonctionnalité "Python Script" de Power


BI, nous intégrerons le script Python correspondant à notre modèle prédictif. Ce script
sera exécuté chaque fois que les données seront actualisées.

Figure 91 Script Python


cet interface que on va l’utiliser pour intégrer notre script

Figure 92 Interface de Script Python

Figure

• Intégration du script Python : À l'aide de la fonctionnalité "Python Script" de Power


BI, nous intégrerons le script Python correspondant à notre modèle prédictif. Ce script
sera exécuté chaque fois que les données seront actualisées.

• Configuration des paramètres : Nous configurerons les paramètres du script Python,


tels que les colonnes d'entrée et de sortie, en fonction de nos besoins spécifiques pour
notre modèle.

• Exécution du modèle : Une fois que tout est configuré, nous pourrons exécuter le
modèle en cliquant sur le bouton approprié dans Power BI. Cela déclenchera l'exécution du
script Python et générera les prédictions en fonction des données d'entrée fournies.

• Création des visualisations : Nous allons implémenter les résultats de notre script
dans notre tableau de bord "Forecasts" en indiquant que le résultat obtenu par le modèle
correspond à un nouveau type de Forecast appelé "SARIMAX". Cela nous permettra de
présenter les prévisions générées par notre modèle SARIMAX dans notre tableau de bord
et de les comparer avec d'autres types de prévisions existants.

Ci-dessous est le Dashboard finale


• Actualisation des données : Nous configurerons l'actualisation automatique des données
dans Power BI afin de nous assurer que nos prédictions sont régulièrement mises à jour en
fonction des nouvelles données disponibles.

Conclusion

Ce chapitre présente la clôture de notre projet, où nous avons présenté toutes les étapes que nous
avons suivies pour le développement et l'intégration de notre modèle de prévision basé sur
l'apprentissage automatique en utilisant trois modèles différents. Nous avons commencé par la collecte
et la préparation des données, puis nous avons exploré les modèles ARIMA, SARIMAX et LSTM
pour effectuer les prédictions des séries temporelles. Nous avons ajusté et diagnostiqué les modèles
pour obtenir des performances optimales, et nous avons évalué leurs résultats en utilisant des mesures
telles que le MAPE. Ensuite, nous avons déployé notre modèle sur Power BI pour visualiser les
prédictions et automatiser le processus. En fin de compte, notre projet nous a permis de mieux
comprendre les modèles de prévision et de mettre en œuvre une solution pratique pour la prévision des
séries temporelles.
CONCLUSION GENERAL ET PRESPECTIVES

Au cours de ce projet de fin d'études au sein du Group Délice , nous avons parcouru différentes étapes
et chapitres pour mener à bien notre mission. Nous avons débuté par une introduction, qui a permis de
situer le contexte général du projet, de présenter l'organisme d'accueil ainsi que le cadre dans lequel
nous opérons. Ensuite, nous avons exploré l'état de l'art dans divers domaines pertinents, tels que la
digitalisation, les prévisions glissantes, les techniques de modélisation prédictive et l'informatique
décisionnelle.

En abordant le Sprint0, nous avons réalisé une analyse et une conception approfondies, en spécifiant
les besoins fonctionnels et non fonctionnels, en identifiant les acteurs et en définissant l'architecture
générale du système. Nous avons utilisé des outils tels que le langage de modélisation unifié, les
diagrammes de cas d'utilisation globale et de séquence, ainsi que le diagramme de Gantt pour planifier
notre travail.

Le Sprint1 a été dédié à la préparation, à l'intégration et à la visualisation des données. Nous avons
développé un modèle conceptuel de la solution, identifié les sources de données pertinentes, et utilisé
les outils Power Query et Power Pivot pour réaliser l'ETL et la modélisation multidimensionnelle.
Nous avons également abordé l'architecture du Data Warehouse et créé des tableaux de bord interactifs
à l'aide de Power View.

Dans le Sprint2, nous nous sommes concentrés sur le développement et l'implémentation du modèle de
prévision. Nous avons compris le domaine et les données associées, étudié les caractéristiques de notre
série temporelle, exploré les méthodes de prévision des séries temporelles, et appliqué la méthode
choisie en évaluant et validant les modèles. Enfin, nous avons déployé le modèle sur Power BI pour le
rendre accessible aux utilisateurs finaux.

L'ensemble de ces étapes a abouti à la réalisation d'un projet cohérent et complet. Nous avons pu
mettre en place un système performant de prévision et d'analyse des données, en tirant parti des
avancées technologiques et des meilleures pratiques du domaine. Grâce à une approche Agile et à une
planification rigoureuse en Sprints, nous avons pu garantir une progression continue et une adaptation
aux besoins changeants du projet.

De plus, dans le souci de garantir la sécurité et la confidentialité des données sensibles, l'entreprise a
pris la décision de réaliser la partie d'intégration des outils de prévision en interne. Cette décision
souligne l'importance accordée à la protection des informations stratégiques et confidentielles de
l'entreprise, ainsi qu'à la maîtrise complète du processus de prévision.

l'entreprise a fait le choix stratégique d'assumer elle-même l'intégration des outils de prévision pour
garantir la sécurité et la confidentialité des données. Malgré les difficultés rencontrées, cette décision a
permis de renforcer la maîtrise interne du processus de prévision et de créer une solution sur mesure,
répondant aux besoins spécifiques de l'entreprise.

Enfin , Nous avons parcouru différentes étapes, de l'analyse des besoins à la modélisation, en passant
par l'intégration et la visualisation des données. Ces étapes ont posé les bases solides pour une future
évolution vers une solution Big Data.
En envisageant le projet sous l'angle du Big Data, nous pourrions exploiter des technologies telles que
Hadoop ou Spark pour gérer et analyser de grandes quantités de données, ainsi que des techniques
avancées d'apprentissage automatique pour améliorer la précision des prévisions et des analyses
prédictives. Cette perspective ouvre de nouvelles possibilités pour l'organisme d'accueil, en lui
permettant d'exploiter pleinement le potentiel des données et d'obtenir des insights plus approfondis.

En relisant ce projet à la lumière de notre parcours de formation, nous sommes fiers du travail
accompli et des résultats obtenus. Nous sommes convaincus que notre solution apportera une réelle
valeur ajoutée à l'organisme d'accueil et ouvrira la voie à de nouvelles opportunités dans le domaine de
l'analyse des données et du Big Data.

En conclusion ,nous espérons que ce projet servira également de référence et d'inspiration pour les
futurs projets de fin d'études, en démontrant l'importance croissante de la gestion et de l'exploitation
des données dans un monde de plus en plus numérique et axé sur les données.
Bibliographie et nétographie

Vous aimerez peut-être aussi