0% ont trouvé ce document utile (0 vote)
69 vues70 pages

Projet de Fin D'études

Ce projet de fin d'études, réalisé par Adam Khammassi à l'Université de Jendouba, se concentre sur l'optimisation de la rentabilité des ventes en ligne à travers une solution de Business Intelligence pour la prise de décision stratégique. Le document présente une analyse détaillée de l'organisation d'accueil, de la problématique rencontrée, ainsi que des solutions proposées et des étapes de mise en œuvre. Il inclut également des remerciements aux encadrants et aux proches qui ont soutenu l'auteur tout au long de ce parcours académique.

Transféré par

Menatoullah nemri
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
69 vues70 pages

Projet de Fin D'études

Ce projet de fin d'études, réalisé par Adam Khammassi à l'Université de Jendouba, se concentre sur l'optimisation de la rentabilité des ventes en ligne à travers une solution de Business Intelligence pour la prise de décision stratégique. Le document présente une analyse détaillée de l'organisation d'accueil, de la problématique rencontrée, ainsi que des solutions proposées et des étapes de mise en œuvre. Il inclut également des remerciements aux encadrants et aux proches qui ont soutenu l'auteur tout au long de ce parcours académique.

Transféré par

Menatoullah nemri
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

République Tunisienne

Ministère de l’Enseignement Supérieur et de la Recherche Scientifique


Université de Jendouba

Projet de fin d’études


Pour l’obtention du Diplôme de Licence Fondamentale en Informatique de
Gestion (E-business)

Optimisation de la Rentabilité des Ventes en Ligne : Un Projet


BI pour la Prise de Décision Stratégique

Réalisé par
Adam Khammassi
Au sein de la poste tunisienne

Encadrant pédagogique Encadrant professionnel


Dr. Neila Rjaibi Mr. Abdelmajid Abbes

Année Universitaire
2023-2024
Remerciements

Avec une profonde gratitude, je rends grâce à Allah, le Tout Miséricordieux et le Plus Com-
patissant, dont la lumière a éclairé chaque étape de ce projet de fin d’études. Je saisis cette
occasion pour exprimer ma reconnaissance envers tous ceux qui ont contribué à la concréti-
sation de cet effort collectif.

Je souhaite exprimer ma gratitude particulière à mes encadrants estimés, dont les conseils
éclairés, la confiance indéfectible et le soutien constant ont été d’une valeur inestimable pour
la réussite de ce projet. Dr. Neila Rjeibi, votre expertise et votre engagement ont été une
source d’inspiration tout au long de ce parcours.

À mes chers parents, je suis profondément reconnaissant pour votre soutien indéfectible,
vos encouragements constants et votre amour inconditionnel qui m’ont soutenu dans les mo-
ments difficiles et m’ont encouragé à donner le meilleur de moi-même.

À mes chers amis, je tiens à exprimer ma gratitude pour votre soutien inconditionnel,
votre présence constante et vos encouragements tout au long de ce parcours académique.
Vos mots d’encouragement et votre amitié ont été une source de réconfort et de motivation
dans les moments de doute et de fatigue. Merci d’avoir été là pour partager cette aventure
avec moi et d’avoir enrichi ma vie de moments précieux et de souvenirs inoubliables. Votre
amitié restera gravée dans mon cœur alors que nous continuons à avancer dans nos chemins
respectifs.

Enfin, je tiens à exprimer mes sincères remerciements à tous les membres respectés du
jury pour leur évaluation bienveillante de mon travail. Leurs commentaires constructifs ont
contribué à enrichir ce projet et à le rendre plus solide.

En conclusion, je suis reconnaissant envers toutes les personnes qui ont contribué à cette
entreprise, et je suis impatient de continuer à apprendre, à grandir et à contribuer à la société
avec la même passion et le même dévouement.

Adam Khammassi

1
Table des matières

Remerciements 1

Table des figures vi

Introduction générale 1

1 CADRE GÉNÉRAL DU PROJET 2


1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Présentation de l’organisation d’accueil . . . . . . . . . . . . . . . . . . . . . 2
1.3 Description générale du projet . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3.1 Cadre général du projet . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3.2 Étude de l’existant et Problématique . . . . . . . . . . . . . . . . . . 3
1.3.3 Solution proposée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.4 environnement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.5 Planification du Projet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.6 Spécification des besoins . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.6.1 Besoins fonctionnels . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.6.2 Besoins non fonctionnels . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.7 Etude fonctionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.7.1 Collecte des Données . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.7.2 Gestion des données . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.7.3 Analyse et Modélisation . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.7.4 Création de Tableaux de Bord et de Rapports . . . . . . . . . . . . . 9
1.7.5 Évaluation et Validation . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.8 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

2 PRÉTRAITEMENT DES DONNÉES ET MODÉLISATION 10


2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.2 Prétraitement des données . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.2.1 Procéssus ETL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.2.2 Extraction des données . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.3 Modélisation des données . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.3.1 Importer des données dans Power BI . . . . . . . . . . . . . . . . . . 14
2.3.2 Présentation des Tables . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

ii
3 Implémentation de la solution BI 23
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.2 Principaux indicateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.3 Types de Graphiques Utilisés dans les tableaux de bord . . . . . . . . . . . 34
3.4 tableaux de bord . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

4 Analyse Prédictive 45
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.2 Bibliothèque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.3 Prédiction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.4 Les interface de prediction . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56

iii
Table des figures

1.1 Le logo de la POSTE TUNISIENNE . . . . . . . . . . . . . . . . . . . . . . 2


1.2 Logo Power BI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 Logo de Python . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4 Logo jupyter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.5 Logo Visual Studio Code . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.6 Diagramme de Gantt pour la planification du projet . . . . . . . . . . . . . 6
1.7 Plan de répartition des tâches . . . . . . . . . . . . . . . . . . . . . . . . . . 8

2.1 Processus ETL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11


2.2 Logo pandas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.3 Chargement des données . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.4 Lire toutes les feuilles dans un dictionnaire de cadres de données et leur ap-
pliquer des commandes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.5 Supprimer les doublons et traiter les valeurs manquantes . . . . . . . . . . . 12
2.6 Convertir la colonne "date" en "datetime". . . . . . . . . . . . . . . . . . . . 12
2.7 Enregistrer les données modifiées dans Excel. . . . . . . . . . . . . . . . . . . 13
2.8 Importation des données dans Power Bi étape 1 . . . . . . . . . . . . . . . . 14
2.9 Importation des données dans Power Bi étape 2 . . . . . . . . . . . . . . . . 14
2.10 Importation des données dans Power Bi étape 3 . . . . . . . . . . . . . . . . 15
2.11 Data warehouse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.12 Table article . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.13 Table fournisseur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.14 Table client . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.15 Table panier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.16 Table détail du panier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.17 Table commande . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.18 Table détail commande . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.19 Table Livraison . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.20 Table paiement client . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.21 Table paiement fournisseur . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.22 Table secteur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

3.1 Lire le fichier Excel dans Pandas DataFrames . . . . . . . . . . . . . . . . . 23


3.2 Analyse des Ventes par Filtrage des Commandes et Calcul du Chiffre d’Affaires
Global . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

iv
3.3 Génération d’un Nouveau DataFrame et Intégration dans une Feuille Excel . 24
3.4 Exécution d’une jointure de table . . . . . . . . . . . . . . . . . . . . . . . . 25
3.5 Réalisation de calculs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.6 Génération d’un Nouveau DataFrame et Intégration dans une Feuille Excel . 25
3.7 Exécution d’une jointure(1) entre les tables ’Détail-commande’ et’Article’ . . 26
3.8 Effectuer des Calculs et Fusionner les DataFrames . . . . . . . . . . . . . . . 26
3.9 calcul de la rentabilité pour chaque produit et Génération d’un Nouveau Da-
taFrame et Intégration dans une Feuille Excel . . . . . . . . . . . . . . . . . 26
3.10 Exécution d’une jointure(2) entre les tables ’Commande’ et ’Livraison’ . . . 27
3.11 Déduire le canal de vente à partir de l’adresse de livraison . . . . . . . . . . 27
3.12 Effectuer des Calculs et Fusionner les DataFrames 1 . . . . . . . . . . . . . . 27
3.13 Calcul du Profit pour Chaque Canal de Vente . . . . . . . . . . . . . . . . . 27
3.14 Ajout du DataFrame de rentabilité par canal de vente au fichier Excel existant 28
3.15 Calcul de la Valeur de Vie Client et Génération d’un Nouveau DataFrame et
Intégration dans une Feuille Excel . . . . . . . . . . . . . . . . . . . . . . . . 28
3.16 Calcul de la Valeur de Vie fournisseur et Génération d’un Nouveau DataFrame
et Intégration dans une Feuille Excel . . . . . . . . . . . . . . . . . . . . . . 29
3.17 Calcul du Taux de Rétention Client . . . . . . . . . . . . . . . . . . . . . . . 30
3.18 Calcul du Taux de Conversion des Fournisseur . . . . . . . . . . . . . . . . . 30
3.19 Techniques de manipulation des données . . . . . . . . . . . . . . . . . . . . 31
3.20 Analyse de la Rentabilité des Ventes en Ligne . . . . . . . . . . . . . . . . . 31
3.21 Analyse des Ventes par Produit . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.22 Évaluation de l’Impact des Stratégies de Tarification . . . . . . . . . . . . . 33
3.23 Exécution d’une jointure . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.24 Analyse des Ventes par Fournisseur . . . . . . . . . . . . . . . . . . . . . . . 34
3.25 Analyse du Chiffre d’Affaires Annuel . . . . . . . . . . . . . . . . . . . . . . 35
3.26 Analyse de la Marge Bénéficiaire . . . . . . . . . . . . . . . . . . . . . . . . 36
3.27 Analyse de Rentabilité des Produits . . . . . . . . . . . . . . . . . . . . . . . 37
3.28 Analyse de la Rentabilité des Produits et des Relations Client-Fournisseur . 38
3.29 Analyse du Taux de Rétention Client . . . . . . . . . . . . . . . . . . . . . . 38
3.30 Analyse du Taux de Conversion des Fournisseurs . . . . . . . . . . . . . . . 39
3.31 Analyse de la Performance des Fournisseurs . . . . . . . . . . . . . . . . . . 40
3.32 Analyse de la Rentabilité des Produits . . . . . . . . . . . . . . . . . . . . . 41
3.33 Analyse de la Rentabilité par meilleur stratégie . . . . . . . . . . . . . . . . 42
3.34 Analyse de la Rentabilité Globale . . . . . . . . . . . . . . . . . . . . . . . . 43
3.35 Analyse de la Rentabilité par canal de vente . . . . . . . . . . . . . . . . . . 44

4.1 Logo Scikit-learn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45


4.2 Logo matplotlib . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.3 Chargement des données . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.4 Clustering K-Means sur les données de vente . . . . . . . . . . . . . . . . . . 47
4.5 Affichage des centres de cluster . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.6 Analyse des clusters après l’entraînement du modèle KMeans . . . . . . . . . 48
4.7 Attribution de clusters et affichage initial du DataFrame . . . . . . . . . . . 48
4.8 Visualisation de la répartition des clusters . . . . . . . . . . . . . . . . . . . 49
4.9 Segmentation des clients basée sur la valeur à vie (CLV) . . . . . . . . . . . 49
4.10 Segmentation des clients basée sur le taux de fidélisation . . . . . . . . . . . 50

v
4.11 Segmentation de la marge bénéficiaire des produits . . . . . . . . . . . . . . 51
4.12 Segmentation de la rentabilité des produits . . . . . . . . . . . . . . . . . . . 52
4.13 Visualisation des clusters de données pour la prise de décisions . . . . . . . . 53
4.14 Répartition des produits en fonction de l’indice CLV . . . . . . . . . . . . . 54
4.15 Analyse de segmentation des données basée sur le taux de fidélisation des clients 54
4.16 Analyse de segmentation de la marge bénéficiaire par clusters . . . . . . . . 55
4.17 Analyse de segmentation des transactions par montant total . . . . . . . . . 55
4.18 Analyse de segmentation des commissions par cluster . . . . . . . . . . . . . 56
4.19 Analyse de segmentation des profits par cluster . . . . . . . . . . . . . . . . 56

vi
Introduction générale

Dans le domaine extrêmement compétitif des entreprises modernes, l’accès à des infor-
mations fiables est la clé de la survie et de la prospérité. La prolifération des technologies de
pointe a entraîné un déluge de données sans précédent, soulignant l’importance cruciale pour
les entreprises de suivre et d’analyser efficacement leurs opérations. L’alignement continu des
plans sur la réalité sert de boussole, identifiant les domaines susceptibles d’être améliorés et
facilitant une prise de décision rapide et éclairée. Naviguer dans le paysage en ligne pose de
formidables défis aux entreprises, assombrissant souvent les perspectives de rentabilité. Notre
projet de fin d’études BI vise à éclairer la voie pour les entreprises de commerce électronique.
En tirant parti de la richesse des données disponibles, nous nous efforçons de fournir aux
managers des informations permettant d’optimiser leurs stratégies de vente en ligne. Grâce
à l’utilisation habile des outils de Business Intelligence (BI), nous visons à métamorphoser
les données brutes en intelligence exploitable, guidant les décisions managériales avec préci-
sion.Forts de cette intelligence, les gestionnaires peuvent discerner des pistes d’amélioration,
qu’il s’agisse de rectifier des secteurs sous-performants ou de discerner de nouveaux pro-
duits ou services à offrir à la clientèle. De plus, armés de données précises en temps réel, ils
peuvent tracer la voie de leur entreprise en toute confiance, en optimisant les opérations et
en augmentant les taux de conversion et les marges bénéficiaires. Pourtant, notre mission
transcende les simples chiffres et graphiques ; il s’agit de responsabiliser les individus. En
fournissant aux gestionnaires des informations pertinentes et opportunes, nous leur donnons
les moyens de naviguer dans les complexités du commerce en ligne, de cultiver la satisfaction
des clients et, en fin de compte, d’augmenter les revenus et la rentabilité.Essentiellement,
notre projet de fin d’études BI aspire à transformer les données en un formidable atout,
dotant les managers des outils et des informations essentielles pour conquérir le domaine
numérique et atteindre un succès durable.

1
Chapitre 1
CADRE GÉNÉRAL DU PROJET

1.1 Introduction
Dans ce premier chapitre, nous démarrons en vous présentant l’organisation qui nous
accueille, en expliquant ses bases et les problèmes à résoudre avec notre solution. Ensuite,
on vous montre la manière dont nous travaillons et l’endroit où se déroule notre projet. Puis,
on passe à la planification de notre projet, en définissant ce qu’on va faire, qui est impliqué
et ce sur quoi on va se concentrer. Ensuite, on explique ce que notre projet doit pouvoir faire
et on vous montre les outils qu’on va utiliser pour réussir.

1.2 Présentation de l’organisation d’accueil


• Identité
La POSTE TUNISIENNE, dénomination commerciale de l’Office national des Postes
tunisiennes, est l’entreprise publique tunisienne de service postal. Depuis le 1er janvier 1999,
à la suite du retrait des activités de téléphonie, la Poste tunisienne est un établissement
à caractère industriel et commercial centré sur deux activités principales : la collecte, le
transport et la distribution de courrier, ainsi que l’exploitation et la fourniture de services
financiers ainsi que des services divers : traditionnels telles que la production et la vente de
timbres et nouveaux tels qu’un ensemble de services informatiques.[16]

Figure 1.1 – Le logo de la POSTE TUNISIENNE

2
1.3 Description générale du projet
1.3.1 Cadre général du projet
Ce projet sert d’expérience terminale pour le diplôme de licence fondamentale en informa-
tique de gestion à la Faculté des Sciences Juridiques Économiques et de Gestion de Jendouba
. Notre projet est exécuté par la poste tunisienne . Grâce à ce stage, nous souhaitons ex-
ploiter la puissance des données disponibles afin de fournir au gestionnaire des informations
exploitables pour optimiser la rentabilité des ventes en ligne.

1.3.2 Étude de l’existant et Problématique


Lors de la première phase de notre évaluation, nous avons réalisé une analyse détaillée
des processus de vente en ligne afin d’identifier les points d’amélioration potentiels.

Nous avons évalué des systèmes transactionnels pour la sécurité , une collaboration opti-
male et une satisfaction mutuelle avec les fournisseurs. Notre objectif est de mettre en place
un processus de vente en ligne fluide, efficace et performant, garantissant une satisfaction
client optimale.

En effet, notre analyse a permis d’identifier les points d’amélioration du processus de vente
en ligne et de proposer des solutions concrètes pour le rendre plus efficient et plus convivial.
En outre, nous avons évalué la sécurité des systèmes de gestion des transactions et des paie-
ments afin de détecter les risques potentiels tels que les violations de données, les pertes
financières ou les atteintes à la réputation.

Par conséquent, en évaluant l’état actuel des opérations de la poste tunisienne, plusieurs
domaines clés nécessitent une attention et une analyse :
• Quelles sont les options stratégiques pour la Poste tunisienne : ajustement des prix ou
réduction des coûts pour une meilleure rentabilité ?
• Quelles sont les meilleures pratiques pour la Poste tunisienne pour affiner son analyse
de la rentabilité des produits et optimiser l’allocation des ressources ?
• Quelles sont les stratégies de vente en ligne les plus efficaces pour la Poste tunisienne
afin de rester compétitive sur le marché numérique en constante évolution ?
• Quelle stratégie la Poste tunisienne peut-elle adopter pour développer son offre de
services numériques et répondre aux besoins en constante évolution de ses clients ?
• Quelles sont les actions prioritaires que la Poste tunisienne peut entreprendre pour
maximiser son potentiel de croissance dans le domaine des services numériques ?
• Quelles actions stratégiques la Poste tunisienne peut-elle mettre en œuvre pour renfor-
cer la fidélisation client et cultiver une loyauté durable ?

3
1.3.3 Solution proposée
Nous exploiterons les données existantes pour fournir les informations nécessaires à la
prise de décisions stratégiques et à l’identification des opportunités d’amélioration.Ce projet
vise à dynamiser les ventes en ligne, en permettant à l’organisation de disposer d’informations
fondées sur des données afin d’optimiser les taux de conversion et les marges bénéficiaires.

La Business Intelligence (BI) : est un processus technologique d’analyse des données


et de fourniture d’informations exploitables qui aide les dirigeants, les gestionnaires et les
travailleurs à prendre des décisions éclairées. Dans le cadre du processus de BI, les orga-
nisations collectent des données à partir de systèmes informatiques internes et de sources
externes, les préparent pour l’analyse, exécutent des requêtes sur les données et créent des
visualisations de données, des tableaux de bord de BI et des rapports pour mettre les ré-
sultats de l’analyse à la disposition des utilisateurs professionnels pour la prise de décision
opérationnelle et la planification stratégique.
L’objectif ultime des initiatives de BI est de conduire à de meilleures décisions qui per-
mettent aux organisations d’augmenter leur chiffre d’affaires, d’améliorer leur efficacité opéra-
tionnelle et d’acquérir des avantages concurrentiels par rapport à leurs rivaux. Pour atteindre
cet objectif, la BI intègre une combinaison d’outils d’analyse, de gestion des données et de
reporting, ainsi que diverses méthodologies de gestion et d’analyse des données.[15]

1.4 environnement
• Power BI Desktop

Figure 1.2 – Logo Power BI

est une solution d’analyse de données de Microsoft. Il permet de créer des visualisations
de données personnalisées et interactives avec une interface suffisamment simple pour
que les utilisateurs finaux créent leurs propres rapports et tableaux de bord. Power BI
est un ensemble de services logiciels, d’applications et de connecteurs qui fonctionnent
ensemble pour transformer différentes sources de données en informations visuelles,
immersives et interactives. Plusieurs sources de données peuvent être utilisées telles
que des fichiers Excel, des sources SQL, ou des entrepôts de données hybrides locaux
ou sur le cloud.[1]

4
• Python

Figure 1.3 – Logo de Python

Python est le langage de programmation open source le plus employé par les informa-
ticiens. Ce langage s’est propulsé en tête de la gestion d’infrastructure, d’analyse de
données ou dans le domaine du développement de logiciels. En effet, parmi ses qua-
lités, Python permet notamment aux développeurs de se concentrer sur ce qu’ils font
plutôt que sur la manière dont ils le font. Il a libéré les développeurs des contraintes de
formes qui occupaient leur temps avec les langages plus anciens. Ainsi, développer du
code avec Python est plus rapide qu’avec d’autres langages. Par conséquent, la com-
binaison de la clarté, de la puissance et de l’adaptabilité de Python en fait un outil
précieux pour les programmeurs de tous niveaux d’expérience, adapté à divers projets
allant de l’analyse de données et du développement web à l’écriture de scripts et aux
tâches d’automatisation.[2]

Figure 1.4 – Logo jupyter

• Jupyter
Jupyter est une application web utilisée pour programmer dans plus de 40 langages de
programmation, dont Python, Julia, Ruby, R, ou encore Scala2. C’est un projet com-
munautaire dont l’objectif est de développer des logiciels libres, des formats ouverts et
des services pour l’informatique interactive. Jupyter est une évolution du projet IPy-
thon. Jupyter permet de réaliser des calepins ou notebooks, c’est-à-dire des programmes
contenant à la fois du texte, simple ou enrichi typographiquement et sémantiquement
grâce au langage à balises simplifié Markdown, et du code, lignes sources et résultats
d’exécution. Ces calepins sont notamment utilisés en science des données pour explorer
et analyser des données.[3]

5
Figure 1.5 – Logo Visual Studio Code

• Visual Studio Code : Visual Studio Code est un éditeur de code extensible développé
par Microsoft pour Windows, Linux et macOS3. Les fonctionnalités incluent la prise
en charge du débogage, la mise en évidence de la syntaxe, la complétion intelligente
du code (IntelliSense4.), les snippets, la refactorisation du code et Git intégré. Les
utilisateurs peuvent modifier le thème, les raccourcis clavier, les préférences et installer
des extensions qui ajoutent des fonctionnalités supplémentaires.[4]

1.5 Planification du Projet


Afin de bien organiser et planifier les tâches à mener pour réussir le projet pendant
une période bien définie au préalable, nous avons présenté à travers le diagramme de
Gantt la totalité des missions et leurs temps d’exécution :

(a) Tâches réalisées (b) Diagramme de Gantt

Figure 1.6 – Diagramme de Gantt pour la planification du projet

6
1.6 Spécification des besoins
Cette section est entièrement consacrée à une analyse approfondie des différents acteurs
impliqués dans notre projet, en mettant en lumière leurs rôles, leurs besoins et leurs
attentes. Nous examinons en détail les exigences fonctionnelles et non fonctionnelles de
notre solution, en nous assurant de prendre en compte tous les aspects essentiels pour
répondre de manière efficace et adaptée aux besoins de nos utilisateurs. Nous explorons
les fonctionnalités spécifiques attendues de notre solution, telles que ses capacités opé-
rationnelles, ses performances et sa convivialité, tout en gardant à l’esprit les critères
non fonctionnels tels que la sécurité, la scalabilité et la maintenabilité. En élargissant
notre perspective pour inclure une analyse approfondie des parties prenantes et de
leurs exigences, nous nous assurons de concevoir une solution qui répond de manière
holistique aux besoins de notre environnement opérationnel.

1.6.1 Besoins fonctionnels


Les besoins fonctionnels Décrit les actions que le système doit exécuter .
Le système n’est fonctionnel que s’il répond aux exigences fonctionnelles.
L’objectif du projet serait d’utiliser les données disponibles pour fournir au responsable
les informations nécessaires pour optimiser la rentabilité de son activité de vente en
ligne, en identifiant les opportunités d’amélioration et en prenant des décisions straté-
giques basées sur des données fiables et pertinentes.
notre solution proposée se concentrera sur les fonctionnalités suivantes :
• Analyse des processus actuels de vente en ligne, de la collecte des paiements et de
la livraison des produits.
• Évaluation des outils et des systèmes utilisés pour la gestion des transactions et
des paiements.
• Identification des besoins des fournisseurs en termes de suivi des ventes et de
paiements.

1.6.2 Besoins non fonctionnels


Les besoins non fonctionnels Explicitent tous les Limitations Sous lesquelles le système
doit fonctionner Pour être mis en œuvre et fonctionner correctement . Elles spécifient
les attributs essentiels que le système doit posséder tels que :
• Identification des points faibles et des inefficacités dans les processus actuels.
• Analyse des lacunes dans la gestion des ventes, des paiements et de la logistique
de livraison.
• Évaluation des risques potentiels liés à la gestion des transactions et des paiements.

7
Figure 1.7 – Plan de répartition des tâches

1.7 Etude fonctionnelle


1.7.1 Collecte des Données
• Identifier les sources de données disponibles, y compris les ventes en ligne, les
commissions de la Poste, les données logistiques.
• Mettre en place des processus pour collecter et intégrer ces données dans une base
de données centralisée.

1.7.2 Gestion des données


• Regrouper les données dans une seule base est très important pour bien analyser.
Ça aide à mieux gérer les données et à les trouver facilement. Ça assure aussi
que les données sont toutes pareilles, sans redites et dans le même format, ce qui
permet de faire des analyses précises et complètes. Une base de données comme
ça offre un bon endroit pour travailler avec les données. On peut poser des ques-
tions difficiles et trouver des réponses utiles pour prendre de bonnes décisions. En
résumé, mettre les données ensemble dans une seule base est très important pour
que nos analyses soient fiables et utiles.

1.7.3 Analyse et Modélisation


• Utiliser des outils d’analyse statistique et des techniques de modélisation pour
analyser les données et identifier les tendances, les corrélations et les opportunités
d’optimisation.
• Concevoir des modèles prédictifs pour prévoir la demande future et estimer la
rentabilité potentielle.

8
1.7.4 Création de Tableaux de Bord et de Rapports
• Concevoir et développer des tableaux de bord interactifs et des rapports person-
nalisés pour présenter les résultats de l’analyse de manière claire et visuelle.
• Incorporer des fonctionnalités d’exploration de données pour permettre aux utili-
sateurs d’interagir avec les données et d’explorer les tendances par eux-mêmes.

1.7.5 Évaluation et Validation


• Évaluer la qualité des résultats obtenus en comparant les prévisions avec les don-
nées réelles.
• Solliciter les commentaires des parties prenantes pour valider les résultats et iden-
tifier les domaines d’amélioration potentiels.

1.8 Conclusion
Ce chapitre a posé les fondements de notre projet en introduisant l’organisation avec
laquelle nous collaborons et ses objectifs. Nous avons également exposé notre approche
de gestion de projet et décrit l’environnement technologique qui y est lié. Forts de ce
contexte, nous sommes à présent prêts à nous atteler aux phases clés de la planification
de notre travail, en définissant précisément les objectifs du projet. Ces étapes fonda-
mentales, détaillées dans le prochain chapitre, seront la pierre angulaire d’une mise en
œuvre réussie de notre solution. De plus, dans ce chapitre, nous avons établi les spé-
cifications fonctionnelles et non fonctionnelles de notre projet. Nous avons également
entamé la conception détaillée, visant à décrire de manière exhaustive les structures de
données nécessaires à notre solution.

9
Chapitre 2
PRÉTRAITEMENT DES
DONNÉES ET MODÉLISATION

2.1 Introduction
Après avoir identifié et clarifié les besoins essentiels de notre solution, la transformation
des données revêt une importance capitale, où la préparation et la modélisation des
données jouent un rôle essentiel. Le prétraitement vise à raffiner les données brutes
en les nettoyant, les transformant et les organisant en vue de leur analyse ultérieure.
Par la suite, la modélisation utilise des algorithmes pour identifier des schémas et des
corrélations au sein de ces données préalablement préparées.

2.2 Prétraitement des données


2.2.1 Procéssus ETL
Les termes « Extract, Transform, Load (ETL) » désignent une séquence d’opérations
portant sur les données : collecte à partir d’un nombre illimité de sources, structuration,
centralisation dans un référentiel unique.
ETL est le processus qui consiste à rendre ces données disponibles en les collectant
auprès de sources multiples (cf. schéma ci-dessus) et en les soumettant à des opérations
de nettoyage, de transformation et, au final, d’analytique métier.[14]

10
Figure 2.1 – Processus ETL

2.2.2 Extraction des données


• Bibliothéque

Figure 2.2 – Logo pandas

Pandas constitue une bibliothèque logicielle open source, développée en Python.


Elle simplifie la manipulation et l’analyse des données en proposant des struc-
tures de données avancées ainsi que des opérations dédiées à la manipulation de
tableaux numériques et de séries temporelles. Cela en fait un outil essentiel pour
des opérations telles que la purification, la conversion et l’investigation de données.
• Chargement des données

Figure 2.3 – Chargement des données

Pour importer des données avec Pandas, nous utilisons la méthode


pandas.read_excel() dans le Jupyter Notebook pour charger le fichier Excel, en
spécifiant le chemin d’accès au fichier en tant qu’argument de cette méthode.

11
• Transformation des données
La transformation des données revêt une importance cruciale pour extraire des
informations précieuses, car elle implique le nettoyage, la normalisation et la réor-
ganisation des données brutes en vue de l’analyse et de la modélisation. Cela com-
prend notamment le traitement des valeurs manquantes et la création de nouvelles
caractéristiques. Diverses techniques telles que la réduction de la dimensionnalité
et le prétraitement du texte peuvent être appliquées en fonction de la nature des
données.

Figure 2.4 – Lire toutes les feuilles dans un dictionnaire de cadres de données et leur
appliquer des commandes

Tout d’abord, nous importons les données de notre fichier Excel contenant plu-
sieurs feuilles nommé "feuille office nationale.xlsx". Nous stockons les données de
chaque feuille dans un dictionnaire de DataFrames. Ensuite, nous itérons sur les
données de chaque feuille pour appliquer des commandes ou des opérations en
fonction des besoins (voir la figure ci-dessus).

Figure 2.5 – Supprimer les doublons et traiter les valeurs manquantes

Ensuite, nous vérifions si le DataFrame contient une colonne nommée "date". Si


c’est le cas, nous convertissons les valeurs de cette colonne en objets datetime en
utilisant le format de date spécifié.

Figure 2.6 – Convertir la colonne "date" en "datetime".

• Importation des données


Le processus d’ETL se conclut par le chargement des données, durant lequel les
données préalablement préparées sont intégrées à leur destination finale, prêtes à
être analysées et exploitées par l’entreprise. Cette phase assure la disponibilité de
données fiables et accessibles, essentielles pour obtenir des informations précieuses.

12
Figure 2.7 – Enregistrer les données modifiées dans Excel.

Gestion des Données Modifiées


Sauvegarde dans le Dictionnaire : Après traitement et modification des données,
le code met à jour le dictionnaire des feuilles avec les DataFrames modifiées. Chaque
clé du dictionnaire représente un nom de feuille, et la valeur correspond au DataFrame
contenant les données modifiées.
Exportation vers Excel : Ensuite, les DataFrames modifiés sont écrits dans un
fichier Excel, qui sert de destination de stockage finale. Cette opération utilise le ges-
tionnaire de contexte pd.ExcelWriter(), en spécifiant le chemin du fichier Excel de
sortie. À l’intérieur du gestionnaire de contexte, une boucle itère sur chaque paire clé-
valeur du dictionnaire de feuilles. Pour chaque nom de feuille et son DataFrame modifié
correspondant, la méthode to_excel() est appelée pour écrire le DataFrame dans le
fichier Excel. En spécifiant index=False, l’index du DataFrame est exclu de la sortie,
garantissant une représentation plus propre dans le fichier Excel.

2.3 Modélisation des données


Dans le domaine de la Business Intelligence, il est essentiel d’avoir une modélisation
appropriée des données. Cette approche est cruciale car l’utilisation directe des sources
de données pose des défis en termes de performance opérationnelle et de qualité de
service. Les modèles standardisés peuvent souvent ne pas répondre aux besoins évo-
lutifs, entraînant des temps de réponse des requêtes plus longs. La modélisation des
données vise à représenter les données de manière uniforme et intuitive, facilitant ainsi
des accès rapides et performants. Elle implique de considérer le sujet analysé comme un
point dans un espace multidimensionnel, organisant les données de manière à mettre
en évidence les relations et les structures essentielles.

13
2.3.1 Importer des données dans Power BI

Figure 2.8 – Importation des données dans Power Bi étape 1

Figure 2.9 – Importation des données dans Power Bi étape 2

14
Figure 2.10 – Importation des données dans Power Bi étape 3

Figure 2.11 – Data warehouse

2.3.2 Présentation des Tables


Une base de données bien élaborée suit le principe de la normalisation des données,
où chaque table représente un domaine spécifique. Au sein d’une table, les données
sont structurées en lignes (enregistrements) et en colonnes (champs). Chaque champ
est associé à un type de données spécifique, tel que du texte, des nombres ou des dates,
afin d’assurer l’intégrité des données. Dans cette section, nous fournirons un aperçu de
tous les tableaux de notre base de données.

15
Figure 2.12 – Table article

La table "article" contient des informations sur les articles vendus au poste :
• Code article (clé primaire) : Identifiant unique pour chaque article.
• code fournisseur : Identifiant du fournisseur de l’article.
• Commission : Taux de commission pour la vente de l’article.
• Label : Nom descriptif de l’article.
• Prix de vente : Prix de l’article en dinar tunisien.

Figure 2.13 – Table fournisseur

La table "Fournisseur" renferme des renseignements sur les fournisseurs affiliés au poste :
• Code fournisseur (Clé primaire) : Identifiant unique pour chaque fournisseur.
• Date de début : Date de début du contrat ou de la relation avec le fournisseur.
• Date de fin : Date de fin du contrat ou de la relation avec le fournisseur.
• Label : Dénomination descriptive du fournisseur.

16
• Numéro de compte bancaire : Numéro de compte lié au Compte bancaire du
fournisseur.

Figure 2.14 – Table client

La table "Client" comporte des données concernant les individus interagissant avec le
poste :
• Code client (Clé primaire) : Identifiant unique attribué à chaque client.
• Label : Appellation liée au client.
• Adresse : Localisation physique de résidence du client.
• Email : Adresse électronique du client utilisée pour la communication.
• Tel : Numéro téléphonique du client pour les communications.
• Secteur : Secteur dans lequel le client opère ou auquel il appartient.
• Id-secteur : Identifiant associé au secteur.

17
Figure 2.15 – Table panier

La table "panier" enregistre les informations relatives aux panier créés lors des opéra-
tions effectuées au poste :
• numéro panier (Clé primaire) : Identifiant unique pour chaque panier.
• commission : Commission associée à la transaction ou au panier.
• code client : Identifiant du client associé au panier.
• date : Date de la transaction ou de la création du panier.
• mode de paiement : Méthode utilisée pour le paiement, telle que les espèces, la
carte de crédit et le virement bancaire.
• montant total : Montant total de la transaction en dinars tunisiens.

Figure 2.16 – Table détail du panier

La table"Détails du panier" fournit des informations détaillées sur les articles de chaque
panier :
• numéro panier (clé étrangère) : Identifiant reliant la fiche détaillée du panier à
un panier spécifique dans la table "panier".

18
• code article (clé étrangère) : Identifiant reliant la fiche détaillée du panier à un
article spécifique dans la table "article".
• quantité : La quantité de l’article inclus dans le panier.

Figure 2.17 – Table commande

La table "Commande" enregistre les détails des commandes passées par les clients :
• id ordre (clé primaire) : Identifiant unique pour chaque commande.
• code client (clé étrangère) : Identifiant liant la commande à un client spécifique
dans la table "client".
• adresse de livraison : Adresse à laquelle la commande sera livrée.
• mode de paiement : Méthode utilisée pour le paiement, telle que les espèces, la
carte de crédit et le virement bancaire.
• montant total : Montant total de la commande en dinars tunisiens.

Figure 2.18 – Table détail commande

Le tableau "Détail de la commande" fournit des informations détaillées sur les articles
de chaque commande :

19
• id ordre (clé étrangère) : Identifiant reliant la fiche descriptive de la commande
à une commande spécifique dans la table "Order".
• code article (clé étrangère) : Identifiant reliant la fiche descriptive de la com-
mande à un article spécifique dans la table "article".
• quantité : La quantité d’articles inclus dans la commande.

Figure 2.19 – Table Livraison

La table "Livraison" contient des informations relatives aux livraisons des commandes :
• Id de livraison (clé primaire) : Identifiant unique pour chaque livraison.
• id ordre (clé étrangère) : Identifiant reliant la livraison à une commande spéci-
fique dans la table "commande".
• date : Date de la livraison. état de la livraison : état de la livraison (en transit,
livrée).
• mode de paiement : Méthode utilisée pour le paiement de la livraison.
• Montant total : Montant total de la livraison en monnaie locale (TND).
• commission : Commission associée à la livraison

20
Figure 2.20 – Table paiement client

La table "Paiement client" enregistre les paiements effectués par les clients :
• id paiement(clé primaire ) : Identifiant unique pour chaque paiement.
• code client (clé étrangère) : Identifiant liant le paiement à un client spécifique
dans la table "client".
• montant : Montant du paiement en dinars tunisiens.
• date : Date du paiement.
• mode de paiement : Méthode utilisée pour le paiement (espèces et carte de
crédit).

Figure 2.21 – Table paiement fournisseur

La table "Paiement fournisseur" conserve les enregistrements des paiements effectués


aux fournisseurs :
• id paiement (clé primaire) : Identifiant unique pour chaque paiement.

21
• code fournisseur (clé étrangère) : Identifiant liant le paiement à un fournisseur
spécifique dans la table "Fournisseur".
• montant : Montant du paiement en dinars tunisiens. date : Date du paiement.
• mode de paiement : Mode de paiement utilisé (chèque et virement).

Figure 2.22 – Table secteur

La table"Secteur" sert de tableau de référence contenant des détails sur les différents
secteurs pertinents pour le poste.
• id secteur (clé primaire ) : Identifiant unique pour chaque secteur.
• label : Étiquette descriptive du secteur.

2.4 Conclusion
Après avoir examiné les étapes de prétraitement et de structuration des données, nous
avons compris leur importance essentielle dans la préparation des données pour l’ana-
lyse. En organisant et en nettoyant soigneusement les données, les entreprises peuvent
obtenir des informations pertinentes qui les aident à prendre des décisions éclairées. À
présent, nous allons aborder le sujet des tableaux de bord.

22
Chapitre 3
Implémentation de la solution BI

3.1 Introduction
L’étape de réalisation synthétise le travail accompli lors du chargement de notre en-
trepôt de données. Cette section s’appuie sur le modèle déjà généré, conformément au
cycle de vie dimensionnel de Ralph Kimball, illustré dans la Figure 1.2. Nous aborde-
rons ensuite la spécification et le développement de l’application utilisateur. Dans ce
chapitre, nous explorerons la phase de restitution de notre projet. Nous présenterons
l’ensemble de nos réalisations sous forme de tableaux de bord.

3.2 Principaux indicateurs


Les Indicateurs :
Pour analyser les paramètres essentiels, nous avons employé des méthodes de traitement
des données. Ces approches nous ont permis d’effectuer des calculs et de créer de
nouveaux DataFrames spécifiquement adaptés à la conception de tableaux de bord
informatifs.
• Chiffre d’affaires :

Figure 3.1 – Lire le fichier Excel dans Pandas DataFrames

Ce code charge des données à partir de différentes feuilles d’un fichier Excel nommé
’cleaned-data.xlsx’ dans des DataFrames distincts. Plus précisément :
orders-df : Contient les données relatives aux articles, provenant de la feuille ’Ar-
ticle’.

23
delivery-df : Contient les informations de livraison, extraites de la feuille ’Livrai-
son’.
supplier-payment-df : Regroupe les données concernant les paiements des fournis-
seurs, issues de la feuille ’Paiement-fournisseur’.

Figure 3.2 – Analyse des Ventes par Filtrage des Commandes et Calcul du Chiffre d’Affaires
Global

Ce code effectue une série d’opérations pour filtrer les données des articles en
fonction des informations de livraison, puis calcule le chiffre d’affaires total pour
une période spécifiée.

Figure 3.3 – Génération d’un Nouveau DataFrame et Intégration dans une Feuille Excel

Ce code crée un nouveau DataFrame contenant une analyse des données de chiffre
d’affaires pour une période spécifiée, puis l’ajoute à notre fichier excel .

24
• Marge bénéficiaire :

Figure 3.4 – Exécution d’une jointure de table

Ce code charge des données à partir de plusieurs feuilles du fichier Excel, puis
fusionne deux DataFrames pour obtenir des informations complètes sur les articles
dans les paniers.

Figure 3.5 – Réalisation de calculs

Ce code fusionne les données des paiements aux fournisseurs avec les informations
des articles pour obtenir les prix d’achat, puis calcule le coût des marchandises
vendues et la marge bénéficiaire pour chaque article dans les paniers.

Figure 3.6 – Génération d’un Nouveau DataFrame et Intégration dans une Feuille Excel

Ce code extrait les informations nécessaires pour analyser la marge bénéficiaire,


puis enregistre ces données dans le fichier excel .

25
• Rentabilité :

Figure 3.7 – Exécution d’une jointure(1) entre les tables ’Détail-commande’ et’Article’

Ce code fusionne les données des détails de commande avec les informations des
articles pour obtenir des prix de vente et des coûts associés.

Figure 3.8 – Effectuer des Calculs et Fusionner les DataFrames

Ce code vérifie la réussite d’une fusion précédente, fusionne avec des données
de livraison si nécessaire, puis calcule les ventes totales et les coûts totaux pour
chaque produit. Enfin, il fusionne ces résultats pour obtenir un DataFrame final
qui permet d’analyser la rentabilité des produits.

Figure 3.9 – calcul de la rentabilité pour chaque produit et Génération d’un Nouveau
DataFrame et Intégration dans une Feuille Excel

Ce code calcule le profit pour chaque produit en utilisant les données de ventes
totales et de coûts totaux, puis enregistre ces informations dans une nouvelle
feuille d’un fichier Excel existant.

26
• Rentabilité par canal de vente :

Figure 3.10 – Exécution d’une jointure(2) entre les tables ’Commande’ et ’Livraison’

Ce code fusionne les données de commandes avec les données de livraison pour
obtenir des informations complètes sur chaque commande, y compris le canal de
vente.

Figure 3.11 – Déduire le canal de vente à partir de l’adresse de livraison

Ce code infère le canal de vente à partir de l’adresse de livraison, en utilisant


une fonction personnalisée pour déterminer si une commande a été effectuée en
ligne ou en magasin. Le résultat est ajouté à une nouvelle colonne du DataFrame
fusionné.

Figure 3.12 – Effectuer des Calculs et Fusionner les DataFrames 1

Ce code calcule le chiffre d’affaires total et le coût total pour chaque canal de vente,
puis fusionne ces informations pour obtenir une vue d’ensemble de la rentabilité
par canal de vente.

Figure 3.13 – Calcul du Profit pour Chaque Canal de Vente

Ce code calcule le profit pour chaque canal de vente en soustrayant les coûts totaux
(commissions) des ventes totales (chiffre d’affaires) et ajoute cette information au
DataFrame

27
Figure 3.14 – Ajout du DataFrame de rentabilité par canal de vente au fichier Excel
existant

Ce code ajoute le DataFrame de rentabilité par canal de vente (profitability-


channel-df) à un fichier Excel existant, en créant une nouvelle feuille nommée
’Rentabilité-par-canal-de-vente’.
• Valeur de durée de vie client :

Figure 3.15 – Calcul de la Valeur de Vie Client et Génération d’un Nouveau DataFrame
et Intégration dans une Feuille Excel

Le code analyse les données de commandes pour estimer la valeur à vie des clients.
Il calcule le nombre total et moyen de commandes par client, puis estime la valeur
moyenne de commande et la fréquence d’achat. En utilisant ces informations, il
évalue la valeur à vie de chaque client. Les résultats sont enregistrés dans notre
fichier excel , permettant une meilleure compréhension de la valeur potentielle de
chaque client pour l’entreprise.

28
• Valeur de durée de vie Fournisseur :

Figure 3.16 – Calcul de la Valeur de Vie fournisseur et Génération d’un Nouveau Data-
Frame et Intégration dans une Feuille Excel

Le code calcule la valeur à vie des fournisseurs en se basant sur plusieurs métriques.
Il commence par déterminer la valeur totale des transactions par fournisseur, puis
calcule la valeur moyenne et la fréquence d’achat. En utilisant ces données, il
estime la durée de vie moyenne du fournisseur. Enfin, il multiplie ces valeurs pour
obtenir la valeur à vie du fournisseur (FRV). Les résultats sont stockés dans un
DataFrame et ajoutés à une feuille dans notre fichier Excel existant. Cela permet
d’évaluer la valeur potentielle de chaque fournisseur pour l’entreprise.

29
• Taux de rétention client :

Figure 3.17 – Calcul du Taux de Rétention Client

Le code compte le nombre de commandes effectuées par chaque client, puis iden-
tifie le nombre de clients ayant effectué des achats plus d’une fois pour évaluer la
fidélisation. En utilisant ces données, il calcule le taux de fidélisation des clients,
exprimé en pourcentage. Ces résultats sont stockés dans un DataFrame et ajoutés
à une feuille nommée ’Taux-rétention-clients’ dans notre fichier Excel existant.
Cela permet d’évaluer la fidélité des clients et de comprendre leur propension à
revenir pour effectuer des achats répétés.
• Taux de conversion des fournisseurs :

Figure 3.18 – Calcul du Taux de Conversion des Fournisseur

Le code compte le nombre total de fournisseurs uniques ayant reçu des paiements
et le nombre total de commandes passées pour évaluer le taux de conversion
des fournisseurs. Ces résultats sont ensuite ajoutés à une nouvelle feuille nommée
’Taux-conversion-fournisseur’ dans notre fichier Excel existant. Cela permet d’ana-
lyser la performance des fournisseurs en termes de conversion des commandes,

30
fournissant ainsi des informations cruciales sur la relation entre les fournisseurs
et les commandes passées.
• rentabilité des ventes en ligne :

Figure 3.19 – Techniques de manipulation des données

Le code fusionne les données de commande avec les détails de livraison pour
obtenir une vue intégrée des transactions. Ensuite, il filtre les ventes en ligne en
se basant sur des mots-clés spécifiques présents dans l’adresse de livraison tels
que "ligne", "site", ou "internet", ignorant la casse des caractères. Cela permet de
segmenter les ventes en fonction de leur canal de vente et d’identifier les ventes
effectuées en ligne.

Figure 3.20 – Analyse de la Rentabilité des Ventes en Ligne

Le code vérifie d’abord si des données sur les ventes en ligne sont disponibles. S’il
y a des données disponibles, il calcule ensuite le revenu total des ventes en ligne en
additionnant les montants totaux des ventes. Ensuite, il calcule les coûts totaux
associés aux ventes en ligne en tenant compte uniquement de la commission.
Enfin, il analyse la rentabilité des ventes en ligne en soustrayant les coûts totaux
du revenu total des ventes en ligne.

31
• les produits les plus rentables :

Figure 3.21 – Analyse des Ventes par Produit

Le code fusionne les données de commande avec les détails de commande pour
obtenir les détails du produit, puis fusionne ces données avec les informations sur
les articles pour enrichir les données avec les détails du produit. Ensuite, il calcule
le revenu total généré par chaque produit en regroupant les montants totaux des
ventes par code d’article. Enfin, il identifie les 10 produits les plus rentables en
sélectionnant les produits avec les revenus les plus élevés.

32
• Rentabilité par meilleur stratégie :

Figure 3.22 – Évaluation de l’Impact des Stratégies de Tarification

Le code fusionne les détails de la commande avec les informations sur les articles
pour obtenir une vue intégrée des produits. Ensuite, il calcule le revenu total gé-
néré par chaque produit en regroupant les prix de vente des produits par code
d’article. Il calcule également la commission totale générée par chaque produit en
regroupant les commissions par code d’article. Enfin, il calcule la rentabilité de
chaque produit en soustrayant la commission totale du revenu total pour chaque
produit. Ces résultats sont ensuite stockés dans un DataFrame avec d’autres infor-
mations telles que la meilleure stratégie de tarification, qui est définie ici comme
"actuelle".
• performance des fournisseurs

Figure 3.23 – Exécution d’une jointure

Le code fusionne les détails de la commande avec les informations sur les articles
pour obtenir une vue intégrée des produits, puis fusionne ces données avec les in-
formations sur les commandes pour obtenir les détails du fournisseur. Cela permet
d’avoir une vue complète des commandes incluant à la fois les détails des produits
et les détails des fournisseurs.

33
Figure 3.24 – Analyse des Ventes par Fournisseur

Le code calcule les indicateurs de performance des fournisseurs en regroupant les


données selon le code du fournisseur. Il calcule le revenu total et la commission
totale pour chaque fournisseur en utilisant la somme des montants totaux des
commandes et des commissions respectivement. Ensuite, il calcule la rentabilité
pour chaque fournisseur en soustrayant la commission totale du revenu total.
Cela permet d’évaluer la performance financière de chaque fournisseur en termes
de revenus générés par rapport aux commissions versées.

3.3 Types de Graphiques Utilisés dans les tableaux


de bord
• Graphiques en jauge : Un graphique en jauge radiale utilise un arc de cercle
pour afficher comment une seule valeur progresse vers un objectif ou un indicateur
de performance clé (KPI). La ligne (ou aiguille) de la jauge représente l’objectif
ou la valeur cible. L’ombrage représente la progression vers l’objectif[5]
• Grafique en secteurs et en anneau Les graphiques à secteurs et les graphiques
en anneau affichent des données sous la forme d’une proportion de la totalité dans
un rapport paginé. Les graphiques en secteurs sont utilisés le plus souvent pour
faire des comparaisons entre des groupes.[6]
• cartes à un seul numéro : Les cartes à un seul numéro montrent un seul fait, un
seul point de données. Vous pouvez parfois vouloir suivre un nombre unique dans
votre tableau de bord ou rapport Power BI pour l’importance qu’il représente,
qu’il s’agisse du total des ventes, de la part de marché d’une année sur l’autre ou
du nombre total d’opportunités.[7]
• Graphiques en courbes : Les graphique en courbes mettent en évidence la forme
générale de l’ensemble d’une série de valeurs, normalement au fil du temps.[7]
• Graphiques en aires : Le graphique en aires de base est un graphique en courbes
dont la zone comprise entre l’axe et la ligne est remplie. Les graphiques en aires
mettent en évidence l’ampleur du changement dans le temps et peuvent être uti-
lisés pour attirer l’attention sur la tendance évolutive d’une valeur totale.[7]
• Graphiques à barres et histogrammes : Les graphiques à barres sont la norme
pour la recherche d’une valeur spécifique dans différentes catégories.[7]

34
3.4 tableaux de bord
• Chiffre d’affaire :

Figure 3.25 – Analyse du Chiffre d’Affaires Annuel

Ce KPI essentiel permet de suivre les tendances de croissance, d’évaluer l’efficacité


des stratégies commerciales et de prendre des décisions stratégiques informées pour
l’avenir de la poste .

35
• Marge bénéficiaire :

Figure 3.26 – Analyse de la Marge Bénéficiaire

Ce tableau de bord analyse la mesure clé pour évaluer la santé financière de


l’entreprise et guider les décisions stratégiques.

36
• Rentabilité par produit :

Figure 3.27 – Analyse de Rentabilité des Produits

Dans notre tableau de bord, nous évaluons la rentabilité de chaque produit en


analysant attentivement les ventes réalisées, les coûts associés à leur production
ou acquisition, ainsi que les commissions reçues.

37
• Valeur de durée de vie client et Valeur de durée de vie Fournisseur :

Figure 3.28 – Analyse de la Rentabilité des Produits et des Relations Client-Fournisseur

Dans notre tableau de bord, nous évaluons la rentabilité de chaque produit en


analysant attentivement les ventes réalisées, les coûts associés à leur production
ou acquisition, ainsi que les commissions reçues. Cette analyse approfondie nous
permet de comprendre la contribution de chaque produit à la rentabilité globale
de l’entreprise.
• Taux de rétention client :

Figure 3.29 – Analyse du Taux de Rétention Client

Dans notre tableau de bord, nous évaluons le taux de rétention client, qui repré-
sente le pourcentage de clients revenant et effectuant des achats répétés sur une
période donnée. Ce taux est essentiel pour évaluer la fidélité et la satisfaction de
nos clients, ainsi que la santé globale de notre entreprise.

38
• Taux conversion des fournisseurs :

Figure 3.30 – Analyse du Taux de Conversion des Fournisseurs

Dans notre tableau de bord, nous évaluons le taux de conversion des fournisseurs,
qui représente le pourcentage de visiteurs du site web devenant des fournisseurs
après avoir soumis leurs produits. Cette mesure est cruciale pour évaluer l’effi-
cacité de notre plateforme dans l’acquisition de nouveaux fournisseurs et dans la
croissance de notre offre de produits.

39
• Performance des fournisseurs :

Figure 3.31 – Analyse de la Performance des Fournisseurs

Dans notre tableau de bord, nous évaluons la performance de chaque fournisseur


en analysant les ventes réalisées par chacun d’eux. Notre objectif est d’évaluer leur
contribution à la rentabilité globale de notre activité de vente en ligne, tout en
tenant compte des commissions perçues. En examinant de près les performances
de chaque fournisseur, nous pouvons identifier ceux qui génèrent le plus de va-
leur pour notre entreprise, ainsi que ceux qui pourraient nécessiter une attention
particulière.

40
• Les produits les plus rentable :

Figure 3.32 – Analyse de la Rentabilité des Produits

Dans notre tableau de bord, nous évaluons la performance de chaque produit


en analysant les ventes réalisées par chacun d’eux. Notre objectif est d’identifier
ceux qui génèrent le plus de revenus et de bénéfices nets après déduction des
coûts associés. En examinant de près les performances de chaque produit, nous
pourrons déterminer les principaux moteurs de rentabilité de notre activité de
vente en ligne.

41
• Rentabilité par meilleur stratégie :

Figure 3.33 – Analyse de la Rentabilité par meilleur stratégie

Dans notre tableau de bord, nous évaluons la rentabilité de différentes stratégies


en analysant leurs performances financières. Notre objectif est d’évaluer la contri-
bution de chaque stratégie en termes de revenus, de coûts et de bénéfices nets. En
examinant ces données de près, nous pourrons déterminer la meilleure approche
à adopter.

42
• Rentabilité des vente en ligne :

Figure 3.34 – Analyse de la Rentabilité Globale

Dans notre tableau de bord, nous évaluons la rentabilité de notre activité de


vente en ligne en analysant les revenus générés par nos ventes en ligne, ainsi que
les coûts associés tels que les frais de production, d’expédition et de marketing.
Notre objectif est de comprendre la rentabilité globale de notre activité de vente
en ligne et d’identifier les domaines où des améliorations peuvent être apportées.

43
• Rentabilité par canal de vente :

Figure 3.35 – Analyse de la Rentabilité par canal de vente

Dans ce tableau de bord, nous étudions la rentabilité de nos trois canaux de


vente : en ligne, en magasin et autre. L’objectif est d’évaluer leur performance
financière respective en analysant les revenus générés par chaque canal, ainsi que
les coûts associés tels que les dépenses publicitaires, les frais de distribution et
les commissions. En examinant ces données de près, nous pourrons identifier le
canal de vente qui contribue le plus à notre rentabilité globale et repérer ceux qui
pourraient nécessiter des ajustements ou des améliorations.

3.5 Conclusion
En conclusion, nous avons examiné comment les tableaux de bord se révèlent être des
outils puissants pour convertir des données complexes en formats facilement compré-
hensibles. Cette transformation permet d’identifier rapidement les tendances, les mo-
dèles et les anomalies dans les données, ce qui, à son tour, facilite la prise de décisions
éclairées et l’amélioration des résultats.

44
Chapitre 4
Analyse Prédictive

4.1 Introduction
La prévision consiste à anticiper les événements futurs en se basant sur des informations
du passé. Elle joue un rôle crucial dans la prise de décisions éclairées tant dans le
domaine des affaires que dans l’administration et la sphère privée. Ce chapitre explore
en détail ce qu’est la prévision, comment elle est mise en œuvre, et quelles sont les
prédictions concrètes applicables à nos données.

4.2 Bibliothèque
• Scikit-learn : Scikit-learn est une bibliothèque d’apprentissage automatique en
open source et disponible sous licence BSD. Elle est écrite en Python, avec quelques
algorithmes essentiels écrits en Cython pour optimiser les performances. La bi-
bliothèque a été initialement développée par David Cournapeau dans le cadre du
projet Google Summer of Code en 2007. Plus tard, Matthieu Brucher a rejoint
le projet et a commencé à l’utiliser dans le cadre de son travail de thèse. En
2010, l’INRIA (Institut français de recherche en informatique et en automatique)
s’est impliqué et la première version publique (v0.1 beta) a été publiée fin janvier
2010.[8]

Figure 4.1 – Logo Scikit-learn

45
• Matplotlib : est une bibliothèque Python open source, initialement dévelop-
pée par le neurobiologiste John Hunter en 2002. L’objectif était de visualiser
les signaux électriques du cerveau de personnes épileptiques. Pour y parvenir, il
souhaitait répliquer les fonctionnalités de création graphique de MATLAB avec
Python.[9]

Figure 4.2 – Logo matplotlib

4.3 Prédiction
• K-means : est un algorithme non supervisé de clustering non hiérarchique. Il
permet de regrouper en K clusters distincts les observations du data set. Ainsi
les données similaires se retrouveront dans un même cluster. Par ailleurs, une
observation ne peut se retrouver que dans un cluster à la fois (exclusivité d’ap-
partenance). Une même observation, ne pourra donc, appartenir à deux clusters
différents.[10]

Figure 4.3 – Chargement des données

Ce code utilise la bibliothèque pandas en Python pour charger des données à partir du
fichier Excel nommé
"cleaned-data.xlsx". La fonction pd.read-excel() est utilisée pour lire les données à partir
du fichier Excel spécifié et les stocker dans un objet DataFrame de pandas.

46
Figure 4.4 – Clustering K-Means sur les données de vente

Ce code utilise la bibliothèque scikit-learn en Python pour effectuer une analyse de


clustering sur les données.

Figure 4.5 – Affichage des centres de cluster

Ce code affiche les centres des clusters obtenus à partir de l’analyse de clustering
effectuée précédemment.

47
Figure 4.6 – Analyse des clusters après l’entraînement du modèle KMeans

Ce code affiche les centres des clusters calculés par l’algorithme K-means à partir des
données fournies. Ces centres représentent les valeurs moyennes de chaque attribut
dans chaque cluster.

Figure 4.7 – Attribution de clusters et affichage initial du DataFrame

Ce code ajoute une nouvelle colonne appelée ’cluster’ au DataFrame cleaned-data, et y


assigne les étiquettes de cluster prédites par l’algorithme K-means. Ensuite, il imprime
les cinq premières lignes du DataFrame mis à jour pour afficher les étiquettes de cluster
assignées à chaque entrée de données, en plus des autres colonnes existantes.

48
Figure 4.8 – Visualisation de la répartition des clusters

Ce code utilise la bibliothèque matplotlib pour créer un nuage de points


(scatter plot) des données. Les points sont placés en fonction des valeurs des attributs
’prix-de-vente’ et ’commission’ du DataFrame . Chaque point est coloré en fonction du
cluster auquel il appartient, tel que prédit par l’algorithme K-means.

Figure 4.9 – Segmentation des clients basée sur la valeur à vie (CLV)

Ce code effectue une analyse de clustering sur un ensemble de données de ventes en


ligne. Il commence par charger les données à partir d’un fichier Excel et sélectionne
les caractéristiques pertinentes pour le clustering, telles que le prix de vente et la
commission. Ensuite, il normalise les caractéristiques pour garantir une mise à l’échelle
uniforme avant d’entraîner un modèle K-Means avec un nombre prédéfini de clusters.
Une fois les clusters attribués à chaque point de données, ils sont ajoutés au DataFrame.
Enfin, une visualisation des clusters est générée à l’aide d’un nuage de points 2D,
permettant une interprétation visuelle de la structure des données.

49
Figure 4.10 – Segmentation des clients basée sur le taux de fidélisation

Ce script Python vise à effectuer une analyse de clustering sur le taux de fidélisation
des clients à partir d’un ensemble de données stocké dans un fichier Excel. Après
le chargement des données, le taux de fidélisation des clients est sélectionné comme
caractéristique pertinente pour le clustering. Ensuite, les données sont normalisées à
l’aide de la méthode StandardScaler pour une mise à l’échelle uniforme. Le nombre de
clusters est spécifié, dans ce cas, un seul cluster est utilisé. Un modèle K-Means est
ensuite entraîné sur les données normalisées. Les clusters sont assignés à chaque point
de données, et ces informations sont intégrées au DataFrame. Enfin, une visualisation
des clusters est produite à l’aide d’un nuage de points, affichant le taux de fidélisation
des clients sur l’axe des x et l’index des données sur l’axe des y, avec une couleur
différente pour chaque cluster.

50
Figure 4.11 – Segmentation de la marge bénéficiaire des produits

Ce script Python utilise l’algorithme K-Means pour effectuer une analyse de cluste-
ring sur la marge bénéficiaire à partir d’un ensemble de données stocké dans un fichier
Excel. Les données sont chargées à partir du fichier Excel, et la marge bénéficiaire est
sélectionnée comme caractéristique pertinente pour le clustering. Ensuite, les caracté-
ristiques sont normalisées à l’aide de la méthode StandardScaler pour garantir une mise
à l’échelle uniforme. Le nombre de clusters est spécifié, dans ce cas, trois clusters sont
utilisés. Un modèle K-Means est ensuite entraîné sur les caractéristiques normalisées.
Les clusters sont assignés à chaque point de données, et ces informations sont intégrées
au DataFrame. Enfin, une visualisation des clusters est produite à l’aide d’un nuage de
points, avec l’index des données sur l’axe des x et la marge bénéficiaire sur l’axe des y,
et une couleur différente pour chaque cluster.
— StandardScaler : recalibre les données pour des répartitions normales.[13]

51
Figure 4.12 – Segmentation de la rentabilité des produits

Ce script Python effectue une analyse de clustering sur les données de rentabilité à par-
tir d’un fichier Excel en utilisant l’algorithme K-Means. Les données sont chargées à
partir du fichier Excel, et trois caractéristiques pertinentes pour le clustering sont sélec-
tionnées : le montant total, la commission et le profit. Ensuite, les caractéristiques sont
normalisées à l’aide de la méthode StandardScaler pour garantir une mise à l’échelle
uniforme. Le nombre de clusters est spécifié comme trois, et un modèle K-Means est
entraîné sur les caractéristiques normalisées. Les clusters sont assignés à chaque point
de données, et ces informations sont intégrées au DataFrame. Enfin, une visualisation
des clusters est produite pour chaque caractéristique, avec l’index des données sur l’axe
des x et la caractéristique spécifique sur l’axe des y, avec une couleur différente pour
chaque cluster.

52
4.4 Les interface de prediction

Figure 4.13 – Visualisation des clusters de données pour la prise de décisions

En appliquant l’algorithme KMeans avec 3 clusters, nous avons organisé les données en
se basant sur des caractéristiques telles que le prix de vente, la commission et le code
d’article. Cette stratégie de segmentation nous offre une vision plus claire des schémas
et des tendances sous-jacentes dans nos données. Par exemple, elle nous permet d’iden-
tifier des ensembles de produits similaires ou des comportements de vente particuliers.
Cette approche peut être précieuse pour orienter des décisions stratégiques telles que
l’optimisation des stocks, l’ajustement des prix ou la planification des campagnes pro-
motionnelles.

53
Figure 4.14 – Répartition des produits en fonction de l’indice CLV

Ce graphique présente une Segmentation des données basée sur l’attribut CLV à l’aide
de l’algorithme KMeans en 3 clusters pour identifier des schémas et des tendances
cachées, facilitant ainsi la prise de décisions stratégiques telles que l’optimisation des
stocks et la tarification.

Figure 4.15 – Analyse de segmentation des données basée sur le taux de fidélisation des
clients

Ce graphique met en évidence la corrélation entre le taux de fidélisation des clients et


un indice spécifique. Bien que ce point de données soit unique, il pourrait contenir une
observation significative ou un cas particulier. L’analyse de cette observation indivi-
duelle pourrait révéler des informations précieuses sur les tendances de fidélisation des
clients.

54
Figure 4.16 – Analyse de segmentation de la marge bénéficiaire par clusters

Ce graphique met en évidence la corrélation entre l’indice et la marge bénéficiaire.


Nous distinguons deux groupes distincts : le premier rassemble des produits présentant
une marge bénéficiaire standard, tandis que les points violets représentent des cas
inhabituels de faible rentabilité. Cette segmentation pourrait orienter des décisions
stratégiques, telles que l’optimisation des stocks ou la modification des prix.

Figure 4.17 – Analyse de segmentation des transactions par montant total

55
Figure 4.18 – Analyse de segmentation des commissions par cluster

Figure 4.19 – Analyse de segmentation des profits par cluster

Ces représentations graphiques mettent en lumière la corrélation entre diverses va-


riables (montant total, commission et profit) et un indice spécifique. Nous remarquons
la présence de clusters distincts, chacun reflétant des comportements particuliers. Par
exemple, le premier cluster regroupe des transactions typiques, alors que les points vio-
lets pourraient signaler des cas singuliers. Ces analyses segmentaires pourraient orienter
des choix stratégiques, tels que l’optimisation des stocks ou l’adaptation des prix.

4.5 Conclusion
Nos prévisions initiales ne correspondaient pas étroitement aux résultats réels. En
d’autres termes, les données ne suivaient pas de modèle prévisible. Bien qu’une faible
corrélation puisse rendre les prédictions difficiles, elle peut également indiquer des
relations plus complexes dans les données. L’analyse des données consiste à être souple
et à envisager différentes perspectives pour comprendre le sens réel des chiffres.

56
Conclusion générale

Dans le paysage contemporain dominé par les méthodologies basées sur les données,
mon projet de fin d’études était consacré à l’amélioration des taux de conversion et
des marges bénéficiaires de la Poste nationale grâce à la mise en œuvre stratégique de
pratiques de Business Intelligence (BI).
Grâce à une étroite collaboration avec l’équipe technique et les parties prenantes in-
ternes, je me suis lancé dans une exploration complète des données existantes pour
discerner des modèles complexes de comportement des clients et déterminer les besoins
des décideurs au sein de l’organisation.
Ce parcours impliquait la mise en place d’une infrastructure d’entrepôt de données
robuste, le développement de tableaux de bord perspicaces présentant des indicateurs
clés et l’application de techniques d’analyse prédictive pour prévoir les tendances fu-
tures de la demande.Non seulement cette initiative a généré des avantages tangibles
pour la Poste nationale, mais elle a également constitué une expérience d’apprentis-
sage cruciale, enrichissant ma compréhension des méthodologies BI et me dotant de
compétences pratiques inestimables, essentielles pour naviguer dans les subtilités d’un
milieu professionnel centré sur les données. À mesure que nous traçons la voie à suivre,
le potentiel d’amélioration supplémentaire réside dans l’élargissement de la portée de
l’analyse et l’affinement des présentations des tableaux de bord afin de s’aligner plus
précisément sur les exigences changeantes de notre estimée clientèle.

57
Perspectives

Dans un contexte moderne dominé par les méthodologies basées sur les données, mon
projet de fin d’études s’est concentré sur l’amélioration des taux de conversion et des
marges bénéficiaires de la Poste nationale grâce à une mise en œuvre stratégique de
pratiques de Business Intelligence (BI).
En collaboration étroite avec l’équipe technique et les parties prenantes internes, j’ai
entrepris une analyse approfondie des données existantes pour identifier des schémas
complexes de comportement des clients et répondre aux besoins des décideurs au sein
de l’organisation.
Ce processus a impliqué la création d’une infrastructure solide pour l’entrepôt de don-
nées, le développement de tableaux de bord intuitifs présentant des indicateurs clés,
et l’utilisation de techniques d’analyse prédictive pour anticiper les tendances futures
de la demande. Cette initiative a non seulement apporté des bénéfices concrets à la
Poste nationale, mais elle a également enrichi mon expérience personnelle, approfondis-
sant ma compréhension des méthodologies BI et me dotant de compétences pratiques
précieuses pour évoluer dans un environnement professionnel axé sur les données.
À l’avenir, le potentiel d’amélioration réside dans l’élargissement de la portée de l’ana-
lyse et l’amélioration continue des tableaux de bord pour mieux répondre aux besoins
évolutifs de notre clientèle. Cette démarche proactive garantira que les décisions stra-
tégiques restent alignées avec les attentes et les exigences de notre public cible, per-
mettant ainsi à la Poste nationale de maintenir et d’accroître sa compétitivité dans un
marché en constante évolution.

58
Bibliographie

[1] https ://fr.wikipedia.org/wiki/MicrosoftPowerBI

[2] https ://www.journaldunet.fr/web-tech/dictionnaire-du-webmastering/1445304-python-


definition-et-utilisation-de-ce-langage-informatique/

[3] https ://fr.wikipedia.org/wiki/Jupyter

[4] https ://fr.wikipedia.org/wiki/Visual-Studio-Code

[5] https ://learn.microsoft.com/fr-fr/power-bi/visuals/power-bi-visualization-radial-gauge-


charts ?tabs=powerbi-desktop

[6] https ://learn.microsoft.com/fr-fr/power-bi/paginated-reports/report-design/visualizations/pie-


charts-report-builder

[7] https ://learn.microsoft.com/fr-fr/power-bi/visuals/power-bi-visualization-types-for-


reports-and-q-and-a

[8] https ://www.quantmetry.com/glossaire/scikit-learn/ : :text=Scikit-learn

[9] https ://datascientest.com/matplotlib-tout-savoir

[10] https ://mrmint.fr/algorithme-k-means

[11] https ://datascientest.com/machine-learning-tout-savoir

[12] https ://www.50a.fr/0/clustering

[13] https ://datacorner.fr/feature-scaling/

[14]https ://www.talend.com/fr/resources/guide-etl/

[15] https ://www.lemagit.fr/definition/BI-informatique-decisionnelle

59
[16] https ://fr.wikipedia.org/wiki/Poste-tunisienne

60
61

Vous aimerez peut-être aussi