Outils de Business Intelligence en Communication
Outils de Business Intelligence en Communication
études et de la communication
Tom Blachon
Membres du jury
▪ Ghislaine CHARTRON, directrice
Promotion (2020-2022)
Keywords
This master thesis is an approach to different aspects of Business Data
Intelligence (BI) techniques and tools in the field of studies and surveys. Business Intelligence
It first proposes a theoretical approach of the subject aiming to present Datawarehouse
the main concepts of BI and its possible applications within survey KPI
institutes. In the second part, he presents a project of BI tools Dashboard
deployment in real situation within the research firm Occurrence over 18 Power BI
months. his section is dedicated to the Microsoft Power BI software Data analysis
package, the integration of which was the subject of numerous iterative Survey
tests before offering a Dashboard creation service to the company's Extract – Transform – Load
customers. Information system
1
Remerciements :
2
Sommaire
Introduction ........................................................................................................................................... 7
I. Présentation de l’entreprise et problématique .......................................................................... 10
A. Présentation de l’entreprise .................................................................................................... 10
a. Historique de l’entreprise ....................................................................................................... 10
b. Secteur, contexte et domaine d’activité métier ..................................................................... 11
c. Organisation générale ............................................................................................................. 13
d. Focus sur le service « Marque et Transformation » ............................................................. 15
e. Présentation de mes missions et projets de Business Intelligence ....................................... 17
1. Power BI et datavisualisation ............................................................................................. 17
2. Travail sur les standards ...................................................................................................... 18
3. Veille sur les outils de collecte ............................................................................................. 18
4. Participation aux études clients ........................................................................................... 19
B. Développement de la problématique ..................................................................................... 20
a. Contexte data de l’entreprise .................................................................................................. 20
1. Type de données exploitées ................................................................................................. 21
2. Outils et pilotage .................................................................................................................. 23
3. Compétences et culture data ............................................................................................... 24
4. Qualité des données ............................................................................................................. 26
5. Constats et objectifs............................................................................................................. 28
b. Enjeux des données et de la Business Intelligence ................................................................ 29
c. Définition de la problématique d’étude ................................................................................. 31
II. Cadre théorique : Etude des concepts BI .............................................................................. 33
A. État de l’art et historiographie ............................................................................................... 33
a. Le traitement des données de sondage et de communication : Approche théorique ......... 33
1. Ouvrages et auteurs de référence ....................................................................................... 33
2. Grands principes d’analyse ................................................................................................ 35
3. Biais d’analyse à éviter........................................................................................................ 37
4. Analyse des données de communication ............................................................................ 39
b. Emergence et généralisation des outils de Business Intelligence ......................................... 40
1. Etat de l’art .......................................................................................................................... 40
2. Histoire de la Business Intelligence .................................................................................... 42
3. Rôles et fonctionnement général des outils BI .................................................................. 44
B. Concepts clés et terminologie du sujet ................................................................................... 46
a. Décryptage des concepts phares de l’informatique décisionnelle et du secteur ................. 47
3
1. Automatisation..................................................................................................................... 47
2. Indicateurs de performance (KPI) ..................................................................................... 48
3. Tableaux de bord ................................................................................................................. 49
4. Datavisualisation ................................................................................................................. 50
5. Concept de « no-code » ........................................................................................................ 50
b. Mise en perspective avec les projets menés par les instituts d’étude .................................. 52
III. Cas pratique : Mise en place et exploitation des outils BI au sein d’un cabinet d’étude et
de conseils en communication ............................................................................................................ 57
A. Présentation du projet............................................................................................................. 57
a. Contexte de mise en place ....................................................................................................... 57
1. Besoins concrets ................................................................................................................... 57
2. Equipe ................................................................................................................................... 59
3. Objectifs projet .................................................................................................................... 60
b. Approche méthodologique ...................................................................................................... 61
B. Mise en œuvre .......................................................................................................................... 62
a. Déploiement de Microsoft Power BI ....................................................................................... 62
1. Avantages de Power BI........................................................................................................ 63
2. Phase 1 : Formation à l’outil sur les standards en interne .............................................. 64
3. Phase 2 : Tests de substitution des outils actuels (Excel) ................................................. 67
4. Phase 2.5 : Formation à l’automatisation.......................................................................... 69
5. Phase 3 : Déploiement en interne dans un cas d’usage concret....................................... 71
6. Phase 4 : Déploiement lors de missions clients.................................................................. 72
7. Limites de Power BI et obstacles au déploiement ............................................................. 74
b. Visualiser les données spatiales : SIG et cartes de réseaux.................................................. 75
1. Échantillonnage ................................................................................................................... 75
2. Mieux comprendre la répartition des données à l’aide des cartes .................................. 76
3. Cas spécifique de la spatialisation des réseaux (Géphi).................................................... 78
c. Exploration de la suite Microsoft : Anticiper la BI en amont et multiplier les supports
d’interprétation ............................................................................................................................... 80
1. Joindre les outils de collecte et les tableaux de bord : Power Apps ................................. 80
2. Automatiser la collecte et le nettoyage en amont : Power Automate et Power Query .... 83
3. Assouplir les supports de tableaux de bord : Sharepoint Online et Microsoft Teams .... 84
C. Pour aller plus loin : Recommandations et mises en garde ................................................. 85
a. Limites et axes de vigilances ................................................................................................... 86
b. Bonnes pratiques pour assurer une pérennisation de l’utilisation des outils BI................ 87
Conclusion ............................................................................................................................................ 90
4
Bibliographie........................................................................................................................................ 92
Annexes ................................................................................................................................................ 97
5
Table des abréviations :
6
Introduction
Depuis la fin du XXème siècle, l’exploitation et la collecte des données sont devenus des
enjeux centraux dans de nombreux secteurs d’activités. En effet, leur analyse permet par
exemple à une entreprise d’identifier de façon claire ses indicateurs de performance clés (KPI)
et ainsi l’aider à améliorer son expertise. De même, les données peuvent aider une marque ou
une institution à mieux identifier son public et donc d’adapter son offre à ce dernier. De ce fait,
les données constituent aujourd’hui un formidable outil d’aide à la prise de décision, aux
retombées économiques avérées.
« Pour améliorer une performance, il faut s’avoir la mesurer. »1. Telle est la vision qu’a
choisi d’adopter l’entreprise Occurrence dans ses études depuis sa création en 1995. Il s’agit
d’un cabinet d’étude et conseil en communication que j’ai rejoint en contrat d’apprentissage
depuis le 4 janvier 2021. Composé de 24 membres, ce cabinet a pour but d’aider les entreprises
et les institutions à évaluer la performance de leur stratégie de communication. Il peut s’agir de
communication interne, externe, évènementielle ou encore publicitaire, en France et à
l’international (50% des études réalisées). L’objectif est ainsi d’éclairer les décisions
stratégiques prises par les directions de la communication afin d’optimiser le management et le
pilotage au sein de leur organisation.
L’entreprise Occurrence possède par ailleurs trois filiales agissant dans des domaines
d’activités spécifiques :
1
Site d’Occurence, cabinet d’études et conseil en communication. URL : http://Occurrence.fr/
7
- Deep Opinion : Filiale spécialisée dans le domaine la communication sur les réseaux
sociaux, de l’influence et de l’e-réputation.
Occurrence se démarque de nombreux autres cabinets d’études dans ce domaine par son
approche et sa méthodologie de travail. En effet, l’entreprise a pour volonté de faire de la
communication une discipline quantifiable et mesurable. Pour cela, la collecte et l’analyse de
données se place comme un enjeu central de ce cabinet.
Cette approche m’a ainsi décidé à candidater, puis à réaliser mon alternance dans cette
entreprise, en accord avec mon projet professionnel. Ayant réalisé un premier master dans les
métiers du livre et travaillé au sein d’une bibliothèque durant deux ans, je souhaite à plus long
terme me rapprocher à nouveau de la filière culturelle. Encore sous-utilisées aujourd’hui, je
souhaite pouvoir accompagner les institutions culturelles dans l’exploitation de leurs données
afin de les aider à gagner en efficacité, identifier leurs publics et optimiser leur prise de décision.
Le travail d’Occurrence auprès de ses clients présente ainsi de nombreuses similarités avec
mon projet.
Etant junior en matière de programmation, je désirais par ailleurs pouvoir mettre à profit
dans mon entreprise ma double expertise, en analyse de données et en Sciences Humaines et
Sociales. J’ai ainsi été séduit par l’approche quasi sociologique adoptée par Occurrence lors de
ses études. Celle-ci combine à la fois la collecte de données de terrain, avec un traitement de
ces dernières à l’aide d’outils informatique, ainsi que la restitution des résultats sous forme de
tableaux de bords.
J’occupe ainsi le poste d’assistant chargé de mission pour l’entreprise, bien que mon travail
soit en réalité plus proche de la data analyse. Je réalise beaucoup de chantiers de Recherche &
Développement que nous détaillerons plus tard. Mon rôle est ainsi d’étudier de nouvelles
solutions de traitement des données, de la collecte à la visualisation, afin de pouvoir, à terme,
les proposer lors de missions clients.
L’objectif de l’étude que nous allons réaliser est dans un premier temps de mieux
comprendre les missions d’Occurrence, ainsi que ma place au sein de cette entreprise. Mais elle
ne se limite pas une approche centrée sur l’entreprise : la finalité de ce projet est de s’intéresser
8
à un sujet en relation avec mon travail de terrain, tout en gardant la thématique des données
comme point central.
Pour réaliser notre étude, nous présenterons dans un premier temps l’entreprise Occurrence
de façon plus approfondie. Nous verrons en effet l’historique du cabinet, son secteur d’activité,
son organisation interne, ainsi que ma place au sein de l’entreprise. Puis nous déterminerons
une problématique d’étude concrète répondant aux besoins du cabinet. Dans une seconde partie,
nous aborderons cette problématique de façon théorique, en définissant les concepts clés ainsi
que les précédents travaux scientifiques conduits sur le sujet. Enfin, la troisième partie de notre
étude viendra illustrer les éléments théoriques vu précédemment dans le cadre d’un cas
d’application concret en entreprise.
9
I. Présentation de l’entreprise et problématique
A. Présentation de l’entreprise
a. Historique de l’entreprise
En 2004, le cabinet reçoit la certification ISO 9001. Il s’agit d’une norme remise par
l’Organisation Internationale de Normalisation (ISO) relative au management de la qualité. Elle
garantit notamment que l’entreprise respecte un certain nombre d’engagements afin d’améliorer
continuellement la qualité de ses services et assure une satisfaction client élevée. Cette
certification, gage de qualité, est détenue par Occurrence depuis 16 ans et a toujours été
renouvelée depuis sa première attribution.
Le cabinet d’étude se fait ensuite remarquer en 2017 grâce à la mise en place d’une
méthode de comptage de foule qui se voulant objective. En effet, outre la communication,
10
Occurrence propose, depuis 2007, des services de comptage de foule. Entre 2007 et 2017, ce
service n’a que peu de visibilité et est surtout utilisé par des magasins et centres commerciaux
pour le décompte de ses clients. Mais à partir de 2017, le cabinet est engagé par un
regroupement de médias (presse, radio, TV) pour effectuer du comptage de foule dans les
manifestations. Les chiffres donnés par Occurrence se veulent « objectifs » afin de proposer un
équilibre entre le comptage annoncé par la police et celui des organisations syndicales.
En 2021 enfin, Occurrence continue de voir croître son chiffre d’affaires, s’élevant à
plus de 3,6 millions d’euros. À cette date, le cabinet vient de dépasser la barre symbolique des
1 millions de retombées médiatiques analysées, après 26 ans d’existence.
Étant une société de conseil en communication, elle propose à ses clients une double
expertise, à la fois en matière d’Études et en matière de communication. La majorité des
membres de l’équipe sont en effet des spécialistes de la fonction communication et du
marketing, ayant déjà occupé des postes dans ce domaine par le passé.
11
mettent en concurrence les différents prestataires et opèrent à une sélection après l’étude des
différents dossiers de candidature.
Cependant, Occurrence, en plus des réponses aux appels d’offre, dispose de contrats
avec de gros clients réguliers. Le cabinet est alors engagé pour mener une série d’études sur
plusieurs années, sans avoir à repasser par une mise en concurrence. Ces contrats sont ainsi très
importants et très précieux car ils assurent une partie du chiffre d’affaires annuel, sans perdre
de temps dans la réalisation de dossiers de candidatures.
Pour tenter de se démarquer dans ce marché, Occurrence essaye ainsi de proposer une
vision différente de ses concurrents, comme mentionné plus haut. Le cabinet désire montrer
aux directions d’entreprise que la communication est un investissement sérieux et non un poste
de dépense ou une charge. De plus, l’entreprise mise sur la contribution des données dans la
stratégie des organisations. Elle estime qu’il est notamment important d’opérer une sélection
fine des données à exploiter, en distinguant les données « utiles » et « superflues ». Prendre en
compte trop de données est en effet susceptible de complexifier la décision plutôt que de la
simplifier.
Une autre part de la légitimité d’Occurrence dans ce marché réside dans ses standards.
Il s’agit de données de référence, se basant sur toutes les études antérieures réalisées. Elles
permettent, lors d’une nouvelle mission auprès d’un client, de lui fournir des éléments de
comparaison vis-à-vis des autres entreprises de son secteur d’activité. Ces standards constituent
un argument commercial fort. Ils sont en effet un gage de légitimité pour Occurrence, prouvant
qu’ils sont implantés depuis longtemps dans le marché du conseil en communication. De plus,
proposer à une entreprise de comparer ses performances à celles des sociétés concurrentes va
lui permettre de mieux identifier ses axes d’amélioration.
Enfin, la certification ISO 9001, évoquée plus tôt et détenue par Occurrence depuis 2004
est un dernier gage de qualité permettant au cabinet de se démarquer sur le marché des études.
Elle est le signe d’une forte satisfaction client et d’une volonté continue de s’améliorer et
d’optimiser ses process en interne. Un audit a ainsi lieu tous les trois ans afin de s’assurer que
la société respecte ses engagements en termes de management de la qualité.
12
c. Organisation générale
Notons tout d’abord que malgré ses 26 ans d’ancienneté, la société Occurrence reste de
taille modeste, puisqu’elle ne compte que 24 membres, stagiaires et alternants compris. Lorsque
l’on regarde l’organigramme de l’entreprise2, nous pouvons constater qu’elle se divise en trois
grands pôles, dont les missions sont distinctes :
2
Annexe 1 : Organigramme de la société Occurrence.
13
« Europe et International » Est en charge des missions hors de France et est composé
d’experts en communication internationale.
Au sein de chacun de ces services, les chargés de mission et leurs assistants sont chargé
de collecter et d’analyser les données de l’étude, avant de les restituer sous forme d’un
PowerPoint. Ils sont constamment pilotés et cadrés par les responsables de service, qui se
chargent régulièrement de la restitution des résultats auprès des clients.
Outre ces trois grands pôles, Occurrence dispose de trois filiales déjà évoquées.
Occurrence Healthcare en charge des problématiques santé et bien-être, Deep Opinion sur les
questions d’Influences en ligne et sur les réseaux sociaux. Ainsi que Start Cities, spécialisé dans
la concertation lors de grands projets.
Par ailleurs, Occurrence fait appel à de la sous-traitance lors de certaines missions, pour
répondre à des besoins spécifiques, tel que de la traduction ou encore la réalisation
d’infographies. De même, des contrats sont établis avec des « supers sous-traitants ». Il s’agit
de travailleurs en freelance, mais travaillant en étroite collaboration et presque à temps plein
avec le cabinet d’étude.
Enfin, Occurrence dispose d’une secrétaire comptable, une responsable des Ressources
Humaines, ainsi qu’un responsable systèmes (Informatique et Qualité). Ce dernier est le seul
employé ayant des compétences avancées en informatique et occupe des fonctions diverses. Il
est en charge de la gestion et maintenance de l’Intranet, il intervient lors des missions clients
afin de programmer des questionnaires en ligne et il effectue également la maintenance
informatique générale. Comme nous l’avons mentionné, le cabinet ne dispose pas de Data
analysts pour exploiter les données. Ce travail est à la charge des chargés de missions, qui
utilisent un logiciel de traitement appelé « Modalisa ».
Ainsi, Occurrence étant une petite structure et ne disposant pas d’un service
informatique à proprement parlé, la structure du Système d’Information du cabinet est
relativement simple. En somme, l’ensemble des données de l’entreprise sont regroupées sur un
seul serveur central. Celui-ci est toutefois réparti en plusieurs lecteurs :
14
- Développement : Il recouvre la promotion d’Occurrence, les présentations produits...
- Ressources Administratives : Regroupe les documents relatifs aux fonctions
administratives (accès restreint).
- Ressource Production : Tous les documents nécessaires pour le travail quotidien en
interne. Il peut s’agit de formations, de modèles de documents, de notices
d’explications...
- Qualité : Tous les documents nécessaires pour appliquer la démarche qualité.
Chaque poste local est ainsi rattaché à ce serveur et l’utilisation de VPN a été mis en
place pour l’accès aux documents à distance, en télétravail par exemple.
Afin de mieux comprendre mes missions et mon rôle au sein de la société, commençons
par présenter succinctement le service « Marque et Transformation » (M&T), dans lequel je
travaille.
Ce pôle est spécialisé dans la communication dite corporate, c’est-à-dire des études et
baromètres de notoriété et d’image, de lectorat, des audits de dispositifs de communication
externe, des post-tests publicitaires, etc. Mais il est également spécialisé dans la communication
interne, grâce à des études et baromètres d’opinion interne, de climat social, de bien-être au
travail...
Comme indiqué, le travail consiste donc majoritairement à réaliser des études pour des clients.
Une étude se déroule donc en plusieurs phases, de la façon suivante :
15
Réunions de
Phase de Phase de production du travail ou Phase de clôture
cadrage Phase de terrain livrable : analyse et rapport restitution de la mission
Recrutement,
focus groups
Réunion et et entretiens Soutien à la
Mise en place Traitement et Participation Mise à jour REX ou
fiche de individuels rédaction et
et suivi de analyse des aux rendez- des standards « pause » en
cadrage de (prise de notes au charting
terrains données vous clients Occurrence fin de mission
l’étude et/ou des rapports
conduite
d’entretiens)
Le second outil indispensable est le Trello du pôle. Il s’agit d’un outil de gestion de
projet en ligne, basé sur une organisation des phases de production en planches listant des
cartes, chacune représentant des études en cours. Chaque mission est alors rangée dans la phase
16
de production correspondant à son état d’avancement : développement commercial, cadrage,
production, création du livrable, en standby...
Ces outils sont utilisés et mis à jour lors de la réunion de service hebdomadaire, ayant
lieu tous les mardis matin. Cette réunion est l’occasion de faire le point sur l’état d’avancement
de chaque membre de l’équipe, et de faire parvenir les nouvelles à l’ensemble du pôle, tels que
les nouveaux chantiers « gagnés » par exemple.
En somme, notamment encadré par Thomas Skorucak, directeur adjoint du pôle M&T
et par Johann Damen, responsable informatique d’Occurrence, je réalise principalement des
missions de Recherche et Développement (R&D). Mon travail consiste alors à explorer de
nouvelles solutions en matière de collecte, d’analyse et de visualisation des données afin de
mettre en place, à terme, de nouveaux outils aux services des missions clients.
1. Power BI et datavisualisation
Je me suis donc formé à son utilisation, en réalisant une première série de tableaux de
bord « tests ». Mais je me suis vite aperçu que Power BI n’est pas un simple outil de
datavisualisation. Il permet, en outre, de manipuler des jeux de données complexes à l’aide de
requêtes sur l’outil Power Qwery. Il permet également de gérer des relations entre les tables
17
d’une base de données relationnelle, ou encore de réaliser des calculs conditionnels sur les
données à l’aide du langage DAX.
Puis je me suis ensuite intéressé, durant plusieurs semaines, aux solutions de partage et
d’actualisation automatique des données. En effet, dans l’idée d’une mise en application auprès
de clients, il est nécessaire de proposer des tableaux de bords s’actualisant automatiquement.
Ainsi, il suffit à l’utilisateur de renseigner ses données depuis la source de son choix (SQL,
Excel, Excel Online, Sharepoint...) pour que les graphiques s’actualisent.
Déjà présentés plus hauts, les standards représentent des données de références, calculés
à partir des résultats des études antérieures réalisées. Ils constituent ainsi une source d’éléments
comparatifs pour les clients futurs, quelque soient le type d’étude désiré. Ces standards posent
toutefois des problèmes en interne, car chaque pôle dispose de ses propres normes, modalités
et modes de saisie. Ainsi, ces données manquent de cohérence et sont ainsi difficiles à croiser
et, parfois, à exploiter.
Depuis début 2021, un chantier global sur les standards a été ouvert, afin d’unifier les
données, de réfléchir à leur harmonisation, à de nouveaux modes de saisie (actuellement stockés
sur des tableaux Excel...). Prenant part à ce chantier, je participe à ce mouvement de réflexion
collectif. Je me suis par exemple formé à un autre outil Microsoft, intitulé Power Apps,
permettant de développer, grâce à un logiciel low code, des applications de formulaires.
De nouveau dans l’optique d’explorer des solutions permettant d’ajouter une plus-value
aux études d’Occurrence, je réalise depuis peu une veille sur les outils de collecte et d’analyse
de la donnée. Notamment intéressé par les outils de webscraping et de scraping sur les réseaux
sociaux, je m’entretiens avec les différents pôles afin d’identifier clairement leurs besoins et
18
attentes dans ce domaine. À l’avenir, j’effectuerais des tests sur les outils et packages identifiés,
afin de lister les possibilités techniques de chacun, avant d’envisager une mise en application
concrète.
Je vais par ailleurs prochainement être formé à l’outil Modalisa, utilisé chez Occurrence
pour l’analyse des données issues de questionnaires. Ce logiciel permet notamment de croiser
les données et les différentes modalités de réponse en fonction des profils de répondant, et de
mettre en valeur les informations significatives.
19
B. Développement de la problématique
Nous venons de voir quelles sont les missions de la société Occurrence ainsi que le rôle que
j’y exerce. Nous avons ainsi pu identifier plus précisément les besoins et les enjeux de cette
entreprise. Aussi, nous allons aborder dans cette seconde partie le processus de développement
de notre problématique de recherche et les angles de recherche envisagés.
S’inscrivant dans le cadre d’un travail de recherche autour d’une problématique métier,
cette étude doit ainsi répondre à des critères précis. D’une part, elle doit être en relation directe
avec mes activités chez Occurrence et doit répondre à un besoin de la part de cette dernière.
Par ailleurs, la question des données doit être au cœur de notre étude car cette dernière s’intègre
dans le champ plus large de l’analyse data à des fins sociales, c’est-à-dire pour une exploitation
humaine directe. Au sens large, il peut alors s’agir d’une problématique de collecte, de
traitement ou encore d’automatisation des données de l’entreprise.
Afin de déterminer notre sujet d’étude, identifions les besoins de l’entreprise en matière
d’exploitation des données, les moyens et les supports déjà existants, ainsi que les enjeux de
déploiement de nouveaux outils.
Ainsi, dressons un bilan de l’existant afin d’évaluer, suivant différents critères choisis,
le niveau de maturité data d’Occurrence. D’une part, au regard des données à disposition et
3
Digital League Rhône-Alpes, « La maturité Data, c’est quoi ? ». URL : https://www.digital-
league.org/blog/2021/05/26/la-maturite-data-cest-
quoi/#:~:text=La%20maturit%C3%A9%20data%20d'une,m%C3%AAme%20en%20fonction%20du%20secteur
20
leur exploitation, les outils utilisés, mais également en matière de compétences, de culture
data et de gestion de la qualité des données en interne.
Les données exploitées chez Occurrence sont variées, car il s’agit à la fois d’éléments
internes servant au pilotage de l’activité et de données externes collectées et analysées dans le
cadre de ses études clients. N’oublions pas que le parti pris de l’entreprise est d’évaluer l’impact
des actions de communications de ses clients à l’aide des données. Plus encore, il s’agit même
d’un argument de vente important afin de se démarquer de ses concurrents dans le secteur des
études et du conseil. Par conséquent, observons les différents types de données exploitées par
le cabinet :
- Les données d’enquête : Il s’agit de données collectées lors d’une enquête interne ou
externe réalisée pour un client. Elles se divisent en deux catégories :
• Les données d’études quantitatives : Il s’agit d’enquêtes classiques, où les
données résultent de la diffusion d’un questionnaire auprès d’un groupe
d’individus. Ces dernières sont alors relativement structurées, puisqu’elles
sont cadrées par les modalités de réponses proposées aux répondants. Il peut
s’agit de questions à choix unique (QCU), à choix multiples (QCM), ou
encore de questions ouvertes (QO) qui peuvent être numériques ou
textuelles. Par conséquent, le traitement de ces données est réalisé à l’aide
d’outils numériques dédiés sur lesquels nous reviendrons.
• Les données d’études qualitatives : Il s’agit d’enquêtes sur un nombre
restreint de répondants. Celles-ci sont réalisées sous forme d’interviews
pouvant aller jusqu’à plusieurs heures et sont cadrées par un guide
d’entretien. Les échanges sont alors retranscrits sous différentes formes :
prise de note, vidéo… De fait, aucun outil informatique n’est employé pour
accompagner leur analyse. La variation des supports de l’information et
l’interprétation sémantique des propos retranscrits sont très difficilement
assimilables par une machine. Les professionnels du conseil chez
Occurrence se chargent donc d’analyser et de synthétiser manuellement ces
données.
21
- Les données de réseaux sociaux : Le pôle « Média et Influence » d’Occurrence et sa
filiale Deep Opinion traitent les données de réseau sociaux pour observer l’e-réputation
de nos clients à l’aide d’outils de reporting et de requêtage.
- Les données du web (observatoires) : Occurrence réalise également des observatoires.
Il s’agit d’outils de veille et de collectes sur des sujets spécifiques, à l’image de
l’observatoire des pétitions, dédié à la surveillance quotidienne de tous les grands sites
de pétitions en ligne4. Pour cela, nous disposons d’algorithmes de scrapping afin de
collecter les données issues du web sur le sujet et de les stocker dans des bases internes,
tout en veillant au bon respect du Règlement Général sur la Protection des Données
(RGPD).
- Les données clients : Afin d’assurer ses services de conseil en communication,
l’entreprise analyse un certain nombre de données produites par les organismes clients.
Il peut s’agir de bases de données comptables, de documents de travail, de pilotage, etc.
Ces données ne font généralement pas l’objet d’une analyse statistique approfondie et
sont donc explorées manuellement par les experts conseils.
- Les bases de données de contacts client : Lors de certaines études, nous devons
disposer de bases de contact afin de joindre les répondants ciblés par l’enquête. Pour
cela, le client fournit parfois une base de contact dont il dispose déjà. Cela est
notamment le cas lors de campagnes de phoning (appels téléphoniques) ou d’e-mailing
par exemple. Ces données sont exploitées mais ne servent uniquement à joindre les
répondants, elles de font donc pas l’objet d’une analyse spécifique.
- Les données internes : Cela désigne toutes les données produites par Occurrence et
permettant le pilotage de l’activité. Il peut s’agit de données comptables,
administratives, mais également de suivi de l’activité interne. Ces dernières données
font l’objet de traitements à l’aide d’outils dédiés.
Paradoxalement, nous pouvons constater que si, comme tout organisme, Occurrence génère
nécessairement de la donnée, ce cabinet est majoritairement porté sur le traitement de données
externes. En effet, s’il met en place une évaluation pointue de la communication de ses clients,
à l’aide d’indicateurs clés (KPI), les mêmes mécanismes ne sont pas appliqués au sein de
l’institut. Certains indicateurs et outils de pilotage sont certes mis en place afin d’assurer le
4
Observatoire des pétitions par Occurrence. URL : https://observatoirepetitions.fr/
22
suivi de l’activité, mais ceux-ci visent plutôt à garantir le respect des objectifs annuels que
d’améliorer concrètement les performances.
2. Outils et pilotage
- Trello : Déjà évoqué plus haut, cet outil exclusivement utilisé par le pôle « marque et
transformation » permet un suivi des missions en cours, des échéances et des différentes
tâches à réalisées. Les nouvelles données et les mises à jour se font de façons
hebdomadaires lors de la réunion de pôle. Bien connu et utilisé par de nombreuses
entreprises, il s’agit d’un outil de pilotage professionnel plébiscité pour sa flexibilité et
sa simplicité. Cependant, il ne s’agit pas réellement d’un outil d’analyse ou de traitement
de données et son utilisation chez Occurrence se limite aux fonctionnalités de base.
Notons par ailleurs que chaque pôle dispose d’un outil de pilotage similaire à celui-ci,
mais la pratique n’est pas harmonisée au sein de l’entreprise.
23
- Le tableau des missions en cours : Base de données Excel regroupant le listing des
missions en cours de réalisation. Composé de nombreuses variables, ce tableau permet
notamment de piloter les échéances de facturation par pôle et de dresser une prévision
mensuelle du chiffre d’affaires réalisé.
- Le tableau de bord du développement : Également sur Excel, cette base ressemble à
celle des missions en cours, bien que plus globale. Elle permet le recensement de toutes
les missions passées et en cours par pôle, y compris les missions ayant fait l’objet d’un
Appel d’Offre (AO) qui a été perdu par Occurrence. Ce tableau est un outil central au
service des managers et permet le calcul de nombreux KPI de l’entreprise, tel que
l’espérance en chiffre d’affaires de l’année en cours. Les objectifs annuels fixés en début
d’activité sont, pour la plupart, déterminés à l’aide des indicateurs issus de ce tableau.
Nous pouvons ainsi constater qu’Occurrence dispose bien d’un certain nombre d’outils de
pilotage de son activité sous divers aspects, à travers des données saisies et des indicateurs
concrets. Cependant, ceux-ci ne sont pas toujours harmonisés au sein de l’entreprise, à l’image
du logiciel Trello, utilisé par un seul pôle. De même, ils ne sont pas interconnectés et il n’existe
pas de flux de données entre les outils au sein du Système d’Information (SI). Ceci est un signe
fort d’un niveau de maturité data encore jeune au sein du groupe. En effet, les sources de
données, notamment Excel, font également office d’outils de pilotage, ne facilitant pas une
approche globale de la performance.
5
Tableau, « Culture des données ». URL : https://www.tableau.com/fr-fr/why-tableau/data-culture
24
la culture des données n’est pas uniquement l’affaire des décideurs ou des responsables SI, mais
bien de tous les acteurs de l’entreprise.
En matière de compétences tout d’abord, nous avons déjà souligné le fait que les prestations
proposées par Occurrence impliquent, pour la plupart, du traitement et de l’analyse de données :
- Les études quantitatives impliquent le traitement des bases de données d’enquête, puis
leur interprétation au sein d’un rapport.
- Les tableaux de bords réalisés pour les clients (généralement sur Excel), impliquent la
mise en place d’espace de saisie des KPI et leur projection sur une scorecard
dynamique.
- Certains pôles, comme le pôle « média et Influence » et la filiale Deep Opinion réalisent
également de l’analyse média, issu de la presse ou de contenus numériques tels que les
données de réseaux sociaux.
Par conséquent, en termes de compétence data, tous les collaborateurs sont en mesure de
réaliser des analyses sur des données de communication après nettoyage d’une base de
données. De plus, presque tous savent manipuler un ou plusieurs outils spécialisés de traitement
des données : Modalisa pour le traitement de données d’études quantitatives, ou encore
Talkwalker pour le traitement de données de réseaux sociaux. Enfin, quelques collaborateurs
disposent de compétences avancées sur Excel et tous savent l’utiliser à minima de façon
sommaire. Nous ne sommes donc pas au niveau zéro en termes de compétence data chez
Occurrence et les salariés sont conscient des enjeux et du potentiel d’une bonne exploitation
des données.
En somme, en termes de culture data, si l’intégralité des employés est sensible à l’impact
de la donnée et des apports pour l’entreprise, cette culture ainsi que les pratiques ne sont pas
25
harmonisées. Nous l’avons dit, les différents pôles utilisent leurs propres outils de traitement et
leurs propres process de réalisation des missions qui leurs sont confiés. Bien que des tentatives
soient mises en place, telle qu’une formation interne à destination de tous les nouveaux
arrivants, les bonnes pratiques en matière de qualité des données sont parfois négligées ou
inégales par manque de sensibilisation collective. Toutefois, soulignons le fait qu’il ne s’agit
pas d’une difficulté de gouvernance des données. Si les process peuvent encore être
perfectibles, les grands principes de disponibilité, d’usabilité, d’intégrité et de sécurité des
données6 sont respectés et institués de longue date. Il s’agit donc plutôt d’un travail à long terme
de communication et de partage des bonnes pratiques à l’ensemble des collaborateurs.
Pour terminer notre audit de maturité data, abordons un dernier axe d’évaluation : la
qualité des données. Il s’agit d’une notion très large englobant, d’une part la qualité des bases
de données de sorte à ce que celles-ci soient le plus simplement exploitables et robustes afin
d’éviter de potentielles erreurs de traitement. D’autre part, le concept de qualité des données
englobe également l’ensemble des dispositifs et des bonnes pratiques mises en œuvre afin
d’assurer la fiabilité des bases de façon pérenne.
Aussi, pour comprendre la question globale de la qualité des données chez Occurrence,
il faut prendre en compte le contexte de l’entreprise. Il s’agit d’une PME, ne disposant pas des
moyens techniques et financiers pour déployer un logiciel de gestion de la qualité des données
tel que Talend7 par exemple. De plus, nous l’avons dit, les équipes sont conscientes des enjeux
et des apports de l’exploitation des données sur la performance, mais elles ne maîtrisent pas
véritablement les besoins en matière de qualité que cela implique.
6
R. Gaetan, « Data Governance ou gouvernance des données : Qu’est-ce que c’est ? », Lebigata.fr. URL :
https://www.lebigdata.fr/data-governance
7
Site de Talend : https://www.talend.com/fr/
26
computing. Cette architecture est désormais ancrée dans pratiques collectives de l’entreprise, si
bien qu’il est extrêmement délicat d’envisager aujourd’hui une restructuration globale.
D’autre part, si comme expliqué plus haut, l’ensemble des collaborateurs dispose des
bases de la bureautique et savent utiliser certains logiciels spécialisés, le pool de compétences
informatiques générales reste assez faible. En effet, la majorité des salariés sont en premier lieu
des spécialistes de la communication, de la sociologie et des études, qui se sont adaptés et
formés aux outils nécessaires pour leur activité. Ainsi, Occurrence ne dispose pas de véritables
spécialistes de la donnée, en mesure de déployer des modèles statistiques avancés ou de
manipuler des jeux de données à l’aide de langages de programmation dédiés tels que R ou
Python. Par conséquent, les nettoyages et les traitements ne sont pas automatisés, pouvant
entraîner une perte de qualité et de temps non négligeable.
Enfin, bien qu’il existe des outils à disposition des collaborateurs, tels qu’un guide des
bonnes pratiques, des processus qualité déployés, ou encore des espaces de partage des savoirs,
ces solutions ne sont que faiblement utilisées. La faible communication sur l’existence de ces
27
ressources accessibles à tous a en effet entraîné cette sous-exploitation. De plus, la période
COVID entre 2020 et 2021 a fortement impacté les temps d’échanges et de partage des
compétences déployées jusqu’alors. Or, la question de la qualité des données est l’affaire de
tous et non uniquement des équipes informatiques, comme publié par Gartner en 20078.
5. Constats et objectifs
Maintenant que nous avons réalisé un état des lieux général du niveau de maturité de
l’entreprise en matière de données selon plusieurs critères, dressons le bilan et les conclusions
de notre évaluation. L’Observatoire de la Maturité Data des Entreprises9 a établi une échelle
numérotée de 0 à 6 afin de graduer le niveau de maturité d’une entreprise. Le grade « zéro »
indique l’absence d’outil numérique pour la gestion des données de l’entreprise. À l’inverse, le
grade le plus haut – six – signifie qu’une entreprise dispose de spécialistes de la donnée, d’une
Gouvernance Data solide, d’un système d’information entièrement interconnecté et
multidirectionnel, ainsi que d’outils de traitement avancées telles que des solutions de machine
et deep learning. Bien sûr, toutes les entreprises n’ont pas les moyens ni le besoin d’atteindre
ce dernier palier, s’adressant principalement aux grands groupes. Mais l’objectif reste toutefois
de s’en rapprocher car tout organisme est générateur de données exploitables dans son pilotage
et ses performances.
Ainsi, sur cette échelle, nous pouvons placer Occurrence entre les niveaux 1 et 2. En
effet, bien que l’entreprise dispose de quelques outils de traitement de la donnée, le pilotage est
majoritairement réalisé à l’aide de bases Excel indépendantes. De même, une culture data
commune et de bonnes pratiques en matière de qualité des données sont encore en voie de
développement et peu institutionnalisées. Toutefois, un pilotage informatisé par processus, ainsi
que la présence d’un Directeur SI viennent rehausser le bilan général.
8
Gartner, « « Dirty data » is a business problem, not an IT problem, says Gartner », 2007. URL :
https://www.gartner.com/newsroom/id/501733
9
Site de l’Observatoire de la Maturité Data. URL : https://observatoire-data.fr/
10
Op cit. Site de l’Observatoire de la Maturité Data.
28
techniques et financiers, ni le besoin à court terme. Ainsi, ce troisième niveau consiste à
déployer et démocratiser l’usage d’outils de Business Intelligence (BI), tant pour le pilotage
interne que lors des missions clients. En somme, il s’agit d’outils facilitant la compréhension
des données à disposition et permettant d’éclairer les prises de décision stratégiques des
décideurs de l’entreprise.
Essayons désormais de comprendre quels sont les enjeux d’une bonne exploitation des
données et du déploiement des outils de Business Intelligence, notamment au regard du secteur
d’activité de l’entreprise. Le monde des études et de la communication possède en effet ses
propres besoins et contraintes métiers que nous détaillerons dans un second temps.
En premier lieu, notons que, toujours selon l’Observatoire de la Maturité Data des
Entreprises, « 80% des entreprises interrogées pensent pouvoir améliorer leur performance
grâce aux données. »11. Ce chiffre illustre bien le changement de paradigme s’étant propagé ces
15 dernières années. Les données sont génératrices de valeur, dont la bonne exploitation peut
se traduire par une croissance économique, un gain de temps sur de nombreux processus, ainsi
que des décisions plus avisées en matière de pilotage.
11
Ibid.
29
met en forme pour être un support à la prise de décision. »12. L’un des grands enjeux de la BI,
quel que soit le secteur d’activité, est donc de déployer des outils d’interprétation. C’est-à-dire,
de constituer une passerelle entre les sources de données et les décideurs de l’entreprise, afin
de les rendre compréhensibles, génératrices de nouveaux questionnements et de nouvelles
décisions.
Plus qu’un simple regroupement, les outils d’informatique décisionnelle sur le marché
permettent également d’harmoniser les traitements et d’établir des relations entre les bases. Des
pipelines et des processus ETL peuvent être paramétrés afin de consolider la qualité lors de
l’import des données, de sorte que celles-ci soient directement exploitables suite à leur
acheminement.
Par ailleurs, rappelons que les outils BI sont également des logiciels de restitution des
données. Cela passe notamment par la construction de tableaux de bord et de rapports
permettant le suivi des indicateurs de performance les plus impactant à travers un ensemble de
graphiques et de chiffres clés. Or Occurrence réalise également des missions de création de
tableaux de bord de la communication pour ses clients. Une bonne datavisualisation est un
élément primordial afin de mettre en valeur les informations les plus importantes et d’engendrer
de la satisfaction client. Plus flexibles et interactifs que des tableaux de bord Excel, le
déploiement d’outils BI constitue donc une nouvelle offre pour le cabinet. Tout en restant dans
son domaine de spécialité (l’évaluation de la communication), ces solutions sont susceptibles
d’attirer une nouvelle clientèle et, par conséquent, de générer du chiffre d’affaires.
12
RIKHARDSSON Pall et YIGITBASIOGLU Ogan, « Business Intelligence & analytics in management
accounting research: Status and future focus », dans International Journal of Accounting Information Systems,
vol. 29, 2018, pp. 37-58 [en ligne]. URL :
https://econpapers.repec.org/article/eeeijoais/v_3a29_3ay_3a2018_3ai_3ac_3ap_3a37-58.htm
30
De façon pragmatique, la génération de profit est en effet l’enjeu principal du
déploiement de ces solution par l’entreprise. Une PME ne dispose pas des fonds nécessaires
pour investir dans la Recherche et Développement (R&D) sans espérer un retour sur
investissement. En l’Occurrence, les outils de Business Intelligence sont au goût du jour et une
demande commence à naître progressivement sur le marché des études. Il s’agit alors de pouvoir
rester concurrentiel lors de réponses à des appels d’offre, bien que la demande du client ne
reflète pas toujours ses besoins réels qui ne nécessiteraient pas l’usage d’outils BI.
Toutefois, la BI est un sujet vaste qu’il nous faut délimiter et intégrer au cadre spécifique
de son exploitation par une société telle qu’Occurrence. Ainsi, bien que nous reviendront
brièvement sur les origines de l’informatique décisionnelle au sein d’une partie plus théorique,
ne nous attardons pas sur des bornes chronologiques ou géographiques. Nous allons plutôt
restreindre notre analyse à un secteur d’activité spécifique. En effet, nous allons nous concentrer
sur l’exploitation et l’apport de la Business Intelligence dans le secteur des études et de la
communication. Précisons que si nous présenterons un cas de déploiement concret au sein de
la société Occurrence, notre étude se veut plus englobante. Nous souhaitons ainsi mettre en
lumière les besoins et les usages spécifique à ce secteur, mais également les sources de données
privilégiées et les principaux KPI de communication.
Il existe une multitude d’outils d’informatique décisionnelle car cette discipline englobe
un champ relativement large aux frontières parfois floues : logiciels de datavisualisation divers,
de manipulation des données, de question de la qualité, logiciels hybrides, etc. De fait, nous ne
pourrons pas dans cette étude nous montrer exhaustif sur les spécificités techniques de chacun,
31
d’autant que cela présenterait un intérêt scientifique relativement faible. Ainsi, pour des raisons
pratiques, nous évoquerons un certain nombre d’outils BI déployés chez Occurrence durant un
an et demi d’étude, mais nous nous concentrerons sur le logiciel Microsoft Power BI. Leader
du marché dans ce domaine, cette solution hybride a fait l’objet d’une implémentation longue
et en plusieurs phases de façon incrémentale. Nous reviendrons plus tard sur le choix de cet
outil, mais soulignons qu’il est à l’origine de cette étude, ayant éveillé l’intérêt d’Occurrence
pour les problématiques BI.
Ainsi, notre étude visera à nous demander en quelle mesure les nouveaux outils de
Business Intelligence sont une précieuse aide à la prise de décision dans un secteur
hautement concurrentiel comme celui des études, et plus spécifiquement dans le domaine
de la communication.
Pour répondre à cette question, la seconde partie de notre travail constituera une approche
théorique des grands concepts de la BI et de l’exploitation des données dans le secteur des
études et de la communication. Nous réaliserons ainsi un double état de l’art de ces deux
disciplines avant de spécifier les besoins et les cas d’application de la BI dans notre secteur
d’activité. Enfin, la troisième partie sera consacrée à la présentation d’un cas concret : le
déploiement progressif des outils BI au sein du cabinet d’étude Occurrence. Nous y exposerons
les différents logiciels utilisés, à commencer par Microsoft Power BI, les phases de tests
réalisées ainsi que les obstacles et les limites rencontrées.
32
II. Cadre théorique : Etude des concepts BI
Dans cette seconde partie, nous allons nous concentrer sur une approche théorique de la
Business Intelligence dans le secteur des études et sondage en communication. Pour cela, nous
décrypterons les grands travaux ayant déjà été réalisés par le passé sur ces thématiques et dont
nous nous sommes servis pour notre étude. Puis, nous mettrons en lumière les concepts phares
de la BI et les contextualiserons au sein de notre secteur d’étude.
En réalité, nous allons principalement nous concentrer sur le domaine des études et
sondage, tant ce secteur est intimement lié à la collecte et le traitement des données. Le monde
de la communication n’est pas en reste, comme nous le verrons plus tard, mais l’analyse des
données de ce secteur n’as pas encore véritablement l’objet de publication scientifique sérieuse.
De ce fait, nous disposions de moins de matériel d’étude pour en livrer une analyse approfondie.
Commençons par réaliser un état de l’art des publications de référence dans ce domaine.
Notons que tant pour les sondages que la communication, il s’agit de disciplines ayant une forte
dimension sociologique. De fait, nous nous sommes intéressés aux grands travaux scientifiques
et universitaires de ce secteur. Précisions également que nous avons privilégié les ouvrages
33
récents ou les rééditions, car il s’agit d’une discipline jeune (datant de la seconde moitié du
XXème siècle) et encore en mouvement, impliquant des changements dans sa pratique.
Ainsi, avons principalement basé notre étude sur cinq publications de référence :
- Sociologie des Opinions, Claude Dargent, 201114 : Cet ouvrage dédié à un public
universitaire centralise toutes les avancées de la recherche en matière de collecte et de
traitement de l’opinion publique. L’auteur y présente les méthodes et les bonnes pratiques de la
collecte des données de sondage, et fait le point sur leurs utilisations à des fins politiques ou
commerciales.
- L’analyse quantitative des données, Olivier Martin, 202016 : Dans sa 5ème réédition,
ce livre porte également sur la manière de traiter des données quantitatives dans le cadre
d’enquêtes et de sondages. Cependant, il ne s’agit pas d’un ouvrage mathématique ou théorique
sur le fonctionnement statistique détaillé des analyses. Il se présente plutôt comme un guide
fonctionnel des bonnes pratiques à adopter afin d’éviter les biais de traitement.
13
BOURDIEU Pierre, « L’opinion publique n’existe pas », dans Les Temps modernes. URL :
https://www.acrimed.org/IMG/article_PDF/article_a3938.pdf
14
DARGENT Claude, Sociologie des opinions, 2011, 240 p.
15
LE ROUX Brigitte et LEBARON Frédéric (dir.), La méthodologie de Pierre Bourdieu en action : espace
culturel, espace social et analyse des données, 2015, 262 p.
16
MARTIN Olivier, L'analyse quantitative des données, 2020, 128 p.
34
Questions de communication, Julien Boyadjian et Julien Velcin, 201717 : Ce dernier article,
bien moins théorique que les précédents ouvrages, présente un cas concret de traitement de
données de la communication politique sur Twitter. Les auteurs y décrivent leur méthodologie
d’analyse quantitative d’un panel, représentatif à l’aide des nouvelles technologies de traitement
des données : Modèles de régression, outils de traitement du langage naturel... Il s’agit de la
seule publication que nous ayons trouvée abordant à la fois les thématiques de la
communication et des sondages.
Notons que nous nous sommes penchés sur d’autres ouvrages et articles sur le sujet (cf
bibliographie), mais ces cinq publications centralisent déjà largement les connaissances
théoriques et techniques sur cette discipline.
Dans sa Sociologie des Opinions, Claude Dargent nous rappelle que le concept d’
« opinion publique » émerge dans la seconde moitié du XVIIIème siècle. Mais les premiers
sondages de qualité sont arrivés bien plus tard, aux Etats-Unis durant l’entre-deux-guerres.
Avant, cela, toujours aux Etats-Unis, la presse invente le concept de sondage en allant demander
les intentions de vote des hommes d’environ 45 ans lors d’une élection présidentielle. A ce
moment-là, il n’y avait encore aucune notion de représentativité. En 1935, un premier institut
de sondage est créé afin de réaliser de la recherche en marketing. Cela constitue une rupture car
on commence à se préoccuper de la représentativité des données collectées, et donc de la qualité
de l’échantillon. En France, la pratique se développe notamment en 1938, lors de la création de
l’Institut Français d’Opinion Publique (IFOP) par le philosophe Jean Stoezel à son retour des
Etats-Unis18.
Dans leur article, J. Boyadjian et J. Velcin définissent les sondages comme « une
technique d’enquête, parmi d’autres, d’analyse des opinions, avec ses avantages et ses limites. »
et également « une des seules techniques permettant de mesurer quantitativement des
17
BOYADJIAN Julien et VELCIN Julien, « L’analyse quantitative des médias sociaux, une alternative aux
enquêtes déclaratives ? La mesure de la popularité des personnalités politiques sur Twitter », Questions de
communication, 2017, pp. 111-135
18
Op. cit. DARGENT, Sociologie des opinions, pp. 50-65.
35
opinions. »19. Cela nous montre bien que sondage et analyse de données sont intimement liées,
il n’y a pas de sondage sans analyse. C’est pourquoi nous allons aborder ici les grands principes
de ces méthodes d’analyses.
Il s’agit d’une méthode d’analyse principalement française, impulsée par Bourdieu dans
le champ de la sociologie. Originellement développée par J-P Benzécri dans les années 60, elle
consiste à placer les individus sur un axe [x,y] en fonction de ses données. Un groupe d’individu
constituera alors un nuage de point exploitable (avec des méthodes de clustering par exemple)
pour identifier les axes principaux de ce nuage de point et comprendre le profil des individus22.
D’autre part et de façon plus pratique, la création d’un sondage passe par la définition
d’une cible d’enquête, puis de la création d’un échantillon provenant de cette population cible
19
Op.cit. BOYADJIAN et VELCIN, « L’analyse quantitative des médias sociaux, une alternative aux enquêtes
déclaratives ? La mesure de la popularité des personnalités politiques sur Twitter », Questions de
communication, pp. 111-135
20
Op. cit. MARTIN, L'analyse quantitative des données,128 p.
21
LEBARON Frédéric (dir.), La méthodologie de Pierre Bourdieu en action : espace culturel, espace social et
analyse des données, Chap. 3, 2015, p. 45.
22
LE ROUX Brigitte et LEBARON Frédéric (dir.), La méthodologie de Pierre Bourdieu en action : espace
culturel, espace social et analyse des données, Chap. 1, 2015, 262 p.
23
BONNET Philippe, La méthodologie de Pierre Bourdieu en action : espace culturel, espace social et analyse
des données, Chap. 2, 2015, p. 37
36
et qui sera interrogé lors du sondage. Il s’agit du principe d’échantillonnage et est un aspect
déterminant de la qualité des données obtenues. Olivier Martin, dans son ouvrage, présente
plusieurs méthodes d’échantillonnage : échantillon aléatoire, empirique, de convenance24...
Mais la méthode la plus répandue, et développée par Claude Dargent, est la « méthode des
quotas »25. Celle-ci consiste se baser sur des quotas caractéristiques de la population étudiée
(genre, CSP, âge...) afin de s’assurer que l’échantillon interrogé soir représentatif de la cible
visée. Nous aurons l’occasion de présenter cette méthode d’échantillonnage dans un cas concret
chez Occurrence dans la troisième partie.
Puis, une fois la collecte des données effectuée, la base est nettoyée et enfin, analysée. Une
fois de plus présentées par Olivier Martin et Claude Dargent, les deux méthodes d’analyses
privilégiées sont les « tris à plat » et les « tris croisés » :
- Tri à plat : Il « constitue la première étape de toute analyse de données »26. Il permet
d’observer la distribution des réponses sur les différentes modalités de chaque question
posée. On étudie donc les modalités au sein d’une même variables, qui peuvent être
recodées à cette occasion. Le recodage des modalités consiste à regrouper ensemble
plusieurs modalités de réponses pour en observer la distribution commune. Cela permet
de mettre en avant une modalité de réponse qui se démarque de toute les autres, ou, à
l’inverse, la prise en compte d’une opinion minoritaire dans un avis plus global.
- Tris croisés : Ils visent à croiser deux variables afin d’en observer la corrélation. Par
exemple, l’opinion des répondants sur un sujet en fonction de leur genre ou de leur
tranche d’âge. Cela permet de constituer un maillage de l’opinion sur un sujet donné et
d’en dégager les différences en fonction des profils de répondants.
Les différents auteurs s’accordent sur un point : si la science des sondages est intimement
liée à l’analyse des données, elle est également soumise à de nombreux biais, dont certains sont
inévitables. En effet, dès 1973, Bourdieu publie son texte emblématique intitulé L’Opinion
24
Op. cit. MARTIN, L'analyse quantitative des données, pp. 10-46.
25
Op. cit. DARGENT, Sociologie des opinions, p. 101
26
Ibid. p. 148
37
publique n’existe pas. Dedans, il met en garde sur trois éléments inhérents à la pratique des
sondages27 :
- Tout le monde n’a pas une opinion : Or la neutralité n’est souvent pas prise en compte
dans les sondages.
- Toutes les opinions ne se valent pas : Le poids de l’opinion de toutes les catégories et
classe sociale n’a pas la même valeur, dépendamment du sujet.
- Les sondages sont toujours motivés par un intérêt politique ou économique : Donc,
par définition, ils seront biaisés pour servir leurs intérêts.
Par conséquent, il se montre très critique vis-à-vis d’une analyse statistique des données
d’opinion. Selon lui, un sondage implique nécessairement des biais d’analyse, qu’il faut au
mieux parvenir à éviter. C’est également pour cela qu’il privilégie une approche descriptive
qu’une approche modélisante : il est plus intéressant de parvenir à établir des profils types que
d’essayer de dégager des tendances.
En effet, appelés « biais de collecte » il s’agit de la principale limite des données de sondage.
Selon la tournure de la question posée aux répondants, celle-ci sera interprétée différemment et
les données collectées présenteront des variations. Même sans cela, J. Boyadjian et J. Velcin
expliquent qu’il peut y avoir un décalage entre le répondant et le sondeur quant à la façon dont
il faut répondre. Pour les auteurs, il n’y a donc « pas de formulation idéale »28, ces biais sont
inévitables et il est nécessaire de les considérer lors de l’interprétation des données collectées.
De même, un autre biais soulevé par Claude Dargent est le biais d’échantillonnage29. Nous
l’avons vu, il s’agit d’une étape cruciale de préparation d’une enquête, mais les résultats peuvent
être faussés si l’échantillon n’est pas représentatif. Malgré les méthodes évoquées plus haut, il
est possible que celui-ci ne soit pas représentatif par manque de significativité. Cela signifie
que l’échantillon est trop petit pour la population étudiée. En effet, plus la population cible est
conséquente, plus le nombre de répondant doit être important. C’est pourquoi malgré le respect
des quotas, les résultats peuvent être biaisés si les principes de base de l’échantillonnage ne sont
pas respectés scrupuleusement.
27
Op. cit. BOURDIEU, « L’opinion publique n’existe pas », dans Les Temps modernes.
28
Op.cit. BOYADJIAN et VELCIN, « L’analyse quantitative des médias sociaux, une alternative aux enquêtes
déclaratives ? La mesure de la popularité des personnalités politiques sur Twitter », Questions de
communication, pp. 111-135
29
Op. cit. DARGENT, Sociologie des opinions, 240 p.
38
4. Analyse des données de communication
Mais d’autres moyens de collectes et d’analyse des données sont possibles. Par exemple,
l’attractivité d’un site internet peut être quantifié à l’aide de Google Analytics. De manière
générale, les outils digitaux ont en effet ouvert de nouvelles possibilités dans l’analyse des
données de communication. Les réseaux sociaux en sont le plus bel exemple, offrant aux
entreprises des plateformes de collecte d’opinions communiquées publiquement. Cette
communication sur certains sujets peut ainsi être évaluée, comme le démontrent J. Boyadjan et
J. Velcin dans leur publication sur l’analyse de la communication politique sur Twitter31.
30
Ibid.
31
Op.cit. BOYADJIAN et VELCIN, « L’analyse quantitative des médias sociaux, une alternative aux enquêtes
déclaratives ? La mesure de la popularité des personnalités politiques sur Twitter », Questions de
communication, pp. 111-135
39
b. Emergence et généralisation des outils de Business
Intelligence
1. Etat de l’art
En premier lieu, à quelques exceptions sur des éléments spécifiques, nous avons exclus
les ouvrages trop anciens. Nous le savons, l’informatique a connu des évolutions drastiques au
cours du XXIème siècle. A l’an 2000, le terme de Big data était encore inconnu de tous et les
premiers outils de Business Intelligence étaient loin de détenir la puissance de calcul et la
flexibilité dont nous disposons aujourd’hui. De même, les technologies du Cloud et les logiciels
SAAS, pourtant si importantes pour la BI moderne, n’existaient pas encore. De ce fait, nous
avons entrepris de ne conserver que les publications ayant moins de 20 ans – sauf exception –
afin de conserver une vision actuelle de la discipline.
Par ailleurs, remarquons que si l’informatique décisionnelle est un sujet ayant fait l’objet
de nombreuses publications ces dernières années, très peu d’entre elles présentent une approche
théorique de celui-ci. En effet, la plupart des ouvrages abordent la BI de façon fonctionnelle,
40
dans des cas d’application concrets de son déploiement et à destination des professionnels en
entreprise. Nous avons ainsi essayé de nous pencher à la fois sur des publications universitaires
théoriques et sur son approche pratique afin de mieux identifier les enjeux et les obstacles à son
implantation.
De fait, voici les quatre publications de références qui constituent les piliers de notre
compréhension de la BI :
- Les nouveaux tableaux de bord des managers, Alain Fernandez, 201333 : Ayant
rédigé plusieurs ouvrages portant sur le déploiement des outils de Business Intelligence en
entreprise, Alain Fernandez signe ici son guide de référence en matière de gestion de projet
dans ce domaine, réédité pour la sixième fois. Il y explique comment réussir son projet
d’intégration BI, comment exploiter les données et réaliser des tableaux de bords impactant.
Dans une moindre mesure, il s’intéresse également aux indicateurs de mesure de la
performance.
32
GOUARNE Jean-Marie, Le Projet décisionnel : Enjeux, Modèles, Architectures du Data Warehouse, 1997.
164 p.
33
FERNANDEZ Alain, Les Nouveaux Tableaux de bord des managers, Le Projet Business Intelligence clés en
main, 2013, 662 p.
34
MILLIE-TIMBAL Marie-Hélène, Construire des tableaux de bord vraiment utiles : associer les indicateurs à
la stratégie de l'entreprise et à son management, 2020, 190 p.
41
- « L’évolution des rôles du contrôleur de gestion à l’ère de la Business
Intelligence », ACCRA, par Élodie Allain, Patrice Landagaray et Jérôme Reutter, 202135 :
Cet article, au sujet spécifique peut sembler de prime abord moins pertinent que les précédents
pour estimer qu’il constitue une « publication de référence ». Toutefois, il se distingue par sa
grande clarté sur un sujet si dense et parfois relativement opaque. Ainsi, ce travail de quasi-
vulgarisation de la BI à travers un cas d’implantation concret auprès des contrôleurs de gestion
nous a apporté un éclairage nouveau sur la discipline et de nombreux éléments de réponses. Si
tant est qu’il ne puisse être considéré comme une publication majeure sur ce sujet, il représente
à minima un écrit central pour notre étude.
Notons que si ces publications constituent la base de notre étude, nous avons également
consulté d’autres ressources pour étayer notre compréhension de points spécifiques. Par
exemple, l’article de Brahim Saber, publié de 2011 dans la Revue internationale d’intelligence
économique et abordant le rôle des logiciels open source pour la Business Intelligence36. De
même, Béa Arruabarrena publie, à l’occasion du colloque « Document numérique et société »
de Rabat en 2015, un article portant sur les enjeux de la datavisualisation37 qui nous a été très
utile pour expliciter ce concept.
A travers les éléments issues de nos recherches et des ouvrages cités précédemment,
procédons maintenant à une présentation succincte de la discipline qu’est l’informatique
décisionnelle. Aussi commençons par un rappel historique afin de remonter aux origines de
cette science nouvelle.
Les tableaux de bord, tout d’abord, constituent comme nous le verrons plus tard l’un des
piliers de la Business Intelligence, à la fois outil de pilotage et support d’aide à la prise de
35
REUTTER Jérôme, ALLAIN Élodie, LANDAGARAY Patrice, « L’évolution des rôles du contrôleur de
gestion à l’ère de la Business Intelligence », dans ACCRA, 2021, pp. 85-107. URL : https://www-cairn-
info.proxybib-pp.cnam.fr/revue-accra-2021-2-page-85.htm
36
SABER Brahim, « Open source comme système d'informatique décisionnelle », dans Revue internationale
d'intelligence économique, 2011, pp. 93-101. URL : https://www-cairn-info.proxybib-pp.cnam.fr/revue-
internationale-d-intelligence-economique-1-2011-1-page-93.htm
37
ARRUABARRENA Béa, « Datavisualisation : principes, enjeux et perspectives pour des utilisateurs non
experts », dans BROUDOUX Évelyne, Big Data - Open Data : Quelles valeurs ? Quels enjeux ? Actes du
colloque « Document numérique et société », Rabat, 2015, pp. 151-163. URL : https://www-cairn-info.proxybib-
pp.cnam.fr/--9782807300316-page-151.htm
42
décision. Ceux-ci constituent sans nul doute les prémices les plus anciens de cette discipline.
En effet, dans son ouvrage sobrement intitulé Le Tableau de Bord, publié en 2021, Pierre
Maurin explique que leur première trace remonte aux Etats-Unis à la fin du XIXème siècle, au
sein des grandes entreprises américaines de l’époque38. Ceux-ci étaient réalisés à la main dans
le but de synthétiser à l’aide de graphiques les finances du groupe.
Cependant, il faudra attendre près de 100 ans, jusque dans les 1970, pour que l’on
dissocie les tableaux de bords de problématiques purement liées à la production, tel que la
productivité des ouvriers ou les coûts de matières premières par exemple39. C’est ainsi le client
qui devient le centre du Dashboard, avec l’émergence des premiers indicateurs qualitatifs, tels
que la satisfaction de celui-ci. Ces tableaux, qui étaient jusque-là des outils de contrôle,
deviennent progressivement des outils de pilotage et de performance, dont les champs
d’évaluation s’étendent à tous les secteurs de l’entreprise : la comptabilité, l’administration, la
communication, etc. Il s’agit là de la forme contemporaine des Dashboards tels que conçus
aujourd’hui à travers les outils de d’informatique décisionnelle.
Puis, dans les années 70, le développement des technologies informatiques commencent
à faire émerger les premiers systèmes de requêtages sur des bases de données. Encore dix ans
plus tard, émergent les premiers « infocentres », c’est-à-dire, des espaces mutualisés stockant
une copie des données destinée à leur analyse41. Il s’agit en effet des prémices de l’un des grands
principes de l’informatique décisionnelle, visant à analyser une copie des données dans un
espace sécurisé et non à la source directement.
Mais c’est réellement dans les années 90 que la BI prend réellement sa définition
moderne, puisque l’analyse Howard Dresner reprend la terminologie de 1958 pour définir cette
38
MAURIN Pierre, Le tableau de bord, 2021, p.7
39
Ibid, p.7
40
AURINE Guillaume, « Une brève histoire de la Business Intelligence », 7 juin 2016. URL :
https://www.salesforce.com/fr/blog/2016/06/une-breve-histoire-de-la-business-intelligence.html
41
Ibid.
43
discipline comme l’ensemble des méthodes d’analyse des données afin d’aider à la prise de
décision42. En parallèle apparaissent les « Data Warehouse », ou entrepôts de données en
Français, que Jean-Marie Gouarné qualifie dans son ouvrage de « clé de voute de ce que nous
appelons l’information décisionnelle »43.
Enfin, la BI prend encore un nouvel essor dans le courant des années 2000 avec la
naissance de la Big data, se développant à mesure que la puissance de calcul des ordinateurs
augmente. Aujourd’hui, la BI est marquée le déploiement d’algorithmes prédictifs de pointe et
un pilotage en temps réel alimenté par un flot discontinu de données.
42
Ibid.
43
Op. cit. GOUARNE, Le Projet décisionnel : Enjeux, Modèles, Architectures du Data Warehouse, 1997. p. 4
44
SYBORD Christine, « Intelligence économique et système d’aide à la décision : de l’opérationnel « big data »
au stratégique « little knowledge » », dans Revue internationale d'intelligence économique, vol.7, 2015, p. 85.
URL : https://www-cairn-info.proxybib-pp.cnam.fr/revue-internationale-d-intelligence-economique-1-2015-1-
page-83.htm
44
Le Datawarehouse permet ainsi de palier à ce problème, comme l’explique avec précision
Jean-Marie Gouarné dans Le Projet Décisionnel, consacré à la théorisation de l’architecture de
ces entrepôts de données45. Au sein du système d’information de l’organisme, il constitue une
base de données relationnel, conçue à des fins d’analyse de données. Il va donc regrouper une
copie de l’ensemble des données fonctionnelles de l’entreprise et établir des relations entre elles
de façon thématique, comme l’a mentionnée Christine Sybord dans son article. Pour cela, le SI
de l’organisme doit comprendre des connexions entre les données sources et le Datawarehouse.
En somme, voici comment s’articule le cheminement des données, ou data flow :
- Ecriture des données dans la source : Les données sont stockées dans leur base source
et y demeurent jusqu’à leur suppression.
- Extraction des données depuis la source et copie dans le Datawarehouse à l’aide d’un
outil d’ETL. Nous en détaillerons le fonctionnement plus tard, mais celui-ci permet
notamment de transformer les données entre leur extraction et leur chargement dans le
Datawarehouse.
Nous pouvons donc constater la place centrale qu’occupe cet entrepôt dans le système
d’information d’une entreprise qui désire réaliser de la Business Intelligence. Cependant, tous
45
Op. cit. GOUARNE, Le Projet décisionnel : Enjeux, Modèles, Architectures du Data Warehouse, 1997. 164 p.
45
les organismes ne disposent pas d’un SI aussi bien orchestré. La réalité du terrain englobe
également de nombreux organismes n’ayant pas réellement opéré de transition numérique, et
se limites à des bases Excel stockées sur des serveurs locaux. Mais des solutions existent
aujourd’hui afin de palier à ce problème tout en réalisant de la BI.
Aujourd’hui, les outils BI sur le marché ont grandement évolué et certains se présentent
donc comme des solutions complètes. De ce fait, elles peuvent partiellement remplir le rôle
d’un Datawarehouse, sans avoir à reconstruire toute l’architecture du système d’information.
En effet, ces outils, bien qu’ils soient conçus pour se connecter à un entrepôt de données,
disposent de nombreux connecteurs vers d’autres sources de données. A l’aide d’un ETL,
intégré ou non au logiciel, les données peuvent alors être transformées et copiées dans l’outil
BI, à la manière d’un Datawarehouse, mais il ne dispose pas des mêmes capacités de stockage
et de traitement.
En bout de chaîne, après le traitement des données et leur analyse par le biais de requête et
de calculs, les résultats peuvent ensuite être restitués au sein d’un tableau de bord à des fins de
pilotage. Bien qu’il ne s’agisse que de la dernière étape de l’ensemble complexe du processus
de Business Intelligence, elle est également l’une des plus importante. En effet, tout l’enjeu de
ce process est de rendre la donnée interprétable par les décideurs en entreprise afin
d’accompagner leurs prises de décision. C’est pourquoi le tableau de bord constitue la finalité
de la chaîne de traitement, et que les décideurs ne doivent pas être écartés du processus de
création et d’analyse des données. M-H. Millie-Timbal le rappelle à bon escient dans son guide
pratique : « [Les] objectifs doivent donc être clairement formulés : quelles sont les priorités et
[...] quels résultats voulons-nous atteindre ? »46. Sans l’implication des décideurs pour répondre
à ces questionnements et superviser la création, le projet data est voué à l’échec.
Suite à l’étude théorique des deux disciplines qui encadrent notre projet, à savoir, le
secteur des sondages et celui de l’informatique décisionnelles, nous pouvons progressivement
préparer le terrain en prévision de notre projet concret d’intégration. Nous venons d’observer,
dans les grandes lignes, les principaux axes de fonctionnement de ces secteurs. Dans cette
46
Op. Cit. MILLIE-TIMBAL, Construire des tableaux de bord vraiment utiles : associer les indicateurs à la
stratégie de l'entreprise et à son management, 2020, p. 49
46
seconde partie, nous allons donc nous rapprocher d’une vision pratique et de terrain des grandes
notions observées. Nous conserverons cependant un angle d’approche généralise et académique
afin de ne pas encore évoquer notre cas spécifique.
Ainsi, nous allons aborder dans un premier temps les concepts phares de la BI, à l’image
d’un dictionnaire pratique décrivant les grandes notions de cette discipline, susceptibles d’être
utilisées dans le cadre d’un projet de BI. Dans un second temps, nous croiserons les disciplines
afin de rattacher ces concepts à des cadres d’utilisation concrets au sein de cabinets d’études et
de sondages.
La BI est un champ d’étude vaste, mais le champ sémantique l’accompagnant l’est tout
autant. Les terminologies utilisées sont nombreuses et désignent parfois une notion complexe à
travers un terme simple, où l’inverse. Les anglicismes sont également particulièrement présents
dans cette discipline, d’où leur utilisation dans notre étude et le besoin de traduction de termes
que nous effectuons par endroit.
Ici, nous allons donc nous pencher sur les principales notions qui régissent ce champ
d’étude, en explicitant à quoi celles-ci se réfèrent précisément. Précisions que nous détaillerons
moins en profondeur les éléments que nous avons déjà évoqués plusieurs fois précédemment,
afin d’en alléger la lecture.
1. Automatisation
Dans leur article intitulé « Automatisation des tableaux de bord et cohérence du contrôle
de gestion : à propos de deux cas », Christine Marsal et Denis Travaillé soulignent que cette
automatisation est rendue possible par la cohérence temporelle des données47. En somme, une
fois une base de données source créée, celle-ci ne change plus de forme sur la durée. Les
nouvelles données viennent ainsi s’incrémenter dans la base sans en modifier l’organisation.
Cette stabilité des bases perdure ainsi lors de son import dans le logiciel BI à chaque nouvelle
actualisation des données. Les instructions de traitement préconfigurées n’ont alors plus qu’à
être répétés avec les nouvelles données pour mettre à jour un tableau de bord existant.
47
TRAVAILLÉ Denis, MARSAL Christine, « Automatisation des tableaux de bord et cohérence du contrôle de
gestion : à propos de deux cas », dans Comptabilité Contrôle Audit, 2007, pp. 75-96. URL : https://www-cairn-
info.proxybib-pp.cnam.fr/revue-comptabilite-controle-audit-2007-2-page-75.htm
48
quantifiables à l’aide des données. Plus concrètement, il s’agit des traitements et calculs réalisés
sur les données une fois intégrées à l’outil afin d’apporter des éléments mesurables et
interprétables aux décideurs d’entreprises. Ce sont ces KPI qui sont rapportés sur les tableaux
de bord et qui constituent le pouvoir d’aide à la prise de décision des outils BI.
3. Tableaux de bord
Nous l’avons déjà largement évoqué, le tableau de bord constitue l’outil clé de pilotage
à l’aide de la Business Intelligence. Il se place comme le support de l’interprétation des données,
c’est-à-dire la passerelle entre données brutes et information. Il en existe différents types
(Pilotage, suivi des performances internes, suivi de l’activité, suivi budgétaire, information
client...) et son architecture évoluera selon ces types et les besoins spécifique des utilisateurs.
Tout projet BI passe par l’élaboration d’un tableau de bord. Pour cela, il est nécessaire de
consulter les utilisateurs finaux et de comprendre leurs besoins métiers.
48
Op. Cit. FERNANDEZ, Les Nouveaux Tableaux de bord des managers, Le Projet Business Intelligence clés
en main, 2013, 662 p.
49
Op. Cit. MILLIE-TIMBAL, Construire des tableaux de bord vraiment utiles : associer les indicateurs à la
stratégie de l'entreprise et à son management, 2020, 190 p.
49
4. Datavisualisation
5. Concept de « no-code »
50
Op. Cit. ARRUABARRENA, « Datavisualisation : principes, enjeux et perspectives pour des utilisateurs non
experts », dans Big Data - Open Data : Quelles valeurs ? Quels enjeux ? Actes du colloque « Document
numérique et société », 2015, p. 153.
51
Ibid. p. 153
50
programmation. Ceux-ci ont explosés depuis ces dernières années : la programmation ne sert
plus à exécuter des tâches, mais à développer des outils permettant à tous de le faire. Ces
solutions font écho à un besoins émergents d’une prise en main plus rapide des outils, sans avoir
recourt à une formation avancée en programmation.
Dans le domaine de la BI, les outils no-code sont la norme : il peut s’agir d’outils
spécialisés dans le nettoyage de la donnée, la création de tableaux de bord, etc. La pratique de
la BI à l’aide de langage de programmation n’est pas à la portée de tout le monde et semble très
opaque et technique. Cependant, les outils no-code ont aussi leur lot de difficultés et leur
maîtrise demande une formation rigoureuse.
En effet, nous pouvons constater une corrélation entre les possibilités techniques d’un
outil et la difficulté de sa prise en main. En clair, plus un outil dispose de fonctionnalités, plus
sa prise en main sera complexe. Chaque outil BI existant a son propre équilibre à ce niveau :
certains vont être très technique (Power BI par exemple) et difficile à maîtriser. D’autres
disposeront de possibilités limitées mais d’une prise en main intuitive (Pocket Result par
exemple).
Cette explosion des logiciels no-code est à mettre en relation avec une réalité de terrain
pour beaucoup d’entreprises et donc la tendance est à la hausse : lors du recrutement, on a
tendance à privilégier l’expertise métier à la maîtrise technique des outils. Notamment au sein
des PME et des start-ups, on considère qu’il est plus simple pour un employé de se former à
des logiciels qu’il ne maîtrise pas plutôt que d’acquérir une compréhension métier relative à un
51
domaine d’activité spécifique. Suivant cette logique, il est alors plus simple d’acquérir les
rudiments de la BI à l’aide d’outils « no-code » que d’acquérir la maîtrise d’un langage de
programmation, dont la tâche est plus fastidieuse.
Toutefois, malgré les nombreux axes de vigilances que nous venons de souligner : les
logiciels « no-code » présentent une avancée considérable permettant de rendre la BI et
l’analyse de données de plus en plus accessible, alors qu’elle était jusqu’alors réservée à des
experts de la programmation. Il faut cependant garder en tête que ces outils requièrent de la
pratique pour en assurer la maîtrise, et qu’elles ne constituent pas toujours une solution de
facilité.
Après avoir étudié les bases théoriques de la Business Intelligence et de l’analyse des
données de sondage, nous allons croiser dans cette partie ces deux domaines d’activités.
L’objectif est de parvenir à déterminer les voies d’application de la BI au sein des instituts
d’études, en identifier les apports et les contraintes.
52
Tout d’abord, notons que la BI peut avoir plusieurs voies d’utilisation, mais l’une de ses
finalités est similaire aux sondages : la compréhension d’un publique ou d’une clientèle à l’aide
des données. Dans le cas des sondages, on interroge le consommateur et on récolte son opinion.
Dans l’analyse de données, on collecte et exploite de façon plus large les informations dont
nous disposons en provenance de sources de données multiples. Comme l’explique Maria
Mercanti-Guérin dans la Revue internationale d’intelligence économique en 2013, « L’objectif
[est] de qualifier les consommateurs et de leur adjoindre des scores de performance »52.
Ainsi, la BI présente l’avantage, pour une entreprise, de porter un regard sans biais (du
moins à l’origine) sur les consommateurs. La donnée expose des faits et non une opinion à
paramètres variables : par exemple, les articles les plus achetés selon la saisonnalité, le profil
des consommateurs, etc. Ainsi, on évite les biais d’interprétations propres aux sondages, tels
que présentés plus tôt (cf II.A.a.3. – Biais d’analyses à éviter). Cependant, une telle analyse ne
permet pas d’obtenir des données aussi précises et concrètes que les sondages en termes de
ressenti du consommateur. Par exemple, l’extraction et le traitement de la donnée à l’aide de la
BI ne saurait déterminer ce qui a motivé une personne à acheter un produit.
Cette utilisation est en effet en parfaite adéquation avec le fonctionnement des cabinets
d’études tels qu’ils fonctionnent aujourd’hui. Comme, nous l’avons dit, les sondages sont
désormais majoritairement réalisés à des fins économiques ou, politique, dans une moindre
mesure. De fait, la majorité des études réalisés par les cabinets sont des missions de prestations
auprès d’entreprises clientes, après avoir répondu et remporté un appel d’offre (AO). Or ces
AO requièrent de plus en plus l’intégration d’outils de BI dans les études souhaitées, en
complément ou non d’une étude par sondage. Ainsi, des experts de l’informatique décisionnelle
au sein d’un institut peuvent se connecter, à l’aide de leurs outils, au Data Warehouse de
l’entreprise, voire directement aux sources de données entrantes.
52
MERCANTI-GUÉRIN Maria, « L'amélioration du reciblage par les Big Data : une aide à la décision qui
menace l'image des marques ? », dans Revue internationale d'intelligence économique, 2013, pp. 153-165. URL
: https://www-cairn-info.proxybib-pp.cnam.fr/revue-internationale-d-intelligence-economique-1-2013-2-page-
153.htm
53
Attention toutefois : cela peut entrainer et entraine déjà en partie la hausse du ciblage de
la clientèle et la collecte d’informations sur celle-ci, notamment à travers le web. A terme, cela
peut provoquer une dégradation de l’image de marque des entreprises et, par conséquent, un
rejet collectif. C’est pourquoi il faut parvenir à modérer cette pratique, d’une part, pour ne pas
en venir à porter atteinte à la propriété privée et aux données personnelles des individus.
D’autre-part, pour ne pas provoquer de phénomène d’autodestruction de cette méthode
d’analyse, comme évoquée plus haut, à travers un sur-ciblage et une collecte excessive des
données.
Une autre voie d’intégration de la BI au sein des instituts d’études et de sondage est la
réalisation de tableaux de bords de la performance et de pilotage stratégique. Nous l’avons vu
plus tôt, l’un des axes majeurs de l’informatique décisionnelle est le reporting des données au
sein de Dashboards. Il s’agit en effet de la principale méthode de restitution des données à
l’aide de ces outils. Or notons que les instituts d’études et sondages ne réalisent pas uniquement
des enquêtes externes, c’est pourquoi l’audit et le suivi des performances internes rentre
également dans le champ de compétence de ce secteur. Les grands instituts, tels que l’IFOP ou
Ipsos, disposent même de pôles dédiés à certains secteurs, tels que les banques et les assurances.
Ceux-ci sont ainsi composés de spécialistes du domaine étudiés et sont par conséquent en
mesure d’interpréter les indicateurs de performances de ces entreprises.
Dans un cas d’application de la sorte, l’outil BI est alors directement connecté sur les
bases de production internes et non sur les CRM ou les bases clients. Le cabinet prestataire
pourra alors construire un outil de suivi de la performance à l’aide des KPI clé du secteur et
intégrer des éléments comparatifs sur la durée afin de mettre en lumière les évolutions. Encore
faut-il déterminer quels indicateurs vont être calculés et intégrés au tableau de bord. En effet,
la création d’un tel outil induit l’instauration d’un dialogue prestataire-client régulier et une
adaptation aux sources de données privilégiées de l’entreprise. La construction et la validation
du tableau de bord se fait de manière conjointe, comme nous le rappelle Alain Fernandez,
indiquant qu’un tableau de bord n’est pas un instrument de mesure standard et figé, il doit être
modulable. Pour lui, « chaque décideur a sa manière personnelle d’aborder le pilotage. [...] Un
tableau de bord est un instrument personnel. »53.
53
Op. Cit. FERNANDEZ, Les Nouveaux Tableaux de bord des managers, Le Projet Business Intelligence clés
en main, 2013, 662 p.
54
Enfin, l’implémentation de la BI au sein d’un institut de sondage peut également servir au
pilotage interne de ce dernier. En effet, de la même façon qu’il l’emploi pour ses clients, les
outils peuvent collecter, transformer et harmonier les données issues du Système d’information
du cabinet. Qu’il dispose déjà de tableaux de bord du pilotage de son activité ou non, une gestion
interne présente des avantages :
- Le cabinet ne dispose pas encore d’outil BI pour assurer son pilotage : Dans cette
situation, le déploiement d’un outil est un véritable manque à gagner pour l’entreprise.
Peut-être celle-ci exploite-t-elle ses données de façon éparses, sans que ces dernières ne
soient réellement centralisées et interconnectées. Quoi qu’il en soit, la mise en place
d’un système de suivi de l’activité automatisé et en temps réel constitue un tournant en
termes de maturité data de l’entreprise. La mesure d’indicateurs propres au secteur des
études viendra éclairer les prises de décisions et le management de l’institut : le taux de
retour des questionnaires diffusés ou encore les tonalités de réponses sur certains sujets
récurrents.
55
journée privilégié pour répondre (dans le cas d’une enquête en ligne). L’ensemble de ces
métadonnées peuvent alors être stockées au sein d’une base et, par conséquent, faire l’objet
d’une analyse approfondie à l’aide de la BI. Les divers éléments à disposition peuvent aider à
appréhender un phénomène, tel qu’un faible taux de réponse aux enquêtes par exemple, et à
déterminer les variables impactantes sur celui-ci. Le Groupement d’Intérêt Scientifique (GIS)
Marsouin a par exemple mis en place ce système de pilotage BI en 2019 pour un sondage qu’il
réalisait auprès des étudiants de Bretagne, afin de parvenir à expliquer un taux d’engagement
particulièrement faible54.
Maintenant que nous avons observé ces cas d’application théorique, nous allons nous
pencher dans une troisième partie de notre étude, sur un projet de déploiement d’outils BI
concret au sein d’un institut d’étude et sondage spécialisé.
54
IMT Atlantique – Business Intelligence, « Pilotage des processus d’enquêtes ». URL : http://formations.imt-
atlantique.fr/BI/BI_projet_sondage.html
56
III. Cas pratique : Mise en place et exploitation des
outils BI au sein d’un cabinet d’étude et de
conseils en communication
A. Présentation du projet
Dans cette partie, nous allons mettre en pratique les grands concepts de l’informatique
décisionnelle observés précédemment dans un cas concret de déploiement d’outils de Business
Intelligence en entreprise. L’étude théorique de la naissance de cette discipline et de ses grandes
tendances actuelles nous permettent proposer des solutions en adéquation avec les enjeux du
secteur. Ainsi, commençons par présenter notre projet, mené sur près de 18 mois en
collaboration avec les équipes du cabinet d’étude Occurrence.
1. Besoins concrets
Tout d’abord, rappelons que ce projet est à l’initiative d’Occurrence, qui a opté pour le
recrutement d’un apprenti Data analyst dans le but d’explorer les pistes d’utilisation
potentielles des outils BI pour l’entreprise. Ainsi, la première étape de tout projet data est celle
de la compréhension data et métier. C’est-à-dire la compréhension des données dont dispose
l’entreprise, mais également les réalités de terrain et le fonctionnement de l’activité. Ayant été
recruté en premier lieu pour mes compétences relatives à l’exploitation des données, je ne suis
pas un spécialise de la communication, ni des études. Il m’a donc fallu comprendre les missions,
le déroulement des études et des prestations de conseils, afin d’en identifier les points de
blocages et leur résolution potentielle à l’aide de la BI.
Aussi, nous ne reviendront pas sur le fonctionnement des missions, ni sur le contexte data
d’Occurrence, que nous avons déjà largement développé en première partie de cette étude. Mais
à l’issu de cette étape, j’ai pu lister un certain nombre de besoins concret pour le cabinet que
voici :
57
- Mise en valeur des résultats d’analyses : Il s’agit d’un besoin propre à l’activité
d’Occurrence, à la fois en interne et pour ses clients. Etant un cabinet d’études et de
conseils en communication, nous livrons à nos clients une analyse des résultats d’études.
Cette analyse repose ainsi sur des données chiffrées pour lesquelles nous devons
valoriser les informations les plus impactantes. Aujourd’hui, la restitution est
principalement réalisée sous la forme d’un document PowerPoint composé d’une série
de graphiques et d’analyses. En ce sens la Business Intelligence a un rôle majeur à jouer,
proposant des supports d’interprétation plus dynamiques et interactifs.
- Toucher de nouveaux publics : Nous l’avons dit, la Business Intelligence est à la mode.
De fait, l’exploitation de ces nouveaux outils par l’entreprise lui permettrait d’élargir
son offre et de gagner de nouveaux contrats.
58
l’informatique décisionnelle apportent des solutions de centralisation et
d’harmonisation de la donnée à l’aide de passerelle entre les outils et de flux de travail
(workflow) étendus.
Ainsi, Occurrence dispose depuis longtemps d’outils de suivi et d’une offre tableau de bord.
A l’aide d’Excel notamment, l’entreprise touche donc du doigt les prémices de la Business
Intelligence, mais elle manque de logiciels adaptés à son activité. Or nous l’avons vu, les
solutions d’informatique décisionnelle ont davantage à apporter qu’un simple suivi de l’activité.
Elles ont pour but de centraliser l’information et de l’organiser à des fins opérationnelles.
2. Equipe
Pour ma part, j’ai officié en tant que Data analyst, en charge de l’exploration et du
déploiement des nouvelles solutions BI chez Occurrence. J’ai été, durant l’intégralité de la
mission, le membre opérationnel de l’équipe, acquérant la compétence et réalisant les
expérimentations successives. J’ai ainsi pu mettre à profit mon expertise data à destination des
collaborateurs afin de développer les bonnes pratiques de la gestion des données en entreprise.
A mes côtés, Johann Damen, travaillant en tant que Tech lead, responsable SI et
directeur de la qualité chez Occurrence. Notamment présent pour superviser le projet, nous
nous concertions afin de déterminer les différentes étapes que nous avons suivi à mesure que
nous identifions les possibilités techniques des outils. Également spécialiste des missions
d’étude et salarié de longue date pour le cabinet, il a ainsi permis de recentrer le projet autours
des besoins et des réalités du métier.
Enfin, d’autres collaborateurs ont été sollicités lors de besoins spécifiques du projet : un
graphiste pour proposer des idées de visuels innovants, les chargés de missions en charge de la
réalisation des tableaux de bords Excel, etc. Bien qu’étant personnellement rattaché à un pôle,
59
la BI est un besoin global chez Occurrence et tous les services sont concernées. Par conséquent,
j’ai été amené à collaborer avec de nombreuses personnes, tant pour identifier leurs besoins
métier que pour les aider dans leur démarche BI.
3. Objectifs projet
Avant de passer concrètement au déploiement des outils, nous avons donc établis une
correspondance entre les besoins identifiés précédemment et des objectifs que nous
souhaiterions idéalement atteindre à l’issue du projet. Bien qu’étant dans une démarche
exploratoire, cela nous a ainsi permis de nous fixer un cadre de départ dont nous pourrons nous
servir de point de repère lors des différentes étapes et nous recentrer si besoin.
D’une part, il s’agit d’accompagner Occurrence dans la transition progressive de ses outils de
suivi et d’analyse pour se diriger vers des solutions plus modernes et flexibles, accompagnant
les prises de décision, tant en interne qu’en externe :
- En interne :
• Réaliser des tableaux de bord de suivi de l’activité venant en complémentarité des
actuels tableaux Excel utilisés.
• Développer une véritable culture data d’entreprise et sensibiliser les collaborateurs
sur les bonnes pratiques en matière de BI.
• À terme, former d’autres employés aux nouveaux outils déployés afin d’assurer un
transfert des compétences.
- En externe :
• Proposer de nouveaux services à forte valeur ajoutée pour les clients d’Occurrence.
• Déployer des outils plus esthétiques et surtout plus dynamiques afin de renouveler
l’expertise du pôle Corporate en matière de tableaux de bord.
D’autre part, un autre objectif serait de parvenir à identifier plus précisément les limites des
outils actuels et tenter de trouver des réponses à l’aide de solutions BI. Ainsi, nous pensons
qu’une compréhension des faiblesses actuelle et leur résolution, couplé avec une hausse
60
générale des compétences data interne, sont la clé d’amélioration du niveau de maturité data
d’Occurrence.
Aussi, il est vrai que les objectifs affichés sont ambitieux, mais n’oublions pas que nous
sommes dans une démarche de test. L’idée est, avant toute chose, d’explorer les outils et
d’identifier les éléments susceptibles de répondre aux besoins de production. Nous ne savons
pas si tous ces objectifs seront atteignables, ni la durée nécessaire pour les réaliser, mais tout le
travail de recherche qui sera effectué permettra à Occurrence de progresser sur le sujet de la BI.
b. Approche méthodologique
D’un point de vue méthodologique, rappelons que personne n’est spécialiste du sujet en
interne. De ce fait, nous nous trouvons dans le cadre d’un projet de type « exploration »,
comprenant de nombreuses incertitudes quant à sa réalisation et sa finalité. Cela implique, sur
les divers outils explorés, de fonctionner de façon itérative, composé de phase de veille, de tests
et d’observation des résultats successifs. Une fois un résultat satisfaisant obtenu, répondant aux
problématiques métiers et à nos objectifs, nous procéderons à sa validation et à un déploiement
à destination d’usages concrets. Cette méthode projet s’appuie sur le principe de « Proof of
Concept ».
Concernant les outils explorés, nous commencerons par nous pencher sur le logiciel
Microsoft Power BI. Nous en détaillerons le fonctionnement et les avantages plus tard, mais
nous avons effectué ce choix dans un contexte de continuité des tests. En effet, Occurrence
avait déjà commencé à s’intéresser à cet outil avant mon arrivé et un précédent Data analyst
(plus en poste aujourd’hui) avait effectué de premières recherches sur le sujet. Le cabinet a donc
souhaité continuer à explorer cette piste avant d’envisager d’autres solutions.
Ainsi, le tableau ci-dessous présente une estimation en amont des différentes grands
étapes su projet sur les sujets principaux, ainsi que la répartition du temps investi :
61
Tableau prévisionnel des étapes majeurs du projet
Ainsi, nous pouvons constater que la priorité est donnée au logiciel Power BI, mais nous
prévoyons en parallèle de réaliser une veille sur d’autres outils BI afin d’élargir le champ des
possibilités d’Occurrence en matière de déploiement. Nous avons par ailleurs que nous
n’oublierons pas les objectifs de collaboration interne fixés précédemment. D’une part, en
communiquant avec l’ensemble des collaborateurs sur le projet et les bonnes pratiques afin de
les sensibiliser aux enjeux de la donnée. D’autre part, en partageant mon expertise data sur les
différentes problématiques métiers du quotidien : aide au nettoyage et aux traitements,
assistance Excel, estimation de la faisabilité de certains projets, etc.
B. Mise en œuvre
Maintenant que nous avons posé les bases du projet, nous allons présenter sa mise en
œuvre concrète. Les tests réalisés et les phases de déploiement ont eu lieu entre janvier 2021 et
le mois de juin 2022, soit une période de 18 mois, largement dédiée à la veille et aux
expérimentations en matière de Business Intelligence. Aussi, comme nous l’avons dit, notre
étude a débuté par la prise en main du logiciel Power BI. Il s’agit d’un outil d’informatique
décisionnelle complet, leader du marché de la BI avec ses concurrents directs tels que Tableau
62
et Google Data Studio. Cette partie est ainsi dédiée à la présentation de l’outil et surtout sa mise
en place afin de répondre aux besoins concrets d’Occurrence.
1. Avantages de Power BI
En premier lieu, notons que le choix de cet outil n’est pas anodin. En effet, il existe
aujourd’hui des centaines de logiciels BI et il est parfois difficile de se situer face à la taille de
l’offre proposée. Mais en réalisant des comparatifs, on constate que toutes les solutions
disposent de fonctionnalités différentes et qu’il est essentiel de sélectionner un outil en
adéquation avec les besoins de l’entreprise. De fait, Power BI dispose de plusieurs avantages
susceptibles de faire défaut à la concurrence :
- Outil hybride : Power BI n’est pas uniquement un outil de visualisation des données,
il est possible de réaliser en amont de la manipulation et du traitement sur les bases
importées afin de les nettoyer et de les harmoniser. Comme nous l’avons identifié, le
cabinet dispose de sources de données internes diverses qu’il est nécessaire de
consolider avant de procéder aux traitements.
63
- Automatisable : Dans une certaine limite, il est possibilité de planifier l’actualisation
automatique des données chargées dans l’outil. De ce fait, les nouvelles données
stockées dans la source sont automatiquement ajoutées aux rapports, sans intervention
humaine. Cet aspect est déterminant pour Occurrence : dans le cadre d’un déploiement
client, ce dernier ne doit pas avoir besoin d’être formé pour suivre son activité à travers
l’outil.
- Simple pour une utilisation sommaire : Power BI est adapté aux équipes métiers,
élément important si l’on envisage de former des collaborateurs à l’avenir55. Il s’agit en
effet d’un outil no-code, comme nous l’avons déjà évoqué, donc il n’est pas nécessaire
de posséder des compétences en programmation pour l’utiliser. Il est cependant possible
d’incorporer du script Python ou R sur le logiciel pour effectuer des traitements
statistiques de pointe.
- Esthétique : Le rendu visuel des tableaux de bords est plus graphique et moderne que
sur Excel ou Power Point. Or, cet enjeu de modernisation est l’un des objectifs que nous
avons soulignés dans le cadre de notre projet.
Lors de mon arrivée chez Occurrence, le premier cas d’utilisation concrète de Power BI
a été de réaliser un tableau de bord des Standards du pôle « Corporate ». Nous les avons déjà
présentés (cf I.A.e.2. – Travail sur les Standards), les standards représentent des données de
référence pour de nombreux indicateurs d’évaluation de la communication. Actuellement sous
55
BELHAMRI Nicolas, « OUTILS DE BUSINESS INTELLIGENCE : LE TOP 10 EN 2022 (COMPARATIF) »,
Boryl, URL : https://www.boryl.fr/blog/top-10-des-outils-de-business-intelligence/#8
64
forme de base de données Excel, le pôle souhaiterait réaliser une série de graphique afin
d’illustrer ces données.
Il ne s’agit toutefois que d’un test. L’objectif est de partir de données concrètes pour se
former sur l’outil, en comprendre le fonctionnement global, les limites et les usages potentiels.
L’idée n’était pas d’obtenir un résultat exploitable directement, mais plutôt d’observer les
résultats du test et d’en faire le bilan. Celui-ci s’est ainsi déroulé en plusieurs étapes :
65
- Etape 4 : Initiation à la manipulation de bases à l’aide de Power Query. Nous le
présenterons plus tard, mais il s’agit d’un outil intégré de transformation des données
après leur chargement. Cela permet notamment d’unifier la structure de bases
originellement différentes.
- Etape 7 : Présentation des résultats du test à l’équipe. Il s’agit d’un tableau de bord de
11 onglets permettant une vue d’ensemble des indicateurs pour chaque catégorie de
standards. Comme il s’agissait d’un premier test, j’ai souhaité mettre en valeur
l’interactivité de l’outil, à l’aide de boutons de navigation entre les onglets et de filtres
sur chaque page du tableau de bord. Lors de la présentation, les retours furent
globalement positifs sur l’aspect visuel et le travail a été jugé encourageant pour de
potentiels usages à venir.
Filtres
thématiques
Filtre temporel
Bouton de
navigation
Onglets
66
En conclusion, ce premier essai de l’outil en autodidacte s’est étendu sur une période
assez longue, puisque le développement a débuté en janvier et s’est achevé fin mars 2021, à
raison d’environ un jour et demi de travail hebdomadaire sur l’outil. Bien qu’à postériori, toutes
les bonnes pratiques en matière de conception de tableau de bord n’ont pas été respectées, ce
test fut relativement convainquant et formateur. Il m’a permis de comprendre le processus de
création de tableaux de bord dans sa globalité. De plus, la possibilité de centraliser plusieurs
sources de données externes au sein d’un même rapport à l’aide de l’outil a également pu être
expérimenté.
Une fois la première phase de formation terminée, nous avons voulu aller plus loin en
effectuant un nouveau test : la reproductibilité d’un tableau de bord existant. En effet, afin de
s’assurer que Power BI soit en mesure de substituer Excel en matière de tableau de bord, nous
avons souhaité créer à l’identique un Dashboard déjà réalisé sans avoir à en modifier la source
de données.
Celui-ci avait été créé sur Excel Online à partir de données issues d’autres onglets au
sein du même classeur. Cela constituait donc également une occasion d’essayer de récupérer
des données à partir d’une source Cloud et d’établir des relations entre les différentes bases
importées (chaque onglet du tableur représentant une base distincte dans Power BI).
Ce second test a aussi été une opportunité de m’initier aux mesures en langage DAX.
Ces « mesures » sont des calculs que l’on peut effectuer sur des champs afin de retourner une
ou plusieurs valeurs qui s’adaptent automatiquement en fonction des filtres appliquées sur le
rapport. Elles sont notamment indispensables lorsque l’on souhaite calculer des KPI sur nos
champs dans Power BI. Le langage DAX peut quant à lui être comparé aux formules Excel. Bien
que les fonctions soient différentes, il s’agit du langage de rédaction de toutes les formules et
expressions dans Power BI.
67
construction de ce tableau a nécessité quatre fois plus de temps de développement que son
homologue sur Excel. Bien qu’un expert puisse aller plus vite, il s’agit tout de même d’un
élément très important à prendre en compte lors de l’utilisation de l’outil BI auprès de clients,
notamment en termes de facturation sur le temps passé.
Filtre temporel
par années
68
4. Phase 2.5 : Formation à l’automatisation
Pour comprendre comment fonctionne cette notion d’actualisation, nous devons nous
pencher sur l’architecture globale de Power BI. En effet, le logiciel est en réalisé divisé en deux
outils principaux :
- Power BI Service : Logiciel Saas (stockée dans un Cloud), il permet la gestion des
tableaux de bords existants, leur partage et leur publication.
Ainsi, le cheminement classique (appelé workflow) consiste à charger les données depuis
une ou plusieurs sources vers PBI Desktop, de construire son tableau de bord sur ce logiciel,
puis de le publier sur Power BI Service afin de le partager.
Une fois le rapport publié, son actualisation se fait directement via le Service Power BI. Or,
pour des données stockées en local, telles que des bases Excel ou SQL, le service Cloud ne peut
pas accéder aux données. Pour y parvenir, une « passerelle de données » ou Data gateway doit
être installée localement. Il s’agit d’un logiciel développé par Microsoft permettant de faire le
lien entre ses outils Cloud, tels que Power Apps ou encore Power BI Service et des données
locales.
69
Nous l’avons vu, la grande majorité des données d’Occurrence sont stockées localement.
De ce fait, il nous a été nécessaire d’installer et de paramétrer un logiciel de passerelle afin de
permettre l’actualisation des données.
Notons pour finir que les outils de la suite Microsoft Online, tels que One Drive et
SharePoint ne requièrent pas de passerelle pour être actualisés, car ils se trouvent dans le même
environnement que Power BI Service. De ce fait, le tableau de bord réalisé précédemment (cf.
Phase 2) a pu être automatisé sans passerelle de données car la source des données est Excel
Online.
70
5. Phase 3 : Déploiement en interne dans un cas d’usage
concret
Au mois de décembre 2021, nous avons procédé à une nouvelle phase de test sur Power
BI. Il s’agissait du premier test de déploiement réel d’un tableau de bord en interne à des fins
de pilotage.
71
Toutefois, si la réalisation du tableau de bord a pu être effectué, ce test n’est pas
véritablement un succès. Lors de sa mise en pratique, comme Power BI n’est pas un espace de
saisie des données, les managers devaient tout de même ouvrir le fichier Excel pour modifier la
base. De ce fait, le Dashboard réalisé n’a pas su convaincre les décideurs qui ne sont pas encore
parvenu à l’utiliser en tant qu’outil de pilotage à part entière.
Ainsi, depuis le mois de mars 2022, nous avons déjà réalisé trois propositions de conception
de tableaux de bords auprès d’entreprises partenaires. Malheureusement, aucune d’entre elles
n’a abouti, mais elles ont tout de même permis de tirer des enseignements de ces expériences
afin d’anticiper au mieux les propositions à venir. Pour des raisons de confidentialité, nous
avons anonymisé ces entreprises que nous appellerons « Société 1 », « Société 2 » et « Société
3»:
- Société 1 : Cette société nous a missionné pour la création d’un tableau de bord de
pilotage de sa communication. Nous lui avons alors proposé de le concevoir sur Power
BI et avons réalisé une maquette (Annexe 2)56. Le client a été séduit par celle-ci mais a
finalement souhaité une solution plus facilement gérable en termes de maintenance,
notamment lorsque leur contrat avec Occurrence prendra fin. De plus, nous avons
rencontré un problème de licence. En effet, le client ne disposait pas de la licence Power
BI et était retissant à l’idée d’y souscrire.
56
Annexe 2 : Maquette Power BI réalisée pour la Société 1
72
sur deux onglets afin d’estimer le temps de développement requis en vue de futures
missions (Annexe 3)57. Nous avons également interrogé un spécialiste de Power BI en
freelance afin qu’il estime le temps à consacrer. Conformément à nos doutes, l’emploi
de Power BI pour cette mission aurait été bien trop chronophage pour la facturation
convenue. Ainsi, nous avons préféré décliner la demande du client et produire un
Dashboard Excel standard.
- Société 3 : il s’agissait de la réponse à un appel d’offre (AO) émis par un grand groupe.
Les prérequis spécifiaient, entre autres, la production d’un outil de pilotage de
différentes agences réparties partout en France, développé sur Power BI. Dans le cadre
du récent rachat du cabinet Occurrence par l’IFOP (Institut Français d’Opinion
Publique), nous avons réalisé une candidature commune à cet AO. J’ai pour cela
développé une nouvelle maquette de tableau de bord, en collaboration avec les équipes
de l’IFOP. Nous avons malheureusement perdu cet AO, mais cela a permis de monter
en compétences sur Power BI, en proposant des graphiques et visuels innovants.
57
Annexe 3 : Maquette Power BI réalisée pour la Société 2
73
7. Limites de Power BI et obstacles au déploiement
Cependant, ces expériences ont également été révélatrices des limites techniques de l’outil
dans un contexte d’exploitation tel que celui d’Occurrence :
- Pas d’espace de saisie : Sur Power BI, les données sont chargées par défaut en « mode
importation », ce qui signifie qu’elles sont copiées et mises en cache dans Power BI. A
chaque fois que les données sont actualisées, les anciennes valeurs sont écrasées et
remplacées par de nouvelles provenant de la source. Par conséquent, si cette copie peut
être manipulée et mise en forme sur le logiciel, aucune valeur ne peut être modifié
directement dans Power BI. A l’inverse d’Excel, il est donc nécessaire de dissocier
l’espace de saisie et le tableau de bord, ce qui peut être déroutant pour des non-initiés.
Par exemple, c’est ce qui a été reproché au tableau de bord réalisé pour les managers
d’Occurrence car ces derniers souhaitaient pouvoir modifier leurs données directement
sur le même outil.
- Les licences : Nous l’avons déjà brièvement évoqué, mais l’utilisation du logiciel
requiert une licence individuelle appelée « Power BI Pro » ou sa version avancée
intitulée « Power BI Premium ». Sans cela, il est impossible de diffuser et de partager
les tableaux de bord réalisés, ni de consulter les Dashboards que l’on nous partage de
74
façon sécurisée. Il est donc nécessaire que le client, comme le concepteur, dispose d’une
licence. Si Occurrence propose un développement sur Power BI à ses clients, il est
nécessaire de les alerter en amont sur cette souscription, sous peine de générer de la
frustration. Comme dans le cas de la Société 1, le travail réalisé peut même finir par être
inutilisable pour cette raison.
Pour résumer, Power BI ouvre à de nouvelles possibilités et propose des résultats d’une
qualité difficilement atteignable à l’aide d’Excel. Cependant, l’outil doit parvenir trouver sa
cible : il y a certes une demande liée aux tendances du marché, mais il ne convient pas à tous
les besoins.
1. Échantillonnage
75
proportions de la population d’étude en matière de genre, d’âge, de catégories
socioprofessionnelles (CSP), etc.
Lorsque l’on possède des données géographiques, les cartes de répartition sont des formes
de datavisualisation très impactante. C’est pourquoi j’ai souhaité déployer cette compétence
chez Occurrence dans le cadre de missions d’études. Nous avons alors opté pour le logiciel
QGIS, ayant l’avantage d’être gratuit et libre de droit. Voici donc trois exemples de missions
pour lesquelles nous avons pu déployer cet outil en situation réelle :
76
- Construction d’un échantillonnage spécifique : Une société souhaitait mener une
étude dont la cible serait les personnes habitant dans un rayon de 15km, 30km et 60km
autour de trois usines en France. J’ai alors utilisé QGIS pour identifier les communes
françaises situées dans les rayons d’étude. J’ai ensuite croisé ces données avec celles du
recensement national réalisé par l’INSEE en 2017. Nous disposons ainsi d’une base des
données de recensement, commune par commune, de notre population cible. Une fois
cette base exportée, nous avons pu déterminer les quotas à respecter pour chaque rayon
et pour chaque usine.
- Carte de répartition des répondants : Il s’agit d’une enquête sur les travailleurs
« invisibles » réalisée pour la Fondation Travailler Autrement58 et parue dans le Journal
du dimanche du 13 mars 202259. J’ai alors réalisé des cartes sur QGIS afin de représenter
le taux de répartition des « Invisibles » par régions et dans les principales métropoles
58
DALLE-MOLLE Maris, « Enquête sur « Les Invisibles » pour la Fondation Travailler Autrement », 13 mars
2022. URL : https://www.fondation-travailler-autrement.org/2022/03/13/invisibles-plongee-france-back-office-
etude/
59
SOUFFI Emmanuelle, « Enquête sur « Les Invisibles », dans le Journal du dimanche, 13 mars 2022. URL :
https://www.lejdd.fr/Politique/enquete-sur-la-france-des-oublies-4099073
77
françaises (pour illustrer le fait que ceux-ci étaient moins présents dans les milieux
urbains qu’à la campagne). Ces cartes ont ainsi été présentées par le JDD dans leur
article sur l’étude, bien qu’ils en aient modifié l’aspect général. Cette mission a donc
été un succès et génératrice d’une véritable valeur ajoutée de la part d’Occurrence.
78
Pour en finir avec les outils BI de traitement des données spatiales, notons qu’il existe
également des données spatiales non géographiques : les cartes de réseaux. Ces dernières
permettent en somme de spatialiser en deux ou trois dimensions les relations entre plusieurs
individus. L’objectif peut ainsi être de déterminer qui sont les individus au centre du réseau,
l’identification de groupes distinctifs au centre du réseau ou la force des relations entre certains
individus par exemple. Ici, la notion d’individus ne désigne pas nécessairement des personnes,
il peut s’agit de sites web, de posts sur des réseaux sociaux, etc.
Pour définir cette relation au sein d’une cartographie, seul deux éléments sont
indispensables :
- La liste des nœuds : il s’agit de la liste des individus de notre réseau, souvent composé
d’un numéro d’identifiant unique (id) et d’un nom (label).
- La liste des liens : il s’agit de la liste des relations entre les différents nœuds du réseau.
Une ligne est notamment composée de l’id du nœud de départ et de l’id du nœud
d’arrivée. Nous pouvons également mentionner l’intensité du lien entre deux nœuds,
sous la forme d’une valeur numérique. Il est aussi possible de préciser si le lien est
unidirectionnel ou non. C’est-à-dire, si la relation entre les deux nœuds ne va que dans
un seul sens.
Lien
Lien bidirectionnel
unidirectionnel
Nœuds
Nœud
central
Je n’ai pas directement eu l’idée de déployer cet outil chez Occurrence car je ne
parvenais pas à en discerner les usages pour notre activité, malgré ma connaissance, bien que
sommaire, d’un outil approprié. Mais un collaborateur m’a approché en souhaitant réaliser un
graphique de réseau et m’a demandé si je disposais des compétences nécessaires. Il s’agissait
de matérialiser la relation entre environ 3000 sites internet dans le cadre d’une mission
79
d’observatoire du web. Pour répondre à ce besoin, j’ai utilisé le logiciel Gephi, dédié à la
création de cartes de réseau et ayant l’avantage d’être libre et gratuit. Je suis ainsi parvenu à
obtenir un résultat mettant en avant plusieurs groupes distincts au sein du graph. Cependant,
nous n’avons finalement pas retenu cette solution et avons engagé une société prestataire
spécialisée dans ce domaine afin d’obtenir un résultat interactif et facilement intégrable sur le
web, dépassant mes compétences actuelles dans ce domaine.
Bien qu’il s’agisse d’un outil de BI puissant en termes de datavisualisation, il est certain
que son usage demeurera relativement mineur, compte-tenu des besoins d’Occurrence face à la
spécificité de l’outil.
Ayant l’avantage de faire partie de la suite des outils Microsoft, Power BI dispose de
connexions privilégiées avec les autres logiciels de la suite. L’éditeur, pour des raisons
pratiques et commerciales, a en effet conçu ses solutions comme interopérables afin de
constituer un système global de gestion de l’entreprise pouvant se suffire à lui-même. Nous
avons donc réalisé une veille sur ces outils, ainsi qu’un certain nombre de tests pour envisager
de nouvelles opportunités.
Nous l’avons dit, l’une des limites de Power BI est qu’il ne dispose pas d’un espace de
saisie des données. Les datas chargées dans le logiciel ne sont qu’une copie de celles présentes
80
dans la base source. Ainsi, il n’est pas possible de modifier, ni de saisir de nouvelles données
dans la base d’origine à partir de Power BI. Or, comme nous l’avons vu plus haut, cette
difficulté a entrainé l’échec de certaines tentatives de déploiement de l’outil, notamment le
tableau de bord du développent interne d’Occurrence en décembre 2021 (cf. III.B.a.5. –
Déploiement en interne).
Pour pallier ce problème, j’avais déjà proposé une solution sommaire : saisir des
données sur une base Online ou stockée dans le Cloud (type Excel Online), puis intégrer un lien
hypertexte vers cette base dans le tableau de bord Power BI. De même, insérer dans la base de
données un lien cliquable renvoyant sur le Dashboard une fois de nouvelles valeurs saisies.
Mais cette solution ne constitue en réalité qu’un chemin d’accès facilité vers la source. Elle ne
permet pas de modifier et d’ajouter de nouvelles données depuis le même outil.
Toujours dans une logique exploratoire, je me suis donc intéressé au logiciel Power
Apps. Faisant partie de la suite Microsoft, il s’agit d’un outil no-code de conception
d’applications métiers simples. Notamment, les applications conçues sont principalement
imaginées pour la gestion de clients, où l’on peut renseigner, modifier et consulter des données
sur ceux-ci, à la manière d’un logiciel CRM simplifié. Ainsi, afin d’adapter un tel outil aux
études réalisées par Occurrence, nous pouvons envisager une application de formulaire, où les
champs à remplir représenteraient les réponses à un questionnaire.
Notons que le choix de Power Apps n’est pas anodin et présente un réel intérêt pour
notre problématique de départ. En somme, ce logiciel possède un module d’intégration de
tableau de bord Power BI. Par conséquent, si nous parvenons à relier la source où sont stockées
les données de notre formulaire avec Power BI, nous pouvons obtenir dans un même outil un
espace de saisie et un Dashboard de présentation et d’analyse des résultats.
En juin 2021, j’ai donc procédé au développement d’une telle application, une fois de plus,
en me formant de façon autodidacte au logiciel de création. Après une phase de construction
d’un mois à temps partiel, une version finale en 4 onglets navigables (Annexe 4)60 a été
développée :
- Un onglet d’accueil : Pour que l’utilisateur choisisse s’il souhaite se rendre sur l’espace
de saisie des données ou sur le tableau de bord.
60
Annexe 4 : Application de questionnaire conçue sur Power Apps, détail des onglets navigables.
81
- Un onglet de formulaire : Composé de 9 champs à remplir. Un ID de répondant
obligatoire et unique, ainsi que 8 questions fictives. Une fois les données saisies et
enregistrées, celles-ci sont stockées en back-end dans une base Excel Online.
- Un onglet de tableau de bord : Il présente le tableau de bord conçu sur Power BI et est
relié au fichier Excel Online où sont inscrites les données saisies. Celui-ci livre une
analyse des résultats de l’enquête et conserve l’ensemble de ses fonctionnalités
interactives.
En résumé, il s’agit d’une solution prometteuse ayant été validée en interne, pouvant
notamment être utile lors d’enquêtes quantitatives avec peu de questions et nécessitant une
saisie des données « administrée ». Ce terme désigne les études où le répondant ne saisit pas
lui-même ses réponses, lors d’un entretien ou d’une enquête téléphonique par exemple.
Cependant, le développement d’une application spécifique dédié à une seule enquête et étant
abandonnée par la suite ne convient pas à toutes les missions d’Occurrence. Le temps de
82
création et les contraintes techniques de l’application ne permettent pas d’envisager une telle
solution pour des enquêtes quantitatives trop volumineuses notamment.
Une autre contrainte de Power BI est l’harmonisation et la qualité des données. En effet,
l’une des bases de la data analyse est de disposer de données propres et nettoyées en amont des
traitements, sans quoi, cela peut engendrer des biais d’interprétation. Or, rappelons-le, les
missions de conception de tableaux de bord et de suivi de la performance déjà réalisées par
Occurrence se font sur des données clients. Ces données peuvent ainsi être issues de sources
hétérogènes, prendre des formes différentes, ou parfois même être mal saisies par nos
interlocuteurs peu sensibilisés à l’importance de la qualité des données.
Pour pallier ces difficultés, plusieurs solutions sont envisageables, tel qu’un nettoyage
manuel des bases avant leur import, ou encore une double saisie des valeurs sur Excel (solution
aujourd’hui privilégiée) dans des bases propres et déjà harmonisées. Mais si cela constitue une
tâche fastidieuse pour le client, cette option n’empêche pas les erreurs de saisies humaines.
Une autre possibilité aujourd’hui encore inexploitée chez Occurrence est l’utilisation
d’outils d’ETL. Acronyme de l’anglais « Extract, Transform, Load », il s’agit de processus de
transformation des données lors de leur acheminement depuis la source, juste avant qu’elles ne
soient chargées dans le logiciel de traitement BI. Cela permet de collecter des données brutes
et d’appliquer une suite de requête sur celles-ci afin de les nettoyer et d’harmoniser les bases
issues de sources différentes de façon automatique.
Une fois de plus, la suite Microsoft propose deux outils adaptés : Power Query et Power
Automate. Le premier est le logiciel no-code d’ETL officiel de Microsoft et est directement
intégré dans Power BI. Lors du chargement de données sur Power BI Desktop, il est possible,
avant de procéder à l’analyse, de « transformer les données ». L’éditeur Power Query s’ouvre
alors et nous pouvons indiquer l’ensemble des instructions à effectuer sur la base lors du
chargement des données. Les traitements peuvent ensuite être effectués sur ces bases
« propres » dans Power BI. Ainsi, à chaque actualisation du tableau de bord, ces étapes de
transformation seront à nouveau reproduites sur les nouvelles données de façon automatique.
Attention cependant, cela ne modifie pas les données dans la source d’origine. J’ai eu
83
notamment l’occasion d’expérimenter cette solution sur les fichiers de standards d’Occurrence
afin que toutes les bases possèdent le même aspect final.
Le second outil, Microsoft Power Automate, n’est pas à proprement parler un logiciel
d’ETL, mais il peut le devenir. Cette solution, toujours no-code comme le privilégie Microsoft,
permet en effet de créer des flux de travail ou workflow automatisés entre différents outils. En
somme, nous pouvons compiler une suite de tâches à effectuer à partir d’un élément
déclencheur. Il est alors possible de créer un workflow d’ETL configuré manuellement, en
indiquant de d’extraire des données depuis une source, de les transformer, puis de les charger
sur Power BI. Il s’agit donc d’un outil très complet et particulièrement puissant, que nous
envisageons d’explorer à l’avenir afin notamment d’automatiser certaines tâches de traitement
fastidieuses et ainsi améliorer la performance du cabinet.
Pourtant, nous n’avons eu de cesse de le répéter, les outils Microsoft sont conçus pour
interagir entre eux, à l’image de Power BI avec Power Apps ou Excel Online. Ainsi,
l’intégration des Dashboards au sein d’autres supports sont possibles. L’une des plateformes
privilégiées en entreprise est Sharepoint Online. Celle-ci permet, pour une société utilisant
Microsoft, de créer des sites web d’équipe. Il s’agit de sites internet à l’accès restreint et
stockées sur le Cloud Microsoft. Ceux-ci sont utilisés dans le cadre de projets internes pour
favoriser l’échange et la collaboration entre plusieurs acteurs à travers plusieurs onglets. Il est
notamment possible d’y créer des bases de données dédiés au pilotage d’un projet sous forme
de liste, mais également d’incorporer un tableau de bord Power BI au sein d’un onglet.
84
Une fois de plus, dans une logique de R&D de l’activité d’Occurrence, j’ai réalisé un
test d’intégration de tableau de bord Power BI sur Sharepoint Online. Celui-ci s’est avéré
concluant, bien qu’il ne permette évidemment pas de passer outre le respect des licences de
Power BI. Les collaborateurs interne d’Occurrence n’utilisant pas Sharepoint, ce site test
n’avait pas vocation à perdurer ni à être exploité, mais plutôt à s’assurer de sa faisabilité dans
le cas d’un déploiement auprès d’une entreprise cliente adepte de la plateforme.
Nous avons pu observer des cas concrets de déploiement de plusieurs outils de Business
Intelligence au sein d’un cabinet d’étude spécialisé dans la communication. Répondant à des
besoins spécifiques à ce domaine d’activité, nous avons également souligné les obstacles
rencontrés et les échecs d’implantation. Mais le bilan général reste positif : Power BI, bien
employé, apporte une véritable plus-value pour l’évaluation des performances internes et
externes. De plus, les autres outils BI spécialisés, tels que QGIS, ont déjà engendré du chiffre
d’affaires de façon concrète.
61
Boulevard du web, « Cartographie des plateformes de visioconférence les plus populaires à travers le monde ».
URL : https://boulevardduweb.com/plateformes-visio-
2021/#:~:text=Les%20parts%20de%20march%C3%A9%20des%20plateformes%20de%202020%20%C3%A0
%202021&text=Zoom%20a%20gagn%C3%A9%2022%2C3,8%25%20de%202020%20%C3%A0%202021
85
a. Limites et axes de vigilances
Tout d’abord, procédons à certaines mises en garde et soulignons les points d’attention
relatif à notre projet de déploiement. Nous avons déjà eu l’occasion d’évoquer les limites
techniques de Power BI (cf III.B.a.7. – Limites de Power BI), mais cette partie est plus
largement dédiée aux limites de l’informatique décisionnelle dans le secteur des études. Par
ailleurs, nous souhaitions attirer l’attention sur les points sensibles de ce déploiement, les plus
susceptibles de constituer des obstacles s’ils sont ignorés à l’avenir :
- La qualité des données, plus que jamais indispensable : Nous ne le répéterons jamais
assez, les problèmes de qualité des données sont la principale cause d’échec des projets
data. Un certain nombre d’actions jusqu’alors réalisées manuellement sont automatisées
par les outils BI. Ainsi, des bases propres en amont sont la clé pour assurer un bon
fonctionnement des logiciels et éviter les biais d’analyse. Dans le monde des études de
surcroit, la diffusion de résultats biaisés peut rapidement engendrer une perte de
crédibilité de l’institut et fortement impacter son image de marque.
86
- La BI requiert des compétences data plus importantes : L’analyse et la consolidation
de données sont un véritable métier dont les outils de sont pas à mettre entre toutes les
mains. Malgré le développement et l’attractivité des solutions no-code, il est nécessaire
de faire preuve d’une grande vigilance lors des opérations de manipulation des données.
Une mauvaise jointure, ou une erreur de format peut par exemple complètement fausser
les résultats obtenus.
Pour clore cette étude, il nous semble bon de réfléchir à l’avenir du projet mené sur ces
18 mois de trail. En effet, certains outils de Business Intelligence sont désormais implantés et
font aujourd’hui partie du quotidien de la vie d’Occurrence. Mais l’impulsion donnée
aujourd’hui ne doit pas s’essouffler, elle doit s’inscrire dans la durée. Comme toute nouveauté,
il faut un temps d’adaptation à l’adoption de l’informatique décisionnelles pour accompagner
le pilotage. Si ce sujet est laissé à l’abandon et n’est pas réactivé régulièrement, il est certain
que les anciennes pratiques se réinstalleront progressivement.
Ainsi, observons une série de bonnes pratiques à développer afin d’assurer une
pérennisation de l’implantation de la Business Intelligence chez Occurrence :
- Communiquer sur les outils : il faut que les collaborateurs aient conscience des
capacités techniques des solutions BI. Ils doivent être en mesure de les vendre aux
clients et d’identifier par eux-mêmes les situations où ces outils peuvent être déployées
et apportent une plus-value. En somme, autonomiser les collaborateurs sur ce sujet afin
de développer une maîtrise collective du sujet.
87
- Instaurer une culture data d’entreprise : Nous en avons déjà parlé, chez Occurrence,
les collaborateurs ont conscience des enjeux de la data mais n’en perçoivent pas les
usages concrets pour augmenter les performances du cabinet. Il faut progressivement
faire évoluer ces mentalités pour que tout le monde perçoive la conversion en valeur des
données. C’est en effet en percevant l’exploitation de ces dernières comme
indispensable pour rester concurrentiel que le niveau de maturité data de l’entreprise
augmentera.
• R&D et veille : Envisager l’avenir en surveillant les tendances du marché, réaliser une
veille sur les nouveaux outils de BI, continuer de réaliser des tests et d’innover afin de
déployer de nouvelles offres et de prolonger la démarche BI.
• Monter en compétence sur les outils existants : Power BI notamment est une solution
extrêmement vaste qui requiert plusieurs années de pratique pour pouvoir prétendre être
expert. De nombreuses fonctionnalités restent à explorer, tel que l’intégration de code
R et Python dans l’outil, ou encore la gestion avancée des droits d’accès par exemple.
88
Ainsi, nous espérons que la mise en application de ces bonnes pratiques permettra
définitivement d’implanter la Business Intelligence au sein d’Occurrence et de multiplier ses
performances à l’avenir. N’oublions pas que cela ne peut être qu’une démarche collective et
que les données sont l’affaire de tous, en particulier dans une PME comme celle-ci. C’est
pourquoi la communication sur ce sujet, le partage des savoirs et le transfert de compétences
sont la clé d’un succès à long terme.
89
Conclusion
Pour conclure cette étude, nous avons véritablement pu constater que le déploiement
d’outils de Business Intelligence constitue une aide précieuse, sinon indispensable, pour faire
face à la forte concurrence du secteur des études et de la communication.
En effet, nous avons tout d’abord mené des recherches théoriques sur le sujet et celles-
ci nous ont permis de saisir l’impact considérable de la BI sur le pilotage des entreprises, ainsi
que ses potentielles voies d’utilisation concrète au sein des instituts de sondage.
Puis, dans un second temps, nous avons conduit un projet de déploiement d’outils
d’informatique décisionnelle au sein de la société Occurrence, s’étendant sur plus de 18 mois.
Partant d’une expérience de terrain quasi-nulle dans ce secteur, cette étude m’a ainsi permis de
monter en compétences sur de nombreux outils, à commencer par Microsoft Power BI. Lors
des différentes étapes de test itératifs, j’ai ainsi pris progressivement consciences de la
puissance de la BI et de la plus-value qu’elle pourrait générée à moyen et long terme.
Parallèlement, j’ai pu constater les contraintes et difficultés de déploiement propre à ce secteur,
notamment à destination des entreprises clientes. La Business Intelligence est originellement
prévue pour une démarche interne, raccordée au service d’information de l’entreprise détentrice
de l’outil. Paradoxalement, les appels d’offres du secteur exprimant la volonté de disposer d’un
tableau de bord sur Power BI se sont multipliés au fil des mois. Ce phénomène est donc venu
confirmer les enjeux de déploiement de cet outil afin de rester concurrentiel dans ce secteur
d’activité.
Cependant, si cette approche exploratoire du projet a été un succès, notre étude présente
tout de même certaines limites que nous ne pouvons ignorer. D’une part, rappelons qu’aucun
projet auprès d’entreprises clientes n’a encore aboutit à un déploiement concret. Nous avons
fait face à plusieurs obstacles, en partie liée à notre méconnaissance du logiciel, mais également
à l’impossibilité techniques de certaines demandes. Ainsi, des incertitudes persistes et ne
pourront être déterminées qu’après une mise en place opérationnelle : la tarification de la
90
prestation, les processus de déploiement à l’externe, le suivi et la maintenance des outils sur la
durée...
D’autre part, sur les cinq objectifs fixés à l’origine, nous n’en avons atteint que trois.
Les deux objectifs restants concernent les enjeux communicationnels et collaboratifs associés
au projet, à savoir, le développement d’une culture data d’entreprise et la formation d’autres
collaborateurs aux outils. Cela pose un constat : ce projet a été mené a bien et est arrivé à son
terme, mais je ne suis pas parvenu à impliquer les équipes dans celui-ci. A titre d’exemple,
certains collaborateurs du pôle ne parvenaient pas à identifier quelles étaient mes missions de
R&D, qui sont toujours restées relativement opaques. Ce problème communicationnel doit
constituer un axe de vigilance fort. En effet, nous avons soulignés le fait que la BI était un enjeu
collectif au sein de l’entreprise. De ce fait, une non-implication des collaborateurs dans le
projet, même involontaire, constitue une menace pour la pérennité des outils.
C’est pour cette raison, et en gardant en tête les limites et points de vigilances de ce
projet, que nous avons clos notre étude sur la présentation des bonnes pratiques à adopter afin
d’inscrire ce déploiement dans le temps. Le sujet de la Business Intelligence est un sujet vivant,
qui ne doit pas s’achever au lendemain de la publication de ce travail de recherche. Occurrence
n’est en réalité qu’aux balbutiements de l’exploitation de la Business Intelligence et dispose
encore de nombreuses perspectives d’évolutions, dont le tournant majeur sera la réorganisation
de son SI à l’avenir.
Pour clore cette étude, dressons un bilan positif et retournons observer l’échelle de
maturité mises en place par l’Observatoire de la Maturité Data des Entreprises. Nous avions
originellement estimé le niveau de maturité d’Occurrence entre 1 et 2 sur 6. Aujourd’hui,
l’implantation d’outils d’informatique décisionnelle au sein du cabinet réhausse cette note qui
tend aujourd’hui vers 3. Pour s’assurer ce score, il ne reste plus qu’à déployer les outils
disponibles dans le cadre du pilotage interne de l’entreprise.
91
Bibliographie
Ouvrages :
DARGENT Claude, Sociologie des opinions, Paris, Armand Colin, 2011, 240 p.
DESABIE Jacques, Théorie et pratique des sondages, Paris, Dunod, 1966, 482 p.
FERNANDEZ Alain, Les Nouveaux Tableaux de bord des managers, Le Projet Business
Intelligence clés en main, Paris, Eyrolles, 2013, 662 p.
GARNIER Alain, L'Information non structurée dans l'entreprise - Usages et Outils, Paris,
Eyrolles, 2007, 245 p.
LÉVY Mick, Sortez vos données du frigo. Une entreprise performante avec la Data et
l'iA. Paris, Dunod, 2021, 302 p.
92
MILLIE-TIMBAL Marie-Hélène, Construire des tableaux de bord vraiment utiles : associer
les indicateurs à la stratégie de l'entreprise et à son management, Le Mans, Gereso, 2020, 190
p.
OLIVIER Martin, L'analyse quantitative des données, Malakoff, Armand Colin, 2020, 128 p.
RISSOAN Romain, « Outil 11. Big data vs Business Intelligence au service de la marque
employeur », dans La boîte à outils de la stratégie big data, Paris, Dunod, 2018, pp. 44-45.
TAYLOR James, Decision Management System : a practical guide to using Business rules and
predictive analytics, Indianapolis, IBM Press, 2011, 308 p.
Articles :
BOURDIEU, Pierre. « L’opinion publique n’existe pas », dans Les Temps modernes. [en ligne].
URL : https://www.acrimed.org/IMG/article_PDF/article_a3938.pdf
BOYADJIAN Julien, « Big data et traçabilité numérique. Les sciences sociales face à la
quantification massive des individus », dans Politix, n°122, Paris, Collège de France, 2017, pp.
234-237 [en ligne]. URL : https://www-cairn-info.proxybib-pp.cnam.fr/revue-politix-2018-2-
page-234.htm
BOYADJIAN Julien et VELCIN Julien, « L’analyse quantitative des médias sociaux, une
alternative aux enquêtes déclaratives ? La mesure de la popularité des personnalités politiques
sur Twitter », Questions de communication, n°31, 2017, pp. 111-135 [en ligne]. URL :
https://www-cairn-info.proxybib-pp.cnam.fr/revue-questions-de-communication-2017-1-
page-111.htm
93
MERCANTI-GUÉRIN Maria, « L'amélioration du reciblage par les Big Data : une aide à la
décision qui menace l'image des marques ? », dans Revue internationale d'intelligence
économique, vol. 5, 2013, pp. 153-165 [en ligne]. URL : https://www-cairn-info.proxybib-
pp.cnam.fr/revue-internationale-d-intelligence-economique-1-2013-2-page-153.htm
SABER Brahim, « Open source comme système d'informatique décisionnelle », dans Revue
internationale d'intelligence économique, vol.3, 2011, pp. 93-101 [en ligne]. URL :
https://www-cairn-info.proxybib-pp.cnam.fr/revue-internationale-d-intelligence-economique-
1-2011-1-page-93.htm
SOUFFI Emmanuelle, « Enquête sur « Les Invisibles », dans le Journal du dimanche, 13 mars
2022 [en ligne]. URL : https://www.lejdd.fr/Politique/enquete-sur-la-france-des-oublies-
4099073
94
« Les sondages d'opinion », dans Courrier hebdomadaire du CRISP, n°829, 1979, pp. 1-24 [en
ligne]. URL : https://www-cairn-info.proxybib-pp.cnam.fr/revue-courrier-hebdomadaire-du-
crisp-1979-4-page-1.htm
Sites internet :
AURINE Guillaume, « Une brève histoire de la Business Intelligence », 7 juin 2016. URL :
https://www.salesforce.com/fr/blog/2016/06/une-breve-histoire-de-la-business-
intelligence.html
Digital League Rhône-Alpes, « La maturité Data, c’est quoi ? », 26 mai 2021. URL :
https://www.digital-league.org/blog/2021/05/26/la-maturite-data-cest-
quoi/#:~:text=La%20maturit%C3%A9%20data%20d'une,m%C3%AAme%20en%20fonction
%20du%20secteur
GARTNER, « « Dirty data » is a business problem, not an IT problem, says Gartner », 2007.
URL : https://www.gartner.com/newsroom/id/501733
95
Observatoire des pétitions (par Occurrence) – Comprendre l’opinion via les pétitions. URL :
https://observatoirepetitions.fr/
Opinionpublique, « Les instituts de sondage français produisant des études d’opinion ». URL :
https://opinionpublique.wordpress.com/les-instituts-de-sondage-francais-produisant-des-
etudes-dopinion/
TREHOLAN Magali, « Les Big Data prémunissent-ils des biais dans les études ? », Survey
Magazine. URL : https://www.soft-concept.com/surveymag/big-data-biais-etudes.html
96
Annexes
97
Annexe 2 – Maquette de tableau de bord de pilotage réalisée sur Power BI
pour la « Société 1 » :
98
Annexe 3 – Maquette de tableau de bord de pilotage réalisée sur Power BI
pour la « Société 2 » :
99
Annexe 4 – Application de questionnaire conçue sur Power Apps, détail des
onglets navigables :
100
Application Test Power Apps : Onglet de consultation de la base
101