Master FCA | S7
Nouvelles Technologies d’Information
& de Communication
AU: 2020-2021
Thème du rapport:
Impact de Big Data
sur la Finance
Encadré par: Mme Leila ALAMI
Réalisé par:
Tahouri Zakariae
GHAFFOULI Soufian
EN-NAJARY Imad
Sommaire:
Introduction général ………………………….…..1
Chapitre 1 : Concept du Big Data ……..…….3
Section 1 : Définition du Big Data …………..3
Section 2 : Caractéristiques du Big Data….4
Section 3 : Avantages & Inconvénients
du Big Data………………………………………..……7
Chapitre 2 : Impact et enjeux du Big Data
sur la finance…………………………………………..9
Section 1 : Le big data appliqué à
la finance………………………………………………..9
Section 2 : Grands défis en matière de big
data dans la finance………………………………11
Section 3 : Comment le big data a
révolutionné la finance ………………………..13
Conclusion…………………………………………….14
Introduction
Aujourd'hui, nombre d'employés ne travaillent pas dans
l'informatique, mais sont néanmoins tout à fait conscients de
l'existence des Big Data, au vu de leur caractère vraiment
révolutionnaire du point de vue du modèle d'entreprise. Certaines
sociétés ont même fait de cette collecte de jeux de données (ou au
moins des résultats) un élément essentiel de leur stratégie
d'entreprise.
Avec les Big Data, les défis à relever sont nombreux et variés, mais
le plus important est peut-être la compréhension de leur
signification pour chaque société. Il est nécessaire d'avoir une
vision illimitée de ce que pourrait être l'avenir, sans les freins que
les technologies ont imposés sur le concept du mode de pensée
d'une société. Cela signifie ne pas limiter la pensée à ce qui était
auparavant considéré comme l'art du possible. En ce sens se
dessine la possibilité de se concentrer sur la signification de tout
cela pour les réalités de l'entreprise, contrairement à ce que le
secteur dit et donc sur les idées prévisibles que les individus
pourraient avoir.
En examinant la mise en œuvre d'une initiative de Big Data, la toute
première considération concerne les règles d'intégration au sein de
l'organisation d'entreprise et informatique existante. D'un point de
vue commercial, il n'y a aucune raison de créer de nouvelles
visions qui ne peuvent pas être analysées en plus des informations
fondamentales continuant à faire fonctionner l'entreprise. D'un
point de vue informatique, il est nécessaire d'être cohérent dans la
mise en œuvre, de telle sorte que la solution des Big Data puisse
s'adapter sans problème à la structure informatique existante.
La discipline de l'architecture joue un rôle majeur pour les aspects
clés des Big Data. Des techniques, telles que la planification des
capacités d'entreprise, fournissent une structure permettant à la
société d'exprimer ses capacités et, dans ce contexte, les résultats
qui sont imaginés de manière implicite ou explicite par les Big Data
1
seront inclus. L'architecture de l'information est elle aussi
importante: la dimension des informations est l'endroit idéal où les
nouvelles opportunités peuvent se matérialiser, mais aussi l'un des
Domaines dans lesquels la cohérence offre de la valeur à long
terme.
Enfin, l'architecture de la technologie est essentielle à une mise en
œuvre qui réalise la vision d'ensemble. Dans l'application d'une
solution de Big Data, il convient de prévoir tout d'abord une
validation de principe. Bien qu'une majorité de ce qu'on appelle les
phases de « validation de principe » mette en lumière peu de
choses qui sont déjà connues, le problème posé par la solution des
Big Data aurait pu rester irrésolu en suivant la méthode qu'a tentée
la société. Une validation de principe devrait également envisager
une combinaison des besoins d'analyse des Big Data et d'autres
nouveaux domaines liés, tant au niveau des informations qu'au
niveau général. Dans le secteur des informations, il existe d'autres
tendances relatives aux concepts, comme une véritable
intelligence opérationnelle en temps réel, ainsi que la virtualisation
des données et des technologies en mémoire. Dans l'espace plus
général, les Big Data peuvent être liées de manière plutôt
significative à l'ensemble du Cloud Computing, à l'Internet des
objets et aux médias sociaux.
La solution des Big Data doit être considérée comme un voyage
plutôt que comme la destination à atteindre, car la technologie qui
permet ce paradigme ne cesse d'évoluer, à l'image de l'opportunité
de la combiner avec des technologies telles que Complex Event
Processing et Business Rules Engines pour obtenir des résultats
encore plus utiles, qui sont parfois considérés comme irréalisables
et d'autres parfois qui ne sont même pas pris en compte.
2
Chapitre 1: Concept du Big Data
Section 1: Définition du Big Data
Le terme Big Data réfère à l’accroissement exponentielle des
données, au traitement de ces dernières ou de manière plus
générale à toutes les étapes entrant en jeu dans le processus
d’extraction d’informations utiles à partir d’énormes lots de
données brutes.
Pour comprendre le « Big Data », vous devez d’abord
connaître Qu’est-ce que les données?
Les données désignent les quantités, les caractères ou les
symboles sur lesquels les opérations sont effectuées par un
ordinateur, qui peuvent être stockés et transmis sous forme de
signaux électriques et enregistrés sur des supports
d’enregistrement magnétiques, optiques ou mécaniques.
Le Big Data c’est aussi des données mais avec une taille énorme.
C’est un terme utilisé pour décrire une collection de données de
grande taille et qui croît de façon exponentielle avec le temps.
En bref, ces données sont si volumineuses et complexes qu’aucun
des outils traditionnels de gestion des données n’est capable de
les stocker ou de les traiter efficacement.
Les données sont une combinaison de données structurées, semi-
structurées et non structurées collectées par des organisations qui
sont extraites pour des informations et utilisées dans des projets
d’apprentissage automatique, de modélisation prédictive et
d’autres applications d’analyse avancées.
Le domaine du Big Data regorge cependant de
nombreux métiers tendance.
3
Section 2: Caractéristiques du Big Data
Le Big Data fait désormais partie du quotidien de toutes les
entreprises. Et pour utiliser les volumes de données massifs au
mieux dans son organisation et son processus décisionnel, il est
essentiel de maîtriser les principes et caractéristiques clés du Big
Data. Ces principes sont traduits en un concept communément
appelé « les 5 V du Big Data ».
Quels sont ces 5 V ? Et à quoi correspondent-ils ? Talend vous
apporte toutes les réponses pour mieux appréhender cette notion
des 5 V et ses enjeux.
La liste des 5 V du Big Data
Les 5 V du Big Data englobe 5 principes clés qui définissent les
ensembles massifs de données :
• Le volume
• La variété
• La vitesse (ou vélocité)
• La véracité
• La valeur
Volume
Le Volume du principe des 5V fait référence aux énormes
quantités de data générées à chaque instant. Ces volumes sont
devenus tellement massifs que nous ne parlons plus en Téraoctets
mais en Zettaoctets pour les quantifier. D’ailleurs le volume annuel
de data numériques créé à l’échelle mondiale a été multiplié par
plus de vingt durant les dix dernières années et s’approche de 50
zettaoctets en 2020 selon Statista.
Toute entreprise qui prévoit d’utiliser ces volumes de données
massifs doit donc développer des solutions Big Data
Analytics pour gérer la quantité et le volume de data à stocker et
traiter.
4
Variété
La Variété désigne la multiplicité des types de données
disponibles. Auparavant, les data étaient majoritairement des
données structurées, faciles à classer et organiser. Aujourd’hui, de
nombreuses data non-structurée comme les données textuelles
sont générées à chaque seconde.
Pour utiliser le Big Data il faut donc être en mesure d’identifier tous
les différents types de données générées, ingérées et stockées
dans l’écosystème numérique de l’entreprise.
Vitesse
La Vitesse, également appelée Vélocité, correspond à la rapidité à
laquelle les data sont générées et circulent. Le Big Data permet
l’analyse d’informations en temps réel et leur transmission à un
rythme effréné. Ainsi, les entreprises peuvent faire preuve d’une
réactivité et d’une agilité incomparables.
Utiliser le Big Data et son principe de vélocité implique la recherche
et le déploiement de technologies pour s’assurer que les volumes
massifs de données soient traités de manière à être utilisées
quasiment instantanément.
Véracité
La Véracité est un élément indispensable des 5 V du Big Data. Elle
désigne à la fiabilité de la data qui est essentielle pour pouvoir en
tirer profit et la transformer en information utilisable dans
l’entreprise.
Cette notion des 5V désigne donc le fait nettoyer les données
(data cleansing) et faire en sorte qu’elles soient exactes, prêtes à
l’emploi et utilisées à des fins business dans le processus
décisionnel.
Valeur
La Valeur est le dernier élément des 5 V du Big Data et il désigne
le fait que chaque donnée doit apporter une valeur ajoutée à
l’entreprise. Il est donc crucial que les entreprises, avant de lancer
5
leur projet Big Data, sachent pourquoi et comment elles vont le
mener afin d’évaluer la future rentabilité.
La Valeur des 5 V rejoint le concept de Business Intelligence qui
consiste à rendre la data exploitable et stratégique dans le
processus décisionnel afin de prioriser les informations
essentielles et stratégiques à chaque équipe de l’organisation.
Le 6ème V du Big Data
Au vu de l’évolution de la gouvernance des données et des
réglementations, nous ajoutons une 6ème caractéristique
essentielle à ce concept des 5 V du Big Data : la Vertu.
La vertu fait référence aux réglementations en matière de
confidentialité et de conformité des data. Pour nous, l’aspect
éthique et le respect des normes en vigueur concernant les
données sont cruciaux pour traiter les informations tout en se
conformant aux réglementations telles que le RGPD en Europe.
C’est pourquoi la Vertu fait désormais partie des éléments clés qui
caractérisent le Big Data.
6
Section 3: Avantages et inconvénients du Big Data
1- Avantages du Big Data
▪ Le Big Data, pour optimiser son offre : il permet en effet une
analyse complète du comportement et des attentes du
consommateur. Google Analytics permet par exemple
d’optimiser son site web de par une analyse en temps réel des
données liées: nombre de visites, comportement de navigation,
taux de rebond, nombre de pages lues, taux de clics…
▪ Le Big Data, pour anticiper les besoins et la demande : le Big
Data est à la source du remarketing, cette pratique visant à vous
afficher des publicités en fonction de votre navigation. Vous avez
consulté les appareils photos sur le site de la Fnac et vous
retrouvez des bannières d’appareils photo sur tous les sites que
vous fréquentez ? C’est un avantage du Big Data (certains diront
que c’est plutôt un inconvénient… !)
▪ Le Big Data, pour optimiser sa logistique et son
organisation : il permet, par exemple, de suivre ses ventes en
temps réels et donc d’optimiser sa gestion des stocks. Amazon
teste même régulièrement des fonctionnalités de livraison
intuitive, visant à proposer la livraison à la commande.
2- Inconvénients du Big Data
L’évolution du Big Data pose naturellement la question de la
protection des données et du respect de la vie privée.
C’est le plus gros inconvénient du Big Data et le plus gros
challenge que nous devons relever.
Le respect de la vie privée est encadré, de façon toute relative,
par la loi « informatique et libertés » de 1995.
Elle dit notamment que les données personnelles doivent être
collectées dans un but bien précis, explicite et surtout légitime.
Elle stipule que la durée de conservation des données ne doit
pas excéder l’atteinte de cet objectif.
7
Par ailleurs, l’individu, l’internaute, bénéficie également du droit
d’être informé de la collecte des données le concernant.
Cette législation sur la protection des données a été complétée
par la RGPD ( Règlement général sur la protection des
données) .
Autre inconvénient du Big Data : la sécurité du stockage des
données.
Le cloud est sans doute une des inventions majeures de ces
dernières années, celle qui a rendu possible le phénomère Big
Data.
Les fournisseurs de cloud, majoritairement américains, ont
l’habitude de créer des « back doors » leur permettant d’accéder
à tout moment aux données qu’ils stockent.
Ils ont donc théoriquement accès à vos photos, vos textes mais
aussi aux données publiques, stockées par les institutions et
gouvernement.
De plus, le Patriot Act découlant des attentats du 11 Septembre
accorde au gouvernement américain un accès total aux données
stockées sur le cloud. C’est ce qui fait du Big Data un risque
important.
Ces failles posent en effet clairement le problème du respect des
libertés individuelles.
Si vous regardez Person of Interest, série orientée autour d’une
machine collectant toutes les données numériques pour pouvoir
prédire les crimes, vous comprendrez donc pourquoi le héro
attache une grande importance à garder cette machine secrète
et inaccessible.
8
Chapitre 2: Impact et enjeux du Big Data
sur la finance
Section 1: Big data appliqué à la finance
Les sociétés financières ont désormais la possibilité d’exploiter le
big data pour des cas d’utilisation tels que la génération de
nouveaux flux de revenus grâce à des offres data-driven, les
recommandations personnalisées selon les audiences, une
meilleure efficacité pour obtenir des avantages concurrentiels, une
sécurité renforcée et de meilleurs services aux clients. De
nombreuses sociétés financières qui savent exploiter le big data
en retirent des bénéfices immédiats.
Augmentation des recettes et de la satisfaction des clients
Des entreprises comme Sidetrade ont su appliquer des solutions
de big data pour développer des plateformes d’analytics
qui prédisent les comportements de paiement des clients. En se
familiarisant avec les comportements de ses audiences, une
entreprise peut réduire les délais de paiement et générer plus de
liquidités tout en améliorant la satisfaction des clients.
Accélération des processus manuels
Les solutions d’intégration de données ont la capacité de s’adapter
à l’évolution des besoins des entreprises. L’accès à une vue
d’ensemble de toutes les transactions permet aux sociétés de
cartes de crédit comme Qudos Bank d’automatiser les processus
manuels, d’économiser les heures de travail du personnel IT et
de proposer des insights sur les transactions quotidiennes des
clients.
Amélioration du parcours d’achat
Les anciens outils n’offrent plus les solutions nécessaires pour les
données volumineuses et disparates et ont souvent une flexibilité
limitée quant au nombre de serveurs qu’ils permettent de déployer.
Les outils de gestion des données dans le cloud ont aidé des
entreprises comme MoneySuperMarket à extraire des données à
9
partir de plusieurs services web dans des data
warehouses destinés à la consommation par divers services, tels
que la finance, le marketing, labusiness intelligence, la veille et le
reporting. Des stratégies cloud comme celles-ci améliorent le
parcours d’achat des clients, permettent de collecter
quotidiennement des indicateurs des prévisions de performance,
ainsi que des analyses de données ad hoc.
Workflow rationalisé et traitement fiable du système
L’augmentation constante des volumes de données dans le
secteur bancaire conduit à la modernisation des données
bancaires de base et des systèmes d’application grâce à des
plateformes d’intégration uniformes. Grâce à un workflow
rationalisé et à un système de traitement fiable, des entreprises
comme la Landesbank Berlin ont appliqué l’intégration
d’applications pour traiter 2 To de données par jour, mettre en
place 1 000 interfaces et utiliser un seul processus pour toute la
logistique de l’information et l’interfaçage.
Analyse des performances financières et contrôle de la
croissance
Avec des milliers d’affectations par an et des dizaines d’unités
commerciales, l’analyse de la performance financière et le contrôle
de la croissance entre les employés de l’entreprise peuvent être
complexes. Les processus d’intégration de données ont permis à
des entreprises comme Syndex d’automatiser le reporting
quotidien, d’aider les services IT à gagner en productivité et de
permettre aux utilisateurs professionnels un accès aux insights
stratégiques et à une analyse simplifiée.
10
Section 2: Grands défis en matière de big data
dans la finance
1. Exigences règlementaires
Le secteur financier est confronté à des exigences règlementaires
strictes, comme la proposition de règlementation bancaire
Fundamental Review of the Trading Book (FRTB), qui régit l’accès
aux données critiques et exige un reporting accéléré. Les
technologies innovantes liées au big data permettent aux
institutions financières de faire évoluer la gestion des risques de
manière rentable, tandis que les indicateurs et le reporting aident
à transformer les données à des fins d’analyse.
2. Sécurité des données
Avec l’essor des piratages et des menaces avancées et
persistantes, les mesures de gouvernance des données sont
essentielles pour atténuer les risques associés au secteur des
services financiers. Les outils de gestion des données reposant sur
le big data garantissent la sécurité et la protection des données,
ainsi que la détection immédiate d’activités suspectes.
3. Qualité des données
Les sociétés financières ne veulent pas se contenter de stocker
leurs données, elles veulent aussi les exploiter au mieux. Comme
ces données proviennent d’un grand nombre de systèmes
différents, elles ne concordent pas toujours, ce qui constitue un
obstacle à la gouvernance des données. Les solutions de gestion
des données garantissent des informations exactes, exploitables
et sécurisées.
Des outils d’analytics en temps réel permettent également
d’accéder en simultané aux big data stores, avec précision et
rapidité, afin d’aider les entreprises à obtenir des insights de
qualité, et de lancer de nouveaux produits, de nouvelles offres de
services et de nouvelles fonctionnalités.
11
4. Silos de données
Les données financières proviennent de nombreuses sources
comme des documents de collaborateurs, des e-mails, des
applications d’entreprise, etc. La combinaison et la réconciliation
de données volumineuses nécessitent des outils d’intégration de
données qui simplifient le processus en termes de stockage et
d’accès.
Les solutions de données big data et le cloud fonctionnent de
concert pour relever et résoudre ces défis majeurs du secteur. Plus
les institutions financières adopteront des solutions de cloud
computing, plus elles prouveront aux marchés financiers que les
solutions de big data sont bénéfiques tant pour l’IT que pour
l’activité commerciale.
12
Section 3: Comment le big data a révolutionné
la finance
Les institutions financières ne sont pas nées dans le paysage
digital : elles ont dû subir un long processus de conversion qui a
nécessité des mutations comportementales et technologiques.
Au cours des dernières années, le big data dans la finance a
conduit à d’importantes innovations technologiques qui ont
donné lieu à des solutions pratiques, personnalisées et
sécurisées pour le secteur. En conséquence, les analyses big
data ont permis de transformer non seulement les processus
commerciaux individuels, mais aussi l’ensemble du secteur des
services financiers.
Aperçu des marchés boursiers en temps réel
Le machine learning transforme les transactions et les
investissements. Au lieu de se contenter d’analyser le prix des
actions, le big data permet désormais de prendre en compte les
tendances politiques et sociales susceptibles d’affecter les
marchés boursiers. Le machine learning permet de suivre les
tendances en temps réel, ce qui permet aux analystes de
compiler et d’évaluer des données pertinentes et de prendre des
décisions éclairées.
Détection et prévention des fraudes
La détection et la prévention des fraudes a été rendue possible
en grande partie grâce au machine learning, alimenté par le big
data. Les risques de sécurité que représentaient autrefois les
cartes de crédit ont été réduits grâce à des processus d’analytics
qui interprètent les habitudes d’achat. Désormais, en cas de vol
d’informations sécurisées relatives aux cartes bancaires, les
banques peuvent instantanément bloquer la carte et la
transaction puis informer le client des menaces de sécurité.
13
Analyse précise des risques
Les grandes décisions financières, comme les investissements
et les prêts, reposent désormais sur des outils de machine
learning impartiaux. Les décisions calculées basées sur
l’analytics prédictif prennent tout en compte, de l’économie à la
segmentation des clients, mais aussi le capital des entreprises,
afin d’identifier les risques potentiels tels que les mauvais
investissements ou les mauvais payeurs.
Conclusion :
le nombre de données numériques continue de croître et le Big
Data n’en est toujours qu’à ses balbutiements. Les outils
d’analyse et de stockage vont continuer à se perfectionner.
A ce stade on peut dire que le Big Data est un écosystème large
et complexe. Il nécessite la maitrise des technologies matérielles
et logicielles diverses (stockage, parallélisation des traitements,
virtualisation, …). Le Big Data demande de la compétence et de
l’expertise dans la maitrise et l’analyse des données.
14
Webographie :
https://www.reply.com/fr/topics/big-data-and-analytics/un-apercu-
des-big-data
https://superdatacamp.com/big-data/definition-et-exemples/
https://www.talend.com/fr/resources/5v-big-data/
https://www.ludosln.net/revolution-big-data-les-enjeux-et-les-risques-
du-big-data/
https://www.talend.com/fr/resources/big-data-finance/
Bibliographie :
ANF2018_BigData.pdf
Rapport_BigData.pdf
15
16