الجمهورية الجزائرية الديمقراطية الشعبية
REPUBLIQUE ALGERIENNE DEMOCRATIQUE ET POPULAIRE
وزارة التعليم العالي والبحث العلمي
MINISTERE DE L’ENSEIGNEMENT SUPERIEUR
ET DE LA RECHERCHE SCIENTIFIQUE
2 جامعة باتنة
UNIVERSITE « BATNA- 2 »
كلية النكنولوجيا
FACULTE DE TECHNOLOGIE
قسم الهندسة الصناعية
DEPARTEMENT GENIE INDUSTRIEL
Module : Ethique, déontologie et propriétés intellectuelle
Thème :
Big data & industrie 4.0
Master 1
Spécialité : Ingénierie Logistique
Elaboré(e) par :
- Zegrar mohamed nadhir
Encadré par :
- Dr. N .zerari
Année universitaire : 2023 – 2024
Introduction
.
Big Data est un terme générique qui désigne les datasets qui ne peuvent pas être gérés par
des serveurs et des outils classiques en raison de leur volume, de leur vélocité et de leur
variété. Le concept de Big Data fait aussi référence aux technologies et aux stratégies mises
en œuvre pour gérer ce type de données.
En 2eme on a
L'industrie 4.0 repose sur quatre piliers essentiels : les systèmes cyber-physiques, l'internet
des objets, le big data et le cloud computing. Ces technologies se rejoignent pour créer une
usine connectée où les machines peuvent communiquer entre elles et prendre des décisions
de manière autonome.
1
Définition
Le big data les mégadonnées ou les données massives, désigne les ressources
d’informations dont les caractéristiques en termes de volume, de vélocité et de variété
imposent l’utilisation de technologies et de méthodes analytiques particulières pour créer de
la valeur4,5, et qui dépassent en général les capacités d'une seule et unique machine et
nécessitent des traitements parallélisés.
L’explosion quantitative (et souvent redondante) des données numériques permet une
nouvelle approche pour analyser le monde6. Le volume colossal de données numériques
disponibles, implique de mettre en œuvre de nouveaux ordres de grandeur concernant la
capture, le stockage, la recherche, le partage, l'analyse et la visualisation des données. Le
traitement des big data7 permet de nouvelles possibilités d'exploration de l'information et des
données, celles-ci proviennent de nombreuses sources numériques : les réseaux sociaux,
les médias8, l'OpenData, le Web, des bases de données privées, publiques à caractère
commercial ou scientifique. Cela permet des recoupements et des analyses prédictives dans
de nombreux domaines : scientifique, santé, économique, commercial… La multiplicité des
applications a été comprise et développée par les plus gros acteurs du secteur des
technologies de l'information9.
Divers experts, grandes institutions (comme le MIT10 aux États-Unis, le Collège de
France11 en Europe), administrations12 et spécialistes sur le terrain des technologies ou des
usages13 considèrent le phénomène big data comme l'un des grands défis informatiques de
la décennie 2010-2020 et en ont fait une de leurs nouvelles priorités de recherche et
développement, qui pourrait notamment conduire à l'Intelligence artificielle en étant exploré
par des réseaux de neurones artificiels autoapprenants1
Dimension
Le big data s'accompagne du développement d'applications à visée analytique, qui traitent
les données pour en tirer du sens. Ces analyses sont appelées big analytics ou « broyage de
données ». Elles portent sur des données quantitatives complexes à l'aide de méthodes
de calcul distribué et de statistiques.
En 2001, un rapport de recherche du META Group (devenu Gartner) définit les enjeux
inhérents à la croissance des données comme étant tri-dimensionnels : les analyses
complexes répondent en effet à la règle dite « des 3V » (volume, vélocité et variété). Ce
modèle est encore largement utilisé aujourd’hui pour décrire ce phénomène. Aux 3 V initiaux,
sont parfois ajoutés d'autres V comme : Véracité, Valeur et Visualisation3
Stockage
Pour répondre aux problématiques big data, l’architecture de stockage des systèmes doit
être repensée et les modèles de stockage se multiplient en conséquence.
Lac de données : moyen de stockage de données massives en clusters, et gardées dans
leurs formats originaux, pour pouvoir stocker tout format de données de manière rapide
et peu coûteuse.
Cloud computing : l’accès se fait via le réseau, les services sont accessibles à la
demande et en libre service sur des ressources informatiques partagées et
configurables61. Les services les plus connus sont ceux de Google BigQuery, Big Data
sur Amazon Web Services et Microsoft Windows Azure.
2
Super calculateurs hybrides : les HPC pour high performance computing, peuvent être
utilisés dans le domaine des Big Data pour leur puissance de calcul et d'analyse. On en
retrouve en France dans les centres nationaux de calculs universitaire tels que l’IDRIS,
le CINES, mais aussi au CEA ou encore le HPC-LR ou à Météo France
Systèmes de fichiers distribués (ou DFS pour distributed file system) : les données ne
sont plus stockées sur une seule machine car la quantité est beaucoup trop importante.
Les données sont réparties sur une machine bien précise utilisant du stockage local . Le
stockage local est préféré au stockage SAN et NAS pour des raisons de goulots
d'étranglement au niveau du réseau et des interfaces réseaux des SAN. De plus, utiliser
un stockage de type SAN coûte bien plus cher pour des performances bien moindres.
Dans les systèmes de stockage distribué pour le big data, l'on introduit le principe
de data locality Les données sont sauvegardées là où elles peuvent être traitées.
Virtualisation du stockage : La virtualisation des données est un moyen de rassembler
des données provenant de plusieurs sources dans une seule « vue ». L'assemblage est
virtuel : contrairement à d'autres méthodes, la plupart des données restent en place et
sont extraites des sources brutes à la demande
3
Industrie 4.0
Le concept d’industrie 4.0 (aussi appelée industrie du futur ou quatrième révolution
industrielle) correspond à une nouvelle façon d’organiser les moyens de production. Cette
nouvelle industrie s'affirme comme la convergence du monde virtuel, de la conception
numérique, de la gestion (opérations, finance et marketing) avec les produits et objets du
monde physique. Les grandes promesses de cette quatrième révolution industrielle sont de
séduire les consommateurs avec des produits uniques et personnalisés, et malgré de faibles
volumes de fabrication, de maintenir des gains. Ces mêmes consommateurs peuvent ainsi
communiquer avec les machines durant les phases de réalisation : ce type
de production s'appelle « smart production » ou « smart manufacturing (en) ». Selon ce
principe, dans le contexte de l’automatisation industrielle, cela se caractérise par la mise en
œuvre de capteurs qui sont les éléments de base des Système de contrôle et d'acquisition
de données en temps réel (SCADA). Ils permettent de transformer des grandeurs physiques
(température, pression, position, concentration, autres…) en signaux, le plus
souvent électriques, qui renseignent sur ces grandeurs. Ces capteurs permettent aux robots
d'une chaîne de production de dialoguer et d'adapter l'outil de production aux différents
besoins, de manière non exhaustive, les maintenances, les besoins des marchés ou les
modifications des clients.
Outre les aspects technologiques, cette quatrième révolution industrielle influe sur différents
aspects de nos sociétés modernes. De nouveaux enjeux apparaissent au travers de cette
nouvelle manière de produire. L'industrie 4.0 touche évidemment l'aspect économique mais
a également des impacts sociaux, politiques ou environnementaux. Il pose la question de
l'emploi de millions de salariés à travers le monde. En effet, l'accompagnement des salariés
actuels et la formation des futurs salariés sont à prendre en compte. Plus généralement, il
est nécessaire de réfléchir à la place de l'humain dans cette industrie 4.0.
4
La relation entre big data et industrie 4.0
L'intelligence artificielle et la big data ont été un tremplin pour l'industrie 4.0. C'est grâce à
ces données récoltées et analyées que les entreprises peuvent se positionner sur un marché
et améliorer leur production, leur gestion de stock, leur traçabilité et leur livraison
L’exploration des méga données est aujourd’hui largement associée aux
métiers du marketing pour mieux connaitre et comprendre le comportement et
les attentes des consommateurs.
Néanmoins, la ruée vers le nouvel or noir des données disponibles à profusion et
analysables à moindre coût est désormais lancée par les grands groupes
industriels. Les industriels font face à des défis inédits en matière de
modernisation, de rationalisation et de réduction des coûts.
La digitalisation de la chaîne de valeur, à travers des technologies telles que
l’IoT, la réalité augmentée, le digital twin répond à ces enjeux et constitue plus
que jamais un levier majeur de transformation. Alors quelles sont les applications
concrètes du Big Data dans l’industrie ?
L’apogée du Big Data dans l’industrie
Les grands groupes industriels utilisent depuis des années des outils de gestion et d’aide à
la décision pour les aider à définir par exemple leurs offres et services à leurs clients.
On assiste actuellement à l’arrivée à maturité des technologies dites Big Data, de stockage
et d’analyse de grandes quantités de données structurées et surtout non structurées avec
l’émergence des distributions commerciales d’Hadoop (Cloudera, MAPR et Hortonworks) à
des tarifs compétitifs.
Habitués à exploiter et analyser des données structurées, les industriels doivent
basculer dans un nouveau paradigme visant à donner du sens aux afflux massifs et
diversifiés d’informations. Un des enjeux sera de travailler sur des données non
structurées (flux d’informations brutes, images, vidéos, commentaires, likes…) aux
formats inconnus ou mal maitrisés.
Dans ce contexte, les industriels ont compris l’intérêt d’exploiter les flux de données
colossaux déversés par l’émergence, en particulier des objets connectés et proposer de
nouveaux services et améliorer ses processus de prise de décision.
Mais la question est de sortir du simple champ des possibles et définir l’application concrète
qui donnera du sens à cette démarche…
Les 4 cas d’usage du Big Data dans l’industrie
1. Améliorer la performance opérationnelle grâce à l’analyse des données de
production pour identifier les meilleures pratiques et les optimisations
possibles.
2. Optimiser la maintenance grâce à la maintenance prédictive.
3. Développer son modèle commercial en identifiant de nouvelles tendances
sur le marché.
4. Améliorer sa relation client en analysant les retours consommateurs,
notamment via les réseaux sociaux.
5
Le digital twin
Le digital twin est établi de longue date dans l’industrie, où il a révolutionné les processus sur
la totalité de la chaîne de valeur. En effet, le jumeau numérique permet à l’industrie des
procédés d’optimiser les processus particulièrement longs et de renforcer leur flexibilité et
leur efficacité.
Concrètement, il s’agit d’un modèle de données intégré qui couvre la totalité du cycle
de vie d’une unité de production. Représentation virtuelle du produit, du processus de
production ou de la performance, il crée des liens parfaitement transparents entre les
différentes étapes du processus.
L’objectif est triple :
Garantir une amélioration cohérente de l’efficacité,
Réduire les taux d’échec,
Raccourcir les cycles de développement et crée de débouchés
commerciaux.
Quelles sont les freins à l’utilisation du Big Data dans
l’industrie ?
Quel est aujourd’hui le frein au développement de toutes ces initiatives ? Ce ne sont pas les
limites technologiques ou le manque d’argent, mais le manque de compétences spécifiques
et en particulier celles des analystes nommés Data Scientists
Les résultats obtenus ne le sont pas de manière automatisée au travers d’un
éventuel Machine Learning et ce sont bien des personnes qui sélectionnent et
décortiquent les données multi sources. Ce sont bien elles qui donnent du sens à la
démarche et ensuite, tout en exploitant l’automatisation apportée par le Machine
Learning.
Le Data Scientist pourra alors travailler sur les données : les sélectionner, les nettoyer,
les organiser, les normaliser, les traiter à travers des algorithmes adaptés et les visualiser.
Afin de disposer des compétences internes nécessaires pour maîtriser ces nouvelles
technologies, il est important d e former ses collaborateurs avec l’une de
nos formations spécialisées.
6
Conclusion
Le Big Data est né d'une réponse à un problème de temps de traitement des données,
les massives quantités de données sont compressées, pour qu'elles prennent moins
d'espace de stockage : par le système binaire et le codage Huffma et L'industrie 4.0 permet,
elle, une augmentation du retour sur le capital engagé (ROCE). D'abord parce qu'elle utilise
l'actif physique au maximum de ses possibilités. Elle réduit le coût de la complexité qui y est
portée par la composante numérique d'un produit ou d'une machine à la base standardisée.