Industrie 4
Industrie 4
0
La 4ème révolution industrielle
1
Que signifie l'expression 'industrie 4.0' ?
Initialement apparu en 2011 à la faveur d’un effort allemand, le terme ‘Industrie 4.0’ évoque une 4ème
révolution industrielle.
Plusieurs termes sont associés à cette 4e révolution :
Smart Manufacturing, Usine du futur, Manufacturing Renaissance, Industrie du futur…
2
L’Industrie 4.0 met donc l'accent sur le numérique et la connectivité ubiquitaire
Définition: Industrie 4.0 est une stratégie qui s’appuie sur le numérique et la connectivité ubiquitaire, grâce à
différentes technologies, afin de transformer les processus, les produits et les services par une prise de décision en
temps réel et décentralisée permettant l’apparition de nouvelles capacités pour les systèmes, en coopération avec
les humains, pour aller de la surveillance à l’autonomie.
L’industrie 4.0, ou industrie du futur, se concentre sur la numérisation de bout en bout de tous les biens physiques et
de leur intégration dans les écosystèmes numériques avec les différents partenaires de la chaîne de valeur. Cette
révolution est motivée par la numérisation et l’intégration horizontale et verticale des chaînes de valeur, la
numérisation des produits et services et l’accès à de nouveaux modèles d’affaires numériques.
3
Les types d’industrie : pourquoi l’industrie 4.0 ?
4
L’industrie 2.0 : (1800 – 1900) apparition de l’électricité
Repose sur des nouvelles sources d’énergie, le pétrole et l’électricité. C’est aussi l’époque du développement de
la mécanisation, de la production de masse, de l’automobile, de la chimie, des machines-outils.
• Utilisation des techniques d’optimisation et d’outils d’aide à la décision à toutes les étapes de
cycle de vie de produits et de leur système de production.
6
Pourquoi cette révolution?
Répondre au besoin de personnalisation croissante de produits
« le programme allemand Industrie 4.0 a également été motivé par la crainte de voir les géants de l’Internet
comme Google capter l’exclusivité de la relation avec le client et monopoliser l’accès à ses données d’usage »,
Le développement des compétences: Le grand nombre de données collectées, notamment, va exiger de nouvelles
compétences et de nouvelles aptitudes dans le chef du personnel. Il est important d’inclure les équipes et le personnel dès le
début et de fournir la structure et le support adaptés pour assurer leur développement et leur implication. En mettant
l’accent sur le renforcement des compétences et des comportements essentiels à la transformation, les collaborateurs
passeront plus rapidement des idées à l’action.
L’importance du management: Le numérique est une réalité. Le management doit en faire une affaire personnelle. La
vision, la mise en place de la stratégie et la communication sont des facteurs déterminants dans une optique de
transformation 4.0. Le manque de culture numérique un obstacle au développement numérique. Il ne s’agit donc pas de
décider d’une culture d’entreprise mais de la créer. La culture d’entreprise se crée par un travail mené à différents niveaux et
en parallèle : changement de posture managériale et organisationnelle. Elle est donc le reflet d’un travail mené sur le visible
(organe de gouvernance, outils, méthodes, etc.) et l’invisible (manière de communiquer, mode de management, valeurs
8
partagées, etc.)
« Le numérique transforme en profondeur l’organisation et la culture d’entreprise. Il place la dimension humaine au cœur
de sa réussite. Il convient donc de sensibiliser et mobiliser les entreprises à concevoir et développer des politiques RH
adaptées et durables et d’inciter les RH à monter dans le bateau de la transformation. »
La recherche de talents: La pénurie de talents comme obstacle à la transformation numérique, et la recherche de
ceux-ci, renforce également l’importance de l’être humain. Sans talents, pas de changement. Là encore, le défi que
rencontrent les entreprises est la difficulté d’attirer les bonnes aptitudes, les bonnes compétences, les bonnes
personnes.
L’importance du support: Le support joue également un rôle important, aussi bien en interne via les équipes de R&D
et les équipes (localisées) en place, qu’en externe via la création de collaborations ou de partenariats avec des
fournisseurs de technologies, des intégrateurs ou des prestataires de services. Il est donc essentiel pour l’entreprise de
renforcer sa structure pour mener à bien son parcours 4.0
Présentation:
L’industrie 4.0, propose un nouveau modèle basé sur l’interconnexion de toutes les entités de l’entreprise, la
collecte et le traitement intelligent des données pour réaliser une prise de décision factuelle rapide voire en temps
réel. Cette révolution s’adosse à de nouvelles technologies telles que la robotique, le big data, l’intelligence
artificielle, la simulation numérique, la fabrication additive, le cloud computing, la vision artificielle, les capteurs
intelligents, les technologies cognitives etc.
Avec ce nouveau paradigme, il s’agit de mettre en œuvre des moyens intelligents, capables de s’autogérer, de se
configurer et de prendre des décisions sur la base de leur connexion avec d’autres mécanismes à l’intérieur et à
l’extérieur de l’industrie.
L’Industrie 4.0 correspond à une nouvelle façon d’organiser et d’exploiter les 5M contribuant à la réalisation de
tous les processus d’une chaine de valeur (men, material, machine, medium, methods); chaine qui comporte
l’identification des besoins client, la conception, la production, la livraison et l’exploitation du produit. Cette
industrie se présente comme la convergence des deux mondes: le virtuel et le réel pour réaliser des actions qui
n’étaient pas possibles avant et ce, grâce à plusieurs méthodes et techniques relevant aussi bien du monde
physique que numérique. Les consommateurs peuvent communiquer avec les machines durant les phases de
réalisation. Ce type de production s’appelle la «Smart Product».
• Smart Service: technologie qui permet d’intégrer les besoins et les interactions de l’entreprise avec les
fournisseurs, les clients et les autres interacteurs externes.
• Smart Energy: Créer des systèmes plus efficients (consommation d’énergie sans gaspillage) et respectant
l’environnement,
11
Cette révolution a été possible grâce aux évolutions suivantes:
• les capteurs plus petit points coûteux et plus intelligents
• les technologies de connexion et communication plus performants
• l’internet des objets permettant la transmission de données de tous types d’objets
• les moyens de stockage de données plus importants et moins coûteux
• les algorithmes de traitement et d’intelligence artificielle plus performants des moyens matériels de
traitement plus rapides et plus puissants
• L’identification automatique pour la fabrication de produits personnalisés crée une identification unique
et des liens vers le monde virtuel;
• Les dispositifs de terrain intelligents utilisant un logiciel permettant la distribution dynamique globale de
la fonctionnalité font partie intégrante de l’intégration du système;
• Gestion des appareils mobiles (MDM): interfaces homme-machine pour un fonctionnement intuitif de
systèmes complexes sans formation particulière .
L’industrie 4.0 a été rendue techniquement et économiquement viable par le fait que les nouvelles technologies sont
devenues abondantes et abordables. En même temps, la capacité à recueillir, à distribuer, à relayer et à analyser
l’information s’est considérablement améliorée. Elle donne lieu à une prise de décisions éclairée par des données en temps
réel et par l’analyse prédictive de plus en plus précise et fiable, ce qui permet d’ajouter de la valeur commerciale. 12
Les techniques soutenant la 4ème révolution sont principalement les suivantes:
• Cyber Physical Systems et communication M2M
• Robots autonomes et collaboratifs (cobots)
• Internet des Objets et l’Internet industriel des objets (IoT et IIoT)
• Big Data, Data Mining et Data science
• Cloud Computing et edge computing
• Intelligence artificielle, Machine Learning et deep learning
• Simulation numérique et jumeau numérique (digital twin)
• Fabrication additive ou impression 3D
• Intégration de système horizontale et verticale
• Réalité augmentée et interface H2M
• Code QR et RFID
• Cyber sécurité
13
Enjeux de l’industrie 4.0:
Enjeux économiques:
Les technologies de l’I4.0 permettent de mieux satisfaire le client en termes de qualité, temps, coût, sécurité et
environnement. Elle permettent ainsi aux entreprises qui les ont adoptées d’être plus compétitives, de fidéliser
leurs clients et d’en acquérir d’autres. Elles leur permettent d’être plus florissante économiquement. Cela est
obtenu en assurant de meilleures performances en définition des besoins du client, en conception du produit, en
fabrication en logistique interne et externe, en maintenance, en sécurité, en protection de l’environnement, en SAV
et en fin de vie.
14
Enjeux sociaux:
La destruction d'emploi est probablement ce qui inquiète dans la mise en place de l'industrie 4.0. La numérisation
et l'automatisation des processus, les robots et l'IA sont perçus comme des substituts aux humains. Beaucoup de
métiers vont disparaître mais beaucoup d'autres vont apparaître.
Il y aura besoin de compétences technologiques en loT, en réseaux, en cybersécurité, en robotique, et globalement
dans la manipulation des outils du numériques ainsi qu'en ingénierie des systèmes électroniques et informatiques.
Il y aura aussi besoin de compétences non-technologiques : par exemple, la gestion du savoir, la gestion de
l'information, la gestion des réseaux sociaux. Les soft skills seront davantage valorisés, comme par exemple
l'autonomie, la responsabilité, la capacité à collaborer efficacement, la gestion de projet, la prise d'initiative ou de
décision, et la créativité.
Il y aura de nombreux métiers, liés au domaine de la data : data scientist, data architect, data engineer, data
analyst, responsable des données numériques... Il y aura également besoin d'experts en fabrication additive, en
simulation numérique ou en mécatronique. Il faudra aussi des ingénieurs en cybersécurité, des statisticiens en
maintenance prédictive, ou encore des responsables en CRM, (Customer Relationship Management). Pour la
gestion de la supply chain, il faudra des responsables, des conducteurs de ligne, des opérateurs de commandes
numériques, des opérateurs et des techniciens de maintenance. Enfin, les métiers du management seront aussi
transformés avec le digital qui va investir tous les processus de l'entreprise. L'accès à la formation continue sera
crucial pour accompagner les travailleurs dans la transformation numérique de l'industrie: d'abord pour acquérir
une culture numérique, ensuite pour évoluer en même temps que les technologies.
L'industrie 4.0 apporte aussi de grands changements bénéfiques pour la vie et le travail de l'homme à travers
15
des
applications telles que les smart cities, les smarts homes, l'ergonomie etc.
Enjeux environnementaux:
La production industrielle entraine des dégradations environnementales telles que exagérément des ressources non
renouvelables (fossiles) comme le pétrole ou le charbon. Les économies d'énergie et la réduction d'émission
s'imposent comme des solutions efficaces pour éviter ces dégradations. L'industrie 4.0 peut contribuer dans les
efforts mondiaux de réduction des émissions de carbone notamment en développant l'efficacité énergétique, un
paradigme qui encourage les entreprises à faire plus avec moins d'énergie.
Les données recueillies par des capteurs, interprétées par des outils d'analyse et intégrées dans des modèles
prédictifs. Elles peuvent permettre de réaliser des économies d'énergie en détectant les processus inefficaces, en
optimisant la production et la logistique et en anticipant les besoins de maintenance. Elles permettent également
d'adapter la demande au prix et à la disponibilité de l’énergie, d'affiner la gestion de la température et même de
réduire les coûts de recherche et développement en donnant la possibilité de tester et de modéliser virtuellement
les machines, les processus et les usines grâce à des jumeaux numériques.
Les données sont également cruciales pour faire évoluer le mix énergétique vers des sources renouvelables selon les
période de consommation ce que font les smart grids qui en électricité est un dispositif de réseaux d'électricité,
basé sur des technologies informatiques qui, en collectant et en analysant des informations sur l'état d'un réseau
électrique, contribue à ajuster les flux d’électricité entre producteurs, distributeurs et consommateurs pour assurer
une consommation et un coût moindre.
Les technologies de I’I 4.0 contribuent aussi à optimiser la logistique très polluantes par le choix des modes de
transport, de leurs trajets, de leur nombre, de leur charge, de leur état etc. Elles optimisent aussi la consommation
d'eau pour l'irrigation en déterminant pour chaque type de plantation la quantité d’eau requise et les moments 16
propices pour l’injecter.
Technologies de l'industrie 4.0:
Une usine 4.0 est caractérisée par l'utilisation de plusieurs technologies liées à l'automatisation et la robotisation,
le recueil de mégadonnées, le traitement de celles-ci par le biais notamment des algorithmes de l'intelligence
artificielle pour en tirer des applications pertinentes et des aides à la décision. Ces technologies sont
principalement les suivantes:
• Capteurs
• QRcode
• RFID
• Cyber physical Systems
• Internet des objets loT
• Big data
• Cloud computing et edge computing
• Data science et data mining
• Intelligence artificielle et machine learning
• Simulation numérique et jumeau numérique
• Réalité augmentée
• Fabrication additive (3D)
• Robots collaboratifs
• Intégration horizontale et verticale
• Cybersécurité 17
Les capteurs classiques et intelligents:
Les capteurs classiques:
Un capteur est un dispositif transformant l'état d’une grandeur physique observée en une information utilisable,
telle qu'une tension électrique, une hauteur de mercure, une intensité ou la déviation d'une aiguille. Il importe
de différencier le capteur du transducteur qui en est une composante. Le rôle de ce dernier est de traduire un
phénomène physique en signal électrique (exemple traducteur piézoélectrique). Le capteur se distingue de
l'instrument de mesure par le fait qu'il ne constitue qu'une simple interface entre un processus physique et une
information manipulable tandis que l'instrument de mesure est un appareil autonome qui dispose d'un affichage
et d'un système de stockage des données.
Les capteurs sont à la base de l'industrie 4.0. Les robots, les machines, les hommes et les locaux peuvent
produire de très nombreuses données grâce à des capteurs judicieusement choisis et mis en place. Ces données
peuvent concerner la température, le temps, la pression, le débit, la vibration, les gaz et de nombreuses autres
variables importantes de processus de production ou d'environnement. Elles sont transmises, stockées et
traitées pour aider à la décision pertinente et factuelle.
Un capteur est un dispositif permettant de transformer une grandeur physique observée en une grandeur
physique utilisable. Il sert à collecter toutes sortes d'informations terrain : tensions électriques, vibrations,
températures, pressions, sons, consommation de lubrifiants ou d'électricité, etc. Le capteur traditionnel ne fait
que collecter l'information qui est ensuite interprétée par un humain. Le capteur dit « intelligent » intègre des
éléments de traitement numérique de la donnée qui lui confère des capacités d'interprétation autonomes.
Les capteurs intelligents se composent de trois éléments : un ou plusieurs capteurs « classiques », un
microprocesseur et une interface de communication. Ils sont, par exemple, capables d'identifier des signaux
faibles annonçant un problème technique, de réaliser des auto-diagnostics ou encore d'engager des actions en
fonction de règles prédéfinies.
Les capteurs intelligents gagnent également en polyvalence. Par exemple, des capteurs intelligents peuvent
servir au contrôle de conformité, mais aussi aux mesures sans contact, à l’identification et au tri, ou encore à la
lecture et la vérification de marquages. En outre, il peut être configuré à distance, grâce à ses capacités de
communications bidirectionnelles.
La grande avancée qui a conduit indéniablement à la révolution 4.0 est le développement de capteurs pour
19
toutes applications, plus sensibles, plus précis, petits voire miniature, moins coûteux et intelligents.
Capteurs de vision:
La vision industrielle, appelée «Machine Vision» par les Anglo-Saxons, est une discipline de la vision artificielle qui
utilise des moyens électroniques et informatiques pour doter des machines et robots de capacités sensorielles
analogues à la vision humaine. Elle emploie le traitement numérique d'images pour automatiser des tâches, pour
cela, elle utilise des caméras comme capteurs pour détecter des défauts sur des objets manufacturés, inspecter des
pièces en cours de fabrication, les compter, les trier, les classer, les mesurer, ... à partir de leur apparence visuelle.
Inspecter un produit au sens de la vision industrielle consiste à déterminer s'il répond à un certain nombre de
spécifications. Cela revient souvent à vérifier si un assemblage a été correctement réalisé, si les dimensions d'un
produit sont respectées ou si son aspect extérieur est satisfaisant ou encore s'il est conforme par rapport à un
modèle de référence. On distingue deux types d'inspections: implicite et explicite.
20
• Implicite lorsque les défauts à détecter sont connus à l'avance. Par exemple, la présence d'un bouchon sur une
bouteille ou d'une étiquette sur un emballage, l'intégrité d'un afficheur à cristaux liquides, sont des éléments
qui peuvent être identifiés par référence à un modèle.
• Explicite quand les défauts recherchés sont mal définis ou sont même imprévisibles comme l'aspect visuel
d'un état de surface, une déchirure, une fissure ou une tâche qui sont difficilement prévisibles. L'automatisation
d'une inspection explicite est souvent difficile et demande beaucoup de recherche notamment en matière
d'algorithmes de reconnaissance.
QR code:
Le code QR (en anglais QR Code) est un type de codes à barres à deux
dimensions (ou code matriciel) constitué de modules noirs disposés
dans un carré à fond blanc. L'agencement de ces modules définit
l'information que contient le code. En outre, il convient de préciser
que QR (abréviation de l’anglais Quick Response) signifie que le
contenu du code peut être décodé rapidement après avoir été lu par
un lecteur de codes à barres approprié: un téléphone mobile, un
smartphone, ou encore une webcam. Son avantage est de pouvoir
stocker plus d'informations qu’un code à barres normal linéaire,
mono ou bicouche, et surtout des données directement reconnues
21
par différentes applications.
Le code QR a été créé par l'entreprise japonaise Denso Wave en 1994 pour suivre le cheminement des pièces
détachées dans les usines de Toyota. Les codes QR peuvent contenir des adresses web, du texte, des numéros de
téléphone, des mots de passe Wi-Fi, des SMS ou autres types de données comme le format VCard (permettant
l'ajout rapide d'un contact), lisibles par les smartphones et les téléphones mobiles équipés d'une application de
lecture (lecteur de code QR ou QR Reader en anglais) pouvant être téléchargée gratuitement sur plusieurs pages
web. En outre, plusieurs sites web permettent de générer librement les codes QR.
22
Types de codes à barres
Radio Frequency Identification (RFID):
RFID veut dire Radio Frequency Identification, ou plus simplement radio-identification en français. Cette
technologie permet de lire, sauvegarder, collecter des données à distance et les stocker sur des radio-étiquettes,
appelées aussi tags RFID. Celles-ci transmettent les données via leur antenne à un lecteur émettant à une certaine
fréquence. La radio-identification fut d'abord utilisée dans les années 1930 mais c'est seulement depuis 2005
qu'elle est employée largement dans le monde entier pour de nombreuses utilisations quotidiennes.
Les radio-étiquettes ou tags RFID, pouvant être réinscriptibles ou non, sont composées d'une antenne, d'une fine
puce en silicium et d une encapsulation.
Certaines sont dites passives lorsqu'elles comptent sur l'énergie du lecteur RFID pour fonctionner. D autres sont
dites actives. Elles sont équipées d une batterie qui leur permet de transmettre des informations à un lecteur situé
à distance.
Les radio-étiquettes intelligentes, quant à elles, autorisent à crypter les informations qu'elles contiennent. Les
lecteurs RFID émettent des radiofréquences destinées à activer les puces RFID se trouvant dans les environs, de
quelques centimètres à plusieurs centaines de mètres pour les plus performants, et permettant ainsi d échanger
des informations avec elles. Les fréquences les plus élevées sont utilisées pour échanger plus déformations à un
débit plus important. Les fréquences les moins élevées aident à mieux pénétrer dans la matière.
La radio-identification fonctionne simplement: un lecteur lit à distance un tag RFID contenant des données en
émettant une fréquence radio.
23
• Le lecteur RFID
Un lecteur RFID peut alimenter les tags passifs, lire et écrire des données sur les tags, convertir les informations
reçues et les transmettre à un terminal en émettant des radio-fréquences via une antenne. La fréquence varie
selon l'utilisation faite.
Les basses fréquences ont un taux de transfert lent et une portée courte, mais une capacité de lecture élevée,
quel que soit l'environnement. Plus la fréquence est haute, plus le taux de transfert est rapide et la portée longue,
plus la capacité de lecture se révèle difficile. Les basses fréquences sont par exemple utilisées pour le suivi
d'animaux et d objets et les plus hautes fréquences pour les télépéages.
Il existe plusieurs types de lecteurs selon l'utilisation. Ils peuvent, fixes ou portatifs. Ils peuvent être de différentes
tailles.
• Passifs: Les radio-étiquettes passives sont alimentées par le lecteur RFID au moment de l'utilisation grâce à un
transfert d'énergie par électromagnétisme. Elles ont l'avantage d'être discrètes et fines. Leur fabrication est facile
24
et peu coûteuse. Les tags RFID passifs sont les plus couramment utilisés.
• Actifs: Les radio-étiquettes actives peuvent émettre un signal sur de longues distances et stocker plus de
données grâce à une batterie incorporée. Elles ont un coût de fabrication élevé et une durée de vie moins
grande que les radio-étiquettes passives. Leur utilisation est plus spécifique et moins répandue.
• Semi-actifs: Il existe des radio-étiquettes semi-actives. Elles ont un fonctionnement similaire aux tags
passifs, mais possèdent une petite batterie utilisée pour enregistrer des données.
Dans un système cyber-physique, il existe trois manières principales de collecter des données : homme à
machine, machine à machine, et acquisition et traitement de données.
• De l’homme à la machine: Le CPS peut collecter des informations via la saisie de données par l'opérateur avec
des méthodes telles que la saisie sur un ordinateur ou la sélection d'options sur une tablette. Les opérateurs
peuvent également partager des informations grâce à une technologie de pointe comme, par exemple, la
vision par ordinateur qui peut collecter des données à partir de gestes ou de mouvements spécifiques qui ont
une signification.
27
• Acquisition et traitement de données: Les entreprises utilisent un logiciel de planification des ressources
d'entreprise (ERP) pour gérer les achats, la planification financière, les employés et d'autres aspects de leur
entreprise. Ils utilisent le MES ou des systèmes d'exécution de fabrication pour suivre et tracer les matériaux, les
ressources, etc. Ces systèmes contiennent souvent des données critiques pour la production, mais ils sont
massifs, cloisonnés et souvent difficiles d'accès ou de manœuvre. Le CPS peut transmettre des données à ces
systèmes et à d'autres, ou extraire des données critiques de production de ces systèmes En fin de compte, ces
données peuvent se combiner pour offrir une vision holistique et interconnectée de la production.
En 1999, le britannique Kevin Ashton, cofondateur de l'Auto-ID Laboratory au MIT, a inventé le terme « Internet of
Things» pour décrire un système où Internet est connecté au monde physique via des capteurs omniprésents dont
les codes à barres et le RFID (identification par radiofréquence).
Internet des objets, ou loT (Internet of Things), consiste en ce que les objets, les animaux et les personnes se
voient attribuer des identifiants uniques ainsi que la capacité de transférer des données sur un réseau internet
sans nécessiter aucune interaction humain-à-humain ou humain-à-machine.
LloT est issu de la convergence des technologies sans fil, des systèmes micro-électromécaniques (MEMS) et
d'Internet.
Dans l'Internet des objets, un «objet» peut être une personne équipée d'un pacemaker, un animal portant une
puce (transpondeur), une voiture embarquant des capteurs pour alerter le conducteur lorsque la pression des
pneumatiques est trop faible ou encore tout objet naturel ou fabriqué par l'être humain auquel peuvent être
28
attribuées une adresse IP et la capacité de transférer des données.
La forte hausse de l'espace d'adressage qu'autorise le protocole IPv6 constitue un facteur important du
développement de l'Internet des objets. L'être humain peut facilement affecter une adresse IP à chaque « objet »
sur Terre.
Les machines de l'usine sont équipées de capteurs dotés d’une adresse IP qui leur permet de se connecter à
d’autres appareils compatibles avec le web. Cette mécanisation et cette connectivité permettent de collecter,
d’analyser et d'échanger de grandes quantités de données de valeur.
lntemet of Things industriel (Industrial loT - lloT) désigne l'application de la technologie loT dans un cadre
industriel, en particulier en ce qui concerne l'instrumentation et le contrôle des capteurs et des terminaux qui font
appel à des technologies Cloud et qui sont exploités dans l’usine. Depuis peu, les industries utilisent la
communication de machine à machine (M2M) pour bénéficier des fonctionnalités d’automatisation et de contrôle
sans fil. L lloT est couramment utilisé dans les activités suivantes :
• Production intelligente
• Actifs connectés et maintenance préventive et prédictive
• Réseaux électriques intelligents
• Villes intelligentes
• Logistique connectée
• Supply chains digitales intelligentes
29
L lloT (Industrial Internet of Things) est une sous-catégorie de l’Internet des objets (loT) qui fait bénéficier les
industriels d'une meilleure efficacité opérationnelle en permettant aux machines de s'auto-surveiller et de prévoir
la survenue de problèmes.
Pour l'industrie, la maintenance prédictive est ainsi la principale application de ces technologies car elle permet
de réduire les temps d'arrêt, par :
• le recueil de données par les capteurs
• la transmission de ces données
• la centralisation dans une base de données
• l'analyse de scénarios de panne, grâce au Machine Learning
Les produits qui intègrent des capacités de communication M2M et de traitement de données, à divers degrés,
sont souvent désignés par le terme intelligent ou smart. On parle, par exemple, d’étiquette intelligente, de
compteur intelligent, de capteur intelligent etc. Avec l'IoT, les objets les plus communs de notre quotidien seront
dotés d'électronique et de communication; les objets connectés seront des objets intelligents.
L aspect de l'IoT dans la nouvelle révolution industrielle est l'utilisation de ces objets connectés dans les
processus de fabrication. Cela veut dire que les capteurs intelligents et les outils intelligents en général seront
disponibles dans l'usine.
Ces technologies aideront à collecter plus de données sur le processus de fabrication afin de vérifier la
conformité et d'optimiser la production en temps réel. Dans l'IoT chaque objet sera doté d’un capteur dédié qui
a pour rôle la mesure des valeurs pour lesquelles il a été programmé et les envoie, à intervalles réguliers, à une
30
base de données où ils sont analysés.
Le problème posé est l’explosion des données, plusieurs milliards d'envois, est aujourd’hui freinée par deux
obstacles majeurs : le coût et la disponibilité d'adresses IP.
Une adresse IPv4est une adresse IP dans la version 4 du protocole IP (IPv4). Cette adresse permet d’identifier
chaque machine connectée sur un réseau informatique utilisant le protocole IP version 4.
Cette adresse est composée de quatre octets, chacun ayant leur valeur décimale comprise entre 0 et 255,
séparés par des points ; exemple : 212.85.150.133.
• LIPv4 a été créé en 1981. L adresse IPv4 compte 4 octets, au format décimal, séparés par un point. Cela
donne une adresse d'une taille de 32 bits, correspondant à 4,3 milliards d'adresses IP uniques.
• LIPv6 a quant à elle été créée en 1998. Elle compte 16 octets, au format hexadécimal, qui sont séparés par
deux points. Cela donne donc une taille d'adresse de 128 bits, correspondant à 340 sextillions (1036) d'adresses
uniques.
31
Système loT:
Un système loT est composé des éléments suivants :
32
Statistiques générales de l'Internet des objets:
2. Les dépenses mondiales liées à l'IoT ont dépassé 1 billion de dollars rien qu'en 2020 (Sdx centrale)
3. Les dépenses consacrées aux solutions loT Endpoint Security ont atteint 631 millions de dollars en 2021
4. Chaque seconde, 127 appareils se connectent à Internet pour la première fois. (McKinsey numérique)
5. Le chiffre d'affaires pour 2020 est de 212 milliards de dollars dans le monde. (Business Insider)
7. Les entreprises pourraient investir jusqu’à 15 billions de dollars dans l'IdO d'ici 2025 (Gigabit)
8. La réduction des coûts est la principale raison de l'investissement dans l'IdO. (Analyse loT)
9. Près de 80% de tous les nouveaux véhicules dans le monde seront connectés à Internet d'ici 2025(IDC)
10. Les appareils loT généreront 79.4 zetta (1021) octets de données d'ici 2025 (IDC) 33
Big data:
Big data signifie mégadonnées, grosses données ou encore données massives. Ils désignent un ensemble très
volumineux de données qu'aucun outil classique de gestion de base de données ou de gestion de l'information ne
peut traiter. En effet, on produit environ 2,5 trillions (1012) d’octets de données tous les jours. Ce sont les
informations provenant de différentes sources: messages, vidéos, informations climatiques, signaux GPS,
enregistrements transactionnels d'achats en ligne, mesures de capteurs montés sur des machines et bien d'autres
encore.
En 2010, le monde ne comptait que deux zettaoctets (zettaoctet (Zo)= 1021 octets) de données numériques. En
2015, ce chiffre avait été multiplié par six. Selon IDC, dont les données sont mises en forme par Statista, le volume
mondial de données sera multiplié par 3,5 tous les cinq ans jusqu’en 2035, pour atteindre la somme vertigineuse
de 2142 zettaoctets. En d’autres termes, les solutions de stockage du big data, la puissance des serveurs et la
bande passante sont appelées à progresser à grande vitesse pour absorber les flux croissants de données.
En 2018, on a estimé que 90 % des données disponibles dans le monde ont été créées dans les deux dernières
années. En 2021, le nombre de personnes utilisant internet attaigna 4,9 milliards.
Inventé par les géants du web facebook, youtube, instagram etc, le Big Data est une solution permettant
d’accéder en temps réel à des bases de données géantes.
34
Le concept Big data regroupe une famille d'outils dite règle des 3V:
• Volume considérable de données à traiter,
• une grande Variété large d'informations (venant de diverses sources, non-structurées, organisées, Open...),
• Vélocité à atteindre, autrement dit de fréquence de création, collecte et partage de ces données
35
La croissance du Big Data a été possible grâce à deux grandes familles de technologies:
• suivre les produits depuis leurs créations jusqu'à la fin de leurs vie,
• relier les produits à leur fabricant,
• offrir des opportunités pour une nouvelle génération de maintenance (comme la maintenance
prévisionnelle),
• contrôler la qualité des produits tout le long du cycle de vie des produits,
• faire émerger des profils clients sans modèle à priori,
• augmenter l'efficience des entreprises et proposer de nouveaux services,
• donner la possibilité d'une logistique de l’information en temps réel.
36
• Maîtriser la supply chain.
Data Analytics:
On a longtemps parlé d'analyse de données, ou Data Analysis en anglais. Désormais on parle plus souvent de Data
Analytics, ou analytique de la donnée en français.
Le Data Analytics (DA) consiste à examiner des données brutes (souvent en grand volume) afin d’en ressortir des
informations pertinentes compréhensibles par l’humain et difficilement observables par analyse directe.
La représentation graphique (Data Visualisation ou DataViz) rend intelligible ces informations et permet
l'interprétation et la prise de décision.
On peut différencier le Data Analytics du Data Analytics avancé (comme le Data Mining), ou encore du Big Data
Analytics, en positionnant cette analytique de la donnée uniquement sur ce qui est déjà connu.
En d'autres termes, le DA ne permet pas d'identifier de nouvelles relations cachées entre des données ou des
évènements. Le DA permet, par exemple, de rechercher l'équipement responsable d'un pic de consommation en
comparant les phases de démarrage de tous les équipements avec des valeurs de consommation, tandis que
l'analytique avancé permettra d'identifier une cause jusqu'ici inconnue et indépendante des démarrages des
équipements.
37
La Business Intelligence (Bl) ou informatique décisionnelle:
Elle existe depuis plus de 20 ans mais se fait de plus en connaître grâce à la diffusion de logiciels qui proposent des
environnements de visualisation et d'analyse pour des spécialistes métier (qui n'ont pas de compétences en
mathématiques et en informatique pour traiter des données).
Les outils informatiques de Bl étant de plus en plus évolués, l'analytique et l'analytique avancé se confondent de
plus en plus et repoussent les limites de l'analyse. Le terme Business Intelligence (Bl) désigne les technologies,
applications et pratiques de collecte, d intégration, d ’analyse et de présentation de d’information.
L’objectif de la Business Intelligence est de soutenir une meilleure prise de décision métiers, commerciale,
marketing, finance etc. Essentiellement, les systèmes de Business Intelligence sont des systèmes d aide à la
décision axés sur les données.
L homme est naturellement attiré par l'image ou le graphique plus que par le texte ou les tableaux. La visualisation
de données, appelée «dataviz», est préférée à la donnée brute. Elle aide à éclairer des informations en apparence
complexes ou noyées dans une grande quantité de paramètres. Elle éclaire un phénomène en lui donnant un
aspect plus ergonomique qu’un tableur rempli de chiffres. Ainsi, par l'intermédiaire de graphiques, d'images ou de
cartes colorées, l'information est transmise sans frein. En plus d’être accessible à tout le monde, elle ne conserve
que l'essentiel du message et gagne ainsi en en rapidité et en efficacité. Au final, cela permet des prises de
décision éclairées sans que l'utilisateur de la dataviz soit un expert technique. 38
La Dataviz affiche les données sous forme graphique et permet la création de groupes, de classements, de filtres…
Data Science:
La Data Science est un terme que certains utilisent comme synonyme de Data Analytics, d'autres considèrent que
la Data Science, littéralement science de la donnée, regroupe l'analytique (Data Analytics), l'apprentissage
automatique (Machine Learning), l'exploration de données (Data Mining), l'intelligence Artificielle (IA) et tout un
ensemble de méthodes mathématiques et informatiques.
Cette discipline étudie les données ou les informations en ayant recours aux mathématiques, aux statistiques et à
l'informatique. Elle est à différencier du Data Analytics (analyse des données), de la Business Intelligence
(informatique décisionnelle) et du Data Mining (exploration des données).
39
Les données stockées étant trop volumineuses, il devient impératif de confier l'analyse et le traitement de toutes
ces informations à un professionnel, le Data Scientist. Grâce à ses connaissances, il rend lisibles les données brutes,
complexes et déstructurées. Il en tire ainsi des informations pertinentes et utiles. La principale mission du Data
Scientist est d’interpréter les données. Les résultats serviront à établir une stratégie efficace pour développer
l'entreprise ou l'aideront à prendre les bonnes décisions.
Pour exploiter les données (qui sont souvent déstructurées et sans agencement), le Data Scientist utilise ses
connaissances techniques pour les extraire, les nettoyer et les organiser. À cet effet, il se base sur ses acquis en
Data Mining et en Machine Learning. À cela s'ajoutent ses connaissances en statistiques. Une fois que les données
sont bien agencées, le Data Scientist détermine les tendances et les anticipe.
Data Mining:
Le data mining ou forage de données ou explorations de données ou fouilles de données désigne l'analyse de
données depuis différentes perspectives et le fait de transformer ces données en informations utiles, en établissant
des relations entre les données ou en repérant des motifs (patterns). Ces informations peuvent ensuite être
utilisées par les entreprises pour augmenter un chiffre d'affaires ou pour réduire des coûts ou prévoir les pannes.
Elles peuvent également servir à mieux comprendre une clientèle afin d'établir de meilleures stratégies marketing.
40
Les logiciels Data Mining font partie des outils analytiques (analytics) utilisés pour l'analyse de données. Ils
permettent aux utilisateurs d'analyser des données sous différents angles, de les catégoriser et de résumer les
relations identifiées.
Techniquement, le Data Mining est le procédé permettant de trouver des corrélations ou des patterns (images ou
motifs) entre de nombreuses bases de données relationnelles.
Le Data Mining utilise des algorithmes complexes et sophistiqués permettant de segmenter les données et
d'évaluer les probabilités futures. Le Data Mining est surnommé aussi Knowledge Discovery in Data (La découverte
de savoir dans les données).
• Association: chercher des patterns au sein desquelles un événement est lié à un autre événement.
• Analyse de séquence: chercher des patterns au sein desquelles un événement mène à un autre événement
plus tardif.
• Classification: chercher de nouvelles patterns, quitte à changer la façon dont les données sont organisées.
• Clustering: trouver et documenter visuellement des groupes de faits précédemment inconnus.
• Prédiction: découvrir des patterns de données pouvant mener à des prédictions raisonnables sur le futur.
Ce type de data mining est aussi connu sous le nom d'analyse prédictive. 41
Le Data Mining repose sur cinq éléments majeurs:
• Les réseaux de neurones artificiels: Des modèles prédictifs non linéaires qui apprennent par l’entraînement
et s'apparentent à des réseaux neuronaux biologiques dans leur structure.
• Algorithmes génétiques: Les techniques d'optimisation utilisent des procédés tels que la combinaison
génétique, la mutation, et la sélection naturelle dans un design basé sur les concepts de l'évolution naturelle.
42
• Les arbres décisionnels: Ces structures en forme d'arbres représentent des ensembles de décisions. Ces
décisions génèrent des règles pour la classification d'un ensemble de données.
Les méthodes spécifiques d'arbres décisionnels incluent les Arbres de Classification et Régression (CART), et les
Chi Square Automatic Interaction Détection (CHAID). Ces deux méthodes sont utilisées pour la classification d'un
ensemble de données. Elles fournissent un ensemble de règles pouvant être appliqués à un nouvel ensemble de
données pour prédire quels enregistrements auront un résultat.
Le CART segmente un ensemble de données en créant une division à deux issues, tandis que le CHAID segmente
l'ensemble en utilisant des tests de chi square pour créer des issues à plusieurs voies. En général, CART requiert
moins de préparation de données que CHAID.
• La méthode du voisin le plus proche: Cette technique classifie chaque enregistrement d'un ensemble de
données en se basant sur une combinaison des classes du k, similaire à un ensemble de données historique.
• L'induction de règle: l’extraction de règles « si-alors » depuis les données, basées sur des signifiances
statistiques.
• Data visualization: l’interprétation visuelle de relations complexes dans les données multidimensionnelles. Les
outils graphiques sont utilisés pour illustrer les relations de données.
43
Les propriétés principales du Data Mining
• La découverte automatique de patterns: Le Data Mining repose sur le développement de modèles. Un modèle
utilise un algorithme pour agir sur un ensemble de données. La notion de découverte automatique se réfère à
l'exécution de modèles de Data Mining. Ces modèles peuvent être utilisés pour étudier les données sur lesquelles ils
sont bâtis mais la plupart des types de modèles peuvent être généralisés à de nouvelles données. Le processus
permettant d’appliquer un modèle à de nouvelles données est appelé scoring.
• La prédiction de résultats probables: De nombreuses formes de Data Mining sont prédictives. Les prédictions ont
une probabilité associée. Certaines formes de Data Mining prédictif génèrent des règles, qui sont les conditions pour
obtenir un résultat. Par exemple, on peut prévoir le moment de pannes en se basant sur les données de
fonctionnement d'une machine.
• La création d'informations exploitables: Le Data Mining permet de dégager des informations exploitables de
larges volumes de données. Par exemple, une agence de location de voiture peut utiliser un modèle pour identifier
des segments de consommateurs afin de créer une promotion ciblant les clients à forte valeur.
44
Les logiciels Data Mining:
Les nombreux logiciels de Data Mining analysent les relations entre les données et repèrent des patterns en
fonction des requêtes des utilisateurs. Par exemple, un restaurant peut utiliser le Data Mining pour déterminer à
quel moment proposer certaines offres. Il faudra alors chercher dans les informations collectées, et créer des
classes en se basant sur les moments auxquels ont lieu les visites de clients et ce qu'ils commandent.
Dans d'autres cas, les Data Miners trouvent des clusters d'informations en sa basant sur des relations logiques ou
bien ils cherchent des associations et des patterns séquentielles pour tirer des conclusions sur le comportement
des utilisateurs.
Le terme « cloud », traduit en Français par nuagique ou infonuagique, désigne les serveurs accessibles sur Internet
ainsi que les logiciels et bases de données qui fonctionnent sur ces serveurs. Les serveurs situés dans le cloud sont
de très grandes capacité pour recevoir les big data et sont hébergés au sein de datacenters (centres de données)
répartis dans le monde entier.
Un centre de données est une installation abritant de nombreux serveurs en réseau qui fonctionnent ensemble pour
traiter, stocker et partager des données. L utilisation du cloud computing (informatique de cloud) permet aux
utilisateurs et aux entreprises de s'affranchir de la nécessité de gérer des serveurs physiques eux-mêmes ou
d'exécuter des applications logicielles sur leurs propres équipements.
Le cloud permet aux utilisateurs d'accéder aux mêmes fichiers et aux mêmes applications à partir de presque
n'importe quel appareil dans n'importe quel point de la terre car les processus informatiques et le stockage ont
lieu sur des serveurs dans un data center et non localement sur la machine utilisateur.
C'est pourquoi un utilisateur dont le téléphone est défaillant peut se connecter à son compte Instagram à partir
d'un nouveau téléphone et retrouver son compte actif en place, avec toutes ses photos, vidéos et l'historique de
ses conversations. Il en va de même avec les fournisseurs de messagerie cloud comme Gmail ou Microsoft Office
365 et les fournisseurs de stockage cloud comme Dropbox ou Google Drive.
46
Pour les entreprises, le passage au cloud computing supprime certains coûts et frais informatiques : par exemple,
les sociétés n'ont plus besoin de mettre à jour et d'entretenir leurs propres serveurs, c'est le fournisseur de cloud
qui s'en charge. Cet aspect a surtout un impact sur les petites entreprises qui ne peuvent pas toujours se
permettre de disposer de leur propre infrastructure interne. Elles peuvent externaliser leurs besoins en
infrastructure à un coût abordable via le cloud.
Le cloud peut également faciliter les opérations internationales des entreprises car les employés et les clients
peuvent accéder aux mêmes fichiers et applications à partir de n'importe quel emplacement.
Les fichiers et les applications figurant sur une machine virtuelle donnée ne sont pas visibles par les autres
machines même si ces dernières se trouvent sur la même machine physique.
47
Les machines virtuelles utilisent également plus efficacement le matériel qui les héberge. En exécutant plusieurs
machines virtuelles à la fois, un serveur devient plusieurs serveurs et un data center devient une multitude de data
centers, capables de servir de nombreuses organisations. Ainsi, les fournisseurs de cloud peuvent proposer
l'utilisation de leurs serveurs à un nombre de clients bien plus important et à un coût modéré.
Même si certains serveurs tombent en panne, les serveurs cloud en général doivent toujours être en ligne et
toujours disponibles. Les fournisseurs de cloud sauvegardent généralement leurs services sur plusieurs machines et
dans plusieurs régions (redondances).
Les utilisateurs accèdent aux services cloud par le biais d'un navigateur ou d'une application qui se connecte au
cloud via Internet (c'est-à-dire, par l'intermédiaire de nombreux réseaux interconnectés), indépendamment des
appareils qu'ils utilisent.
• Software-as-a-Service (SaaS) : les applications SaaS sont hébergées sur des serveurs cloud et les utilisateurs y
accèdent via Internet plutôt que de les installer sur leurs machines et appareils,. Les services SaaS s'apparentent à
la location d'une habitation : le propriétaire entretient l'habitation, tandis que le locataire l'utilise comme si elle lui
appartenait. Parmi les exemples d'applications SaaS, on citera Salesforce, MailChimp et Slack.
48
• Platform-as-a-Service (PaaS) : dans ce modèle, les entreprises ne paient pas pour les applications hébergées.
Elles paient pour les éléments dont elles ont besoin pour créer leurs propres applications. Les fournisseurs de PaaS
proposent tout ce qui est nécessaire pour construire une application, y compris les outils de développement,
l'infrastructure et les systèmes d'exploitation, sur Internet. Le PaaS peuvent être comparé à la location des outils et
des équipements pour construire une maison, au lieu d'en louer une.
• Infrastructure-as-a-Service (laaS) : dans ce modèle, une entreprise loue les serveurs et l espace de stockage dont
elle a besoin à un fournisseur de cloud. Elle peut alors utiliser cette infrastructure cloud pour développer ses
propres applications. L'approche laaS s apparente à la location d un terrain par une entreprise : cette dernière
peut y construire ce qu' elle souhaite, mais elle doit fournir ses propres équipements et matériaux de construction.
Parmi les fournisseurs de services laaS, on citera DigitalOcean, Google Compute Engine et OpenStack.
• Function-as-a-Service (FAAS) : le modèle FaaS (serverless computing ou informatique sans serveur) divise les
applications cloud en composants plus petits, uniquement exécutés en cas de besoin. Imaginez qu'il soit possible
de louer une maison une pièce à la fois. Le locataire ne louerait, par exemple, que la salle à manger au moment
des repas, la chambre quand il va dormir et le salon quand il regarde la télévision, sans avoir à régler le loyer
correspondant lorsqu'il n'utilise pas ces pièces.
À l'instar de tous les autres modèles d’informatique cloud, les applications FaaS ou serverless s'exécutent
néanmoins toujours sur des serveurs. Toutefois, on les définit comme « serverless », car elles ne s exécutent pas
sur des machines dédiées et que les entreprises qui développent ces applications n‘ont aucun serveur à gérer. Par
ailleurs, les fonctions serverless peuvent évoluer ou être dupliquées lorsqu'un nombre plus élevé d'utilisateurs se
servent de l'application. Imaginez que la salle à manger du locataire puisse s'agrandir à la demande lorsque de
49
nouveaux convives se joignent à lui pour le dîner !
Informatique de périphérie (edge computing):
L’edge computing ou « informatique en périphérie» désigne le traitement informatique qui s'effectue à
l'emplacement physique de l'utilisateur ou de la source des données ou à proximité. En rapprochant les services de
calcul de ces emplacements, l'edge computing permet aux utilisateurs de profiter de services plus rapides et fiables
et offre aux entreprises la flexibilité d'un cloud.
les entreprises peuvent également utiliser et distribuer un ensemble de ressources communes sur plusieurs sites
L’edge computing permet d'étendre un environnement uniforme, depuis le datacenter central jusqu'aux
emplacements physiques proches des utilisateurs et des données, situés en périphérie du réseau. L’edge computing
est désormais utilisé dans de nombreux secteurs d'activité dont notamment les télécommunications, la fabrication,
les transports et les services publics.
Comme les utilisateurs finaux sont de plus en plus nombreux demandaient des applications basées sur le cloud, et
que de plus en plus d'entreprises travaillaient sur plusieurs sites, il est devenu nécessaire de traiter davantage de
données en dehors du datacenter, directement à la source, et de les gérer à partir d'un emplacement central. C’est
à ce moment-là que l'edge computing mobile est devenu une réalité.
Dans le secteur industriel, l'edge computing permet aux entreprises de surveiller de près l'efficacité des
équipements et des chaînes de production et, dans certains cas, de détecter les pannes avant qu'elles ne se
produisent, ce qui permet d'éviter les retards coûteux dus aux temps d’arrêt.
50
Les exigences des opérations de production en temps réel signifient que certaines analyses de données doivent être
effectuées à la « périphérie », c'est-à-dire là où les données sont créées, afin de réduire le temps de latence entre le
moment où les données sont produites et celui où une réponse est fournie.
Par exemple, la détection d’un problème de sécurité ou de qualité peut nécessiter une intervention en temps quasi
réel sur l'équipement. Le temps nécessaire à l'envoi des données vers le cloud de l'entreprise, puis pour les renvoyer
à l'usine peut être trop long et dépend de la fiabilité du réseau.
L'utilisation de l'informatique en périphérie signifie également que les données restent près de leur source, ce qui
réduit les risques de sécurité.
Un autre exemple d'utilisation de l'edge computing est celui des véhicules connectés. Les bus et les trains sont
équipés d’ordinateurs qui permettent de suivre le flux de passagers et la prestation de services. Les livreurs peuvent
trouver les trajets les plus rapides grâce à la technologie embarquée dans leur véhicule. Lorsque une stratégie
d’edge computing est mise en œuvre, chaque véhicule utilise la même plateforme standardisée que le reste de la
flotte, ce qui rend les services plus fiables et permet de protéger les données de manière uniforme.
Dans le cas des véhicules autonomes, l'edge computing implique le traitement d'un gros volume de données en
temps réel dans une situation où la connexion au réseau peut être instable. En raison de ce volume, les véhicules
autonomes, tels que les voitures sans conducteur, traitent les données des capteurs à bord du véhicule afin de
réduire la latence. Ils peuvent cependant toujours se connecter à distance à un point central pour recevoir des mises
à jour logicielles. 51
Intelligence Artificielle et machine learning:
L'intelligence artificielle (IA, ou Al en anglais pour Artificial
Intelligence) est l’ensemble des techniques permettant aux
machines d'imiter une forme d'intelligence réelle de l'homme.
Intelligence Artificielle (IA) est la simulation de processus
d'intelligence humaine par des machines, plus particulièrement,
des systèmes informatiques.
Ces processus comprennent trois phases. Tout d'abord,
l’apprentissage, c'est-à-dire l'acquisition de l'information et ses
règles d’utilisation. Puis, le raisonnement, soit l'utilisation de règles
pour tirer des conclusions approximatives ou définitives. Et enfin,
l’autocorrection.
Les applications particulières de l'IA comprennent la narrow Al, la
reconnaissance faciale et la vision par ordinateur. Le domaine de
l’IA est très vaste et s’organise en de multiples branches qui Figure : Différents domaines de l'IA
associent sciences cognitives, mathématiques, électronique,
informatique etc .
Les différents types d'IA dépendent du niveau d'intelligence intégré dans un robot sont les suivants:
52
• Intelligence artificielle étroite (ANI)
L'intelligence artificielle étroite (ANI), également connue sous le nom d'IA étroite ou d'IA faible, est un type
d'intelligence artificielle axée sur une seule tâche étroite. On trouve ce type d'IA dans Google Assistant, Google
Translate, Siri, Cortana ou Alexa.
Ce sont toutes des machines intelligentes qui utilisent le traitement automatique du langage naturel. En
comprenant la parole et le texte dans le langage naturel, ils sont programmés pour interagir avec les humains de
manière personnalisée et naturelle.
Les systèmes d'IA sont aujourd’hui utilisés en médecine pour diagnostiquer les cancers et autres maladies avec
une extrême précision. Ils reproduisent la cognition et le raisonnement de type humain.
L IA et l'apprentissage automatique, qui en fait partie, permettent aux entreprises de tirer pleinement parti du
volume d'informations générées non seulement dans l'entreprise, mais aussi dans l'ensemble de leurs unités
commerciales, et même auprès de partenaires et de fournisseurs. L IA et l'apprentissage automatique peuvent créer
des informations offrant la visibilité, la prévisibilité et l'automatisation des opérations et des processus
opérationnels.
Par exemple, L'exploitation des données collectées à partir de machines peut aider les entreprises à effectuer une
maintenance prédictive basée sur des algorithmes d'apprentissage automatique ce qui permet de déterminer la
date optimale d'intervention avant la panne et d’augmenter ainsi le temps de fonctionnement et l'efficacité.
L'intelligence artificielle (IA), reproduit toutes proportions gardées, le processus de réflexion et de prise de décision
de l’homme.
Le marché de l'IA est en rapide expansion: en 2015 il pesait 200 millions de dollars. En 2025, on estime qu'il
s’élèvera à près de 90 milliards de dollars.
54
Exemples d'application de L IA:
La vision artificielle, par exemple, permet à la machine de déterminer précisément le contenu d’une image pour
ensuite la classer automatiquement selon l'objet, la couleur ou le visage repéré. C’est cela qui est utilisé dans le cas
des véhicules autonomes qui arrivent à identifier et différencier automatiquement les objets et les êtres vivants
rencontrés.
Les algorithmes utilisés sont en mesure d'optimiser leurs calculs au fur et à mesure qu'ils effectuent des
traitements. C'est ainsi que, par exemple, les filtres antispam deviennent de plus en plus efficaces au fur et à
mesure que l'utilisateur identifie un message indésirable.
La reconnaissance vocale se développe également rapidement avec des assistants virtuels capables de transcrire
les propos formulés en langage naturel puis de traiter les requêtes soit en répondant directement via une
synthèse vocale, soit avec une traduction instantanée ou encore en effectuant une requête relative à la
commande.
On distingue l'intelligence artificielle forte de l'intelligence artificielle faible. La première permet aux objets d'agir
de façon intelligente mais aussi d'assimiler des concepts abstraits et d'avoir une véritable conscience proche des
sentiments éprouvés par les êtres humains. Les machines qui se limitent à résoudre des problèmes entrent plutôt
dans la catégorie d'intelligence artificielle faible.
55
L'intelligence artificielle a investi pratiquement tous domaines. Elle est présente dans les appareils photo des
smartphones. En effet, en mode nocturne, elle permet d'adapter la colorimétrie à l'environnement, et de
redonner à une façade éclairée son éclat originel pour le reproduire fidèlement sur votre cliché.
En photographie, l'IA intervient aussi pour détecter des scènes précises, pour stabiliser l’appareil ou pour
optimiser la précision du zoom. La reconnaissance faciale est une autre technologie rendue possible grâce à
l'intelligence artificielle. Elle sert à reconnaître l’utilisateur d'un téléphone portable, mais aussi à plus grande
échelle à identifier des personnes, par exemple dans les aéroports.
L IA est aussi introduite dans le domaine militaire (par exemple pour la prise de décisions des drones), dans le
secteur des finances (évaluation des risques d’une opération comme l'octroi d'un crédit immobilier), en
médecine (diagnostic d affections oculaires), en robotique, dans les jeux vidéo (animation des personnages non-
joueurs),
dans les transports (gestion du trafic dans les transports en commun) et les industries (mise en place de systèmes
de maintenance pour faire face aux problèmes de production).
56
Machine learning:
Le Machine Learning ou l'apprentissage automatique est un type d'intelligence artificielle qui permet aux
ordinateurs d'avoir une capacité d'apprendre sans être explicitement programmés. Ce sont des machines
intelligentes qui s'auto-perfectionnent afin de permettre à leurs actions futures de gagner en efficience et donc
en productivité.
Un exemple concret est celui des tondeuses à gazon automatique ou de l'aspirateur autonome qui apprennent,
en se déplaçant, la topographie des lieux dans lesquels ils sont appelés à opérer.
La Machine Learning peut être défini comme une branche de l'intelligence artificielle englobant de nombreuses
méthodes permettant de créer automatiquement des modèles (patterns) à partir des données. Ces méthodes
sont en fait des algorithmes très performants.
Un programme informatique traditionnel effectue une tâche en suivant des instructions précises, et donc
systématiquement de la même façon. Au contraire, un système Machine Learning ne suit pas d'instructions,
mais apprend à partir de l'expérience. Ses performances s'améliorent au fil de son » entraînement », de son
apprentissage à mesure que l'algorithme est exposé à davantage de données et de situations.
La Machine Learning est composé de quatre types d’apprentissage qui sont : l'apprentissage supervisé, non
supervisé, semi supervisé et par renforcement.
57
• L'apprentissage supervisé : l'apprentissage supervisé: les données utilisées pour l'entraînement sont
déjà «étiquetées». Par conséquent, le modèle de Machine Learning sait déjà ce qu’il doit chercher (motif,
élément...) dans ces données. À la fin de l'apprentissage, le modèle ainsi entraîné sera capable de retrouver les
mêmes éléments sur des données non étiquetées.
Parmi les algorithmes supervisés, on distingue les algorithmes de classification (prédictions non numériques) et les
algorithmes de régression (prédictions numérique). En fonction du problème à résoudre, on utilisera l’un de ces
deux archétypes.
L'apprentissage supervisé se décline selon en deux étapes :
- La première correspond à déterminer un modèle de données étiquetées.
- La deuxième consiste à prédire l'étiquette d'une nouvelle donnée connaissant le modèle préalablement appris.
• L’apprentissage non supervisé : il consiste, au contraire, à entraîner le modèle sur des données sans étiquettes.
La machine parcourt les données sans aucun indice et tente d'y découvrir des motifs (patterns) ou des tendances
récurrentes. Cette approche est couramment utilisée dans certains domaines, comme la cybersécurité.
• Les méthodes par partitionnement : L'algorithme des K-moyennes (K-means) est un algorithme non
supervisé très connu en matière de Clustering.
58
Le clustering est une discipline particulière du Machine Learning ayant pour objectif de séparer vos données en
groupes homogènes ayant des caractéristiques communes. C’est un domaine très apprécié en marketing, par
exemple, où l'on cherche souvent à segmenter les bases clients pour détecter des comportements particuliers
communs.
• Les méthodes de regroupement hiérarchique : La classification ascendante hiérarchique (CAH) est une
méthode de classification itérative dont le principe est simple.
2. Puis on regroupe les deux objets dont le regroupement minimise un critère d'agrégation donné, créant ainsi
une classe comprenant ces deux objets.
3. On calcule ensuite la dissimilarité entre cette classe et les N-2 autres objets en utilisant le critère
d'agrégation. Puis on regroupe les deux objets ou classes d'objets dont le regroupement minimise le critère
d'agrégation. On continue ainsi jusqu'à ce que tous les objets soient regroupés.
Parmi les modèles non-supervisés, on distingue les algorithmes de clustering (pour trouver des groupes d'objets
similaires), d'association (pour trouver des liens entre des objets) et de réduction dimensionnelle (pour choisir
ou extraire des caractéristiques).
59
• L'apprentissage semi-supervisé: Il utilise un ensemble de données étiquetées et non-étiquetées. Il se situe
ainsi entre l'apprentissage supervisé qui n'utilise que des données étiquetées et l'apprentissage non-supervisé
qui n'utilise que des données non-étiquetées. Il a été démontré que l'utilisation de données non-étiquetées,
en combinaison avec des données étiquetées, permet d'améliorer significativement la qualité de
l’apprentissage.
Un autre intérêt provient du fait que l’étiquetage de données nécessite l'intervention d'un utilisateur humain.
Lorsque les jeux de données deviennent très grands, cette opération peut s'avérer fastidieuse. Dans ce cas,
l’apprentissage semi-supervisé, qui ne nécessite que quelques étiquettes, revêt un intérêt pratique évident.
• Apprentissage par renforcement: Le grand principe de l'apprentissage par renforcement est de laisser à un
agent, par exemple un petit robot, le loisir d'explorer son environnement, un labyrinthe par exemple, et, lorsqu'il
trouve la sortie, de valoriser les actions qui l'y ont conduit .
Pour notre labyrinthe, le robot va se déplacer aléatoirement au début, et aura une récompense négative (car il
n'aura pas trouvé la sortie et son énergie est limitée et diminue ce qui va le motiver à sortir). Au bout d’un
moment, un choix lui permettra de sortir et lui donnera une récompense positive, qui viendra renforcer les
derniers choix qu'il a fait de manière dégressive (par exemple, la dernière action aura une récompense de 1, celle
d'avant de 0.8, celle encore avant 0.5 etc).
Après plusieurs itérations, quand le robot se retrouvera à 3 cases de la sortie du labyrinthe, il regardera sa
politique d'action et verra que depuis cette case, le plus intéressant (i.e. ce qui apporte la plus grande
récompense) est de tourner à droite, par exemple, plutôt qu'à gauche. Et après encore plus d’itérations, il sera
capable de trouver la sortie tout seul. Si on ajoute des événements aléatoires lors de l’apprentissage, il pourra
même se débrouiller (par exemple si la présence d'eau sur sa route le retarde, il l’évitera lorsqu'il en rencontrera).
61
Dans cette approche:
• on n'a pas besoin de coder les règles métier ou quoi que ce soit, l'IA va les découvrir d'elle-même
• on peut donc s'adapter à toutes les situations peu importe les entrants (pas besoin d'être exhaustif, il y a une
part de « généralisation »)
En effet, à titre d'exemple, imaginons qu'on veuille créer un robot qui marche. On pourrait programmer chacun de
ses moteurs pour qu'il ait le bon mouvement, qu’en cas de chute il puisse se relever, etc... mais ce serait
extrêmement laborieux et difficile.
On peux créer alors un environnement virtuel de simulation, placer mon modèle de robot dedans et le laisser
apprendre à se lever et marcher grâce à un apprentissage par renforcement. Après des dizaines de milliers de
tentatives, il sera en mesure de le faire, et peu importe comment il tombe, il saura se relever !
En guise d'exemple, on peut citer le programme AlphaGo qui a triomphé du champion du monde de jeu de Go
Algorithmes de machine learning:
Les algorithmes d'apprentissage automatique sont nombreux. Les principaux sont indiqués dans le tableau et sont
62
classés selon le type d'apprentissage.
63
Deep Learning:
Le Deep Learning est une sous-branche du Machine Learning, lui-même une branche de l'intelligence Artificielle.
On parlait originellement d'intelligence Artificielle symbolique. Elle utilisait simplement un ensemble de données et
de règles pour créer des systèmes experts qui étaient capables, par exemple, de détecter et de proposer des
traitements pour des infections bactérielles (MYCIN) en analysant une base données de symptômes et de
traitements prédéfinis. À partir des années 1990, est apparu le Machine Learning qui consiste à utiliser des
techniques statistiques à grande échelle pour déceler au sein d'une importante quantité de données, de
l'information cachée sans utiliser de règles explicitement définies par un opérateur humain. Bien que le Deep
Learning ait vu le jour en tant que branche du Machine Learning, il n'a commencé à devenir populaire qu'au début
des années 2010.
Aujourd'hui, les applications du Deep Learning sont omniprésentes, de la reconnaissance d'images à la
compréhension, la transcription et la génération du langage parlé en passant par le marketing ajusté au client
(réseaux sociaux, Youtube etc).
les avancées en terme de puissance de traitement des systèmes informatiques dans les années précédentes ont
favorisé la démocratisation du Deep Learning avec l'apparition et la vulgarisation des GPUs et des TPUs optimisées
pour le Deep Learning et rendus de plus en plus accessibles -au travers de produits à coûts inexistant ou réduits tels
que NVIDIA Jetson Nano ou Google Colab. De plus, les données nécessaires à l'entrainement de réseaux de
neurones performants sont de plus en plus nombreuses et bien plus facilement collectables à partir de sites
populaires comme Youtube, Flickr, Wikipedia ou encore depuis des répertoires de données spécialement dédiés au
64
Deep Learning.
La popularité du Deep Learning est due aussi au fait que les algorithmes évoluent très rapidement et les différents
types de configuration existant pour les réseaux de neurones ont évolué très rapidement au cours des dernières
années pour permettre la construction de réseaux de plus en plus performants. Enfin, il est important de
mentionner que la popularité du Deep Learning est due aussi au fait que les réseaux de neurones peuvent être
réutilisés et améliorés pour accomplir des tâches autres que celles pour lesquelles elles ont été initialement
construites, ce qui occasionne un gain de temps considérable et une réduction importante de la charge de travail.
Les noms donnés aux réseaux de neurones utilisés sont les suivants:
• perceptron ou perceptron multi-couches (MLP en anglais pour Multi-Layer Perceptron), un peu plus
précis que les autres mots car cela désigne un système particulier
Le terme le plus général dans tout ça est ANN (et DNN qui est équivalent).
65
Applications du deep Learning:
Le deep Learning est utilisé dans de nombreux domaines :
• reconnaissance d'image,
• traduction automatique,
• voiture autonome,
• diagnostic médical,
• recommandations personnalisées,
• modération automatique des réseaux sociaux,
• prédiction financière et trading automatisé,
• identification de pièces défectueuses,
• détection de malwares ou de fraudes,
• chatbots (agents conversationnels),
• exploration spatiale,
• robots intelligents.
Un simulateur peut réagir à des modifications de paramètres et modifier ses résultats en conséquence. Un
simulateur de vol, par exemple, modifie la trajectoire calculée de l'avion en fonction des commandes transmises par
l'utilisateur.
Une simulation numérique peut représenter des phénomènes physiques complexes dont la description repose sur
un modèle mathématique comportant des équations aux dérivées partielles, l ordinateur résout alors ces équations
numériquement en utilisant la méthode des éléments finis. C est le cas, par exemple, pour la modélisation, dans la
mécanique des fluides, de l'écoulement de l'air ou de beau autour d un avion ou d un navire, la déformation d une
pièce etc.
Lorsqu'une entreprise cherche à décrire un phénomène et à résoudre une problématique, elle a souvent besoin
d'expérimenter les implications de divers facteurs sur une situation initialement connue. Or, une expérimentation
en situation réelle peut se révéler extrêmement coûteuse, prendre un temps considérable à l'entreprise, et donner
des résultats dont la fiabilité n’est pas garantie.
• il est beaucoup moins coûteux de simuler une expérience sur ordinateur que de la réaliser en réalité. Le
processus est incomparablement moins onéreux.
• soumettre artificiellement les données à un modèle est bien plus simple que de tester les implications de
données diverses en situation réelle. Or, en multipliant les données, on réduit la marge d’erreur et on obtient un
jumeau numérique (prototype numérique) fiable et précis.
68
La simulation réaliste, c'est être capable de réaliser des analyses complexes en tenant compte de plusieurs
facteurs simultanément, de faire moins d'hypothèses, pour des résultats plus robustes, plus fiables et qui
représentent réellement le comportement de vos produits. La simulation devient un prototype à part entière et
permet ainsi d'atteindre réellement les performances optimales recherchées.
La simulation numérique est un segment très porteur sur le marché du PLM depuis plusieurs années et les
prévisions de croissance sont sur la même tendance (entre 5 et 10%). L’amélioration constante des performances
machines et les interfaces toujours plus intuitives accélèrent la démocratisation de ces solutions et leur
développement au sein des entreprises.
69
Jumeau numérique (digital twin):
Grâce à la transformation numérique offerte par l'industrie 4.0, on peut créer des jumeaux numériques qui sont
des répliques virtuelles des processus, des lignes de production, des usines et des chaînes d'approvisionnement.
Un jumeau numérique est créé à partir des données des capteurs loT, des appareils, des contrôleurs logiques
numériques et d’autres objets connectés à Internet. Les fabricants peuvent utiliser des jumeaux numériques pour
accroître la productivité, améliorer les flux de travail et concevoir de nouveaux produits. En simulant un processus
de production, par exemple, les fabricants peuvent tester les modifications apportées au processus, afin de
trouver des moyens de réduire les temps d'indisponibilité ou d'améliorer la capacité.
Le jumeau numérique est une réplique numérique "exacte” d'un objet physique, qui tient compte :
Le jumeau numérique est ainsi en permanence nourri de données récoltées par des capteurs (lioT) placés sur
son jumeau physique.
70
Cette technologie permet, entre autres :
• d'améliorer la conception de produit, processus etc
• de tester de nouveaux régimes de production sans avoir à réaliser de prototype physique
• de former des opérateurs sur le modèle numérique, sans devoir attendre l'arrivée d'une nouvelle machine.
Exemple d'application:
Les cinématiques des machines d’usinage sont de plus en plus
complexes et les risques de collision sont importants.
Grâce au jumeau numérique, les opérateurs en usinage sont
désormais en mesure de vérifier l'absence de risque de collision, sur
machine virtuelle, avant de lancer l’usinage.
Essentiellement, le jumeau numérique consiste à connecter le monde
physique au monde virtuel par le biais de données et déformations.
Il n'est donc pas surprenant que l'loT et les capacités accrues de
collecte et de traitement des données permettent au jumeau
numérique de devenir une réalité.
jumeau numérique d'un ensemble motopompe
Un jumeau numérique repose sur la disponibilité d'informations
complètes telles que des données fournies par des capteurs, des
rapports d'inspection de la qualité, voire des commentaires des
clients. Il doit également fonctionner avec les actifs, les produits et les
71
processus existants.
Réalité Augmentée:
la réalité virtuelle est une simulation complète d'un environnement artificiel, la réalité augmentée superpose des
éléments virtuels dans le monde réel.
La réalité augmentée (ou AR pour Augmented Reality) permet d'ajouter des informations dans le champ visuel grâce
à des casques, des lunettes ou des tablettes. Ainsi la personne voit la réalité mais avec, en plus, des informations en
sur impression sur le moyen visuel utilisé. La RA fait coexister spatialement et temporellement un monde virtuel
avec l'environnement réel.
Cette coexistence a pour objectif l'enrichissement de la perception de l'utilisateur de son environnement réel par
des augmentations visuelles, sonores ou haptiques. L’environnement peut être d'intérieur (« indoor ») ou
d'extérieur (« outdoor»). L’utiIisateur peut être présent dans l'environnement réel (réalité augmentée en vision
directe sur site) ou peut le percevoir à distance (réalité augmentée en vision indirecte généralement hors site).
La virtualité augmentée est la présence d'objets physique dans un environnement virtuel comme par exemple la
visite d'un musée en virtuel.
72
Continuum «réalité-virtualité»
La réalité augmentée est une technologie qui permet de superposer des informations virtuelles à l'environnement
réel.
Dans l'industrie, il peut s'agir :
• de la maintenance de machines
• d'éléments à assembler sur un moteur, un véhicule, etc.
• de l'intervention sur des tableaux électriques
• Réduction du « Time to market » : la fabrication additive peut fabriquer le prototype en quelques minutes ou
quelques heures à partir de la conception CAO. Le développement classique de prototypes prenait beaucoup
de temps et était coûteux et nécessitait parfois une intervention même au niveau de la ligne de production.
• Personnalisation plus rapide : la personnalisation dans le système de production traditionnel est très complexe.
Mais avec la fabrication additive, il est facile de modifier le produit à faible coût et de manière efficace selon la
demande du client. Le processus de fabrication peut être également adapté en peu de temps.
• Zéro déchet : la fabrication additive peut produire des composants de manière plus efficace et à moindre coût car
elle ne génère pas de pertes puisque les erreurs ont été éliminés au stade de la conception numérique.
Sous l'impulsion des dernières grandes avancées technologiques dans le domaine, la FA a été débarrassée de ses
limites et est aujourd'hui utilisée pour fabriquer des produits finis à destination de l'industrie aéronautique, la
dentisterie, les implants chirurgicaux, l'automobile etc.
75
Les applications les plus courantes sont:
L idée principale est qu’au lieu de remplacer les travailleurs humains, les machines deviennent leurs collaborateurs.
Grâce à la technologie des capteurs, les cobots observent comment les opérateurs effectuent leurs tâches et ils les y
assistent directement sans exposer les humains au risque de blessure. En outre, par cette observations, ils
apprennent comment faire face aux différents problèmes et situations.
Les cobots sont plus légers et plus faciles à déplacer que les robots, Ils sont flexibles et faciles à gérer. On s'oriente
vers la création de cobots de plus en plus intelligents afin de mieux assister les opérateurs dans des tâches
fastidieuses, dangereuses ou qui demandent une précision que l'homme ne peut pas assurer.
79
les véhicules à guidage automatique (AGV) et les véhicules à guidage laser (LGV) sont aussi des sortes de cobots
qui assistent les opérateurs dans le transport d'articles. Ces véhicules sans conducteur ont été utilisés dans la
fabrication au cours des six dernières années pour augmenter l'efficacité dans usines et entrepôts.
Dans une Smart Factory l'interconnectivité est centrale; ainsi, les AGV font partie du réseau et ne sont pas des
systèmes automatisés isolés. Ils rentrent dans la catégorie de «transitique». Les AVG sont des véhicules autonomes
utilisés pour le transport et la livraison de produit au sein de l'entreprise vers des magasins, des bords de lignes,
des supermarchés etc .
La tâche principale des véhicules autonomes est essentiellement le transport. Ils reçoivent les instructions relatives
aux produits à livrer et il le font de façon efficace sans l'intervention de l’homme en se déplaçant de façon
autonomes selon des chemins optimisés.
80
drone d'inspection de pipelines
Automated guided vehicale drone de transport
On trouve aussi les drones ou UAV (Unnamed Aerial Vehicles) qui sont utiles pour les activités d'inspection et de
maintenance. Par exemple, on utilise des drones dans le secteur pétrolier et gazier pour l'inspection de pipelines
et autres installations par imagerie thermique aérienne.
Les UVA sont particulièrement utiles pour l’inspection sur de grandes installations et des unités réparties sur de
grandes distances. Ils sont également exploités pour les la topographie, l'agriculture, la surveillance de la
pollution de la mer, la logistique etc .
Les applications de la cobotique se développent dans de nombreux secteurs : l'aéronautique, l'automobile,
l'agroalimentaire, la construction navale, la défense ou encore la santé, pour l'assistance des personnes âgées,
l'utilisation de substances potentiellement toxiques, ou les opérations de grande précision. Les cobots aident par
exemple les chirurgiens pour effectuer des opérations d'une précision inégalable par la main humaine.
81
• Intégration horizontale:
82
Intégration horizontale
83
• Intégration verticale:
Elle intègre la composante hiérarchique. La
digitalisation est réalisée à différents niveaux de
fabrication et de production. C'est cette intégration qui
permet de reconfigurer le processus de production en
fonction de la demande client.
84
Intégration verticale
Les opérateurs, les machines, les équipements sont connectés, ils communiquent entre eux et avec les systèmes
d’information, permettant la reconfiguration dynamique du système de production et de la chaîne logistique et le
contrôle distribué (ainsi que le Cloud Manufacturing)
85
Les PLC (Programmable Logic Controller) sont des ordinateurs industriels créés pour le contrôle de processus de
fabrication, tels que des chaînes de montage ou des dispositifs robotiques.
Les SCADA (Supervisory Control And Data Acquisition) sont des systèmes de contrôle et d'acquisition de données
au niveau du pilotage des machines automatisées.
Les MES pour Manufacturing Execution System sont les systèmes de gestion de production permettant de délivrer
aux automates les données nécessaires à l'exécution de l'ordre de fabrication. Il peut être positionné sur le cloud.
Les ERP (Entreprise Resource Planning) sont des progiciels qui permettent de gérer l'ensemble des processus d'une
entreprise en intégrant l'ensemble de ses fonctions; ressources humaines, fonctions comptables, ventes... Possible
en cloud également.
L intégration verticale appliquée dans un système d'automatisation recueille des données des niveaux les plus bas
et les achemine jusqu'au plus haut niveau. Elle permet également à ces données de circuler dans le sens inverse : à
partir du plus haut niveau vers les périphériques de terrain, pour transférer de nouvelles configurations de format,
par exemple.
86
Types de communication M2M et H2M
Une des grandes avancées apportée par L'industrie 4.0 est la communication horizontale entre acteurs de la
production. Il existe deux types de communication horizontale: machine à machine (M2M) et homme-machine
(H2M).
Une telle communication était à l'origine réalisée en faisant en sorte qu'un réseau distant de machines relaie
l'information à un concentrateur central pour analyse, qui serait ensuite redirigé vers un système comme un
ordinateur personnel.
La communication de machine à machine plus récente s'est transformée en un système de réseaux qui transmet
des données aux appareils personnels, l’expansion des réseaux IP dans le monde entier a rendu la communication
de machine à machine plus rapide et plus facile tout en consommant moins d’énergie.
87
La technologie M2M est directement basée sur des protocoles et technologies de communication standard pour
créer des réseaux de machines et de systèmes ce qui facilite l'échange direct entre les machines d'une grande
flotte. En conséquence, le processus de production dans son ensemble, peut être reconfiguré pour réagir aux aléas
et changements rencontrés.
Cela, est issu de la capacité des machines à communiquer entre elles de façon autonome et auto-organisée. Ainsi,
on peut avoir l'accès à des actions en temps réel pour établir des organisations plus intelligentes et plus agiles, ce
qui permet de mieux administrer les ressources, protéger les actifs spécifiques de l'entreprise, déployer des
applications intelligentes pour élargir la portée et répondre rapidement aux exigences pouvant être à évolution
rapide.
La communication M2M, permet d'offrir une meilleure surveillance et utilisation des ressources ce qui réduit les
coûts sur le court terme et déclencher, exécuter automatiquement des décisions qui servent les objectifs et
maintiennent les compétitivités de l'entreprise dans le long terme.
Les politiques de reprise après sinistre régissent la manière dont une entreprise recouvre ses opérations et ses
informations pour retrouver la même capacité de fonctionnement qu' avant l événement. 89
• La formation des utilisateurs finaux qui porte sur le facteur le plus imprévisible : les personnes. Tout le monde
peut accidentellement introduire un virus dans un système habituellement sécurisé en ne respectant pas les
bonnes pratiques de sécurité. Apprendre aux utilisateurs à supprimer les pièces jointes suspectes et à ne pas
brancher de clés USB non identifiées est essentiel pour la sécurité d une entreprise.
Les cyber-menaces continuent d'évoluer rapidement dans le monde et le nombre de violations de données
augmentant chaque année. Un rapport de Risk Based Security a révélé que 7,9 milliards de données ont été
exposées à des attaques au cours des neuf premiers mois de 2019 seulement. Ces chiffres représentent plus du
double (112%) du nombre de données exposées lors de la même période en 2018.
De fait, année après année, les dépenses mondiales en cyber-sécurité ne cessent d'augmenter Les entreprises
commencent à comprendre que, d’un côté, les malwares sont facilement accessibles à quiconque se sentira des
velléités de cyber-pirate et que, de l'autre, le foisonnement de fournisseurs et solutions de sécurité n'a que peu
d'efficacité face aux attaques. Or, la cyber-sécurité requiert une attention et un engagement de tous les instants.
Devant l'ampleur croissante de la cyber-menace, l'international Data Corporation prévoit que les dépenses
mondiales consacrées aux solutions de cyber-sécurité ont atteint, en 2023, la somme considérable de 133,7
milliards de dollars.
90
Schéma global d'une usine 4.0:
La figure montre comment s'articulent les principales technologies de l'industrie 4.0 dans une usine de fabrication.
91
Démarche de mise en œuvre:
1. Décision stratégique
2. Constitution de groupe de pilotage
3. Formation aux technologies 4.0
4. Formation au lean
5. Diagnostic numérique et évaluation de maturité numérique
6. Diagnostic lean
7. Plan d’action lean
8. Plan d’action digital I4.0
9. Intégration Lean -14.0
10. Etude de faisabilité technique et économique
11. Mise en œuvre des plans intégrés
12. Analyse des résultats et rétro-action
13. Généralisation
14. Capitalisation
La démarche industrie 4.0 nécessite des investissements dans des solutions logicielles, dans des équipements
et dans la formation delà main-d'œuvre. La valeur ajoutée que créeront les données numériques entrainera des
changements dans lescomportements d’opération et de gestion.
92
Les entreprises peuvent acquérir les mêmes équipements et technologies mais l'élément qui les différenciera est
leur capacité à maîtriser et à intégrer ces technologies dans un portefeuille cohérent et performant intégrant le
matériel et l'homme.
Maturité numérique:
Pour être en mesure d'élaborer un plan d'action numérique, il est important de faire le constat de la situation
actuelle. Pour cela, il faut énumérer, dans un premier temps, les processus d'affaires de l'entreprise ainsi que les
technologies numériques utilisées.
• Les technologies:
Les technologies numériques viennent en appui à un processus d'affaires pour permettre d'en accélérer le temps
de traitement, d’en assurer la qualité, et de l'automatiser partiellement ou entièrement. Il faut préalablement
que le processus concerné soit déjà efficient; il n'y a aucune raison d’informatiser le chaos ou des processus
inefficient.
Une évaluation des technologies en place est nécessaire pour s'assurer que l'entreprise dispose de la bonne
technologie en fonction de ses besoins actuels et futurs.
Le niveau de maturité numérique est le résultat d'un audit qui fournit un indicateur quantitatif lié à la présence
d'outils numériques logiciels et d'équipements, à leur maîtrise et à leur intégration.
Niveau de maturité numérique = somme (technologies x maîtrise x intégration).
Le niveau de maturité numérique est empirique; aucune théorie complète ne le sous-tend. Plusieurs modèles
existent pour l'évaluer.
Stratégie numérique:
L'émergence des objets connectés et la multiplication des progiciels de gestion et de coordination font ressortir le
besoin de se doter d'un plan d'action global.
Ce plan (ou cette stratégie) numérique doit être enchâssé dans la planification stratégique de l'organisation. Il a
pour objectifs d'optimiser les outils actuels, de dresser le plan d'acquisition des technologies futures et d'en
assurer la cohésion et l'intégration, tout cela en tenant compte du modèle d'affaires. 95
Un plan numérique:
Les pistes d'amélioration de l'audit permettent de rédiger un plan numérique qui correspond au modèle d'affaires
que l'entreprise veut mettre en place. C'est un outil stratégique qui procure une vue d'ensemble et un échéancier
quant aux actions à planifier pour prendre le virage industrie 4.0.
Le plan sera à l'image du niveau de maturité numérique ainsi qu’à celle de l'équipe de direction et reflétera
l'orientation que celle-ci désire donner à l'entreprise. Cette stratégie pourra être traditionnelle, émergente ou
avant-gardiste.
Méthodologie de déploiement:
Dans un premier temps, il est important de faire ressortir les objectifs du projet d'acquisition de la nouvelle
technologie à mettre en place, car ils serviront de lignes directrices pour guider les responsables durant
l'implantation. Il est également important de faire ressortir les contraintes pouvant influencer l'atteinte des
objectifs.
Il est également nécessaire de réaliser un diagnostic de maturité numérique vous permettra d'évaluer le niveau de
maîtrise de votre entreprise sur l'ensemble de vos pratiques et savoir-faire afin d’identifier, par la suite, la
trajectoire restant à parcourir pour réussir votre transformation digitale.
96
Plusieurs modèles de diagnostic de maturité numérique existent (Digital Maturity Model de TM Forum, Digital
Internet Maturity Model de Fayon-Tatar, The Digital Maturity Model 5.0 de Forrester), mais il convient de noter
qu'ils s'intéressent tous aux ces cinq dimensions suivantes :
5) Technologie utilisée:
Le succès d'une stratégie de développement s’appuyant sur le digital est étroitement lié au bon choix et à l'efficacité
des technologies déployées. Le fait de pouvoir créer, stocker, sécuriser, retraiter, mesurer et échanger des données
pour répondre aux besoins de ses clients, collaborateurs, et fournisseurs à moindre coût est un levier de croissance
majeur.
Le Digital Maturity Model cité ci-dessus, est composé au total de 110 critères pouvant aider à mesurer le niveau
actuel de maturité numérique de l’entreprise et aider à définir le niveau que bon souhaite atteindre.
L’émergence de l'Industrie 4.0 impose deux défis majeurs aux chefs d’entreprises:
Imaginer, envisager, anticiper, les nouvelles opportunités de transformer les produits, les processus et les services offerts ;
et
Maîtriser les technologies requises, souvent extérieures au cœur de métier de l’entreprise, afin d’être en mesure de créer
ces nouveaux processus, produits ou services.
98
Attention!!
On estime que 80% des projets de digitalisation échouent pour les raisons suivantes:
• Investissements élevés
• Etude préalable et de faisabilité insuffisante
• Manque de formation
• Difficulté et rigueur d'implémentation
• Charge de travail au début d'implantation
• Organisation préalable de l'entreprise et rigueur de travail insuffisante
• Absence de projet pilote motivant
• Absence de préparation du terrain
• Compétences existantes insuffisantes
• Volonté de vouloir tout transformer digitalement
Conclusion
La transformation numérique influence en profondeur l’organisation et la culture d’entreprise. Elle place la
dimension humaine au cœur de sa réussite. Il convient donc de sensibiliser et de mobiliser les entreprises à
concevoir et développer des politiques humaines adaptées et durables.
Pour exploiter pleinement le potentiel de l’industrie du futur, il faut transformer l’entreprise dans son ensemble. Il
est impératif de créer un environnement favorable à la culture numérique : tous les salariés devront penser et agir
comme des digital natives, prêts à expérimenter de nouvelles technologies et apprendre de nouvelles façons de
fonctionner.
L’entreprise devra réinventer ses capacités à un rythme plus rapide que par le passé pour rester en 99
avance
technologiquement.
Industrie 4.0 : 3 exemples concrets
Secteur Automobile
Un exemple clé d’Allemagne, où un grand constructeur automobile a mis en œuvre l’apprentissage automatique
pour développer l’analyse des usines en connectant les machines et les objets par le biais de l’internet industriel des
objets (IIoT).
En conséquence, le séquençage et la programmation de la production sont devenus plus rationnels et efficaces.
Usine intelligente
Une autre mise en œuvre réussie dans une usine américaine de transformation du bois, qui a intégré l’intelligence
artificielle (IA) dans ses processus de production pour identifier les écarts entre les normes de qualité et réduire les
déchets.
Secteur de la mode
La société de mode Burberry a connu le succès en introduisant des étiquettes RFID sur ses produits ; ces étiquettes
lui permettent de suivre le cycle de vie complet de ses vêtements, de la fabrication à l’achat.
Les possibilités de l’industrie 4.0 semblent immenses, les entreprises du monde entier reconnaissant les avantages
potentiels de ces technologies – et les utilisant réellement !
100
Comment mettre en œuvre l’Industrie 4.0 dans l entreprise ?
Pour que l’entreprise soit en phase avec son temps, la mise en œuvre des technologies de l’industrie 4.0 est une
étape importante.
Tout d’abord, familiariser avec les différents systèmes d’automatisation et cyber-physiques disponibles aujourd’hui,
beaucoup d’entre eux seront applicables à l’entreprise.
Ensuite, établir un plan d’action qui met en évidence la manière dont ces systèmes peuvent contribuer à
automatiser et à optimiser les processus dans l’ organisation.
Enfin, élaborer une feuille de route claire décrivant comment la technologie peut faire avancer l’entreprise dans la
bonne direction.
Mais surtout, il faut obtenir le retour d’information de toutes les parties prenantes afin que chacun se sente
impliqué dans le processus.
Conclusion
L’industrie 4.0, ou la quatrième révolution industrielle, est en train de changer radicalement la façon dont nous
faisons des affaires. En mettant en œuvre de nouvelles technologies telles que le big data, l’Internet des objets,
l’impression 3D et la robotique dans leurs activités, les entreprises sont en mesure d’atteindre des niveaux
d’efficacité et de productivité sans précédent.
Tout d’abord, commencez par dresser la carte de vos processus existants et identifiez les domaines dans lesquels
les nouvelles technologies peuvent être mises en œuvre.
Ensuite, constituez une équipe d’experts qui sera chargée de diriger le projet.
Et enfin, créez une feuille de route qui décrit votre plan de mise en œuvre étape par étape. Grâce à une
planification et une exécution minutieuses, vous pourrez rejoindre les rangs des entreprises de pointe qui
101
façonnent l’avenir de l’industrie.
Qu'est-ce que l'industrie 4.0 ?
Née au début des années 2010, l'Industrie 4.0 représente
la quatrième révolution industrielle. Elle est caractérisée
par l'intégration de technologies numériques avancées
dans les processus de production. Par exemple,
l'utilisation de capteurs IoT dans une usine automobile
permet une surveillance en temps réel et une
maintenance prédictive, augmentant ainsi l'efficacité et
réduisant les coûts.
103
Cas 2 : Industrie 5.0 dans le secteur de la mode Contexte : Une marque de mode de luxe
cherche à offrir une expérience unique à
ses clients tout en intégrant des pratiques
durables.
104
Ces études de cas illustrent comment l'industrie 4.0 et 5.0 peuvent être appliquées dans différents secteurs pour
atteindre divers objectifs. L'industrie 4.0 se concentre principalement sur l'efficacité et l'automatisation, tandis
que l'industrie 5.0 vise à intégrer plus étroitement les capacités humaines et les technologies avancées pour offrir
des solutions personnalisées et durables.
L'industrie 4.0 et l'industrie 5.0, bien que distinctes dans leurs approches et leurs objectifs, sont
complémentaires. La compréhension de ces évolutions est essentielle.
Plus adaptées aux usines de production actuelles, les principes de l'industrie 4.0 continuent d'être pertinents
dans le paysage industriel en constante évolution. En effet, cette révolution numérique a permis d'optimiser les
processus de production, d'augmenter l'efficacité et de réduire les coûts opérationnels grâce à l'utilisation
intensive de données et à l'automatisation.
Alors que l'industrie 4.0 se concentre principalement sur la productivité, l'industrie 5.0 met l'accent sur la
personnalisation des produits et la collaboration entre les collaborateurs et les machines intelligentes.
L'introduction de l'industrie 5.0 ne signifie pas la fin de l'industrie 4.0, mais plutôt une évolution vers une
intégration plus harmonieuse entre la technologie et l'humain !
105
JUMEAUX NUMERIQUES
106
DIGITAL TWIN
Un jumeau numérique est une représentation numérique d'un produit, d'un processus ou d'un système déployé ou
en cours de développement. Lorsqu’il est déployé, il indique l’état actuel de l’équipement en incluant les données
historiques pertinentes. Les jumeaux numériques permettent d’évaluer le fonctionnement présent d’un
équipement, et plus important encore, d’en prédire le comportement futur, d’affiner les systèmes de contrôle ou
encore d’optimiser les opérations. Le jumeau numérique peut également faire office de modèle d’un produit,
processus ou système à créer, ce qui facilite le développement, les tests et la validation.
Les jumeaux numériques reproduisent le comportement de leur version physique. Ainsi, on peux améliorer et
accélérer le développement, les tests et la validation des produits. Leurs fonctionnalités d’optimisation des
opérations, de détection des anomalies et de maintenance prédictive permettent aux entreprises de réduire les
coûts et de proposer des produits plus fiables ainsi qu’une meilleure expérience client. Par ailleurs, en utilisant un
jumeau numérique tout au long du cycle de vie du produit (de la conception à la mise hors service), on crée un
cercle vertueux pour l’ensemble de la chaîne de valeur. Grâce au retour d’informations et aux améliorations
apportées, on peux mieux innover, réduire leurs coûts et améliorer la qualité, la valeur et la pérennité de produits.
107
108
109
Bâtiments
110
DIGITAL TWIN CITY
111
INDUSTRIE CHIMIQUE
112
ENERGIE
113
AUTOMOBILE
114
115
116
Apports
117
JUMEAUX NUMERIQUES EN SI
118
119
Accélération du design de produits : Les jumeaux numériques permettent de simuler des systèmes complexes en
temps réel, les designers pouvant ainsi en examiner le comportement dans diverses conditions de
fonctionnement. Ils peuvent alors optimiser les réponses du système, sa consommation d’énergie et son efficacité
opérationnelle. De plus, grâce aux jumeaux numériques, les designers peuvent affiner la conception d’un
composant ou d’un sous-système, ou encore développer des stratégies de contrôle afin d’atteindre les niveaux de
performances souhaités en matière de précision des mouvements, de stabilité ou de temps de réponse.
« Grâce aux simulations du jumeau numérique dans Simulink, nous avons pu obtenir des données et des
informations que nous n’aurions pas pu avoir en menant des tests sur le hardware, ou sans y consacrer beaucoup
de temps et d’argent. Visualiser les forces et les moments en jeu nous a permis de mieux comprendre l’impact de
chaque composant sur un robot hautement dynamique. »
120
Vérification et validation virtuelles :
121
Schindler Elevator passe des tests physiques à la simulation
Schindler Elevator a récemment intégré un workflow de validation basé sur des modèles dans son processus
de développement. L’EDEn (Elevator Dynamics Environment, environnement des dynamiques des ascenseurs)
est un ensemble d’outils mis au point dans MATLAB, Simulink et Simscape™. Il permet d’effectuer des
simulations hors ligne à l’aide d’applications basées sur le web, ainsi que des tests, Hardware-in-the-Loop.
Grâce à l’EDEn, les tests de versions logicielles se font en une nuit, contre trois à quatre semaines auparavant.
Cela permet de réduire sensiblement les coûts et les risques tout en élargissant la couverture des tests.
« L’approche HIL (Hardware-in-the-Loop) nous permet de prendre en compte beaucoup plus de cas de test et ce, en une nuit
seulement. La philosophie de design a également évolué, passant de la sécurisation des cas les plus graves à l’optimisation
du software pour une utilisation typique. »
122
123
Jumeaux numériques de turbine à gaz : diagnostic et optimisation de la performance
Siemens Energy a élaboré un jumeau numérique basé sur la physique avec MATLAB et Simulink.
L’entreprise a ensuite validé ce jumeau à l’aide d’un prototype de banc d’essai et de données de flotte.
Les fonctionnalités du jumeau numérique ont ensuite été réparties sur les différentes plateformes de calcul :
systèmes embarqués, périphériques, cloud et de surveillance à distance. Grâce à Simulink Coder™ et Simulink
Compiler™, aucun code ou presque n’a dû être codé manuellement dans le cadre du déploiement.
En créant un jumeau numérique pour son système, Siemens Energy a pu améliorer la fiabilité, la disponibilité et la
maintenabilité de sa turbine à gaz, en prolonger la durée de vie et en a optimisé le fonctionnement, le tout à un
coût réduit.
124
125
Maintenance prédictive:
En analysant l’état de chaque composant ou de l’intégralité du système, le jumeau numérique peut détecter des
patterns subtils et des anomalies pouvant indiquer un défaut potentiel, et prédire quand une maintenance ou
un remplacement pourrait être nécessaire. Cela permet de programmer les opérations de maintenance aux
moments les plus opportuns, d’éviter les pannes inopinées et d’optimiser les ressources de maintenance.
Virtual commissioning :
Les jumeaux numériques sont un aspect clé du virtual commissioning. Ils permettent de tester, valider et
optimiser des systèmes dans un environnement virtuel. Grâce à cette approche, les risques et les coûts sont
réduits, et la transition vers l’implémentation physique peut se faire plus facilement.
Capteurs virtuels :
En implémentant des jumeaux numériques, les entreprises peuvent être moins dépendantes des capteurs
physiques, bénéficier de capacités prédictives, optimiser le placement des capteurs et améliorer les
performances et la surveillance du système, ce qui conduit à une meilleure efficacité pour un coût moindre.
Optimisation des opérations :
Les jumeaux numériques reflètent le statut temps réel des équipements physiques. Les organisations, non
seulement surveiller les opérations, mais aussi les optimiser de manière dynamique. L’optimisation recouvre de
nombreux aspects, de l’amélioration de la performance du système à son efficacité énergétique, en passant par
l’attribution des ressources.
Utiliser un jumeau numérique permet aux spécialistes de tester différents scénarios opérationnels afin de
trouver celui qui convient le mieux. Ils peuvent également utiliser cet outil dans le cadre de leur formation pour
126
bien réagir aux différentes situations.
Amélioration de l'approche Model-Based Design grâce aux jumeaux numériques
L’approche Model-Based Design fait référence à l’utilisation systématique de modèles tout au long du
processus de développement afin d’améliorer le déploiement de systèmes complexes. Cette approche prépare
le terrain pour les applications de jumeaux numériques. Les méthodologies de l'approche Model-Based Design
et des jumeaux numériques entretiennent une relation symbiotique lors de la phase du développement du
produit. Dans la plupart des cas, les scénarios qui utilisent les jumeaux numériques sont également des cas
d’utilisation de l'approche Model-Based Design.
Utilisées conjointement, les jumeaux numériques et l'approche Model-Based Design sont particulièrement
utiles aux OEM.
Tandis que l’approche Model-Based Design est principalement axée sur la phase de développement du produit,
les jumeaux numériques permettent aux OEM d'élargir leur champ d'action en proposant des produits ou
services numériques qui supportent et enrichissent l'expérience opérationnelle et de maintenance de leurs
clients.
Ces derniers, en plus de pouvoir concevoir et fabriquer des produits physiques, peuvent proposer une suite
d’outils numériques qui leur fournissent une valeur ajoutée tout au long de leur cycle de vie. Le jumeau
numérique fait office de pont qui relie le produit physique à son équivalent numérique, permettant la
surveillance temps réel, la maintenance prédictive, et l’optimisation des opérations
127
Jumeau numérique pour la transformation numérique
Atlas Copco réduit les coûts de propriété en utilisant la simulation et les jumeaux numériques.
Atlas Copco intègre la simulation et l'analyse des données de l'ingénierie aux ventes et services, en passant par la
production, grâce à l’utilisation des jumeaux numériques comme source unique de vérité.
La société s'appuie sur MATLAB et Simulink pour construire sa plateforme d’ingénierie reposant sur l’approche
Model-Based Design. Les ingénieurs de vente ont ainsi accès à des simulations de performances fiables afin de
fournir aux clients des produits sur mesure. Les modèles actuels de compresseurs Atlas Copco sont équipés de
nombreux capteurs (jusqu’à 50) qui les préparent à la maintenance prédictive. Le service d’entretien peut mettre
en place des stratégies de maintenance spécifiques au client grâce aux données temps réel collectées auprès de
100 000 machines sur le terrain. Cela représente une mine d’informations que l’entreprise commence tout juste à
exploiter.
128
Workflow de jumeau numérique
Bien que les cas d’utilisation de jumeaux numériques soient très variés, il existe des stratégies d’ordre général.
Ces stratégies consistent à définir des objectifs clairs, concevoir et valider des modèles, les déployer efficacement
et en assurer la maintenance par l’intermédiaire d’une surveillance et de mises à jour en continu.
Étape 1 : Définition des objectifs et du champ d’application
Il faut au préalable avoir une vision claire des objectifs.
• Quel est l’objectif du jumeau numérique ? Sera-t-il utilisé lors du développement de produit, pour
diagnostiquer les problèmes d’équipement, pour optimiser les opérations ou pour effectuer des simulations à
des fins de formation ?
• Ensuite, définissez le champ d’application du jumeau numérique. Déterminez si le jumeau numérique est un
composant individuel, un ensemble de composants formant un sous-système ou bien un système à part
entière. Servira-t-il une fonction unique ou plusieurs objectifs ? Prendre ces décisions en amont vous permet
d’avoir une idée plus claire de la complexité et de l’orientation du projet.
Étape 2 : Design et création
Créer un jumeau numérique nécessite une approche réfléchie qui dépend de notre expertise, de notre
méthodologie de ce qui est à notre disposition. Les clients qui créent un produit ex nihilo n’ont généralement pas
de données de test ou d’opération. Par conséquent, ils doivent partir d’une modélisation basée sur la physique,
qui s’appuie sur les lois physiques afin de construire un framework pour le jumeau. Si le client dispose d’assez de
données, il peut adopter une approche basée sur les données ou sur l’IA. Cela lui permet de prédire les résultats
et les comportements de son système grâce au Machine Learning ou au Deep Learning. 129
Étape 3 : Tests et validation
Une fois le jumeau numérique terminé, il doit passer par une phase de validation et de tests rigoureux.
Cette étape consiste à établir la confiance dans le jumeau numérique en évaluant dans quelle mesure il reflète
précisément son homologue physique. Il faut également mesurer la précision des prédictions et des simulations du
jumeau numérique. Par ailleurs, il est important de comprendre les risques liés à la prise de décisions basée sur les
informations du jumeau numérique. Le jumeau numérique n’est pas seulement un modèle sophistiqué, mais bel et
bien un outil fiable adapté à des applications concrètes.
Étape 4 : Déploiement et opération
Une fois le jumeau numérique validé, on peux le déployer. La stratégie de déploiement doit être en phase avec
l’utilisation prévue du jumeau numérique. Par exemple, on peux le connecter directement à son équivalent
physique sur site en utilisant des méthodes de calcul en périphérie (edge computing) pour tirer parti de la
proximité et d’une latence réduite. On peux également exploiter le cloud, pour ses vastes ressources de calcul et
son évolutivité.
Étape 5 : Surveillance et mise à jour
un jumeau numérique doit être surveiller en permanence, de sorte qu’il reflète toujours avec précision son
équivalent physique. Pour conserver cette intégrité, on définie des métriques de performances, et on valide
régulièrement le jumeau par rapport à des données réelles. En outre, le jumeau numérique devra très
probablement évoluer au fil du temps. Par conséquent, il faudra mettre en place des mécanismes de réglage des
paramètres ou de remplacement complet du modèle en cas de dépassement de certains seuils. Cette adaptabilité
est essentielle pour assurer la longévité et l’utilité du jumeau numérique.
130
Jumeaux numériques avec MATLAB et Simulink
MATLAB et Simulink proposent une plateforme complète qui permet de créer, simuler, vérifier et implémenter
les jumeaux numériques. Les outils combinées de la modélisation basée sur la physique, de l’analyse de données
avancée et de l’IA, ainsi que des options de déploiement pratiques (PLC, système embarqué, web, cloud entre
autres), permettent de concevoir des jumeaux numériques qui aideront à comprendre, utiliser et assurer la
maintenance de systèmes physiques complexes.
Simscape permet aux ingénieurs de créer rapidement des modèles de systèmes physiques dans l'environnement
Simulink. Ils peuvent ainsi modéliser des systèmes tels que des moteurs électriques, des ponts redresseurs, des
actionneurs hydrauliques et des systèmes de réfrigération, en assemblant des composants fondamentaux dans
un schéma. Par ailleurs, les produits complémentaires Simscape permettent de modéliser et d’analyser des
composants et des systèmes encore plus complexes.
MATLAB propose un large éventail d’outils basés sur les données à des fins statistiques, de Machine Learning, de
Deep Learning et d’identification du système. Grâce à ces outils, les ingénieurs peuvent mettre au point des
jumeaux numériques basés sur les données afin d’identifier des patterns, d’optimiser les performances ou de
prédire les besoins en matière de maintenance, par exemple. L'intégration transparente de ces jumeaux
numériques basés sur les données avec les jumeaux numériques basés sur la physique offre une vue globale de la
performance du système et des problèmes potentiels.
131
132
133
134
La validation et la vérification sont des étapes cruciales
pour s’assurer que le jumeau numérique reflète
précisément le modèle physique et fonctionne comme
attendu. En suivant le workflow de vérification de haute
intégrité, les ingénieurs peuvent effectuer des tests
basés sur des simulations ainsi que des analyses
statiques pour déceler les défauts et réduire les délais de
mise sur le marché, tout en conservant des normes de
qualité élevées.
135
Grâce à MATLAB et Simulink, on bénéficie d’options de déploiement polyvalentes, pouvant être
implémentées dans des PLC, des contrôleurs industriels, des systèmes embarqués, des plateformes web et
dans le cloud.
Cette flexibilité garantit que le jumeau numérique peut être intégré dans les infrastructures et workflows
existants, rendant possible la surveillance temps réel, la maintenance prédictive et l'optimisation
opérationnelle dans différents environnements.
En fin de compte, la valeur d'un jumeau numérique se concrétise par son implémentation, permettant aux
parties prenantes d'exploiter les informations et les prédictions pour prendre des décisions éclairées et
atteindre l'excellence opérationnelle.
136
Maintenance prédictive
Chaque jour, nous utilisons une large gamme de machines, mais si elles ne sont pas entretenues, elles finissent
toutes par tomber en panne. La maintenance prédictive vous permet d'estimer le moment où une panne de
machine se produira.
De cette façon, vous pouvez planifier la maintenance à l'avance, mieux gérer les stocks, éliminer les temps d'arrêt
imprévus et maximiser la durée de vie de l'équipement
Maintenance réactive: Avec la maintenance réactive, la machine est utilisée au maximum de ses limites et les
réparations ne sont effectuées qu'en cas de panne. Si on entretient un système peu coûteux comme une ampoule
électrique, l'approche réactive Maintenance
peut être judicieuse.
prédictive Mais pour un système complexe avec des pièces très
coûteuses, comme un moteur d'avion. On ne peux risquer de le faire fonctionner jusqu'à la panne, car il serait
extrêmement coûteux de réparer les pièces fortement endommagées. Mais, plus important encore, c'est une
question de sécurité. (Une panne entraîne une intervention)
Maintenance préventive: De nombreuses entreprises tentent de prévenir les pannes avant qu'elles ne surviennent
en effectuant des contrôles réguliers sur leurs équipements. L'un des principaux défis de la maintenance
préventive est de déterminer le moment opportun pour effectuer la maintenance. Comme on ne sait pas quand
une panne est susceptible de se produire, on doit faire preuve de prudence dans la planification, en particulier si
on utilise des équipements critiques pour la sécurité. Mais en planifiant la maintenance très tôt, on gaspille la
durée de vie d'une machine encore utilisable, ce qui augmente les coûts. (Basée sur les recommandations
constructeurs et opérationnelles) 137
Maintenance prédictive: La maintenance prédictive permet d'estimer le temps de défaillance d'une machine.
Connaître le temps de défaillance prévu aide à trouver le moment optimal pour planifier la maintenance de
l’équipement. La maintenance prédictive permet non seulement de prédire une défaillance future, mais également
d'identifier les problèmes des machines complexes et aide à identifier les pièces à réparer.
(Le but est d’optimiser la planification et d’anticiper les interventions afin de réduire à leur maximum les actions
de maintenance corrective)
Grâce au SCADA, au MES, aux IoT, en équipant les systèmes de sondes, capteurs intelligents, et de solutions
efficaces de transferts de l’information récoltée. La première étape consiste à collecter un grand ensemble de
données de capteurs représentant un fonctionnement sain et défectueux. Il est important de collecter ces
données dans des conditions de fonctionnement variables. Par exemple, on peut avoir le même type de pompes
fonctionnant à différents endroits, L'une peut pomper un fluide très visqueux tandis que l'autre fonctionne avec
un fluide à faible viscosité. Bien qu' on a le même type de pompe, l'une peut tomber en panne plus tôt que
l'autre en raison de ces conditions de fonctionnement différentes. La capture de toutes ces données aidera à
développer un algorithme robuste capable de mieux détecter les pannes.
dans cet exemple, les opérations saines et défectueuses sont chacune représentées par une seule mesure.
140
Dans un scénario réel, il peut y avoir des centaines de mesures pour les deux types de conditions.
Dans certains cas, il se peut qu' on ne dispose pas de suffisamment de données représentant un fonctionnement
correct et défectueux. On peux créer un modèle mathématique de la pompe et estimer ses paramètres à partir
des données des capteurs.
Ensuite, simuler ce modèle avec différents états de défaut dans des conditions de fonctionnement variables pour
générer des données de défaut. Ces données, également appelées données synthétiques, complètent désormais
les données de capteur. (unsupervised Learning)
On peux utiliser une combinaison de données synthétiques et de données de capteur pour développer
l’algorithme de maintenance prédictive.
141
Acquérir des données avec MATLAB
Les données des équipements peuvent être structurées
ou non structurées et résider dans plusieurs sources
telles que des fichiers locaux, le cloud (par exemple,
AWS® S3, Azure®Blob), bases de données et historiens
de données. Où que se trouvent les données, on peux
y accéder avec MATLAB®.
L’intelligence artificielle et le big data seront d’une grande aide dans l’analyse des données. En comparant sans
cesse notre outil à la norme, l’intelligence artificielle sera en mesure d alerter à la moindre variation trop
importante.
Une fois qu' on a les données, l'étape suivante consiste à prétraiter les données pour les convertir en un
format à partir duquel les indicateurs de condition peuvent être facilement extraits. Le prétraitement
comprend des techniques telles que la suppression du bruit, des valeurs aberrantes et des valeurs
manquantes.
Parfois, un prétraitement supplémentaire est nécessaire pour révéler des informations supplémentaires qui
peuvent ne pas être apparentes dans la forme originale des données. Par exemple, ce prétraitement peut
inclure la conversion de données du domaine temporel en données du domaine fréquentiel.
143
Prétraiter les données avec MATLAB
144
Identifier les indicateurs d'état
Pour détecter les changements soudains dans les données collectées à partir de machines affichant un
comportement ou des caractéristiques non linéaires, on peux calculer des entités basées sur des reconstructions
d'espace de phase qui suivent les changements d'état de système au fil du temps.
146
Entraîner le modèle
On a extrait certaines caractéristiques des données qui nous aident à comprendre le bon fonctionnement et le
fonctionnement défectueux de la pompe. Mais à ce stade, il n'est pas clair quelle pièce doit être réparée ni
combien de temps il reste avant la panne. À l'étape suivante, on utilise les caractéristiques extraites pour
entraîner les modèles d'apprentissage automatique à effectuer plusieurs tâches
Détecter les anomalies: on peux suivre les changements dans le système pour déterminer la présence
d'anomalies.
Détecter différents types de défauts grâce à la classification: On peux ainsi avoir un aperçu de la partie de la
pompe qui nécessite une attention particulière.
147
Prédire la transition entre l'état sain et l'échec: Trouver un modèle qui décrit la relation entre les fonctionnalités
extraites et le chemin de dégradation de la pompe aidera à estimer le temps restant avant la défaillance (durée de
vie utile restante) et le moment où on doit planifier la maintenance.
Après avoir développé l’algorithme, on peux le mettre en service en le déployant sur le cloud ou sur le
périphérique de périphérie. Une implémentation dans le cloud peut être utile lorsque on collecte et on stocke
également de grandes quantités de données sur le cloud.
L'algorithme peut également fonctionner sur des appareils embarqués plus proches de l'équipement réel. Cela
peut être le cas si une connexion Internet n'est pas disponible.
Une troisième option consiste à utiliser une combinaison des deux. Si on dispose d'une grande quantité de
données et que la quantité de données qu' on peux transmettre est limitée, on peux effectuer les étapes de
prétraitement et d'extraction de fonctionnalités sur notre périphérique de périphérie, puis envoyer uniquement
149
les fonctionnalités extraites au modèle de prédiction exécuté sur le cloud.
Déployer des algorithmes dans les systèmes de production avec MATLAB
Les data scientists font souvent référence à la capacité à partager et
à expliquer les résultats comme étant l'interprétabilité du modèle.
Commençons par un exercice visuel pour comprendre le fonctionnement des indicateurs d'état. Quelle est la
différence entre ces deux formes ?
Il semble qu’il n’y ait pas de différence significative car les deux cercles se ressemblent presque.
151
les formes semblaient identiques car on les regarde sous un certain
angle, la vue de dessus.
Cependant, si on change de perspective, on peux clairement voir
les différences entre les deux formes et les identifier comme un cône et
un cylindre.
De même, lorsqu’ on examine les données de mesure brutes de la machine, il est difficile de distinguer un
fonctionnement sain d'un fonctionnement défectueux.
Mais, en utilisant des indicateurs d'état, on examine les données sous un angle différent qui aide à faire la
distinction entre un fonctionnement sain et un fonctionnement défectueux.
152
Extraction de caractéristiques à l'aide de méthodes basées sur le signal
On peux dériver des indicateurs de condition à partir de données en utilisant des fonctionnalités de domaine de
temps, de fréquence et de temps-fréquence
153
Fonctionnalités du domaine temporel
L'évolution de la tendance des signaux de vibration dans le
domaine temporel montre la dégradation de l'arbre à grande
vitesse d'une éolienne sur 50 jours consécutifs.
Le graphique de monotonie montre le classement de l'importance
des fonctionnalités pour différentes fonctionnalités du domaine
temporel et du domaine fréquentiel.
Pour certains systèmes, de simples caractéristiques statistiques des
signaux temporels peuvent servir d'indicateurs d'état, permettant
de distinguer les conditions défectueuses des conditions saines.
Par exemple, la valeur moyenne d'un signal particulier ou son écart
type peut changer à mesure que l'état du système se dégrade.
Vous pouvez également utiliser des moments d'ordre supérieur du
signal tels que l'asymétrie et l'aplatissement. Avec de telles
caractéristiques, vous pouvez essayer d'identifier des valeurs seuils
qui distinguent un fonctionnement sain d'un fonctionnement
défectueux, ou recherchent des changements brusques dans la
valeur qui marquent les changements d'état du système.
Predictive Maintenance Toolbox™, un produit complémentaire
pour MATLAB®, contient des fonctions supplémentaires pour le
calcul des fonctionnalités du domaine temporel, illustrées dans
154
l'exemple de pronostic de roulement à grande vitesse de turbine.
Caractéristiques du domaine fréquentiel
Parfois, les fonctionnalités du domaine temporel ne suffisent pas à elles seules à servir d'indicateurs de condition.
On examine alors les fonctionnalités du domaine fréquentiel.
Prenons une machine avec des composants rotatifs et trois sources de vibrations : le roulement, l'arbre du moteur
et le disque. Si on examine les données de vibration de la machine dans le domaine temporel, on voie l'effet
combiné de toutes les vibrations de ces différents composants rotatifs.
En analysant les données dans le domaine fréquentiel, on peux isoler différentes sources de vibrations, comme le
montre le deuxième graphique. Les amplitudes maximales et leur variation par rapport aux valeurs nominales
peuvent indiquer la gravité des défauts.
155
Caractéristiques du domaine temps-fréquence
156
Flux de travail de maintenance prédictive
La conception d'un algorithme de maintenance prédictive commence par la collecte de données de votre machine
dans différentes conditions de fonctionnement et états de panne. Les données brutes sont ensuite prétraitées pour
les nettoyer et les mettre sous une forme à partir de laquelle les indicateurs d'état peuvent être extraits.
À l'aide des fonctionnalités extraites, on forme un modèle d'apprentissage automatique pour la classification des
pannes et l'estimation de la durée de vie utile restante.
On peux ensuite déployer l’algorithme et l'intégrer dans les systèmes pour la surveillance et la maintenance des
machines.
157
Caractéristiques distinctives
Une fois qu' on a identifié certaines fonctionnalités utiles, on peux les utiliser pour former un modèle
d'apprentissage automatique. Si l'ensemble de fonctionnalités sélectionné est distinctif, le modèle peut estimer
correctement l'état actuel de la machine lorsqu' on alimente le modèle avec de nouvelles données de la machine.
158
Maintenance prédictive: Estimation de durée de vie restante
L'un des objectifs de la maintenance prédictive est d'estimer la durée
de vie utile restante (RUL) d'un système. La RUL correspond au temps
écoulé entre l'état actuel d'un système et sa défaillance. Selon le
système, le temps peut être représenté en termes de jours, de vols,
de cycles ou de toute autre quantité.
Trois méthodes courantes pour estimer le RUL
Il existe trois modèles courants utilisés pour estimer le RUL : la similarité, la survie et la dégradation.
Quel modèle on doit utiliser ? Cela dépend de la quantité d'informations dont on dispose.
Utilisez un modèle de survie si on ne dispose de données que sur la période de défaillance plutôt que sur
l'historique complet des défaillances
Utilisez un modèle de dégradation si on dispose de données entre un état sain et une défaillance, et que vous
connaissez un seuil de sécurité à ne pas dépasser.
Utilisez un modèle de similarité si les données couvrent la dégradation complète d’un système depuis un état
sain jusqu’à une défaillance.
159
Principe de fonctionnement des modèles d'estimation RUL : le modèle de survie
160
Si on n a pas de l'historique complet de la flotte, mais on dispose des
données de défaillance, on utilise des modèles de survie pour estimer le RUL.
162
Le modèle de dégradation dans MATLAB
Les modèles de dégradation estiment la durée de vie utile restante
en prédisant le moment où l'indicateur d'état franchira un seuil
prescrit. Ces modèles sont particulièrement utiles lorsqu'il existe
une valeur connue de votre indicateur d'état qui indique une
défaillance. Les deux types de modèles de dégradation disponibles
dans Predictive Maintenance Toolbox™ sont :
Les modèles de dégradation fonctionnent avec un seul indicateur de condition. Cependant, on peux utiliser l'analyse en
composantes principales ou d'autres techniques de fusion pour générer un indicateur de condition fusionné qui intègre des
informations provenant de plusieurs indicateurs de condition.
163
Le principe de fonctionnement des modèles d'estimation RUL : Le modèle de similarité
164
Le modèle de similarité dans MATLAB
La boîte à outils de maintenance prédictive comprend trois types de modèles de similarité :
Modèle de similarité des caractéristiques hachées (hashSimilarityModel) transforme les données de dégradation
historiques de chaque membre de l’ensemble en informations condensées de taille fixe telles que les valeurs moyennes,
maximales ou minimales, etc.
Modèle de similarité par paires (pairwiseSimilarityModel) trouve les composants dont les chemins de dégradation
historiques sont les plus corrélés à ceux du composant testé.
Modèle de similarité résiduelle (residualSimilarityModel) ajuste les données antérieures à un modèle tel qu'un modèle
ARMA ou un modèle linéaire ou exponentielle dans le temps d'utilisation. Il calcule ensuite les résidus entre les données
prédites à partir des modèles d'ensemble et les données du composant de test.
165
Flux de travail d'estimation RUL: Utilisation du modèle de similarité
Acquisition de données
Le modèle de similarité est une technique d'estimation du RUL utile.
Voyons comment ce modèle est utilisé dans un exemple pour mieux
comprendre comment une prédiction du RUL est effectuée.
La page précédente présentait les données du capteur 4, mais l'ensemble de données complet inclut également
les données de 20 autres capteurs. On peux voir que certaines de ces mesures ne montrent pas de tendance
significative à la défaillance (comme les capteurs 1, 5, 6 et 10). Par conséquent, elles ne contribueront pas à la
sélection de fonctionnalités utiles pour la formation d'un modèle de similarité.
167
• Au lieu d'utiliser toutes les mesures des capteurs, on identifie les trois ensembles de données les plus
tendance (ceux qui montrent un changement significatif dans leur profil entre l'état sain et la panne). Les
capteurs 2, 11 et 15 sont de bons candidats à utiliser ensemble pour créer des profils de dégradation.
• Les profils de dégradation représentent l'évolution d'un ou plusieurs indicateurs d'état pour chaque machine
de l'ensemble (chaque composant), lorsque la machine passe d'un état sain à un état défectueux.
• Dans l'étape de prétraitement, la réduction des données est effectuée en sélectionnant uniquement les
capteurs les plus tendance (capteurs 2, 11 et 15) et en combinant pour calculer des indicateurs de condition.
• Pour estimer la durée de vie utile restante du moteur actuel (indiqué en jaune), on utilise les capteurs 2, 11
et 15 pour calculer les indicateurs d'état qui représentent les profils de dégradation de la flotte. Dans le
graphique de droite, le moteur a actuellement effectué 60 vols et que les points rouges indiquent les
endroits où des moteurs similaires de la flotte sont tombés en panne.
168
Entraîner un modèle de similarité
169
À chaque itération du calcul du RUL, le modèle de similarité recherche les chemins de moteur les plus proches, qui sont
affichés en vert, et calcule le RUL à l'aide d'un tracé de distribution de probabilité (illustré à droite).
Les tracés montrent les profils de moteur et leur distribution de probabilité pour trois cycles : 25, 65 et 115.
170
Sur les graphiques de distribution de probabilité, les lignes orange représentent les RUL prédits et les lignes noires montrent le
RUL réel.
le RUL prédit se rapproche du RUL réel à mesure que le temps passe et que le modèle dispose de plus de données
Lorsque le moteur est à 25 cycles (ou vols), le modèle n'a pas encore beaucoup de données avec lesquelles travailler, donc la
prédiction est à 40 cycles de la vraie valeur avec une distribution très large.
À mesure que le modèle obtient de nouvelles données du moteur, le modèle de similarité s'entraîne sur un ensemble de
données plus large, comme indiqué aux cycles 65 et 115. Par conséquent, la précision de la prédiction s'améliore au fil du temps.
Avec plus de données, les prévisions RUL deviennent plus précises et la distribution plus concentrée.
En utilisant l'estimation RUL du cycle 115, on a une attente raisonnablement précise du RUL de votre moteur et serez en mesure
de planifier la maintenance au meilleur moment.
171