IAOnduleurs
IAOnduleurs
Ibtissem
26 août 2019
UNIVERSITÉ DE BRETAGNE OCCIDENTALE
Rapport de stage M2
Systèmes Informatiques Intelligents et
Autonomes :
Tuteur :
Romain Le FORSTIER
Réaliser par :
Enseignant référent :
Ibtissem TAZTAZ
Vincent RODIN
Rapport Confidentiel
2018-2019
REMERCIEMENTS
Je tiens aussi à remercier Monsieur Vincent RODIN, pour d’abord la qualité de formation en
tant qu’enseignant du module Méthodes computationnelles. Ensuite, pour ses précieux conseils
et recadrages lors de mon stage en tant qu’enseignant référent.
Mes remerciements s’étendent aussi aux membres du jury, Monsieur Jérémy Rivière et Mon-
sieur Thierry Duval, qui m’ont fait l’honneur d’examiner et de juger mon travail.
Je tiens enfin à remercier toute personne ayant contribué de près ou de loin à l’aboutissement
de ce projet.
iii
DÉDICACES
Ibtissem TAZTAZ
Ce présent mémoire est le fruit d’un dur labeur qui vient s’inscrire comme la fin d’un cycle
d’apprentissage : le Master.
A mes parents
Toujours présents, disponibles et attentifs, ce travail est le fruit de vos efforts et de vos
sacrifices. Merci de m’avoir accompagnée et aidée dans mes études. Que Dieu vous accorde
longue vie et santé.
iv
TABLE DES MATIÈRES
3 Conception 21
3.1 Vue d’ensemble de la conception . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.2 Visualisation des données . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.3 Extraction des données . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.4 Prétraitement des données . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.4.1 Nature des données . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
[Link] Données remontées par les onduleurs . . . . . . . . . . . . . . . 23
[Link] Données internes : Maintenance/ ERP . . . . . . . . . . . . . . 24
3.4.2 Techniques de prétraitement des données . . . . . . . . . . . . . . . . . 24
[Link] Normalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
[Link] Filtrage des données . . . . . . . . . . . . . . . . . . . . . . . . 24
[Link] Extraction d’information . . . . . . . . . . . . . . . . . . . . . . 25
v
TABLE DES MATIÈRES
4 Implémentation et résultats 30
4.1 Implémentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
4.1.1 Environnement de développement . . . . . . . . . . . . . . . . . . . . . 30
[Link] Psycopg – PostgreSQL database adapter for Python . . . . . . 31
[Link] Outil de Data visualisation . . . . . . . . . . . . . . . . . . . . 31
[Link] Scikit-learn, librairie d’apprentissage automatique . . . . . . . . 34
4.1.2 Choix d’implémentation . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4.1.3 Architectures modèles prédictifs . . . . . . . . . . . . . . . . . . . . . . . 35
[Link] SVM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
[Link] MLP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
[Link] RandomForest Classifier . . . . . . . . . . . . . . . . . . . . . . 36
4.1.4 Mesures d’évaluation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
[Link] Mesure de précision . . . . . . . . . . . . . . . . . . . . . . . . 36
[Link] Mesure d’erreur . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.2 Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.2.1 Performances des algorithmes d’apprentissage . . . . . . . . . . . . . . . 37
[Link] Performances des prédictions des erreurs onduleurs . . . . . . . 37
[Link] Performances des prédictions des erreurs batteries . . . . . . . . 37
[Link] Performances des prédictions des erreurs PV . . . . . . . . . . . 38
4.2.2 Evaluation de notre travail par rapport aux travaux antérieurs . . . . . . 38
4.2.3 Module Prédictif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
Bibliographie 48
vi
LISTE DES TABLEAUX
vii
TABLE DES FIGURES
viii
INTRODUCTION GÉNÉRALE
L’ère industrielle est loin derrière : nous faisons face à une révolution du numérique ; nous
vivons une époque de digitalisation extrême. les TIC font désormais partie intégrante de notre
quotidien : pour toute action nous consultons internet, nos smartphones et objets connectés.
L’industrie n’est pas en reste de ce bouleversement ; le domaine industriel connaît une expan-
sion fulgurante, ne cessant d’évoluer et étant au cœur de toutes sortes d’innovation.
Les objets connectés (IoT) ont submergé le marché industriel sous un amant de données
phénoménal. Avec de plus en plus de machines connectées, un grand nombre de données utiles
sont générées. On parle du big Data.
Le Big Data nous pousse à proposer aux clients des solutions customisées en ciblant les be-
soin de chacun de façon à y répondre instantanément. L’un des plus grands besoins des clients,
dans le domaine industriel, est d’assurer la maintenance des machines, ainsi que de pouvoir
estimer la durée de vie d’un composant et/ou prédire des défaillances potentiels ; ceci passe
inévitablement par la maintenance prédictive.
La maintenance prédictive permet aux clients de mieux utiliser leurs machines en détectant
l’apparition d’anomalies sur ces machines avant qu’elles ne deviennent trop graves, et aux fabri-
cants d’anticiper les pannes et d’estimer les coûts de la maintenance par la suite. Beaucoup de
chercheurs se sont penchés sur le problème de la maintenance prédictive en proposant diverses
solutions avec des approches différentes. L’intelligence artificielle et notamment l’apprentissage
automatique ont révolutionné la prédiction en général et la maintenance en particulier. Cer-
tains algorithmes d’apprentissage permettent des prédictions de très grande précision et à long
terme grâce à leur capacité à inférer des modèles prédictifs qui se basent sur l’exploitation des
historiques des données collectées.
Dans ce contexte, notre travail consiste en l’exploitation du contenu des données indus-
trielles génerées par la gamme des onduleurs solaires connectés IMEON afin de mettre en place
un module prédictif qui permet détecter la date et la nature de la prochaine panne prévisible.
Contribution
Ce projet nous a permis d’explorer le domaine d’exploitation des données industrielles et les
techniques de la maintenance prédictive. Notre contribution expérimente les algorithmes d’ap-
prentissage automatique classés parmi plus performants dans le domaine de prédiction selon
ix
Introduction générale
Par le biais de ce mémoire nous présenterons toutes les étapes de notre approche de réalisa-
tion d’un outil d’aide à la décision aux futurs utilisateurs des onduleurs solaires IMEON. Nous
aurons ainsi réalisé la première solution de maintenance prédictive de la gamme IMEON, avec
une technique de prédiction basée apprentissage automatique.
La conclusion générale portera sur l’ensemble de notre travail, ainsi que les perspectives
d’amélioration et d’extension de notre projet.
x
CHAPITRE 1
ORGANISME D’ACCUEIL : IMEON ENERGY
Le bureau d’étude de Brest s’occupe de la conception des onduleurs IMEON et une partie
d’assemblage des pièces. La fabrication des pièces est réalisée en Chine.
Organisme d’accueil : IMEON ENERGY
La société réalise 95% de son chiffre d’affaires à l’export, commercialisé via un réseau inter-
national de 30 distributeurs et disponible dans plus de 70 pays.
Cette nouvelle génération d’onduleurs pour l’autoconsommation crée une rupture radicale
avec les technologies actuellement disponibles sur le marché avec 5ans d’avance [[Link]
[Link], 2019].
IMEON est conçu pour s’adapter sur tous les types d’installation solaires en autoconsomma-
tion : site isolé (off-Grid) raccordé en réseau On Grid, ou hybride (off-grid et on). Il remplace :
onduleurs, régulateur de charge, inverseur de sources, routeur, etc. IMEON simplifie la mise en
œuvre d’un système solaire photovoltaïque et réduit donc fortement le temps d’installation :
Imeon gère le stockage de manière intelligente pour limiter l’utilisation des batteries. Le sys-
tème charge uniquement l’excédent de production dans les batteries et les décharge seulement
pour assurer le complément nécessaire à l’énergie solaire.
2
Organisme d’accueil : IMEON ENERGY
3
Organisme d’accueil : IMEON ENERGY
IMEON réduit le coût de l’électricité produite par une installation solaire photovoltaïque
jusqu’à 30%.
4
CHAPITRE 2
LA MAINTENANCE PRÉDICTIVE AUX AURORES DE
L’INTELLIGENCE ARTIFICIELLE
Les économistes et les mathématiciens se sont penchés sur la question de prédiction depuis
très longtemps. L’économiste Adam Smith vers la fin du 17ème siècle expliquait que le prévi-
sionniste ne donnait pas seulement le rythme du marché mais il cherche aussi à l’anticiper. Des
siècles après, ils se penchent toujours sur le problème de prédiction pour pouvoir anticiper des
crises économiques et expliciter des fluctuations non prévues des marchés.
Dans ce chapitre, nous définirons brièvement la maintenance, ses différentes formes, la sur-
veillance des données et les systèmes de prédiction des pannes, mais tout d’abord nous explici-
terons la source de données de ces systèmes, ainsi que les différents traitements nécessaires afin
d’extraire et d’exploiter efficacement ces données dans le processus de prédiction.
Nous aborderons ensuite le deuxième plier de ce chapitre qui est l’intelligence artificielle.
Nous clôturons ce chapitre avec un état de l’art sur l’expansion de la maintenance prédictive
aux aurores de l’intelligence artificielle.
Le monde réel et le monde virtuel grandissent clairement ensemble. Industrie 4.0 est une
sorte de mot à la mode de nos jours, largement discuté entre praticiens et théoriciens, et facilite
la version de « Smart Factory » [Weyer et al., 2015]. Il a été introduit au salon de Hanovre en
2011 en Allemagne pour présenter une nouvelle tendance vers la mise en réseau des industries
traditionnelles. À partir de ce moment, il a été démontré que de nombreux projets et pro-
grammes similaires reflétaient le concept d’industrie 4.0, tels que « Intelligent Manufacturing
system » système de fabrication intelligente et "Smart Manufacturing" fabrication intelligente.
Sur la base de l’analyse de la littérature, la définition générale d’Industrie 4.0 peut être
résumée comme suit : Industrie 4.0 est un terme collectif désignant les technologies et concepts
d’organisation de la chaîne de production [Thuemmler and Bai, 2017]. Le principe de base de
l’Industrie 4.0 est l’application d’IoT et de la fabrication intelligente, qui permet aux compo-
sants et aux machines de production de collecter et de partager des données en temps réel, et
de tirer les meilleurs avantages de ces ressources coûteuses. Industrie 4.0 est la superposition
de plusieurs développements technologiques liés aux systèmes CPS, IOT, IoS et DM. CPS fait
référence à une nouvelle génération de systèmes dotés de capacités informatiques et physiques
intégrées pouvant interagir avec l’humain via de nombreuses nouvelles modalités. La clé est la
capacité d’interagir avec, et d’élargir les capacités du monde physique, par le biais du calcul,
de la communication et du contrôle [Baheti and Gill, 2011]. En outre, Industrie 4.0 facilite le
développement de systèmes de contrôle de production intelligents et flexibles, qui appliquent les
technologies de l’information et de la communication pour que les machines puissent commu-
niquer et interagir. Typiquement, Industrie 4.0 comprend principalement les composants clés
suivants :
• Systèmes cyber-physiques
6
La maintenance prédictive aux aurores de l’Intelligence Artificielle
Nous sommes aux aurores de l’industrie 4.0 où les industriels doivent s’adapter à toutes les
tendances naissantes pour éviter à leurs business une fin tragique. Dans ce contexte, la mainte-
nance constitue le moyen d’assurance le plus répandu entre les éventuels industriels et clients.
Cette dernière a connu un grand nombre d’évolutions au sein du projet 4.0 :
2.2.1 Corrective
l’intervention est effectué après la détection d’une panne entraînant des arrêts de production.
Il s’agit d’une réparation (maintenance curative) ou d’un dépannage (maintenance palliative) :
a Curative :
Elle consiste en la réparation complète de la machine suite à une identification du pro-
blème sans perturbation de la chaîne de production ou de l’utilisation du système ratta-
ché à cette [Link] effet, une maintenance corrective curative visera à remplacer un
/ plusieurs composant(s) défaillant par un / plusieurs composant(s) neuf afin de résoudre
définitivement le problème.
b Palliative :
La maintenance corrective palliative intervient lorsqu’un problème important ou blo-
quant, a été identifié. Ici, l’objectif est de réparer provisoirement le défaut afin de réta-
7
La maintenance prédictive aux aurores de l’Intelligence Artificielle
blir l’utilisation du matériel. Afin d’éviter tout risque futur d’une nouvelle panne, une
opération de maintenance curative est nécessaire. Cette dernière permettra de corri-
ger définitivement le problème par une réparation ou même un changement complet du
matérielle.
2.2.2 Préventive
la maintenance préventive est effectué dans l’intention de réduire la probabilité de défaillance
ou la dégradation du fonctionnement d’un bien (machine). Il peut s’agir d’inspection, de contrôle
ou de visites sur équipements :
a Maintenance programmée :
Maintenance préventive exécutée selon un calendrier préétabli ou selon un nombre défini
d’unités d’usage.
2.2.3 Prédictive
La maintenance prédictive permet de détecter des anomalies sur des machines avant qu’elles
ne deviennent trop graves. La force de la maintenance prédictive est donc d’anticiper les pannes.
Ce qui évite tout arrêt de la chaîne de production ; qui peut engendrer des réparations coûteuses.
Fondée sur l’analyse de données collectées grâce à des capteurs intelligents positionnés sur
l’équipement, elle permet de pousser à bout la logique du « juste à temps » et ainsi d’optimiser
l’usage d’une machine avant de procéder à sa réparation ou à son remplacement, juste avant
qu’une panne ne se produise.
La maintenance prédictive permet de prévoir les incidents techniques plutôt que de les subir.
Grâce à cette stratégie, il est ainsi possible de programmer des interventions que lorsque des
signaux émis par une machine reflètent une panne probable à court terme. C’est donc l’état
réel de l’actif, et non un calendrier théorique, qui déclenche une intervention.
1. L’équipement nécessitant une maintenance est arrêté avant une panne imminente.
8
La maintenance prédictive aux aurores de l’Intelligence Artificielle
Figure 2.2 – Moment d’intervention des différents types de maintenance [[Link] mainte-
[Link], 2019]
9
La maintenance prédictive aux aurores de l’Intelligence Artificielle
10
La maintenance prédictive aux aurores de l’Intelligence Artificielle
approche.
Le processus de la prédiction des pannes à l’aide d’un système expert repose sur des
données statistiques dans le but de prédire une panne d’un actif (composant / machine).
Comme défini dans la figure 2.4 le fonctionnement d’un système expert se base sur des «
données » qu’on appelle base des faits et qui seront l’entrée d’un moteur d’inférence, qui
a pour rôle de sélectionner les règles applicables à l’aide d’une base de connaissances.
Le système expert retourne à l’utilisateur le résultat d’inférence (par exemple la panne
estimée).
2. Corrélation :
La corrélation linéaire est un outil mathématique d’aide à la prévision. On parle de
corrélation linéaire entre deux variables lorsqu’on constate un lien entre elles (si l’une
augmente l’autre aussi et inversement). Le coefficient de corrélation linéaire entre deux
attributs A et B se calcul de la manière suivante :
Tel que :
11
La maintenance prédictive aux aurores de l’Intelligence Artificielle
• n : le nombre de tuples.
• A et B : Moyenne de fréquence de l’attribut A et B, respectivement.
• δAetδB : déviation standard de A et B (la racine carré de la variance), respective-
ment :
On constate que dans la 2.5a les points sont éparpillés : il n’y a aucune relation évidente
entre les deux attributs. Contrairement à la 2.5b qui représente un nuage de point dense
qui permet, en effet, de dresser une droite regroupant un maximum de points : dans ce
cas les prévisions seront plus fiables.
Nous leur consacrerons donc cette section. Nous aborderons des généralités sur cette disci-
pline et exposerons quelques techniques liées à la prédiction citées dans ce rapport.
1. Apprentissage automatique :
12
La maintenance prédictive aux aurores de l’Intelligence Artificielle
L’Apprentissage Automatique est applicable à tous les domaines, pour des tâches simples
ou complexes, afin d’améliorer les résultats grâce à l’expé[Link] peut citer le do-
maine industriel (routage de paquets, contrôle et maintenance de machines, etc.), les
jeux (Backgammon, Échecs, etc.) ou même le domaine d’imagerie médicale (reconnais-
sance d’objets) [Mitchell, 1997]. Le but même de l’Apprentissage Automatique est la
prédiction de nouvelles données à partir d’un historique appris.
• Supervisé : Quand le système apprend à classer les données selon un modèle ; on parle
alors d’Apprentissage Supervisé. Un algorithme d’Apprentissage Supervisé analyse
la base de données et apprend à classifier les données en se basant sur leurs caracté-
ristiques. Il consiste donc à prédire l’étiquette (classe) d’une nouvelle donnée.
• Semi-supervisé : Lorsque les données contiennent des données étiquetées et non éti-
queté[Link] combinaison des deux algorithmes (supervisé et non supervisé) est ef-
fectuée. Il est mis en œuvre dans le cas de manque de données ou d’étiquettes.
13
La maintenance prédictive aux aurores de l’Intelligence Artificielle
et l’erreur de test est trop grande. Autrement dit, le programme retourne de bons
résultats sur les données d’apprentissage mais n’est malheureusement pas aussi per-
formant (voir pas du tout performant) sur les données qu’il n’a pas encore rencontrées
(ensemble de test). Les paramètres appris ne permettent pas une généralisation effi-
cace.
a. Régression Linéaire
Le modèle de régression linéaire désigne un modèle qui cherche à établir une rela-
tion linéaire entre une variable, dite expliquée, et une ou plusieurs variables, dites
explicatives. Autrement dit, il consiste à rechercher la droite permettant d’expliquer
le comportement d’une variable statistique Y comme étant une fonction affine d’une
autre variable statistique X :
Où :
* Yi, Xi sont fixes et i représente l’erreur.
14
La maintenance prédictive aux aurores de l’Intelligence Artificielle
Le principe de fonctionnement est assez simple, chaque neurone ayant comme entrée
un vecteur X le multiplie par un vecteur de poids W. Le résultat de cette opération
est, par la suite, injecté comme entrée dans une fonction d’activation F. On pourra
noter le résultat comme ci :
* seuil avec un résultat binaire : exemple si f σ >0.5 alors output=1, sinon output=0,
* à Sigmoïde
* à tangent hyperbolique
Il existe divers types de réseaux de neurones : les réseaux de neurones multicouches
(MLP) utilisant la rétro propagation du gradient de l’erreur, mais aussi d’autres types
de réseaux encore plus efficaces tels que les réseaux de neurones récurrents LSTM
(Long Short-Term Memory) et les réseaux de neurones convolutifs.
15
La maintenance prédictive aux aurores de l’Intelligence Artificielle
f. Random Forest
Random Forest ou forêts d’arbres décisionnels aléatoires est une technique d’Ap-
prentissage Automatique. L’algorithme des forêts d’arbres décisionnels effectue un
apprentissage(régression ou classification) sur de multiples arbres de décision ; en-
traînés sur des sous-ensembles de données légèrement différents.
L’algorithme se repose sur l’apprentissage par arbre de décision, il se procède comme
suit :
16
La maintenance prédictive aux aurores de l’Intelligence Artificielle
Les SVM reposent sur deux concepts : la marge maximale et la fonction noyau per-
mettant ainsi de traiter les problèmes linéaires et non linéaires. La marge maximale
permet de trouver la frontière séparatrice optimale des données à partir d’un en-
semble d’apprentissage. Quant aux données non séparables linéairement, on utilise la
fonction noyau qui utilise l’hypothèse qu’une probable séparation linéaire existe dans
un plan dimensionnel plus grand et donc transforme les données en des données de
plus grande dimensionnalité (peut arriver jusqu’à une dimensionnalité infinie) [chang
Chih-Chung and Chih-Jen, 2013].
Il existe plusieurs variations d’optimisation pour les algorithmes SVM selon le pro-
blème, pour la classification, C-SVM et V-SVM sont les plus utilisés, on peut y
ajouter le one-class SVM. Pour la régression, nous retrouvons SVR (epsilon SVR) et
V-SVR (Simple VectorRegression). Ces divers algorithmes diffèrent principalement
de par leurs fonctions de calcul d’erreur.
Cette section nous a permis d’introduire l’Intelligence Artificielle et ses différentes méthodes
et algorithmes qui sont utilisés pour l’exploitation des données dans l’industrie et notamment
la maintenance prédictive. Dans ce qui suit, nous présenterons quelques travaux récents que
nous avons jugés pertinents par rapport à leurs approches et leurs résultats.
Le système expert convient aux problèmes généralement résolus par des spécialistes hu-
mains. Cependant, il est difficile d’obtenir des connaissances sur le domaine et de les convertir
17
La maintenance prédictive aux aurores de l’Intelligence Artificielle
en règles. Dès lors, un système expert n’a pas la capacité de gérer de nouvelles situations qui
ne peuvent pas être converties explicitement dans les bases de connaissances. En outre, lorsque
le nombre de règles augmente considérablement, la situation peut provoquer une "explosion
combinatoire", qui implique des problèmes de calcul.
Citant par exemple [Courtois and Delsarte, 2003] qui ont fait une analyse basée sur un
modèle constitué de scénarios réalistes, avec des statistiques faibles obtenus en général par des
simulations. C’est donc une approche qui vise à prédire le comportement réel d’une installa-
tion, erreurs humaines comprises. Cette analyse présente en contrepartie des limites vis-à-vis
des incertitudes qui sont toujours associées aux statistiques manipulées notamment.
Dans un contexte probabiliste, [Celeux et al., 2006] proposent l’utilisation des Modèles Gra-
phiques Probabilistes Markoviens MGPM qui sont des outils plus génériques, basés notamment
sur des modèles graphiques permettant la représentation des systèmes plus complexes à l’aide
des chaîne de Markov. Ce cadre de travail offre en effet un formalisme puissant et intuitif en
matière de modélisation ainsi qu’un ensemble d’outils d’analyse adaptés à l’évaluation de poli-
tiques de maintenance prédictive :
Soient X l’ensemble des états du système et A l’ensemble des actions de maintenance. L’en-
semble A est partitionné tel que : A = Ax Ax Où Ax et A
x représentent respectivement l’ensemble des actions laissant le système invariant et celui des
actions affectant le système.
Plus récemment, [Ayadi, 2013] dans le cadre de sa thèse, intitulée « Optimisation des po-
litiques de maintenance préventive dans un cadre de modélisation par modèles graphiques
probabilistes. », propose un modèle probabiliste graphique appliqué à un problème réel de
maintenance de la voie ferroviaire. Cette approche se concentre sur l’analyse de dégradation de
la voie ferroviaire avec une temporisation des données à l’aide des chaînes de Markov. [Ayadi,
2013] a conclu que malgré la limitation imposée par les chaînes de Markov, qui exigent obli-
gatoirement une loi de temps de séjour de type exponentielle mais la solution s’adapte tout à
fait à la formalisation des relations de dépendance entre les différents composants d’un système
complexe évoluant au cours du temps.
En revanche, ces travaux nécessitent toujours une grande période d’analyse et d’interpré-
tation des résultats et ne fournissent aucune solution algorithmique générale aux problèmes
d’inférence soulevés, et de s’auto-adaptation avec de nouvelles situations.
18
La maintenance prédictive aux aurores de l’Intelligence Artificielle
Le système a été testé sur un exemple réel du secteur, en développant la collecte de don-
nées et l’analyse de système de données, en appliquant l’approche Machine Learning et en la
comparant à l’analyse d’outil de simulation. Les données ont été collectées par divers capteurs,
automates machine et protocoles de communication et mises à la disposition de Data Analysis
Tool sur l’architecture Azure Cloud pour la phase de visualisation. Ils ont conclu que mal-
gré un taux de précision de 65% sur la prévision des pannes les modèles statistiques étaient
moins performants que les réseaux de neurones qui ont plafonné une précision de 95%. Ils ont
expliqué que cela était principalement dû au fait que les relations entre les données requises
des capteurs et les pannes sont non linéaires, ainsi que des erreurs contenues dans les données,
sachant que les réseaux de neurones sont plus robustes aux erreurs que les méthodes statistiques.
La question d’interprétabilité est très importante car les opérateurs ne veulent pas travailler
avec des outils de type boite noire ; ils doivent pouvoir interpréter facilement les informations
fournies par les algorithmes de surveillance, notamment parce qu’il leur appartient de valider
le résultat.
[RABENORO et al., 2015] s’est basé dans un premier temps sur l ’exploitation du savoir
expert à plusieurs niveaux : la détermination des variables d’intérêt, la suppression des effets
de contexte, l’identification des signatures ou des axes de projection des données, la prise de
décision. Ensuite, une phase apprentissage automatique a été mise en œuvre avec l’algorithme
Random Forest (les forêts d’arbres aléatoires) avec une précision de 97%. Les résultats fournis
par la méthodologie peuvent être très bons, mais malgré cela, les opérateurs métier ont besoin
de comprendre comment la décision a été prise, afin d’être en mesure de confirmer ou non une
décision difficile à prendre. C’est d’ailleurs pour cette raison que, le choix de la visualisation
ainsi que la sélection d’indicateurs, avec un classifieur bayésien naïf, sont des étapes nécessaires
pour que l’opérateur prenne confiance en la méthodologie et surtout remédier au problème
d’haute interprétabilité.
[WANG et al., 2017] dans cet article, les auteurs proposent la méthode de prédiction DES-
SVM une solution hybride basé sur SVM et DES (lissage exponentiel double). Les résultats
expérimentaux ont démontré que le DES-SVM avait une précision élevée (95%) dans la prévi-
sion des défaillances des équipements optiques. Par conséquent, il est possible de sauvegarder
et de basculer les services sur des liaisons sûres. Il peut ainsi protéger le réseau contre la perte
de données.
Pour des soucis vis-à-vis l’environnement de travail (CPU : ARM Cortex Texas instruments
32 bits avec 8 Go de stockage) nous avons étudié quelques articles qui tournent autour l’implé-
mentation des techniques d’apprentissage automatique (Machine learning) et d’apprentissage
profond ( Deep learning) dans un environnement peu performant / embarqué : [Vanhoucke
et al., 2011] ont conçu un papier qui sert comme tutorial pour les étudiants et les chercheurs,
montrant des techniques qui peuvent être utilisées pour optimiser le coût de calcul considérable
dans l’absence d’un GPU.
19
La maintenance prédictive aux aurores de l’Intelligence Artificielle
Pour cela, ils ont pris la reconnaissance de la parole comme exemple de leurs études (avec
un benchmark de 440 inputs, Intel Xeon DP Quad Core E5640 et Ubuntu OS). Cet article
montre que des techniques simples peuvent améliorer considérablement les performances des
algorithmes d’apprentissage (HMM/réseaux de neurones). Les opérations SIMD à point fixe
récemment introduites sont particulièrement intéressantes dans les processeurs x86 qui font
pencher la balance des performances en faveur de l’arithmétique en virgule fixe.
Ils ont montré qu’en utilisant ces instructions plus rapides, il était possible de construire
un système de reconnaissance vocale en temps réel à l’aide d’un très grand réseau hybride sans
coût en précision.
Ces articles présentés ne sont certainement pas les seuls qui abordent la maintenance pré-
dictive. Néanmoins ils nous permettent de tirer quelques conclusions :
- L’approche classique est limitée aux accidents engendrés par des défaillances aléatoires.
Ceci suppose le bienfondé de la conception basée sur l’approche IA.
- L’analyse des actions humaines est très difficile et aucune approche pertinente n’a encore
été définie pour les erreurs de réalisation (commission error).
- La relation entre les attributs décrivant les caractéristiques des machines et les dysfonc-
tionnements probables ne sont pas linéaires. De ce fait, les algorithmes non-linéaires
donnent de meilleurs résultats que les algorithmes linéaires.
- Nous n’avons pas trouver de travaux liés à la maintenance prédictive des onduleurs.
- Les résultats sont fortement dépendants du niveau de connaissances et limités par ce
dernier. Ils changent donc lorsque les connaissances évoluent.
- Les algorithmes de prédiction qui ont donné les meilleurs taux de précision sont SVM,
réseau de neurones (MLR) et Random Forest.
- Les réseaux de neurones et SVM sont plus interprétables par rapport aux forêts d’arbres
aléatoires (Random Forest).
- Les modèles en vogue aujourd’hui sont les SVM et random forests. Ils s’accommodent
des variables discrètes ou continues et des valeurs manquantes. Ce n’est pas le cas des
réseaux de neurones qui sont un peu passés de mode même si ceux-ci reviennent sur le
devant de la scène avec les Deep Neural Network.
- La fourniture d’une stratégie de maintenance prédictive est entraîne de devenir indis-
pensable dans les usines futur
Conclusion
Ce chapitre nous aura donné l’occasion de faire une présentation des données industrielles :
sources des données, types des données et les différentes techniques de prétraitement et d’in-
terprétations des données. Nous avons ainsi, présenté des notions de base de la maintenance
prédictive et plus particulièrement l’analyse prédictive qui est utilisées pour ce faire. Nous
avons, par la même occasion, introduit les différents technique de maintenance prédictive à
savoir (l’approche statistique et l’approches basée machine Learning).
Enfin, nous avons illustré notre chapitre par des travaux antérieurs qui utilisent ces tech-
niques dans le domaine de la maintenance prédictive.
20
CHAPITRE 3
CONCEPTION
Dans ce chapitre nous aborderons la partie conceptuelle de notre travail : nous présenterons
la source exploitée pour la collecte des données, les étapes de collecte et de prétraitements
effectués, les méthodologies d’apprentissage et d’évaluation de la précision de notre solution,
ainsi que le processus de détection de panne.
Figure 3.1 – Schéma récapitulatif des étapes de conception l’outil de prédiction de panne
Ainsi, nous avons en premier recensé les bases de données de l’entreprise pour choisir les
données les plus pertinentes. Nous avons ensuite établi un schéma d’extraction des données
remontées par les onduleurs. Une fois les données acquises, nous sommes passées à la phase
de prétraitement, étape très importante dans le but d’améliorer au maximum la qualité des
données, pour une qualité d’apprentissage optimale. L’étape suivante est la phase d’appren-
tissage, nous avons choisi un apprentissage à deux phases, la première consiste en l’utilisation
des données structurées brutes uniquement ; la seconde est un raffinement avec l’exploitation
Conception
d’autre source de données (tickets maintenance/ERP). Une fois le modèle prédictif inféré, la
dernière étape était de concevoir l’outil prédictif.
Dans un future proche, cette application servira comme outil de visualisations innovantes à
destination des métiers (opérateurs, gestionnaires de parc, spécialistes systèmes).
Afin d’extraire ces données nous avons construit un aspirateur de données. La structure glo-
bale des données étant quasiment identiques, il s’agit de collecter les données structurées/semi-
structurées stockées dans les bases de données de l’entreprise, ERP et les tickets de maintenance.
Nous avons donc suivi le même cheminement pour construire l’aspirateur de données pour les
différentes catégories de pannes. Le pseudo code suivant explique le procédé :
22
Conception
Les données remontées par l’onduleur révèlent des informations sur son état global, ses
configurations, et l’historique des panne :
NB : La prise écran étant floue pour des soucis de RGPD (Règlement général sur la protec-
tion des données).
23
Conception
i. Enterprise Ressource Planning (ERP) : Il s’agit d’un logiciel de gestion qui permet à
l’entreprise d’intégrer différentes fonctionnalités nécessaires pour le bon fonctionnement
de cette dernière, comme la gestion des stocks, de paie et de comptabilité.
à IMEON Energy, l’ERP regroupe toutes les informations :
[Link] Normalisation
La normalisation consiste à projeter des données dans un intervalle bien précis. Dans le
cas des données onduleurs, nous avons choisi de convertir les attributs qui peuvent atteindre
des grandes valeurs comme par exemple : les tensions des panneaux solaires, les puissances des
composants onduleurs,etc afin d’éliminer les grandes écarts de ces valeurs.
Une seule base de données monitoring est utilisée pour stockées toutes les données peu
importe le type d’onduleur. En effet, des standard (règles) d’enregistrement des données
sont mises en place pour créer automatiser ce processus, on peut citer l’exemple de :
l’attribut « voltage des panneaux solaires » : englobe 2 valeurs séparées par virgule dans
le cas d’un IMEON 9.12, mais qu’une seule valeur pour la gamme IMEON 3.6. Nous
avons séparé les deux attributs pour pouvoir les exploiter chacun à part dans la phase
d’apprentissage. Ils existent d’autres attributs qui sont enregistré au format JSON, nous
avons procédé de la même manière pour segmenter ces données.
• Cohérence des données :
Le nettoyage des données vise à éliminer toutes les données considérées comme inutiles
de l’ensemble de données de départ. En effet, une quantité non négligeable des données
24
Conception
sont générées par des onduleurs du test interne à l’entreprise, ce qui rajoute du bruit à
notre ensemble de données vu que la majorités des pannes sont provoquées dans le but
de faire des contrôle qualité, des tests ou même pour des raison de maintenance.
Nous avons donc éliminer toutes ces données incohérentes.
La saisie d’un formulaire est probablement l’étape la plus délicate sur un site web. C’est à
ce stade que de nombreux clients hésitent, se trompent et parfois abandonnent. L’ergonomie
de l’interface joue un rôle clé dans l’accompagnement du client dans sa saisie et l’encourage à
poursuivre son chemin. Il est envisageable de proposer une validation automatique des formu-
laires.
Cette proposition sera importante dès que le concepteur définit comme « Obligatoire » le
remplissage d’un certain nombre de champs. La validation automatique des champs de saisie se
justifie également quand le contenu d’un champ doit respecter une mise en forme particulière :
type, valeurs, etc. Enfin, elle est nécessaire lorsque le site doit vérifier la disponibilité d’une in-
formation pertinente, par exemple le type de l’onduleur ou certaines configuration, pour valider
une entrée.
• Champs vide
• Bruit
Lors de la phase de visualisation des données nous avons constaté que nos données
contiennent beaucoup de bruit. Une donnée aberrante (bruit) est une valeur ou une
observation qui est "distante" des autres observations effectuées sur le même phénomène.
25
Conception
Dans ce qui suit, nous présenterons un exemple de certaines données aberrantes qui la
date de la première production de l’installation solaire. Cette date est renseignée par le
client :
Pour remédier à ce problème, nous avons exploiter d’autre source de données pour extraire
de l’information ; comme les données disponible sur l’ERP pour extraire le type d’onduleur et
les données remontées par l’onduleur pour corriger la date de la première production.
a. Réduction de la dimensionnalité
La sélection d’attributs consiste à choisir parmi un ensemble d’attribut, un sous-ensemble
d’attributs intéressants pour le problème étudié.
Notre approche consiste à étudier la corrélation des attributs avec le code erreur afin de
mieux sélectionner le sous ensemble d’apprentissage.
26
Conception
L’état de l’art nous a permis de dégager les trois algorithmes d’apprentissage automatique
qui enregistrent les taux de précision les plus élevés dans le domaine de l’analyse prédictive :
Random Forest, MLR et SVM. Dans notre approche d’analyse prédictive des erreurs, nous
comparerons l’efficacité de ces trois algorithmes avec troix différents catégories d’erreur : On-
duleurs, batteries et panneaux photo voltaïque.
Nous avons choisi de faire un apprentissage à deux phases dans une première étape nous
inférons un modèle d’apprentissage qui est basé sur l’exploitation des données qui reflètent des
informations générales sur l’onduleur. La seconde étape concerne l’exploitation des données
enregistré avant et au moment de l’erreur, nous rajoutons ainsi à nos données des informations
extraites de l’ERP et les ticket de maintenance dans le but d’améliorer la précision de notre
modèle inféré lors de la première étape.
Les attributs structurés sur lesquels va porter la première phase d’apprentissage sont : type
d’onduleur, version linux, version software, version firmware, type batterie, le mode utilisé, des
spécifications relatives à l’utilisation d’onduleur ( la tension maximale autorisé, l’autorisation
d’injection dans le réseau,...) et d’autres informations plus générales comme le pays d’installa-
tion, le mode de connectiveté...,etc. Avec le code erreur comme valeur de sortie à apprendre. La
deuxième phase concerne l’ajout de nouveaux attributs constitués après l’exploitation d’autre
source comme expliqué précédemment :
Dans cette catégorie, nous avons établi une liste d’attributs à rajouter. Il s’agit de l’en-
semble des signes transmises par l’onduleur, avant et au moment de la panne : tension de sortie
27
Conception
alternative, tension d’entrée des panneaux solairs, le mode d’injection au moment de la panne,
la disponibilité de batterie ou pas, ...etc.
Nous avons exploiter ainsi, une liste des codes d’avertissements (warnings) qui est génerée
par un module interne à l’onduleur "Timeline". Ce dernier a pour mission de contrôler la bonne
utilisation de l’onduleur, en respectant les spécifications et les consignes d’usage ; si une anomalie
est détecté, ce même module informe l’utilisateur en lui indiquant le code d’avertissement et
des recommandations pour corriger la situation.
28
Conception
Conclusion
Dans ce chapitre, nous avons exposé toute la phase de conception de notre travail. Nous
avons expliqué tous nos choix et détaillé toute la phase de prétraitement de données. Enfin,
nous avons présenté la conception générale de notre outil d’analyse prédictive.
29
CHAPITRE 4
IMPLÉMENTATION ET RÉSULTATS
Dans le chapitre précédent nous avons abordé toute la phase de conception de notre travail,
ainsi que la partie préparation des données.
4.1 Implémentation
Dans ce qui suit nous présenterons tous les outils que nous avons utilisés afin de mettre en
œuvre notre application de prédiction des pannes.
Notre apprentissage a été exécuté sur un serveur interne possédant un processeur Intel(R)
Xeon(R) CPU 4 cores, 8 logical Processors de 8Go de RAM, sous Windows 7 dans une version
de 64 bits.
Psycopg 2 est principalement implémenté en C en tant que wrapper libpq, ce qui permet
d’être à la fois efficace et sécurisé. Il comporte des curseurs côté client et côté serveur, une
communication et des notifications asynchrones et une prise en charge de COPY. De nombreux
types Python sont pris en charge immédiatement et adaptés aux types de données PostgreSQL
correspondants ; l’adaptation peut être étendue et personnalisée grâce à un système d’adapta-
tion d’objets flexibles.
Nous avons créé notre extracteur de données grâce à ce Framework. Son automatisation
permet de parcourir la base de données de production (monitoring) et d’en extraire le contenu
disponibles.
pour se faire, nous avons utilisé la bibliothèque matplotlib afin d’explorer plus en détail
certains attributs des données extraites. Matplotlib est une bibliothèque Python qui permet
de créer des figures principalement statistiques en 2D. Pour manipuler les données nous avons
également utilisé la bibliothèque Pandas qui nous a permis de manipuler les données plus fa-
cilement, grâce à sa structure DataFrame très puissante et légère pour la représentation des
données.
Pour des graphiques innovantes et dynamiques, nous avons utilisé L’API ECharts. C’est un
outil de visualisation JavaScript Open source, qui peut s’exécuter facilement sur un ordinateur
et des appareils mobiles. Il est compatible avec la plupart des navigateurs Web modernes, tels
que IE8, Chrome, Firefox, Safari, etc. ECharts s’appuie sur ZRender, un moteur de rendu gra-
phique, pour créer des graphiques intuitifs, interactifs et hautement personnalisables [Echarts,
2019].
31
Implémentation et résultats
Figure 4.2 – graphique et tableau résumant l’évolution des installation des onduleurs.
b. Statistiques :
Nous avons consacré un partie pour faire des statistiques dédié aux équipes de dévelop-
pements et de maintenances pour visualiser et analyser par la suite les résultats : s’il y
a par exemple une erreur plus fréquente avec un certain type d’onduleur ou certaines
version de software.
32
Implémentation et résultats
33
Implémentation et résultats
Nous avons utilisé Jinja pour faciliter l’affichage des informations dans plusieurs pages, c’est
un moteur de templates écrit en Python. Il est inspiré du moteur Django tout en restant plus
simple dans son utilisation. Jinja charge ce patron et réalise la substitution des champs en
fonction du contexte d’exécution.
Scikit-learn est une librairie python open source et collaborative, permettant de construire
divers méthodes d’apprentissage automatique : classification, régression et clustring. Elle offre
un large choix d’algorithmes [Sckitlearn, 2019b]
Nous avons choisi Scikit-learn, tout d’abord pour la qualité de documentation disponible
sur internet, une communauté très active qui permet le maintien du projet et son développe-
ment. cette Api offre la facilité d’implémentation et de test des divers algorithmes. En effet
Scikit-learn permet avec quelques lignes de code d’utiliser les algorithmes d’apprentissage, ainsi
que de les paramétrer. Scikit-learn est la librairie à utiliser pour des projets sur courte période
et qui mettent l’accent sur les données et le choix des algorithmes.
La raison principale de notre choix de cette api, est la contrainte lié à l’environnement de
test embarqué (onduleur) et la capacité limité de stockage. En effet, nous avons comparer scikit
learn et tensorflow, qui est une bibliothèque open-source de deep learning créée par Google.
Comme le montre la figure 4.7, contrairement à tensorflow, sickit learn ne consomme pas
autant de mémoire.
Discussion : Tensorflow est principalement une bibliothèque dédiée aux deep learning. Elle
nécessite la transformation des données en tensor (sorte de tableau) qui servent comme entrées
des algorithmes d’apprentissage profond ; afin de pouvoir les utiliser avec des accélérateur gra-
phique.
34
Implémentation et résultats
Figure 4.7 – Consommation de mémoire par les deux API d’apprentissage automatique.
Après études et discussion avec les équipes métiers, nous avons opté pour une solution
hybride.
[Link] SVM
Nous avons implémenté Support Vector Machine, avec la fonction RBF. Cette version de
l’algorithme nous donne la possibilité de paramétrer deux caractéristiques C et gamma 1 , qui
1. Pour pouvoir obtenir les valeurs idéales de C et de Gamma nous avons utilisé la méthode GridSearchCV.
35
Implémentation et résultats
nous permettent de régler l’hyper plan de la ligne prédictive des données. La caractéristique C
joue sur la taille de l’hyper plan où se situent les droites de prédiction, pendant que gamma
joue sur la pente de ces droites et améliore la précision. Un trop grand gamma peut mener au
sur-apprentissage, pendant qu’un trop petit peut mener au sous-apprentissage et inversement
pour le C [Sckitlearn, 2019c].
[Link] MLP
Afin de construire le modèle de réseau de neurones le plus optimal, nous avons au début
calculé les coefficients de régression de chaque attribut par rapport au code erreur. Ensuite nous
avons essayé d’inférer plusieurs modèles avec diverses combinaisons de sous-ensembles d’attri-
buts selon leurs importances, en faisant varier le nombre de neurone et la fonction d’activation.
Nous avons fixer le nombre de couches cachées à 1 ; Vu le nombre insuffisant des données pour
passer au deep learning.
R2 = (1 − U/V ) où,
36
Implémentation et résultats
4.2 Résultats
4.2.1 Performances des algorithmes d’apprentissage
Nous avons expliqué dans la partie implémentation, les mesures d’évaluation de nos modèles
inférés. Nous utiliserons ainsi deux mesures, la précision et le taux d’erreurs. Nous présenterons
les performances des trois catégories de pannes séparément, étant donné que ce sont trois
problèmes distincts. Afin de déterminer l’algorithme d’apprentissage le plus efficace pour le
problème de prédiction de panne de chaque catégorie, nous avons implémenter les 3 algorithmes
pour chaque catégorie.
Tableau 4.2 – Tableau comparatif des résultats de l’apprentissage sur des données des erreurs
onduleurs
Analyse :
Dans le tableau 4.2 sont en effet représentés les précisions et taux d’erreurs moyens des
données de test des meilleurs modèles inférés. Il n’est pas à préciser que l’algorithme SVM est
celui qui enregistre la précision la plus haute et le taux d’erreur le plus bas, avec une moyenne
de précision de 96% et un taux d’erreur moyen d’environ 36%. Les deux algorithmes MLP
et RamndomForest ne dépassent pas les 79% de précision, avec une erreur moyen assez élevé
environ 1.53 enregistré par MLP.
37
Implémentation et résultats
Tableau 4.3 – Tableau comparatif des résultats de l’apprentissage sur des données des erreurs
batteries
Analyse :
Dans le tableau 4.3 sont en effet représentés les précisions et taux d’erreurs moyen sur
les données de test des meilleurs modèles inférés concernant les pannes batteries. Dans cette
catégorie l’algorithme RandomForest Classifier est celui qui enregistre la précision la plus haute
et le taux d’erreur le plus bas, avec une moyenne de précision de 92% et un taux d’erreur moyen
d’environ 39%. SVM vient en deuxième position avec un petit écart de 2%.
Tableau 4.4 – Tableau comparatif des résultats de l’apprentissage sur des données des erreurs
PV
Analyse :
Selon le tableau 4.4, SVM a obtenue le meilleur taux de précision avec 90% et un taux
d’erreur bas avec 28%.
Analyse
Nous remarquons que notre modèle prédictif des pannes PV est un peu en dessous de la
moyenne de prédiction des autres modèles, alors que notre modèle prédictif des pannes ondu-
leurs dépasse quelques résultats (2/3).
Nous précisons que nous avons exploité un volume de données plus petit que tous les travaux
déjà existants. En effet, nous avons environs les 150 000 entrées pour la catégorie onduleurs, 24
000 pour les pannes batteries et uniquement 4600 pour les PV ; ce qui explique les résultats.
38
Implémentation et résultats
Tableau 4.5 – Comparaison des précisions de nos modèles prédictifs avec les résultats des travaux
antérieurs
A noter aussi que, pour notre approche, nous avons choisi d’essayer d’inférer un modèle
spécifique pour chaque catégorie ( pannes onduleurs, batterie ou pv).
Chaque module possède sa propre base des données, permettant un stockage permanent des
paramètres et des données.
Nous avons implémenté une version Beta du module prédictif, qui se lance chaque semaine
avec une tâche Cron.
Cette version sera tester au fur est à mesure dans les onduleurs des test, avant d’établir une
version finale du module.
39
Implémentation et résultats
Conclusion
Dans ce chapitre nous avons présenté tous les détails relatifs à notre implémentation. Nous
avons présenté nos résultats, et avons fait une étude comparative de ces derniers entre eux
et avec les résultats des travaux antérieurs. Enfin, nous avons présenté en général nos modèls
prédictifs, ce qui nous permet ainsi de clôturer notre travail.
40
CONCLUSION GÉNÉRALE ET PERSPECTIVES
Dans ce contexte, IMEON Energy, le leader français de la fabrication des onduleurs intelli-
gents connectés, opte pour un projet de maintenance prédictive de la gamme onduleur IMEON.
Le fruit de notre travail se positionne dans cet écosystème en expansion. Nous nous sommes
penchées sur l’exploitation des données des industrielles dans le but de réaliser un outil de
prédiction des pannes basée sur des algorithme d’apprentissage automatique. Grâce à ces algo-
rithmes et dans le cadre de la maintenance prédictive, le coûts de maintenance et arrêts non
programmés perturbant la production devraient être significativement réduits.
Ce mémoire a été réalisé dans le but de présenter toutes les étapes effectuées pour la réa-
lisation de notre projet. Dans un premier temps, nous avons étudié l’environnement actuel et
les tendances du marché industrielle afin de comprendre les besoins actuels.
Ensuite, nous avons effectué un long travail de recherche sur le domaine de la maintenance
prédictive, répertoriant ainsi les différents travaux significatifs et performants. Nous avons pré-
senté également les techniques de prétraitement et d’exploration des données nécessaires.
La phase la plus fastidieuse et la plus longue de notre projet était le prétraitement des
données. En effet, une fois que nous avions collecté les données, nous devions les analyser, nor-
maliser, trier, etc, afin de créer un dataset exploitable qui nous permettrait d’inférer le système
de prédiction le plus précis qui soit. Nous avons ensuite présenté notre approche pour la pré-
diction des pannes, qui nous permet d’exploiter efficacement les données :
Dans un premier temps, nous avons choisi d’effectuer notre apprentissage automatique sur
les données avec trois algorithmes : SVM, MLR et RandomForest. Dans notre approche, nous
avons choisi d’inférer des modèles qui essaient de prédire le code erreur exact, et ainsi, nous
avons choisi d’implémenter une variante de ces algorithmes qui permet d’effectuer des classifi-
cation plutôt qu’une régression.
L’algorithme qui a donné le meilleur taux de précision et le taux d’erreur minimal est le
SVM : 96% de précision et 36% d’erreur pour les erreurs onduleurs.
41
Conclusion générale et perspectives
L’écart des taux précision et d’erreur entre les prédictions des pannes onduleurs, batterie
et PV est lié à la qualité des données exploitées. En effet, bien que d’apparence le problème de
prédiction une panne onduleur ( surcharge, courant de fuite, ...) se veut plus complexe que la
prédiction des autres pannes, néanmoins lors de la phase d’exploration des données, nous avons
remarqué que les données des onduleurs étaient qualitativement bien plus diversifiées que les
autres données.
La dernière étape de notre projet était la réalisation de l’outil prédictif en local, notre outil
offre la possibilité de prédire les pannes avant une semaine..
Nos résultats de prédiction des pannes sont satisfaisants comparés aux résultats des travaux
qui se penchent sur le même sujet de maintenance prédictive.
Nous tenons à rajouter que les taux de précision de nos systèmes prédictifs sont plus que
satisfaisants étant donné que nous essayons de prédire une classe d’erreur réelle avant une se-
maine de son arrivé, ce qui peut laisser une marge d’erreur assez souple par rapport à d’autres
problèmes de prédiction.
Comme tout travail le nôtre peut connaître des améliorations et des extensions. La suite de
ce projet pourrait se faire dans différentes directions :
42
BIBLIOGRAPHIE
43
BIBLIOGRAPHIE
44
BIBLIOGRAPHIE
45
BIBLIOGRAPHIE
46
BIBLIOGRAPHIE
47
BIBLIOGRAPHIE
48
BIBLIOGRAPHIE
49