0% ont trouvé ce document utile (0 vote)
244 vues19 pages

Cours Diagnostic1

Ce chapitre présente les concepts de base liés au diagnostic des défauts dans les systèmes industriels. Il décrit les origines communes des anomalies dans les machines à induction et présente diverses méthodes de surveillance et de diagnostic, notamment les approches basées sur les modèles et les signaux. Les réseaux de neurones sont également introduits comme une méthode prometteuse pour la détection des défauts.

Transféré par

Bilel
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
244 vues19 pages

Cours Diagnostic1

Ce chapitre présente les concepts de base liés au diagnostic des défauts dans les systèmes industriels. Il décrit les origines communes des anomalies dans les machines à induction et présente diverses méthodes de surveillance et de diagnostic, notamment les approches basées sur les modèles et les signaux. Les réseaux de neurones sont également introduits comme une méthode prometteuse pour la détection des défauts.

Transféré par

Bilel
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Chapitre I

Diagnostic des systèmes industriels


I.1. INTRODUCTION
La surveillance des processus industriels est une méthode scientifique visant principalement à
détecter, isoler et identifier les anomalies éventuelles des composants, des capteurs et des
actionneurs desdits processus. Le diagnostic précoce des défauts rend possible d'effectuer des
interventions empêchant leurs propagations dans le processus et des arrêts intempestifs de la
production. Ainsi, il permet d'éviter de lourdes pertes économiques et le remplacement d'éléments et
de pièces, entre autres. La plupart des méthodes de la littérature du diagnostic de défaut sont basées sur
la méthodologie linéaire ou sur le modèle exact. Les procédés industriels sont souvent difficiles à
modéliser. Ils sont complexes et pas exactement connus, les mesures sont entachées de bruits et les
capteurs sont peu fiables. Par conséquent, un certain nombre de chercheurs ont utilisé les réseaux
neuronaux artificiels (RNA) comme un moyen de détection des défauts.

Dans cet ordre d’idées, les réseaux de neurones peuvent filtrer le bruit et les perturbations. Ils peuvent
fournir des diagnostics stables, hautement sensibles et économiques des anomalies sans recours aux
types traditionnels de modèles. Une autre caractéristique souhaitable des réseaux neuronaux est que
ces derniers ne nécessitent pas de modèles précis pour atteindre le stade de la décision. Dans une
opération typique, le modèle de processus peut être approximatif et les mesures critiques peuvent être
en mesure d’identifier en interne les relations fonctionnelles qui représentent le processus, filtrer le
bruit, et gérer les corrélations. Bien qu'il existe en la littérature de nombreux exemples de simulations
prometteurs de réseaux neuronaux dédiées au diagnostic de défauts, les applications réelles sont
encore assez rares. Il y a une grande nécessité de mener des enquêtes techniques plus détaillées
concernant l'application des réseaux de neurones dans les installations industrielles réelles, pour
parvenir à une utilisation complète de leurs caractéristiques attrayantes.

En effet, l'un des régimes les plus fréquemment utilisés pour le diagnostic de défauts est le concept à
base de modèle. Son principe est de générer des signaux qui reflètent les incohérences entre un
fonctionnement nominal et défectueux du système. De tels signaux, appelés résidus, sont
généralement calculés en utilisant des méthodes analytiques telles que les observations, les méthodes
d'estimation des paramètres ou des équations de parité. Malheureusement, l'inconvénient commun de
ces approches est qu’elles nécessitent un modèle mathématique précis. Cependant, dans le cas ou les
modèles mathématiques du système diagnostiqué où la complexité d'un système dynamique augmente
et la tâche de la modélisation est très difficile à mettre en œuvre, les modèles analytiques ne peuvent
pas être appliqués ou ne peuvent pas donner des résultats satisfaisants. Dans ces cas, les données de
modèles à base des réseaux de neurones et qui, ensemble, sont floues de par leur combinaison (réseaux
neuro-flous), peuvent être ainsi prises en considération. Au cours des dernières années, une importante

4
Chapitre I

attention a été accordée à l'application des RAN dans la modélisation et l'identification des processus
dynamiques.

A cet effet, le présent chapitre est essentiellement consacré d’abord à l'état de l’art sur les méthodes
de surveillance et de diagnostic des processus industriels, puis à la présentation des concepts de base
liée au diagnostic de défauts, pour ensuite indiquer les origines des anomalies du système
d’entrainement, par le biais d’une étude statistique de répartition des anomalies qui affectent la
machine à induction, et finir notre approche par le choix de la méthode de détection des anomalies à
adopter sur la base des réseaux de neurone.

I.2. CONCEPTS DE BASE LIEE AU DIAGNOSTIC DE DEFAUTS


Concernant l'introduction du diagnostic de défaut en tant que discipline scientifique, il est utile de
fournir quelques définitions de base. Ces définitions, proposées par l'IFAC et par le comité technique
SAFEPROCESS, ont été introduites afin d'unifier la terminologie dans le domaine [1]. Ainsi, on peut
lire :
Anomalie: phénomène qui entraîne un dysfonctionnement des processus industriels;
Défaut : déviation inchangée d'au moins une propriété caractéristique ou variable du système de
comportement acceptable / habitude / standard ;
Echec: interruption permanente de la capacité du système à accomplir une fonction requise dans des
conditions de fonctionnement spécifiées ;
Détection de défauts: détermination instantanée de la manifestation de défauts.
Isolement de défaut: détermination du type, lieu et temps de détection d'un défaut (après la détection
de défauts);
Identification des défauts: détermination de la taille en la variant dans le temps du comportement du
défaut (aprés l'isolement de défaut).
Diagnostic de défauts: détermination de la nature, la taille, l'emplacement et l'heure de détection d'un
défaut (aprés la détection de défaut). Il comprend, à la fois, l'isolement de défaut et d'identification de
défaut;
Dans la littérature, il existe aussi d'autres définitions de diagnostic de défaut. Une définition très
populaire du diagnostic de défaut comprend également la détection.

I.3. ORIGINES DES ANOMALIES DU SYSTEME D’ENTRAINEMENT


Une étude bibliographique ainsi que des enquêtes techniques auprès des établissements industriels tels
que ‘’ la société Générale Industrie du Nord (GINOR), le centre laitier du NORD (Groupe Délice),
Green Panel Technology (GPT), Sumitomo Electrique Bordnetez-Tunisia (SEBN-TN) ‘’ ont permis de
connaitre les origines des défauts qui affectent le système. La figureI.1 suivante l’indique clairement :

5
Chapitre I

Figure I.1 Origines de défauts

I.4. ETUDE STATISTIQUE DE REPARTITION DES ANOMALIES


ALIES QUI AFFECTENT LA MACHINE A
INDUCTION

Les anomalies
es peuvent être de diverses origines : électriques, mécaniques, thermiques,
environnementaux ou même magnétiques. Leurs causes sont multiples et peuvent être classées en trois
groupes [2, 3, 4] :

1) Générateurs de défaillance ou anomalie initiateurs : surchauffement du moteur, défaut


électrique (court- circuit), puissance boost, problème d'isolation électrique, usure des pièces
mécaniques (boule de roulement) et fixations de rupture entre autres…….

2) Défauts amplificateurs : surcharge fréquente, vibra


vibrations
tions mécaniques, environnement humide,
chauffage continu, mauvaise lubrification, vieillissement, etc...

3) Défauts de fabrication et les erreurs humaines : défauts de fabrication, pièces défectueuses,


protections inadéquates, mauvais dimensionnement de lla machine, etc…

Les contraintes mécaniques sont élevées, ce qui explique le taux élevé d'échec entraîné par laminage
[5]. Ces défauts nécessitent un entretien mécanique accru.
La répartition des défauts dans les différentes parties du moteur est représenté
représentéee sur la figure qui suit :

Figure I.2 Répartition des anomalies dans les machines à induction

6
Chapitre I

I.5. METHODES DE SURVEILLANCE ET DE DIAGNOSTIC DES SYSTEMES INDUSTRIELS


Plusieurs approches sont considérées pour effectuer la surveillance et le diagnostic des systèmes
industriels. Citons d’abord, l’approche « modèle » qui est employée pour analyser les paramètres et
les variables des systèmes et pour en caractériser l’évolution en fonction de la présence des anomalies,
par utilisation de méthodes d’estimation paramétrique, de classification ou de reconnaissance des
formes. D’autres études ont porté également sur une approche « signal », en considérant l’analyse et le
traitement de différentes grandeurs mesurables. Ces dernières peuvent être de nature mécanique
(vitesse, couple, vibrations), thermique ou encore électrique (courants, tensions, puissance) [6].

La fonction maintenance nécessite de connaître les régimes de fonctionnement des systèmes alors que
la surveillance offre une ample information sur la fonctionnalité des systèmes et sur le déroulement du
processus industriel. Les données requises participent objectivement à une maintenance sûre. Le
diagnostic s’associe à la surveillance en se reliant à la détermination des causes de dysfonctionnement.

La surveillance et le diagnostic des anomalies nécessitent l’obtention des symptômes caractéristiques


du fonctionnement du système surveillé ainsi que leurs analyses pour en déduire l’état du système.
L’établissement de ces symptômes se fait souvent en référence à la connaissance du comportement
sain dont on dispose.

La procédure de génération des symptômes est tributaire de la forme prise par cette connaissance. A
titre d’exemple, si le fonctionnement défaillant est mis en évidence par l’apparition de nouvelles raies
spectrales pour la représentation d’une grandeur électrique, un recours à une analyse en traitement de
signal permettra une acquisition des symptômes. Leur mode de traitement dépend de leur type mais
aussi de la forme prise de la connaissance. D’autre part, la classification des méthodes de surveillance
ainsi que le diagnostic se définissent essentiellement selon la forme établie par la connaissance et,
évidemment, en fonction de la stratégie d’analyse appropriée.

Généralement, les défaillances sont déterminées à partir des signaux mesurés en adoptant des
techniques basées sur une approche signal. Ces techniques mettent en considération l’analyse d’une
majeure partie des informations et des données émanant de l’expérience. Les outils de surveillance et
de diagnostic utilisés se rapportent donc au traitement du signal obtenu.

En revanche, une approche « système » à usage courant dans les milieux industriels, prenant appui sur
des techniques heuristiques extraites des résultats de l’expérience et du raisonnement de l’expertise.
Des éléments déterminant pouvant aider à l’expertise dans le sens de la formalisation et de la
quantification des anomalies (analyse de signaux électrique, vibratoire, thermique) mais cette analyse
demeure une affaire de règles et de classification (reconnaissance de forme, système expert..). Ces
méthodes de surveillance nécessitent en définitive une bonne connaissance du système et de ces
composants.

7
Chapitre I

I.5.1. METHODES FONDEES SUR L’ APPROCHE SYSTEME


La surveillance des systèmes industriels est souvent basée sur les méthodes dites « Système » qui
reposent sur une connaissance du comportement du système sain et défaillant, c’est-à-dire sur l’effet
d’un défaut en rapport avec les variables mesurées. On parle alors de l’exploitation des paramètres
issus de l’approche signal. Ces paramètres constituent à juste titre, une signature caractéristique du
défaut. Ils nécessitent une base d’apprentissage intégrant des signatures du système dans ses différents
modes de fonctionnement. Pour cela, tout nouveau point détecté sera vérifié avec les points de la base
de fonctionnement enregistrée.

Cependant, plusieurs méthodes ont été développées dans la littérature basée sur les réseaux de
neurones [6], la reconnaissance de formes (RDF) [7], [8], le neuro-flou, les algorithmes génétiques,
l’analyse multi résolutions référée par des représentations temps-fréquence (RTF). Ce mécanisme de
techniques étroitement liées pouvant participer à l’automatisation de la démarche de diagnostic dès
l’acquisition des valeurs mesurées sur plateforme jusqu’à la phase de décision sans recourir à des
interventions d’expertise. Nous détaillons, au niveau des sections suivantes les principales techniques
aidant aux diagnostics des différents types de défaillances.

I.5.1.1. RESEAUX DE NEURONES


L’outil neuronique de détection de défauts s’inspire des cellules biologiques. Le réseau de neurones
formels imite bien la faculté de raisonnement logique du cerveau humain en calculant une somme
pondérée des éléments caractérisant un vecteur d’entrée, suivie d’une fonction fitness non linéaire qui
définit le comportement de chaque neurone. Un réseau peut être à une ou plusieurs couches de
neurones en interconnexion. Les neurones de la première couche représentent des capteurs de
caractéristiques des échantillons du signal d’entrée. Celles des couches cachées représentent des filtres
et des amplificateurs des données admises. Celles de la couche de sortie représentent l’état de
reconnaissance (figure I.3). Chacun des types de réseau neuronique obéît à une loi d’apprentissage et à
des règles d’initialisation, de voisinage, d’itération et de mise à jour des poids, le rend performant dans
son application [9].

Par conséquent, la construction générale d’un réseau de neurones dédié pour le diagnostic des signaux
de défaillance de systèmes industriels est, dans la plus part des cas, déterminée par trois couches :
réceptrice, amplificatrice, et émettrice de résultat.

8
Chapitre I

Figure I.3 Architecture Structurelle d’un réseau neuronique ordinaire

Ainsi, le nombre des cellules d’entrée est assigné au nombre de descripteurs du défaut de système en
test. Tandis que le nombre des unités de sortie coïncide aux K classes. En fait, l’e
l’expression ordinaire
d’un neurone étant la suivante :

𝑦 (𝑡) = 𝑊 𝑥 (𝑡)

𝑢 (𝑡) = 𝑓(𝑦 (𝑡))


Les activités réussies du réseau sont, en principe, directement en rapport étroit avec la taille de la
couche cachée.
yi(t) est la situation interne du neur
neurone i et ui(t) est sa situation de sortie.
Les principaux avantages des réseaux de neurones sont:
- La rapidité de conduction des diagnostics en ligne.
- La robustesse du réseau neuronique face aux conditions environnementales adverses.
- Outil performant en règle de décision de l’anomalie.
Par ailleurs, ces réseaux illustrent des inconvénients incontournables [6] :
- Un apprentissage souvent complexe et long.
- Nécessité de lui fournir toutes les primitives possibles menant à des situations de défaillance
défaillance.
- Limitation à un algorithme d’apprentissage précis.
- Limitation de la capacité de mémorisation et de traitement d’un grand volume de données en ligne.

Dans le cas du diagnostic automatique, les résultats des applications des RNA sont largement
satisfaisants
sants et ce, en raison de la capacité de globalisation de la technique. Et ce sont les temps
d’apprentissage et la difficulté d’interprétation de la structure des classes qui peuvent constituer des
défauts avec les RNA.C’est pourquoi, concernant l’implémen
l’implémentation
tation d’une technique de classification
pour le diagnostic, une interprétation est presque toujours souhaitable voire obligatoire.

9
Chapitre I

I.5.1.2. RECONNAISSANCE DE FORME (RDF)


Dans le but de reconnaître des formes (RdF) on a recours, dans cette technique, à un classement des
objets ou formes en faisant une comparaison à des formes- types.

A cet effet, on distingue 2 types de Rdf :

- la RdF qu’on appelle structurelle qui s’aidant des grammaires, est basée sur une représentation des
formes. Comme elle n’a pas été développée comme il se doit, cette approche va être délaissée.

- la RdF appelée statistique dont les formes s’appuient sur une représentation numérique.

Le vecteur forme qui est un vecteur de paramètres a été extrait de chacune des mesures effectuées sur
la machine suite à un diagnostic effectué sur les inconvénients de cette machine dite asynchrone.

C’est une application de la Rfd dont l’auteur est [7].

En rapport à différents modes de fonctionnement qu’on connaitre avec des imperfections ou sans
défaut, les règles de décisions utilisées vont permettre de ranger les observations que le vecteur forme
sus-cité a décrites.

Cette Stratégie est capable de fournir une classification des caractéristiques avec un très faible rapport
d’erreur. Cependant, ses performances sont guidées par le choix du vecteur forme approprié [8]. La
sélection des paramètres pouvant être dirigée par l’application de l’algorithme génétique tout en
agissant notablement sur la taille de ce vecteur forme sans ignorer les informations de base.

Le paradigme RdF parait donc puissant pour le diagnostique de défauts en s’appuyant sur un
apprentissage non supervisé. Mais, il s’agit d’un système non temps réel (SNTR) par ça nécessité d’un
volume horaire de calcul assez élevé.

Afin de palier à de telles problématiques, nous avons contribué au développement d’un modèle
d’outils hybrides qui s’aligne bien avec le diagnostic en ligne, et qui semble fiable en temps
d’exécution, et en critère de décision en se référant au traitement de la fluctuation du signal du courant
statorique qui réagit avec toute sorte d’anomalie. Ainsi, cette technique se prête bien avec une stratégie
de détection en ligne.

I.5.1.3. ANALYSE TEMPS-FREQUENCE : OUTIL PRIVILEGIE DE DETECTION


Si la représentation fréquentielle (transformée de fourrier) n’indique pas nettement ou se situent les
composantes oscillantes multiples, il faut souligner la représentation temporelle, du signal ne donne
pas une meilleure perception. C’est pourquoi il parait des plus normaux de penser que l’analyse temps
ou le signal est représenté comme une fonction conjointe au temps et a la fréquence pourrait bien
surmonter les limites. Cela ne concerne aucunement une fonction en rapport avec le temps et la
fréquence mais bel et bien dans le plan ‘’temps-fréquence’’.

10
Chapitre I

C’est une analyse qui, pour mieux comprendre les nombreux processus et phénomènes, constituerait
un mécanisme majeur quant à la détection et la classification des problèmes d’estimation qui
pourraient surgir.

Confronté donc au problème de la transformation mathématique qui permet de passer du signal


analysé à sa représentation, le temps fréquence se trouve ainsi décrit dans un contenu énergétique à un
instant bien déterminé.

Ayant comme nom « le principe d’incertitude de Heisenberg », cette limitation principale rejette
n’importe quelle localisation temporelle précise au niveau de sa fréquence.

L’idée de Heisenberg vient pour palier à la limitation des atomes statiques de Gabor connus par la
transformée de Fourier courte terme, en anglais FFT (First Fourier Transformer) qui ne s’adapte pas
bien pour le traitement des signaux très dynamiques. L’approche de Heisenberg ouvre, ainsi, l’horizon
devant une diversité de représentations Temps-Fréquences RTF qui se regroupent sous le nom de
l’analyse multi résolutions, dont on cite l’expression de la classe de Cohen [10].

𝑅𝑇𝐹 ∅ (𝑡, 𝑓) = Ф(𝜉, 𝜏)𝐴 (𝜉, 𝜏)𝑒 ( )


𝑑𝜉 𝑑𝜏

L’analyse Temps-Fréquence de la classe de Cohen s’appuie essentiellement sur une ondelette noyau
(mère) Ф d’une forme géométrique particulière et qui s’adapte bien pour le traitement des signaux de
même motifs. De nombreux algorithmes de vérification des anomalies et de prise de décision sont
répertoriés dans ce sens [11, 12].

a) Représentation temps-fréquence à noyau paramétrique

L’analyse d’un signal suivant les dimensions temps fréquence, en se servant d’une fenêtre Ф de lissage
et de filtrage par produit de convolution avec le signal à traiter, offre des espaces d’approximations de
faibles fréquences et des espaces de détails de fréquences élevées. Un choix judicieux des paramètres
de Ф avec une sélection d’une meilleure base de nœuds de décomposition des espaces jusqu’à un
certain niveau de résolution coordonne objectivement à la détermination de la fréquence et de la nature
du défaut [14].

b) Représentation temps-fréquence à noyau non paramétrique

Le calcul de l’entropie et la détermination de l’énergie d’un signal selon un diagramme temps-


fréquence participe efficacement aux travaux de diagnostic et de classification des différents défauts

11
Chapitre I

susceptibles. Toutefois, une autre approche d’analyse RTF s’articule autour de la détermination des
facteurs de similarité entre des classes de données identiques montre sa performance en terme du
temps de décision en abordant des applications spécifiques relatives aux signaux de radar, de séisme,
de l’astronomie, de communications et des systèmes optiques, [15].

I.5.2. METHODES DE PRISES DE DECISION (CLASSIFICATION)


Il existe deux types de méthodes :

- Les méthodes avec un apprentissage qui est supervisé,


- Les méthodes avec un auto-apprentissage.

Pour les premières méthodes, on a constaté qu’elles ont besoin, en premier lieu, d’avoir des
connaissances sur les classes associées aux données et d’entrainement. Les vecteurs qui résument
l’information (individu) agissent en un seul qui doit correspondre aux échantillons du système dont
l’analyse est de détecter les spécifications des classes. C’est bien dans la phase d’apprentissage qui
réside la différence entre ces deux types concernés.

Ainsi, les méthodes situées au sein de la «machine learning » vont permettre des règles de
classification moins difficiles afin que les résultats soient aisément à interpréter. Cela se passe dans le
contexte des méthodes qui se basent sur l’ensemble des données.

L’intervention humaine dans la phase d’entrainement est l’un des objectifs à atteindre par le biais de
ces méthodes [16].

I.5.2.1. DISCRIMINANT LINEAIRE – ACP


L’analyse en composantes principales ACP est une technique d’analyse largement appliquée dans des
applications de détection de défauts. Elle s’agit d’une transformée déduite de la transformée de
Karhunen loève KLT qui permet de décorréler les variables de données articulées d’un signal en des
variables simples, de supprimer la redondance et de choisir les principaux composants, dits axes, les
plus représentatifs du signal. Ce type d’analyse s’adapte bien pour les signaux multi variables tels que
les signaux des processus stochastiques, voire les signaux des systèmes industriels.

La distribution normale des données se justifie par la grandeur de leur quantité. Elle est réalisée à
travers un discriminant linéaire.

Et quand on sait que l’un des objectifs à atteindre est de réaliser les hyperplans qui sont là pour diviser
les données, surtout lorsque un hyperplan, d’une dimension d qui est égale au nombre de descripteurs,
intersecte le milieu d’une ligne d’unification des centres de chaque classe à travers des traits bien nets.

C’est à partir de la minimisation de l’erreur quadratique de cette classification que l’algorithme essaie
d’avoir des fonctions discriminantes paramétriques en rapport avec hyperplans.

12
Chapitre I

Dés lors, on va, dés le début, connaitre les différents types des données d’entrainement à travers une
technique qui requiert cette action. Des nouvelles données peuvent donc être classées lorsque l’espace
est bien réparti [17, 18].

I.5.2.2. LES K PLUS PROCHES VOISINS (K- NEAREST NEIGHBORS)


C’est pourquoi, on estime que c’est justement cette première méthode de classification qui propose
cette analyse de similitude entre les différentes données par l’emploi de la distance existantes entre
elles. Elle n’apporte, en effet, aucun type de distribution de ces données. Et comme chaque objet est
rangé au niveau d’un groupe où apparaissent les K plus proches voisins, le calcul de distance entre
tous les individus se fait par l’algorithme. Ces K dont on a parlé sont, en fait, des individus de ce
nombre de données d’entrainement qui peuvent être d’un ou trois. Cependant cela dépend de
l’application de la distance employée afin de mieux analyser la distance euclidienne [19].

I.5.2.3. METHODES DE COALESCENCE (CLUSTERING)


Cette méthode emploie des algorithmes possédant le nombre de classes comme paramètre d'entrée. Et
si la similarité au sein d’un même groupe semble élevée, elle est, en revanche faible par rapport à ces
classes diverses, car les algorithmes partagent en K groupes tout cet ensemble de N objets. Ils
calculent, en premier lieu, les centres des groupes pour passer, en second lieu, à l’assignement de
chaque élément au centre le plus voisin. Et comme, nous savons que chaque classe est caractérisée par
le centre (ou ce qu’on appelle le prototype) et par ses éléments, c’est ce prototype des classes qui est le
point dans l’espace de dimension d (Rappelons que d correspond au nombre de descripteurs) dans
laquelle est minimale la somme des distances quant aux objets d’un même groupe. A cet effet, parmi
les différentes méthodes basées sur la distance, c’est l’algorithme K- Means qui est le plus connus. La
mesure de similarité employée étant la distance, c’est cet algorithme qui fait séparation de l’espace ;
chaque objet ne se trouvant associé qu’à une seule classe.

Différents mesures sont utilisées pour le calcul (à savoir e.g. euclidienne, Mahalabonis, etc…). C’est
en rapport avec la mesure utilisée que la forme géométrique se modifie, à titre d’exemple, la géométrie
des groupes est une hypersphère pour le cas euclidien [20].

Le regroupement de type flou est obtenu grâce au Fuzzy K-Means qui un processus permettant d’avoir
comme résultat la matrice de partition floue (U= [uKN]), une matrice contenant les spécificités de
chaque objet nx à chacun des K classes.

Obtenant des classes de géométrie hyper-ellipsoïdale, dont les axes ne sont pas parallèles aux autres
axes des données et ayant recours à une norme qui s’adapte avec la distance.

GK- Means [21] est un algorithme qui a montré ses performances. En effet, adapter la norme de
distance en fonction de la structure topologique locale de données constitue un réel avantage à travers
le recours au GK Means.

13
Chapitre I

Pour chaque groupe a une matrice de norme induite k A qui permet d’obtenir la norme de distance 2nk
D propre à chaque classe.

I.5.3. METHODE PAR LA CARTE AUTO-ORGANISATRICE (SOM)


En se basant sur une modélisation par réseaux d’inspiration biologique, Teuvo Kohonen a réalisé une
carte de réseau de neurone particulière appelée SOM (Self Organisation Map). Un réseau de neurones
est constitué d’un ensemble de processeurs élémentaires des neurones reliés les uns aux autres afin
d’échanger des informations au moyen des connexions qui les unissent. La mise en œuvre d’un certain
nombre de neurones formels fonctionnant en parallèle et massivement interconnectés entre eux, leur
donne des capacités d’apprentissage et de prise de décision à la reconnaissance [22]. La fonction
d’activation est généralement non linéaire. Chaque fonction est appropriée à une application bien
définie. On dit que le réseau constitué s’enrichit d’une forme de généralisation suite à son
apprentissage par une base de données bien déterminée.

La fonction d’activation est non linéaire donnant la possibilité au réseau de la carte SOM d’être un
outil de représentation et de reconnaissance universel. En outre, cet algorithme est non supervisé ; sa
spécificité lui permet de représenter et d’être utilisé dans la reconnaissance d’un très grand volume de
données d’entrée. On présente à la carte SOM des données d’entrée sans savoir les résultats, ce qui
permet d’avoir une représentation d’un plus large volume de données à l’entrée [23]. .

L’algorithme de Kohonen organisant les règles de fonctionnement de la carte SOM est un algorithme
non supervisé qui peut aussi être itératif, auto organisateur et non linéaires; ce qui prouve que la carte
SOM occupe une position très avancée dans le domaine des outils de reconnaissance universels très
puissants des données statiques. Pour le dynamiser et le transformer en une mémoire à temps de
résolution réel, il est nécessaire de lui intégrer la dimension temporelle par effet d’une boucle de
rétroaction. C’est le modèle de SOM Récursif ‘RecSOM’.

I.5.4. MÉTHODES DE SURVEILLANCE VIBRATOIRE


Afin de suivre le bon fonctionnement des machines tournantes, on utilise comme moyen et méthode de
surveillance ce qu’on appelle « l’analyse vibratoire ». Le cadre étant cette politique de mieux
maintenir er prévoir tout ce qui a trait à l’outil de production industrielle.

Cette méthode fixe des objectifs à atteindre qui sont les suivants :

- Réduction du nombre d’arrêts sur casse.


- Performance de l’outil de production
- Augmentation de son taux de disponibilité
- Gestion meilleure du stock de pièces détachées, etc…

14
Chapitre I

L’analyse vibratoire peut déceler les éventuels dysfonctionnements et suivre leur évolution er ce, à
partir des vibrations qu’on obtient sur une machine tournantes, afin que la planification ou le
report d’une intervention mécanique [24] soient mieux étudiés.

Pour réaliser cette surveillance vibratoire ou a généralement recours à deux technologies :

 La première étant par la mesure directe du déplacement des parties tournantes (ou ce qu’on
appelle en d’autres termes : arbres de machines). De par leurs interprétations et leurs applications,
ces mesures sont réalisées grâce à des capteurs à courants de Foucault, mais elles ne seront pas
traitées dans notre cas, car la mise en œuvre de sa technologie est lourde. L’application la plus
suivie est la surveillance de ces machines à paliers hydrauliques (à coin d’huile). Une surveillance
« on line », eu un temps réel d’autant que les déplacements des arbres sont mesurés
continuellement par les capteurs qui en cas de dysfonctionnement autorisent le déclenchement
instantanée des alarmes.

 Par évaluation de l’effet de l’accélération sur les parties fixes de la machine (carters).
Il existe une technique qui est très bénéfique tant pour la surveillance on line que pour celle effectuée
périodiquement durant les rondes qui suivent un calendrier préétabli. Grâce à cette technique le
connaisseur en la matière recueille les vibrations que les carters des machines ont déclenchées. En
effet, en ayant recours à un accéléromètre qui est relié à un collecteur de données, c’est ce technicien
qui va agir d’autant que les moyens mis en œuvre sont mieux accessibles à petites structures. Dés lors,
afin d’aboutir une surveillance vibratoire qui soit performante quant à son outil de production,
l’industrie lourde qui utilise les turbomachines recourt souvent à ces types de technologies en raison
de leur performance.
En revanche, une surveillance périodique par mesure sur les parties fixes permet une meilleure analyse
de l’état des machines si ses arbres sont montés sur roulements. Dés l’instant où l’activité est chargée
par un personnel compétent et expérimenté, les objectifs fixés et cités ci-haut, sont largement atteints.
En outre, cette surveillance périodique peut réduire les MPC et quand bien même, ces dernières ne
disposeraient aucunement de compétences internes, elles sous-traiteraient par rapport à leur parc de
machines tournantes [25] la surveillance vibratoire. Les couts de conception et de réalisation, étant,
bien sur, inférieurs à ceux de la technologie qui emploient les capteurs à courant de Foucault.
Deux principales activités sont à signaler :
D’abord la surveillance qui a pour objectif de suivre l’évolution d’une machine par rapport à la
succession des relevés de ses vibrations. Par rapport a des valeurs de référence qui constituent la
signature alerte sur un dysfonctionnement probable, une tendance à la hausse est à observer chez
certains indicateurs. Et c’est à commencer par une première compagne de mesures sur la machine,
qu’elle soit révisée où mesurée, que cette signature est établie.

15
Chapitre I

Ensuite le diagnostic qui permet de désigner l’élément défectueux de la machine suite à une action
anormale de l’évolution des vibrations au cours de la surveillance. Cette activité ne peut se réaliser
qu’avec l’apport d’outils mathématiquement mieux élaborés.
C’est lorsque la surveillance permet la détection d’une anomalie quelconque ou d’une évolution
dangereuse du signal vibratoire que le diagnostic se réalise. Et s’il faut des connaissances mécaniques
à la perfection pour le diagnostic, la surveillance, elle peut être la responsabilité d’un personnel qui
n’est pas obligatoirement qualifié.
Rappelons que les principaux paramètres vibratoires qui peuvent être accessibles selon des mesures
industrielles sont les suivants :
D’abord, les mouvements absolus associant ces rotors aux mouvements des paliers avec les premières
cités.
Puis les mouvements absolus des paliers et carters qu’on peut remarqué présents notamment par le
biais des vélocimétries et des accéléromètres.
Enfin les mouvements (bruits mécaniques et aérohydro-dynamiques) qu’on peut distinguer par des
accéléromètres et des capteurs de types microphonique.

I.5.4.1 Approche sélective


Quand on sait que pour atteindre la mise en place d’une maintenance conditionnelle qu’on associe à
des moyens de surveillance adaptés, il faut impérativement opter pour les choix préalables évoqués
dans notre préambule [26] :
C’est bien la sélection des machines tournantes qui seront à l’origine de la maintenance conditionnelle.
En effet, et afin de mieux hiérarchiser ces choix, c’est la grande importance de ces machines en
rapport avec les critères du bon fonctionnement et surtout de sûreté. Pour justifier cette sélection et la
compéter, ce sont les possibles redondances et moyens de substitution qui sont associés aux
considérations typiquement économiques quant aux coûts directs et indirects qui vont permettre toute
cette maintenance.
C’est encore la sélection des composants et des défaillances potentielles qui nous permettra une
meilleure évaluation de leurs risques ou de leur gravité (AMDEC), pourtant, bien sûr, des
connaissances par retour d’expérience de ces composants et de ces défaillances.
C’est aussi lorsque les symptômes ont identifiés qu’on peut annoncer la défaillance de ces
composants.
Et c’est en optant pour une méthode de surveillance mieux adaptée à la politique de maintenance que
nous pouvons, dans ces cas, distinguer cette méthode et ce :
-Par un suivi périodique (offline) de l’évolution même des paramètres vibratoires accompagné,
généralement, et en même temps par une surveillance d’autres paramètres (analyse de lubrifiant,
performances, appréciations sensorielles, etc…). L’apparition des défauts dont l’évolution est lente
sera, ainsi, détectée.

16
Chapitre I

Cette périodicité du suivie des relevés varie de deux semaines à six mois selon l’importance et le cout
des machines. Si les symptômes précoces sont la le justifier, la fréquence pourra bien s’accélérer.
-Par un suivi continu (on-line) qui, comme le précédent, va nous permettre de suivre l’évolution de
l’ensemble des paramètres. Il a également, comme avantage, de détecter ces défauts qui évoluent
rapidement en assurant la sécurité des installations avec le déclenchement de la machine quand elle est
proche d’un seuil dit dangereux.
Dés leur apparition, ce sont les défaillances de type explosif (perte d’ailettes de turbine, perte de
compresseur axial, à titre d’exemple) qui ne sont pas précocement détectables, toutefois, la limitation
des dégâts qui lui sont consécutifs, est assurée par le déclenchement de la machine.
-Par une méthode intermédiaire entre périodique off-line (portable) et continu on-line (fixe). Et la, il
s’agit d’une technique multiplexée câblée sur un bus de terrain propriétaire (250 capteurs sur un
câble). Exploitée sous la dénomination Trend Master 200 et reprise dans le système 1 DSM, cette
méthode est celle qui permet la surveillance, avec une meilleure périodicité, des machines définis
comme étant critiques ou essentielles.
Par la sélection des moyens de traitement qui sont associés aux outils d’acquisition. Pour prévenir et
détecter des défaillances graves et bien connues telles que les détériorations de paliers roulement il
s’avère que certains systèmes d’acquisition et de traitement ne suffisent plus et sont simplistes alors
que, des ensembles complexes sont superflu. C’est pourquoi dit-on le choix est complexe.

I.5.4.2. Description des moyens de surveillance périodique (Off- Line)


Il est impératif que des matériels portatifs soient l’œuvre pour que la surveillance périodique des
systèmes industriels soit meilleure.
Ces matériels comprennent essentiellement [27] :
- Des contrôleurs de roulements qui surveillent de l’état de vieillissement des roulements à
billes et à rouleaux. Ces contrôleurs sont dotés d’un indicateur lecture directe afin d’effectuer des
graduations quant à la détérioration des roulements. Et c’est en mesures ponctuelles que leur
utilisation est accomplie, du moment que ce sont des opérateurs mécaniciens non spécialistes des
vibrations qui ont la tache de les utiliser.
- Des contrôleurs de roulements et de vibration comprenant, à coté de la fonction citée ci-haut,
cette capacité de mesurer l’amplitude globale des vibrations.
Si quelques uns de ces contrôleurs sont à lecture directe pour la ponctualité de leurs mesures,
d’autres, par contre, sont raccordés à un PC, d’une manière différée, afin de suivre les mises en
alarmes lorsqu’on utilise des logiciels qui sont importants pour le suivi et le recueil des informations.
Ce sont des opérateurs mécaniciens non spécialistes de vibration qui les utilisent mais après avoir reçu
la formation de base quant au sujet de vibrations mécaniques.
Des collecteurs de roulements et de vibrations qui, partant, en général, des niveaux globaux de
vibrations assurent, comme il se doit, ces fonctions mentionnées ci-faut. Une mémorisation des

17
Chapitre I

données est effectuée ainsi qu’une programmation d’une série de relevés successifs pendant les
tournées (ou routes). C’est dans un PC que ces données sont déchargées avec un logiciel de traitement
et d’exploitation qui va nous permettre de contrôler et suivre l’évolution de l’état mécanique des
machines tout en choisissant des seuils d’alarme pour chacune d’elles. Ce sont des opérateurs
mécaniques qui ont acquis une excellente formation sur les vibrations qui sont les plus habilites à les
utiliser. Des collecteurs analyseurs monovoie avec cette possibilité ou non de faire entrer une voie de
compte tour.
A l’instar des précédents appareils, ces collecteurs sont capables de réaliser des tournées de mesures,
cependant ils peuvent encore offrir des tâches parfaites d’analyses des signaux vibratoires.
En effet, suite à un déchargement dans un PC, les logiciels de traitement et d’exploitation
complémentaires peuvent offrir de nombreuses autres fonctions de présentation des résultats en
facilitant l’élaboration du diagnostic sur l’état mécanique des machines contrôlées et suivies. C’est,
justement pour des fins d’équilibrage in situ des rotors de machines qu’ils sont aussi employés. Ces
appareils sont l’objet d’attention, pour être utilisés dans de meilleures conditions à travers une
formation solide et une très bonne expérience de plusieurs années.
Des collecteurs analyseurs bi voies : programmables pour les tournées de collectes des données, ces
instruments représentent des vrais analyseurs portatifs. Comme ils ont recours à de nombreuses
procédures de traitement des signaux, ils peuvent offrir et garantir toutes les possibilités des appareils
précédentes en usant de gammes d’analyses richement détaillées.

I.5.4.3. Description des moyens de surveillance continue (on- line ) :

La réalisation de la surveillance continue s’accomplit à partir de systèmes d’acquisitions et de


traitement plus ou moins complexes et où les capteurs sont montés sur les machines dans une position
poste fixe. Ainsi, les indications qui sont associés sont placées dans une salle de contrôle ou un local
purement technique. Les informations et les alarmes affichées sur les tableaux ou sur les écrans de
conduite de l’installation seront reportées, car les matériels qui sont à la disponibilité peuvent être
munis de [28] :

Moniteurs, monovoie dotés de mesure du degré de vibrations des roulements afin de surveiller
leur bruit. Ces moniteurs vont permettre de faire apparaitre l’évolution des niveaux vibratoires ou
acoustiques avec une transmission hertzienne quant-aux informations données, telle que la suppression
des câblages d’instrumentation. Les éléments tournants ou en rapport avec la cavitation sont ainsi
indiqués. Comportant, tours, nombreux niveaux de déclenchement et d’alarmes, ils sont réglables par
les utilisateurs. Ces moniteurs multivoies sont là pour assurer plusieurs fonctions sur nombreux points
de mesure et sur plusieurs machines, de manière simultanée ou en multiplexage, outre, bien sur les
fonctions suscitées.

18
Chapitre I

A cet effet, avec des variantes quant au nombre de voies disponibles et sur certaines formes de
présentation des résultats, les performances et capacités de ces moniteurs sont identiques, concernant
un même catégorie chez différentes fournisseurs. Comme les fonctions pour la surveillance de ces
machines simples (motopompes, moto-ventilateurs, etc …) sont souvent importantes voire critiques,
ce sont les moniteurs mono ou multivoies qui sont utilisés. Et parce que le réglage est simple, ce sont
des opérateurs non spécialistes des vibrations qui les utilisent.

Ce système de surveillance multivoies et multifonctions peut couvrir un large domaine de capacités et


de performances :

-A travers le suivi des niveaux globaux des vibrations. Un suivi qui se voit associé à des analyses
spectrales et à des logiciels d’une simplicité remarquable quant à la présentation des résultats obtenus
moyennant une surveillance continue de l’évolution des nombreux paramètres vibratoires et de
fonctionnement choisis par les utilisateurs.

Une surveillance qui se trouve associée à une présentation détaillée des résultats et ce, afin de faciliter
au mieux l’interprétation en ayant recours à des logiciels d’aide capables de fournir les informations
nécessaires aux diagnostics bénéficiant généralement de l’expérience des fournisseurs, qui sont
susceptibles d’être plus perfectionnés.

Par conséquent, pour des machines complexes (multi-arbres) ou de prix rehaussé, sans redondance et
souvent montées sur des papiers fluides et dotées de capteurs de déplacement relatif. Pour ces
machines, on ne peut que justifier les systèmes de surveillante les plus complets.

Ce choix est généralement justifié par des systèmes d’équipements vitaux .et c’est justement pour ces
raisons que ces systèmes exigent et demandent impérativement des opérateurs d’une grande et riche
compétence en matière de mécanique des vibrations, ces systèmes fonctionnent par le biais de logiciels
de traitement des données exigent par ailleurs une formation sérieuse pour ces opérateurs afin que les
informations et les connaissances qui leur sont dispensées soient en mesure de perfectionner davantage
leur capacité et leur performance.

I.6. METHODE DE CLASSIFICATION

I.6.1. L’ANALYSE TEMPS-FREQUENCE EN CLASSIFICATION DE DEFAUTS


Le traitement d’un signal dans le domaine temps-fréquence en se servant des spectrogrammes permet
de localiser les zones de l’énergie du signal utile. Cette démarche prenant appui sur la RTF permet
aussi d’agir sur le temps de calcul. La RTF peut être optimisé par un noyau approprié, une RFT qui
peut être directement classifiée sans réduction de sa dimension [29].

La représentation d’un signal peut être indiquée par un nombre infini de RTF (figure I.4). Cependant,
pour l’extraction des primitives d’un signal, il est souvent nécessaire de passer par une RTF optimale.

19
Chapitre I

A titre d’exemple, le spectrogramme (une des R


RTF
TF très utilisée), n'est pas optimal en termes de
classification de signaux [30].

Figure I.4 : Représentation d’un signal par un nombre infini de RTF

La représentation d’un spectrogramme nous conduit à la description de la densité d’énergie d’un signal
traité, vue à la fois du côté temporel et du côté fréquentiel. Cependant, le recours à une classification
par représentation RTF permet la distinction du rapport de disparité entre des signaux traités
appartenant à différentes classes [31]. Il est donc to
toujours
ujours souhaitable d’adopter une RTF aboutissant à
une classification optimale par effet de maximisation d’une distance euclidienne entre les classes
(figure I.5).

Figure I.5 : Modèle de classification des signaux par RTF


20
Chapitre I

I.6.2. METHODE DE DEPENDANCE DE LA CLASSE DU SIGNAL


Cet outil de RTF ne nécessite aucune connaissance prédéfinie des paramètres d’une fenêtre de base
dite noyau. Dans ce cas, la démarche à suivre s’appui sur l’extraction de caractéristiques et la
classification. Les caractéristiques récoltées à partir du signal en considération servent pour
l’alimentation du classifieur. La classification s’effectue par calcul d’une distance euclidienne entre
chaque vecteur de caractéristiques d’un signal accueilli avec les différents vecteurs de primitives des
différentes classes de signaux enregistrés au niveau d’une base de données par apprentissage [32].
Ainsi un choix judicieux d’un noyau de filtrage de forme géométrique adéquate à celle du signal à
traiter optimise la RTF et améliore le taux de classification.

I.6.3. PHASE DE DECISION


Tout outil de classification que se soit à base neuronique, génétique, RTF, statistique probabilistique
HMM et GMM ou autres, nécessite un algorithme d’apprentissage pour les signaux de référence à
sauvegarder. Plus cette base est diversifiée en types d’échantillons, en tenant considération de toutes
les conditions, plus la phase de test et de vérification des échantillons d’entée est généralisée. Ainsi,
une meilleure comparaison conduira à une décision juste.

I.7. CONCLUSION
Dans la majorité des cas étudiés, les techniques conventionnelles de diagnostic qui utilisent la
transformée de Fourier rapide peuvent être suffisantes. Cependant, il s’avère que lorsque le signal à
analyser est non-stationnaire ou cyclostationnaire, il faut adopter d’autres méthodes qui fournissent un
outil plus adapté pour la détection et le diagnostic de défauts. A partir de ces informations, il est alors
possible de développer des méthodes de surveillance et de diagnostic appropriées, sujet du chapitre
trois.

Les réseaux neuronaux artificiels constituent un outil mathématique très puissant pour traiter les
problèmes non linéaires. Ils ont une propriété importante selon laquelle toute relation non-linéaire
continue peut être approchée avec une précision arbitraire en utilisant un réseau de neurones avec des
paramètres d'architecture et de poids appropriés. Leur autre propriété intéressante est la capacité
d'auto-apprentissage où l’on peut extraire les caractéristiques du système à partir des données de
formation historiques en utilisant l'algorithme d'apprentissage, ce qui nécessite une connaissance
préalablement ou non sur le processus.

Chacun des outils, cités ci haut, pour la classification et la détection de défauts, présente des avantages
et des inconvénients. Notre choix se fait sur l’application de la carte neuronique auto-organisatrice
SOM car elle peut être dynamique en rapport avec les variabilités des signaux à diagnostiquer et elle

21
Chapitre I

s’adapte bien avec le traitement en temps réel en fournissant des taux de reconnaissance motivants. De
même, elle est dotée d’une robustesse importante face aux bruits et économe en temps de calcul.

Une importante propriété qui suscite l’intérêt réside dans la faculté des variantes de la carte de
Kohonen de visualiser directement les résultats de clustering comme étant un écran facilement
compréhensible du point de vue géométrique. Cette spécificité a conduit une majorité de chercheurs de
rattacher leurs centres d’intérêt dans l’application et l’amélioration de ce puissant outil.

22

Vous aimerez peut-être aussi