Cours Diagnostic1
Cours Diagnostic1
Dans cet ordre d’idées, les réseaux de neurones peuvent filtrer le bruit et les perturbations. Ils peuvent
fournir des diagnostics stables, hautement sensibles et économiques des anomalies sans recours aux
types traditionnels de modèles. Une autre caractéristique souhaitable des réseaux neuronaux est que
ces derniers ne nécessitent pas de modèles précis pour atteindre le stade de la décision. Dans une
opération typique, le modèle de processus peut être approximatif et les mesures critiques peuvent être
en mesure d’identifier en interne les relations fonctionnelles qui représentent le processus, filtrer le
bruit, et gérer les corrélations. Bien qu'il existe en la littérature de nombreux exemples de simulations
prometteurs de réseaux neuronaux dédiées au diagnostic de défauts, les applications réelles sont
encore assez rares. Il y a une grande nécessité de mener des enquêtes techniques plus détaillées
concernant l'application des réseaux de neurones dans les installations industrielles réelles, pour
parvenir à une utilisation complète de leurs caractéristiques attrayantes.
En effet, l'un des régimes les plus fréquemment utilisés pour le diagnostic de défauts est le concept à
base de modèle. Son principe est de générer des signaux qui reflètent les incohérences entre un
fonctionnement nominal et défectueux du système. De tels signaux, appelés résidus, sont
généralement calculés en utilisant des méthodes analytiques telles que les observations, les méthodes
d'estimation des paramètres ou des équations de parité. Malheureusement, l'inconvénient commun de
ces approches est qu’elles nécessitent un modèle mathématique précis. Cependant, dans le cas ou les
modèles mathématiques du système diagnostiqué où la complexité d'un système dynamique augmente
et la tâche de la modélisation est très difficile à mettre en œuvre, les modèles analytiques ne peuvent
pas être appliqués ou ne peuvent pas donner des résultats satisfaisants. Dans ces cas, les données de
modèles à base des réseaux de neurones et qui, ensemble, sont floues de par leur combinaison (réseaux
neuro-flous), peuvent être ainsi prises en considération. Au cours des dernières années, une importante
4
Chapitre I
attention a été accordée à l'application des RAN dans la modélisation et l'identification des processus
dynamiques.
A cet effet, le présent chapitre est essentiellement consacré d’abord à l'état de l’art sur les méthodes
de surveillance et de diagnostic des processus industriels, puis à la présentation des concepts de base
liée au diagnostic de défauts, pour ensuite indiquer les origines des anomalies du système
d’entrainement, par le biais d’une étude statistique de répartition des anomalies qui affectent la
machine à induction, et finir notre approche par le choix de la méthode de détection des anomalies à
adopter sur la base des réseaux de neurone.
5
Chapitre I
Les anomalies
es peuvent être de diverses origines : électriques, mécaniques, thermiques,
environnementaux ou même magnétiques. Leurs causes sont multiples et peuvent être classées en trois
groupes [2, 3, 4] :
Les contraintes mécaniques sont élevées, ce qui explique le taux élevé d'échec entraîné par laminage
[5]. Ces défauts nécessitent un entretien mécanique accru.
La répartition des défauts dans les différentes parties du moteur est représenté
représentéee sur la figure qui suit :
6
Chapitre I
La fonction maintenance nécessite de connaître les régimes de fonctionnement des systèmes alors que
la surveillance offre une ample information sur la fonctionnalité des systèmes et sur le déroulement du
processus industriel. Les données requises participent objectivement à une maintenance sûre. Le
diagnostic s’associe à la surveillance en se reliant à la détermination des causes de dysfonctionnement.
La procédure de génération des symptômes est tributaire de la forme prise par cette connaissance. A
titre d’exemple, si le fonctionnement défaillant est mis en évidence par l’apparition de nouvelles raies
spectrales pour la représentation d’une grandeur électrique, un recours à une analyse en traitement de
signal permettra une acquisition des symptômes. Leur mode de traitement dépend de leur type mais
aussi de la forme prise de la connaissance. D’autre part, la classification des méthodes de surveillance
ainsi que le diagnostic se définissent essentiellement selon la forme établie par la connaissance et,
évidemment, en fonction de la stratégie d’analyse appropriée.
Généralement, les défaillances sont déterminées à partir des signaux mesurés en adoptant des
techniques basées sur une approche signal. Ces techniques mettent en considération l’analyse d’une
majeure partie des informations et des données émanant de l’expérience. Les outils de surveillance et
de diagnostic utilisés se rapportent donc au traitement du signal obtenu.
En revanche, une approche « système » à usage courant dans les milieux industriels, prenant appui sur
des techniques heuristiques extraites des résultats de l’expérience et du raisonnement de l’expertise.
Des éléments déterminant pouvant aider à l’expertise dans le sens de la formalisation et de la
quantification des anomalies (analyse de signaux électrique, vibratoire, thermique) mais cette analyse
demeure une affaire de règles et de classification (reconnaissance de forme, système expert..). Ces
méthodes de surveillance nécessitent en définitive une bonne connaissance du système et de ces
composants.
7
Chapitre I
Cependant, plusieurs méthodes ont été développées dans la littérature basée sur les réseaux de
neurones [6], la reconnaissance de formes (RDF) [7], [8], le neuro-flou, les algorithmes génétiques,
l’analyse multi résolutions référée par des représentations temps-fréquence (RTF). Ce mécanisme de
techniques étroitement liées pouvant participer à l’automatisation de la démarche de diagnostic dès
l’acquisition des valeurs mesurées sur plateforme jusqu’à la phase de décision sans recourir à des
interventions d’expertise. Nous détaillons, au niveau des sections suivantes les principales techniques
aidant aux diagnostics des différents types de défaillances.
Par conséquent, la construction générale d’un réseau de neurones dédié pour le diagnostic des signaux
de défaillance de systèmes industriels est, dans la plus part des cas, déterminée par trois couches :
réceptrice, amplificatrice, et émettrice de résultat.
8
Chapitre I
Ainsi, le nombre des cellules d’entrée est assigné au nombre de descripteurs du défaut de système en
test. Tandis que le nombre des unités de sortie coïncide aux K classes. En fait, l’e
l’expression ordinaire
d’un neurone étant la suivante :
𝑦 (𝑡) = 𝑊 𝑥 (𝑡)
Dans le cas du diagnostic automatique, les résultats des applications des RNA sont largement
satisfaisants
sants et ce, en raison de la capacité de globalisation de la technique. Et ce sont les temps
d’apprentissage et la difficulté d’interprétation de la structure des classes qui peuvent constituer des
défauts avec les RNA.C’est pourquoi, concernant l’implémen
l’implémentation
tation d’une technique de classification
pour le diagnostic, une interprétation est presque toujours souhaitable voire obligatoire.
9
Chapitre I
- la RdF qu’on appelle structurelle qui s’aidant des grammaires, est basée sur une représentation des
formes. Comme elle n’a pas été développée comme il se doit, cette approche va être délaissée.
- la RdF appelée statistique dont les formes s’appuient sur une représentation numérique.
Le vecteur forme qui est un vecteur de paramètres a été extrait de chacune des mesures effectuées sur
la machine suite à un diagnostic effectué sur les inconvénients de cette machine dite asynchrone.
En rapport à différents modes de fonctionnement qu’on connaitre avec des imperfections ou sans
défaut, les règles de décisions utilisées vont permettre de ranger les observations que le vecteur forme
sus-cité a décrites.
Cette Stratégie est capable de fournir une classification des caractéristiques avec un très faible rapport
d’erreur. Cependant, ses performances sont guidées par le choix du vecteur forme approprié [8]. La
sélection des paramètres pouvant être dirigée par l’application de l’algorithme génétique tout en
agissant notablement sur la taille de ce vecteur forme sans ignorer les informations de base.
Le paradigme RdF parait donc puissant pour le diagnostique de défauts en s’appuyant sur un
apprentissage non supervisé. Mais, il s’agit d’un système non temps réel (SNTR) par ça nécessité d’un
volume horaire de calcul assez élevé.
Afin de palier à de telles problématiques, nous avons contribué au développement d’un modèle
d’outils hybrides qui s’aligne bien avec le diagnostic en ligne, et qui semble fiable en temps
d’exécution, et en critère de décision en se référant au traitement de la fluctuation du signal du courant
statorique qui réagit avec toute sorte d’anomalie. Ainsi, cette technique se prête bien avec une stratégie
de détection en ligne.
10
Chapitre I
C’est une analyse qui, pour mieux comprendre les nombreux processus et phénomènes, constituerait
un mécanisme majeur quant à la détection et la classification des problèmes d’estimation qui
pourraient surgir.
Ayant comme nom « le principe d’incertitude de Heisenberg », cette limitation principale rejette
n’importe quelle localisation temporelle précise au niveau de sa fréquence.
L’idée de Heisenberg vient pour palier à la limitation des atomes statiques de Gabor connus par la
transformée de Fourier courte terme, en anglais FFT (First Fourier Transformer) qui ne s’adapte pas
bien pour le traitement des signaux très dynamiques. L’approche de Heisenberg ouvre, ainsi, l’horizon
devant une diversité de représentations Temps-Fréquences RTF qui se regroupent sous le nom de
l’analyse multi résolutions, dont on cite l’expression de la classe de Cohen [10].
L’analyse Temps-Fréquence de la classe de Cohen s’appuie essentiellement sur une ondelette noyau
(mère) Ф d’une forme géométrique particulière et qui s’adapte bien pour le traitement des signaux de
même motifs. De nombreux algorithmes de vérification des anomalies et de prise de décision sont
répertoriés dans ce sens [11, 12].
L’analyse d’un signal suivant les dimensions temps fréquence, en se servant d’une fenêtre Ф de lissage
et de filtrage par produit de convolution avec le signal à traiter, offre des espaces d’approximations de
faibles fréquences et des espaces de détails de fréquences élevées. Un choix judicieux des paramètres
de Ф avec une sélection d’une meilleure base de nœuds de décomposition des espaces jusqu’à un
certain niveau de résolution coordonne objectivement à la détermination de la fréquence et de la nature
du défaut [14].
11
Chapitre I
susceptibles. Toutefois, une autre approche d’analyse RTF s’articule autour de la détermination des
facteurs de similarité entre des classes de données identiques montre sa performance en terme du
temps de décision en abordant des applications spécifiques relatives aux signaux de radar, de séisme,
de l’astronomie, de communications et des systèmes optiques, [15].
Pour les premières méthodes, on a constaté qu’elles ont besoin, en premier lieu, d’avoir des
connaissances sur les classes associées aux données et d’entrainement. Les vecteurs qui résument
l’information (individu) agissent en un seul qui doit correspondre aux échantillons du système dont
l’analyse est de détecter les spécifications des classes. C’est bien dans la phase d’apprentissage qui
réside la différence entre ces deux types concernés.
Ainsi, les méthodes situées au sein de la «machine learning » vont permettre des règles de
classification moins difficiles afin que les résultats soient aisément à interpréter. Cela se passe dans le
contexte des méthodes qui se basent sur l’ensemble des données.
L’intervention humaine dans la phase d’entrainement est l’un des objectifs à atteindre par le biais de
ces méthodes [16].
La distribution normale des données se justifie par la grandeur de leur quantité. Elle est réalisée à
travers un discriminant linéaire.
Et quand on sait que l’un des objectifs à atteindre est de réaliser les hyperplans qui sont là pour diviser
les données, surtout lorsque un hyperplan, d’une dimension d qui est égale au nombre de descripteurs,
intersecte le milieu d’une ligne d’unification des centres de chaque classe à travers des traits bien nets.
C’est à partir de la minimisation de l’erreur quadratique de cette classification que l’algorithme essaie
d’avoir des fonctions discriminantes paramétriques en rapport avec hyperplans.
12
Chapitre I
Dés lors, on va, dés le début, connaitre les différents types des données d’entrainement à travers une
technique qui requiert cette action. Des nouvelles données peuvent donc être classées lorsque l’espace
est bien réparti [17, 18].
Différents mesures sont utilisées pour le calcul (à savoir e.g. euclidienne, Mahalabonis, etc…). C’est
en rapport avec la mesure utilisée que la forme géométrique se modifie, à titre d’exemple, la géométrie
des groupes est une hypersphère pour le cas euclidien [20].
Le regroupement de type flou est obtenu grâce au Fuzzy K-Means qui un processus permettant d’avoir
comme résultat la matrice de partition floue (U= [uKN]), une matrice contenant les spécificités de
chaque objet nx à chacun des K classes.
Obtenant des classes de géométrie hyper-ellipsoïdale, dont les axes ne sont pas parallèles aux autres
axes des données et ayant recours à une norme qui s’adapte avec la distance.
GK- Means [21] est un algorithme qui a montré ses performances. En effet, adapter la norme de
distance en fonction de la structure topologique locale de données constitue un réel avantage à travers
le recours au GK Means.
13
Chapitre I
Pour chaque groupe a une matrice de norme induite k A qui permet d’obtenir la norme de distance 2nk
D propre à chaque classe.
La fonction d’activation est non linéaire donnant la possibilité au réseau de la carte SOM d’être un
outil de représentation et de reconnaissance universel. En outre, cet algorithme est non supervisé ; sa
spécificité lui permet de représenter et d’être utilisé dans la reconnaissance d’un très grand volume de
données d’entrée. On présente à la carte SOM des données d’entrée sans savoir les résultats, ce qui
permet d’avoir une représentation d’un plus large volume de données à l’entrée [23]. .
L’algorithme de Kohonen organisant les règles de fonctionnement de la carte SOM est un algorithme
non supervisé qui peut aussi être itératif, auto organisateur et non linéaires; ce qui prouve que la carte
SOM occupe une position très avancée dans le domaine des outils de reconnaissance universels très
puissants des données statiques. Pour le dynamiser et le transformer en une mémoire à temps de
résolution réel, il est nécessaire de lui intégrer la dimension temporelle par effet d’une boucle de
rétroaction. C’est le modèle de SOM Récursif ‘RecSOM’.
Cette méthode fixe des objectifs à atteindre qui sont les suivants :
14
Chapitre I
L’analyse vibratoire peut déceler les éventuels dysfonctionnements et suivre leur évolution er ce, à
partir des vibrations qu’on obtient sur une machine tournantes, afin que la planification ou le
report d’une intervention mécanique [24] soient mieux étudiés.
La première étant par la mesure directe du déplacement des parties tournantes (ou ce qu’on
appelle en d’autres termes : arbres de machines). De par leurs interprétations et leurs applications,
ces mesures sont réalisées grâce à des capteurs à courants de Foucault, mais elles ne seront pas
traitées dans notre cas, car la mise en œuvre de sa technologie est lourde. L’application la plus
suivie est la surveillance de ces machines à paliers hydrauliques (à coin d’huile). Une surveillance
« on line », eu un temps réel d’autant que les déplacements des arbres sont mesurés
continuellement par les capteurs qui en cas de dysfonctionnement autorisent le déclenchement
instantanée des alarmes.
Par évaluation de l’effet de l’accélération sur les parties fixes de la machine (carters).
Il existe une technique qui est très bénéfique tant pour la surveillance on line que pour celle effectuée
périodiquement durant les rondes qui suivent un calendrier préétabli. Grâce à cette technique le
connaisseur en la matière recueille les vibrations que les carters des machines ont déclenchées. En
effet, en ayant recours à un accéléromètre qui est relié à un collecteur de données, c’est ce technicien
qui va agir d’autant que les moyens mis en œuvre sont mieux accessibles à petites structures. Dés lors,
afin d’aboutir une surveillance vibratoire qui soit performante quant à son outil de production,
l’industrie lourde qui utilise les turbomachines recourt souvent à ces types de technologies en raison
de leur performance.
En revanche, une surveillance périodique par mesure sur les parties fixes permet une meilleure analyse
de l’état des machines si ses arbres sont montés sur roulements. Dés l’instant où l’activité est chargée
par un personnel compétent et expérimenté, les objectifs fixés et cités ci-haut, sont largement atteints.
En outre, cette surveillance périodique peut réduire les MPC et quand bien même, ces dernières ne
disposeraient aucunement de compétences internes, elles sous-traiteraient par rapport à leur parc de
machines tournantes [25] la surveillance vibratoire. Les couts de conception et de réalisation, étant,
bien sur, inférieurs à ceux de la technologie qui emploient les capteurs à courant de Foucault.
Deux principales activités sont à signaler :
D’abord la surveillance qui a pour objectif de suivre l’évolution d’une machine par rapport à la
succession des relevés de ses vibrations. Par rapport a des valeurs de référence qui constituent la
signature alerte sur un dysfonctionnement probable, une tendance à la hausse est à observer chez
certains indicateurs. Et c’est à commencer par une première compagne de mesures sur la machine,
qu’elle soit révisée où mesurée, que cette signature est établie.
15
Chapitre I
Ensuite le diagnostic qui permet de désigner l’élément défectueux de la machine suite à une action
anormale de l’évolution des vibrations au cours de la surveillance. Cette activité ne peut se réaliser
qu’avec l’apport d’outils mathématiquement mieux élaborés.
C’est lorsque la surveillance permet la détection d’une anomalie quelconque ou d’une évolution
dangereuse du signal vibratoire que le diagnostic se réalise. Et s’il faut des connaissances mécaniques
à la perfection pour le diagnostic, la surveillance, elle peut être la responsabilité d’un personnel qui
n’est pas obligatoirement qualifié.
Rappelons que les principaux paramètres vibratoires qui peuvent être accessibles selon des mesures
industrielles sont les suivants :
D’abord, les mouvements absolus associant ces rotors aux mouvements des paliers avec les premières
cités.
Puis les mouvements absolus des paliers et carters qu’on peut remarqué présents notamment par le
biais des vélocimétries et des accéléromètres.
Enfin les mouvements (bruits mécaniques et aérohydro-dynamiques) qu’on peut distinguer par des
accéléromètres et des capteurs de types microphonique.
16
Chapitre I
Cette périodicité du suivie des relevés varie de deux semaines à six mois selon l’importance et le cout
des machines. Si les symptômes précoces sont la le justifier, la fréquence pourra bien s’accélérer.
-Par un suivi continu (on-line) qui, comme le précédent, va nous permettre de suivre l’évolution de
l’ensemble des paramètres. Il a également, comme avantage, de détecter ces défauts qui évoluent
rapidement en assurant la sécurité des installations avec le déclenchement de la machine quand elle est
proche d’un seuil dit dangereux.
Dés leur apparition, ce sont les défaillances de type explosif (perte d’ailettes de turbine, perte de
compresseur axial, à titre d’exemple) qui ne sont pas précocement détectables, toutefois, la limitation
des dégâts qui lui sont consécutifs, est assurée par le déclenchement de la machine.
-Par une méthode intermédiaire entre périodique off-line (portable) et continu on-line (fixe). Et la, il
s’agit d’une technique multiplexée câblée sur un bus de terrain propriétaire (250 capteurs sur un
câble). Exploitée sous la dénomination Trend Master 200 et reprise dans le système 1 DSM, cette
méthode est celle qui permet la surveillance, avec une meilleure périodicité, des machines définis
comme étant critiques ou essentielles.
Par la sélection des moyens de traitement qui sont associés aux outils d’acquisition. Pour prévenir et
détecter des défaillances graves et bien connues telles que les détériorations de paliers roulement il
s’avère que certains systèmes d’acquisition et de traitement ne suffisent plus et sont simplistes alors
que, des ensembles complexes sont superflu. C’est pourquoi dit-on le choix est complexe.
17
Chapitre I
données est effectuée ainsi qu’une programmation d’une série de relevés successifs pendant les
tournées (ou routes). C’est dans un PC que ces données sont déchargées avec un logiciel de traitement
et d’exploitation qui va nous permettre de contrôler et suivre l’évolution de l’état mécanique des
machines tout en choisissant des seuils d’alarme pour chacune d’elles. Ce sont des opérateurs
mécaniques qui ont acquis une excellente formation sur les vibrations qui sont les plus habilites à les
utiliser. Des collecteurs analyseurs monovoie avec cette possibilité ou non de faire entrer une voie de
compte tour.
A l’instar des précédents appareils, ces collecteurs sont capables de réaliser des tournées de mesures,
cependant ils peuvent encore offrir des tâches parfaites d’analyses des signaux vibratoires.
En effet, suite à un déchargement dans un PC, les logiciels de traitement et d’exploitation
complémentaires peuvent offrir de nombreuses autres fonctions de présentation des résultats en
facilitant l’élaboration du diagnostic sur l’état mécanique des machines contrôlées et suivies. C’est,
justement pour des fins d’équilibrage in situ des rotors de machines qu’ils sont aussi employés. Ces
appareils sont l’objet d’attention, pour être utilisés dans de meilleures conditions à travers une
formation solide et une très bonne expérience de plusieurs années.
Des collecteurs analyseurs bi voies : programmables pour les tournées de collectes des données, ces
instruments représentent des vrais analyseurs portatifs. Comme ils ont recours à de nombreuses
procédures de traitement des signaux, ils peuvent offrir et garantir toutes les possibilités des appareils
précédentes en usant de gammes d’analyses richement détaillées.
Moniteurs, monovoie dotés de mesure du degré de vibrations des roulements afin de surveiller
leur bruit. Ces moniteurs vont permettre de faire apparaitre l’évolution des niveaux vibratoires ou
acoustiques avec une transmission hertzienne quant-aux informations données, telle que la suppression
des câblages d’instrumentation. Les éléments tournants ou en rapport avec la cavitation sont ainsi
indiqués. Comportant, tours, nombreux niveaux de déclenchement et d’alarmes, ils sont réglables par
les utilisateurs. Ces moniteurs multivoies sont là pour assurer plusieurs fonctions sur nombreux points
de mesure et sur plusieurs machines, de manière simultanée ou en multiplexage, outre, bien sur les
fonctions suscitées.
18
Chapitre I
A cet effet, avec des variantes quant au nombre de voies disponibles et sur certaines formes de
présentation des résultats, les performances et capacités de ces moniteurs sont identiques, concernant
un même catégorie chez différentes fournisseurs. Comme les fonctions pour la surveillance de ces
machines simples (motopompes, moto-ventilateurs, etc …) sont souvent importantes voire critiques,
ce sont les moniteurs mono ou multivoies qui sont utilisés. Et parce que le réglage est simple, ce sont
des opérateurs non spécialistes des vibrations qui les utilisent.
-A travers le suivi des niveaux globaux des vibrations. Un suivi qui se voit associé à des analyses
spectrales et à des logiciels d’une simplicité remarquable quant à la présentation des résultats obtenus
moyennant une surveillance continue de l’évolution des nombreux paramètres vibratoires et de
fonctionnement choisis par les utilisateurs.
Une surveillance qui se trouve associée à une présentation détaillée des résultats et ce, afin de faciliter
au mieux l’interprétation en ayant recours à des logiciels d’aide capables de fournir les informations
nécessaires aux diagnostics bénéficiant généralement de l’expérience des fournisseurs, qui sont
susceptibles d’être plus perfectionnés.
Par conséquent, pour des machines complexes (multi-arbres) ou de prix rehaussé, sans redondance et
souvent montées sur des papiers fluides et dotées de capteurs de déplacement relatif. Pour ces
machines, on ne peut que justifier les systèmes de surveillante les plus complets.
Ce choix est généralement justifié par des systèmes d’équipements vitaux .et c’est justement pour ces
raisons que ces systèmes exigent et demandent impérativement des opérateurs d’une grande et riche
compétence en matière de mécanique des vibrations, ces systèmes fonctionnent par le biais de logiciels
de traitement des données exigent par ailleurs une formation sérieuse pour ces opérateurs afin que les
informations et les connaissances qui leur sont dispensées soient en mesure de perfectionner davantage
leur capacité et leur performance.
La représentation d’un signal peut être indiquée par un nombre infini de RTF (figure I.4). Cependant,
pour l’extraction des primitives d’un signal, il est souvent nécessaire de passer par une RTF optimale.
19
Chapitre I
La représentation d’un spectrogramme nous conduit à la description de la densité d’énergie d’un signal
traité, vue à la fois du côté temporel et du côté fréquentiel. Cependant, le recours à une classification
par représentation RTF permet la distinction du rapport de disparité entre des signaux traités
appartenant à différentes classes [31]. Il est donc to
toujours
ujours souhaitable d’adopter une RTF aboutissant à
une classification optimale par effet de maximisation d’une distance euclidienne entre les classes
(figure I.5).
I.7. CONCLUSION
Dans la majorité des cas étudiés, les techniques conventionnelles de diagnostic qui utilisent la
transformée de Fourier rapide peuvent être suffisantes. Cependant, il s’avère que lorsque le signal à
analyser est non-stationnaire ou cyclostationnaire, il faut adopter d’autres méthodes qui fournissent un
outil plus adapté pour la détection et le diagnostic de défauts. A partir de ces informations, il est alors
possible de développer des méthodes de surveillance et de diagnostic appropriées, sujet du chapitre
trois.
Les réseaux neuronaux artificiels constituent un outil mathématique très puissant pour traiter les
problèmes non linéaires. Ils ont une propriété importante selon laquelle toute relation non-linéaire
continue peut être approchée avec une précision arbitraire en utilisant un réseau de neurones avec des
paramètres d'architecture et de poids appropriés. Leur autre propriété intéressante est la capacité
d'auto-apprentissage où l’on peut extraire les caractéristiques du système à partir des données de
formation historiques en utilisant l'algorithme d'apprentissage, ce qui nécessite une connaissance
préalablement ou non sur le processus.
Chacun des outils, cités ci haut, pour la classification et la détection de défauts, présente des avantages
et des inconvénients. Notre choix se fait sur l’application de la carte neuronique auto-organisatrice
SOM car elle peut être dynamique en rapport avec les variabilités des signaux à diagnostiquer et elle
21
Chapitre I
s’adapte bien avec le traitement en temps réel en fournissant des taux de reconnaissance motivants. De
même, elle est dotée d’une robustesse importante face aux bruits et économe en temps de calcul.
Une importante propriété qui suscite l’intérêt réside dans la faculté des variantes de la carte de
Kohonen de visualiser directement les résultats de clustering comme étant un écran facilement
compréhensible du point de vue géométrique. Cette spécificité a conduit une majorité de chercheurs de
rattacher leurs centres d’intérêt dans l’application et l’amélioration de ce puissant outil.
22