0% ont trouvé ce document utile (0 vote)
101 vues72 pages

Commande Adaptative des Systèmes Non Linéaires

Ce mémoire présente des schémas de commande adaptative neuronale pour des systèmes non linéaires monovariables et multivariables non affines. La commande adaptative neuronale utilise des réseaux de neurones d'ordre supérieur pour approximer la dynamique incertaine des systèmes dans le cas d'une approche indirecte, et pour approximer des lois de commande stabilisatrices inconnues dans le cas d'une approche directe. L'analyse de stabilité des structures de commande proposées est effectuée avec l'approche de Lyapunov.

Transféré par

Kader Hachem
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
101 vues72 pages

Commande Adaptative des Systèmes Non Linéaires

Ce mémoire présente des schémas de commande adaptative neuronale pour des systèmes non linéaires monovariables et multivariables non affines. La commande adaptative neuronale utilise des réseaux de neurones d'ordre supérieur pour approximer la dynamique incertaine des systèmes dans le cas d'une approche indirecte, et pour approximer des lois de commande stabilisatrices inconnues dans le cas d'une approche directe. L'analyse de stabilité des structures de commande proposées est effectuée avec l'approche de Lyapunov.

Transféré par

Kader Hachem
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

REPUBLIQUE ALGERIENNE DEMOCRATIQUE ET POPULAIRE

MINISTERE DE L’ENSEIGNEMENT SUPERIEUR


ET DE LA RECHERCHE SCIENTIFIQUE

UNIVERSITE CONSTANTINE 1
FACULTE DES SCIENCES DE LA TECHNOLOGIE
DEPARTEMENT D’ELECTRONIQUE
NO d'ordre : ………

Série : ………

MEMOIRE
Présenté pour obtenir le Diplôme de Magistère en
ELECTRONIQUE
Spécialité : Contrôle des Systèmes
THEME :

Sur La Commande Adaptative des Systèmes Non Linéaires :


Approche Basée sur La Stabilité de Lyapunov

PAR

ZERARI NASSIRA
Soutenu le 26 / 11 / 2014
Devant le Jury :

Président : Chaabi Abdelhafid Prof. Université Constantine 1

Rapporteur : Chemachema Mohamed M.C. Université Constantine 1

Examinateurs : Belarbi khaled Prof. Ecole National Polytechnique


Constantine

Bououden Sofiane M.C. Université de Khenchela


Remerciements

En tout premier lieu, notre profonde gratitude est envers notre créateur, le tout
puissant, qui nous a spécifiés de l’intelligence pour bien croire à sa majesté.
Nous tenons à remercier profondément notre promoteur M.CHEMACHEMA
pour son encadrement de haut niveau, ses précieux conseils et ses critiques
constructives et pertinentes.
J’exprime ma plus profonde gratitude à Monsieur le président de jury A. Chaabi,
Professeur à l’université de Constantine 1 d’avoir bien voulu juger ce travail et
d’avoir bien voulu accepter la présidence de ce jury.
J’adresse également mes sincères remerciements aux membres de jury d’avoir
accepté la lourde tâche d’être examinateurs et qui me font l’honneur de jouer ce
rôle important de ma mémoire. Je remercie particulièrement Monsieur K. Belarbi
professeur à l’Ecole Nationale Polytechnique de Constantine je n’oublierai jamais
ses aides appréciables, ainsi que Monsieur S. Bououden, Maître de conférences à
l’université de Khenchela qui viennent de loin et qui ont accepté immédiatement de
faire partie de ce Jury
Que tous mes amis et collègues trouvent ici le témoignage de mon amitié et de ma
reconnaissance.
Enfin, je ne saurais terminer ce remerciement sans remercier toute ma famille, qui
m’a accompagné tout au long de mes études par son amour inconditionnel et son
soutien constant.

ii
Table des matières

Remerciements…………………………………………………………………………………..i
Table des matières……………………………………………………………………………….ii
Résumé……………………………………………………………………………………….…iv
Abstract……………………………………………………………………………………..……v
‫……………………………………………………………………………………………ملخص‬.....vi

Introduction Générale…………………………………………………...........….................
......... 1
CHAPITRE 1.Les Réseaux de Neurones…………………………………..........……… 4
1.1. Introduction ………………………………………………………….………….......…….. 5
1.2. Réseaux de Neurones Artificiels ………………………………………………………… 5
1.3. L‟approximation universelle par réseaux de neurones d‟ordre supérieur HONN………....…6
1.3.1. Topologie du réseau HONN ………………………………………………….....…. 6
1.3.2. Apprentissage des Réseaux de Neurone……………….....……..…………………... 7
1.3.2.1 Algorithmes d‟ajustement.…………………………………………………….. 7
1.3.3. Théorème de l‟approximation universelle….………..…………… ……………….. 9
1.4. Conclusion…………………………………………………………………………............ 10
CHAPITRE 2 .La Commande Adaptative Neuronale pour une Classe de Système
Non Linéaire Monovariables Non-affine……………………………………….. 11
2.1. Introduction………………………………………………………………………………….12
2.2. La Transformation Du Système Non Linéaire……..…………..….………………………...13
2.2.1. Position du problème …………………………………………………………….......13
2.2.2. Représentation entrée-sortie …………………………………………………….….14
2.2.3. La commande Système de linéairisante ………………………………………...........19
2.3. Commande adaptative indirecte neuronale ………………….………………………….......21
2.3.1. Conception de la commande neuronale……………………………………………....21
2.3.2. Analyse de stabilité ……………………………………………………..……………24
2.3.3. Résultats de simulation ………………………….…………………………………..28
2.4. Commande adaptative directe neuronale ………………….…………………………….…31

iii
2.4.1. Conception de la commande neuronale……………………………………………...31
2.4.2. Analyse de stabilité ……………………………………………………………… 32
2.4.3. Résultats de simulation ………………………….……………………………….. 37
2.5. Conclusion…………………………………………………………………………………. 40
Chapitre 3. La Commande Adaptative Neuronale pour une Classe de Système
Non Linéaire Multivariables Non affine……………………………………….41
3.1. Introduction………………………………………………………………………............... 42
3.2. La Transformation du système non Linéaire MIMO ……..………..………………………43
3.2.1. Position du problème ……………………………………………………………....... 43
3.2.2. Conception de la commande neuronale…………………………………………….. 48
3.2.3. Analyse de stabilité ………………………………………………………………… 50
3.3. Résultats de simulation ………………………….……………………………………….. 52
3.3.1. Exemple 1………………………………………………………………………..… 52
3.3.2. Exemple 2 ……………………………………………………………………..…… 54
3.4 Conclusion…………………………………………………………………………………. 57
Conclusion générale…………………………………………….….…………........................ 59
Bibliographie………..…………………………………………………..................................... 61

iv
Résumé

La commande adaptative neuronale peut être définie comme une méthode de contrôle
robuste, dans laquelle les systèmes neuronaux sont utilisés pour approximer la dynamique
du système où certains de ses paramètres sont adaptés en ligne afin de garantir la stabilité
du système en boucle fermée .L‟objectif principal de ce mémoire est de développer des lois
de commande adaptatives neuronales stables pour réaliser la poursuite des certaines
classes de systèmes non linéaires SISO et MIMO non affines en la commande. Pour ce
faire, nous avons exploité en premier lieu le théorème de la fonction implicite pour montrer
l‟existence du contrôleur idéal inconnu. Ensuite, nous avons utilisé le développement en
série de Taylor autour du contrôleur idéal pour transforme le modèle non affine en un
modèle affine. A base de ce résultat nous avons proposé et développé des schémas de
commande adaptative directe et indirecte pour une classe de systèmes non linéaires
monovariables et multivariables, Le point commun entre les approches proposées est
l‟utilisation des systèmes neuronaux d‟ordre supérieure HONN pour approcher en ligne les
dynamiques incertaines des systèmes dans le cas des approches indirectes, et pour
approcher des lois de commande stabilisatrices inconnues dans le cas des approches
directes. De plus, l‟analyse de la stabilité et de la robustesse des structures de commande
proposées est effectuée par l‟approche de Lyapunov. Pour chaque structure de commande
proposée, des résultats de simulation sont présentés pour montrer ses performances.
Mots Clés :
Réseau de neurones (HONN), commande adaptative neuronale, théorème de la fonction
implicite, systèmes non linéaires non affines.

v
Abstract

Adaptive neural networks control can be defined as a method of robust control, in which
neural networks systems are used to approximate unknown functions, some of the system
parameters are adapted online to ensure the stability of the closed loop system. The main
objective In this thesis, An adaptive neural networks control approach is developed and
proposed for a class of single-input single-output (SISO), and multi-input multi-output
(MIMO) nonaffine nonlinear dynamic. Based on the implicit function theory, the
existence of an ideal controller, that can achieve control objectives, is firstly shown. Then,
Taylor series expansion is employed to transfer the normal nonlinear system into the
standard affine form in the neighborhood of the ideal. Based on this elegant result , we
have proposed adaptive neural controller direct and indirect for a class of single-input
single-output (SISO) nonlinear systems, and multi-input multi-output (MIMO) nonlinear
systems, The common feature between all developed adaptive controllers is the use of
neural networks systems, that are updated on-line, with the purpose of producing
approximations of the system‟s dynamics, in some cases (indirect methods), or of some
unknown stabilizing controllers, in others (direct methods). In addition, stability and
robustness analysis of the proposed control schemes are performed by using the Lyapunov
synthesis method, and for each scheme, simulation results are given to highlight its
performance.
Key words:
Neural network (HONN), adaptive control neuronal, implicit function theorem, nonlinear
non affine Systems.

vi
‫ملخص‬

‫التحكم التالؤمي العصبي يمكن تعريفه كوسيلة من وسائل التحكم القوية‪ ،‬والتي تستخدم الشبكة‬
‫العصبية لتقريب دوال غير معروفة‪ ,‬أين يتم تكييف وسائط النظام لضمان استقرار النظام في حلقة‬
‫مغلقة ‪ .‬الهدف الرئيسي لهذه األطروحة هو وضع قوانين التحكم التالؤمي العصبي لتحقيق استمرار‬
‫مستقر من فئات معينة من األنظمة غير الخطية أحادية المدخل و المخرج و األنظمة غير الخطية‬
‫متعددة المداخل و المخارج حيث التحكم يظهر بصورة غير خطية‪ .‬من أجل ذلك‪ ،‬استخدمنا نظرية‬
‫الدالة الضمنية إلظهار وجود الم تحكم المثالي الضمني‪ .‬بعد ذلك‪ ،‬أدخلنا سلسلة تايلور حول التحكم‬
‫المثالي الضمني حيث التحكم يظهر بصورة غير خطية من أجل تحويله إلى نموذج حيث التحكم يظهر‬
‫بصورة خطية‪ .‬باالعتماد على هذه النتائج‪ ,‬قمنا بتطوير واقتراح مخططات التحكم التالؤمي المباشر‬
‫وغير المباشر لألنظمة الديناميكية الالخطية أحادية ومتعددة المداخل والمخارج‪ ،‬القاسم المشترك بين‬
‫طرق التحكم المدروسة يتمثل في استعمال الشبكة العصبية من نوع الدرجة المرتفعة كممثل عام‬
‫للدوال المجهولة من أجل الحصول على تمثيل للمعادلة الديناميكية للنظام الالخطي في بعض الحاالت‬
‫)الطريقة غير المباشرة( من أجل الحصول على تمثيل لقانون تحكم مثالي مجهول في الحاالت األخرى )‬
‫الطريقة المباشرة ( ‪,‬باإلضافة إلى هذا‪ ،‬استعملنا طريقة ليابونوف لدراسة استقرار ومتانة طرق التحكم‬
‫التالؤمي المقترحة وقدمنا بعض نتائج المحاكاة العددية إلبراز كفاءة أدائها‪.‬‬
‫كلمات مفتاحیة‪:‬‬
‫العصبي ذات الدرجة المرتفعة ‪ ،‬نظرية الدالة الضمنية‪ ،‬األنظمة غير الخطية‬
‫ة‬ ‫تحكم تالؤمي‪ ،‬الشبكة‬
‫حيث التحكم يظهر في صورة غير خطية‪ ،‬استقرار ليابونوف‪.‬‬

‫‪vii‬‬
Introduction générale

Introduction Générale

Depuis quelques années, les recherches sur la commande et l'automatisation industrielle se


sont multipliées. Différentes structures de linéarisation ont été proposées pour résoudre le
problème de la commande des systèmes non-linéaires. Contrairement à l‟automatique linéaire,
l‟automatique non linéaire ne dispose pas de solutions universelles ni pour l‟analyse des
systèmes ni pour la conception de leurs contrôleurs. La plupart des approches de commande
non linéaires exigent la connaissance d‟un modèle mathématique du système. Les
performances assurées seront directement liées à l‟exactitude du modèle utilisé.
Les techniques de la linéarisation du premier ordre sont utilisées pour linéariser les
systèmes non linéaires autour d‟un point d‟opération. Etant donné que c‟est la première
technique qui a été introduite pour la commande des systèmes non linéaire, elle a trouvé une
large acceptation dans le monde industriel. Par ailleurs cette solution reste, cependant valable
uniquement autour de ce point d‟opération, car il est difficile de prédire l‟effet de la non
linéarités si on s‟éloigne de ce point.
Sur le plan théorique, ce problème a été résolu par le développement de techniques de
commande non linéaire basées sur la théorie de la géométrie différentielle. L‟idée principale
derrière cette théorie est de trouver une transformation non linéaire des états du système par
lesquelles une classe des systèmes non linéaires peut être transformée en systèmes linéaires à
travers le retour d‟état, connu sous l‟appellation anglophone feedback linearization. Cette
approche a souvent été employée pour résoudre des problèmes pratiques de commande mais
elle impose que le vecteur d'état soit mesuré et que le modèle du procédé à commander soit
précis. De plus, les propriétés de robustesse ne sont pas garanties face aux incertitudes
paramétriques du modèle. En effet, cette technique est basée sur l'annulation exacte des
termes non linéaires. Par conséquent, la présence d'incertitudes de modélisation sur les termes
non linéaires rend l'annulation inexacte et l'équation entrée-sortie résultante non linéaire.

1
Introduction générale

A ce stade, et afin de pallier à ces problèmes décrits précédemment, la commande


adaptative des systèmes non linéaires trouve un grand essor et elle est la voie de recherche de
plusieurs travaux. Une des approches les plus intéressantes consiste à utiliser les réseaux de
neurones artificiels, RNA, associés à un mécanisme d‟adaptation. L‟idée principale est
d‟utiliser ces réseaux pour approcher la dynamique du système ou pour approximer le
contrôleur. En plus, Le système neuronale a la capacité d‟approximer n‟importe quelle
dynamique non linéaire avec un dégrée de précision arbitraire. Les RNA à base de
perceptrons multicouches, Multi Layer Perceptrons, MLP, et les fonctions radiales de base
RBF, et les réseaux de neurones d‟ordre supérieure HONN, ont trouvé une large acceptation
dans le domaine de la commande adaptative des systèmes non linéaires.
Un grand nombre de travaux sont disponibles sur la commande adaptative neuronale pour
les systèmes affines en la commande, contrairement aux systèmes non-affines c'est-à-dire des
systèmes caractérisés par des entrées de commande qui n‟apparaissent pas linéairement dans
l'équation d'état du système. En raison du manque d'outils mathématiques pour les systèmes
non-affines par rapport aux systèmes affines, la linéarisation par rétroaction utilisé pour de
nombreux systèmes affines n'est pas directement applicable aux systèmes non affine. La
conception de commande adaptative neuronale pour les systèmes non affines est basée sur le
théorème de fonction implicite pour montrer l‟existence d‟une loi de commande idéale. Afin
de simplifier le développement de loi de commande qui approxime la loi idéale, le théorème
de la valeur moyenne ou la linéarisation par la méthode de Taylor sont exploités.
Le travail présenté dans ce mémoire est consacré au développement de lois de commande
adaptative pour les systèmes non linéaires incertains dont le modèle est sous la forme générale
non affines en la commande. Les deux types des systèmes monovariables et multivariables
sont traités dans le développement de lois de commande. Les techniques développées dans ce
mémoire assurent la stabilité et la robustesse des boucles de commande. Chaque technique
proposée est testées par exemple de simulation pour confirmer ses performances. Le mémoire
est organisé en trois chapitres :
Dans le premier chapitre, une description du réseau de neurone d‟ordre supérieure utilisé
est détaillée en donnant ses notions essentielles avec la formulation mathématique adéquate à
son exploitation pour la commande adaptative.
Le deuxième chapitre présente le développement de la commande adaptative neuronale
pour une classe de système non linéaire monovariable non affine en la commande sous la
forme générale, où le développement en série de Taylor autour d‟un contrôleur idéal inconnu
est utilisé pour transformer le système non affine en un système affine. Et puis deux

2
Introduction générale

approches distinctes se sont formulées pour la commande adaptative neuronale, après


transformation, selon l‟approche directe et l‟approche indirecte. Dans l‟approche directe, les
systèmes neuronaux sont utilisés pour approximer un contrôleur idéal inconnu. En revanche la
commande indirecte exploite les systèmes neuronaux pour estimer la dynamique inconnue du
système non linéaire à commander afin de synthétiser des lois de commande basées sur ces
estimations. Le problème de la singularité engendré par l‟approche indirecte est résolu par
l‟utilisation d‟un algorithme de projection.
Le troisième chapitre présente la commande adaptative neuronale directe pour une classe
de systèmes non linéaires multivariables MIMO non affine en la commande. Pour ce faire, on
exploité en premier lieu le théorème de la fonction implicite pour montrer l‟existence du
contrôleur idéal inconnu. Ensuite, on utilise le développement en série de Taylor autour du
contrôleur idéal pour transformer le modèle non affine en un modèle affine. En fin, pour des
raisons des incertitudes sur le modèle liées aux problèmes de transformations et modélisation,
un réseau de neurone est utilisé pour approximer la loi de commande idéale. Les lois
d‟adaptation des paramètres ajustables sont déduites à partir de l‟étude de stabilité au sens de
Lyapunov. La robustesse étant assurée par l‟ajout d‟un terme de commande type mode
glissant.

3
Chapitr1.Réseaux de neurones

Chapitre 1
Réseaux de Neurones

1. 1. Introduction
1. 2. Réseaux de neurones artificiels (ANN)
1. 3. L’approximation universelle par réseaux HONN
1. 4. Conclusions

4
Chapitr1.Réseaux de neurones

1.1. Introduction :
Les réseaux de neurones artificiels (ANN) jouent un rôle important dans l'ingénierie de
contrôle, en particulier dans le contrôle du système non linéaire. En raison de leur
excellente capacité d‟apprentissage, les réseaux de neurones artificiels (ANN) ont la
propriété d‟approximation universelle, qui les rend capables d'approximer, avec un degré
de précision arbitraire fixé, n'importe quelle fonction non linéaire.
La recherche active a été réalisée dans le contrôle du réseau de neurones en utilisant le
fait que les réseaux de neurones peuvent se rapprocher d'une large gamme de fonctions non
linéaires à un degré de précision désiré dans certaines conditions. Plusieurs approches de
contrôle NN (neural networks) stables ont été proposées sur la base de la théorie de la
stabilité de lyapunov [Yesildirek-96] [Ge-01]. Un avantage principal de ces systèmes est
que les lois adaptatives sont établies d'après la synthèse de lyapunov et par conséquent, la
stabilité du système est garantie sans l'exigence d'une formation en ligne. Il existe trois
types de réseaux neuronaux sont largement utilisés, les réseaux de neurones de la fonction
de base radiale (RBF) [Ge-01][Yesildirek-99], et les réseaux de neurones d'ordre
supérieur (HONNS) [Kosmatopoulos-95], et les réseaux neuronaux multicouches
(MNNS) [Ge-01][Yesildirek-99].
L‟objectif de ce chapitre est présente la structure et les propriétés du réseau de neurone
d‟ordre supérieure HONN (high-order neural networks), et leur utilisations dans la
conception de contrôleur.
1.2. Réseaux de Neurones Artificiels (ANN) :
Le cerveau humain est le meilleur modèle de machine polyvalente incroyablement
rapide et surtout douée d‟une parfaite capacité d‟auto organisation. Son comportement est
beaucoup plus mystérieux que le comportement de ses cellules de base. Il est constitué
d‟unité biologiques élémentaires (environ 1012 neurones), chacune reçoit et envoi des
informations (1000 à 10000 synapses par neurone). Les cellules nerveuses appelées
„‟neurones‟‟ qui sont des éléments de base du système nerveux centrale. Elles sont
constituées de trois parties essentielles, le corps cellulaire, les dendrites et l‟axone comme
indiquer dans la figure 1.1.
Le corps cellulaire contient le noyau de neurone et effectue les transformations
biochimiques nécessaires à la synthèse des éléments assurant la vie du neurone. Chaque
neurone possède des dendrites, qui entourent le corps cellulaire. Les dendrites sont les
récepteurs principaux du neurone pour capter les signaux qui lui parviennent. L‟axone qui

5
Chapitr1.Réseaux de neurones

est à proprement parler la fibre nerveuse, sert de moyen de transport pour les signaux émis
par le neurone. Les neurones sont connectés les uns aux autres suivant des répartitions
spatiales complexes. Les connexions entre deux neurones sont réalisées au niveaux des
synapses où ils sont séparés par un espace intercellulaire de quelques dizaines
d‟Angströms ( 10-9 m) entre l‟axone du neurone afférent et les dendrite du prochain
neurone. La jonction entre deux neurones est appelée synapse.

Noyau

Dendrites

Axone

Synapse

Fig. 1. 1: Structure d‟un neurone biologique


Un ANN traite l‟information qu‟il reçoit d‟une manière analogue aux neurones du
cerveau. Il est constitué de plusieurs éléments processeurs dits neurones artificiels reliés les
uns aux autres par un réseau complexe. La sortie de chaque neurone peut être reliée en
entrée à plusieurs autres neurones. Chaque neurone effectue une somme pondérée des
signaux d‟entrée modulés par une fonction dite activation (une fonction linéaire ou non
linéaire) et génère une sortie qui sera appliqué aux autres neurones via des connexions
pondérées. Avec cette simple structure et en choisissant un nombre approprié de neurones,
ces réseaux sont capables d‟approximer n‟importe quelle fonction continue avec une
certaine précision.
1.3. L’approximation universelle par réseaux de neurones HONN :
1.3.1. Topologie du réseau HONN :
Le réseau de neurone d‟ordre supérieure HONN (high-order neural networks) est un
type de réseau de neurone linéaire paramétré. En effet, HONN ont des excellentes
capacités d‟approximation de n‟import quelle fonction continue non linéaire avec un
dégrée de précision arbitraire fixe. La structure de HONN est exprimée comme suit :
𝜙 𝑊, 𝑧 = 𝑊 𝑇 𝑆 𝑧 𝑊, 𝑆(𝑧) ∈ ℜ𝑙 (1.1)
𝑇
𝑆 𝑧 = 𝑠1 𝑧 , 𝑠2 𝑧 , … … … . . , 𝑠𝑙 𝑧 (1.2)

6
Chapitr1.Réseaux de neurones

𝑑 𝑗 (𝑖)
𝑠𝑖 𝑧 = 𝑠(𝑧𝑗 ) , 𝑖 = 1,2, … . , 𝑙 (1.3)
𝑗 ∈𝐼𝑖

où 𝑧 ∈ 𝛺𝑧 ∈ ℜ𝑚 est l‟entrée de HONN, 𝑙 est le nombre de nœuds du réseau de neurone,


𝐼1 , 𝐼2 , … , 𝐼𝑙 est un ensemble de 𝑙 sous ensemble non ordonnée de 1,2, … , 𝑚 , spécifiée
par le concepteur, 𝑑𝑗 ,𝑖 sont des entiers positifs, 𝑊 sont les vecteurs de paramètres ajustés,
et s(zj ) est la fonction d'activation, linéaire ou de forme sigmoïde, elle est supposée dans
ce travail comme une fonction de tangente hyperbolique et donnée par l‟équation suivante:
𝑠 𝑧𝑗 = (e 𝑧 𝑗 − e−𝑧 𝑗 ) (e 𝑧 𝑗 + e−𝑧 𝑗 ) (1.4)
La structure de HONN est représentée sur la figure 1.2, où les lignes pointillées signifient
qu‟ils peuvent être connectées ou non connecté dépendants de 𝐼𝑖 , et 𝑑𝑗 ,𝑖 la puissance de la
fonction 𝑠 . .
s S1
i
i i

s S2 𝑊∗
i

𝑑𝑗 ,𝑖
Sl-1

s Sl

i
Fig. 1.2: La structure du neurone d‟ordre supérieure (HONN)
1.3.2. L'apprentissage des réseaux de neurones:
L'information que peut acquérir un réseau de neurones est représentée dans les poids
des connexions entre les neurones. L'apprentissage consiste donc à ajuster ces poids de
telle façon que le réseau présente certains comportements désirés. En d'autres termes,
l'apprentissage des réseaux de neurones consiste à ajuster les poids synaptiques de telle
manière que les sorties du réseau soient aussi proches que possible des sorties désirées.
1.3.2.1. Algorithmes d’ajustement :
Dans de nombreux problèmes pratiques, nous pouvons avoir une connaissance a priori
de l'endroit où les paramètres idéales 𝑊 ∗ sont situés dans ℜ𝑛 . Cette connaissance vient
généralement en termes de limites supérieure et / ou inférieure pour les éléments de 𝑊 ∗ ou
en termes de localisation dans un sous-ensemble convexe de ℜ𝑛 . Si une telle information a
priori est disponible, on veut limiter l'estimation en ligne pour être à l'intérieur de
l'ensemble dans lequel se trouvent les paramètres inconnus. A cet effet, nous modifions les

7
Chapitr1.Réseaux de neurones

algorithmes de gradient basé sur la minimisation sans contrainte de certains coûts en


utilisant la méthode de projection du gradient [Ioannou-96].
L'algorithme du gradient avec projection est calculé en appliquant la méthode de gradient
pour le problème de minimisation des contraintes suivantes:
Minimiser 𝐽 𝑊, 𝑒
Soumise à 𝑊 ∈ 𝛺𝑤
En général, l‟algorithme d‟ajustement (de la loi d‟adaptation) prend la forme :
𝑊 = −𝛾∇𝐽 𝑊, 𝑒 = −𝛾𝜓 𝑧 𝑒 (1.5)
où :
𝜕𝐽 𝑊, 𝑒
∇𝐽 𝑊, 𝑒 = 𝑒𝑡 𝛾 > 0
𝜕𝑊
où 𝛺𝑊 c‟est une région convexe définie par :
𝛺𝑤 = 𝑊 /𝜇(𝑊) ≤ 0
avec 𝜇 𝑤 est une fonction lisse.

−𝛾𝜓 𝑧 𝑒
∇𝜇 𝑊
Projection

𝛺𝑤 𝑊
𝛺𝑤

𝑊∗

Fig. 1.3 : schématisation de l‟algorithme de Projection


Un des moyens les plus simples et efficaces pour éviter la dérive des paramètres est de
limiter les estimations des paramètres dans une région bornée et convexe 𝛺𝑤 , qui est
choisie de telle sorte que 𝑊 ∗ ∈ 𝛺𝑤 (figure 1.3). En outre, les conditions initiales 𝑊(0)
sont choisies de telle sorte que 𝑊(0) ∈ 𝛺𝑤 .
La modification de projection met en œuvre cette idée comme suit : si l‟estimation du
paramètre 𝑊(𝑡) est à l‟intérieur de la région souhaitée 𝛺𝑤 ou sur le contour de cette
région 𝛺𝑤 , avec sa dérivée pointant vers l‟intérieur de la région, la loi d‟adaptation (1.5)
est mise en œuvre. Maintenant, si l‟estimation du paramètre W(t) est sur le contour de cette
région 𝛺𝑤 avec sa dérivée pointant vers l‟extérieur de la région, alors sa dérivée est

8
Chapitr1.Réseaux de neurones

projetée sur l‟hyperplan tangent à 𝛺𝑤 . Par conséquent, la projection conserve le vecteur


d‟estimation de paramètres dans la région convexe 𝛺𝑤 tout le temps.
Enfin, l‟algorithme de projection est défini comme suit :
−𝛾𝜓 𝑧 𝑒 𝑠𝑖 𝑊 ∈ 𝛺𝑤 𝑜𝑢 ( 𝑊 ∈ 𝛺𝑤 𝑒𝑡 ∇𝜇(𝑊)T 𝛾𝜓 𝑧 𝑒 ≥ 0
𝑊= ∇𝜇(𝑊)∇𝜇(𝑊)T
−𝛾𝜓 𝑧 𝑒 + 𝛾𝜓 𝑧 𝑒 𝑠𝑖 𝑊 ∈ 𝛺𝑤 𝑒𝑡 ∇𝜇(𝑊)T 𝛾𝜓 𝑧 𝑒 < 0
∇𝜇(𝑊)T ∇𝜇(𝑊)
𝜕𝜇 𝑊
où ∇𝜇 𝑊 = 𝜕𝑊

Si on choisit de contraindre les paramètres estimés tel que 𝑊 ≤ 𝑊𝑚𝑎𝑥 , alors nous avons
2 2
𝜇 𝑊 = 𝑊 − 𝑊𝑚𝑎𝑥
et ∇𝜇 𝑊 = 2𝑊
L‟algorithme de projection peut être écrit comme :
−𝛾𝜓 𝑧 𝑒 𝑠𝑖 𝑊 ∈ 𝛺𝑤 𝑜𝑢 ( 𝑊 = 𝑊𝑚𝑎𝑥 𝑒𝑡 𝑊 T 𝛾𝜓 𝑧 𝑒 ≥ 0
𝑊= 𝑊𝑊 T
−𝛾𝜓 𝑧 𝑒 + 𝛾𝜓 𝑧 𝑒 𝑠𝑖 𝑊 = 𝑊𝑚𝑎𝑥 𝑒𝑡 𝑊 T 𝛾𝜓 𝑧 𝑒 < 0
𝑊T 𝑊
Cet algorithme garantit que 𝑊 ≤ 𝑊𝑚𝑎𝑥 , ∀𝑡 𝑠𝑖 𝑊(0) ≤ 𝑊𝑚𝑎𝑥 [Ioannou-96].
1.3.3. Théorème de l’approximation universelle :
Parmi les propriétés des réseaux de neurones, l‟approximation universelle est la plus
importante du point de vue de l‟identification et la commande. Cette propriété est la
justification de l‟utilisation des réseaux de neurones dans les systèmes de commande.
L‟approximation universelle a fait le sujet de beaucoup de travaux de recherche et
plusieurs démonstrations pour des réseaux de neurones avec différentes fonctions
d‟activation, on dispose d‟un nombre important de publications montrant que les systèmes
neuronale sont des approximateurs universels [Funahashi-89] [Hornik-89], c‟est-à-dire,
pour toute fonction continue 𝑓 𝑧 définie sur un ensemble compact 𝛺𝑧 , et pour toute
constante positive 𝜀 , il existe un système neuronale d‟ordre supérieur, avec q neurones
dans la couche cachée de la forme (1.1) tel que :
𝑠𝑢𝑝 𝑓 𝑧 − 𝜙 𝑊, 𝑧 <𝜀 (1.6)
𝑧∈ 𝛺 𝑧

9
Chapitr1.Réseaux de neurones

Fig. 1.4: Fonction non linéaire 𝑓 𝑧 sont réseaux approximateurs 𝜙 𝑊, 𝑧 sur le


domaine 𝛺𝑧 .
Cependant, la propriété de l‟approximation universelle garantit l‟existence d‟un
approximateur pour la fonction non linéaire continue𝑓 𝑧 , mais n‟indique pas comment
choisir la structure ou régler les paramètres du réseau de neurones pour atteindre une
certaine précision désirée.
Dans ce travail on suppose que la structure du réseau de neurones et les paramètres des
fonctions HONN sont correctement spécifiés par l‟utilisateur a priori, alors la propriété
d‟approximation universelle peut être satisfaite en sélectionnant seulement les paramètres
du réseau de neurones. Cela veut dire que la décision de l‟utilisateur est nécessaire pour
régler les paramètres ajustables et les paramètres de réseau HONN seront calculés en ligne
par des algorithmes d‟ajustement.
Notons qu‟il existe d‟autres types d‟approximateurs universels tels que les réseaux de
neurones multicouches et les systèmes flous qui peuvent faire usage des connaissances
linguistiques d‟une manière systématique [Wang-94].
1.4. Conclusion
Dans ce chapitre, nous avons décrit une technique intelligente nouvellement introduite
dans le monde de l‟électronique de puissance. Il s‟agit principalement des réseaux de
neurones d‟ordre supérieur HONN et les différentes structures qui leurs sont associées
ainsi que nous abordons par la suite le contrôle de processus par les réseaux de neurones
HONN pour la synthèse de lois de commandes.

10
Chapitre2. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire SISO Non affine

Chapitre 2
La Commande Adaptative Neuronale pour une
Classe de Systèmes Non Linéaires SISO Non-affine

2.1 Introduction
2.2 La transformation du système non-linéaire
2.3 Commande adaptative indirecte neuronale
2.4 Commande adaptative directe neuronale
2.5 Conclusion

11
Chapitre2. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire SISO Non affine

2.1. Introduction :
La commande adaptative neuronale a reçu un grand succès pour le contrôle des
systèmes non linéaires incertains et complexes en raison de l‟excellente capacité
d‟approximations des réseaux de neurones.
De nombreux résultats remarquables ont été obtenus pour les systèmes non linéaires
affines en la commande basés sur la linéarisation par retour d‟état, et l‟approximation des
fonctions non linéaires à l'aide des réseaux de neurones et logique floue [Spooner-96]
[Wang-94] [Yesildirek-95]. En pratique, de nombreux systèmes non linéaires ne peuvent
pas être représentés sous la forme affine, et les problèmes deviennent beaucoup plus
difficiles et compliqués où il ya moins de résultats disponibles dans la littérature.
Pour le cas de la commande adaptative neuronale indirecte le système non linéaire non
affine SISO est d'abord transformé en une forme affine en considérant un développement
en série de Taylor autour d'une trajectoire de fonctionnement, puis deux systèmes
adaptatifs neuronaux pour approximer la dynamique du système affine [Ge-00].Cependant,
cette approche adaptative indirecte présente l'inconvénient du problème de la singularité du
contrôleur, c'est à dire la division par zéro peut se produire dans la loi de commande. les
auteurs utilisent un algorithme de projection [Ioannou-96][Spooner-96] pour maintenir les
paramètres ajustables de l‟approximateur du gain de commande à l‟intérieur d‟un ensemble
de non singularité et de modifier les lois de commande par l‟ajout de termes à structure
variable pour garder l‟amplitude du signal de commande borné [Yesildirek-95] [Labiod-
05] .
L‟approche adaptative neuronale directe pour une classe de systèmes non linéaires non
affines est abordée par exemple dans les papiers [Ge-00] [Ge-98] [Ge-99] [Dai-14]
[Zhang-98] [Ge-03], les réseaux neuronaux sont utilisés pour construire ce contrôleur
implicite idéal et inconnu.
Les lois d'adaptation utilisées dans les travaux présentés précédemment sont basées sur
l‟approche de Lyapunov. Elles utilisent le signal d'erreur entre la sortie désirée et la sortie
réelle du système afin d‟ajuster en ligne les paramètres réglables. La robustesse des
systèmes vis à vis des erreurs d'approximation et des perturbations externes est assurée par
un terme de commande supplémentaire type 𝐻∞ ou type mode glissant.

12
Chapitre2. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire SISO Non affine

L‟objectif de ce chapitre est de développer une commande adaptative neuronale pour


une classe de systèmes non linéaires SISO non affines en la commande sous forme
générale. À l'aide d‟une technique basée sur la théorie de la géométrie différentielle, sous
certaines hypothèses, le système possède un degré relatif complet. D‟abord un
difféomorphisme est défini pour transformer les systèmes non linéaires de formes
générales en la forme normale. L'existence d‟un contrôleur idéale inconnu est prouvée par
le théorème de la fonction implicite. Le développement en série de Taylor autour du
contrôleur idéal inconnu est utilisé pour transformer le système non affine en un système
affine. La loi de commande est déduite par linéarisation par retour d‟état du système
affine approximé. Deux approches distinctes sont formulées pour la commande adaptative
neuronale pour les systèmes monovariables SISO, l‟approche directe et l‟approche
indirecte. Dans l‟approche directe, les systèmes neuronaux sont utilisés pour approximer
un contrôleur idéal inconnu. En revanche la commande indirecte exploite les systèmes
neuronaux pour estimer la dynamique inconnue de système non linéaire à commander afin
de synthétiser des lois de commande basées sur ces estimations. Dans cette approche, les
lois de commande sont bien définies à tout moment, et le problème des erreurs de
reconstruction est traité par l‟introduction d‟un terme de robustification de type mode
glissant. Le problème de la singularité engendré par l‟approche indirecte est résolu par
l‟utilisation d‟un algorithme de projection.
Dans les deux approches adaptatives directe et indirecte, les algorithmes d‟adaptations
sont déduits à partir de la théorie de Lyapunov pour assurer la stabilité et la bornitude de
tous les signaux de la boucle fermée du système sous certaines contraintes sur le gain de
commande non linéaire et ses dérivés. Pour valider la structure de la commande
développée et mettre en évidence son efficacité, des exemples de simulation, sont
considérés.
2.2. La transformation du système non-linéaire :
2.2.1. Position du problème :
On considère une classe des systèmes non linéaires mono entrée mono sortie (SISO)
non affines en la commande, dont la dynamique est décrite par les équations différentielles
suivantes : [Ge-00]
𝑥 = 𝑓(𝑥, 𝑢)
(2.1)
𝑦=𝑕 𝑥

13
Chapitre2. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire SISO Non affine

où 𝑥 ∈ ℛ 𝑛 est le vecteur d‟état, 𝑢 ∈ ℛ et 𝑦 ∈ ℛ sont respectivement l‟entrée et la sortie


du système (2.1), et 𝑓(. , . ) est un fonction continue non affine inconnue, et 𝑕(. )est une
fonction scalaire. Sont supposés non linéaires de forme analytique inconnue.
Considérons la structure de la commande du système non linéaire non affine sous
forme générale (2.1), cette structure ne permet pas d‟avoir une relation directe entre
l‟entrée 𝑢 et la sortie du système 𝑦, ce qui rend la mise en œuvre d‟une commande en
poursuite d‟une trajectoire de référence difficile. Pour remédier à ce problème la
techniques de la géométrie différentielle [Slotine-91] telles que la dérivée de Lie, crochet
de Lie, le difféomorphisme, sont utilisés pour transformer le modèle du système vers la
forme normale.
2.2.2. Représentation entrée-sortie :
L‟objectif de la représentation entrée-sortie est de trouver une relation directe entre la
sortie du système (2.1) et son entrée. Pour exprimer explicitement cette relation, il est
nécessaire de dériver itérativement la sortie du système jusqu‟à l‟apparition de l‟entrée u.
On obtient alors [Isidori-89]:
𝑦 = 𝑕(𝑥)
𝑦 = 𝐿𝑓 𝑕(𝑥)
𝑦 = 𝐿2𝑓 𝑕(𝑥) (2.2)

𝜌 𝜌
𝑦 = 𝐿𝑓 𝑕(𝑥)
avec :
𝜕𝑕 𝑥 𝜕𝑕(𝑥) 𝜕𝑥 𝜕 𝑕(𝑥) 𝜕 𝑕 𝑥
𝐿𝑓 𝑕 𝑥 = = = 𝑥= 𝑓 𝑥, 𝑢 (2.3)
𝜕𝑡 𝜕𝑥 𝜕𝑡 𝜕𝑥 𝜕𝑥

La relation entrée-sortie du système (2.1) est donc la suivante:


𝜌
𝑦 𝜌 = 𝐿𝑓 𝑕(𝑥)
La notation 𝐿𝑓 𝑕(𝑥) est une dérivée de Lie qui signifie la dérivée de 𝑕(𝑥) dans la direction
de 𝑓 c'est-à-dire
𝜕𝑕 𝑥
𝐿𝑓 𝑕 𝑥 = 𝑓 𝑥, 𝑢
𝜕𝑥
𝜌: le nombre de dérivées nécessaires pour qu‟au moins une des entrées apparaisse, et est
connu sous le nom du degré relatif correspondant à la sortie 𝑦.
Les dérivés de lie d‟ordre supérieur peuvent être définis périodiquement comme suit :

𝐿𝑘𝑓 𝑕 = 𝐿𝑓 𝐿𝑓𝑘−1 , 𝑘 > 0

14
Chapitre2. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire SISO Non affine

Le degré relatif représente le retard subi par l‟entrée 𝑢 avant son influence sur la
sortie 𝑦. Si le degré relatif 𝜌 est égal à l‟ordre 𝑛 du système, le système (2.1) est dit dans
sa forme normale et ne présente pas de dynamiques de zéros et est donc à minimum de
phase. Si 𝜌 est strictement inférieur à 𝑛, le système (2.1) est à minimum de phase [Slotine-
91] [Isidori-89] si le sous-système d‟ordre (𝑛 − 𝜌) est asymptotiquement stable (stabilité
de la dynamique de zéros).
Définition 2.1 :
On dit que le système (2.1) possède un degré relatif 𝜌 à 𝑥0 , 𝑢0 , s‟il existe un nombre
entier positif 1 ≤ 𝜌 < ∞ tels que
𝜕 𝐿𝑖𝑓 𝑕
∀𝑥 ∈ 𝑅: = 0 , 𝑖 = 0,1, … … … 𝜌 − 1
𝜕𝑢
𝜌
𝜕 𝐿𝑓 𝑕
≠0
𝜕𝑢
avec 𝛺𝑥 ⊂ 𝑅 𝑛 et 𝛺𝑢 ⊂ 𝑅 est un ensemble compacts contenant 𝑥0 𝑒𝑡 𝑢0 respectivement.
Le Système (2.1) est possède un degré relatif complet 𝜌 dans un ensemble compact 𝑈 =
𝛺𝑥 × 𝛺𝑢 . S‟il a un degré relatif 𝜌 de tout point (𝑥0 , 𝑢0 ) ∈ 𝑈.
Hypothèse 2.1 : Le système (2.1) possède un degré relatif complet 𝜌 = 𝑛 , ∀ 𝑥, 𝑢 ∈ 𝑈.
On peut donc trouver la forme normale du système en appliquant le changement de
𝑗
coordonnées (un difféomorphisme) Ф 𝑥 = [∅1 , ∅2 , … , ∅𝑛 ]𝑇 avec ∅𝑗 𝑥 = 𝐿𝑓 𝑕 𝑥 , 𝑗 =
1,2, … … , 𝑛 est une matrice Jacobienne qui est non singulière pour tous 𝑥 ∈ 𝛺
[Isidori-89] donc Ф 𝑥 est un difféomorphisme sur 𝛺𝑥 et 𝜉 = Ф 𝑥 tel que :

𝜉1 ∅1 (𝑥) 𝑕(𝑥)
𝜉2 ∅2 (𝑥) 𝐿𝑓 𝑕(𝑥)
𝜉𝑖 = 𝜉3 = ∅3 (𝑥) = 𝐿2𝑓 𝑕(𝑥) (2.4)
… … …
𝜉𝑛 𝜌−1
∅𝑛 (𝑥) 𝐿𝑓 𝑕(𝑥)
Alors, (2.1) peut être transformé en une forme normale :
𝜉1 = 𝜉2
𝜉2 = 𝜉3
………... (2.5)
𝜉𝑛 = 𝑏 𝜉, 𝑢
𝑦 = 𝜉1
On peut alors facilement vérifier que:

15
Chapitre2. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire SISO Non affine

𝜉𝑖 = 𝜉𝑖+1 , 𝑖 = 1 … … 𝑛 − 1
𝜉𝑛 = 𝑏 𝜉, 𝑢 (2.6)
𝑦 = 𝜉1
où :
𝑏 𝜉, 𝑢 = 𝐿𝑛𝑓 𝑕 𝜉
avec :
𝑥 = Ф−1 𝜉
Définir le domaine du système normal (2.6), comme suit :
𝑈= 𝜉, 𝑢 |𝜉 ∈ Ф 𝛺𝑥 , 𝑢 ∈ 𝛺𝑢 (2.7)
Soit la fonction
𝑏𝑢 = 𝜕 𝑏(𝜉, 𝑢) 𝜕𝑢
et la fonction continue :
𝑏𝑢 = 𝑑(𝑏𝑢 )/𝑑𝑡
Selon l'hypothèse 2.1 et la définition2.1, nous avons 𝜕 𝑏(𝜉, 𝑢) 𝜕𝑢 ≠ 0 , ∀ (𝜉, 𝑢) ∈ 𝑈.
Cela implique que la fonction 𝑏𝑢 est strictement positive ou négative pour tous (𝜉, 𝑢) ∈ 𝑈.
Supposons que le signe de 𝑏𝑢 est connu, et sans perte de généralité, il est supposé que
𝑏𝑢 > 0 dans la discussion qui suit.
Hypothèse 2.2 [Karimi-09] : Il existe des constantes positives 𝑔0 et 𝑔1 de telle sorte que
𝑔0 ≤ 𝑏𝑢 ≤ 𝑔1 (2.8)
avec
𝑑 𝑏(𝜉 ,𝑢) 𝜆
≤ 𝐻 < 𝜆 min ⁡(𝑄 ) 𝑔0 (2.9)
𝑑𝑡 𝜕𝑢 max ⁡
(𝑃 )

Pour tous (𝜉, 𝑢) ∈ 𝑈 , avec 𝜆min 𝑄 𝑒𝑡 𝜆max ⁡(𝑃) sont les valeurs propres minimale et
maximale des matrices Q et P respectivement donnes par l‟équation (2.15)
Hypothèse 2.3:La trajectoire désirée 𝜉𝑑 𝑡 et ses dérivées jusqu‟à l‟ordre 𝑛 sont connues et
bornées.
Si l‟on définit l‟erreur de poursuite par
𝜉1 (𝑡) = 𝑦𝑑 𝑡 − 𝜉 𝑡 (2.12)
et le vecteur d‟erreur de poursuite de tous les états est défini par
𝑇
𝜉 = 𝜉𝑑 − 𝜉 = 𝜉 , 𝜉 , 𝜉 , … . . , 𝜉 𝑛−1
𝑇
avec 𝜉𝑑 𝑡 = 𝑦𝑑 , 𝑦𝑑 , 𝑦𝑑 , … … , 𝑦𝑑𝑛−1 ∈ 𝑅 𝑛 et 𝜉𝑑 = [𝜉𝑑𝑇 , 𝑦𝑑𝑛 ]𝑇 ∈ 𝑅 𝑛+1

16
Chapitre2. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire SISO Non affine

La dynamique des erreurs de poursuite sera alors donnée par:

𝜉 = 𝐴𝜉 + 𝑏 −𝑏(𝜉, 𝑢) + 𝑦𝑑𝑛 (2.13)


0 𝑛 −1 𝐼 𝑛 −1 0
avec 𝐴 = 𝑇 ∈ ℜ 𝑛 × 𝑛 , 𝑏 = 𝑛−1 ∈ ℜ 𝑛 ×1
0 0(𝑛−1) 1
0 𝑛−1 𝐼 𝑛 −1 0
𝐴= 𝑇 , 𝑏 = 𝑛−1
0 0(𝑛−1) 1
où 𝐼(𝑛 −1) et 0(𝑛−1) indiquer la matrice d'identité et un vecteur de zéros de dimension (𝑛 −
1), respectivement.
Théorème de la fonction implicite [Park-04]:
Soit 𝑕 une fonction continue et dérivable en chaque point 𝑎, 𝑏 de l‟ensemble
ouvert 𝑆 ⊂ ℜ × ℜ. Soit 𝑎, 𝑏 un point dans 𝑆, pour le quel 𝑕(𝑎0 , 𝑏0 ) = 0 et telle que la
matrice Jacobienne 𝛿𝑕 𝛿𝑎 (𝑎0 , 𝑏0 ) est non singulière. Alors, il existe sur un voisinage
𝑈 × 𝑉 ⊂ ℜ × ℜ du point (𝑎0 , 𝑏0 ), solution unique de l‟équation 𝑕 𝑎, 𝑏 = 0 pour chaque
point 𝑏 ⊂ 𝑉 et 𝑎 ⊂ 𝑈. De plus, la solution peut être donnée comme suit 𝑎 = 𝑔(𝑏), où g est
continue et dérivable en 𝑏 = 𝑏0 .
Lemme2.1 [Ge-98] : Considérons le système (2.6) satisfaisant les suppositions [2.1–2.3],
alors il existe un contrôleur idéal 𝑢∗ tel que

𝜉 = 𝐴 − 𝑏𝑘 𝑇 𝜉 (2.14)
avec
𝐴𝑘 = 𝐴 − 𝑏𝑘 𝑇
Le vecteur de gain de retour d‟état 𝑘 est calculé afin que la matrice 𝐴 − 𝑏𝑘 𝑇 ait toutes
ses valeurs propres à parties réelles négatives. Par conséquent le système bouclé sera
exponentiellement stable. On lui associe une équation de Lyapunov, ayant pour solution
unique une matrice symétrique définie positive, donnée par
𝐴𝑇𝑘 𝑃 + 𝑃𝐴𝑘 = −𝑄 (2.15)
Démonstration :
En ajoutant et en retranchant le terme 𝑏𝑘 𝑇 𝑒 sur le côté droit de (2.13), on obtient :

𝜉 = 𝐴 − 𝑏𝑘 𝑇 𝜉 − 𝑏 𝑏 𝜉, 𝑢 − 𝜑 (2.16)

𝜑 = 𝑦𝑑𝑛 + 𝑘 𝑇 𝜉
A partir de l‟hypothèse 2.1 et le fait que 𝜕 𝑏(𝜉, 𝑢) 𝜕𝑢 ≠ 0 et 𝜕 𝜑) 𝜕𝑢 = 0, ainsi

17
Chapitre2. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire SISO Non affine

𝜕 𝑏 𝜉, 𝑢 − 𝜑 𝜕𝑢 ≠ 0 , ∀ (𝜉, 𝑢) ∈ 𝑈 (2.17)
D‟après le théorème de la fonction implicite [Park-04], il existe un contrôleur idéal 𝑢∗ (𝑧),
avec 𝑧 = [𝜉 𝑇 , 𝜉𝑑𝑇 , 𝜑 ], tel que
𝑏 𝜉, 𝑢∗ − 𝜑 = 0 (2.18)
On considère la fonction candidate de Lyapunov suivante :
1
𝑉 = 𝜉 𝑇 𝑃𝜉 (2.19)
2
En dérivant l‟expression (2.19) par rapport au temps, on obtient
1 𝑇
𝑉= 𝜉 𝑃𝜉 + 𝜉 𝑇 𝑃𝜉
2 (2.20)
1
= 𝜉 𝑇 𝐴𝑇𝑘 𝑃 + 𝑃𝐴𝑘 𝜉 − 𝜉 𝑇 𝑃𝐵 𝑏 𝜉, 𝑢 − 𝜑
2
Si 𝑢 = 𝑢∗ (2.16), alors on obtient
1
𝑉 = 2 𝜉 𝑇 𝐴𝑇𝑘 𝑃 + 𝑃𝐴𝑘 𝜉 (2.21)
1
𝑉 ≤ − 2 𝜉 𝑇 𝑄𝜉 ≤ 0 (2.22)

Ce qui permet de déduire que 𝜉 et ses dérivées 𝜉 ∈ 𝐿∞


L‟intégration de l‟équation (2.22), donne
∞ 2 1
0
𝜉 𝑑𝜏 ≤ 𝜆 𝑉 0 − 𝑉(𝑡) (2.23)
𝑚𝑖𝑛 𝑄

ce qui implique que 𝜉 (𝑡) ∈ 𝐿2 donc 𝜉 (𝑡) ∈ 𝐿∞ , et d‟après le lemme de Barbalat [Slotine-
91], on conclut que lim𝑡→∞ 𝜉 (𝑡) = 0 .
Cependant, le théorème de la fonction implicite garantit seulement l'existence du
contrôleur idéal 𝑢∗ (𝑧) et ne fournit pas une méthode pour le concevoir. Dans la suite de
travaille, on propose des systèmes adaptatifs neuronaux pour approximer le contrôleur
idéal inconnu.
En se servant du lemme2.1 qui montre l'existence de l'entrée idéale 𝑢∗ , un
développement en série de Taylor autour de 𝑢∗ (𝑧) est effectué.
La fonction du système 𝑏(𝜉, 𝑢) peut être écrite comme suit :


𝜕𝑏 𝜉, 𝑢∗ 𝑧
𝑏 𝜉, 𝑢 = 𝑏 𝜉, 𝑢 𝑧 + 𝑢 − 𝑢∗ + 𝛰(𝑢 − 𝑢∗ )2 (2.24)
𝜕𝑢
L‟équation (2.24) peut être réécrite sous la forme suivante :
𝑏 𝜉, 𝑢 = 𝑓 𝑧 + 𝑔 𝑧 𝑢 + 𝛰(𝑢 − 𝑢∗ )2 (2.25)
avec

18
Chapitre2. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire SISO Non affine


𝜕𝑏 𝜉, 𝑢∗ 𝑧 ∗
𝜕𝑏 𝜉, 𝑢∗ 𝑧
𝑓 𝑧 = 𝑏 𝜉, 𝑢 𝑧 − 𝑢 , 𝑔 𝑧 =
𝜕𝑢 𝜕𝑢
∗ 2
et 𝛰 𝑢 − 𝑢 désigne la somme des termes d'ordre supérieure du développement en
série de Taylor noté par la suite par d. Ce dernier terme considéré petit et bornée comme
suit :
𝑑 ≤𝑑 (2.26)
À partir de l'hypothèse 2.2 et l‟équation (2.8), nous avons
𝑔0 ≤ 𝑔 𝑧 ≤ 𝑔1 (2.27)
dans le voisinage de la commande idéal 𝑢∗ (𝑧) .
Ainsi, on obtient un système non linéaire affine autour d‟une commande idéal comme suit:
𝜉𝑖 = 𝜉𝑖+1 , 𝑖 = 1 … 𝑛 − 1
𝜉𝑛 = 𝑓 𝑧 + 𝑔 𝑧 𝑢 + 𝑑 (2.28)
𝑦 = 𝜉1
Remarque 2.1: À partir des dérivations successives, on voit que la commande du système
(2.1) est équivalente à la commande du système (2.28) qui est sous la forme d'un système
non linéaire affine.
2.2.3. La commande linéarisante :
Après avoir définie une structure permettant d‟obtenir une relation directe entre l‟entrée
et la sortie du système, et une transformation qui permet d‟avoir une forme affine d‟un
système non linéaire qui peut être appliquée simplement à une classe de systèmes non
linéaires décrits par ce qu'on appelle la forme canonique si sa dynamique est représentée
par:
𝜉𝑖 = 𝜉𝑖+1 , 𝑖 = 1 … … … 𝑛 − 1
𝜉𝑛 = 𝑓 𝑧 + 𝑔 𝑧 𝑢 + 𝑑 (2.29)
𝑦 = 𝜉1
où 𝜉 = [𝜉1 , 𝜉2 , 𝜉3 , … … . . 𝜉𝑛 ] 𝑇 ∈ 𝑅 𝑛 est le vecteur d‟état, 𝑢 ∈ ℛ et 𝑦 ∈ ℛ sont
respectivement l‟entrée et la sortie du système, 𝑓 𝑧 𝑒𝑡 𝑔 𝑧 sont des fonctions non
linéaires continues incertaines.
L‟objective de la commande est de concevoir un contrôleur adaptatif neuronale capable
de forcer la sortie du système 𝜉(𝑡) a suivre une trajectoire de référence 𝑦𝑑 𝑡 borné bien
déterminé , sous la contrainte que tous les signaux impliqués soient bornés.
Pour cela on détermine une loi d‟adaptation pour ajuster le vecteur de paramètres tel
que les conditions suivantes soient satisfaites :

19
Chapitre2. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire SISO Non affine

(i) le système en boucle fermée doit d‟être stable et robuste dans le sens ou toutes les
variables estimées soient uniformément bornées.
(ii) l‟erreur de poursuite, doit être la plus petite possible.
Le système (2.28) peut être réécrit sous la représentation d‟état suivante :

𝜉 = 𝐴𝜉 + 𝑏 𝑓 𝑧 + 𝑔 𝑧 𝑢 + 𝑑
(2.30)
𝑦 = 𝐶𝑇 𝜉

0 𝑛 −1 𝐼 𝑛−1 0 𝑛 −1
𝐴= ∈ℜ𝑛 × 𝑛
, 𝑏= ∈ℜ𝑛 ×1
0 0𝑇(𝑛−1) 1
(2.31)
1 𝑛 ×1
𝐶= 0 ∈ℜ
𝑛−1
𝐼(𝑛 −1) et 0(𝑛−1) indiquent la matrice d'identité et un vecteur de zéros de dimension (𝑛 − 1),
respectivement.
En remplaçant la fonction 𝑏 𝜉, 𝑢 par leur transformation équivalente dans l‟équation
dynamique de l‟erreur (2.13), on obtient :

𝜉 = 𝐴𝜉 + 𝑏 −𝑓 𝑧 − 𝑔 𝑧 𝑢 + 𝑦𝑑𝑛 − 𝑑 (2.32)

Si les fonctions non linéaires 𝑓 𝑧 et 𝑔 𝑧 sont connues, les objectifs de commande


peuvent être atteints en choisissant la loi de commande idéale suivante :
1
𝑢∗ = −𝑓 𝑧 + 𝑦𝑑𝑛 𝑡 + 𝑘𝑇 𝜉 𝑡 (2.33)
𝑔𝑧
où 𝑘 𝑇 = 𝑘0 , 𝑘1 , … … … … , 𝑘 𝑛 −1 est le vecteur de gain de retour d‟état, par substitution
l‟équation (2.33) par l‟équation (2.28) l'équation suivante est obtenue en considérant d=0 :
𝜉 𝑛 + 𝑘1 𝜉 𝑛−1
+ ⋯+ 𝑘 𝑛 𝜉 = 0 (2.34)
Les coefficients 𝑘𝑗 , 𝑗 = 0, … , 𝑛 − 1, sont choisis de façon à ce que le polynôme:
𝑛 𝑛 −1
𝑆 + 𝑘 𝑛−1 𝑆 + ⋯ + 𝑘0 = 0 .Soit Hurwitzien (racines à partie réelle négative), qui
prouve la convergence de l‟erreur de suivi de trajectoire 𝜉 (𝑡) vers zéro quand t → ∞ ,c'est-
à-dire :
2
lim 𝜉 =0 (2.35)
𝑡→∞

Cependant, les fonctions 𝑓 𝑧 et 𝑔 𝑧 sont inconnues et la perturbation extérieure 𝑑


existe, donc il est difficile d‟appliquer la loi de commande (2.33) pour le système non
linéaire (2.29). La solution la plus courante pour résoudre ce problème est d‟utiliser des
approximateurs universels pour approximer cette commande dans un schéma de

20
Chapitre2. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire SISO Non affine

commande directe et indirect. Dans la suite de ce chapitre, nous développons une


commande adaptative directe et indirecte du système (2.29) avec une approximation par un
réseau de neurone d‟ordre supérieur HONN.
2.3. Commande adaptative indirecte neuronale :
La commande adaptative indirecte consiste à approximer les fonctions 𝑓 𝑧 et 𝑔 𝑧
par deux systèmes neuronales, pour en déduire la loi de commande par rétroaction. En
effet, on considère que le modèle du processus à commander est inconnu. Afin d‟utiliser la
même structure de commande, deux systèmes neuronale de la forme (1.1) ont été
introduits. Les approximateurs ainsi construits sont injectés directement dans la loi de
commande pour atteindre les performances de poursuite désirées. Les lois d‟adaptation
avec algorithme de projection sont déduites de l‟étude de la stabilité.
2.3.1. Conception de la commande neuronale :
Les systèmes neuronales sont des approximateurs universels du point de vue des
experts humains et ils peuvent être uniformément approché des fonctions continues non-
linéaires avec l'exactitude arbitraire, afin d‟atteindre les objectifs de contrôle proposés. Les
fonctions non linéaires 𝑓 𝑧 et 𝑔 𝑧 seront rapprochées en réglant les paramètres des
systèmes neuronaux correspondant. Alors, suivant les résultats de l‟approximation exposés
au chapitre précédent il existe un réseau de neurone d‟ordre supérieure capables
d‟approcher les fonctions non linéaires incertaines 𝑓 𝑧 et 𝑔 𝑧 telle que :
𝑓 𝑧 /𝑊𝑓 = 𝑊𝑓𝑇 𝑆𝑓 𝑧 (2.36)
𝑇
𝑔 𝑧 /𝑊𝑔 = 𝑊𝑔 𝑆𝑔 𝑧 (2.37)
avec 𝑆𝑓 𝑧 et 𝑆𝑔 𝑧 sont des vecteurs de fonctions neuronales sont supposés
convenablement fixés en avance par l‟utilisateur, 𝑊𝑓 et 𝑊𝑔 sont les vecteurs de paramètres
ajustés.
Les fonctions réelles 𝑓 𝑧 et 𝑔 𝑧 peuvent être exprimées en fonction de l‟approximation
neuronale de la manière suivante :
𝑓 𝑧 = 𝑊𝑓∗𝑇 𝑆𝑓 𝑧 + 𝜀𝑓 (𝑧) , 𝑧 ∈ 𝛺𝑧 ⊂ 𝑅 (2𝑛+1) (2.38)

𝑔 𝑧 = 𝑊𝑔∗𝑇 𝑆𝑔 𝑧 + 𝜀𝑔 (𝑧) , 𝑧 ∈ 𝛺𝑧 ⊂ 𝑅 2𝑛 +1
(2.39)
avec 𝜀𝑓 et 𝜀𝑔 représentent les erreurs d‟approximation neuronale, 𝑊𝑓∗ 𝑒𝑡 𝑊𝑔∗ sont
respectivement les paramètres optimaux de 𝑊𝑓 et 𝑊𝑔 , c'est-à-dire, les valeurs des

21
Chapitre2. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire SISO Non affine

paramètres 𝑊𝑓 et 𝑊𝑔 minimisant respectivement les erreurs d‟approximation 𝜀𝑓 et


𝜀𝑔 . Ces paramètres optimaux satisfont :
𝑊𝑓∗ = 𝑎𝑟𝑔𝑚𝑖𝑛𝑊𝑓 ∈𝛺𝑓 {𝑠𝑢𝑝𝑧∈𝛺𝑧 𝑓 𝑧 𝑊𝑓 − 𝑓 𝑧 } (2.40)

𝑊𝑔∗ = 𝑎𝑟𝑔𝑚𝑖𝑛𝑊𝑔 ∈𝛺𝑔 {𝑠𝑢𝑝𝑧∈𝛺𝑧 𝑔 𝑧 𝑊𝑔 − 𝑔 𝑧 } (2.41)

Notons que les paramètres optimaux 𝑊𝑓∗ et 𝑊𝑔∗ sont des constantes artificielles
inconnues introduites uniquement pour faire l‟étude théorique de la stabilité de
l‟algorithme de commande. En fait, la connaissance de leurs valeurs n‟est pas nécessaire
pour l‟implantation des lois de commande adaptatives.
𝑓 𝑧 − 𝑓 𝑧 /𝑊𝑓 = 𝑊𝑓𝑇 𝑆𝑓 𝑧 + 𝜀𝑓 (𝑧) (2.42)
𝑔 𝑧 − 𝑔 𝑧 𝑊𝑔 = 𝑊𝑔𝑇 𝑆𝑔 (𝑧) + 𝜀𝑔 (𝑧) (2.43)
avec
𝑊𝑖 = 𝑊𝑖∗ − 𝑊𝑖 𝑎𝑣𝑒𝑐 𝑊𝑖 = −𝑊𝑖 𝑒𝑡 𝑖 = 𝑓, 𝑔

Hypothèse 2.4: Les erreurs d‟approximation sont bornées comme suit


𝜀𝑓 (𝑧) ≤ 𝜀𝑓 𝑒𝑡 𝜀𝑔 (𝑧) ≤ 𝜀𝑔
où 𝜀𝑓 et 𝜀𝑔 sont des constantes positives inconnues.
Cette hypothèse est raisonnable puisque nous supposons que les systèmes neuronaux
utilisés pour l‟approximation des fonctions inconnues possèdent la propriété
d‟approximateur universel.
Considérons maintenant la loi de commande suivante :
1
𝑢= −𝑓 𝑧 /𝑊𝑓 + 𝑦𝑑𝑛 𝑡 + 𝑘 𝑇 𝜉 𝑡 (2.44)
𝑔 𝑧/𝑊𝑔

cette loi de commande résulte de (2.33) en remplaçant les fonctions 𝑓 𝑧 et 𝑔 𝑧 par leurs

approximations neuronaux 𝑓 𝑧 /𝑊𝑓 et 𝑔 𝑧/𝑊𝑔 , et elle ne peut garantir à elle seule la


stabilité du système bouclé. Ceci est dû, d‟une part, à l‟existence des erreurs
d‟approximation et, d‟autre part, au fait que cette loi de commande n‟est pas définie
lorsque 𝑔 𝑧/𝑊𝑔 = 0 . Pour traiter le problème des erreurs d‟approximation, on ajoute un
terme de robustification à la loi de commande équivalente, et pour éviter la division par
zéro lors du processus d‟adaptation des paramètres 𝑊𝑔 , nous proposons l‟utilisation des
lois d‟adaptation avec projection .
Maintenant considérons la loi de commande suivante :

22
Chapitre2. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire SISO Non affine

𝑢 𝑡 = 𝑢𝑐 𝑡 + 𝑢𝑟 𝑡 (2.45)
La loi de commande (2.45) est la somme de deux termes : un terme de commande
adaptative, 𝑢𝑐 𝑡 utilisé pour compenser les non linéarités du système, et un terme de
robustification 𝑢𝑟 𝑡 , introduit pour pallier le problème des erreurs d‟approximation.
Le terme adaptatif est défini comme suit
1
𝑢𝑐 = −𝑓 𝑧/𝑊𝑓 + 𝑦𝑑𝑛 𝑡 + 𝑘 𝑇 𝜉 𝑡 (2.28)
𝑔 𝑧 /𝑊𝑔
et le terme de robustification 𝑢𝑟 par
1
𝑢𝑟 = 𝜀 + 𝜀𝑔 𝑢𝑐 𝑡 𝑠𝑔𝑛 𝜉 𝑇 𝑃𝑏 ( 2.47)
𝑔0
où 𝜀 et 𝜀𝑔 sont des estimations des paramètres inconnus, 𝜀 ∗ = 𝜀𝑓 + 𝑑 et 𝜀𝑔∗ = 𝜀𝑔 ,
𝑠𝑔𝑛 𝜉 𝑇 𝑃𝑏 est la fonction signe donnée par :
+1, 𝜉 𝑇 𝑃𝑏 > 0
𝑠𝑔𝑛 𝜉 𝑇 𝑃𝑏 = 0, 𝜉 𝑇 𝑃𝑏 = 0 (2.48)
𝑇
−1, 𝜉 𝑃𝑏 < 0
La bornitude des paramètres ajustables comme nous le verra par la suite, une condition
nécessaire pour l‟établissement de la stabilité de la boucle de commande. Comme déjà
introduit au chapitre précédant, on peut utiliser les algorithmes du gradient avec projection
pour assurer la bornitude des paramètres ajustés et aussi pour éviter le problème de n‟est
pas définie lorsque 𝑔 𝑧/𝑊𝑔 = 0 .
Pour cela l‟hypothèse suivante est employée :
Hypothèse 2.5: Les paramètres du réseau de neurones sont bornés par les ensembles de
contraintes 𝛺𝑓 et 𝛺𝑔 telles que :
𝛺𝑓 = 𝑊𝑓 : 𝑊𝑓 ≤ 𝑀𝑓
𝛺𝑔 = {𝑊𝑔 : 𝑊𝑔 ≤ 𝑀𝑔 }
Les bornes employées dans l‟hypothèse 2.6 sont introduites pour assurer la bornitude
des sorties des réseaux de neurones.
A cet effet, les paramètres du contrôleur neuronal sont ajustés en utilisant l‟algorithme
suivant [Wang-93] :
𝑊𝑓 𝑊𝑓 𝑇 𝑆𝑓 𝑧
𝑊𝑓 = 𝛤𝑓 𝜉 𝑇 𝑃𝑏 −𝑆𝑓 𝑧 + 𝐼𝑓 𝜌𝑓 2 (2.49)
𝑊𝑓

23
Chapitre2. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire SISO Non affine

𝑇
𝑊𝑔 𝑊𝑔 𝑇 𝑆𝑔 𝑧 𝑢𝑐 𝑡
𝑊𝑔 = 𝛤𝑔 𝜉 𝑃𝑏 −𝑆𝑔 𝑧 𝑢𝑐 𝑡 + 𝐼𝑔 𝜌𝑔 2 (2.50)
𝑊𝑔


0, 𝑠𝑖 𝑊𝑓 < 𝑀𝑓 𝑜𝑢 𝑊𝑓 = 𝑀𝑓 𝑒𝑡 𝜉 𝑇 𝑃𝑏 𝑊𝑓 𝑇 𝑆𝑓 𝑧 ≥ 0
𝐼𝑓 = (2.51)
1, 𝑠𝑖 𝑊𝑓 = 𝑀𝑓 𝑒𝑡 𝜉 𝑃𝑏 𝑊𝑓 𝑇 𝑆𝑓 𝑧 < 0
0, 𝑠𝑖 𝑊𝑔 < 𝑀𝑔 𝑜𝑢 𝑊𝑔 = 𝑀𝑔 𝑒𝑡 𝜉 𝑇 𝑃𝑏 𝑊𝑔 𝑇 𝑆𝑔 (𝑧)𝑢𝑐 𝑡 ≥ 0
𝐼𝑔 = (2.52)
1, 𝑠𝑖 𝑊𝑔 = 𝑀𝑔 𝑒𝑡 𝜉 𝑇 𝑃𝑏 𝑊𝑔 𝑇 𝑆𝑔 (𝑧)𝑢𝑐 𝑡 < 0
avec 𝜌𝑓 ≥ 1 𝑒𝑡 𝜌𝑔 ≥ 1
et 𝛤𝑔 , 𝛤𝑓 > 0 sont les pas d‟ajustement sélectionnés par le concepteur, et 𝑃 > 0 est une
matrice définie positive qu‟on déterminera par la suite.
𝜀 = 𝛾0 𝜉 𝑇 𝑃𝑏 (2.53)
𝜀𝑔 = 𝛾0 𝜉 𝑇 𝑃𝑏𝑢𝑐 (2.54)
avec 𝛾0 > 0.
2.3.2. Analyse de stabilité :
Dans cette section nous allons analyser la stabilité de la commande adaptative
neuronale indirecte proposée. Pour démontrer la stabilité de la commande adaptative, nous
allons procéder en deux étapes : En premier lieu nous démontrerons que les lois
d‟adaptation (2.49)-(2.50) gardent les paramètres ajustables sont bornés, et en deuxième
lieu, nous démontrerons la stabilité de la dynamique de l‟erreur en boucle fermée.
Considérons le système SISO non linéaire affin dans la commande (2.30), la loi de
commande (2.47) avec les lois d‟adaptation (2.49)-(2.50), si les hypothèses [2.1-2.5] sont
satisfaites, alors le schéma global garantit que :
(i) Les lois d‟adaptation (2.49)-(2.50) assurent que : 𝑊𝑓 < 𝑀𝑓 , 𝑊𝑔 < 𝑀𝑔 ∀𝑡 ≥ 0, si
les valeurs initiales des paramètres 𝑊𝑓 (0) et 𝑊𝑔 (0) sont sélectionnées correctement.
(ii) les signaux du système en boucle fermée sont bornés et l‟erreur de poursuite converge
asymptotiquement vers zéro.
Démonstration :
Pour démontrer que : 𝑊𝑓 < 𝑀𝑓 , considérons la fonction de Lyapunov :
1
𝑉𝑓 = 2 𝑊𝑓𝑇 𝛤𝑓−1 𝑊𝑓 (2.55)

d‟où

24
Chapitre2. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire SISO Non affine

𝑉𝑓 = 𝑊𝑓𝑇 𝛤𝑓−1 𝑊𝑓 (2.56)


Si 𝐼𝑓 = 0, nous avons 𝑊𝑓 < 𝑀𝑓 ou 𝑊𝑓 = 𝑀𝑓 et
𝑉𝑓 = − 𝛤𝑓 𝜉 𝑇 𝑃𝑏 𝑊𝑓 𝑇 𝑆𝑓 𝑧 ≤ 0 (2.27)
≥0

c'est-à-dire, que nous avons toujours 𝑊𝑓 ≤ 𝑀𝑓


Si 𝐼𝑓 = 1, nous avons 𝑊𝑓 = 𝑀𝑓 et

𝑇 𝑇 𝑊𝑓 𝑊𝑓 𝑇 𝑆𝑓 𝑧
𝑉𝑓 = 𝛤𝑓 𝜉 𝑃𝑏 𝑊𝑓 −𝑆𝑓 𝑧 + 𝜌𝑓 2 (2.58)
𝑊𝑓
2
𝑊𝑓 𝑊𝑓 𝑇 𝑆𝑓 𝑧
𝑉𝑓 = 𝛤𝑓 𝜉 𝑇 𝑃𝑏 −𝑊𝑓 𝑇 𝑆𝑓 (𝑧) + 𝜌𝑓 2 (2.59)
𝑊𝑓

𝑉𝑓 = 𝛤𝑓 𝜉 𝑇 𝑃𝑏𝑊𝑓 𝑇 𝑆𝑓 (𝑧) 𝜌𝑓 − 1 < 0 (2.60)


<0

Puisque 𝜉 𝑇 𝑃𝑏 𝑊𝑓 𝑇 𝑆𝑓 𝑧 < 0 et 𝑊𝑓 = 𝑀𝑓 et 𝜌𝑓 ≥ 1 nous obtenons𝑉𝑓 ≤ 0, ce que


implique que 𝑊𝑓 ≤ 𝑀𝑓 , alors nous obtenons 𝑊𝑓 ≤ 𝑀𝑓 ∀𝑡 ≥ 0
Une analyse similaire peut être utilisée pour montrer que 𝑊𝑔 ≤ 𝑀𝑔 .
Pour la démonstration de la stabilité de la dynamique de l‟erreur en boucle fermée, nous
commençons par remplacer la loi de commande effective (2.43) dans le système d‟erreur
(2.32) ce qui donne :

𝜉 = 𝐴𝜉 + 𝑏 −𝑓 𝑧 − 𝑔 𝑧 𝑢𝑐 − 𝑔(𝑧)𝑢𝑟 + 𝑦𝑑𝑛 − 𝑑
𝑧 𝑧
= 𝐴𝜉 + 𝑏 −𝑓 𝑧 − 𝑔 𝑧 − 𝑔 𝑢𝑐 − 𝑔 𝑢𝑐 − 𝑔 𝑧 𝑢𝑟 + 𝑦𝑑𝑛 − 𝑑 (2.61)
𝑊𝑔 𝑊𝑔

Remplaçant (2.46) dans (2.61), on aura


𝑧 𝑧
𝜉 = 𝐴𝜉 + 𝑏 − 𝑓 𝑧 − 𝑓 − 𝑔 𝑧 −𝑔 𝑢𝑐 − 𝑘 𝑇 𝜉 − 𝑔 𝑧 𝑢𝑟 − 𝑑 (2.62)
𝑊𝑓 𝑊𝑔

et avec (2.42) et (2.43) on a :

𝜉 = 𝐴 − 𝑏𝑘 𝑇 𝜉 + 𝑏 −𝑊𝑓𝑇 𝑆𝑓 𝑧 − 𝑊𝑔𝑇 𝑆𝑔 𝑧 𝑢𝑐 − 𝜀𝑓 𝑧 − 𝜀𝑔 𝑧 𝑢𝑐 − 𝑔 𝑧 𝑢𝑟 − 𝑑
= 𝐴𝑘 𝜉 + 𝑏 −𝑊𝑓𝑇 𝑆𝑓 (𝑧) − 𝑊𝑔𝑇 𝑆𝑔 𝑧 𝑢𝑐 − 𝜀𝑓 (𝑧) − 𝜀𝑔 (𝑧)𝑢𝑐 − 𝑔 𝑧 𝑢𝑟 − 𝑑 (2.63)

où 𝐴𝑘 = 𝐴 − 𝑏𝑘 𝑇
La matrice 𝐴𝑘 étant stable (valeurs propres à partie réelle négative), pour une matrice 𝑄
symétrique définie positive. On lui associe une équation de Lyapunov, ayant pour solution
unique une matrice symétrique définie positive, donnée par

25
Chapitre2. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire SISO Non affine

𝐴𝑇𝑘 𝑃 + 𝑃𝐴𝑘 = −𝑄 (2.64)


On considère la fonction candidate suivante
1 𝑇 1 2 1 2
𝑉= 𝜉 𝑃𝜉 + 𝑊𝑓𝑇 𝛤𝑓−1 𝑊𝑓 + 𝑊𝑔𝑇 𝛤𝑔−1 𝑊𝑔 + 𝜀 + 𝜀𝑔 (2.65)
2 𝛾𝑓0 𝛾0
et 𝛤𝑓 = 𝛤𝑓𝑇 > 0 , 𝛤𝑔 = 𝛤𝑔𝑇 > 0 , 𝑊𝑖 = 𝑊𝑖∗ − 𝑊𝑖 𝑎𝑣𝑒𝑐 𝑖 = 𝑓, 𝑔 et 𝛾0 > 0 , 𝛾𝑓0 > 0

où 𝜀 = 𝜀 ∗ − 𝜀 , 𝜀𝑔 = 𝜀𝑔∗ − 𝜀𝑔 , et 𝜀 = −𝜀 , 𝜀𝑔 = −𝜀𝑔 , 𝑊𝑖 = −𝑊𝑖 , 𝑖 = 𝑓, 𝑔.


En dérivant 𝑉par rapport au temps, on obtient :
1 𝑇 1 1
𝑉= 𝜉 𝑃𝜉 + 𝜉 𝑇 𝑃𝜉 − 𝑊𝑓𝑇 𝛤𝑓−1 𝑊𝑓 − 𝑊𝑔𝑇 𝛤𝑔−1 𝑊𝑔 − 𝜀 𝜀 − 𝜀 𝜀
2 𝛾0 𝛾0 𝑔 𝑔
1
= 𝜉 𝑇 𝐴𝑇𝑘 𝑃 + 𝑃𝐴𝑘 𝜉 + 𝜉 𝑇 𝑃𝑏[−𝑊𝑓𝑇 𝑆𝑓 𝑧 − 𝑊𝑔𝑇 𝑆𝑔 𝑧 𝑢𝑐 − 𝜀𝑓 𝑥 − 𝜀𝑔 𝑥 𝑢𝑐 (2.66)
2
1 1
−𝑔 𝑥 𝑢𝑟 − 𝑑] − 𝑊𝑓𝑇 𝛤𝑓−1 𝑊𝑓 − 𝑊𝑔𝑇 𝛤𝑔−1 𝑊𝑔 − 𝜀 𝜀 − 𝜀 𝜀
𝛾0 𝛾0 𝑔 𝑔
En utilisant (2.64), (2.66) peut être arrangée comme suit:
1
𝑉 = − 2 𝜉 𝑇 𝑄𝜉 + 𝜉 𝑇 𝑃𝑏 −𝜀𝑓 𝑧 − 𝜀𝑔 𝑧 𝑢𝑐 − 𝑔 𝑧 𝑢𝑟 − 𝑑
−𝑊𝑓𝑇 𝜉 𝑇 𝑃𝑏 𝑆𝑓 𝑧 + 𝛤𝑓−1 𝑊𝑓 − 𝑊𝑔𝑇 𝜉 𝑇 𝑃𝑏𝑆𝑔 𝑧 𝑢𝑐 + 𝛤𝑔−1 𝑊𝑔 (2.67)
1 1
− 𝛾 𝜀𝜀 − 𝜀 𝜀
0 𝛾0 𝑔 𝑔

Peut être défini 𝑉 comme suit :


1
𝑉 = − 𝑒 𝑇 𝑄𝑒 + 𝑉1 + 𝑉2 (2.68)
2
avec
𝑉1 = −𝑊𝑓𝑇 𝜉 𝑇 𝑃𝑏 𝑆𝑓 𝑧 + 𝛤𝑓−1 𝑊𝑓 − 𝑊𝑔𝑇 𝜉 𝑇 𝑃𝑏𝑆𝑔 𝑧 𝑢𝑐 + 𝛤𝑔−1 𝑊𝑔 (2.69
1 1
𝑉2 = 𝜉 𝑇 𝑃𝑏 −𝜀𝑓 (𝑧) − 𝜀𝑔 (𝑧)𝑢𝑐 − 𝑔 𝑧 𝑢𝑟 − 𝑑 − 𝛾 𝜀 𝜀 − 𝜀 𝜀 (2.70)
0 𝛾0 𝑔 𝑔

A partir des lois d‟adaptation (2.49)-(2.52), 𝑉1 se réduit à

𝑊𝑓 𝑊𝑓 𝑇 𝑆𝑓 𝑧 𝑊𝑔 𝑊𝑔 𝑇 𝑆𝑔 𝑧 𝑢𝑐 𝑡
𝑉1 = −𝑊𝑓𝑇 𝑇
𝐼𝑓 𝜌𝑓 𝜉 𝑃𝑏 2 − 𝑊𝑔𝑇 𝑇
𝐼𝑔 𝜌𝑔 𝜉 𝑃𝑏 2 (2.71)
𝑊𝑓 𝑊𝑔
𝜑𝑓 𝜑𝑔
Alors, 𝑉1 devient
𝑉1 = −𝐼𝑓 𝑊𝑓𝑇 𝜑𝑓 − 𝐼𝑔 𝑊𝑔𝑇 𝜑𝑔 (2.72)
Démontrons que 𝑊𝑓𝑇 𝜑𝑓 ≥ 0 .
Si 𝐼𝑓 = 𝐼𝑔 = 0 ,alors 𝑊𝑓 < 𝑀𝑓 , 𝜑𝑓 = 0 la conclusion est évidente.

26
Chapitre2. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire SISO Non affine

Si 𝐼𝑓 = 𝐼𝑔 = 1, alors 𝑊𝑓 = 𝑀𝑓 𝑒𝑡 𝜉 𝑇 𝑃𝑏𝑊𝑓 𝑇 𝑆𝑓 𝑧 < 0. D‟autre part, nous avons :


1 2 1 2 1 2
𝑊𝑓 𝑊𝑓 = 2 𝑊𝑓∗ − 2 𝑊𝑓 − 2 𝑊𝑓 − 𝑊𝑓 ≤0 (2.73)
1 2 1 2 1 2
Puisque 2 𝑊𝑓∗ ≤ 𝑀𝑓2 et 𝑊𝑓 = 𝑀𝑓2 et 𝑊𝑓 − 𝑊𝑓 ≥ 0 alors 𝑊𝑓 𝑊𝑓 ≤ 0
2 2

d‟où :
𝑊𝑓 𝑊𝑓 𝑇 𝑆𝑓 𝑧
𝑊𝑓𝑇 𝜑𝑓 = 𝜌𝑓 𝜉 𝑇
𝑃𝑏𝑊𝑓𝑇 2 ≥0 (2.74)
𝑊𝑓
De la même manière, on peut démontrer que
𝑊𝑔𝑇 𝜑𝑔 ≥ 0 (2.75)
En utilisant l‟hypothèse 2.5 et l‟équation (2.26), 𝑉2 peut être bornée comme suit
1 1
𝑉2 = −𝜉 𝑇 𝑃𝑏𝜀𝑓 𝑧 − 𝜉 𝑇 𝑃𝑏𝜀𝑔 (𝑧)𝑢𝑐 − 𝜉 𝑇 𝑃𝑏𝑑 − 𝜉 𝑇 𝑃𝑏𝑔 𝑧 𝑢𝑟 − 𝜀𝜀 − 𝜀 𝜀
𝛾0 𝛾0 𝑔 𝑔
𝑔 𝑧
≤ 𝜉 𝑇 𝑃𝑏 𝜀𝑓 + 𝜉 𝑇 𝑃𝑏𝑢𝑐 𝜀𝑔 + 𝜉 𝑇 𝑃𝑏 𝑑 − 𝜉 𝑇 𝑃𝑏 𝜀 + 𝜀𝑔 𝑢𝑐 𝑡 𝑠𝑔𝑛 𝜉 𝑇 𝑃𝑏 (2.76)
𝑔0
1 ∗ 1 ∗
− 𝜀 −𝜀 𝜀− 𝜀 − 𝜀𝑔 𝜀𝑔
𝛾0 𝛾0 𝑔
A partir des (2.53) et (2.54), et nous avons 𝜀 ∗ = 𝜀𝑓 + 𝑑 et 𝜀𝑔∗ = 𝜀𝑔 , 𝑉2 devient
𝑔 𝑧
𝑉2 = −𝜉 𝑇 𝑃𝑏 𝜀 + 𝜀𝑔 𝑢𝑐 𝑡 𝑠𝑔𝑛 𝜉 𝑇 𝑃𝑏 + 𝜉 𝑇 𝑃𝑏 𝜀 + 𝜉 𝑇 𝑃𝑏𝑢𝑐 𝜀𝑔 ≤ 0 (2.77)
𝑔0
A partir de l‟analyse ci-dessus, 𝑉 devient :
1
𝑉 ≤ − 𝜉 𝑇 𝑄𝜉 ≤ 0 (2.78)
2
donc 𝑉 (𝑡) ≤ 0 et 𝑉 ∈ 𝐿∞ ce qui implique la bornitude des signaux : 𝜉 𝑡 , 𝑊𝑓 𝑡 , 𝑊𝑔 𝑡 ,

𝑦𝑑 𝑡 , 𝑦𝑑 𝑡 , 𝑦𝑑 𝑡 , … … … , 𝑦𝑑𝑛−1 𝑡 , 𝑢 𝑡 ∈ 𝐿∞ . La limite lim𝑡→∞ 𝑉 𝑡 = 𝑉(∞) existe .


En intégrant (2.78) de 0 à ∞, on obtient :
∞ ∞
1
𝑉 𝑑𝑡 = 𝑉 ∞ − 𝑉 0 ≤ − 𝜉 𝑇 𝑡 𝑄𝜉 (𝑡)𝑑𝑡 ( 2.79)
0 2 0

ou encore

1
𝜉 𝑇 𝑡 𝑄𝜉 (𝑡)𝑑𝑡 ≤ 𝑉 0 − 𝑉 ∞ ( 2.80)
2 0

Sachant que 𝑉 est une fonction de Lyapunov, on a:


𝑉 0 ≥𝑉 ∞ (2.81)
Des équations (2.80) et (2.81), on peut alors déduire que:

27
Chapitre2. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire SISO Non affine

𝜉 𝑇 𝑡 𝑄𝜉 (𝑡) ∈ 𝐿2 (2.82)

ce qui implique que 𝜉 (𝑡) ∈ 𝐿2 Donc 𝜉 (𝑡) ∈ 𝐿∞ , et d‟après le lemme de Barbalat[Slotine-


91], on conclut que lim𝑡→∞ 𝜉 (𝑡) = 0 , alors (2.49), (2.50), et (2.45) nous avons tous sont
bornée. Maintenant, en utilisant la bornitude de 𝑢 , 𝑊𝑓 , 𝑊𝑔 et la convergence de 𝜉 (𝑡), nous

avons lim𝑡→∞ 𝑊𝑓 𝑡 = 0 , lim𝑡→∞ 𝑊𝑔 𝑡 = 0 .


Remarque 2.2 : Pour éviter le phénomène de broutement provoqué par le terme signe dans
le terme de commande 𝑢𝑟 (2.47), la fonction signe (2.48) est remplacée par la fonction
tangente Hyperbolique 𝜀 tanh⁡
(𝑥 𝜀) , Où 𝜀 est un petit constant positif ou par la fonction
de saturation «𝑠𝑎𝑡» de la forme suivante
𝜀 𝑠𝑖𝑔𝑛 𝑥 𝑠𝑖 𝑥 ≥ 𝜀
𝑠𝑎𝑡 𝑥 =
𝑥 𝑠𝑖 𝑥 < 𝜀
Remarque 2.3 : Pour avoir une loi de commande bien définie même lorsque 𝑔 𝑧 /𝑊𝑔 =
0, nous avons remplacé 𝑔−1 𝑧 /𝑊𝑔 par 𝑔 𝑧 /𝑊𝑔 (𝜀0 + 𝑔2 𝑧 /𝑊𝑔 ) .

2.3.3. Résultats de simulation :


Un exemple de simulation est développé, est utilisé pour illustrer l‟efficacité de la
commande adaptative neuronale proposée pour un système non linéaire non affine en la
commande.
On considère le système non linéaire non affin décrit par l‟équation différentielle
suivante [Ge-00]:
𝑥1 = 𝑥2
𝑥2 = 𝑥12 + 0.15𝑢3 + 0.1 1 + 𝑥22 𝑢 + sin 0.1𝑢 (2.83)
𝑦 = 𝑥1
Comme 𝜕 𝑏(𝑥, 𝑢) 𝜕𝑢 = 0.45𝑢2 + 0.1 1 + 𝑥22 + 0.1 cos 0.1𝑢 > 0 pour tout (𝑥, 𝑢) ∈
ℜ𝑛+1 cela implique que l‟hypothèse 2.1 est satisfaite.
L‟objective de la commande est d‟assurer une bonne poursuite de signale de
référence 𝑦𝑑 𝑡 = sin 𝑡 + cos⁡
(0.5𝑡), par la sortie 𝑦 𝑡 = x1 , pour montre la robustesse
du contrôleur proposée, une perturbation externe de la forme 𝑑 𝑡 = 0.5 sin⁡
(10𝑡) est
considérée.
Le système (2.30) possède deux réseaux de neurone sous la forme (1.1) pour approximer
en ligne les deux fonctions inconnus 𝑓 𝑧 𝑒𝑡 𝑔(𝑧), le nombre des réseaux a été choisi avec

28
Chapitre2. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire SISO Non affine

𝑇
𝑙 = 25, et les variables d'entrée sont choisis comme 𝑧 = 𝑧1 , 𝑧2 , 𝑧3 , 𝑧4 , 𝑧5 avec 𝑧1 = 𝑥1 ,
𝑧2 = 𝑥2 , 𝑧3 = 𝑦𝑑 , 𝑧4 = 𝑦𝑑 et 𝑧5 = 𝑦𝑑 + 𝑘 𝑇 𝑒 pour chaque fonction𝑓 𝑧 𝑒𝑡 𝑔(𝑧).
Les paramètres de synthèses et les conditions initiales sont donnés dans le tableau (2.1)
suivant :
Les paramètres de Les valeurs numériques Les conditions Les valeurs
synthèses initiales numériques
𝜞𝒇 0.01 𝑾𝒇 𝟎 0
𝜞𝒈 1000000 𝑾𝒈 𝟎 −1 , 1
𝝆𝒇 1.1 𝜺 𝟎 0
𝝆𝒈 1.1 𝜺𝒈 𝟎 0
𝑴𝒇 16 𝒙𝟏 𝟎 0.6
𝑴𝒈 1.6 𝒙𝟐 𝟎 0.5
𝒌 1; 2 𝒈𝟎 0.1
𝑸 𝐷𝑖𝑎𝑔 10 , 10 𝒈𝟏 0.6
𝑷 15 5 ; 5 5
Tab.2.1 : les paramètres de synthèses & les conditions initiales
Les figures 2.1 et 2.2 montrent une convergence rapide des états du système 𝑥1 et 𝑥2 vers
leurs références. La figure 2.3 représente le signal de commande borné.

2
x1
1.5 y-référence

0.5

-0.5

-1

-1.5

-2
0 5 10 15 20 25 30
Temps(sec)

Fig. 2.1 : La variation de l‟état du système 𝑦 = 𝑥1 et sa référence𝑦𝑑 .

29
Chapitre2. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire SISO Non affine

1.5
x2
yd-référence
1

0.5

-0.5

-1

-1.5

-2
0 5 10 15 20 25 30
Temps(sec)

Fig. 2.2 : La variation de l‟état du système du système 𝑦 = 𝑥2 et sa référence 𝑦𝑑

-1

-2

-3

-4
0 5 10 15 20 25 30
Temps(sec)

Fig. 2.3 : La variation de la commande.

30
Chapitre2. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire SISO Non affine

2.4 Commande adaptative directe neuronale :


Dans la commande adaptative directe, un réseau de neurone est utilisé pour approximer
la loi de commande idéale 𝑢∗ de (2.33). Les paramètres du contrôleur neuronal sont adaptés
en utilisant l‟algorithme d‟adaptation. La stabilité asymptotique du système résultant en
boucle fermée est garantie en utilisant la théorie de Lyapunov.
2.4.1. Conception de la commande neuronale :
Le lemme 2.1 garantit seulement l‟existence d‟une loi de commande idéale 𝑢∗ qui
assure la convergence de l'erreur de poursuite vers zéro mais ne fournit pas de méthode
pour sa détermination.
Du fait, l‟approximation neuronale adaptative de la commande idéale 𝑢∗ (2.33) est
définie par
𝑢(𝑧/𝑊) = 𝑊 𝑇 𝑆 𝑧 (2.84)
avec 𝑆 𝑧 sont de vecteur de fonction neuronale supposés convenablement fixés en
avance par l‟utilisateur, avec 𝑊 = 𝑤1 , … , 𝑤𝑙 𝑇
∈ 𝕽𝒍 sont les vecteurs des paramètres
ajustables, et 𝑙 est le nombre de nœud, et 𝑧 ∈ 𝛺𝑧 ⊂ 𝕽𝒎 est le vecteur d'entrée, étant 𝛺𝑧 ⊂
𝕽𝒎 un ensemble compact.
Soit :
𝑊 ∗ = 𝑎𝑟𝑔𝑚𝑖𝑛𝑤 {𝑠𝑢𝑝𝑧∈𝛺𝑧 𝑢 𝑧 𝑊 − 𝑢 𝑧 } (2.85)
Soit 𝑊 l‟estimer de 𝑊 ∗ et qu‟il sera calculé à partir d‟un algorithme d‟adaptation, puisque
les paramètres optimaux 𝑊 ∗ sont des constantes artificielles inconnues introduites
uniquement pour faire l‟étude théorique de la stabilité de l‟algorithme de commande, En
fait, la connaissance de leurs valeurs n‟est pas nécessaire pour l‟implantation des lois de
commande adaptatives. Notons que :
𝑊 = 𝑊∗ − 𝑊 (2.86)
L‟erreur d‟estimation paramétrique, et par
𝜀 𝑧 = 𝑢 𝑧 − 𝑢 𝑧 /𝑊 ∗ (2.87)
Hypothèse 2. 6: Les erreurs d‟approximation sont bornées, c'est-à-dire
𝜀 𝑧 ≤𝜀
où 𝜀 est de constante positive inconnue.
Cette hypothèse est raisonnable puisque nous supposons que les systèmes neuronales
utilisés pour l‟approximation des fonctions inconnues possèdent la propriété
d‟approximateur universel.

31
Chapitre2. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire SISO Non affine

Pour atteindre les objectifs de commande, nous définissons les lois d‟adaptation des
paramètres comme suit :
𝑊 = 𝛤𝜉 𝑇 𝑃𝑏𝑆 𝑇 𝑧 (2.88)
et 𝛤 > 0 est le pas d‟ajustement sélectionnés par le concepteur, et 𝑃 > 0 est une matrice
définie positive qu‟on déterminera par la suite.
2.4.2. Analyse de stabilité :
Dans cette section nous allons démontrer que la commande adaptative neuronale directe
proposée est stable. Pour démontrer la stabilité de la commande adaptative, nous allons
procéder en deux étapes :(i) En premier lieu nous démontrerons la convergence
asymptotique de l‟erreur de poursuite vers zéros dans le cas ou la perturbation extérieure
𝑑 n‟existe pas, (ii) et en deuxième lieu, nous démontrerons que la convergence de l‟erreur
de poursuite vers un ensemble borné dans le cas ou la perturbation extérieure 𝑑 existe.
Considérons le système SISO non linéaire affin dans la commande (2.30), la loi de
commande (2.84) avec sa loi d‟adaptation (2.88), si les hypothèses [2.1, 2.2, 2.3, 2.6] sont
satisfaites, alors tous les signaux de la boucle fermée sont bornés, et le schéma global
garantit que :
(i) l‟erreur de poursuite converge asymptotiquement vers zéro.
(ii) l‟erreur de poursuite 𝜉 (𝑡) converge à l‟ensemble compact 𝛺𝜉 défini par :
𝜔1
𝛺𝜉 = 𝜉 :/ 𝜉 >
𝜔2
Démonstration :
Pour analyser la stabilité du système bouclé, nous commençons par remplacer la loi de
commande effective (2.84) dans le système d‟erreur (2.32) ce qui donne :

𝜉 = 𝐴𝜉 + 𝑏 −𝑓 𝑧 − 𝑔 𝑧 𝑢(𝑧/𝑊) + 𝑦𝑑𝑛 − 𝑑 (2.89)

En substituant la valeur idéale de 𝑓 𝑧 à partir de (2.33) dans (2.89), (2.89) peut être
réécrite comme suit :

𝜉 = 𝐴𝜉 + 𝑏 𝑔 𝑧 𝑢 − 𝑔 𝑧 𝑢(𝑧/𝑊) − 𝑘 𝑇 𝜉 𝑡 − 𝑑
(2.90)
= 𝐴𝑘 𝜉 + 𝑏 𝑔 𝑧 𝑢 − 𝑢(𝑧/𝑊) − 𝑑

où 𝐴𝑘 = 𝐴 − 𝑏𝑘 𝑇

32
Chapitre2. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire SISO Non affine

et
0 ⋯ 𝐼(𝑛−1) 0
𝐴𝑘 = ⋮ ⋱ ⋮ 𝑏= ⋮ (2.91)
−𝑘1 ⋯ −𝑘𝑛 1

La matrice 𝐴𝑘 étant stable (valeurs propres à partie réelle négative), pour une matrice 𝑄
symétrique définie positive. On lui associe une équation de Lyapunov 𝑃, ayant pour
solution unique une matrice symétrique définie positive, donnée par
𝐴𝑇𝑘 𝑃 + 𝑃𝐴𝑘 = −𝑄 (2.92)
En ajoutant et en soustrayant 𝑔 𝑧 𝑢(𝑧/𝑊 ∗ ) à (2.90), on obtient :

𝜉 = 𝐴𝑘 𝜉 + 𝑏 𝑔 𝑧 (𝑢 + 𝑢(𝑧/𝑊 ∗ ) − 𝑢(𝑧/𝑊) − 𝑢(𝑧/𝑊 ∗ )) − 𝑑 (2.93)


En utilisant maintenant (2.84), alors on peut écrire :
𝑢(𝑧/𝑊) = 𝑊 𝑇 𝑆 𝑧
(2.94)
𝑢(𝑧/𝑊 ∗ ) = 𝑊 ∗𝑇 𝑆 𝑧
A partir de (2.86) et (2.94), alors (2.93) devient :

𝜉 = 𝐴𝑘 𝜉 + 𝑏 𝑔 𝑧 (𝑢 − 𝑢(𝑧/𝑊 ∗ )) + 𝑔 𝑧 𝑊 𝑇 𝑆 𝑧 − 𝑑 (2.95)
(i) on considère que la perturbation extérieure n‟existe pas, c'est-à-dire 𝑑 = 0 pour
démontre la partie (i). Alors
Réécrivons le système d‟erreur (2.95) comme suit :

𝜉 = 𝐴𝑘 𝜉 + 𝑏 𝑔 𝑧 (𝑢 − 𝑢(𝑧/𝑊 ∗ )) + 𝑔 𝑧 𝑊 𝑇 𝑆 𝑧 (2.96)
Considérons maintenant la fonction de Lyapunov candidate suivante :
1 𝜉 𝑇 𝑃𝜉 1 𝑇 −1
𝑉= + 𝑊 𝛤 𝑊 (2.97)
2 𝑏𝑢 2

où 𝛤 = 𝛤 𝑇 > 0 , ou 𝑊 = 𝑊 ∗ − 𝑊 et 𝑊 = −𝑊
La dérivée temporelle de 𝑉 est

1 𝜉 𝑇 𝑃𝜉 1 𝜉 𝑇 𝑃𝜉 𝜉 𝑇 𝑃𝜉 𝑏𝑢
𝑉= + − − 𝑊 𝑇 𝛤 −1 𝑊 (2.98)
2 𝑏𝑢 2 𝑏𝑢 2 𝑏𝑢 2
En remplaçant par (2.92) et (2.96) dans (2.98), on aura :
1 𝜉 𝑇 𝑄𝜉 1 𝑇 𝜉 𝑇 𝑃𝜉 𝑏𝑢
𝑉= + 𝜉 𝑃𝑏 𝑔 𝑧 (𝑢 − 𝑢(𝑧/𝑊 ∗ )) + 𝑔 𝑧 𝑊 𝑇 𝑆 𝑧 −
2 𝑏𝑢 𝑏𝑢 2 𝑏𝑢 2
− 𝑊 𝑇 𝛤 −1 𝑊 (2.99)
Selon l‟hypothèse2.2 et l‟équation (2.8), on peut arrangée (2.99) comme suit:

33
Chapitre2. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire SISO Non affine

𝜉 𝑇 𝑄𝜉 1 𝑇 ∗
𝜉 𝑇 𝑃𝜉 𝑏𝑢
𝑉=− + 𝜉 𝑃𝑏{𝑔 𝑧 (𝑢 − 𝑢(𝑧/𝑊 ))} −
2 𝑏𝑢 𝑏𝑢 2 𝑏𝑢 2 (2.100)
+𝑊 𝑇 𝛤 −1 𝛤 𝜉 𝑇 𝑃𝑏𝑆 𝑧 − 𝑊
En utilisant la loi d‟adaptation (2.88) et après simplification, on trouve
𝜉 𝑇 𝑄𝜉 𝜉 𝑇 𝑃𝜉 𝑏𝑢 𝑇 ∗
𝑉≤− − 2 + 𝜉 𝑃𝑏 𝑢 − 𝑢 (𝑧/𝑊 ) (2.101)
2 𝑏𝑢 2 𝑏𝑢
En utilisant le fait que le système neuronale HONN utilisé est un approximateur universel,
on a 𝑢 − 𝑢(𝑧/𝑊 ∗ ) ≤ 𝜀 . Si l‟on impose 𝜀 → 0,
1 𝜉 𝑇 𝑄𝜉 𝜉 𝑇 𝑃𝜉 𝑏𝑢
𝑉≤− + (2.102)
2 𝑏𝑢 𝑏𝑢 2
𝜉 𝑇 𝑄𝜉 𝜉 𝑇 𝑃𝜉 𝑏𝑢
Pour compléter la démonstration, nous devons montrer que + est positif.
𝑏𝑢 𝑏𝑢 2

A partir de l'hypothèse 2.2 et l‟équation (2.8), nous avons :


1 1 −1 −1
0 < 𝑔0 ≤ 𝑏𝑢 ≤ 𝑔1 ⟹ ≤ , ≤
𝑏𝑢 𝑔0 𝑏𝑢 𝑔1

On peut écrire
𝑇 𝑇
−𝐻𝜉 𝑃𝜉 ≤ 𝜉 𝑃𝜉 𝑏𝑢 (2.103)
du fait que
𝜉 𝑇 𝑃𝜉 ≤ 𝜆𝑚𝑎𝑥 𝑃 𝜉 𝑇 𝜉 (2.104)
En utilisant (2.102), (2.103), nous pouvons avoir
−𝐻𝜆𝑚𝑎𝑥 𝑃 𝜉 𝑇 𝜉 ≤ 𝜉 𝑇 𝑃𝜉 𝑏𝑢 (2.105)
𝑏𝑢
Étant donné −𝐻𝜆𝑚𝑎𝑥 𝑃 𝜉 𝑇 𝜉 < 0 et ≥ 1, l'inégalité (2.105) peut être simplifiée
𝑔0

comme suit :
𝑏𝑢
−𝐻𝜆𝑚𝑎𝑥 𝑃 𝜉 𝑇 𝜉 ≤ 𝜉 𝑇 𝑃𝜉 𝑏𝑢 (2.106)
𝑔0
On peut écrire aussi
𝜆𝑚𝑖𝑛 𝑄 𝜉 𝑇 𝜉 𝑏𝑢 ≤ 𝜉 𝑇 𝑄𝜉 𝑏𝑢 (2.107)
Maintenant en utilisant (2.106) et (2.107) pour obtenir
𝑏
𝜆𝑚𝑖𝑛 𝑄 𝜉 𝑇 𝜉 𝑏𝑢 − 𝐻𝜆𝑚𝑎𝑥 𝑃 𝜉 𝑇 𝜉 𝑔 𝑢 ≤ 𝜉 𝑇 𝑄𝜉 𝑏𝑢 + 𝜉 𝑇 𝑃𝜉 𝑏𝑢 (2.108)
0
𝑔0
On multiplie l'inégalité (2.108) par on peut écrire
𝜆 𝑚𝑎𝑥 𝑃

𝑏𝑢 𝑔0 𝑏𝑢 𝑔0 𝜆𝑚𝑖𝑛 𝑄 𝜉 𝑇 𝜉 𝑏𝑢 𝑔0
𝜉 𝑇 𝑄𝜉 + 𝜉 𝑇 𝑃𝜉 ≥ − 𝐻𝜉 𝑇 𝜉 𝑏𝑢 (2.109)
𝜆𝑚𝑎𝑥 𝑃 𝜆𝑚𝑎𝑥 𝑃 𝜆𝑚𝑎𝑥 𝑃

34
Chapitre2. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire SISO Non affine

Étant donné l'hypothèse 2.2 et l‟équation (2.9) nous avons


𝜆min ⁡(𝑄)
𝑔 >𝐻
𝜆max ⁡(𝑃) 0
On peut réécrite l‟équation (2.109) comme suit
𝑏𝑢 𝑔0 𝑏𝑢 𝑔0
𝜉 𝑇 𝑄𝜉 + 𝜉 𝑇 𝑃𝜉 ≥ 𝐻𝜉 𝑇 𝜉 𝑏𝑢 − 𝐻𝜉 𝑇 𝜉 𝑏𝑢 = 0 (2.110)
𝜆𝑚𝑎𝑥 𝑃 𝜆𝑚𝑎𝑥 𝑃
À partir (2.109), peut être facilement montré que
𝜉 𝑇 𝑄𝜉 𝜉 𝑇 𝑃𝜉 𝑏𝑢
+ ≥0 (2.111)
𝑏𝑢 𝑏𝑢 2
alors :
1 𝜉 𝑇 𝑄𝜉 𝜉 𝑇 𝑃𝜉 𝑏𝑢
𝑉≤− + ≤0 (2.112)
2 𝑏𝑢 𝑏𝑢 2
ce qui prouve la stabilité de la structure de commande.
D‟après le lemme de Barbalat [Slotine-91], nous sommes garantis que l'erreur de poursuite
converge asymptotiquement à un voisinage d'origine. En plus, la convergence de la loi
d‟adaptation (2.88) à zéro est établie par sa définition.
(ii) on considère que la perturbation extérieure n‟existe pas, c'est-à-dire 𝑑 ≠ 0 pour
démontre la partie (ii).
Alors, l‟équation d‟erreur (2.95) peut être écrite comme :

𝜉 = 𝐴𝑘 𝜉 + 𝑏 𝑔 𝑧 (𝑢 − 𝑢(𝑧/𝑊 ∗ )) + 𝑔 𝑧 𝑊 𝑇 𝑆 𝑧 − 𝑑 (2.113)
En utilisant l‟équation d‟erreur d‟approximation minimale (2.87), (2.113) devient :

𝜉 = 𝐴𝑘 𝜉 + 𝑏 𝑔 𝑧 𝑊 𝑇 𝑆 𝑧 + 𝑔 𝑧 𝜀 𝑧 − 𝑑 (2.114)
Considérons maintenant la fonction de Lyapunov candidate suivante :
1 𝜉 𝑇 𝑃𝜉 1 𝑇 −1
𝑉= + 𝑊 𝛤 𝑊 (2.115)
2 𝑏𝑢 2
où 𝛤 = 𝛤 𝑇 > 0 , ou 𝑊 = 𝑊 ∗ − 𝑊 et 𝑊 = −𝑊
La dérivée temporelle de 𝑉 est

1 𝜉 𝑇 𝑃𝜉 1 𝜉 𝑇 𝑃𝜉 𝜉 𝑇 𝑃𝜉 𝑏𝑢
𝑉= + − − 𝑊 𝑇 𝛤 −1 𝑊 (2.116)
2 𝑏𝑢 2 𝑏𝑢 2 𝑏𝑢 2
En remplaçant par (2.92) et (2.114) dans (2.116), on aura :

35
Chapitre2. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire SISO Non affine

1 𝜉 𝑇 𝑄𝜉 1 𝑇 𝑇
𝜉 𝑇 𝑃𝜉 𝑏𝑢
𝑉= + 𝜉 𝑃𝑏 𝑔 𝑧 𝑊 𝑆 𝑧 + 𝑔 𝑧 𝜀 𝑧 − 𝑑 −
2 𝑏𝑢 𝑏𝑢 2 𝑏𝑢 2
− 𝑊 𝑇 𝛤 −1 𝑊 (2.117)
Selon l‟hypothèse 2.2 et l‟équation (2.8) et (2.27), peut être arrangée (2.117) comme suit :
𝜉 𝑇 𝑄𝜉 1 𝑇 𝜉 𝑇 𝑃𝜉 𝑏𝑢
𝑉=− + 𝜉 𝑃𝑏 𝑔 𝑧 𝜀 𝑧 − 𝑑 −
2 𝑏𝑢 𝑏𝑢 2 𝑏𝑢 2
+ 𝑊 𝑇 𝛤 −1 𝛤 𝜉 𝑇 𝑃𝑏𝑆 𝑧 − 𝑊 (2.118)
En utilisant la loi d‟adaptation (2.88), on trouve
𝜉 𝑇 𝑄𝜉 𝜉 𝑇 𝑃𝜉 𝑏𝑢 1 𝑇
𝑉≤− − 2 + 𝜉 𝑃𝑏 𝑔 𝑧 𝜀 𝑧 − 𝑑 (2.119)
2 𝑏𝑢 2 𝑏𝑢 𝑏𝑢
de plus, (2.119) peut être bornée par
1 2 1 𝑏𝑢 2
𝑉≤− 𝜆𝑚𝑖𝑛 𝑄 𝜉 + 𝜆𝑚𝑖𝑛 𝑃 𝜉
2𝑏𝑢 2𝑏𝑢 𝑏𝑢
1
+ 𝜉 𝑃𝑏 𝑔 𝑧 𝜀 𝑧 + 𝑑 (2.120)
𝑏𝑢
ou encore, a partir de l‟hypothèse 2.6, l‟hypothèse 2.2 et l‟équation (2.28), et nous avons
1 1
≤ 𝑔 ,on aura :
𝑏𝑢 0

𝜉 𝐻
𝑉≤− 𝜉 𝜆𝑚𝑖𝑛 𝑄 + 𝜉 𝜆𝑚𝑖𝑛 𝑃 − 2 𝑃𝑏 𝑔 𝑧 𝜀 + 𝑑 (2.121)
2𝑔0 𝑔0

Étant donné de l'hypothèse 2.2 et l‟équation (2.9) nous avons


𝜆min ⁡(𝑄)
𝑔 >𝐻
𝜆max ⁡(𝑃) 0

𝜉 𝜆min ⁡(𝑄)
𝑉≤− 𝜉 𝜆𝑚𝑖𝑛 𝑄 + 𝜆 𝑃 𝜉 − 2 𝑃𝑏 𝑔 𝑧 𝜀 + 𝑑 (2.122)
2𝑔0 𝜆max ⁡(𝑃) 𝑚𝑖𝑛

donc :
𝜉
𝑉≤− 𝜉 𝜔2 − 𝜔1 (2.223)
2𝑔0

avec :
𝜔1 = 2 𝑃𝑏 𝑔 𝑧 𝜀 + 𝑑
𝜆𝑚𝑖𝑛 𝑄 𝜆𝑚𝑎𝑥 𝑃 − 𝜆𝑚𝑖𝑛 𝑃
𝜔2 =
𝜆𝑚𝑎𝑥 𝑃

36
Chapitre2. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire SISO Non affine

𝑉 deviendra négatif tant que 𝜉 > 𝜔1 𝜔2 . Par conséquent, les erreurs de poursuite
convergent vers une région bornée donnée par:
𝜔1
𝛺𝜉 = 𝜉 :/ 𝜉 ≤ (2.224)
𝜔2
ce qui implique la bornitude de tous les signaux dans le système bouclé, c'est-à-dire la
perturbation étant supposé bornée et l‟erreur d‟approximation minimal peut être construite
arbitrairement petite par l‟utilisateur de la propriété d‟approximation neuronal, alors la
quantité 𝜔1 est borné, ce qui implique que l‟ensemble 𝛺𝜉 dans (2.224) est borné.

Maintenant 𝑉 deviendra négatif tant que 𝜉 (𝑡)est en dehors de l‟ensemble 𝛺𝜉 , selon la

théorie de la stabilité de Lyapunov, nous concluons que l‟erreur 𝜉 (𝑡)est bornée et va


converger vers 𝛺𝜉 . Alors et la fonction candidate 𝑉 est bornée. Par conséquent, on peut

démontrer que les erreurs 𝜉 (𝑡) ∈ 𝐿2 sont carrés intégrables et que 𝜉 (𝑡) ∈ 𝐿∞ sont
bornées, d‟où, par application du lemme de Barbalat [Slotine-91], on déduit la
convergence vers zéro des erreurs de poursuite lim𝑡→∞ 𝜉 (𝑡) = 0 de tous les systèmes.

2.4.3 Résultats de simulation :


Pour montrer les performances de la méthode de commande neuronale adaptative
directe proposée, cette partie, présente une simulation numérique effectuée sur le modèle
dynamique non affine donné en section 2.3.3. On peut démontrer que le modèle dynamique
satisfait les hypothèses [2.1- 2.3].
L‟objectif de la commande consiste à forcer la sortie du système 𝑦(𝑡) à suivre une
consigne désirée 𝑦𝑑 𝑡 = sin 𝑡 .
Dans cet exemple de simulation, les réseaux de neurone HONN sous la forme (1.1) sont
utilisée pour approximer le contrôleur implicite idéale inconnu, le nombre des réseaux est
𝑇
choisi avec 𝑙 = 25, et les variables d'entrée sont choisis comme 𝑧 = 𝑧1 , 𝑧2 , 𝑧3 , 𝑧4 , 𝑧5
avec 𝑧1 = 𝑥1 , 𝑧2 = 𝑥2 , 𝑧3 = 𝑦𝑑 , 𝑧4 = 𝑦𝑑 et 𝑧5 = 𝑦𝑑 + 𝑘 𝑇 𝑒 .
Les paramètres de synthèses et les conditions initiales sont donnés dans le tableau (2.2)
suivant :

37
Chapitre2. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire SISO Non affine

Les paramètres de Les valeurs numériques Les conditions Les valeurs


synthèses initiales numériques
𝛤 120 𝑾 𝟎 0
𝒌 10 ; 5 𝒙𝟏 𝟎 0.06
𝑸 𝐷𝑖𝑎𝑔 10 , 10 𝒙𝟐 𝟎 0.5
𝑷 13.50 0.5 ; 0.5 1.10

Tab.2.2 : les paramètres de synthèses et les conditions initiales.


Les figures 2.4 - 2.5 montrent une convergence rapide des états du système 𝑥1 et 𝑥2 vers
leurs références. La figure 2.6 représente le signal de commande.

1.5
x1
y-référence
1

0.5

-0.5

-1

-1.5
0 5 10 15 20 25 30
Temps(sec)

Fig. 2.4 : la variation de l‟état du système 𝑦 = 𝑥1 et sa référence𝑦𝑑 .

38
Chapitre2. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire SISO Non affine

1.5
x2
yd-référence
1

0.5

-0.5

-1

-1.5
0 5 10 15 20 25 30
Temps(sec)

Fig. 2.5 : Evolution de l‟état du système du système 𝑦 = 𝑥2 et sa référence 𝑦𝑑 .

-1

-2

-3
0 5 10 15 20 25 30
Temps(sec)

Fig. 2.6 : Signal de commande.

39
Chapitre2. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire SISO Non affine

2.5. Conclusion :
Dans ce chapitre, nous avons proposé des approches adaptatives neuronaux, pour la
commande d‟une classe de systèmes non linéaires SISO non affines en la commande sous
la forme générale, nous avons utilisé le développement en série de Taylor autour d‟un
contrôleur idéal inconnu pour transformé le système non affine en un système affine. Et
puis deux approches distinctes formulent pour la commande adaptative neuronale de
système transformé, l‟approche directe et l‟approche indirecte. Dans l‟approche directe, les
systèmes neuronaux sont utilisés pour approximer un contrôleur idéal inconnu. En
revanche la commande indirecte exploite deux systèmes adaptatifs neuronale pour
approximer la dynamique du système affine, et la loi de commande est synthétisée en se
basant sur ces estimées. Dans cette approche, les lois de commande sont bien définies à
tout moment, et le problème des erreurs de reconstruction et la perturbation externe sont
traité par l‟introduction d‟un terme de robustification de type mode glissant. Le problème
de la singularité engendré par cette approche est résolu, par l‟utilisation d‟un algorithme
de projection.
Les lois d‟adaptation sont déduites via l‟étude de stabilité, au sens de Lyapunov, du
système en boucle fermée. Deux exemples de simulation sont mis en œuvre pour valider
l‟approche proposée.
Dans le chapitre suivant, une approche basée sur la commande adaptative neuronale
directe, qui exploite le théorème de la fonction implicite globale, sera développée pour
prendre en charge les systèmes non linéaires MIMO non affines en la commande.

40
Chapitre 3
La Commande Adaptative Neuronale pour une
Classe de Systèmes Non Linéaire MIMO Non-affine

3.1 Introduction
3.2 La transformation du système non-linéaire MIMO
3.3 Commande adaptative directe neuronale
3.4 Conclusion

41
Chapitre3. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire MIMO Non affine

3.1. Introduction :
La conception de contrôleurs adaptatifs robustes pour les systèmes multivariables non-
linéaires non affines en la commande reste une tâche difficile dans le domaine des
systèmes de commande. La principale difficulté pour la commande des systèmes non
affines en la commande réside dans le fait que les signaux de commande ne peuvent pas
être explicitement obtenus même si la dynamique du système est bien connue.
En pratique, il existe plusieurs systèmes non linéaires avec une structure non affine en
la commande, c'est-à-dire des systèmes caractérisés par des entrées de commande qui
n‟apparaissent pas linéairement dans l'équation d'état du système, tels que les processus
biochimiques, certains réacteurs chimiques, neutralisation du pH, les colonnes de
distillation, la lévitation magnétique, etc.
Dans la littérature, la commande des systèmes MIMO sous la forme normale est très
peu documentée mis à part la commande par logique floue [Liu-07] [Wang-07]. Peu de
résultats existent pour les systèmes de forme strict [Ge-04]. Dans [Wang-07], les auteurs
se basent sur le développement en série de Taylor autour d‟un point (x0, u0) pour obtenir un
modèle affine en la commande. Le modèle affine obtenu est approximé par un modèle flou
de type T-S afin de déduire le contrôleur qui garanti les objectifs de la commande. Un
vecteur des termes de commande type mode glissant est ajouté au contrôleur pour
compenser l‟effet des erreurs d‟approximation et des perturbations externes. Dans [Liu-
07], les auteurs utilisent le théorème de la valeur moyenne pour construire un modèle
affine. Cependant les travaux précités présentent des contrôleurs adaptatifs indirects où le
problème de la singularité est résolu par l‟algorithme de projection.
L‟objectif de ce chapitre est la synthèse d‟un contrôleur neuronal adaptatif direct d‟une
classe de système MIMO non linéaire non affine en la commande. Premièrement, le
théorème de la fonction implicite globale [Zhang-06] est utilisé pour démontrer l‟existence
d‟un contrôleur idéal inconnu qui est capable d‟accomplir l‟objective de la commande.
Deuxièmement, on transforme le modèle non affine en un modèle affine par un
développement en série de Taylor autour du contrôleur idéal, puis on synthétise la loi de
commande par feedback linearization. En fin, pour des raisons des incertitudes sur le
modèle liées aux problèmes de transformations et modélisation, un réseau de neurone est
utilisé pour approximer la loi de commande idéale.

42
Chapitre3. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire MIMO Non affine
La robustesse des systèmes vis à vis des erreurs d'approximation est assurée par un terme
de commande supplémentaire de type mode glissant. L‟analyse de stabilité des systèmes en
boucle fermée est étudiée en utilisant la synthèse de Lyapunov. Deux exemples de
simulation, sont présentés pour mettre en évidence l‟efficacité de l‟approche proposée.
3.2. La transformation du système MIMO non-linéaire :
3.2.1. Position du problème :
Considérons la classe des systèmes non linéaires multivariables non affines en la
commande décrite par les équations différentielles suivantes :
(𝑛 1 )
𝑦1 = 𝑓1 (𝑥, 𝑢)
⋮ (3.1)
(𝑛 𝑝 )
𝑦𝑝 = 𝑓𝑝 (𝑥, 𝑢)

𝑇
avec 𝑥 = 𝑥1𝑇 , 𝑥2 𝑇 … , 𝑥𝑝𝑇 ∈ ℜ𝑛 représente le vecteur d‟état mesurable, où 𝑥𝑖𝑇 =
(𝑛 𝑖 −1) 𝑝 𝑇
𝑦𝑖 , 𝑦𝑖 … 𝑦𝑖 ∈ ℜ𝑛 𝑖 ∀𝑖 = 1, … , 𝑝, 𝑒𝑡 𝑛 = 𝑖=1 𝑛𝑖 . 𝑢 = 𝑢1 , … … , 𝑢𝑝 ∈ ℜ𝑝 et
𝑇
𝑦 = 𝑦1 , … … , 𝑦𝑝 ∈ ℜ𝑝 sont respectivement l‟entrée et la sortie du système (3.1), et

𝑓𝑖 . , . , 𝑖 = 1, . . 𝑝 sont des fonctions continues non affines inconnues.


On dénote
𝑛 𝑇 𝑇
𝑛 𝑛
𝑦𝑛 = 𝑦1 1 , 𝑦2 2 … , 𝑦𝑝 𝑝 ∈ ℜ𝑝 , 𝐹 𝑥 , 𝑢 = 𝑓1 𝑥 , 𝑢 , … , 𝑓𝑝 𝑥 , 𝑢 ∈ ℜ𝑝

Le système (3.1) peut être réécrit sous la représentation d‟état suivante :


𝑥 = 𝐴𝑥 + 𝐵 𝐹(𝜉, 𝑢)
(3.2)
𝑦 = 𝐶𝑇 𝑥
𝑇 𝑇
𝐴 ≜ 𝑑𝑖𝑎𝑔 𝐴1 , 𝐴2 , … . , 𝐴𝑝 , 𝐵 ≜ 𝑏1 , 𝑏2 , … . , 𝑏𝑝 , 𝐶 ≜ 𝑐1 , 𝑐2 , … . , 𝑐𝑝

0 𝑛−1 𝐼 𝑛 −1 0 1
𝐴𝑖 = 𝑇 ∈ ℜ𝑛 𝑖 ×𝑛 𝑖 , 𝑏𝑖 = 𝑛−1 ∈ ℜ𝑛 𝑖 ×1 , 𝑐𝑖 = 0 ∈ ℜ𝑛 𝑖 ×1
0 0(𝑛−1) 1 𝑛−1

et 𝐼(𝑛−1) et 0(𝑛−1) indiquent la matrice d'identité et un vecteur de zéros de dimension (𝑛 −


1), respectivement.
L‟objectif est de concevoir une loi commande capable de forcer les sorties du système
𝑦1 𝑡 … … . . 𝑦𝑝 (𝑡) à suivre de trajectoires de référence 𝑦𝑑1 𝑡 … … . 𝑦𝑑𝑝 𝑡
prédéterminées, sous la contrainte que tous les signaux impliqués soient borné.
Pour aboutir aux objectifs précités, on considère les suppositions et théorèmes suivants :

43
Chapitre3. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire MIMO Non affine
Hypothèse 3.1 : Le vecteur de fonctions 𝐹 𝑥, 𝑢 est de classe 𝐶 1 pour tout (𝑥, 𝑢) ∈ 𝕽𝒏×𝒑
Hypothèse 3.2 : Le système (3.2) satisfait l‟inégalité suivante :
𝜕 𝜕
𝐹(𝑥, 𝑢) − 𝑗 ≠𝑖 𝐹(𝑥, 𝑢) ≥ 𝑑, ∀ 𝑥, 𝑢 ∈ ℜ𝑛×𝑝 , 𝑖 = 1, … , 𝑝, où 𝑑 est une
𝜕𝑢 𝑖𝑖 𝜕𝑢 𝑖𝑗

constante positive.
Hypothèse 3.3 : La matrice 𝜕𝐹(𝑥, 𝑢) 𝜕𝑢 est symétrique et définie positive.
Hypothèse 3.4 [Doudou-13] : Il existe une fonction non linéaire positive inconnue 𝛽 𝑧
telle que
1 −1
𝐺 𝑧 ≤ 𝛼 𝛽(𝑧)
2
−1
où 𝛼 est la valeur propre minimale de la matrice 𝐺 𝑧 .
Hypothèse 3.5 : la matrice 𝐺 𝑧 est une matrice inversible.
Hypothèse 3.6: Nous supposerons que nous avons p trajectoires de référence 𝑦𝑑𝑖 , 𝑖 =
𝑗
1, … . 𝑝 bornées, avec des dérivées 𝑦𝑑𝑖 , 𝑖 = 1, … 𝑝, 𝑗 = 1, … . . 𝑛𝑖 bornées. Si on définit le
vecteur de référence comme :
(𝑛 −1) 𝑇
(𝑛 −1) (𝑛 −1)
𝑦𝑑𝑇 = 𝑦𝑑1 𝑦𝑑1 … 𝑦𝑑1 1 𝑦𝑑2 𝑦𝑑2 … 𝑦𝑑2 2 … 𝑦𝑑𝑝 𝑦𝑑𝑝 … 𝑦𝑑𝑝 𝑝

Alors, la dynamique de la trajectoire de référence peut être décrite par l‟équation d‟état :
𝑦𝑑 = 𝐴𝑦𝑑 + 𝐵𝑚 (3.3)
(𝑛 ) (𝑛 ) (𝑛 )
𝑚𝑇 = 𝑦𝑑1 1 𝑦𝑑2 2 … 𝑦𝑑𝑝 𝑝 ∈ ℜ1×𝑝

On définit les erreurs de poursuite par :


𝑒1 (𝑡) = 𝑦𝑑1 𝑡 − 𝑦1 𝑡
⋮ (3.4)
𝑒𝑝 (𝑡) = 𝑦𝑑𝑝 𝑡 − 𝑦𝑝 𝑡
La dynamique des erreurs de poursuite sera alors donnée par:
𝑒 = 𝐴𝑒 + 𝐵 −𝐹(𝑥, 𝑢) + 𝑚 (3.5)
𝑇
𝐴 ≜ 𝑑𝑖𝑎𝑔 𝐴1 , 𝐴2 , … . , 𝐴𝑝 , 𝐵 ≜ 𝑏1 , 𝑏2 , … . , 𝑏𝑝
0
0 𝐼(𝑛−1)
où 𝐴𝑖 = ∈ℜ 𝑛 𝑖 ×𝑛 𝑖
, 𝑏𝑖 = 0 ∈ ℜ𝑛 𝑖 ×1 .
0… 0 ⋮
1
Théorème de la fonction implicite globale [Zhang-06]:Soit 𝑓: ℜ𝑛 × ℜ𝑚 → ℜ𝑘 𝑘 ≤ 𝑚
un vecteur de fonctions continues et dérivables pour la deuxième variable 𝑢 ∈ ℜ𝑚 et

44
Chapitre3. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire MIMO Non affine
𝜕
𝑓 𝑥, 𝑢 , 𝑖 = 1, … , 𝑘 𝑒𝑡 𝑗 = 1, … , 𝑚 est le terme d‟ordre 𝑖𝑗 de la matrice Jacobienne
𝜕𝑢 𝑖𝑗
𝜕
𝑓 𝑥, 𝑢 .
𝜕𝑢

Si l‟inégalité suivante est vérifiée


𝜕 𝜕
𝑓(𝑥, 𝑢) − 𝑓(𝑥, 𝑢) ≥ 𝑑, ∀ 𝑥, 𝑢 ∈ ℜ𝑛×𝑚 , 𝑖 = 1, … , 𝑝
𝜕𝑢𝑖 𝑖𝑖 𝑗 ≠𝑖 𝜕𝑢𝑗 𝑖𝑗

où 𝑑 est une constante positive, alors il existe une fonction continue unique 𝑔: ℜ𝑛 → ℜ𝑚
telle que 𝑓 𝑥, 𝑔 𝑥 = 0.
Lemme 3.1 : Considérons le système (3.2) satisfaisant les suppositions 3.1–3.6, alors il
existe un contrôleur idéal 𝑢∗ tel que
𝑒 = 𝐴 − 𝐵𝑘 𝑒 (3.6)
avec 𝐴𝑘 = 𝐴 − 𝐵𝑘
Le vecteur de gain de retour d‟état 𝑘 ∈ ℜ𝑝×𝑛 , est choisie tel que la matrice 𝐴𝑘 est Hurwitz
(toutes ses valeurs propres à parties réelles négatives), par conséquent le système bouclé
sera exponentiellement stable. On lui associe une équation de Lyapunov, ayant pour
solution unique une matrice symétrique définie positive, donnée par
𝐴𝑇𝑘 𝑃 + 𝑃𝐴𝑘 = −𝑄 (3.7)
Démonstration : En ajoutant et en retranchant le terme 𝐵𝑘𝑒 sur le côté droit de (3.10), on
obtient :
𝑒 = 𝐴 − 𝐵𝑘 𝑒 − 𝐵 𝐹(𝑥, 𝑢) − 𝜑 (3.8)

avec :

(𝑛 ) (𝑛 −1)
𝜑1 = 𝑦𝑑 1 1 + 𝑘1,𝑛 1 𝑒1 1 + ⋯ + 𝑘1,1 𝑒1
⋮ (3.9)
(𝑛 𝑝 ) (𝑛 −1)
𝜑𝑝 = 𝑦𝑑 𝑝 + 𝑘𝑝,𝑛 𝑝 𝑒1 𝑝 + ⋯ + 𝑘𝑝,1 𝑒𝑝

𝑇
et 𝜑 = 𝜑1 , … , 𝜑𝑝 .

A partir de l‟hypothèse 3.3, et le fait que 𝜕 𝜑) 𝜕𝑢 = 0 ainsi


𝜕 𝜕
𝐹(𝑥, 𝑢) − 𝜑 − 𝐹(𝑥, 𝑢) − 𝜑 ≥ 𝑑, ∀ 𝑥, 𝑢 ∈ ℜ𝑛×𝑝 ,
𝜕𝑢 𝑖𝑖 𝑗 ≠𝑖 𝜕𝑢 𝑖𝑗

d‟après le théorème de la fonction implicite globale, il existe un contrôleur idéal 𝑢∗ (𝑧),


𝑇
avec 𝑧 = 𝑦 𝑇 , 𝑦𝑑𝑇 , 𝜑 ,tel que

45
Chapitre3. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire MIMO Non affine
𝐹 𝑥, 𝑢∗ (𝑧 ) − 𝜑 = 0 (3.10)

On considère la fonction candidate de Lyapunov suivante :


1
𝑉 = 𝑒 𝑇 𝑃𝑒 (3.11)
2
La dérivée de 𝑉 est donnée par :
1
𝑉= 𝑒 𝑇 𝑃𝑒 + 𝑒 𝑇 𝑃𝑒
2
1
= 𝑒 𝑇 𝐴𝑇𝑘 𝑃 + 𝑃𝐴𝑘 𝑒 − 𝑒 𝑇 𝑃𝐵 𝐹 𝑥, 𝑢 − 𝜑
2
Si 𝑢 = 𝑢∗ (3.8), alors on obtient
1 𝑇 𝑇
𝑉= 𝑒 𝐴𝑘 𝑃 + 𝑃𝐴𝑘 𝑒 (3.12)
2
1
𝑉 ≤ − 𝑒 𝑇 𝑄𝑒 ≤ 0 (3.13)
2
Ce qui permet de déduire que 𝑒 et 𝑒 ∈ 𝐿∞
L‟intégration de l‟équation (3.13), donne

2
1
𝑒 𝑑𝜏 ≤ 𝑉 0 − 𝑉(𝑡) (3.14)
0 𝜆𝑚𝑖𝑛 𝑄
ce qui implique que 𝑒(𝑡) ∈ 𝐿2 donc 𝑒(𝑡) ∈ 𝐿∞ , et d‟après le lemme de Barbalat [Slotine-
91], on conclut que lim𝑡→∞ 𝑒(𝑡) = 0 .
Pour faciliter la conception du contrôleur, on transforme le système non affine (3.2) à
un système affine en effectuant un développement en série de Taylor autour d‟une
commande idéale inconnue 𝑢∗ (𝑧) comme suit :
𝐹 𝑥, 𝑢 = 𝐹 𝑧 + 𝐺 𝑧 𝑢 + 𝐻 𝑧, 𝑢 (3.15)
avec
𝑇
𝐹 𝑧 = 𝐹1 𝑧 , 𝐹2 𝑧 , … . , 𝐹𝑝 𝑧
= 𝐹 𝑥, 𝑢∗ 𝑧 − 𝜕𝐹 𝑥, 𝑢 𝜕𝑢 𝑢= 𝑢 ∗ 𝑢∗ (𝑧) (3.16)
𝐺 𝑧 = 𝑔𝑖𝑗 (𝑧) = 𝜕𝐹(𝑥, 𝑢) 𝜕𝑢 𝑢= 𝑢 ∗

et
𝜕𝑓1 (𝑥,𝑢) 𝜕𝑓1 (𝑥,𝑢)

𝜕𝑢 1 𝜕𝑢 𝑝
𝜕𝐹(𝑥, 𝑢) 𝜕𝑢 𝑢= 𝑢 ∗ = ⋮ ⋱ ⋮
𝜕𝑓𝑝 (𝑥,𝑢) 𝜕𝑓𝑝 (𝑥,𝑢)

𝜕𝑢 1 𝜕𝑢 𝑝

où 𝐻 𝑧, 𝑢 sont les termes d'ordre supérieur du développement, on suppose que la somme


des termes d'ordre supérieur est négligeable alors on considère que 𝐻 𝑧, 𝑢 = 0.

46
Chapitre3. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire MIMO Non affine
Par substitution (3.15) dans (3.2), un terme affine par rapport à u apparaît comme suit :
𝑥 = 𝐴𝑥 + 𝐵 𝐹 𝑧 + 𝐺 𝑧 𝑢
(3.17)
𝑦 = 𝐶𝑇 𝑥
𝑇 𝑇
avec 𝐴 ≜ 𝑑𝑖𝑎𝑔 𝐴1 , 𝐴2 , … . , 𝐴𝑝 , 𝐵 ≜ 𝑏1 , 𝑏2 , … . , 𝑏𝑝 , 𝐶 ≜ 𝑐1 , 𝑐2 , … . , 𝑐𝑝

0 𝑛−1 𝐼 𝑛 −1 0 1
𝐴𝑖 = ∈ ℜ𝑛 𝑖 ×𝑛 𝑖 , 𝑏𝑖 = 𝑛−1 ∈ ℜ𝑛 𝑖 ×1 , 𝑐𝑖 = 0 ∈ ℜ𝑛 𝑖 ×1
0 0𝑇(𝑛−1) 1 𝑛−1

et 𝐼(𝑛−1) et 0(𝑛−1) indiquent la matrice d'identité et un vecteur de zéros de


dimension (𝑛 − 1), respectivement.
À partir (3.5) et (3.15), nous pouvons obtenir l'équation d'erreur comme suit :

𝑒 = 𝐴𝑒 + 𝐵 −𝐹 𝑧 − 𝐺 𝑧 𝑢 + 𝑚 (3.18)
Si les fonctions non linéaires 𝐹 𝑧 et 𝐺 𝑧 sont connues, les objectifs de commande
peuvent être atteints en choisissant la loi de commande idéale suivante :

∗ −1 𝑒 𝑇 𝑃𝑒 𝑇
𝑢=𝑢 = 𝐺 𝑧 −𝐹 𝑧 + 𝑚 + 𝑘 𝑒 + 𝑇 𝛽(𝑧) (3.19)
𝑒 𝑃𝐵
𝑇 𝑇 𝑇
où 𝑘 𝑇 = 𝑘1𝑐 , 𝑘2𝑐 𝑇
, … … … … , 𝑘𝑝𝑐 avec 𝑘𝑖𝑐 = 𝑘𝑖1 , 𝑘𝑖2 , … … … … , 𝑘𝑖𝑛 𝑖 est le vecteur de
𝑇 𝑇
(𝑛 𝑖 −1)
gain de retour d‟état, et 𝑒 ≜ 𝑒1𝑇 , 𝑒2 𝑇 … , 𝑒𝑝𝑇 avec 𝑒𝑖 ≜ 𝑒𝑖 , 𝑒𝑖 , . . , 𝑒1 .

Par substitution l‟équation (3.19) par l‟équation (3.17) l'équation suivante est obtenue :
(𝑛 1 ) (𝑛 1 −1)
𝑒1 + 𝑘1𝑛 1 𝑒1 + …+ 𝑘11 𝑒1
0
(𝑛 ) (𝑛 −1)
𝑒2 2 + 𝑘2𝑛 2 𝑒2 2 + …+ 𝑘21 𝑒2
= 0 (3.20)
⋮ ⋮
(𝑛 𝑝 ) (𝑛 𝑝 −1) 0
𝑒𝑝 + 𝑘𝑝𝑛 𝑝 𝑒𝑝 + …+ 𝑘𝑝1 𝑒𝑝

Les coefficients 𝑘𝑖𝑗 sont choisis de façon à ce que le polynôme de l‟équation (3.20) Soit
Hurwitzien (racines à partie réelle négative), qui prouve la convergence de l‟erreur de suivi
de trajectoire 𝑒(𝑡) vers zéro quand t → ∞ , c'est-à-dire :
2
lim 𝑒 =0 (3.21)
𝑡→∞

Puisque les fonctions non linéaires sont incertaines, l‟implantation de loi de commande
idéale (3.19) est impossible. Dans cette situation, notre but est d‟approcher cette
commande idéale en utilisant les systèmes neuronaux.

47
Chapitre3. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire MIMO Non affine

3.2.2. Conception de la commande adaptative directe neuronale :


En se basant sur le fait que le système neuronal, de la forme (1.1), est un approximateur
𝑇
universel, chaque composante de la loi de commande idéale (3.19) 𝑢∗ = 𝑢1∗ , … 𝑢𝑝∗ peut
être approximée comme suit :
𝑢𝑖∗ 𝑧 = 𝑊𝑖∗𝑇 𝑆𝑖 𝑧 + 𝜀𝑖 𝑧 𝑖 = 1, … … . 𝑝 (3.22)
avec 𝑧 ∈ 𝛺𝑧 est le vecteur d'entrée, étant 𝛺𝑧 un ensemble compact, 𝜀𝑖 𝑧 est une erreur
d‟approximation considérée arbitrairement petite et bornée à partir de la théorie de
l‟approximation, et 𝑊𝑖∗ sont les paramètres optimaux de 𝑊𝑖 c‟est-à-dire, le vecteur des
paramètres ajustés 𝑊𝑖 minimisant l‟erreur 𝜀𝑖 𝑧 . Ces paramètres optimaux satisfont
𝑊𝑖∗ = 𝑎𝑟𝑔𝑚𝑖𝑛𝑤 𝑖 ∈𝛺𝑤 𝑠𝑢𝑝𝑍∈𝛺𝑧 𝑢𝑖∗ 𝑧 − 𝑢𝑖 𝑧 (3.23)
Par conséquent, le contrôleur idéal 𝑢∗ peut être définit comme suit :
𝑢∗ 𝑧 = 𝑊 ∗𝑇 𝑆 𝑧 + 𝜀 𝑧 (3.24)
𝑇 𝑇
où 𝑊 ∗ = 𝑊1∗𝑇 , … … . . , 𝑊𝑝∗𝑇 , 𝑆 𝑧 = 𝑑𝑖𝑎𝑔 𝑆1 𝑧 , … , 𝑆𝑝 𝑧 et
𝑇
𝜀 𝑧 = 𝜀1 𝑧 , … … , 𝜀𝑝 𝑧
où 𝑊 = 𝑊 ∗ − 𝑊 est le vecteur d‟erreur des paramètres estimés.
Cependant le vecteur des paramètres optimaux 𝑊 ∗ dans (3.23) est inconnu, alors il doit
être ajusté par une loi d'adaptation convenable. Soit 𝑊 l‟estimation du vecteur des
paramètres optimaux 𝑊 ∗ et 𝑢 la loi de commande qui est l'approximation neuronale du
contrôleur idéal (3.19).
Dans ces conditions, la loi de commande proposée pour le system (3.2) est donnée par :
𝑢 𝑧 = 𝑊 𝑇 𝑆 𝑧 + 𝑢𝑠 (3.25)
𝑇
où 𝑢𝑠 = 𝑢𝑠1 , … … 𝑢𝑠𝑝 est un vecteur de signaux supplémentaires, capable de compenser
ou d‟atténuer l‟influence de l‟erreur d‟approximation neuronale sur les performances de
commande et ainsi d‟assurer la robustesse de la structure de commande.
D‟où, on peut écrire
𝑢∗ 𝑧 − 𝑢 𝑧 = 𝑊 𝑆 𝑧 + 𝜀 𝑧 − 𝑢𝑠 (3.26)
avec la loi de commande supplémentaire donnée comme suit :
𝑢𝑠 = 𝜓 𝑡𝑎𝑛𝑕 𝑒 𝑇 𝑃𝐵 𝜖 (3.27)

48
Chapitre3. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire MIMO Non affine
avec 𝑡𝑎𝑛𝑕 . est la fonction Hyperbolique, 𝜓 = [𝜓1 , … . , 𝜓𝑝 ]𝑇 , et 𝜖 est une constante
positive.

Hypothèse 3.7: L‟erreur d‟approximation 𝜀 𝑧 est bornée, c'est-à-dire

𝜀 𝑧 ≤𝜀
où 𝜀 est une constante positive inconnue.
Hypothèse 3.8 : Les paramètres du réseau de neurones sont bornés par les ensembles de
contraintes 𝛺𝑤 telles que :
𝛺𝑤 = 𝑊: 𝑊 ≤ 𝑀
Les bornes employées dans l‟hypothèse 3.8 sont introduites pour assurer la bornitude des
sorties des réseaux de neurones.
A cet effet, les paramètres du contrôleur neuronal sont ajustés en utilisant l‟algorithme
de projection suivant :
2
𝑇 𝑇 𝑇
1+ 𝑊
𝑊 = 𝛤𝑒 𝑃𝐵𝑆 𝑧 − 𝐼𝑑 𝛤𝑒 𝑃𝐵𝑊𝑊 𝑆 𝑧 3.28
𝑀

0, 𝑠𝑖 𝑊 < 𝑀 𝑜𝑢 𝑊 = 𝑀 𝑒𝑡 𝑒 𝑇 𝑃𝐵𝑊 𝑇 𝑆 𝑧 ≤ 0
𝐼𝑑 = (3.29)
1, 𝑠𝑖 𝑊 = 𝑀 𝑒𝑡 𝑒 𝑇 𝑃𝐵𝑊 𝑇 𝑆 𝑧 > 0
et 𝛤 > 0 sont les paramètres de conception, et 𝑃 = 𝑃𝑇 > 0 est la solution, pour une
matrice donnée 𝑄 = 𝑄 𝑇 > 0, de l‟équation de lyapunove (3.7).
Alors, l‟introduction de la loi de commande (3.25) dans (3.18) produit :
𝑒 = 𝐴𝑒 + 𝐵 𝑚 − 𝐹 𝑧 − 𝐺 𝑧 𝑊 𝑇 𝑆 𝑧 + 𝑢𝑠 (3.30)
à partir de (3.19), (3.30) peut être réécrite comme suit :

𝑒 = 𝐴 − 𝐵𝑘 𝑒
𝑒 𝑇 𝑃𝑒
+ 𝐵𝐺 𝑧 𝑊 ∗𝑇 𝑆 𝑧 + 𝜀 𝑧 − 𝑊 𝑇 𝑆 𝑧 − 𝑢𝑠 − 𝐺 −1 𝑧 𝛽 𝑥 (3.31)
𝑒 𝑇 𝑃𝐵

et
𝑒 𝑇 𝑃𝑒
𝑒 = 𝐴𝑘 𝑒 + 𝐵𝐺 𝑧 𝑊 𝑆 𝑧 + 𝜀 𝑧 − 𝑢𝑠 − 𝐺 −1 𝑧 𝛽(𝑥) (3.32)
𝑒 𝑇 𝑃𝐵
avec 𝐴𝑘 = 𝐴 − 𝐵𝑘
Le vecteur de gain de retour d‟état 𝑘 est choisie tel que la matrice 𝐴𝑘 est Hurwitz (toutes
ses valeurs propres à parties réelles négatives), par conséquent le système bouclé sera
exponentiellement stable. On lui associe une équation de Lyapunov, ayant pour solution
unique une matrice symétrique définie positive, donnée par

49
Chapitre3. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire MIMO Non affine
𝐴𝑇𝑘 𝑃 + 𝑃𝐴𝑘 = −𝑄 (3.33)
3.2.3. Analyse de stabilité :
Dans cette section nous allons démontrer que la commande adaptative neuronale directe
du système non linéaire multi variable (3.2) proposée est stable, la loi de commande (3.25)
et (3.27) avec sa loi d‟adaptation (3.25), si les hypothèses 3.1 jusqu‟au 3.8 sont satisfaites,
alors tous les signaux de la boucle fermée sont bornés, et le schéma global garantit que :
(i) l‟erreur de poursuite 𝑒(𝑡) converge à l‟ensemble compact 𝛺𝑒 défini par :

𝑤2
𝛺𝑒 = 𝑒:/ 𝑒 ≥
𝑤1

Démonstration: On considère la fonction candidate de Lyapunov suivante :


1 𝑇 −1
𝑉= 𝑒 𝐺 𝑧 𝑃𝑒 + 𝑊 𝑇 𝛤 −1 𝑊 (3.34)
2

En utilisant (3.32) et (3.33) et le fait que 𝑊 = −𝑊 , la dérivée par rapport au temps de la


fonction 𝑉 peut être réécrite comme suit:

1 𝑇 −1 1 1
𝑉=𝑉= 𝑒 𝐺 𝑧 𝑃𝑒 + 𝑒 𝑇 𝐺 −1 𝑧 𝑃𝑒 + 𝑒 𝑇 𝐺 −1 𝑧 𝑃𝑒 − 𝑊 𝑇 𝛤 −1 𝑊 (3.35)
2 2 2
1 𝑒 𝑇 𝑃𝑒
𝑉 = − 𝑒 𝑇 𝐺 −1 𝑧 𝑄𝑒 + 𝑒 𝑇 𝑃𝐵𝐺 −1 𝑧 𝐺 𝑧 𝜀 𝑧 − 𝑢𝑠 − 𝐺 −1
𝑧 𝑇 𝛽(𝑥)
2 𝑒 𝑃𝐵
1
+ 𝑒 𝑇 𝐺 −1 𝑧 𝑃𝑒 + 𝑊 𝑇 𝛤 −1 𝛤𝑒 𝑇 𝑃𝐵𝑆 𝑧 − 𝑊 (3.36)
2

En substituant (3.28) et (3.29) dans (3.36), nous avons :

1
𝑉 ≤ − 2 𝑒 𝑇 𝐺 −1 𝑧 𝑄𝑒 + 𝑒 𝑇 𝑃𝐵 𝜀 − 𝑒 𝑇 𝑃𝐵 𝜓 𝑡𝑎𝑛𝑕 𝑒 𝑇 𝑃𝐵 𝜖 − 𝐺 −1 𝑧 𝑒 𝑇 𝑃𝑒𝛽 𝑥
1
+ 2 𝑒 𝑇 𝐺 −1 𝑧 𝑃𝑒 + (3.37)
1+ 𝑊 2
𝑊 𝑇 𝛤 −1 𝛤𝑒 𝑇 𝑃𝐵𝑆 𝑧 − 𝛤𝑒 𝑇 𝑃𝐵𝑆 𝑧 + 𝐼𝑑 𝛤𝑒 𝑇 𝑃𝐵𝑊𝑊 𝑇 𝑆 𝑧 𝑀

En supposant que le paramètre de conception 𝜓 est choisi grand tels que 𝜓 ≥ 𝜀 et en


utilisant l'inégalité suivante [Polycarpous-95],−𝑥 tanh 𝑥 𝜖 + 𝑥 ≤ 𝜅𝜖 avec 𝜅 =
0.2785. D‟après l‟hypothèse 3.5 et 3.8 on obtient :

50
Chapitre3. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire MIMO Non affine
1 𝑇 −1 2
1 2
𝑉≤− 𝑒 𝐺 𝑧 𝑄𝑒 + 𝜀 𝜅 𝜖 − 𝑒 𝜆𝑚𝑖𝑛 𝑃 𝛼 𝛽 𝑥 + 𝑒 𝐺 −1 𝑧 𝜆𝑚𝑖𝑛 𝑃
2 2
2
𝑇 −1 𝑇 𝑇
1+ 𝑊
+𝑊 𝛤 𝐼𝑑 𝛤𝑒 𝑃𝐵𝑊𝑊 𝑆 𝑧 (3.38)
𝑀

où 𝐼𝑑 = 1 si la seconde de (3.29) est vrai, 𝐼𝑑 = 1 si la première ligne de (3.33) est vrai.


1+ 𝑊 2
Nous prouvons maintenant que 𝐼𝑑 𝛤𝑒 𝑇 𝑃𝐵𝑊𝑊 𝑇 𝑆 𝑧 𝑊𝑇𝑊 ≤ 0
𝑀

Si 𝐼𝑑 = 0 , la conclusion est évidente.


Si 𝐼𝑑 = 1 , alors 𝑊 = 𝑀et 𝑒 𝑇 𝑃𝐵𝑊𝑊 𝑇 𝑆 𝑧 > 0. D‟autre part, nous avons :
1 1 1 2
𝑊𝑇𝑊 = 𝑊∗ 2
− 𝑊 2
− 𝑊−𝑊 ≤0 (3.39)
2 2 2
1 1 1 2
Puisque 2 𝑊 ∗ 2
≤ 𝑀2 et 2 𝑊 2
= 𝑀2 et 2 𝑊 − 𝑊 ≥ 0 alors 𝑊 𝑇 𝑊 ≤ 0

et nous avons
2
𝑇 𝑇
1+ 𝑊
𝐼𝑑 𝛤𝑒 𝑃𝐵𝑊𝑊 𝑆 𝑧 𝑊𝑇𝑊 ≤ 0 (3.40)
𝑀
A partir de (3.44), et (3.42) nous avons
1
𝑉≤− 𝜆 𝐺 −1 𝑧 𝑄 𝑒 2
+𝜀𝜅𝜖 (3.41)
2 𝑚𝑖𝑛
où 𝜆𝑚𝑖𝑛 𝐺 −1 𝑧 𝑄 est la valeur propre minimale de la matrice 𝐺 −1 𝑧 𝑄.
Alors
2
𝑉 ≤ −𝑤1 𝜉 + 𝑤2 (3.42)
1
avec 𝑤1 = 2 𝜆𝑚𝑖𝑛 𝐺 −1 𝑧 𝑄 et 𝑤2 = 𝜀 𝜅 𝜖.

où 𝜆𝑚𝑖𝑛 𝐺 −1 𝑧 𝑄 est la valeur propre minimale de la matrice𝐺 −1 𝑧 𝑄.


𝑤2
De (3.42), on peut conclure que 𝑉 ≤ 0 si 𝑒 ≥ . Par conséquent, les erreurs de
𝑤1

poursuite convergent vers une région bornée donnée par:

𝑤2
𝛺𝑒 = 𝑒:/ 𝑒 ≤ (3.43)
𝑤1

ce qui implique la bornitude de tous les signaux dans le système bouclé, c'est-à-dire
l‟erreur d‟approximation minimal peut être construite arbitrairement petite par l‟utilisateur
de la propriété d‟approximation neuronal, alors la quantité 𝑤2 est borné, ce qui implique
que l‟ensemble 𝛺𝑒 dans (3.43) est borné. Maintenant 𝑉 deviendra négatif tant que 𝑒(𝑡)est

51
Chapitre3. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire MIMO Non affine
en dehors de l‟ensemble 𝛺𝑒 , selon la théorie de la stabilité de Lyapunov, nous concluons
que l‟erreur 𝑒(𝑡)est bornée et va converger vers 𝛺𝑒 .
Alors et la fonction candidate 𝑉 est bornée. Par conséquent, on peut démontrer que les
erreurs 𝑒(𝑡) ∈ 𝐿2 sont carrés intégrables et que 𝑒(𝑡) ∈ 𝐿∞ sont bornées, d‟où, par
application du lemme de Barbalat [Slotine-91], on déduit la convergence vers zéro des
erreurs de poursuite lim𝑡→∞ 𝑒(𝑡) = 0 de tous les systèmes.
3.3. Résultats de simulation :
Études de simulation sont réalisées pour démontrer l'efficacité de la commande
proposée. Deux problèmes de commande sont considérés. La première concerne un
système académique MIMO non-affine, tandis que la seconde concerne un modèle
dynamique de manipulateur à deux degrés de liberté.
3.3.1. Exemple 1 :
Le problème de la commande d'un système académique non-linéaire non affine MIMO
est considéré là pour montrer l'efficacité de ce contrôleur proposé. Ses équations
dynamiques sont donnés par :
𝑥11 = 𝑥12
2
𝑥12 = 𝑥11 2
+ 𝑥12 + 0.15𝑢13 + 2 + cos⁡
(𝑥11 ) 𝑢1 − 𝑢2
𝑥21 = 𝑥22
(3.44)
2
𝑥22 = 𝑥22 2
+ 𝑥11 + 𝑥12 2
− 0.5𝑢1 + 1 + 𝑥21 𝑢23 + 2 + sin 𝑥21 𝑢2
𝑦1 = 𝑥11
𝑦2 = 𝑥21

où 𝑥 = 𝑥11 , 𝑥12 , 𝑥21 , 𝑥22 𝑇 est le vecteur d‟état du système, 𝑢1 et 𝑢2 sont les entrées de
commande, 𝑦1 et 𝑦2 Sont les sorties du système.
L‟objective de la commande est de forcer les sorties du système 𝑦1 et 𝑦2 suivre les
trajectoires désirées 𝑦𝑑 1 𝑡 = sin 𝑡 et 𝑦𝑑 2 𝑡 = sin 𝑡 , respectivement.
Deux systèmes neuronaux de type réseaux de neurone d‟ordre supérieur de la forme (1.1)
sont utilisée pour générer les commandes 𝑢1 et 𝑢2 .Chaque réseau de neurone possède le
𝑇
vecteur d‟entrée 𝑧 = 𝑧1𝑇 , 𝑧2𝑇 , 𝑧3𝑇 𝑇
𝑧 = 𝜉 𝑇 , 𝑦𝑑𝑇 , 𝜑 avec 𝑧1𝑇 = 𝑥11 , 𝑥12 , 𝑥21 , 𝑥22 , 𝑧2𝑇 =

𝑦𝑑 1 , 𝑦𝑑 1 , 𝑦𝑑 2 , 𝑦𝑑 2 , 𝑧3𝑇 = 𝑦𝑑 1 + 𝑘12 𝑒1 + 𝑘11 𝑒1 , 𝑦𝑑 2 + 𝑘21 𝑒2 + 𝑘22 𝑒2


Les paramètres de synthèses et les conditions initiales sont donnés dans le tableau (3.1)
suivant :

52
Chapitre3. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire MIMO Non affine
Les paramètres de Les valeurs numériques Les conditions Les valeurs numériques
synthèses initiales
𝜞 0.01 𝑾 𝟎 0
𝑴 16 𝒙𝟏𝟏 𝟎 0.001
𝝐 30 𝒙𝟏𝟐 𝟎 0
𝒌 [1 0 − 2 0; 𝒙𝟐𝟏 𝟎 0.001
0 − 1 0 − 2]
𝑸 𝐷𝑖𝑎𝑔 5.5 5.5 5 5 𝒙𝟐𝟐 𝟎 0
𝑷 [8.125 0 2.75 0 ;
0 8.125 0 2.75;
2.75 0 2.625 0;
0 2.75 0 2.625]

Tab.3.1 : les paramètres de synthèses & les conditions initiales.


Les résultats de simulation sont montrés sur les figures (3.1)-(3.4), la sortie 𝑦1 et sa
référence 𝑦𝑑 1 ansi que la sortie 𝑦2 et sa référence 𝑦𝑑 2 sont représentent sur les figures (3.1) et
(3.2) respectivement. L‟allure des signaux de commande 𝑢1 et 𝑢2 est donnée par les figures
(3.3) et (3.4).
A partir des résultats de simulations obtenues, nous pouvons noter des bonnes
performances de poursuite réalisé grâce aux signaux de commande 𝑢1 et 𝑢2 qui sont
bornés.

1.5

1 Position Vitesse

0.5

-0.5

-1

-1.5
0 2 4 6 8 10 12 14 16 18 20
Temps(sec)

Fig. 3.1 : Courbes de poursuite de sous système1 ; sorties (traits continus), consignes
(traits discontinus).

53
Chapitre3. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire MIMO Non affine

1.5

1 Position Vitesse

0.5

-0.5

-1
0 2 4 6 8 10 12 14 16 18 20
Temps(sec)

Fig. 3. 2: Courbes de poursuite de sous système 2 ; sorties (traits continus), consignes


(traits discontinus).

30

25

20

15

10

-5
0 2 4 6 8 10 12 14 16 18 20
Temps(sec)

Fig. 3.3 : Signaux de commande; 𝑢1 (trait continu), 𝑢2 (trait discontinu).

54
Chapitre3. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire MIMO Non affine

3.3.2. Exemple 2 :
Dans cette section, nous présentons les résultats de simulation montrant les
performances de suivi de la commande proposée appliqué à un deux-lien rigide robot
manipulateur. La dynamique de ce système MIMO sont donnés par [Slotine-91] :
−1
𝑞1 𝐻 𝐻12 𝑢1 −𝑕𝑞2 −𝑕(𝑞1 + 𝑞2 ) 𝑞1
= 11 𝑢2 − 𝑕𝑞1 (3.45)
𝑞2 𝐻21 𝐻22 0 𝑞2
avec

𝐻11 = 𝑎1 + 2𝑎3 cos 𝑞2 + 2𝑎4 sin 𝑞2

𝐻12 = 𝐻21 = 𝑎2 + 𝑎3 cos 𝑞2 + 𝑎4 sin 𝑞2


𝐻22 = 𝑎2
𝑕 = 𝑎3 sin 𝑞2 − 𝑎4 cos 𝑞2
et
𝑎1 = 𝐼1 + 𝑚1 𝑙𝑐21 + 𝐼𝑒 + 𝑚𝑒 𝑙𝑐2𝑒 + 𝑚𝑒 𝑙12

𝑎2 = 𝐼𝑒 + 𝑚𝑒 𝑙𝑐2𝑒

𝑎3 = 𝑚𝑒 𝑙1 𝑙𝑐𝑒 cos⁡
(𝛿𝑒 )

𝑎4 = 𝑚𝑒 𝑙1 𝑙𝑐𝑒 sin⁡
(𝛿𝑒 )

où 𝑢1 et 𝑢2 sont les couples de commande appliqués aux articulations, et les sorties sont les
positions articulaires 𝑞1 et 𝑞2 . Dans cette simulation, le tableau (3.2) suivant contient les
valeurs des paramètres utilisées
Les paramètres de Les valeurs numériques Les paramètres de Les valeurs numériques
𝑚1 1kg 𝑙𝑐 𝑒 0.6m
𝑚𝑒 2kg 𝐼1 0.12kg m2
𝑙1 1m 𝐼𝑒 0.25 kg m2
𝑙𝑐 1 0.5m 𝛿𝑒 30°
Tab.3.2 : Paramètres du modèle
Posons 𝑦 = 𝑞1 , 𝑞2 𝑇 , 𝑢 = 𝑢1 , 𝑢2 𝑇 , 𝑥 = 𝑞1 , 𝑞1 , 𝑞2 , 𝑞2 𝑇 et

𝑓1 (𝑥) −𝑕𝑞2 −𝑕(𝑞1 + 𝑞2 ) 𝑞1


𝐹 𝑥 = = −𝐻 −1
𝑓2 (𝑥) 𝑕𝑞1 0 𝑞2

−1
𝑔11 𝑔12 −1 𝐻11 𝐻12
𝐺 𝑥 = 𝑔 𝑔22 = 𝐻 =
21 𝐻21 𝐻22

55
Chapitre3. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire MIMO Non affine
Il est bien connu que la matrice 𝐻 est définie positive [Slotine-91] et, de ce fait, le modèle
du robot satisfait l‟hypothèse 3.6.
L‟objectif de commande est de forcer les sorties du système 𝑞1 𝑒𝑡 𝑞2 de suivre
respectivement les trajectoires sinusoïdales 𝑦𝑑 1 𝑡 = sin 𝑡 et 𝑦𝑑 2 𝑡 = sin 𝑡 .
Deux systèmes neuronaux de type réseaux de neurone d‟ordre supérieure de la forme (1.1)
sont utilisée pour générer les commandes 𝑢1 et 𝑢2 . Chaque réseau de neurone possède le
vecteur d‟entrée 𝑧 = 𝑧1𝑇 , 𝑧2𝑇 , 𝑧3𝑇 𝑇
avec 𝑧1𝑇 = 𝑥11 , 𝑥12 , 𝑥21 , 𝑥22 , 𝑧2𝑇 =
𝑦𝑑 1 , 𝑦𝑑 1 , 𝑦𝑑 2 , 𝑦𝑑 2 , 𝑧3𝑇 = 𝑦𝑑 1 + 𝑘12 𝑒1 + 𝑘11 𝑒1 , 𝑦𝑑 2 + 𝑘21 𝑒2 + 𝑘22 𝑒2 .

Les paramètres de synthèses et les conditions initiales sont donnés dans le tableau (3.3)
suivant :
Les paramètres de Les valeurs numériques Les conditions Les valeurs numériques
synthèses initiales
𝜞 0.001 𝑾 𝟎 0
𝑴 16 𝒙𝟏𝟏 𝟎 0.00005
𝝐 100 𝒙𝟏𝟐 𝟎 0
𝒌 [1 0 − 2 0; 𝒙𝟐𝟏 𝟎 0.00005
0 − 1 0 − 2]
𝑸 𝐷𝑖𝑎𝑔 5.5 5.5 5 5 𝒙𝟐𝟐 𝟎 0
𝑷 [8.125 0 2.75 0 ;
0 8.125 0 2.75;
2.75 0 2.625 0;
0 2.75 0 2.625]

Tab.3.3 : les paramètres de synthèses & les conditions initiales.


Les Figures 3.4 à 3.6 présentent les résultats de simulation. La Figure 3.4 donne le suivi
de trajectoire pour la première liaison, la Figure 3.5 celui de la deuxième, et la Figure 3.6
montre les signaux de commande. On peut constater que les trajectoires réelles convergent
vers les trajectoires désirées, et que les signaux de commande𝑢1 et 𝑢2 qui sont bornés.

56
Chapitre3. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire MIMO Non affine

1.5

Position Vitesse
1

0.5

-0.5

-1

-1.5
0 2 4 6 8 10 12 14 16 18 20
Temps(sec)

Fig. 3.4 : Courbes de poursuite pour la liaison 1 ; sorties (traits continus), consignes
(traits discontinus).

1.5

Position Vitesse
1

0.5

-0.5

-1
0 2 4 6 8 10 12 14 16 18 20
Temps(sec)

Fig. 3. 5: Courbes de poursuite pour la liaison 2 ; sorties (traits continus), consignes


(traits discontinus).

57
Chapitre3. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire MIMO Non affine

100

80

60

40

20

-20
0 2 4 6 8 10 12 14 16 18 20
Temps(sec)

Fig. 3.6 : Signaux de commande; 𝑢1 (trait continu), 𝑢2 (trait discontinu).

3.4. Conclusion :
Dans ce chapitre, nous avons proposé et développé une commande adaptative
neuronale directe pour une classe de systèmes non linéaires MIMO non affines en la
commande. En premier lieu Nous avons utilise le théorème de la fonction implicite
globale pour démontrer l‟existence d‟un contrôleur idéal inconnu qui est capable
d‟accomplir l‟objective de la commande, autour de ce dernier nous avons transformée le
modèle non affine en un modèle affine par un développement en série de Taylor en
deuxième lieu. Puis nous avons synthétisé la loi de commande par feedback linearization.
En fin, pour des raisons des incertitudes sur le modèle liées aux problèmes de
transformations et modélisation, un réseau de neurone est utilisé pour approximer la loi de
commande idéale. Les lois d‟adaptation ont déduites à travers l‟analyse de la stabilité, au
sens de Lyapunov, du système en boucle fermée. Les résultats de simulation obtenus pour
les exemples proposés montrent des bonnes performances de poursuite et de robustesse, et
mettent en évidence la capacité et l‟efficacité du contrôleur neuronale développé à prendre
en charge une certaine classe de systèmes non linéaires MIMO non affines en la
commande.

58
Conclusion générale

Conclusion générale

D‟une manière générale, l‟analyse et la commande non linéaires sont des problèmes
difficiles et la majorité des approches de la commande non linéaire exigent la disponibilité
d‟un modèle mathématique. Cette commande doit être robuste dans le sens où elle devra
assurer une faible sensibilité aux incertitudes sur les paramètres, à leurs variations et aux
perturbations.
L‟objectif principal de ce mémoire est de développer des lois de commande adaptatives
neuronales stables et robustes pour réaliser la poursuite des certaines classes de systèmes non
linéaires SISO et MIMO non affines en la commande.
Dans la première partie de ce travail, nous avons commencé par présenter l‟ensemble des
définitions et des outils nécessaires à la mise au point de la stratégie adoptée pour le
développement des lois de commande garantissant les performances souhaitées. En effet, un
rappel sur les principes de réseaux de neurones d‟ordre supérieur HONN, et l‟utilisation des
systèmes neuronaux comme éléments de base pour la modélisation et la commande des
systèmes non linéaires est présenté.
Dans la deuxième partie du travail, nous avons démontré que la commande du système
non linéaire non affine est équivalente à la commande du système non linéaire affine autour
d‟un contrôleur idéal inconnu qui nous avons démonté leur existence par le théorème de la
fonction implicite. A base de ce résultat nous avons proposé et développé des schémas de
commande adaptative directe et indirecte pour une classe de systèmes non linéaires
monovariables. Dans le schéma de commande adaptative directe neuronale, le but était
l‟approximation d‟une loi de commande stabilisatrice inconnue. En revanche le schéma de
commande adaptative indirecte exploite deux systèmes adaptatifs neuronaux pour approximer
la dynamique du système affine, et aussi évite le problème de singularité de la loi de
commande par l‟utilisation d‟un algorithme de projection.
Dans la dernière partie de ce travail, nous avons développé un contrôleur adaptatif direct
neuronal pour une classe de systèmes non linéaires multivariables non affines en la
commande. Pour ce faire, nous avons exploité en premier lieu le théorème de la fonction
implicite globale pour montrer l‟existence du contrôleur idéal inconnu. Ensuite, nous avons

59
Conclusion générale

utilisé le développement en série de Taylor autour du contrôleur idéal pour transforme le


modèle non affine en un modèle affine. En fin, pour des raisons des incertitudes sur le modèle
liées aux problèmes de transformations et modélisation, un réseau de neurone est utilisé pour
approximer la loi de commande idéale.
Les lois d‟adaptation des paramètres ajustables sont déduites à partir de l‟étude de stabilité
au sens de Lyapunov des systèmes en boucle fermée. La robustesse étant assurée par l‟ajout
d‟un terme de commande type mode glissant. La simulation, des systèmes non linéaires SISO
et MIMO non affines en la commande, a permis de mettre en évidence l‟apport des approches
proposées.

60
Bibliographie

[Dai-14]
Shi-Lu Dai, Cong Wang, and Min Wang,‟‟ Dynamic Learning From Adaptive
Neural Network Control of a Class of Nonaffine Nonlinear Systems‟‟, IEEE
Transactions on Neural Networks and learning systems, vol. 25, no. 1,pp,111-
123, january 2014.

[Doudou-13]
Doudou, S.‟‟ Contribution à la Commande Moderne des Systèmes Non Linéaires
Multivaraibles Non affines ‟‟, Thèse de Doctorat, Université de Setif, Alger, 2013.

[Funahashi-89]
Funahashi, K. L.,‟‟On the approximate realization of continuous mapping by
neural networks‟‟, Neural Networks, no.2, pp.183-192, 1989.

[Ge-99]
S. S. Ge, C. C. Hang, and T. Zhang, “Adaptive Neural Network Control of
Nonlinear Systems by State and Output Feedback,” IEEE Trans. Syst. Man
Cybern. B, Cybern., vol. 29, no. 6, pp. 818–828, Dec. 1999.

[Ge-04]
S. S. Ge , and C. Wang, “Adaptive Neural Control of Uncertain MIMO Nonlinear
Systems,” IEEE Trans. Neural Netw, vol. 15, no. 3, pp.674–692, May 2004.

[Ge-03]
S. S. Ge, and Zhang J. ‚”Neural-Network Control of Nonaffine Nonlinear
System With Zero Dynamics by State and Output Feedback” IEEE Trans. Neural
Networks, Vol. 14, No. 4, pp. 900-918, July 2003.

[Ge-01]
S. S. Ge, C. C. Hang, T. H. Lee, and T. Zhang, Stable Adaptive Neural Network
Control. Norwell, MA: Kluwer, 2001.

61
Bibliographie

[Ge-00]
S. S. Ge, T. H. Lee, and J. Wang, “Adaptive control of non-affine nonlinear
systems using neural networks,” in Proceedings of the 15th IEEE International
Symosium on Intelligent Control (ISIC 2000), pp. 13–18, Rio, Patras, Greece,
2000.

[Ge-98]
S. S. Ge, Hang C. C. and Zhang T,‟‟ Nonlinear Adaptive Control Using Neural
Networks and its Application to CSTR Systems‟‟, Journal of Process Control
Vol. 9, pp. 313-323, 1998.

[Hornik-89]
Hornik, K. Stinchombe M. & White H., ”Multilayer feedforward networks are
universal approximators”, IEEE Trans. Neural Networks, , 2, 1083-1112, 1989.

[Isidori-89]
Isidori A .,‟‟Nonlinear Control Systems‟‟ , 2nd,Springer-Verleg :Berlin,1989.

[Ioannou-96]
Ioannou P A and Sun J,‟‟Adaptive control‟‟, Englewood Cliffs, NJ: Prentice-hall,
1996.

[Karimi-09]
R. Karimi, M. B. Menhaj, M. Karimi-Ghartemani, and I. Saboori,‟‟ Decentralized
Adaptive Control of Large-scale Affine and Non-affine Nonlinear Systems ‟‟,
IEEE Transaction on Instrumentation and Measurement, Vol.58, No.8, pp. 2459-
2467, 2009.

[Kosmatopoulos-95]
E. B. Kosmatopoulos, M. M. Polycarpou, M. A. Christodoulou, and P.A.
Ioannou, “High-Order Neural Network Structures for Identification of Dynamical
Systems,” IEEE Trans. Neural Networks, vol. 6, pp. 422–431, Mar. 1995.

[Labiod-05]
Labiod, S.‟‟ Contribution à la Commande Adaptative Floue des Systèmes Non
Linéaires ‟‟ Thèse préparée au sein du Laboratoire de Commande des Processus
de l’ENP2005.

62
Bibliographie

[Liu-07]
Liu, Y.J., Wang, W.: „Adaptive Fuzzy Control for a Class of Uncertain Non-affine
Nonlinear Systems‟, Inf. Sci. 177, pp. 3901– 3917, 2007.

[Park-04]
Park, J. H., and Kim, S.H.,‟‟ Direct Adaptive Output Feedback Fuzzy Controller
for Non-affine Nonlinear System‟‟, Proc, of IEE, Control Theory Applications,
Vol. 151, No.1, pp. 65–72, 2004.

[Polycarpous-95]
M. M. Polycarpous and P. A. Ioannou,‟‟ A Robust Adaptive Nonlinear Control
Design‟‟, Automatica, Vol. 32, No. 3, pp. 423-427, 1995.

[Slotine-91]
J.E. Slotine and W. Li, Applied nonlinear control, Prentice Hall, Englewood,
Cliffs, NJ, 1991.

[Spooner-96]
Spooner J.T., Passino K.M., „‟Stable Adaptive Control Using Fuzzy Systems and
Neural Networks‟‟, IEEE Trans. on Fuzzy Systems, Vol. 4, No. 3, pp. 339-359,
August 1996.

[Wang-93]
L.-X. Wang, „‟Stable Adaptive Fuzzy Control of Nonlinear Systems „‟, IEEE
Transactions on Fuzzy Systems, vol. 1, no. 2, pp. 146–155, 1993.

[Wang-94]
L.X. Wang, Adaptive Fuzzy Systems and Control: Design and Stability Analysis.
Prentice-Hall, Englewood Clifs, NJ, 1994.

[Wang-07]
Wang, W.Y., Chien, L.C., Li, I.H., and Su, S.F., „‟MIMO Robust Control via T-S
Fuzzy Models for Non-affine Nonlinear Systems‟‟, Proc of IEEE Inter Conf. on
Fuzzy Systems, pp. 1–6, 2007.

[Yesildirek-99]
A. Yesildirek, F. L. Lewis, and S. Jagannathan , Neural Network Control of
Robot Manipulators and Nonlinear Systems. New York: Taylor & Francis, 1999.

63
Bibliographie

[Yesildirek-95]
Yesildirek, A. and Lewis Frank, F. L. „‟Feedback Linearization Using Neural
Networks”, Automatica, 31, 1659-1664, 1995.

[Yesildirek-96]
F. L. Lewis, A. Yesildirek, and K. Liu, “Multilayer Neural-Net Robot Controller
With Guaranteed Tracking Performance,” IEEE Trans. Neural Networks, vol. 7,
pp. 388–398, Mar. 1996.

[Zhang-06]
Zhang, W., and Ge, S.S.,‟‟ A Global Implicit Function Theorem without Initial
Point and its Applications to Control of Non-affine Systems of High
Dimensions‟‟, Jour of Mathematical Analysis and Applications, Vol. 313, pp.
251–261, 2006.

[Zhang-98]
T. Zhang, S.S. Ge, C.C. Hang,‟‟ Direct Adaptive Control of Non-affine Nonlinear
System Using Multilayer Neural Networks‟‟, in: Proc. ACC, pp. 515–519, 1998.

64
Bibliographie

65

Vous aimerez peut-être aussi