Commande Adaptative des Systèmes Non Linéaires
Commande Adaptative des Systèmes Non Linéaires
UNIVERSITE CONSTANTINE 1
FACULTE DES SCIENCES DE LA TECHNOLOGIE
DEPARTEMENT D’ELECTRONIQUE
NO d'ordre : ………
Série : ………
MEMOIRE
Présenté pour obtenir le Diplôme de Magistère en
ELECTRONIQUE
Spécialité : Contrôle des Systèmes
THEME :
PAR
ZERARI NASSIRA
Soutenu le 26 / 11 / 2014
Devant le Jury :
En tout premier lieu, notre profonde gratitude est envers notre créateur, le tout
puissant, qui nous a spécifiés de l’intelligence pour bien croire à sa majesté.
Nous tenons à remercier profondément notre promoteur M.CHEMACHEMA
pour son encadrement de haut niveau, ses précieux conseils et ses critiques
constructives et pertinentes.
J’exprime ma plus profonde gratitude à Monsieur le président de jury A. Chaabi,
Professeur à l’université de Constantine 1 d’avoir bien voulu juger ce travail et
d’avoir bien voulu accepter la présidence de ce jury.
J’adresse également mes sincères remerciements aux membres de jury d’avoir
accepté la lourde tâche d’être examinateurs et qui me font l’honneur de jouer ce
rôle important de ma mémoire. Je remercie particulièrement Monsieur K. Belarbi
professeur à l’Ecole Nationale Polytechnique de Constantine je n’oublierai jamais
ses aides appréciables, ainsi que Monsieur S. Bououden, Maître de conférences à
l’université de Khenchela qui viennent de loin et qui ont accepté immédiatement de
faire partie de ce Jury
Que tous mes amis et collègues trouvent ici le témoignage de mon amitié et de ma
reconnaissance.
Enfin, je ne saurais terminer ce remerciement sans remercier toute ma famille, qui
m’a accompagné tout au long de mes études par son amour inconditionnel et son
soutien constant.
ii
Table des matières
Remerciements…………………………………………………………………………………..i
Table des matières……………………………………………………………………………….ii
Résumé……………………………………………………………………………………….…iv
Abstract……………………………………………………………………………………..……v
……………………………………………………………………………………………ملخص.....vi
Introduction Générale…………………………………………………...........….................
......... 1
CHAPITRE 1.Les Réseaux de Neurones…………………………………..........……… 4
1.1. Introduction ………………………………………………………….………….......…….. 5
1.2. Réseaux de Neurones Artificiels ………………………………………………………… 5
1.3. L‟approximation universelle par réseaux de neurones d‟ordre supérieur HONN………....…6
1.3.1. Topologie du réseau HONN ………………………………………………….....…. 6
1.3.2. Apprentissage des Réseaux de Neurone……………….....……..…………………... 7
1.3.2.1 Algorithmes d‟ajustement.…………………………………………………….. 7
1.3.3. Théorème de l‟approximation universelle….………..…………… ……………….. 9
1.4. Conclusion…………………………………………………………………………............ 10
CHAPITRE 2 .La Commande Adaptative Neuronale pour une Classe de Système
Non Linéaire Monovariables Non-affine……………………………………….. 11
2.1. Introduction………………………………………………………………………………….12
2.2. La Transformation Du Système Non Linéaire……..…………..….………………………...13
2.2.1. Position du problème …………………………………………………………….......13
2.2.2. Représentation entrée-sortie …………………………………………………….….14
2.2.3. La commande Système de linéairisante ………………………………………...........19
2.3. Commande adaptative indirecte neuronale ………………….………………………….......21
2.3.1. Conception de la commande neuronale……………………………………………....21
2.3.2. Analyse de stabilité ……………………………………………………..……………24
2.3.3. Résultats de simulation ………………………….…………………………………..28
2.4. Commande adaptative directe neuronale ………………….…………………………….…31
iii
2.4.1. Conception de la commande neuronale……………………………………………...31
2.4.2. Analyse de stabilité ……………………………………………………………… 32
2.4.3. Résultats de simulation ………………………….……………………………….. 37
2.5. Conclusion…………………………………………………………………………………. 40
Chapitre 3. La Commande Adaptative Neuronale pour une Classe de Système
Non Linéaire Multivariables Non affine……………………………………….41
3.1. Introduction………………………………………………………………………............... 42
3.2. La Transformation du système non Linéaire MIMO ……..………..………………………43
3.2.1. Position du problème ……………………………………………………………....... 43
3.2.2. Conception de la commande neuronale…………………………………………….. 48
3.2.3. Analyse de stabilité ………………………………………………………………… 50
3.3. Résultats de simulation ………………………….……………………………………….. 52
3.3.1. Exemple 1………………………………………………………………………..… 52
3.3.2. Exemple 2 ……………………………………………………………………..…… 54
3.4 Conclusion…………………………………………………………………………………. 57
Conclusion générale…………………………………………….….…………........................ 59
Bibliographie………..…………………………………………………..................................... 61
iv
Résumé
La commande adaptative neuronale peut être définie comme une méthode de contrôle
robuste, dans laquelle les systèmes neuronaux sont utilisés pour approximer la dynamique
du système où certains de ses paramètres sont adaptés en ligne afin de garantir la stabilité
du système en boucle fermée .L‟objectif principal de ce mémoire est de développer des lois
de commande adaptatives neuronales stables pour réaliser la poursuite des certaines
classes de systèmes non linéaires SISO et MIMO non affines en la commande. Pour ce
faire, nous avons exploité en premier lieu le théorème de la fonction implicite pour montrer
l‟existence du contrôleur idéal inconnu. Ensuite, nous avons utilisé le développement en
série de Taylor autour du contrôleur idéal pour transforme le modèle non affine en un
modèle affine. A base de ce résultat nous avons proposé et développé des schémas de
commande adaptative directe et indirecte pour une classe de systèmes non linéaires
monovariables et multivariables, Le point commun entre les approches proposées est
l‟utilisation des systèmes neuronaux d‟ordre supérieure HONN pour approcher en ligne les
dynamiques incertaines des systèmes dans le cas des approches indirectes, et pour
approcher des lois de commande stabilisatrices inconnues dans le cas des approches
directes. De plus, l‟analyse de la stabilité et de la robustesse des structures de commande
proposées est effectuée par l‟approche de Lyapunov. Pour chaque structure de commande
proposée, des résultats de simulation sont présentés pour montrer ses performances.
Mots Clés :
Réseau de neurones (HONN), commande adaptative neuronale, théorème de la fonction
implicite, systèmes non linéaires non affines.
v
Abstract
Adaptive neural networks control can be defined as a method of robust control, in which
neural networks systems are used to approximate unknown functions, some of the system
parameters are adapted online to ensure the stability of the closed loop system. The main
objective In this thesis, An adaptive neural networks control approach is developed and
proposed for a class of single-input single-output (SISO), and multi-input multi-output
(MIMO) nonaffine nonlinear dynamic. Based on the implicit function theory, the
existence of an ideal controller, that can achieve control objectives, is firstly shown. Then,
Taylor series expansion is employed to transfer the normal nonlinear system into the
standard affine form in the neighborhood of the ideal. Based on this elegant result , we
have proposed adaptive neural controller direct and indirect for a class of single-input
single-output (SISO) nonlinear systems, and multi-input multi-output (MIMO) nonlinear
systems, The common feature between all developed adaptive controllers is the use of
neural networks systems, that are updated on-line, with the purpose of producing
approximations of the system‟s dynamics, in some cases (indirect methods), or of some
unknown stabilizing controllers, in others (direct methods). In addition, stability and
robustness analysis of the proposed control schemes are performed by using the Lyapunov
synthesis method, and for each scheme, simulation results are given to highlight its
performance.
Key words:
Neural network (HONN), adaptive control neuronal, implicit function theorem, nonlinear
non affine Systems.
vi
ملخص
التحكم التالؤمي العصبي يمكن تعريفه كوسيلة من وسائل التحكم القوية ،والتي تستخدم الشبكة
العصبية لتقريب دوال غير معروفة ,أين يتم تكييف وسائط النظام لضمان استقرار النظام في حلقة
مغلقة .الهدف الرئيسي لهذه األطروحة هو وضع قوانين التحكم التالؤمي العصبي لتحقيق استمرار
مستقر من فئات معينة من األنظمة غير الخطية أحادية المدخل و المخرج و األنظمة غير الخطية
متعددة المداخل و المخارج حيث التحكم يظهر بصورة غير خطية .من أجل ذلك ،استخدمنا نظرية
الدالة الضمنية إلظهار وجود الم تحكم المثالي الضمني .بعد ذلك ،أدخلنا سلسلة تايلور حول التحكم
المثالي الضمني حيث التحكم يظهر بصورة غير خطية من أجل تحويله إلى نموذج حيث التحكم يظهر
بصورة خطية .باالعتماد على هذه النتائج ,قمنا بتطوير واقتراح مخططات التحكم التالؤمي المباشر
وغير المباشر لألنظمة الديناميكية الالخطية أحادية ومتعددة المداخل والمخارج ،القاسم المشترك بين
طرق التحكم المدروسة يتمثل في استعمال الشبكة العصبية من نوع الدرجة المرتفعة كممثل عام
للدوال المجهولة من أجل الحصول على تمثيل للمعادلة الديناميكية للنظام الالخطي في بعض الحاالت
)الطريقة غير المباشرة( من أجل الحصول على تمثيل لقانون تحكم مثالي مجهول في الحاالت األخرى )
الطريقة المباشرة ( ,باإلضافة إلى هذا ،استعملنا طريقة ليابونوف لدراسة استقرار ومتانة طرق التحكم
التالؤمي المقترحة وقدمنا بعض نتائج المحاكاة العددية إلبراز كفاءة أدائها.
كلمات مفتاحیة:
العصبي ذات الدرجة المرتفعة ،نظرية الدالة الضمنية ،األنظمة غير الخطية
ة تحكم تالؤمي ،الشبكة
حيث التحكم يظهر في صورة غير خطية ،استقرار ليابونوف.
vii
Introduction générale
Introduction Générale
1
Introduction générale
2
Introduction générale
3
Chapitr1.Réseaux de neurones
Chapitre 1
Réseaux de Neurones
1. 1. Introduction
1. 2. Réseaux de neurones artificiels (ANN)
1. 3. L’approximation universelle par réseaux HONN
1. 4. Conclusions
4
Chapitr1.Réseaux de neurones
1.1. Introduction :
Les réseaux de neurones artificiels (ANN) jouent un rôle important dans l'ingénierie de
contrôle, en particulier dans le contrôle du système non linéaire. En raison de leur
excellente capacité d‟apprentissage, les réseaux de neurones artificiels (ANN) ont la
propriété d‟approximation universelle, qui les rend capables d'approximer, avec un degré
de précision arbitraire fixé, n'importe quelle fonction non linéaire.
La recherche active a été réalisée dans le contrôle du réseau de neurones en utilisant le
fait que les réseaux de neurones peuvent se rapprocher d'une large gamme de fonctions non
linéaires à un degré de précision désiré dans certaines conditions. Plusieurs approches de
contrôle NN (neural networks) stables ont été proposées sur la base de la théorie de la
stabilité de lyapunov [Yesildirek-96] [Ge-01]. Un avantage principal de ces systèmes est
que les lois adaptatives sont établies d'après la synthèse de lyapunov et par conséquent, la
stabilité du système est garantie sans l'exigence d'une formation en ligne. Il existe trois
types de réseaux neuronaux sont largement utilisés, les réseaux de neurones de la fonction
de base radiale (RBF) [Ge-01][Yesildirek-99], et les réseaux de neurones d'ordre
supérieur (HONNS) [Kosmatopoulos-95], et les réseaux neuronaux multicouches
(MNNS) [Ge-01][Yesildirek-99].
L‟objectif de ce chapitre est présente la structure et les propriétés du réseau de neurone
d‟ordre supérieure HONN (high-order neural networks), et leur utilisations dans la
conception de contrôleur.
1.2. Réseaux de Neurones Artificiels (ANN) :
Le cerveau humain est le meilleur modèle de machine polyvalente incroyablement
rapide et surtout douée d‟une parfaite capacité d‟auto organisation. Son comportement est
beaucoup plus mystérieux que le comportement de ses cellules de base. Il est constitué
d‟unité biologiques élémentaires (environ 1012 neurones), chacune reçoit et envoi des
informations (1000 à 10000 synapses par neurone). Les cellules nerveuses appelées
„‟neurones‟‟ qui sont des éléments de base du système nerveux centrale. Elles sont
constituées de trois parties essentielles, le corps cellulaire, les dendrites et l‟axone comme
indiquer dans la figure 1.1.
Le corps cellulaire contient le noyau de neurone et effectue les transformations
biochimiques nécessaires à la synthèse des éléments assurant la vie du neurone. Chaque
neurone possède des dendrites, qui entourent le corps cellulaire. Les dendrites sont les
récepteurs principaux du neurone pour capter les signaux qui lui parviennent. L‟axone qui
5
Chapitr1.Réseaux de neurones
est à proprement parler la fibre nerveuse, sert de moyen de transport pour les signaux émis
par le neurone. Les neurones sont connectés les uns aux autres suivant des répartitions
spatiales complexes. Les connexions entre deux neurones sont réalisées au niveaux des
synapses où ils sont séparés par un espace intercellulaire de quelques dizaines
d‟Angströms ( 10-9 m) entre l‟axone du neurone afférent et les dendrite du prochain
neurone. La jonction entre deux neurones est appelée synapse.
Noyau
Dendrites
Axone
Synapse
6
Chapitr1.Réseaux de neurones
𝑑 𝑗 (𝑖)
𝑠𝑖 𝑧 = 𝑠(𝑧𝑗 ) , 𝑖 = 1,2, … . , 𝑙 (1.3)
𝑗 ∈𝐼𝑖
s S2 𝑊∗
i
𝑑𝑗 ,𝑖
Sl-1
s Sl
i
Fig. 1.2: La structure du neurone d‟ordre supérieure (HONN)
1.3.2. L'apprentissage des réseaux de neurones:
L'information que peut acquérir un réseau de neurones est représentée dans les poids
des connexions entre les neurones. L'apprentissage consiste donc à ajuster ces poids de
telle façon que le réseau présente certains comportements désirés. En d'autres termes,
l'apprentissage des réseaux de neurones consiste à ajuster les poids synaptiques de telle
manière que les sorties du réseau soient aussi proches que possible des sorties désirées.
1.3.2.1. Algorithmes d’ajustement :
Dans de nombreux problèmes pratiques, nous pouvons avoir une connaissance a priori
de l'endroit où les paramètres idéales 𝑊 ∗ sont situés dans ℜ𝑛 . Cette connaissance vient
généralement en termes de limites supérieure et / ou inférieure pour les éléments de 𝑊 ∗ ou
en termes de localisation dans un sous-ensemble convexe de ℜ𝑛 . Si une telle information a
priori est disponible, on veut limiter l'estimation en ligne pour être à l'intérieur de
l'ensemble dans lequel se trouvent les paramètres inconnus. A cet effet, nous modifions les
7
Chapitr1.Réseaux de neurones
−𝛾𝜓 𝑧 𝑒
∇𝜇 𝑊
Projection
𝛺𝑤 𝑊
𝛺𝑤
𝑊∗
8
Chapitr1.Réseaux de neurones
Si on choisit de contraindre les paramètres estimés tel que 𝑊 ≤ 𝑊𝑚𝑎𝑥 , alors nous avons
2 2
𝜇 𝑊 = 𝑊 − 𝑊𝑚𝑎𝑥
et ∇𝜇 𝑊 = 2𝑊
L‟algorithme de projection peut être écrit comme :
−𝛾𝜓 𝑧 𝑒 𝑠𝑖 𝑊 ∈ 𝛺𝑤 𝑜𝑢 ( 𝑊 = 𝑊𝑚𝑎𝑥 𝑒𝑡 𝑊 T 𝛾𝜓 𝑧 𝑒 ≥ 0
𝑊= 𝑊𝑊 T
−𝛾𝜓 𝑧 𝑒 + 𝛾𝜓 𝑧 𝑒 𝑠𝑖 𝑊 = 𝑊𝑚𝑎𝑥 𝑒𝑡 𝑊 T 𝛾𝜓 𝑧 𝑒 < 0
𝑊T 𝑊
Cet algorithme garantit que 𝑊 ≤ 𝑊𝑚𝑎𝑥 , ∀𝑡 𝑠𝑖 𝑊(0) ≤ 𝑊𝑚𝑎𝑥 [Ioannou-96].
1.3.3. Théorème de l’approximation universelle :
Parmi les propriétés des réseaux de neurones, l‟approximation universelle est la plus
importante du point de vue de l‟identification et la commande. Cette propriété est la
justification de l‟utilisation des réseaux de neurones dans les systèmes de commande.
L‟approximation universelle a fait le sujet de beaucoup de travaux de recherche et
plusieurs démonstrations pour des réseaux de neurones avec différentes fonctions
d‟activation, on dispose d‟un nombre important de publications montrant que les systèmes
neuronale sont des approximateurs universels [Funahashi-89] [Hornik-89], c‟est-à-dire,
pour toute fonction continue 𝑓 𝑧 définie sur un ensemble compact 𝛺𝑧 , et pour toute
constante positive 𝜀 , il existe un système neuronale d‟ordre supérieur, avec q neurones
dans la couche cachée de la forme (1.1) tel que :
𝑠𝑢𝑝 𝑓 𝑧 − 𝜙 𝑊, 𝑧 <𝜀 (1.6)
𝑧∈ 𝛺 𝑧
9
Chapitr1.Réseaux de neurones
10
Chapitre2. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire SISO Non affine
Chapitre 2
La Commande Adaptative Neuronale pour une
Classe de Systèmes Non Linéaires SISO Non-affine
2.1 Introduction
2.2 La transformation du système non-linéaire
2.3 Commande adaptative indirecte neuronale
2.4 Commande adaptative directe neuronale
2.5 Conclusion
11
Chapitre2. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire SISO Non affine
2.1. Introduction :
La commande adaptative neuronale a reçu un grand succès pour le contrôle des
systèmes non linéaires incertains et complexes en raison de l‟excellente capacité
d‟approximations des réseaux de neurones.
De nombreux résultats remarquables ont été obtenus pour les systèmes non linéaires
affines en la commande basés sur la linéarisation par retour d‟état, et l‟approximation des
fonctions non linéaires à l'aide des réseaux de neurones et logique floue [Spooner-96]
[Wang-94] [Yesildirek-95]. En pratique, de nombreux systèmes non linéaires ne peuvent
pas être représentés sous la forme affine, et les problèmes deviennent beaucoup plus
difficiles et compliqués où il ya moins de résultats disponibles dans la littérature.
Pour le cas de la commande adaptative neuronale indirecte le système non linéaire non
affine SISO est d'abord transformé en une forme affine en considérant un développement
en série de Taylor autour d'une trajectoire de fonctionnement, puis deux systèmes
adaptatifs neuronaux pour approximer la dynamique du système affine [Ge-00].Cependant,
cette approche adaptative indirecte présente l'inconvénient du problème de la singularité du
contrôleur, c'est à dire la division par zéro peut se produire dans la loi de commande. les
auteurs utilisent un algorithme de projection [Ioannou-96][Spooner-96] pour maintenir les
paramètres ajustables de l‟approximateur du gain de commande à l‟intérieur d‟un ensemble
de non singularité et de modifier les lois de commande par l‟ajout de termes à structure
variable pour garder l‟amplitude du signal de commande borné [Yesildirek-95] [Labiod-
05] .
L‟approche adaptative neuronale directe pour une classe de systèmes non linéaires non
affines est abordée par exemple dans les papiers [Ge-00] [Ge-98] [Ge-99] [Dai-14]
[Zhang-98] [Ge-03], les réseaux neuronaux sont utilisés pour construire ce contrôleur
implicite idéal et inconnu.
Les lois d'adaptation utilisées dans les travaux présentés précédemment sont basées sur
l‟approche de Lyapunov. Elles utilisent le signal d'erreur entre la sortie désirée et la sortie
réelle du système afin d‟ajuster en ligne les paramètres réglables. La robustesse des
systèmes vis à vis des erreurs d'approximation et des perturbations externes est assurée par
un terme de commande supplémentaire type 𝐻∞ ou type mode glissant.
12
Chapitre2. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire SISO Non affine
13
Chapitre2. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire SISO Non affine
14
Chapitre2. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire SISO Non affine
Le degré relatif représente le retard subi par l‟entrée 𝑢 avant son influence sur la
sortie 𝑦. Si le degré relatif 𝜌 est égal à l‟ordre 𝑛 du système, le système (2.1) est dit dans
sa forme normale et ne présente pas de dynamiques de zéros et est donc à minimum de
phase. Si 𝜌 est strictement inférieur à 𝑛, le système (2.1) est à minimum de phase [Slotine-
91] [Isidori-89] si le sous-système d‟ordre (𝑛 − 𝜌) est asymptotiquement stable (stabilité
de la dynamique de zéros).
Définition 2.1 :
On dit que le système (2.1) possède un degré relatif 𝜌 à 𝑥0 , 𝑢0 , s‟il existe un nombre
entier positif 1 ≤ 𝜌 < ∞ tels que
𝜕 𝐿𝑖𝑓
∀𝑥 ∈ 𝑅: = 0 , 𝑖 = 0,1, … … … 𝜌 − 1
𝜕𝑢
𝜌
𝜕 𝐿𝑓
≠0
𝜕𝑢
avec 𝛺𝑥 ⊂ 𝑅 𝑛 et 𝛺𝑢 ⊂ 𝑅 est un ensemble compacts contenant 𝑥0 𝑒𝑡 𝑢0 respectivement.
Le Système (2.1) est possède un degré relatif complet 𝜌 dans un ensemble compact 𝑈 =
𝛺𝑥 × 𝛺𝑢 . S‟il a un degré relatif 𝜌 de tout point (𝑥0 , 𝑢0 ) ∈ 𝑈.
Hypothèse 2.1 : Le système (2.1) possède un degré relatif complet 𝜌 = 𝑛 , ∀ 𝑥, 𝑢 ∈ 𝑈.
On peut donc trouver la forme normale du système en appliquant le changement de
𝑗
coordonnées (un difféomorphisme) Ф 𝑥 = [∅1 , ∅2 , … , ∅𝑛 ]𝑇 avec ∅𝑗 𝑥 = 𝐿𝑓 𝑥 , 𝑗 =
1,2, … … , 𝑛 est une matrice Jacobienne qui est non singulière pour tous 𝑥 ∈ 𝛺
[Isidori-89] donc Ф 𝑥 est un difféomorphisme sur 𝛺𝑥 et 𝜉 = Ф 𝑥 tel que :
𝜉1 ∅1 (𝑥) (𝑥)
𝜉2 ∅2 (𝑥) 𝐿𝑓 (𝑥)
𝜉𝑖 = 𝜉3 = ∅3 (𝑥) = 𝐿2𝑓 (𝑥) (2.4)
… … …
𝜉𝑛 𝜌−1
∅𝑛 (𝑥) 𝐿𝑓 (𝑥)
Alors, (2.1) peut être transformé en une forme normale :
𝜉1 = 𝜉2
𝜉2 = 𝜉3
………... (2.5)
𝜉𝑛 = 𝑏 𝜉, 𝑢
𝑦 = 𝜉1
On peut alors facilement vérifier que:
15
Chapitre2. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire SISO Non affine
𝜉𝑖 = 𝜉𝑖+1 , 𝑖 = 1 … … 𝑛 − 1
𝜉𝑛 = 𝑏 𝜉, 𝑢 (2.6)
𝑦 = 𝜉1
où :
𝑏 𝜉, 𝑢 = 𝐿𝑛𝑓 𝜉
avec :
𝑥 = Ф−1 𝜉
Définir le domaine du système normal (2.6), comme suit :
𝑈= 𝜉, 𝑢 |𝜉 ∈ Ф 𝛺𝑥 , 𝑢 ∈ 𝛺𝑢 (2.7)
Soit la fonction
𝑏𝑢 = 𝜕 𝑏(𝜉, 𝑢) 𝜕𝑢
et la fonction continue :
𝑏𝑢 = 𝑑(𝑏𝑢 )/𝑑𝑡
Selon l'hypothèse 2.1 et la définition2.1, nous avons 𝜕 𝑏(𝜉, 𝑢) 𝜕𝑢 ≠ 0 , ∀ (𝜉, 𝑢) ∈ 𝑈.
Cela implique que la fonction 𝑏𝑢 est strictement positive ou négative pour tous (𝜉, 𝑢) ∈ 𝑈.
Supposons que le signe de 𝑏𝑢 est connu, et sans perte de généralité, il est supposé que
𝑏𝑢 > 0 dans la discussion qui suit.
Hypothèse 2.2 [Karimi-09] : Il existe des constantes positives 𝑔0 et 𝑔1 de telle sorte que
𝑔0 ≤ 𝑏𝑢 ≤ 𝑔1 (2.8)
avec
𝑑 𝑏(𝜉 ,𝑢) 𝜆
≤ 𝐻 < 𝜆 min (𝑄 ) 𝑔0 (2.9)
𝑑𝑡 𝜕𝑢 max
(𝑃 )
Pour tous (𝜉, 𝑢) ∈ 𝑈 , avec 𝜆min 𝑄 𝑒𝑡 𝜆max (𝑃) sont les valeurs propres minimale et
maximale des matrices Q et P respectivement donnes par l‟équation (2.15)
Hypothèse 2.3:La trajectoire désirée 𝜉𝑑 𝑡 et ses dérivées jusqu‟à l‟ordre 𝑛 sont connues et
bornées.
Si l‟on définit l‟erreur de poursuite par
𝜉1 (𝑡) = 𝑦𝑑 𝑡 − 𝜉 𝑡 (2.12)
et le vecteur d‟erreur de poursuite de tous les états est défini par
𝑇
𝜉 = 𝜉𝑑 − 𝜉 = 𝜉 , 𝜉 , 𝜉 , … . . , 𝜉 𝑛−1
𝑇
avec 𝜉𝑑 𝑡 = 𝑦𝑑 , 𝑦𝑑 , 𝑦𝑑 , … … , 𝑦𝑑𝑛−1 ∈ 𝑅 𝑛 et 𝜉𝑑 = [𝜉𝑑𝑇 , 𝑦𝑑𝑛 ]𝑇 ∈ 𝑅 𝑛+1
16
Chapitre2. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire SISO Non affine
𝜉 = 𝐴 − 𝑏𝑘 𝑇 𝜉 (2.14)
avec
𝐴𝑘 = 𝐴 − 𝑏𝑘 𝑇
Le vecteur de gain de retour d‟état 𝑘 est calculé afin que la matrice 𝐴 − 𝑏𝑘 𝑇 ait toutes
ses valeurs propres à parties réelles négatives. Par conséquent le système bouclé sera
exponentiellement stable. On lui associe une équation de Lyapunov, ayant pour solution
unique une matrice symétrique définie positive, donnée par
𝐴𝑇𝑘 𝑃 + 𝑃𝐴𝑘 = −𝑄 (2.15)
Démonstration :
En ajoutant et en retranchant le terme 𝑏𝑘 𝑇 𝑒 sur le côté droit de (2.13), on obtient :
𝜉 = 𝐴 − 𝑏𝑘 𝑇 𝜉 − 𝑏 𝑏 𝜉, 𝑢 − 𝜑 (2.16)
où
𝜑 = 𝑦𝑑𝑛 + 𝑘 𝑇 𝜉
A partir de l‟hypothèse 2.1 et le fait que 𝜕 𝑏(𝜉, 𝑢) 𝜕𝑢 ≠ 0 et 𝜕 𝜑) 𝜕𝑢 = 0, ainsi
17
Chapitre2. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire SISO Non affine
𝜕 𝑏 𝜉, 𝑢 − 𝜑 𝜕𝑢 ≠ 0 , ∀ (𝜉, 𝑢) ∈ 𝑈 (2.17)
D‟après le théorème de la fonction implicite [Park-04], il existe un contrôleur idéal 𝑢∗ (𝑧),
avec 𝑧 = [𝜉 𝑇 , 𝜉𝑑𝑇 , 𝜑 ], tel que
𝑏 𝜉, 𝑢∗ − 𝜑 = 0 (2.18)
On considère la fonction candidate de Lyapunov suivante :
1
𝑉 = 𝜉 𝑇 𝑃𝜉 (2.19)
2
En dérivant l‟expression (2.19) par rapport au temps, on obtient
1 𝑇
𝑉= 𝜉 𝑃𝜉 + 𝜉 𝑇 𝑃𝜉
2 (2.20)
1
= 𝜉 𝑇 𝐴𝑇𝑘 𝑃 + 𝑃𝐴𝑘 𝜉 − 𝜉 𝑇 𝑃𝐵 𝑏 𝜉, 𝑢 − 𝜑
2
Si 𝑢 = 𝑢∗ (2.16), alors on obtient
1
𝑉 = 2 𝜉 𝑇 𝐴𝑇𝑘 𝑃 + 𝑃𝐴𝑘 𝜉 (2.21)
1
𝑉 ≤ − 2 𝜉 𝑇 𝑄𝜉 ≤ 0 (2.22)
ce qui implique que 𝜉 (𝑡) ∈ 𝐿2 donc 𝜉 (𝑡) ∈ 𝐿∞ , et d‟après le lemme de Barbalat [Slotine-
91], on conclut que lim𝑡→∞ 𝜉 (𝑡) = 0 .
Cependant, le théorème de la fonction implicite garantit seulement l'existence du
contrôleur idéal 𝑢∗ (𝑧) et ne fournit pas une méthode pour le concevoir. Dans la suite de
travaille, on propose des systèmes adaptatifs neuronaux pour approximer le contrôleur
idéal inconnu.
En se servant du lemme2.1 qui montre l'existence de l'entrée idéale 𝑢∗ , un
développement en série de Taylor autour de 𝑢∗ (𝑧) est effectué.
La fonction du système 𝑏(𝜉, 𝑢) peut être écrite comme suit :
∗
𝜕𝑏 𝜉, 𝑢∗ 𝑧
𝑏 𝜉, 𝑢 = 𝑏 𝜉, 𝑢 𝑧 + 𝑢 − 𝑢∗ + 𝛰(𝑢 − 𝑢∗ )2 (2.24)
𝜕𝑢
L‟équation (2.24) peut être réécrite sous la forme suivante :
𝑏 𝜉, 𝑢 = 𝑓 𝑧 + 𝑔 𝑧 𝑢 + 𝛰(𝑢 − 𝑢∗ )2 (2.25)
avec
18
Chapitre2. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire SISO Non affine
∗
𝜕𝑏 𝜉, 𝑢∗ 𝑧 ∗
𝜕𝑏 𝜉, 𝑢∗ 𝑧
𝑓 𝑧 = 𝑏 𝜉, 𝑢 𝑧 − 𝑢 , 𝑔 𝑧 =
𝜕𝑢 𝜕𝑢
∗ 2
et 𝛰 𝑢 − 𝑢 désigne la somme des termes d'ordre supérieure du développement en
série de Taylor noté par la suite par d. Ce dernier terme considéré petit et bornée comme
suit :
𝑑 ≤𝑑 (2.26)
À partir de l'hypothèse 2.2 et l‟équation (2.8), nous avons
𝑔0 ≤ 𝑔 𝑧 ≤ 𝑔1 (2.27)
dans le voisinage de la commande idéal 𝑢∗ (𝑧) .
Ainsi, on obtient un système non linéaire affine autour d‟une commande idéal comme suit:
𝜉𝑖 = 𝜉𝑖+1 , 𝑖 = 1 … 𝑛 − 1
𝜉𝑛 = 𝑓 𝑧 + 𝑔 𝑧 𝑢 + 𝑑 (2.28)
𝑦 = 𝜉1
Remarque 2.1: À partir des dérivations successives, on voit que la commande du système
(2.1) est équivalente à la commande du système (2.28) qui est sous la forme d'un système
non linéaire affine.
2.2.3. La commande linéarisante :
Après avoir définie une structure permettant d‟obtenir une relation directe entre l‟entrée
et la sortie du système, et une transformation qui permet d‟avoir une forme affine d‟un
système non linéaire qui peut être appliquée simplement à une classe de systèmes non
linéaires décrits par ce qu'on appelle la forme canonique si sa dynamique est représentée
par:
𝜉𝑖 = 𝜉𝑖+1 , 𝑖 = 1 … … … 𝑛 − 1
𝜉𝑛 = 𝑓 𝑧 + 𝑔 𝑧 𝑢 + 𝑑 (2.29)
𝑦 = 𝜉1
où 𝜉 = [𝜉1 , 𝜉2 , 𝜉3 , … … . . 𝜉𝑛 ] 𝑇 ∈ 𝑅 𝑛 est le vecteur d‟état, 𝑢 ∈ ℛ et 𝑦 ∈ ℛ sont
respectivement l‟entrée et la sortie du système, 𝑓 𝑧 𝑒𝑡 𝑔 𝑧 sont des fonctions non
linéaires continues incertaines.
L‟objective de la commande est de concevoir un contrôleur adaptatif neuronale capable
de forcer la sortie du système 𝜉(𝑡) a suivre une trajectoire de référence 𝑦𝑑 𝑡 borné bien
déterminé , sous la contrainte que tous les signaux impliqués soient bornés.
Pour cela on détermine une loi d‟adaptation pour ajuster le vecteur de paramètres tel
que les conditions suivantes soient satisfaites :
19
Chapitre2. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire SISO Non affine
(i) le système en boucle fermée doit d‟être stable et robuste dans le sens ou toutes les
variables estimées soient uniformément bornées.
(ii) l‟erreur de poursuite, doit être la plus petite possible.
Le système (2.28) peut être réécrit sous la représentation d‟état suivante :
𝜉 = 𝐴𝜉 + 𝑏 𝑓 𝑧 + 𝑔 𝑧 𝑢 + 𝑑
(2.30)
𝑦 = 𝐶𝑇 𝜉
où
0 𝑛 −1 𝐼 𝑛−1 0 𝑛 −1
𝐴= ∈ℜ𝑛 × 𝑛
, 𝑏= ∈ℜ𝑛 ×1
0 0𝑇(𝑛−1) 1
(2.31)
1 𝑛 ×1
𝐶= 0 ∈ℜ
𝑛−1
𝐼(𝑛 −1) et 0(𝑛−1) indiquent la matrice d'identité et un vecteur de zéros de dimension (𝑛 − 1),
respectivement.
En remplaçant la fonction 𝑏 𝜉, 𝑢 par leur transformation équivalente dans l‟équation
dynamique de l‟erreur (2.13), on obtient :
𝜉 = 𝐴𝜉 + 𝑏 −𝑓 𝑧 − 𝑔 𝑧 𝑢 + 𝑦𝑑𝑛 − 𝑑 (2.32)
20
Chapitre2. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire SISO Non affine
𝑔 𝑧 = 𝑊𝑔∗𝑇 𝑆𝑔 𝑧 + 𝜀𝑔 (𝑧) , 𝑧 ∈ 𝛺𝑧 ⊂ 𝑅 2𝑛 +1
(2.39)
avec 𝜀𝑓 et 𝜀𝑔 représentent les erreurs d‟approximation neuronale, 𝑊𝑓∗ 𝑒𝑡 𝑊𝑔∗ sont
respectivement les paramètres optimaux de 𝑊𝑓 et 𝑊𝑔 , c'est-à-dire, les valeurs des
21
Chapitre2. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire SISO Non affine
Notons que les paramètres optimaux 𝑊𝑓∗ et 𝑊𝑔∗ sont des constantes artificielles
inconnues introduites uniquement pour faire l‟étude théorique de la stabilité de
l‟algorithme de commande. En fait, la connaissance de leurs valeurs n‟est pas nécessaire
pour l‟implantation des lois de commande adaptatives.
𝑓 𝑧 − 𝑓 𝑧 /𝑊𝑓 = 𝑊𝑓𝑇 𝑆𝑓 𝑧 + 𝜀𝑓 (𝑧) (2.42)
𝑔 𝑧 − 𝑔 𝑧 𝑊𝑔 = 𝑊𝑔𝑇 𝑆𝑔 (𝑧) + 𝜀𝑔 (𝑧) (2.43)
avec
𝑊𝑖 = 𝑊𝑖∗ − 𝑊𝑖 𝑎𝑣𝑒𝑐 𝑊𝑖 = −𝑊𝑖 𝑒𝑡 𝑖 = 𝑓, 𝑔
cette loi de commande résulte de (2.33) en remplaçant les fonctions 𝑓 𝑧 et 𝑔 𝑧 par leurs
22
Chapitre2. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire SISO Non affine
𝑢 𝑡 = 𝑢𝑐 𝑡 + 𝑢𝑟 𝑡 (2.45)
La loi de commande (2.45) est la somme de deux termes : un terme de commande
adaptative, 𝑢𝑐 𝑡 utilisé pour compenser les non linéarités du système, et un terme de
robustification 𝑢𝑟 𝑡 , introduit pour pallier le problème des erreurs d‟approximation.
Le terme adaptatif est défini comme suit
1
𝑢𝑐 = −𝑓 𝑧/𝑊𝑓 + 𝑦𝑑𝑛 𝑡 + 𝑘 𝑇 𝜉 𝑡 (2.28)
𝑔 𝑧 /𝑊𝑔
et le terme de robustification 𝑢𝑟 par
1
𝑢𝑟 = 𝜀 + 𝜀𝑔 𝑢𝑐 𝑡 𝑠𝑔𝑛 𝜉 𝑇 𝑃𝑏 ( 2.47)
𝑔0
où 𝜀 et 𝜀𝑔 sont des estimations des paramètres inconnus, 𝜀 ∗ = 𝜀𝑓 + 𝑑 et 𝜀𝑔∗ = 𝜀𝑔 ,
𝑠𝑔𝑛 𝜉 𝑇 𝑃𝑏 est la fonction signe donnée par :
+1, 𝜉 𝑇 𝑃𝑏 > 0
𝑠𝑔𝑛 𝜉 𝑇 𝑃𝑏 = 0, 𝜉 𝑇 𝑃𝑏 = 0 (2.48)
𝑇
−1, 𝜉 𝑃𝑏 < 0
La bornitude des paramètres ajustables comme nous le verra par la suite, une condition
nécessaire pour l‟établissement de la stabilité de la boucle de commande. Comme déjà
introduit au chapitre précédant, on peut utiliser les algorithmes du gradient avec projection
pour assurer la bornitude des paramètres ajustés et aussi pour éviter le problème de n‟est
pas définie lorsque 𝑔 𝑧/𝑊𝑔 = 0 .
Pour cela l‟hypothèse suivante est employée :
Hypothèse 2.5: Les paramètres du réseau de neurones sont bornés par les ensembles de
contraintes 𝛺𝑓 et 𝛺𝑔 telles que :
𝛺𝑓 = 𝑊𝑓 : 𝑊𝑓 ≤ 𝑀𝑓
𝛺𝑔 = {𝑊𝑔 : 𝑊𝑔 ≤ 𝑀𝑔 }
Les bornes employées dans l‟hypothèse 2.6 sont introduites pour assurer la bornitude
des sorties des réseaux de neurones.
A cet effet, les paramètres du contrôleur neuronal sont ajustés en utilisant l‟algorithme
suivant [Wang-93] :
𝑊𝑓 𝑊𝑓 𝑇 𝑆𝑓 𝑧
𝑊𝑓 = 𝛤𝑓 𝜉 𝑇 𝑃𝑏 −𝑆𝑓 𝑧 + 𝐼𝑓 𝜌𝑓 2 (2.49)
𝑊𝑓
23
Chapitre2. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire SISO Non affine
𝑇
𝑊𝑔 𝑊𝑔 𝑇 𝑆𝑔 𝑧 𝑢𝑐 𝑡
𝑊𝑔 = 𝛤𝑔 𝜉 𝑃𝑏 −𝑆𝑔 𝑧 𝑢𝑐 𝑡 + 𝐼𝑔 𝜌𝑔 2 (2.50)
𝑊𝑔
où
0, 𝑠𝑖 𝑊𝑓 < 𝑀𝑓 𝑜𝑢 𝑊𝑓 = 𝑀𝑓 𝑒𝑡 𝜉 𝑇 𝑃𝑏 𝑊𝑓 𝑇 𝑆𝑓 𝑧 ≥ 0
𝐼𝑓 = (2.51)
1, 𝑠𝑖 𝑊𝑓 = 𝑀𝑓 𝑒𝑡 𝜉 𝑃𝑏 𝑊𝑓 𝑇 𝑆𝑓 𝑧 < 0
0, 𝑠𝑖 𝑊𝑔 < 𝑀𝑔 𝑜𝑢 𝑊𝑔 = 𝑀𝑔 𝑒𝑡 𝜉 𝑇 𝑃𝑏 𝑊𝑔 𝑇 𝑆𝑔 (𝑧)𝑢𝑐 𝑡 ≥ 0
𝐼𝑔 = (2.52)
1, 𝑠𝑖 𝑊𝑔 = 𝑀𝑔 𝑒𝑡 𝜉 𝑇 𝑃𝑏 𝑊𝑔 𝑇 𝑆𝑔 (𝑧)𝑢𝑐 𝑡 < 0
avec 𝜌𝑓 ≥ 1 𝑒𝑡 𝜌𝑔 ≥ 1
et 𝛤𝑔 , 𝛤𝑓 > 0 sont les pas d‟ajustement sélectionnés par le concepteur, et 𝑃 > 0 est une
matrice définie positive qu‟on déterminera par la suite.
𝜀 = 𝛾0 𝜉 𝑇 𝑃𝑏 (2.53)
𝜀𝑔 = 𝛾0 𝜉 𝑇 𝑃𝑏𝑢𝑐 (2.54)
avec 𝛾0 > 0.
2.3.2. Analyse de stabilité :
Dans cette section nous allons analyser la stabilité de la commande adaptative
neuronale indirecte proposée. Pour démontrer la stabilité de la commande adaptative, nous
allons procéder en deux étapes : En premier lieu nous démontrerons que les lois
d‟adaptation (2.49)-(2.50) gardent les paramètres ajustables sont bornés, et en deuxième
lieu, nous démontrerons la stabilité de la dynamique de l‟erreur en boucle fermée.
Considérons le système SISO non linéaire affin dans la commande (2.30), la loi de
commande (2.47) avec les lois d‟adaptation (2.49)-(2.50), si les hypothèses [2.1-2.5] sont
satisfaites, alors le schéma global garantit que :
(i) Les lois d‟adaptation (2.49)-(2.50) assurent que : 𝑊𝑓 < 𝑀𝑓 , 𝑊𝑔 < 𝑀𝑔 ∀𝑡 ≥ 0, si
les valeurs initiales des paramètres 𝑊𝑓 (0) et 𝑊𝑔 (0) sont sélectionnées correctement.
(ii) les signaux du système en boucle fermée sont bornés et l‟erreur de poursuite converge
asymptotiquement vers zéro.
Démonstration :
Pour démontrer que : 𝑊𝑓 < 𝑀𝑓 , considérons la fonction de Lyapunov :
1
𝑉𝑓 = 2 𝑊𝑓𝑇 𝛤𝑓−1 𝑊𝑓 (2.55)
d‟où
24
Chapitre2. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire SISO Non affine
𝑇 𝑇 𝑊𝑓 𝑊𝑓 𝑇 𝑆𝑓 𝑧
𝑉𝑓 = 𝛤𝑓 𝜉 𝑃𝑏 𝑊𝑓 −𝑆𝑓 𝑧 + 𝜌𝑓 2 (2.58)
𝑊𝑓
2
𝑊𝑓 𝑊𝑓 𝑇 𝑆𝑓 𝑧
𝑉𝑓 = 𝛤𝑓 𝜉 𝑇 𝑃𝑏 −𝑊𝑓 𝑇 𝑆𝑓 (𝑧) + 𝜌𝑓 2 (2.59)
𝑊𝑓
𝜉 = 𝐴𝜉 + 𝑏 −𝑓 𝑧 − 𝑔 𝑧 𝑢𝑐 − 𝑔(𝑧)𝑢𝑟 + 𝑦𝑑𝑛 − 𝑑
𝑧 𝑧
= 𝐴𝜉 + 𝑏 −𝑓 𝑧 − 𝑔 𝑧 − 𝑔 𝑢𝑐 − 𝑔 𝑢𝑐 − 𝑔 𝑧 𝑢𝑟 + 𝑦𝑑𝑛 − 𝑑 (2.61)
𝑊𝑔 𝑊𝑔
𝜉 = 𝐴 − 𝑏𝑘 𝑇 𝜉 + 𝑏 −𝑊𝑓𝑇 𝑆𝑓 𝑧 − 𝑊𝑔𝑇 𝑆𝑔 𝑧 𝑢𝑐 − 𝜀𝑓 𝑧 − 𝜀𝑔 𝑧 𝑢𝑐 − 𝑔 𝑧 𝑢𝑟 − 𝑑
= 𝐴𝑘 𝜉 + 𝑏 −𝑊𝑓𝑇 𝑆𝑓 (𝑧) − 𝑊𝑔𝑇 𝑆𝑔 𝑧 𝑢𝑐 − 𝜀𝑓 (𝑧) − 𝜀𝑔 (𝑧)𝑢𝑐 − 𝑔 𝑧 𝑢𝑟 − 𝑑 (2.63)
où 𝐴𝑘 = 𝐴 − 𝑏𝑘 𝑇
La matrice 𝐴𝑘 étant stable (valeurs propres à partie réelle négative), pour une matrice 𝑄
symétrique définie positive. On lui associe une équation de Lyapunov, ayant pour solution
unique une matrice symétrique définie positive, donnée par
25
Chapitre2. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire SISO Non affine
𝑊𝑓 𝑊𝑓 𝑇 𝑆𝑓 𝑧 𝑊𝑔 𝑊𝑔 𝑇 𝑆𝑔 𝑧 𝑢𝑐 𝑡
𝑉1 = −𝑊𝑓𝑇 𝑇
𝐼𝑓 𝜌𝑓 𝜉 𝑃𝑏 2 − 𝑊𝑔𝑇 𝑇
𝐼𝑔 𝜌𝑔 𝜉 𝑃𝑏 2 (2.71)
𝑊𝑓 𝑊𝑔
𝜑𝑓 𝜑𝑔
Alors, 𝑉1 devient
𝑉1 = −𝐼𝑓 𝑊𝑓𝑇 𝜑𝑓 − 𝐼𝑔 𝑊𝑔𝑇 𝜑𝑔 (2.72)
Démontrons que 𝑊𝑓𝑇 𝜑𝑓 ≥ 0 .
Si 𝐼𝑓 = 𝐼𝑔 = 0 ,alors 𝑊𝑓 < 𝑀𝑓 , 𝜑𝑓 = 0 la conclusion est évidente.
26
Chapitre2. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire SISO Non affine
d‟où :
𝑊𝑓 𝑊𝑓 𝑇 𝑆𝑓 𝑧
𝑊𝑓𝑇 𝜑𝑓 = 𝜌𝑓 𝜉 𝑇
𝑃𝑏𝑊𝑓𝑇 2 ≥0 (2.74)
𝑊𝑓
De la même manière, on peut démontrer que
𝑊𝑔𝑇 𝜑𝑔 ≥ 0 (2.75)
En utilisant l‟hypothèse 2.5 et l‟équation (2.26), 𝑉2 peut être bornée comme suit
1 1
𝑉2 = −𝜉 𝑇 𝑃𝑏𝜀𝑓 𝑧 − 𝜉 𝑇 𝑃𝑏𝜀𝑔 (𝑧)𝑢𝑐 − 𝜉 𝑇 𝑃𝑏𝑑 − 𝜉 𝑇 𝑃𝑏𝑔 𝑧 𝑢𝑟 − 𝜀𝜀 − 𝜀 𝜀
𝛾0 𝛾0 𝑔 𝑔
𝑔 𝑧
≤ 𝜉 𝑇 𝑃𝑏 𝜀𝑓 + 𝜉 𝑇 𝑃𝑏𝑢𝑐 𝜀𝑔 + 𝜉 𝑇 𝑃𝑏 𝑑 − 𝜉 𝑇 𝑃𝑏 𝜀 + 𝜀𝑔 𝑢𝑐 𝑡 𝑠𝑔𝑛 𝜉 𝑇 𝑃𝑏 (2.76)
𝑔0
1 ∗ 1 ∗
− 𝜀 −𝜀 𝜀− 𝜀 − 𝜀𝑔 𝜀𝑔
𝛾0 𝛾0 𝑔
A partir des (2.53) et (2.54), et nous avons 𝜀 ∗ = 𝜀𝑓 + 𝑑 et 𝜀𝑔∗ = 𝜀𝑔 , 𝑉2 devient
𝑔 𝑧
𝑉2 = −𝜉 𝑇 𝑃𝑏 𝜀 + 𝜀𝑔 𝑢𝑐 𝑡 𝑠𝑔𝑛 𝜉 𝑇 𝑃𝑏 + 𝜉 𝑇 𝑃𝑏 𝜀 + 𝜉 𝑇 𝑃𝑏𝑢𝑐 𝜀𝑔 ≤ 0 (2.77)
𝑔0
A partir de l‟analyse ci-dessus, 𝑉 devient :
1
𝑉 ≤ − 𝜉 𝑇 𝑄𝜉 ≤ 0 (2.78)
2
donc 𝑉 (𝑡) ≤ 0 et 𝑉 ∈ 𝐿∞ ce qui implique la bornitude des signaux : 𝜉 𝑡 , 𝑊𝑓 𝑡 , 𝑊𝑔 𝑡 ,
ou encore
∞
1
𝜉 𝑇 𝑡 𝑄𝜉 (𝑡)𝑑𝑡 ≤ 𝑉 0 − 𝑉 ∞ ( 2.80)
2 0
27
Chapitre2. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire SISO Non affine
𝜉 𝑇 𝑡 𝑄𝜉 (𝑡) ∈ 𝐿2 (2.82)
28
Chapitre2. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire SISO Non affine
𝑇
𝑙 = 25, et les variables d'entrée sont choisis comme 𝑧 = 𝑧1 , 𝑧2 , 𝑧3 , 𝑧4 , 𝑧5 avec 𝑧1 = 𝑥1 ,
𝑧2 = 𝑥2 , 𝑧3 = 𝑦𝑑 , 𝑧4 = 𝑦𝑑 et 𝑧5 = 𝑦𝑑 + 𝑘 𝑇 𝑒 pour chaque fonction𝑓 𝑧 𝑒𝑡 𝑔(𝑧).
Les paramètres de synthèses et les conditions initiales sont donnés dans le tableau (2.1)
suivant :
Les paramètres de Les valeurs numériques Les conditions Les valeurs
synthèses initiales numériques
𝜞𝒇 0.01 𝑾𝒇 𝟎 0
𝜞𝒈 1000000 𝑾𝒈 𝟎 −1 , 1
𝝆𝒇 1.1 𝜺 𝟎 0
𝝆𝒈 1.1 𝜺𝒈 𝟎 0
𝑴𝒇 16 𝒙𝟏 𝟎 0.6
𝑴𝒈 1.6 𝒙𝟐 𝟎 0.5
𝒌 1; 2 𝒈𝟎 0.1
𝑸 𝐷𝑖𝑎𝑔 10 , 10 𝒈𝟏 0.6
𝑷 15 5 ; 5 5
Tab.2.1 : les paramètres de synthèses & les conditions initiales
Les figures 2.1 et 2.2 montrent une convergence rapide des états du système 𝑥1 et 𝑥2 vers
leurs références. La figure 2.3 représente le signal de commande borné.
2
x1
1.5 y-référence
0.5
-0.5
-1
-1.5
-2
0 5 10 15 20 25 30
Temps(sec)
29
Chapitre2. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire SISO Non affine
1.5
x2
yd-référence
1
0.5
-0.5
-1
-1.5
-2
0 5 10 15 20 25 30
Temps(sec)
-1
-2
-3
-4
0 5 10 15 20 25 30
Temps(sec)
30
Chapitre2. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire SISO Non affine
31
Chapitre2. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire SISO Non affine
Pour atteindre les objectifs de commande, nous définissons les lois d‟adaptation des
paramètres comme suit :
𝑊 = 𝛤𝜉 𝑇 𝑃𝑏𝑆 𝑇 𝑧 (2.88)
et 𝛤 > 0 est le pas d‟ajustement sélectionnés par le concepteur, et 𝑃 > 0 est une matrice
définie positive qu‟on déterminera par la suite.
2.4.2. Analyse de stabilité :
Dans cette section nous allons démontrer que la commande adaptative neuronale directe
proposée est stable. Pour démontrer la stabilité de la commande adaptative, nous allons
procéder en deux étapes :(i) En premier lieu nous démontrerons la convergence
asymptotique de l‟erreur de poursuite vers zéros dans le cas ou la perturbation extérieure
𝑑 n‟existe pas, (ii) et en deuxième lieu, nous démontrerons que la convergence de l‟erreur
de poursuite vers un ensemble borné dans le cas ou la perturbation extérieure 𝑑 existe.
Considérons le système SISO non linéaire affin dans la commande (2.30), la loi de
commande (2.84) avec sa loi d‟adaptation (2.88), si les hypothèses [2.1, 2.2, 2.3, 2.6] sont
satisfaites, alors tous les signaux de la boucle fermée sont bornés, et le schéma global
garantit que :
(i) l‟erreur de poursuite converge asymptotiquement vers zéro.
(ii) l‟erreur de poursuite 𝜉 (𝑡) converge à l‟ensemble compact 𝛺𝜉 défini par :
𝜔1
𝛺𝜉 = 𝜉 :/ 𝜉 >
𝜔2
Démonstration :
Pour analyser la stabilité du système bouclé, nous commençons par remplacer la loi de
commande effective (2.84) dans le système d‟erreur (2.32) ce qui donne :
En substituant la valeur idéale de 𝑓 𝑧 à partir de (2.33) dans (2.89), (2.89) peut être
réécrite comme suit :
𝜉 = 𝐴𝜉 + 𝑏 𝑔 𝑧 𝑢 − 𝑔 𝑧 𝑢(𝑧/𝑊) − 𝑘 𝑇 𝜉 𝑡 − 𝑑
(2.90)
= 𝐴𝑘 𝜉 + 𝑏 𝑔 𝑧 𝑢 − 𝑢(𝑧/𝑊) − 𝑑
où 𝐴𝑘 = 𝐴 − 𝑏𝑘 𝑇
32
Chapitre2. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire SISO Non affine
et
0 ⋯ 𝐼(𝑛−1) 0
𝐴𝑘 = ⋮ ⋱ ⋮ 𝑏= ⋮ (2.91)
−𝑘1 ⋯ −𝑘𝑛 1
La matrice 𝐴𝑘 étant stable (valeurs propres à partie réelle négative), pour une matrice 𝑄
symétrique définie positive. On lui associe une équation de Lyapunov 𝑃, ayant pour
solution unique une matrice symétrique définie positive, donnée par
𝐴𝑇𝑘 𝑃 + 𝑃𝐴𝑘 = −𝑄 (2.92)
En ajoutant et en soustrayant 𝑔 𝑧 𝑢(𝑧/𝑊 ∗ ) à (2.90), on obtient :
𝜉 = 𝐴𝑘 𝜉 + 𝑏 𝑔 𝑧 (𝑢 − 𝑢(𝑧/𝑊 ∗ )) + 𝑔 𝑧 𝑊 𝑇 𝑆 𝑧 − 𝑑 (2.95)
(i) on considère que la perturbation extérieure n‟existe pas, c'est-à-dire 𝑑 = 0 pour
démontre la partie (i). Alors
Réécrivons le système d‟erreur (2.95) comme suit :
𝜉 = 𝐴𝑘 𝜉 + 𝑏 𝑔 𝑧 (𝑢 − 𝑢(𝑧/𝑊 ∗ )) + 𝑔 𝑧 𝑊 𝑇 𝑆 𝑧 (2.96)
Considérons maintenant la fonction de Lyapunov candidate suivante :
1 𝜉 𝑇 𝑃𝜉 1 𝑇 −1
𝑉= + 𝑊 𝛤 𝑊 (2.97)
2 𝑏𝑢 2
où 𝛤 = 𝛤 𝑇 > 0 , ou 𝑊 = 𝑊 ∗ − 𝑊 et 𝑊 = −𝑊
La dérivée temporelle de 𝑉 est
1 𝜉 𝑇 𝑃𝜉 1 𝜉 𝑇 𝑃𝜉 𝜉 𝑇 𝑃𝜉 𝑏𝑢
𝑉= + − − 𝑊 𝑇 𝛤 −1 𝑊 (2.98)
2 𝑏𝑢 2 𝑏𝑢 2 𝑏𝑢 2
En remplaçant par (2.92) et (2.96) dans (2.98), on aura :
1 𝜉 𝑇 𝑄𝜉 1 𝑇 𝜉 𝑇 𝑃𝜉 𝑏𝑢
𝑉= + 𝜉 𝑃𝑏 𝑔 𝑧 (𝑢 − 𝑢(𝑧/𝑊 ∗ )) + 𝑔 𝑧 𝑊 𝑇 𝑆 𝑧 −
2 𝑏𝑢 𝑏𝑢 2 𝑏𝑢 2
− 𝑊 𝑇 𝛤 −1 𝑊 (2.99)
Selon l‟hypothèse2.2 et l‟équation (2.8), on peut arrangée (2.99) comme suit:
33
Chapitre2. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire SISO Non affine
𝜉 𝑇 𝑄𝜉 1 𝑇 ∗
𝜉 𝑇 𝑃𝜉 𝑏𝑢
𝑉=− + 𝜉 𝑃𝑏{𝑔 𝑧 (𝑢 − 𝑢(𝑧/𝑊 ))} −
2 𝑏𝑢 𝑏𝑢 2 𝑏𝑢 2 (2.100)
+𝑊 𝑇 𝛤 −1 𝛤 𝜉 𝑇 𝑃𝑏𝑆 𝑧 − 𝑊
En utilisant la loi d‟adaptation (2.88) et après simplification, on trouve
𝜉 𝑇 𝑄𝜉 𝜉 𝑇 𝑃𝜉 𝑏𝑢 𝑇 ∗
𝑉≤− − 2 + 𝜉 𝑃𝑏 𝑢 − 𝑢 (𝑧/𝑊 ) (2.101)
2 𝑏𝑢 2 𝑏𝑢
En utilisant le fait que le système neuronale HONN utilisé est un approximateur universel,
on a 𝑢 − 𝑢(𝑧/𝑊 ∗ ) ≤ 𝜀 . Si l‟on impose 𝜀 → 0,
1 𝜉 𝑇 𝑄𝜉 𝜉 𝑇 𝑃𝜉 𝑏𝑢
𝑉≤− + (2.102)
2 𝑏𝑢 𝑏𝑢 2
𝜉 𝑇 𝑄𝜉 𝜉 𝑇 𝑃𝜉 𝑏𝑢
Pour compléter la démonstration, nous devons montrer que + est positif.
𝑏𝑢 𝑏𝑢 2
On peut écrire
𝑇 𝑇
−𝐻𝜉 𝑃𝜉 ≤ 𝜉 𝑃𝜉 𝑏𝑢 (2.103)
du fait que
𝜉 𝑇 𝑃𝜉 ≤ 𝜆𝑚𝑎𝑥 𝑃 𝜉 𝑇 𝜉 (2.104)
En utilisant (2.102), (2.103), nous pouvons avoir
−𝐻𝜆𝑚𝑎𝑥 𝑃 𝜉 𝑇 𝜉 ≤ 𝜉 𝑇 𝑃𝜉 𝑏𝑢 (2.105)
𝑏𝑢
Étant donné −𝐻𝜆𝑚𝑎𝑥 𝑃 𝜉 𝑇 𝜉 < 0 et ≥ 1, l'inégalité (2.105) peut être simplifiée
𝑔0
comme suit :
𝑏𝑢
−𝐻𝜆𝑚𝑎𝑥 𝑃 𝜉 𝑇 𝜉 ≤ 𝜉 𝑇 𝑃𝜉 𝑏𝑢 (2.106)
𝑔0
On peut écrire aussi
𝜆𝑚𝑖𝑛 𝑄 𝜉 𝑇 𝜉 𝑏𝑢 ≤ 𝜉 𝑇 𝑄𝜉 𝑏𝑢 (2.107)
Maintenant en utilisant (2.106) et (2.107) pour obtenir
𝑏
𝜆𝑚𝑖𝑛 𝑄 𝜉 𝑇 𝜉 𝑏𝑢 − 𝐻𝜆𝑚𝑎𝑥 𝑃 𝜉 𝑇 𝜉 𝑔 𝑢 ≤ 𝜉 𝑇 𝑄𝜉 𝑏𝑢 + 𝜉 𝑇 𝑃𝜉 𝑏𝑢 (2.108)
0
𝑔0
On multiplie l'inégalité (2.108) par on peut écrire
𝜆 𝑚𝑎𝑥 𝑃
𝑏𝑢 𝑔0 𝑏𝑢 𝑔0 𝜆𝑚𝑖𝑛 𝑄 𝜉 𝑇 𝜉 𝑏𝑢 𝑔0
𝜉 𝑇 𝑄𝜉 + 𝜉 𝑇 𝑃𝜉 ≥ − 𝐻𝜉 𝑇 𝜉 𝑏𝑢 (2.109)
𝜆𝑚𝑎𝑥 𝑃 𝜆𝑚𝑎𝑥 𝑃 𝜆𝑚𝑎𝑥 𝑃
34
Chapitre2. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire SISO Non affine
𝜉 = 𝐴𝑘 𝜉 + 𝑏 𝑔 𝑧 (𝑢 − 𝑢(𝑧/𝑊 ∗ )) + 𝑔 𝑧 𝑊 𝑇 𝑆 𝑧 − 𝑑 (2.113)
En utilisant l‟équation d‟erreur d‟approximation minimale (2.87), (2.113) devient :
𝜉 = 𝐴𝑘 𝜉 + 𝑏 𝑔 𝑧 𝑊 𝑇 𝑆 𝑧 + 𝑔 𝑧 𝜀 𝑧 − 𝑑 (2.114)
Considérons maintenant la fonction de Lyapunov candidate suivante :
1 𝜉 𝑇 𝑃𝜉 1 𝑇 −1
𝑉= + 𝑊 𝛤 𝑊 (2.115)
2 𝑏𝑢 2
où 𝛤 = 𝛤 𝑇 > 0 , ou 𝑊 = 𝑊 ∗ − 𝑊 et 𝑊 = −𝑊
La dérivée temporelle de 𝑉 est
1 𝜉 𝑇 𝑃𝜉 1 𝜉 𝑇 𝑃𝜉 𝜉 𝑇 𝑃𝜉 𝑏𝑢
𝑉= + − − 𝑊 𝑇 𝛤 −1 𝑊 (2.116)
2 𝑏𝑢 2 𝑏𝑢 2 𝑏𝑢 2
En remplaçant par (2.92) et (2.114) dans (2.116), on aura :
35
Chapitre2. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire SISO Non affine
1 𝜉 𝑇 𝑄𝜉 1 𝑇 𝑇
𝜉 𝑇 𝑃𝜉 𝑏𝑢
𝑉= + 𝜉 𝑃𝑏 𝑔 𝑧 𝑊 𝑆 𝑧 + 𝑔 𝑧 𝜀 𝑧 − 𝑑 −
2 𝑏𝑢 𝑏𝑢 2 𝑏𝑢 2
− 𝑊 𝑇 𝛤 −1 𝑊 (2.117)
Selon l‟hypothèse 2.2 et l‟équation (2.8) et (2.27), peut être arrangée (2.117) comme suit :
𝜉 𝑇 𝑄𝜉 1 𝑇 𝜉 𝑇 𝑃𝜉 𝑏𝑢
𝑉=− + 𝜉 𝑃𝑏 𝑔 𝑧 𝜀 𝑧 − 𝑑 −
2 𝑏𝑢 𝑏𝑢 2 𝑏𝑢 2
+ 𝑊 𝑇 𝛤 −1 𝛤 𝜉 𝑇 𝑃𝑏𝑆 𝑧 − 𝑊 (2.118)
En utilisant la loi d‟adaptation (2.88), on trouve
𝜉 𝑇 𝑄𝜉 𝜉 𝑇 𝑃𝜉 𝑏𝑢 1 𝑇
𝑉≤− − 2 + 𝜉 𝑃𝑏 𝑔 𝑧 𝜀 𝑧 − 𝑑 (2.119)
2 𝑏𝑢 2 𝑏𝑢 𝑏𝑢
de plus, (2.119) peut être bornée par
1 2 1 𝑏𝑢 2
𝑉≤− 𝜆𝑚𝑖𝑛 𝑄 𝜉 + 𝜆𝑚𝑖𝑛 𝑃 𝜉
2𝑏𝑢 2𝑏𝑢 𝑏𝑢
1
+ 𝜉 𝑃𝑏 𝑔 𝑧 𝜀 𝑧 + 𝑑 (2.120)
𝑏𝑢
ou encore, a partir de l‟hypothèse 2.6, l‟hypothèse 2.2 et l‟équation (2.28), et nous avons
1 1
≤ 𝑔 ,on aura :
𝑏𝑢 0
𝜉 𝐻
𝑉≤− 𝜉 𝜆𝑚𝑖𝑛 𝑄 + 𝜉 𝜆𝑚𝑖𝑛 𝑃 − 2 𝑃𝑏 𝑔 𝑧 𝜀 + 𝑑 (2.121)
2𝑔0 𝑔0
𝜉 𝜆min (𝑄)
𝑉≤− 𝜉 𝜆𝑚𝑖𝑛 𝑄 + 𝜆 𝑃 𝜉 − 2 𝑃𝑏 𝑔 𝑧 𝜀 + 𝑑 (2.122)
2𝑔0 𝜆max (𝑃) 𝑚𝑖𝑛
donc :
𝜉
𝑉≤− 𝜉 𝜔2 − 𝜔1 (2.223)
2𝑔0
avec :
𝜔1 = 2 𝑃𝑏 𝑔 𝑧 𝜀 + 𝑑
𝜆𝑚𝑖𝑛 𝑄 𝜆𝑚𝑎𝑥 𝑃 − 𝜆𝑚𝑖𝑛 𝑃
𝜔2 =
𝜆𝑚𝑎𝑥 𝑃
36
Chapitre2. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire SISO Non affine
𝑉 deviendra négatif tant que 𝜉 > 𝜔1 𝜔2 . Par conséquent, les erreurs de poursuite
convergent vers une région bornée donnée par:
𝜔1
𝛺𝜉 = 𝜉 :/ 𝜉 ≤ (2.224)
𝜔2
ce qui implique la bornitude de tous les signaux dans le système bouclé, c'est-à-dire la
perturbation étant supposé bornée et l‟erreur d‟approximation minimal peut être construite
arbitrairement petite par l‟utilisateur de la propriété d‟approximation neuronal, alors la
quantité 𝜔1 est borné, ce qui implique que l‟ensemble 𝛺𝜉 dans (2.224) est borné.
démontrer que les erreurs 𝜉 (𝑡) ∈ 𝐿2 sont carrés intégrables et que 𝜉 (𝑡) ∈ 𝐿∞ sont
bornées, d‟où, par application du lemme de Barbalat [Slotine-91], on déduit la
convergence vers zéro des erreurs de poursuite lim𝑡→∞ 𝜉 (𝑡) = 0 de tous les systèmes.
37
Chapitre2. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire SISO Non affine
1.5
x1
y-référence
1
0.5
-0.5
-1
-1.5
0 5 10 15 20 25 30
Temps(sec)
38
Chapitre2. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire SISO Non affine
1.5
x2
yd-référence
1
0.5
-0.5
-1
-1.5
0 5 10 15 20 25 30
Temps(sec)
-1
-2
-3
0 5 10 15 20 25 30
Temps(sec)
39
Chapitre2. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire SISO Non affine
2.5. Conclusion :
Dans ce chapitre, nous avons proposé des approches adaptatives neuronaux, pour la
commande d‟une classe de systèmes non linéaires SISO non affines en la commande sous
la forme générale, nous avons utilisé le développement en série de Taylor autour d‟un
contrôleur idéal inconnu pour transformé le système non affine en un système affine. Et
puis deux approches distinctes formulent pour la commande adaptative neuronale de
système transformé, l‟approche directe et l‟approche indirecte. Dans l‟approche directe, les
systèmes neuronaux sont utilisés pour approximer un contrôleur idéal inconnu. En
revanche la commande indirecte exploite deux systèmes adaptatifs neuronale pour
approximer la dynamique du système affine, et la loi de commande est synthétisée en se
basant sur ces estimées. Dans cette approche, les lois de commande sont bien définies à
tout moment, et le problème des erreurs de reconstruction et la perturbation externe sont
traité par l‟introduction d‟un terme de robustification de type mode glissant. Le problème
de la singularité engendré par cette approche est résolu, par l‟utilisation d‟un algorithme
de projection.
Les lois d‟adaptation sont déduites via l‟étude de stabilité, au sens de Lyapunov, du
système en boucle fermée. Deux exemples de simulation sont mis en œuvre pour valider
l‟approche proposée.
Dans le chapitre suivant, une approche basée sur la commande adaptative neuronale
directe, qui exploite le théorème de la fonction implicite globale, sera développée pour
prendre en charge les systèmes non linéaires MIMO non affines en la commande.
40
Chapitre 3
La Commande Adaptative Neuronale pour une
Classe de Systèmes Non Linéaire MIMO Non-affine
3.1 Introduction
3.2 La transformation du système non-linéaire MIMO
3.3 Commande adaptative directe neuronale
3.4 Conclusion
41
Chapitre3. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire MIMO Non affine
3.1. Introduction :
La conception de contrôleurs adaptatifs robustes pour les systèmes multivariables non-
linéaires non affines en la commande reste une tâche difficile dans le domaine des
systèmes de commande. La principale difficulté pour la commande des systèmes non
affines en la commande réside dans le fait que les signaux de commande ne peuvent pas
être explicitement obtenus même si la dynamique du système est bien connue.
En pratique, il existe plusieurs systèmes non linéaires avec une structure non affine en
la commande, c'est-à-dire des systèmes caractérisés par des entrées de commande qui
n‟apparaissent pas linéairement dans l'équation d'état du système, tels que les processus
biochimiques, certains réacteurs chimiques, neutralisation du pH, les colonnes de
distillation, la lévitation magnétique, etc.
Dans la littérature, la commande des systèmes MIMO sous la forme normale est très
peu documentée mis à part la commande par logique floue [Liu-07] [Wang-07]. Peu de
résultats existent pour les systèmes de forme strict [Ge-04]. Dans [Wang-07], les auteurs
se basent sur le développement en série de Taylor autour d‟un point (x0, u0) pour obtenir un
modèle affine en la commande. Le modèle affine obtenu est approximé par un modèle flou
de type T-S afin de déduire le contrôleur qui garanti les objectifs de la commande. Un
vecteur des termes de commande type mode glissant est ajouté au contrôleur pour
compenser l‟effet des erreurs d‟approximation et des perturbations externes. Dans [Liu-
07], les auteurs utilisent le théorème de la valeur moyenne pour construire un modèle
affine. Cependant les travaux précités présentent des contrôleurs adaptatifs indirects où le
problème de la singularité est résolu par l‟algorithme de projection.
L‟objectif de ce chapitre est la synthèse d‟un contrôleur neuronal adaptatif direct d‟une
classe de système MIMO non linéaire non affine en la commande. Premièrement, le
théorème de la fonction implicite globale [Zhang-06] est utilisé pour démontrer l‟existence
d‟un contrôleur idéal inconnu qui est capable d‟accomplir l‟objective de la commande.
Deuxièmement, on transforme le modèle non affine en un modèle affine par un
développement en série de Taylor autour du contrôleur idéal, puis on synthétise la loi de
commande par feedback linearization. En fin, pour des raisons des incertitudes sur le
modèle liées aux problèmes de transformations et modélisation, un réseau de neurone est
utilisé pour approximer la loi de commande idéale.
42
Chapitre3. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire MIMO Non affine
La robustesse des systèmes vis à vis des erreurs d'approximation est assurée par un terme
de commande supplémentaire de type mode glissant. L‟analyse de stabilité des systèmes en
boucle fermée est étudiée en utilisant la synthèse de Lyapunov. Deux exemples de
simulation, sont présentés pour mettre en évidence l‟efficacité de l‟approche proposée.
3.2. La transformation du système MIMO non-linéaire :
3.2.1. Position du problème :
Considérons la classe des systèmes non linéaires multivariables non affines en la
commande décrite par les équations différentielles suivantes :
(𝑛 1 )
𝑦1 = 𝑓1 (𝑥, 𝑢)
⋮ (3.1)
(𝑛 𝑝 )
𝑦𝑝 = 𝑓𝑝 (𝑥, 𝑢)
𝑇
avec 𝑥 = 𝑥1𝑇 , 𝑥2 𝑇 … , 𝑥𝑝𝑇 ∈ ℜ𝑛 représente le vecteur d‟état mesurable, où 𝑥𝑖𝑇 =
(𝑛 𝑖 −1) 𝑝 𝑇
𝑦𝑖 , 𝑦𝑖 … 𝑦𝑖 ∈ ℜ𝑛 𝑖 ∀𝑖 = 1, … , 𝑝, 𝑒𝑡 𝑛 = 𝑖=1 𝑛𝑖 . 𝑢 = 𝑢1 , … … , 𝑢𝑝 ∈ ℜ𝑝 et
𝑇
𝑦 = 𝑦1 , … … , 𝑦𝑝 ∈ ℜ𝑝 sont respectivement l‟entrée et la sortie du système (3.1), et
43
Chapitre3. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire MIMO Non affine
Hypothèse 3.1 : Le vecteur de fonctions 𝐹 𝑥, 𝑢 est de classe 𝐶 1 pour tout (𝑥, 𝑢) ∈ 𝕽𝒏×𝒑
Hypothèse 3.2 : Le système (3.2) satisfait l‟inégalité suivante :
𝜕 𝜕
𝐹(𝑥, 𝑢) − 𝑗 ≠𝑖 𝐹(𝑥, 𝑢) ≥ 𝑑, ∀ 𝑥, 𝑢 ∈ ℜ𝑛×𝑝 , 𝑖 = 1, … , 𝑝, où 𝑑 est une
𝜕𝑢 𝑖𝑖 𝜕𝑢 𝑖𝑗
constante positive.
Hypothèse 3.3 : La matrice 𝜕𝐹(𝑥, 𝑢) 𝜕𝑢 est symétrique et définie positive.
Hypothèse 3.4 [Doudou-13] : Il existe une fonction non linéaire positive inconnue 𝛽 𝑧
telle que
1 −1
𝐺 𝑧 ≤ 𝛼 𝛽(𝑧)
2
−1
où 𝛼 est la valeur propre minimale de la matrice 𝐺 𝑧 .
Hypothèse 3.5 : la matrice 𝐺 𝑧 est une matrice inversible.
Hypothèse 3.6: Nous supposerons que nous avons p trajectoires de référence 𝑦𝑑𝑖 , 𝑖 =
𝑗
1, … . 𝑝 bornées, avec des dérivées 𝑦𝑑𝑖 , 𝑖 = 1, … 𝑝, 𝑗 = 1, … . . 𝑛𝑖 bornées. Si on définit le
vecteur de référence comme :
(𝑛 −1) 𝑇
(𝑛 −1) (𝑛 −1)
𝑦𝑑𝑇 = 𝑦𝑑1 𝑦𝑑1 … 𝑦𝑑1 1 𝑦𝑑2 𝑦𝑑2 … 𝑦𝑑2 2 … 𝑦𝑑𝑝 𝑦𝑑𝑝 … 𝑦𝑑𝑝 𝑝
Alors, la dynamique de la trajectoire de référence peut être décrite par l‟équation d‟état :
𝑦𝑑 = 𝐴𝑦𝑑 + 𝐵𝑚 (3.3)
(𝑛 ) (𝑛 ) (𝑛 )
𝑚𝑇 = 𝑦𝑑1 1 𝑦𝑑2 2 … 𝑦𝑑𝑝 𝑝 ∈ ℜ1×𝑝
44
Chapitre3. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire MIMO Non affine
𝜕
𝑓 𝑥, 𝑢 , 𝑖 = 1, … , 𝑘 𝑒𝑡 𝑗 = 1, … , 𝑚 est le terme d‟ordre 𝑖𝑗 de la matrice Jacobienne
𝜕𝑢 𝑖𝑗
𝜕
𝑓 𝑥, 𝑢 .
𝜕𝑢
où 𝑑 est une constante positive, alors il existe une fonction continue unique 𝑔: ℜ𝑛 → ℜ𝑚
telle que 𝑓 𝑥, 𝑔 𝑥 = 0.
Lemme 3.1 : Considérons le système (3.2) satisfaisant les suppositions 3.1–3.6, alors il
existe un contrôleur idéal 𝑢∗ tel que
𝑒 = 𝐴 − 𝐵𝑘 𝑒 (3.6)
avec 𝐴𝑘 = 𝐴 − 𝐵𝑘
Le vecteur de gain de retour d‟état 𝑘 ∈ ℜ𝑝×𝑛 , est choisie tel que la matrice 𝐴𝑘 est Hurwitz
(toutes ses valeurs propres à parties réelles négatives), par conséquent le système bouclé
sera exponentiellement stable. On lui associe une équation de Lyapunov, ayant pour
solution unique une matrice symétrique définie positive, donnée par
𝐴𝑇𝑘 𝑃 + 𝑃𝐴𝑘 = −𝑄 (3.7)
Démonstration : En ajoutant et en retranchant le terme 𝐵𝑘𝑒 sur le côté droit de (3.10), on
obtient :
𝑒 = 𝐴 − 𝐵𝑘 𝑒 − 𝐵 𝐹(𝑥, 𝑢) − 𝜑 (3.8)
avec :
(𝑛 ) (𝑛 −1)
𝜑1 = 𝑦𝑑 1 1 + 𝑘1,𝑛 1 𝑒1 1 + ⋯ + 𝑘1,1 𝑒1
⋮ (3.9)
(𝑛 𝑝 ) (𝑛 −1)
𝜑𝑝 = 𝑦𝑑 𝑝 + 𝑘𝑝,𝑛 𝑝 𝑒1 𝑝 + ⋯ + 𝑘𝑝,1 𝑒𝑝
𝑇
et 𝜑 = 𝜑1 , … , 𝜑𝑝 .
45
Chapitre3. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire MIMO Non affine
𝐹 𝑥, 𝑢∗ (𝑧 ) − 𝜑 = 0 (3.10)
et
𝜕𝑓1 (𝑥,𝑢) 𝜕𝑓1 (𝑥,𝑢)
⋯
𝜕𝑢 1 𝜕𝑢 𝑝
𝜕𝐹(𝑥, 𝑢) 𝜕𝑢 𝑢= 𝑢 ∗ = ⋮ ⋱ ⋮
𝜕𝑓𝑝 (𝑥,𝑢) 𝜕𝑓𝑝 (𝑥,𝑢)
⋯
𝜕𝑢 1 𝜕𝑢 𝑝
46
Chapitre3. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire MIMO Non affine
Par substitution (3.15) dans (3.2), un terme affine par rapport à u apparaît comme suit :
𝑥 = 𝐴𝑥 + 𝐵 𝐹 𝑧 + 𝐺 𝑧 𝑢
(3.17)
𝑦 = 𝐶𝑇 𝑥
𝑇 𝑇
avec 𝐴 ≜ 𝑑𝑖𝑎𝑔 𝐴1 , 𝐴2 , … . , 𝐴𝑝 , 𝐵 ≜ 𝑏1 , 𝑏2 , … . , 𝑏𝑝 , 𝐶 ≜ 𝑐1 , 𝑐2 , … . , 𝑐𝑝
où
0 𝑛−1 𝐼 𝑛 −1 0 1
𝐴𝑖 = ∈ ℜ𝑛 𝑖 ×𝑛 𝑖 , 𝑏𝑖 = 𝑛−1 ∈ ℜ𝑛 𝑖 ×1 , 𝑐𝑖 = 0 ∈ ℜ𝑛 𝑖 ×1
0 0𝑇(𝑛−1) 1 𝑛−1
𝑒 = 𝐴𝑒 + 𝐵 −𝐹 𝑧 − 𝐺 𝑧 𝑢 + 𝑚 (3.18)
Si les fonctions non linéaires 𝐹 𝑧 et 𝐺 𝑧 sont connues, les objectifs de commande
peuvent être atteints en choisissant la loi de commande idéale suivante :
∗ −1 𝑒 𝑇 𝑃𝑒 𝑇
𝑢=𝑢 = 𝐺 𝑧 −𝐹 𝑧 + 𝑚 + 𝑘 𝑒 + 𝑇 𝛽(𝑧) (3.19)
𝑒 𝑃𝐵
𝑇 𝑇 𝑇
où 𝑘 𝑇 = 𝑘1𝑐 , 𝑘2𝑐 𝑇
, … … … … , 𝑘𝑝𝑐 avec 𝑘𝑖𝑐 = 𝑘𝑖1 , 𝑘𝑖2 , … … … … , 𝑘𝑖𝑛 𝑖 est le vecteur de
𝑇 𝑇
(𝑛 𝑖 −1)
gain de retour d‟état, et 𝑒 ≜ 𝑒1𝑇 , 𝑒2 𝑇 … , 𝑒𝑝𝑇 avec 𝑒𝑖 ≜ 𝑒𝑖 , 𝑒𝑖 , . . , 𝑒1 .
Par substitution l‟équation (3.19) par l‟équation (3.17) l'équation suivante est obtenue :
(𝑛 1 ) (𝑛 1 −1)
𝑒1 + 𝑘1𝑛 1 𝑒1 + …+ 𝑘11 𝑒1
0
(𝑛 ) (𝑛 −1)
𝑒2 2 + 𝑘2𝑛 2 𝑒2 2 + …+ 𝑘21 𝑒2
= 0 (3.20)
⋮ ⋮
(𝑛 𝑝 ) (𝑛 𝑝 −1) 0
𝑒𝑝 + 𝑘𝑝𝑛 𝑝 𝑒𝑝 + …+ 𝑘𝑝1 𝑒𝑝
Les coefficients 𝑘𝑖𝑗 sont choisis de façon à ce que le polynôme de l‟équation (3.20) Soit
Hurwitzien (racines à partie réelle négative), qui prouve la convergence de l‟erreur de suivi
de trajectoire 𝑒(𝑡) vers zéro quand t → ∞ , c'est-à-dire :
2
lim 𝑒 =0 (3.21)
𝑡→∞
Puisque les fonctions non linéaires sont incertaines, l‟implantation de loi de commande
idéale (3.19) est impossible. Dans cette situation, notre but est d‟approcher cette
commande idéale en utilisant les systèmes neuronaux.
47
Chapitre3. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire MIMO Non affine
48
Chapitre3. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire MIMO Non affine
avec 𝑡𝑎𝑛 . est la fonction Hyperbolique, 𝜓 = [𝜓1 , … . , 𝜓𝑝 ]𝑇 , et 𝜖 est une constante
positive.
𝜀 𝑧 ≤𝜀
où 𝜀 est une constante positive inconnue.
Hypothèse 3.8 : Les paramètres du réseau de neurones sont bornés par les ensembles de
contraintes 𝛺𝑤 telles que :
𝛺𝑤 = 𝑊: 𝑊 ≤ 𝑀
Les bornes employées dans l‟hypothèse 3.8 sont introduites pour assurer la bornitude des
sorties des réseaux de neurones.
A cet effet, les paramètres du contrôleur neuronal sont ajustés en utilisant l‟algorithme
de projection suivant :
2
𝑇 𝑇 𝑇
1+ 𝑊
𝑊 = 𝛤𝑒 𝑃𝐵𝑆 𝑧 − 𝐼𝑑 𝛤𝑒 𝑃𝐵𝑊𝑊 𝑆 𝑧 3.28
𝑀
où
0, 𝑠𝑖 𝑊 < 𝑀 𝑜𝑢 𝑊 = 𝑀 𝑒𝑡 𝑒 𝑇 𝑃𝐵𝑊 𝑇 𝑆 𝑧 ≤ 0
𝐼𝑑 = (3.29)
1, 𝑠𝑖 𝑊 = 𝑀 𝑒𝑡 𝑒 𝑇 𝑃𝐵𝑊 𝑇 𝑆 𝑧 > 0
et 𝛤 > 0 sont les paramètres de conception, et 𝑃 = 𝑃𝑇 > 0 est la solution, pour une
matrice donnée 𝑄 = 𝑄 𝑇 > 0, de l‟équation de lyapunove (3.7).
Alors, l‟introduction de la loi de commande (3.25) dans (3.18) produit :
𝑒 = 𝐴𝑒 + 𝐵 𝑚 − 𝐹 𝑧 − 𝐺 𝑧 𝑊 𝑇 𝑆 𝑧 + 𝑢𝑠 (3.30)
à partir de (3.19), (3.30) peut être réécrite comme suit :
𝑒 = 𝐴 − 𝐵𝑘 𝑒
𝑒 𝑇 𝑃𝑒
+ 𝐵𝐺 𝑧 𝑊 ∗𝑇 𝑆 𝑧 + 𝜀 𝑧 − 𝑊 𝑇 𝑆 𝑧 − 𝑢𝑠 − 𝐺 −1 𝑧 𝛽 𝑥 (3.31)
𝑒 𝑇 𝑃𝐵
et
𝑒 𝑇 𝑃𝑒
𝑒 = 𝐴𝑘 𝑒 + 𝐵𝐺 𝑧 𝑊 𝑆 𝑧 + 𝜀 𝑧 − 𝑢𝑠 − 𝐺 −1 𝑧 𝛽(𝑥) (3.32)
𝑒 𝑇 𝑃𝐵
avec 𝐴𝑘 = 𝐴 − 𝐵𝑘
Le vecteur de gain de retour d‟état 𝑘 est choisie tel que la matrice 𝐴𝑘 est Hurwitz (toutes
ses valeurs propres à parties réelles négatives), par conséquent le système bouclé sera
exponentiellement stable. On lui associe une équation de Lyapunov, ayant pour solution
unique une matrice symétrique définie positive, donnée par
49
Chapitre3. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire MIMO Non affine
𝐴𝑇𝑘 𝑃 + 𝑃𝐴𝑘 = −𝑄 (3.33)
3.2.3. Analyse de stabilité :
Dans cette section nous allons démontrer que la commande adaptative neuronale directe
du système non linéaire multi variable (3.2) proposée est stable, la loi de commande (3.25)
et (3.27) avec sa loi d‟adaptation (3.25), si les hypothèses 3.1 jusqu‟au 3.8 sont satisfaites,
alors tous les signaux de la boucle fermée sont bornés, et le schéma global garantit que :
(i) l‟erreur de poursuite 𝑒(𝑡) converge à l‟ensemble compact 𝛺𝑒 défini par :
𝑤2
𝛺𝑒 = 𝑒:/ 𝑒 ≥
𝑤1
1 𝑇 −1 1 1
𝑉=𝑉= 𝑒 𝐺 𝑧 𝑃𝑒 + 𝑒 𝑇 𝐺 −1 𝑧 𝑃𝑒 + 𝑒 𝑇 𝐺 −1 𝑧 𝑃𝑒 − 𝑊 𝑇 𝛤 −1 𝑊 (3.35)
2 2 2
1 𝑒 𝑇 𝑃𝑒
𝑉 = − 𝑒 𝑇 𝐺 −1 𝑧 𝑄𝑒 + 𝑒 𝑇 𝑃𝐵𝐺 −1 𝑧 𝐺 𝑧 𝜀 𝑧 − 𝑢𝑠 − 𝐺 −1
𝑧 𝑇 𝛽(𝑥)
2 𝑒 𝑃𝐵
1
+ 𝑒 𝑇 𝐺 −1 𝑧 𝑃𝑒 + 𝑊 𝑇 𝛤 −1 𝛤𝑒 𝑇 𝑃𝐵𝑆 𝑧 − 𝑊 (3.36)
2
1
𝑉 ≤ − 2 𝑒 𝑇 𝐺 −1 𝑧 𝑄𝑒 + 𝑒 𝑇 𝑃𝐵 𝜀 − 𝑒 𝑇 𝑃𝐵 𝜓 𝑡𝑎𝑛 𝑒 𝑇 𝑃𝐵 𝜖 − 𝐺 −1 𝑧 𝑒 𝑇 𝑃𝑒𝛽 𝑥
1
+ 2 𝑒 𝑇 𝐺 −1 𝑧 𝑃𝑒 + (3.37)
1+ 𝑊 2
𝑊 𝑇 𝛤 −1 𝛤𝑒 𝑇 𝑃𝐵𝑆 𝑧 − 𝛤𝑒 𝑇 𝑃𝐵𝑆 𝑧 + 𝐼𝑑 𝛤𝑒 𝑇 𝑃𝐵𝑊𝑊 𝑇 𝑆 𝑧 𝑀
50
Chapitre3. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire MIMO Non affine
1 𝑇 −1 2
1 2
𝑉≤− 𝑒 𝐺 𝑧 𝑄𝑒 + 𝜀 𝜅 𝜖 − 𝑒 𝜆𝑚𝑖𝑛 𝑃 𝛼 𝛽 𝑥 + 𝑒 𝐺 −1 𝑧 𝜆𝑚𝑖𝑛 𝑃
2 2
2
𝑇 −1 𝑇 𝑇
1+ 𝑊
+𝑊 𝛤 𝐼𝑑 𝛤𝑒 𝑃𝐵𝑊𝑊 𝑆 𝑧 (3.38)
𝑀
et nous avons
2
𝑇 𝑇
1+ 𝑊
𝐼𝑑 𝛤𝑒 𝑃𝐵𝑊𝑊 𝑆 𝑧 𝑊𝑇𝑊 ≤ 0 (3.40)
𝑀
A partir de (3.44), et (3.42) nous avons
1
𝑉≤− 𝜆 𝐺 −1 𝑧 𝑄 𝑒 2
+𝜀𝜅𝜖 (3.41)
2 𝑚𝑖𝑛
où 𝜆𝑚𝑖𝑛 𝐺 −1 𝑧 𝑄 est la valeur propre minimale de la matrice 𝐺 −1 𝑧 𝑄.
Alors
2
𝑉 ≤ −𝑤1 𝜉 + 𝑤2 (3.42)
1
avec 𝑤1 = 2 𝜆𝑚𝑖𝑛 𝐺 −1 𝑧 𝑄 et 𝑤2 = 𝜀 𝜅 𝜖.
𝑤2
𝛺𝑒 = 𝑒:/ 𝑒 ≤ (3.43)
𝑤1
ce qui implique la bornitude de tous les signaux dans le système bouclé, c'est-à-dire
l‟erreur d‟approximation minimal peut être construite arbitrairement petite par l‟utilisateur
de la propriété d‟approximation neuronal, alors la quantité 𝑤2 est borné, ce qui implique
que l‟ensemble 𝛺𝑒 dans (3.43) est borné. Maintenant 𝑉 deviendra négatif tant que 𝑒(𝑡)est
51
Chapitre3. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire MIMO Non affine
en dehors de l‟ensemble 𝛺𝑒 , selon la théorie de la stabilité de Lyapunov, nous concluons
que l‟erreur 𝑒(𝑡)est bornée et va converger vers 𝛺𝑒 .
Alors et la fonction candidate 𝑉 est bornée. Par conséquent, on peut démontrer que les
erreurs 𝑒(𝑡) ∈ 𝐿2 sont carrés intégrables et que 𝑒(𝑡) ∈ 𝐿∞ sont bornées, d‟où, par
application du lemme de Barbalat [Slotine-91], on déduit la convergence vers zéro des
erreurs de poursuite lim𝑡→∞ 𝑒(𝑡) = 0 de tous les systèmes.
3.3. Résultats de simulation :
Études de simulation sont réalisées pour démontrer l'efficacité de la commande
proposée. Deux problèmes de commande sont considérés. La première concerne un
système académique MIMO non-affine, tandis que la seconde concerne un modèle
dynamique de manipulateur à deux degrés de liberté.
3.3.1. Exemple 1 :
Le problème de la commande d'un système académique non-linéaire non affine MIMO
est considéré là pour montrer l'efficacité de ce contrôleur proposé. Ses équations
dynamiques sont donnés par :
𝑥11 = 𝑥12
2
𝑥12 = 𝑥11 2
+ 𝑥12 + 0.15𝑢13 + 2 + cos
(𝑥11 ) 𝑢1 − 𝑢2
𝑥21 = 𝑥22
(3.44)
2
𝑥22 = 𝑥22 2
+ 𝑥11 + 𝑥12 2
− 0.5𝑢1 + 1 + 𝑥21 𝑢23 + 2 + sin 𝑥21 𝑢2
𝑦1 = 𝑥11
𝑦2 = 𝑥21
où 𝑥 = 𝑥11 , 𝑥12 , 𝑥21 , 𝑥22 𝑇 est le vecteur d‟état du système, 𝑢1 et 𝑢2 sont les entrées de
commande, 𝑦1 et 𝑦2 Sont les sorties du système.
L‟objective de la commande est de forcer les sorties du système 𝑦1 et 𝑦2 suivre les
trajectoires désirées 𝑦𝑑 1 𝑡 = sin 𝑡 et 𝑦𝑑 2 𝑡 = sin 𝑡 , respectivement.
Deux systèmes neuronaux de type réseaux de neurone d‟ordre supérieur de la forme (1.1)
sont utilisée pour générer les commandes 𝑢1 et 𝑢2 .Chaque réseau de neurone possède le
𝑇
vecteur d‟entrée 𝑧 = 𝑧1𝑇 , 𝑧2𝑇 , 𝑧3𝑇 𝑇
𝑧 = 𝜉 𝑇 , 𝑦𝑑𝑇 , 𝜑 avec 𝑧1𝑇 = 𝑥11 , 𝑥12 , 𝑥21 , 𝑥22 , 𝑧2𝑇 =
52
Chapitre3. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire MIMO Non affine
Les paramètres de Les valeurs numériques Les conditions Les valeurs numériques
synthèses initiales
𝜞 0.01 𝑾 𝟎 0
𝑴 16 𝒙𝟏𝟏 𝟎 0.001
𝝐 30 𝒙𝟏𝟐 𝟎 0
𝒌 [1 0 − 2 0; 𝒙𝟐𝟏 𝟎 0.001
0 − 1 0 − 2]
𝑸 𝐷𝑖𝑎𝑔 5.5 5.5 5 5 𝒙𝟐𝟐 𝟎 0
𝑷 [8.125 0 2.75 0 ;
0 8.125 0 2.75;
2.75 0 2.625 0;
0 2.75 0 2.625]
1.5
1 Position Vitesse
0.5
-0.5
-1
-1.5
0 2 4 6 8 10 12 14 16 18 20
Temps(sec)
Fig. 3.1 : Courbes de poursuite de sous système1 ; sorties (traits continus), consignes
(traits discontinus).
53
Chapitre3. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire MIMO Non affine
1.5
1 Position Vitesse
0.5
-0.5
-1
0 2 4 6 8 10 12 14 16 18 20
Temps(sec)
30
25
20
15
10
-5
0 2 4 6 8 10 12 14 16 18 20
Temps(sec)
54
Chapitre3. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire MIMO Non affine
3.3.2. Exemple 2 :
Dans cette section, nous présentons les résultats de simulation montrant les
performances de suivi de la commande proposée appliqué à un deux-lien rigide robot
manipulateur. La dynamique de ce système MIMO sont donnés par [Slotine-91] :
−1
𝑞1 𝐻 𝐻12 𝑢1 −𝑞2 −(𝑞1 + 𝑞2 ) 𝑞1
= 11 𝑢2 − 𝑞1 (3.45)
𝑞2 𝐻21 𝐻22 0 𝑞2
avec
𝑎2 = 𝐼𝑒 + 𝑚𝑒 𝑙𝑐2𝑒
𝑎3 = 𝑚𝑒 𝑙1 𝑙𝑐𝑒 cos
(𝛿𝑒 )
𝑎4 = 𝑚𝑒 𝑙1 𝑙𝑐𝑒 sin
(𝛿𝑒 )
où 𝑢1 et 𝑢2 sont les couples de commande appliqués aux articulations, et les sorties sont les
positions articulaires 𝑞1 et 𝑞2 . Dans cette simulation, le tableau (3.2) suivant contient les
valeurs des paramètres utilisées
Les paramètres de Les valeurs numériques Les paramètres de Les valeurs numériques
𝑚1 1kg 𝑙𝑐 𝑒 0.6m
𝑚𝑒 2kg 𝐼1 0.12kg m2
𝑙1 1m 𝐼𝑒 0.25 kg m2
𝑙𝑐 1 0.5m 𝛿𝑒 30°
Tab.3.2 : Paramètres du modèle
Posons 𝑦 = 𝑞1 , 𝑞2 𝑇 , 𝑢 = 𝑢1 , 𝑢2 𝑇 , 𝑥 = 𝑞1 , 𝑞1 , 𝑞2 , 𝑞2 𝑇 et
−1
𝑔11 𝑔12 −1 𝐻11 𝐻12
𝐺 𝑥 = 𝑔 𝑔22 = 𝐻 =
21 𝐻21 𝐻22
55
Chapitre3. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire MIMO Non affine
Il est bien connu que la matrice 𝐻 est définie positive [Slotine-91] et, de ce fait, le modèle
du robot satisfait l‟hypothèse 3.6.
L‟objectif de commande est de forcer les sorties du système 𝑞1 𝑒𝑡 𝑞2 de suivre
respectivement les trajectoires sinusoïdales 𝑦𝑑 1 𝑡 = sin 𝑡 et 𝑦𝑑 2 𝑡 = sin 𝑡 .
Deux systèmes neuronaux de type réseaux de neurone d‟ordre supérieure de la forme (1.1)
sont utilisée pour générer les commandes 𝑢1 et 𝑢2 . Chaque réseau de neurone possède le
vecteur d‟entrée 𝑧 = 𝑧1𝑇 , 𝑧2𝑇 , 𝑧3𝑇 𝑇
avec 𝑧1𝑇 = 𝑥11 , 𝑥12 , 𝑥21 , 𝑥22 , 𝑧2𝑇 =
𝑦𝑑 1 , 𝑦𝑑 1 , 𝑦𝑑 2 , 𝑦𝑑 2 , 𝑧3𝑇 = 𝑦𝑑 1 + 𝑘12 𝑒1 + 𝑘11 𝑒1 , 𝑦𝑑 2 + 𝑘21 𝑒2 + 𝑘22 𝑒2 .
Les paramètres de synthèses et les conditions initiales sont donnés dans le tableau (3.3)
suivant :
Les paramètres de Les valeurs numériques Les conditions Les valeurs numériques
synthèses initiales
𝜞 0.001 𝑾 𝟎 0
𝑴 16 𝒙𝟏𝟏 𝟎 0.00005
𝝐 100 𝒙𝟏𝟐 𝟎 0
𝒌 [1 0 − 2 0; 𝒙𝟐𝟏 𝟎 0.00005
0 − 1 0 − 2]
𝑸 𝐷𝑖𝑎𝑔 5.5 5.5 5 5 𝒙𝟐𝟐 𝟎 0
𝑷 [8.125 0 2.75 0 ;
0 8.125 0 2.75;
2.75 0 2.625 0;
0 2.75 0 2.625]
56
Chapitre3. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire MIMO Non affine
1.5
Position Vitesse
1
0.5
-0.5
-1
-1.5
0 2 4 6 8 10 12 14 16 18 20
Temps(sec)
Fig. 3.4 : Courbes de poursuite pour la liaison 1 ; sorties (traits continus), consignes
(traits discontinus).
1.5
Position Vitesse
1
0.5
-0.5
-1
0 2 4 6 8 10 12 14 16 18 20
Temps(sec)
57
Chapitre3. La Commande Adaptative Neuronale pour une Classe de systèmes Non
Linéaire MIMO Non affine
100
80
60
40
20
-20
0 2 4 6 8 10 12 14 16 18 20
Temps(sec)
3.4. Conclusion :
Dans ce chapitre, nous avons proposé et développé une commande adaptative
neuronale directe pour une classe de systèmes non linéaires MIMO non affines en la
commande. En premier lieu Nous avons utilise le théorème de la fonction implicite
globale pour démontrer l‟existence d‟un contrôleur idéal inconnu qui est capable
d‟accomplir l‟objective de la commande, autour de ce dernier nous avons transformée le
modèle non affine en un modèle affine par un développement en série de Taylor en
deuxième lieu. Puis nous avons synthétisé la loi de commande par feedback linearization.
En fin, pour des raisons des incertitudes sur le modèle liées aux problèmes de
transformations et modélisation, un réseau de neurone est utilisé pour approximer la loi de
commande idéale. Les lois d‟adaptation ont déduites à travers l‟analyse de la stabilité, au
sens de Lyapunov, du système en boucle fermée. Les résultats de simulation obtenus pour
les exemples proposés montrent des bonnes performances de poursuite et de robustesse, et
mettent en évidence la capacité et l‟efficacité du contrôleur neuronale développé à prendre
en charge une certaine classe de systèmes non linéaires MIMO non affines en la
commande.
58
Conclusion générale
Conclusion générale
D‟une manière générale, l‟analyse et la commande non linéaires sont des problèmes
difficiles et la majorité des approches de la commande non linéaire exigent la disponibilité
d‟un modèle mathématique. Cette commande doit être robuste dans le sens où elle devra
assurer une faible sensibilité aux incertitudes sur les paramètres, à leurs variations et aux
perturbations.
L‟objectif principal de ce mémoire est de développer des lois de commande adaptatives
neuronales stables et robustes pour réaliser la poursuite des certaines classes de systèmes non
linéaires SISO et MIMO non affines en la commande.
Dans la première partie de ce travail, nous avons commencé par présenter l‟ensemble des
définitions et des outils nécessaires à la mise au point de la stratégie adoptée pour le
développement des lois de commande garantissant les performances souhaitées. En effet, un
rappel sur les principes de réseaux de neurones d‟ordre supérieur HONN, et l‟utilisation des
systèmes neuronaux comme éléments de base pour la modélisation et la commande des
systèmes non linéaires est présenté.
Dans la deuxième partie du travail, nous avons démontré que la commande du système
non linéaire non affine est équivalente à la commande du système non linéaire affine autour
d‟un contrôleur idéal inconnu qui nous avons démonté leur existence par le théorème de la
fonction implicite. A base de ce résultat nous avons proposé et développé des schémas de
commande adaptative directe et indirecte pour une classe de systèmes non linéaires
monovariables. Dans le schéma de commande adaptative directe neuronale, le but était
l‟approximation d‟une loi de commande stabilisatrice inconnue. En revanche le schéma de
commande adaptative indirecte exploite deux systèmes adaptatifs neuronaux pour approximer
la dynamique du système affine, et aussi évite le problème de singularité de la loi de
commande par l‟utilisation d‟un algorithme de projection.
Dans la dernière partie de ce travail, nous avons développé un contrôleur adaptatif direct
neuronal pour une classe de systèmes non linéaires multivariables non affines en la
commande. Pour ce faire, nous avons exploité en premier lieu le théorème de la fonction
implicite globale pour montrer l‟existence du contrôleur idéal inconnu. Ensuite, nous avons
59
Conclusion générale
60
Bibliographie
[Dai-14]
Shi-Lu Dai, Cong Wang, and Min Wang,‟‟ Dynamic Learning From Adaptive
Neural Network Control of a Class of Nonaffine Nonlinear Systems‟‟, IEEE
Transactions on Neural Networks and learning systems, vol. 25, no. 1,pp,111-
123, january 2014.
[Doudou-13]
Doudou, S.‟‟ Contribution à la Commande Moderne des Systèmes Non Linéaires
Multivaraibles Non affines ‟‟, Thèse de Doctorat, Université de Setif, Alger, 2013.
[Funahashi-89]
Funahashi, K. L.,‟‟On the approximate realization of continuous mapping by
neural networks‟‟, Neural Networks, no.2, pp.183-192, 1989.
[Ge-99]
S. S. Ge, C. C. Hang, and T. Zhang, “Adaptive Neural Network Control of
Nonlinear Systems by State and Output Feedback,” IEEE Trans. Syst. Man
Cybern. B, Cybern., vol. 29, no. 6, pp. 818–828, Dec. 1999.
[Ge-04]
S. S. Ge , and C. Wang, “Adaptive Neural Control of Uncertain MIMO Nonlinear
Systems,” IEEE Trans. Neural Netw, vol. 15, no. 3, pp.674–692, May 2004.
[Ge-03]
S. S. Ge, and Zhang J. ‚”Neural-Network Control of Nonaffine Nonlinear
System With Zero Dynamics by State and Output Feedback” IEEE Trans. Neural
Networks, Vol. 14, No. 4, pp. 900-918, July 2003.
[Ge-01]
S. S. Ge, C. C. Hang, T. H. Lee, and T. Zhang, Stable Adaptive Neural Network
Control. Norwell, MA: Kluwer, 2001.
61
Bibliographie
[Ge-00]
S. S. Ge, T. H. Lee, and J. Wang, “Adaptive control of non-affine nonlinear
systems using neural networks,” in Proceedings of the 15th IEEE International
Symosium on Intelligent Control (ISIC 2000), pp. 13–18, Rio, Patras, Greece,
2000.
[Ge-98]
S. S. Ge, Hang C. C. and Zhang T,‟‟ Nonlinear Adaptive Control Using Neural
Networks and its Application to CSTR Systems‟‟, Journal of Process Control
Vol. 9, pp. 313-323, 1998.
[Hornik-89]
Hornik, K. Stinchombe M. & White H., ”Multilayer feedforward networks are
universal approximators”, IEEE Trans. Neural Networks, , 2, 1083-1112, 1989.
[Isidori-89]
Isidori A .,‟‟Nonlinear Control Systems‟‟ , 2nd,Springer-Verleg :Berlin,1989.
[Ioannou-96]
Ioannou P A and Sun J,‟‟Adaptive control‟‟, Englewood Cliffs, NJ: Prentice-hall,
1996.
[Karimi-09]
R. Karimi, M. B. Menhaj, M. Karimi-Ghartemani, and I. Saboori,‟‟ Decentralized
Adaptive Control of Large-scale Affine and Non-affine Nonlinear Systems ‟‟,
IEEE Transaction on Instrumentation and Measurement, Vol.58, No.8, pp. 2459-
2467, 2009.
[Kosmatopoulos-95]
E. B. Kosmatopoulos, M. M. Polycarpou, M. A. Christodoulou, and P.A.
Ioannou, “High-Order Neural Network Structures for Identification of Dynamical
Systems,” IEEE Trans. Neural Networks, vol. 6, pp. 422–431, Mar. 1995.
[Labiod-05]
Labiod, S.‟‟ Contribution à la Commande Adaptative Floue des Systèmes Non
Linéaires ‟‟ Thèse préparée au sein du Laboratoire de Commande des Processus
de l’ENP2005.
62
Bibliographie
[Liu-07]
Liu, Y.J., Wang, W.: „Adaptive Fuzzy Control for a Class of Uncertain Non-affine
Nonlinear Systems‟, Inf. Sci. 177, pp. 3901– 3917, 2007.
[Park-04]
Park, J. H., and Kim, S.H.,‟‟ Direct Adaptive Output Feedback Fuzzy Controller
for Non-affine Nonlinear System‟‟, Proc, of IEE, Control Theory Applications,
Vol. 151, No.1, pp. 65–72, 2004.
[Polycarpous-95]
M. M. Polycarpous and P. A. Ioannou,‟‟ A Robust Adaptive Nonlinear Control
Design‟‟, Automatica, Vol. 32, No. 3, pp. 423-427, 1995.
[Slotine-91]
J.E. Slotine and W. Li, Applied nonlinear control, Prentice Hall, Englewood,
Cliffs, NJ, 1991.
[Spooner-96]
Spooner J.T., Passino K.M., „‟Stable Adaptive Control Using Fuzzy Systems and
Neural Networks‟‟, IEEE Trans. on Fuzzy Systems, Vol. 4, No. 3, pp. 339-359,
August 1996.
[Wang-93]
L.-X. Wang, „‟Stable Adaptive Fuzzy Control of Nonlinear Systems „‟, IEEE
Transactions on Fuzzy Systems, vol. 1, no. 2, pp. 146–155, 1993.
[Wang-94]
L.X. Wang, Adaptive Fuzzy Systems and Control: Design and Stability Analysis.
Prentice-Hall, Englewood Clifs, NJ, 1994.
[Wang-07]
Wang, W.Y., Chien, L.C., Li, I.H., and Su, S.F., „‟MIMO Robust Control via T-S
Fuzzy Models for Non-affine Nonlinear Systems‟‟, Proc of IEEE Inter Conf. on
Fuzzy Systems, pp. 1–6, 2007.
[Yesildirek-99]
A. Yesildirek, F. L. Lewis, and S. Jagannathan , Neural Network Control of
Robot Manipulators and Nonlinear Systems. New York: Taylor & Francis, 1999.
63
Bibliographie
[Yesildirek-95]
Yesildirek, A. and Lewis Frank, F. L. „‟Feedback Linearization Using Neural
Networks”, Automatica, 31, 1659-1664, 1995.
[Yesildirek-96]
F. L. Lewis, A. Yesildirek, and K. Liu, “Multilayer Neural-Net Robot Controller
With Guaranteed Tracking Performance,” IEEE Trans. Neural Networks, vol. 7,
pp. 388–398, Mar. 1996.
[Zhang-06]
Zhang, W., and Ge, S.S.,‟‟ A Global Implicit Function Theorem without Initial
Point and its Applications to Control of Non-affine Systems of High
Dimensions‟‟, Jour of Mathematical Analysis and Applications, Vol. 313, pp.
251–261, 2006.
[Zhang-98]
T. Zhang, S.S. Ge, C.C. Hang,‟‟ Direct Adaptive Control of Non-affine Nonlinear
System Using Multilayer Neural Networks‟‟, in: Proc. ACC, pp. 515–519, 1998.
64
Bibliographie
65