0% ont trouvé ce document utile (0 vote)
278 vues179 pages

Commande Neuronale

Transféré par

Kuate Rene
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
278 vues179 pages

Commande Neuronale

Transféré par

Kuate Rene
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

République Algérienne Démocratique et Populaire

Ministère de l’Enseignement Supérieur et de la Recherche Scientifique


UNIVERSITE FRERES MENTOURI CONSTANTINE1
Faculté des Sciences de la Technologie
170/DS/2019 Département d’Electronique
05/Elec/2019

THÈSE
Présentée pour l’obtention du diplôme de doctorat en sciences

Option : Contrôle des systèmes

par :
ZERARI NASSIRA

Contribution à la commande adaptative


robuste d’une classe de systèmes non
linéaires

Soutenue publiquement le : 14/11 / 2019


Devant le jury composé de :

Pr. [Link] Université Frères Mentouri Constantine1 Président


Pr. [Link] Université Frères Mentouri Constantine1 Rapporteur
Pr. [Link] École nationale polytechnique de Constantine Examinateur
Pr. [Link] Université de Jijel Examinateur
Dr. [Link] Université Frères Mentouri Constantine1 Examinateur

Année Universitaire : 2018-2019


R EMERCIEMENTS

J’adresse mes plus vifs remerciements à Monsieur MOHAMED CHEMA-


CHEMA, professeur à l’université de Constantine, en tant que directeur de
thèse qui m’a toujours guidé dans mon travail. Sa grande connaissance du
domaine, ainsi que son expérience, ont joué un rôle important pour l’avance-
ment et l’aboutissement de cette thèse. Veuillez trouver ici l’expression de
ma respectueuse considération et ma profonde admiration pour toutes vos
qualités scientifiques et humaines.

J’exprime ma plus profonde gratitude à Monsieur le président de jury [Link],


Professeur à l’université de Constantine 1 d’avoir bien voulu juger ce travail
et d’avoir bien voulu accepter la présidence de ce jury.

J’adresse également mes sincères remerciements aux professeurs Monsieur


[Link] professeur à l’Ecole Nationale Polytechnique de Constantine dont
je n’oublierai jamais ses aides appréciables, ainsi que Monsieur [Link]
professeur à l’université de Jijel qui vient de loin d’avoir accepté d’être
membres du jury d’examination de ma thèse. Nos remerciements vont égale-
ment à Monsieur [Link] maître de conférence à l’université de Constan-
tine pour avoir accepté de faire partie des membres du jury.

Je tiens également à remercier Monsieur [Link] ainsi que les docto-


rantes du Laboratoire Sb-Lab pour leurs conseils, leur gentillesse et leur
sérieux.

Un grand merci au Professeur Najib Essounbouli, ainsi que tous les Docteurs
du du Centre de Recherche en Sciences et Techniques de l’Information et
de la Communication (CReSTIC), pour les conseils qu’ils m’ont donné au
cours de mon stage à l’Institut Universitaire de Technologie de Troyes (IUT),
France.

Enfin, je remercie toutes les personnes que j’ai peut-être oubliées et qui m’ont
aidé pour l’accomplissement de cette thèse.

i
D ÉDICACE

Mon père
Ma mère
Mon frère et mes soeurs
Mes amies et collègues
Mes professeurs

iii
R ÉSUMÉ

’objectif de cette thèse porte principalement sur le développement de lois de com-

L mande adaptatives pour certaines classes de systèmes non linéaires incertains. Le


cas des systèmes affines et non affines en la commande, la présence des contraintes
sur les sorties et/ou les états ainsi que les perturbations externes sont étudiés. De plus,
les non linéarités qui agissent sur les entrées des systèmes dynamiques sont étudié,
en l’occurrence la saturation et la zone morte. Dans toutes les approches proposées, les
réseaux de neurones sont utilisés en tant qu’approximaters universels pour approcher
les dynamiques incertaines des systèmes. Les algorithmes proposés évitent les fameux
problèmes d’explosion de complexité tout en évitant le recours à l’approche back-stepping.
Les lois de commandes développées présentent peu de paramètres à ajuster en ligne en
les comparants aux travaux similaires. De plus, l’analyse de la stabilité de toutes les
boucles de commande est prouvée en se servant de la méthode de Lyapunov. Pour chaque
structure de commande, des résultats de simulation sont présentés pour montrer son
efficacité .
Mots clés : Réseau de neurones ; commande adaptative ; systèmes non linéaires ; satura-
tion ; zone-morte ; fonction de Nussbaum.

v
‫ملخص‬

‫انٓذف يٍ ْزِ انشسبنخ ٌزعهك ثشكم أسبسً ثزطٌٕش لٕاٍٍَ انزحكى انزكٍفً نفئخ يٍ األَظًخ‬

‫يزعذدح انًزغٍشاد ‪ .MIMO‬رًذ دساسخ‬ ‫غٍش انخطٍخ احب دٌخ انًزغٍشاد ‪ٔ SISO‬‬

‫حبالد األَظًخ انزآنفٍخ ٔغٍش انزآنفٍخ ‪ٔٔ ،‬خٕد لٍٕد عهى انًخبسج ٔ ‪ /‬أٔ انًذاخم ثبإلضبفخ‬

‫إنى االضطشاثبد انخبسخٍخ‪ .‬عالٔح عهى رنك‪ ،‬رى االخز ثعٍٍ االعزجبس انًذاخم غٍش انخطٍخ‬

‫فً دساسخ األَظًخ انذٌُبيٍكٍخ ‪ٔ ،‬انزً رزًثم فً انزشجع ٔانًُطمخ انًٍزخ عهى انزٕانً‪ .‬فً‬

‫خًٍع أسبنٍت انزحكى انًمزشحخ اسزخذيُب انشجكبد انعصجٍَٕخ كًمبسة رمذٌشي نهذٔال غٍش‬

‫انخطٍخ انًدٕٓنخ فً انُظبو انًشاد انزحكى فٍّ‪ .‬ثبنًمبسَخ يع انزمٍُبد انزمهٍذٌخ انمبئًخ عهى‬

‫‪ ، back-stepping‬فإٌ انخٕاسصيٍبد انًمزشحخ اثسط ثكثٍش‪ ،‬يع انعهى ثؤَّ رى ردُت‬

‫يشبكم اَفدبس انزعمٍذ انشٍٓشح ثبإلضبفخ إنى ْزا‪ ،‬اسزعًهُب طشٌمخ نٍبثَٕٕف نذساسخ اسزمشاس‬

‫طشق انزحكى انزالإيً انًمزشحخ ٔلذيُب ثعض َزبئح انًحبكبح انعذدٌخ الثشاص كفبءح أدائٓب‪.‬‬

‫كلمات مفتاحیة‪:‬‬

‫انشجكخ انعصجٍخ ‪،‬رحكى رالإيً‪ ،‬أَظًخ الخطٍخ ‪،‬رشجع ‪،‬يُطمخ يٍزخ ‪،‬دانخ ٍَسجٕو‪.‬‬

‫‪vii‬‬
A BSTRACT

he main objective of this thesis is the development of adaptive control laws for

T particular classes of uncertain SISO and MIMO nonlinear systems. The cases of
the affine and non-affine systems, the presence of the constraints on the outputs
and/or the states as well as the external perturbations are studied. Furthermore, the
saturation and dead-zone inputs nonlinearities of the dynamical systems are investigated.
In all the proposed approaches, the neural networks are used as universal approximators
to estimate the unknown nonlinearities of the dynamical systems. The structures of the
proposed controllers deal with the famous problems of explosion of complexity while
avoiding the use of the traditional back-stepping technique. The proposed adaptive
neural controllers have few online learning parameters compared to similar works. In
addition, stability analysis of all control loops is carried out by using the Lyapunov
method, and for each scheme, simulation results are given to show its effectiveness.
Key words : Neural networks (NNs) ; adaptive control ; nonlinear systems ; saturation ;
dead-zone ; Nussbaum function.

ix
TABLE DES M ATIÈRES

Table des Matières xi

Liste des tableaux xv

Table des figures xvii

Liste des abréviations xxi

Introduction générale 1

1 Aspects théoriques de la commande non linéaire 5


1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2 Les réseaux de neurones (neural networks NNs) . . . . . . . . . . . . . . . 7
1.2.1 Les réseaux de neurones utilisé dans cette thèse . . . . . . . . . . . 7
1.3 La commande adaptative . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3.1 Principe de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4 La commande adaptative neuronale . . . . . . . . . . . . . . . . . . . . . . . 9
1.5 Stabilité des systèmes dynamiques . . . . . . . . . . . . . . . . . . . . . . . 9
1.5.1 Méthode de Lyapunov . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.5.2 La seconde méthode de Lyapunov . . . . . . . . . . . . . . . . . . . . 10
1.6 La commande back-stepping . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.7 Commande back-stepping adaptative . . . . . . . . . . . . . . . . . . . . . . 11
1.7.1 L’algorithme de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.8 La commande par surface dynamique (DSC : dynamic surface control) . . 15
1.9 La commande adaptative DSC . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.9.1 Algorithme de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.10 Non-linéarité d’actionneur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.10.1 La zone-morte (Dead-Zone) . . . . . . . . . . . . . . . . . . . . . . . . 18

xi
TABLE DES MATIÈRES

1.10.2 La saturation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.11 Notations et préliminaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.11.1 Fonction de Nussbaum . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.11.2 Théorème de la valeur moyenne (MVT) . . . . . . . . . . . . . . . . . 21
1.12 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

2 Commande adaptative neuronale des systèmes NL SISO de la forme


strict-feedback 23
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.2 Système NL strict-feedback avec une saturation de l’entrée et perturbation
externe et avec gain de commande inconnu . . . . . . . . . . . . . . . . . . . 28
2.2.1 Position du problème . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.2.2 La transformation du système et dynamique des erreurs . . . . . . 31
2.2.3 Conception de l’observateur . . . . . . . . . . . . . . . . . . . . . . . . 34
2.2.4 Conception d’un mécanisme de déclenchement par événement . . . 35
2.2.5 Analyse de la stabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.2.6 Résultats de simulation . . . . . . . . . . . . . . . . . . . . . . . . . . 40
2.3 Système NL strict-feedback avec des non linéarités de l’entrée et contrainte
sur la sortie et avec le gain de commande constant . . . . . . . . . . . . . . 49
2.3.1 Position du problème . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
2.3.2 La fonction de performance prescrite . . . . . . . . . . . . . . . . . . 49
2.3.3 Conception de la commande avec une zone morte sur l’entrée . . . 53
2.3.4 Analyse de la stabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
2.3.5 Résultats de simulation . . . . . . . . . . . . . . . . . . . . . . . . . . 58
2.3.6 Conception de la commande avec un équivalent de la saturation de
l’entrée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
2.3.7 Analyse de la stabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
2.3.8 Résultats de simulation . . . . . . . . . . . . . . . . . . . . . . . . . . 67
2.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68

3 Commande adaptative neuronale des systèmes NL SISO de la forme


pure-feedback 71
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
3.2 Commande adaptative neuronale pour une classe de système non linéaire
pure-feedback avec une saturation sur l’entrée . . . . . . . . . . . . . . . . . 75
3.2.1 Position du problème . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75

xii
TABLE DES MATIÈRES

3.2.2 La conception de la commande adaptative neuronale . . . . . . . . 76


3.2.3 Conception de l’observateur . . . . . . . . . . . . . . . . . . . . . . . . 78
3.2.4 Analyse de la stabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
3.2.5 Résultats de simulation . . . . . . . . . . . . . . . . . . . . . . . . . . 83
3.3 Commande adaptative pour des systèmes pure-feedback incertains avec
des contraints sur l’entrée et la sortie sans connaissance sur la direction
de commande . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
3.3.1 Position du problème . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
3.3.2 La conception de la commande adaptative neuronale . . . . . . . . 96
3.3.3 La transformation de l’erreur dynamique . . . . . . . . . . . . . . . 98
3.3.4 Conception de l’observateur . . . . . . . . . . . . . . . . . . . . . . . . 101
3.3.5 Analyse de la stabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
3.3.6 Résultats de simulation . . . . . . . . . . . . . . . . . . . . . . . . . . 106
3.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109

4 Commande adaptative neuronale des systèmes NL MIMO pure-feedback111


4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
4.2 Commande adaptative neuronale d’une classe de systèmes pure-feedback
MIMO avec la contrainte de la saturation . . . . . . . . . . . . . . . . . . . 114
4.2.1 Position du problème . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
4.2.2 La conception de la commande adaptative neuronale . . . . . . . . 115
4.2.3 Conception de l’observateur . . . . . . . . . . . . . . . . . . . . . . . . 119
4.2.4 Analyse de la stabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
4.2.5 Résultats de simulation . . . . . . . . . . . . . . . . . . . . . . . . . . 126
4.3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131

Conclusion générale 133

Bibliographie 137

xiii
L ISTE DES TABLEAUX

TABLEAU Page

2.1 Les paramètres de synthèses et les conditions initiales. . . . . . . . . . . . . . 42


2.2 Les paramètres de synthèses et les conditions initiales. . . . . . . . . . . . . . 45
2.3 Les paramètres de CSTR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
2.4 Les paramètres de synthèses et les conditions initiales. . . . . . . . . . . . . . 60
2.5 Les paramètres de synthèses et les conditions initiales. . . . . . . . . . . . . . 67

3.1 Les paramètres de synthèses et les conditions initiales. . . . . . . . . . . . . . 85


3.2 Les paramètres de synthèses et les conditions initiales. . . . . . . . . . . . . . 91
3.3 Les paramètres du modèle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
3.4 Les paramètres de synthèses et les conditions initiales. . . . . . . . . . . . . . 107

4.1 Les paramètres de synthèses et les conditions initiales. . . . . . . . . . . . . . 128


4.2 Les paramètres physique du quadrirotor. . . . . . . . . . . . . . . . . . . . . . . 128

xv
TABLE DES FIGURES

F IGURE Page

1.1 La fonction de la zone morte. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19


1.2 Structure de la fonction saturation. . . . . . . . . . . . . . . . . . . . . . . . . . . 20

2.1 Saturation u m tanh( uvm ) (traits discontinus) and sat(v( t)) (traits continus). . . 30
2.2 Le résultat de simulation de l’exemple 1. (a) Performance de poursuite : la
sortie y la référence yd . (b) La poursuite de l’état x2 . . . . . . . . . . . . . . . . 43
2.3 Le résultat de simulation de l’exemple 1. (a) la commande intermédiaire ω̌ ( t)
.(b) Poursuite de u( t) et sat( u( t)). . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.4 Les nouveaux variables d’états s le long de leurs estimés ŝ de l’exemple 1. . . 44
2.5 L’événement de déclenchement de l’exemple 1. . . . . . . . . . . . . . . . . . . . 44
2.6 Un robot manipulateur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.7 Le résultat de simulation de l’exemple 2. (a) Performance de poursuite : la
sortie y la référence yd . (b) La poursuite de l’état x2 . . . . . . . . . . . . . . . . 47
2.8 Le résultat de simulation de l’exemple 2. (a) la commande intermédiaire w( t)
.(d) Poursuite de u( t) et sat( u( t)). . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.9 Les nouveaux variables d’états s avec leurs estimés ŝ de l’exemple 2. . . . . . 48
2.10 L’événement de déclenchement de l’exemple 2. . . . . . . . . . . . . . . . . . . . 48
2.11 Les performances de poursuite : la sortie y la référence yd . . . . . . . . . . . . 61
2.12 La trajectoire de v( t) et N (v( t)). . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
2.13 Les performances de l’erreur de poursuite . . . . . . . . . . . . . . . . . . . . . . 61
2.14 (a) L’erreur de poursuite des deux commande ; (b) la commande d’entrée des
deux approches. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
2.15 Un diagramme structurale du non linéarité de l’entrée u(v). . . . . . . . . . . 62
2.16 Un diagramme structurale du non linéarité de l’entrée satall (.). . . . . . . . . 64
2.17 Les performances de poursuite : la sortie y la référence yd . . . . . . . . . . . . 68
2.18 La trajectoire de v( t) et sat all (v( t)). . . . . . . . . . . . . . . . . . . . . . . . . . . 68
2.19 Les performances de l’erreur de poursuite . . . . . . . . . . . . . . . . . . . . . . 68

xvii
T ABLE DES FIGURES

3.1 Le résultat de simulation de l’exemple 1. (a) Performance de poursuite : la


sortie y la référence yd . (b) La poursuite de l’état x2 et x3 . . . . . . . . . . . . . 86
3.2 Le résultat de simulation de l’exemple 1. (a) L’écart entre l’erreur de poursuite
et son éstimé . (b) La norme des paramètres de NNs ajustés. . . . . . . . . . . 87
3.3 Le résultat de simulation de l’exemple 1. (a)La commande intermédiaire ω( t)
.(b) Poursuite de u( t) et sat( t). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
3.4 l’erreur de poursuite du système transformé avec son estimation de l’exemple
1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
3.5 Les nouveaux variables d’états et leurs estimés de l’exemple 1. . . . . . . . . 89
3.6 Le résultat de simulation de l’exemple 1. (a) Les performances de la comparai-
son pour les deux approches sans saturation. (b)La commande d’entrée u( t)
des deux approches (sans saturation sur l’entré). . . . . . . . . . . . . . . . . . 89
3.7 Le résultat de simulation de l’exemple 1. (a)Les performances de poursuite de
la commande de back-stepping avec saturation sur l’entrée. (b)La commande
d’entrée de la technique de back-stepping avec saturation . . . . . . . . . . . . 90
3.8 Le résultat de simulation de l’exemple 2. (a) Performance de poursuite : la
sortie y la référence yd . (b) La poursuite de l’état x2 et x3 . . . . . . . . . . . . . 92
3.9 Le résultat de simulation de l’exemple 2. (a)L’écart entre l’erreur de poursuite
et son éstimé. (b) La norme des paramètres de NNs ajustés. . . . . . . . . . . 93
3.10 Le résultat de simulation de l’exemple 2. (a) La commande intermédiaire ω( t)
.(b) Poursuite de u( t) et sat( t). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
3.11 l’erreur de poursuite du système transformé avec son estimation de l’exemple
2. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
3.12 Les nouveaux variables d’états et leurs estimés de l’exemple 2. . . . . . . . . 94
3.13 Le résultat de simulation de l’exemple 2. (a) les performances de la compa-
raison de deux approches. (b)La commande d’entrée u( t) des deux approches.
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
3.14 La commande du système éolien le long de leurs bornés . . . . . . . . . . . . . 108
3.15 L’erreur de poursuite du système éolien . . . . . . . . . . . . . . . . . . . . . . . 108
3.16 la commande d’entrée du système éolien u( t) et sat( u( t)) . . . . . . . . . . . . . 109

4.1 Les erreurs de poursuite de roulis, tangage et lacet, respectivement : La


sortie(ligne rouge) ; la référence(ligne noire) . . . . . . . . . . . . . . . . . . . . 129
4.2 Les erreurs de poursuite de e ϕ , e θ et e ψ . . . . . . . . . . . . . . . . . . . . . . . . 129
4.3 Les signaux de commande u ϕ , u θ et u ψ . . . . . . . . . . . . . . . . . . . . . . . . 130

xviii
T ABLE DES FIGURES

4.4 L’erreur de poursuite du systè transformé et son estimation : Réel (ligne


rouge) ; Estimé (ligne blue) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131

xix
L ISTE DES ABRÉVIATIONS

DCS : La commande par surface dynamique (Dynamic surface control)


NNs : Les réseaux de neurones (Neural Networks)
RBF : Les réseaux de neurones à base de fonction radiale (Radial basic function)
IP : Indice de performance
MSS : La commande par surface de glissement multiple (Multiple Sliding Surface)
LMI : Inégalité matricielle linéaire (Linear Matrix Inequalities)
MVT : Théorème de la valeur moyenne (Mean Value Theorem)
NL : Non linéaire
Cde : Commande
SISO : Mono-variable (Single Input/ Single Output)
MIMO : Multi-variable (Multiple Input/ Multipl Output)
ETM : Le mécanisme de déclenchement par évèenement (Event-Triggering Mechanism)
SPR : La positivité des systèmes (Strictly Positive Real)
BLF : La fonction Barrière de Lyapunov (Barrier Lyapunov Function)
PPC : Prescription de performances (Prescribed Performance Control)
ISS : La stabilité entrée/état (Input to State Stability)
CSTR : Réacteur exothermique continu agité (Continuously Stirred Tank Reactor)

xxi
I NTRODUCTION GÉNÉRALE

ace au développement technologique rapide et les besoins de plus en plus de

F précision et de robustesse, les systèmes automatisés n’ont cessé d’évoluer vers


des structures de commandes de plus en plus complexes.
La théorie de la commande moderne se développe dans le but d’expliquer et de résoudre
des problèmes issus de l’environnement industriels. Des raisons économiques et de
sécurité conduisent à la recherche de lois de commandes de plus en plus performantes
afin de garantir l’efficacité. Pour cela, il est important de comprendre et de prendre en
compte toutes les particularités d’un système de commande.
En général, la synthèse des lois de commande nécessite une modélisation mathéma-
tique du système. Cependant, quelques méthodes de synthèse exigent des connaissances
plus ou moins importantes du modèle. Donc, le problème rencontré c’est qu’en pratique,
le comportement des systèmes réels, dans la plupart des cas, est diffèrent du modèle
mathématique à cause des variations paramétriques et perturbations extérieures sans
oublier les conditions de fonctionnement variables. De ce fait, on peut considérer que les
modèles mathématiques des systèmes sont peu connus qu’on puisse les qualifier d’incer-
tains. Dans ce cas, et pour traiter le problème de la commande, l’approche adaptative se
présente comme solution idéale.
Généralement, les systèmes réels sont souvent non linéaires, avec modèles mathé-
matiques complexes, même si quelques dynamiques sont négligées. Ceci a rendu la
commande de pareils systèmes, une tâche très délicate, et a attiré l’attention de la
communauté des automaticiens. Contrairement à la commande maturée des systèmes
linéaires, la commande des systèmes non linéaire n’a encore pas abouti à un stade simi-
laire. Les automaticiens ont proposé de différentes techniques de commande adaptées à
chaque classe de système non linéaire, à savoir, les systèmes de forme de Brunovsky, de
forme strict-feedback et de forme pure-feedback pour les cas mono-variable (SISO) et
multi-variable (MIMO).
Les techniques de commande développées nécessite la connaissance exacte du modèle
mathématique, faute de quoi les lois de commande échouent à stabiliser les systèmes

1
INTRODUCTION GÉNÉRALE

réels. Comme cette condition est irréelle, le recours aux versions adaptatives est pri-
mordial. Afin de réaliser ces algorithmes adaptatifs, les systèmes d’inférence flous, les
réseaux de neurones, les réseaux de neurones à base de fonction radiale (RBF) et les
ondelettes sont largement utilisés.
Les réseaux de neurones, par leurs propriété d’approximation universelle sont ex-
ploités dans la commande adaptative directe et indirecte des systèmes non linéaires en
approximant les non linéarités incertaines et la loi de commande idéale, respectivement.
Parmi les techniques connues de la commande non linéaires, l’approche adaptative
basée sur le back-stepping est une méthode systématique basée sur la théorie de la
stabilité de Lyapunov pour la conception d’un contrôleur des systèmes triangulaires.
L’idée de base de cette stratégie est de faire une conception d’une loi de commande
par étapes de façon récursive en allant de proche en proche à partir du premier état.
Parallèlement, les lois d’adaptation pour les paramètres inconnus du système et les lois
de commande peuvent être déduites d’une manière adéquate.
Le problème principal avec l’approche de back-stepping est "l’explosion de complexité"
causée par la dérivation des commandes virtuelles calculées dans les différentes étapes.
C’est-à- dire, la complexité de la conception de la commande augmente lorsque l’ordre du
système augmente. Pour pallier à ce problème, les auteurs ont proposé la technique de la
commande par commande par surface dynamique DSC (Dynamic Surface Control) basée
sur l’introduction d’un filtre du premier ordre à l’entrée de chaque étape de l’approche de
back-stepping traditionnelle.
En pratique, tous les systèmes dynamiques sont soumis à des limitations sur leurs
entrées dues à des contraintes physiques inhérentes aux actionneurs. Ceci nécessite une
prise en compte de ces limites dans l’étude des contrôleurs à synthétiser afin d’éviter
la dégradation des performances et voire même l’instabilité. Les non linéarités les plus
rencontrées sont la saturation et la zone morte. Le traitement de la saturation est assuré
soit par un contrôleur robuste soit par un correcteur anti-emballement (anti-windup) est
utilisé. Cependant, la zone morte est traitée par une loi de commande robuste.
L’objectif principal de cette thèse est le développement de lois de commande adapta-
tive pour certaines classes de systèmes non linéaires incertains. Plusieurs algorithmes
sont développés pour les systèmes non linéaires incertains mono-variables (SISO). Le
cas des systèmes affines et non affines en la commande, la présence des contraintes sur
les sorties et/ou les états ainsi que les perturbations externes sont étudiés. De plus, les
non linéarités qui agissent sur les entrées des systèmes dynamiques sont étudié, en
l’occurrence la saturation et la zone morte. Par ailleurs, la commande adaptative d’une

2
INTRODUCTION GÉNÉRALE

classe des systèmes multi-variable MIMO est étudiée en tenant en compte de toutes les
difficultés étudiées pour le cas SISO.
Dans toutes les approches proposées, les réseaux de neurones sont utilisés en tant
qu’approximaters universels pour approcher les dynamiques incertaines des systèmes.
Les algorithmes proposés évitent les fameux problèmes d’explosion de complexité tout
en évitant le recours à l’approche par back-stepping. Les lois de commandes développées
présentent peu de paramètres à ajuster en ligne en les comparants aux travaux similaires.
La stabilité des boucles de commande sont prouvées d’être stable en se servant de la
méthode de Lyapunov.

La thèse est composée de 4 chapitres.


Le premier chapitre est consacré à la présentation des différents aspects thèoriques de
la commande adaptative à base de réseaux de neurones pour les systèmes non linéaires
incertains. Étant donné leur importance pour les développements subséquents, la mé-
thode du back-stepping et DSC en particulier, bénéficieront d’une attention particulière.
Quelques définitions inhérentes à la stabilité et quelques lemmes et théorèmes indispen-
sables pour la synthèse des lois de commandes sont également donnés.

Le deuxième chapitre introduit trois schémas de commande adaptative neuronale


pour les systèmes SISO non linéaires sous la forme strict-feedback en la présence
des contraintes sur l’entrée. Dans le premier schéma, le non linéarité de type saturation
est considéré dans la conception de la loi de commande. Dans ce cadre, le mécanisme
de déclenchement par événement (event-triggering mechanism (ETM)) est exploité. En
comparaison avec les approches traditionnelles, la structure du contrôleur proposé est
plus simple à cause de l’élimination des problèmes de l’explosion de complexité inhérente
aux approches existantes. Dans le second schéma, deux approches de commande sont
proposées. Dans les deux approches proposées, des exigences de performance en régime
transitoire et établie sont imposées sur la sortie du système. Pour traiter la saturation,
un compensateur additif est conçu, alors que pour traiter la zone morte un terme de
robustification est introduit. Les approches proposées sont capable de garantir la ro-
bustesse du système en boucle fermée avec une réduction importante du nombre des
paramètres d’apprentissage en ligne, ce qui rend les approches proposées plus appro-
priées pour la mise en œuvre en temps réel. L’analyse de stabilité de Lyapunov a permis
de garantir la bornitude de tous les signaux de la boucle fermée.

Le troisième chapitre aborde la commande adaptative neuronale des systèmes SISO

3
INTRODUCTION GÉNÉRALE

non linéaires et non affines en la commande sous la forme pure-feedback avec satura-
tion sur l’actionneur. Dans un premier schéma de commande, par l’introduction d’une
transformation d’état et d’un filtre passe bas, les difficultés de la commande commu-
nément rencontrés pour cette classe de système sont contournées en convertissant le
problème de commande de systèmes pure-feedback saturés en un problème normale de
Brunovsky. Dans cette approche, la conception de la commande est basée sur la notion
de positivité des systèmes ( SPR : Strictly Positive Real) afin d’estimer les nouveaux
états et la construction d’un terme de commande robuste pour faire face aux erreurs
d’approximations neuronales et pour compenser l’influence des saturations sur l’entrée.
Dans un deuxième schéma, en plus du premier problème, la présence des contraintes sur
la sortie est considérée simultanément avec les non linéarités sur l’entrée de commande.
Ainsi, un problème plus complexe est étudié. L’analyse de stabilité a permis de garantir
la bornitude de tous les signaux de la boucle fermée et la satisfaction des contraintes de
sortie.

Le quatrième chapitre est dédié à la commande adaptative neuronale d’une classe dite
pure-feedback de systèmes non linéaires multi-variables (MIMO) incertains en la pré-
sence des non-linéarités sur l’actionneur. Dans cette approche, de nouvelles variables
d’état et des transformations de coordonnées sont introduites pour convertir le sys-
tème original pure-feedback en une forme normale. Un observateur d’état est conçu
pour estimer les états indisponibles et l’utilisation de la fonction de Nussbaum rend la
connaissance a priori du signe du gain de commande non nècessaire. Dans la concep-
tion du contrôleur, similairement aux cas SISO, le problème des dérivées circulaire est
contourné en se passant de la technique de back-stepping. La stabilité du système en
boucle fermée est analysée au sens de de SPR -Lyapunov afin de montrer que les erreurs
de poursuite convergent vers un petit voisinage de l’origine. De plus, la performance de
poursuite du schéma de commande est illustrée par un exemple de simulation.
Les lois d’adaptation des paramètres des réseaux de neurones de tous les schèmas de
commande proposés dans cette thèse utilisent la loi dite σ-modification pour garantir la
bornitude des paramètres.

4
CHAPITRE
1
A SPECTS THÉORIQUES DE LA COMMANDE NON
LINÉAIRE

Sommaire
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2 Les réseaux de neurones (neural networks NNs) . . . . . . . . . . . . . . 7
1.2.1 Les réseaux de neurones utilisé dans cette thèse . . . . . . . . . 7
1.3 La commande adaptative . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3.1 Principe de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4 La commande adaptative neuronale . . . . . . . . . . . . . . . . . . . . . . 9
1.5 Stabilité des systèmes dynamiques . . . . . . . . . . . . . . . . . . . . . . 9
1.5.1 Méthode de Lyapunov . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.5.2 La seconde méthode de Lyapunov . . . . . . . . . . . . . . . . . . 10
1.6 La commande back-stepping . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.7 Commande back-stepping adaptative . . . . . . . . . . . . . . . . . . . . . 11
1.7.1 L’algorithme de base . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.8 La commande par surface dynamique (DSC : dynamic surface control) 15
1.9 La commande adaptative DSC . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.9.1 Algorithme de base . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.10 Non-linéarité d’actionneur . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.10.1 La zone-morte (Dead-Zone) . . . . . . . . . . . . . . . . . . . . . . 18
1.10.2 La saturation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

5
CHAPITRE 1. ASPECTS THÉORIQUES DE LA COMMANDE NON LINÉAIRE

1.11 Notations et préliminaires . . . . . . . . . . . . . . . . . . . . . . . . . . . 20


1.11.1 Fonction de Nussbaum . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.11.2 Théorème de la valeur moyenne (MVT) . . . . . . . . . . . . . . . 21
1.12 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

6
1.1. INTRODUCTION

1.1 Introduction
a plupart des systèmes industriels sont complexes, difficilement modélisables et

L présentent de fortes non linéarités et entachés de perturbations structurelles et


externes.
Ce chapitre est consacré à la présentation des différents aspects théoriques de la com-
mande adaptative à base de réseaux de neurones pour des systèmes non linéaires.
Étant donné leur importance pour les développements subséquents, la méthode du
back-stepping et de la commande par surface dynamique (dynamic surface control :
DCS) en particulier, bénéficieront de beaucoup d’attention. La stabilité des systèmes
dynamiques sera également abordée. Par la suite, on présentera quelques rappels sur les
non-linéarités de l’actionneur et quelques théorèmes tel que celui de la valeur moyenne,
et lemmes relatifs à la fonction de Nussbaum qui se trouve très utiles pour la mise en
œuvre de la loi de commande ainsi que pour l’analyse de la stabilité.

1.2 Les réseaux de neurones (neural networks NNs)


La conception des modèles neuronaux a commencé depuis 1943 avec les travaux de
McCulloch et Pitts [1]. Ces deux chercheurs ont étudié les capacités d’interconnexion
de plusieurs composants en se basant sur le modèle d’un neurone biologique. D’une
manière générale, un réseau de neurones (neural networks NNs) peut être défini comme
un réseau complexe constitué d’unités de calcul élémentaires (les neurones formels
interconnectés). Chaque neurone reçoit des informations qui peuvent être les entrées
du modèle dans le cas de modélisation, les sorties désirées ou les erreurs de commande
dans le cas de la mise en œuvre d’un contrôleur neuronal.

1.2.1 Les réseaux de neurones utilisé dans cette thèse


Les réseaux de neurones ont été fréquemment utilisés comme une fonction d’approxi-
mation [2]. Dans cette étude, le réseau de neurones linéaire par rapport au vecteur de
poids synaptiques W , et doté d’une seule couche cachée dont la fonction d’activation tan-
gente hyperbolique est choisie sera utilisé pour approcher les dynamiques non linéaires
incertaines et pour générer les lois de commande robustes et adaptatives. La sortie du
réseau de neurones utilisé dans le cadre de cette thèse, est donnée par :

(1.1) fˆ( Z /Ŵ ) = Ŵ T S ( Z )

7
CHAPITRE 1. ASPECTS THÉORIQUES DE LA COMMANDE NON LINÉAIRE

où Z ∈ Ω Z ⊂ ℜm est l’entrée de NNs, Ŵ ∈ ℜ N est le vecteur de paramètres à ajuster, et N


est le nombre de nœuds du réseau de neurone, S ( Z ) = [ s 1 ( Z ) , . . . , s N ( Z )]T est le vecteur
de la fonction d’activation de forme sigmoïde de type tangente hyperbolique et donnée
par l’équation suivante :
³ ´³ ´
(1.2) s i ( Z ) = 1 − e − Z / 1 + e − Z , i = 1, . . . , N

Selon la propriété d’approximation du NNs, les systèmes neuronaux peuvent appro-


cher toute fonction continue non linéaire f ( Z ) : ℜ+ → ℜ avec exactitude arbitraire, sur
un ensemble compact Ω comme suit :

(1.3) f ( Z ) = W T S ( Z ) + ε( Z )

avec ε ( Z ) représentant l’erreur d’approximation neuronale, W est le vecteur paramètre


optimale de Ŵ , si N est suffisamment grand, l’erreur d’approximation est bornée par
ε̄ > 0, c’est à dire

(1.4) |ε( Z )| ≤ ε̄

D’après les résultats de l’approximation universelle de NNs étudié dans [3], il est
montré que la constante ε̄ est rendue arbitrairement petite en augmentant le nombre de
nœuds N du NNs.
Dans ce travail on suppose que la structure du réseau de neurones et leurs paramètres
sont correctement spécifiés par l’utilisateur à priori. Cela veut dire que la décision de
l’utilisateur est nécessaire pour régler la structure du NNs et les paramètres de NNs
seront ajustés en ligne par des algorithmes d’adaptation.

1.3 La commande adaptative

1.3.1 Principe de base


La commande adaptative est un ensemble de techniques utilisées pour l’ajustement
automatique en ligne des paramètres du régulateur afin de réaliser ou de maintenir un
certain niveau de performances quand les paramètres du procédé à commander vari
dans le temps [4]. En principe, un système de commande adaptative mesure un certain
indice de performance (IP) du système à commander à partir de l’écart entre l’indice de
performance désiré et l’indice de performance mesuré. Les paramètres du régulateur
sont adaptés de manière à poursuivre le système dans son évolution [4].

8
1.4. LA COMMANDE ADAPTATIVE NEURONALE

1.4 La commande adaptative neuronale


Dans cette stratégie de contrôle, les réseaux de neurones sont introduits, en bénéfi-
ciant de leur propriété d’approximation universelle, pour développer des systèmes de
commande adaptative selon deux approches. Dans la première approche par exemple
dans [5–7], dite adaptative indirecte, généralement deux réseaux de neurones sont utili-
sés pour approcher les non linéarités du système non linéaires à commander. Une loi de
commande est alors déduite à partir de ces approximations
Dans la deuxième approche par exemple dans [8, 9], dite adaptative directe, un seul
réseau de neurones est utilisé pour approcher directement une loi de commande idéale
sous certaines contraintes sur le gain de commande et ou sur sa dérivé. Dans les deux
approches citées dans la littérature, la méthode de Lyapunov directe est utilisée pour
analyser la stabilité du système de commande. En se basant sur cette méthode, une
fonction de lyapunov est construite à partir de l’erreur de poursuite et ses dérivées ainsi
que l’erreur d’adaptation des poids des réseaux de neurones. Par conséquence, les lois
d’adaptation des réseaux sont directement tirées à partir de cette analyse pour remplir
les conditions de stabilité de lyapunov.

1.5 Stabilité des systèmes dynamiques


La notion de stabilité d’un système dynamique caractérise le comportement de ses
trajectoires autour de son point d’équilibre, c’est à dire, la capacité à revenir à sa position
d’équilibre lorsqu’il est ponctuellement écarté. L’analyse de la stabilité d’un système
dynamique permet donc d’étudier l’évolution de ses trajectoires d’état lorsque l’t́at
initial est proche d’un point d’équilibre. Dans la littérature, plusieurs approches ont été
proposées : les méthodes d’analyse qualitative, les méthodes géométriques, la théorie
d’hyperstabilité de Popov, la théorie de Lyapunov, les versions floues des LMI (Linear
Matrix Inequalities). La stabilité au sens de Lyapunov est une théorie générale valable
pour toute équation différentielle.

1.5.1 Méthode de Lyapunov

La méthode de Lyapunov [10] permet d’étudier la stabilité des systèmes complexes


qui sont décrits par des systèmes différentiels. Il existe deux approches possibles pour
démontrer la stabilité du système :

9
CHAPITRE 1. ASPECTS THÉORIQUES DE LA COMMANDE NON LINÉAIRE

[Link] La première méthode de Lyapunov

Le théorème de stabilité locale de Lyapunov, connue sous le nom de la première


méthode, permet de se prononcer sur la linéarisation d’une dynamique autour d’un point
d’équilibre. Cette méthode apporte une validité théorique à la technique de linéarisation.
Elle mentionne que si le système linéarisé est asymptotiquement stable, alors il y a
stabilité asymptotique. Dans le cas où le système linéarisé est instable, il y a instabilité.
Ce théorème est d’une importance limitée, car il ne permet d’étudier que la stabilité
d’un point singulier (stabilité locale) et ne donne aucune information sur le domaine
de stabilité (stabilité globale) [11]. De plus, dû aux approximations du premier degré
(linéarisation), il n’est pas possible de tenir compte de tous les types de phénomènes
non-linéaires (organe avec zone morte. . .).

1.5.2 La seconde méthode de Lyapunov

Cette méthode est basée sur le concept d’énergie dans un système. Pour un système
physique, l’énergie est une fonction définie positive de son état. Dans un système conser-
vatif, l’énergie reste constante ; pour un système dissipatif, elle décroît. Pour ces deux cas,
le système est stable. Si l’énergie croît, le système est instable. L’idée de cette méthode
est d’analyser la stabilité du système, sans avoir à résoudre explicitement les équations
différentielles non linéaires le régissant. Il suffit simplement d’étudier les variations
(signe de la dérivée) de l’énergie (ou une fonction qui lui est équivalente) le long de la
trajectoire du système.
Contrairement à la première méthode, la seconde méthode donne plus d’informations au
niveau de la stabilité. Elle a l’avantage de ne pas se limiter à la prédiction des points
d’équilibre, mais bien d’une région d’attraction autour de ces points d’équilibre. Pour
l’étude de la stabilité d’un système caractérisé par un vecteur d’état x, la méthode directe
et indirect de Lyapunov consiste alors, à chercher une fonction V ( x) (représentative de
l’énergie) de signe défini qui se prête à l’application des théorèmes suivants :

Théorème 1.1. [10] Soit V ( x, t) : ℜn ×ℜ+ → ℜ+ une fonction continue de classe C 1 . La


fonction V est dite fonction de Lyapunov si elle satisfait les conditions suivantes :
a)∀ t ∈ ℜ+ , ∀ x ∈ ℜn , x 6= 0, V ( x, t) > 0
b)∀ t ∈ ℜ+ , V̇ ( x, t) 6 0
c)∀ t ∈ ℜ+ , lim x→∞ V ( x, t) = ∞

10
1.6. LA COMMANDE BACK-STEPPING

La dérivée de la fonction de Lyapunov est définie par :


¸T
∂V ∂V
·
(1.5) V̇ ( x, t) = ( x, t) + ( ) f ( x, t)
x, t
∂t ∂x

£ ∂V ¤ h iT
où ∂x ( x, t) = ∂∂xV1 ( x, t) , . . . , ∂∂xVn ( x, t) est le gradient de V ( x, t)/ x
Si V̇ ( x, t) < 0 , alors le système est asymptotiquement stable.

1.6 La commande back-stepping


La commande back-stepping est une technique qui prend en charge la nature non
linéaire du système et qui s’appuie sur l’utilisation d’un modèle obtenu à partir des
lois physiques. Il est utile de noter que la stabilité de cette technique est basée sur
l’utilisation de la fonction de Lyapunov [12].
Les objectifs du back-stepping consistent à utiliser les états du système comme com-
mande virtuelle avant de synthétiser la commande effective. Elle offre une approche
systématique pour effectuer la conception d’un contrôleur pour les systèmes non linéaires
subdivisé en sous systèmes où la loi de commande apparaît à la dernière étape de l’algo-
rithme. Lors des étapes intermédiaires, la stabilité du système non linéaire est traitée de
proche en proche. La stabilité globale est traitée en dernière étape. Selon la connaissance
ou non des paramètres du modèle, deux variantes de cette commande peuvent être
élaborées : commande back-stepping non adaptative et adaptative.
Cependant, les modèles réels des systèmes physiques sont caractérisés par des para-
mètres (masses, inductances,...) qui sont peu connus ou variants dans le temps. Si ces
paramètres varient dans un intervalle important, il serait mieux d’employer une loi
d’adaptation pour les estimer convenablement.

Dans ce qui suit, nous allons rappeler l’algorithme de base de la commande back-
stepping adaptative [13, 14].

1.7 Commande back-stepping adaptative


Dans cette section la procédure de conception du contrôle adaptatif non linéaire
est présenté où le nombre des paramètres à estimer égal au nombre de paramètres
inconnus. Les systèmes commandés par cette procédure possèdent des propriétés de
stabilité robuste.

11
CHAPITRE 1. ASPECTS THÉORIQUES DE LA COMMANDE NON LINÉAIRE

1.7.1 L’algorithme de base


Comme c’est le même cas pour la plupart des commandes non linéaires, l’application
de la technique back-stepping est limitée à certaines classes de systèmes sous une
certaine forme triangulaire [13, 14]. Afin d’illustrer le principe de la méthode du back-
stepping, on considère le cas des systèmes non linéaires de la forme générale suivante :

ẋ1 = x2 + ϕ1T ( x1 )θ
ẋ i = x i+1 + ϕTi ( x1 , . . . , ( xn−1 ))θ , i = 2, . . . , n − 1
ẋn = bu + ϕT
n ( x)θ

(1.6) y = x1

où x = [ x1 , ..., x i ]T , ϕ i : ℜ i → ℜ p est un vecteur de fonctions lisses, et θ ∈ ℜ p est un vecteur


de coefficients constants. La commande u est multipliée par le constant b, avec b 6=
0, ∀ x ∈ ℜn . Si le but est d’atteindre la trajectoire désirée xd en utilisant l’état x1 , alors
l’algorithme du back-stepping peut être utilisé pour la stabilisation globale asymptotique
de l’erreur primaire du système (on note l’erreur primaire par z ∈ ℜn ). Puisque le vecteur
θ est inconnu, le système est alors augmenté par la dynamique de l’estimateur θ̂ . Une
version algorithmique adaptative du back-stepping est utilisée dans ce cas dans le
but d’avoir une stabilité globale et asymptotique de l’erreur primaire du sysème. Le
changement de variable adopté est décrit par les expressions :

(1.7) z1 = x1 − xd
(1.8) z i = x i − α i−1 − xdi−1 , i = 2, 3, . . . , n

où α i est la commande virtuelle. L’algorithme de la procédure back-stepping adaptative


est illustré à travers l’enchainement des étapes de l’algorithme suivant :
Étape 1 : On considère la première équation de (1.6), la variable d’éétat x1 est traitée
comme une commande virtuelle. La dérivée de l’erreur de poursuite z1 est donnée par

ż1 = ẋ1 − ẋd


(1.9) = z2 + α1 + ϕ1T ( x1 )θ

La première fonction stabilisante α1 est conçue comme suit :

(1.10) α1 = − c 1 z1 − ϕ1T ( x1 )θ̂

12
1.7. COMMANDE BACK-STEPPING ADAPTATIVE

où c 1 est une constante positive. La tâche dans cette étape est de réaliser la poursuite
x1 → xd en considérant la fonction de Lyapunov
1 2
(1.11) V1 = z + θ̃ T Γ−1 θ̃
2 1
où Γ est une matrice définie positive et θ̃ = θ − θ̂ . Puis le dérivé de V1 est

V̇1 = z1 ż1 + θ̃ T Γ−1 θ̂˙


= z1 ( z2 + α1 + ϕ1T ( x1 )θ̂ ) − θ̃ T (Γ−1 θ̂˙ − ϕ1 z1 )
(1.12) = − c z2 + θ̃ T (τ − Γ−1 θ̂˙ ) + z z
1 1 1 1 2

(1.13) τ1 = ϕ1 z1

Étape 2 : On considère la première équation de 1.6, en considérant la variable d’état


x3 comme une commande virtuelle. Avec 1.7 la dérivée de l’erreur de poursuite z2 est
donnée par

ż2 = ẋ2 − α̇1 − ẍd


∂α1 ³ ´ ∂α
1 ˙ ∂α1
= x3 + ϕ2T θ − x2 + ϕ1T θ − θ̂ − ẋd − ẍd
∂ x1 ∂θ̂ ∂ xd
∂α1 ∂α1 ∂α1 ˙ ∂α1
(1.14) = z3 + α2 − x2 + (ϕ2 − ϕ1 )T θ − θ̂ − ẋd
∂ x1 ∂ x1 ∂θ̂ ∂ xd
La tâche dans cette étape est de stabiliser ( z1 , z2 ) système (1.9) et (1.14). La fonction de
Lyapunov est choisie comme suit :
1
(1.15) V2 = V1 + z22
2
La commande virtuelle α2 est sélectionnée comme suit :
∂α1 ∂α1 ∂α1 ∂α1
µ ¶
T
(1.16) α2 = − z1 − c 2 z2 − x2 + θ̂ ϕ2 − ϕ1 − τ2 − ẋd
∂ x1 ∂ x1 ∂ θ̂ ∂ xd
∂α1
µ ¶
(1.17) τ2 = τ1 + ϕ2 − ϕ1 z2
∂ x1
où c 2 est une constante positive. Le dérivé de V2 est

∂α1 ∂α1 ∂α1 ∂α1


µ µ ¶ ¶
T
V̇2 = − c 1 z12 + z2 z3 + α2 + z1 − x2 + θ̂ ϕ2 − ϕ1 − τ2 − ẋd
∂ x1 ∂ x1 ∂θ̂ ∂ xd
∂α1 ∂α1 ˙ ∂α1 ∂α1
µ µ ¶ ¶
T −1 ˙
− x2 − θ̂ − ẋd + θ̃ τ1 + ϕ2 − ϕ1 z2 − Γ θ̂
∂ x1 ∂θ̂ ∂ xd ∂ x1
∂α1 ³
Γτ2 − θ̂˙ + θ̃ T τ2 − Γ−1 θ̂˙
´ ³ ´
(1.18) = − c 1 z12 − c 2 z22 + z2 z3 + z2
∂θ̂

13
CHAPITRE 1. ASPECTS THÉORIQUES DE LA COMMANDE NON LINÉAIRE

Étape i : En répétant la procédure de manière récursive, nous en déduisons la i i ème


erreur de poursuite de z i
à !
iX
−1 ∂α i−1 iX
−1 ∂α i−1
ż i = = z i+1 + α i − x j+1 + θ T ϕ i − ϕj
j =1 ∂x j j =1 ∂x j
∂α i−1 ˙ iX −1 ∂α
i −1 ( j)
(1.19) − θ̂ − x
( j −1) d
∂θ̂ j =1 ∂ x d

La commande virtuelle α i est sélectionnée comme suit :

à !
iX
−1 ∂α i−1 iX
−1 ∂α i−1 ∂α i−1
T
α i = − z i−1 − c i z i − x j+1 + θ̂ ϕi − ϕj + Γτ i
j =1 ∂x j j =1 ∂x j ∂θ̂
à ! à !
iX
−1 ∂α i−1 iX
−1 ∂α i−1 iX
−1 ∂α i−1 ( j)
(1.20) + zj Γ ϕi − ϕj + x
j =1 ∂θ̂ j =1 ∂x j ( j −1) d
j =1 ∂ x d
à !
iX
−1 ∂α i−1
(1.21) τ i = τ i−1 + ϕ i − ϕ j zi
j =1 ∂x j

Avec la fonction Lyapunov

1
(1.22) Vi = Vi−1 + z2i
2

La dérivée de Vi est donnée comme suit :

à !
iX
−1 iX
−1 ∂α i−1 ³
Γτ i − θ̂˙ + θ̃ T τ i − Γ−1 θ̂˙
´ ³ ´
(1.23) V̇i = c j z2j + z i z i+1 +
j =1 j =1 ∂θ̂

Étape n :L’entrée de la commande réelle u apparaît. Nous dérivons l’erreur z n


à !
nX
−1 ∂α nX
−1 ∂α ∂αn−1 ˙
n−1 T n−1
ż n = bu + x j+1 + θ ϕn − ϕj − θ̂
j =1 ∂x j j =1 ∂x j ∂θ̂
nX
−1 ∂αn−1 ( j)
(1.24) − x − x(n)
( j −1) d d
j =1 ∂ x d

Dans la dernière étape on peut concevoir la commande réelle u et les lois d’adaptations θ̂˙
et p̂˙ comme suit

14
1.8. LA COMMANDE PAR SURFACE DYNAMIQUE (DSC : DYNAMIC SURFACE
CONTROL)

(1.25) u = p̂ ū
(1.26) ū = αn + x(n)
d
(1.27) ˙
θ̂ = Γτn
(1.28) p̂˙ = −γ si gn( b) ūz n

où γ est une constante positive et p̂ est l’estimation de p = 1b . Notons que

(1.29) u = b p̂ ū = ū − b p̃ ū

où p̃ = p − p̂. On choisi la fonction de Lyapunov


| b| 2
Vn = Vn−1 + p̃

nX
−1 1 | b| 2
(1.30) = z12 + θ̃ T Γ−1 θ̃ + p̃
j =1 2 2γ
Le choix des lois d’adaptations permet de simplifier la dérivée de la fonction de Lyapunov
Vn à :
à !
n n ∂α i−1 ³
Γτn − θ̂˙
´
c i z2i +
X X
V̇n = − zn
i =1 j =2 ∂θ̂
| b| ¡
θ̃ T τn − Γ−1 θ̂˙ +
³ ´
p̃ p̂˙ + γ si gn( b) ūz n
¢
+
γ
n
c i z2i
X
(1.31) = −
i =1

à partir de laquelle on peut déduire la stabilité asymptotique des erreurs. Selon les
équations ci-dessus définissant le contrôleur et les lois d’adaptations, on peut voir
clairement l’explosion de complexité impliquée par l’utilisation de plusieurs entrées de
commande virtuelles avec leurs dérivées compliquées, ainsi que de nombreux paramètres
de conception. Il est important de noté que le calcul précis des commandes virtuelles α̇ i
n’est pas simple, en particulier pour les systèmes d’ordre élevé en raison des dérivées
partielles successives des paramètres d’adaptations.

1.8 La commande par surface dynamique (DSC :


dynamic surface control)
L’utilisation de la commande par back-stepping est problématique en raison d’une
"explosion de complexité" dans la loi de commande. Une autre méthode de synthèse

15
CHAPITRE 1. ASPECTS THÉORIQUES DE LA COMMANDE NON LINÉAIRE

de la commande pour les systèmes triangulaires appelée la commande par surface de


glissement multiple (MSS : Multiple Sliding Surface) a été développée indépendamment
de la commande par back-stepping mais elle est mathématiquement très semblable au
back-stepping [15, 16]. La méthode MSS a le même problème que la commande par
back-stepping parce qu’elle mène aussi à une explosion de complexité. Afin d’éviter
l’inconvénient de la commande par back-stepping et MSS, une technique de commande
non linéaire appelée DSC (dynamic surface control) a été développée par [17–19]. La
méthode de commande DSC se compose fondamentalement de MSS et de séries de filtres
passe-bas du premier ordre. En raison des caractéristiques du MSS, la méthode DSC
évite le problème de l’explosion de complexité.

1.9 La commande adaptative DSC


L’existence des gains de DSC et des constantes de temps des filtres pour la stabilité
semi-globale a été théoriquement prouvée dans [17], et elle a été prolongée à la commande
adaptative d’une classe spécifique des incertitudes paramétriques [20]. Pour un choix
systématique des gains des surfaces et les constantes de temps des filtres, une approche
est présentée dans [21] pour le cas non adaptatif.

1.9.1 Algorithme de base


Dans cette section, nous considérons les systèmes non linéaires décrits par la forme
triangulaire paramétrique suivante :

ẋ1 = x2 + ϕ1T ( x1 )θ1


ẋ i = x i+1 + ϕTi ( x1 , . . . , ( xn−1 ))θ i , i = 2, . . . , n − 1
ẋn = u + ϕT
n ( x )θ n

(1.32) y = x1

où, x = [ x1 , ..., x i ]T ∈ ℜn , est le vecteur des variables d’état du système, u ∈ ℜ est l’entrée
de commande du système. θ i ∈ ℜn est le vecteur des paramètres constants inconnus
x̄ i = [ x1 , ..., x i ]T , ϕ i ( x̄ i ) : ℜ i → ℜ p sont des fonctions non linéaires connues. La procédure
de conception se déroulera en plusieurs étapes.
Étape 1 :Nous définissons la première surface :

(1.33) S 1 = x1 + x1d

16
1.9. LA COMMANDE ADAPTATIVE DSC

dont la dérivée temporelle est :

(1.34) Ṡ 1 = ẋ1 + ẋ1d

Nous choisissons x̄2 pour que S 1 tend vers zéro avec :

(1.35) x̄2 = −ϕ1T θ̂1 + ẋ1d − K 1 S 1

Nous filtrons x̄2 par un filtre du premier ordre, avec une constante de temps τ2 pour
obtenir x1d :

(1.36) τ2 ẋ2d + x2d = x̄2 , x2d (0) = x̄2 (0)


1 ³ ´
(1.37) ẋ2d = − x2d − ϕ1T θ̂1 + ẋ1d − K 1 S 1
τ2

Étape i(i=1,. . .,n-1 :Nous définissons la i i ème surface

(1.38) S i = x i + x id

dont la dérivée temporelle est

Ṡ i = ẋ i + ẋ id
(1.39) = x i+1 − ϕTi θ̂ i + ẋ id

Nous choisissons x̄ i+1 pour que S i tend vers zéro avec :

(1.40) x̄ i+1 = −ϕTi θ̂ i + ẋ id − K i S i

Nous filtrons x̄ i+1 par un filtre du premier ordre, avec une constante de temps τ i+1 pour
obtenir x i+1d :

(1.41) τ i+1 ẋ i+1d + x i+1d = x̄ i+1 , x i+1d (0) = x̄ i+1 (0)


1 ³ ´
(1.42) ẋ i+1d = − x i+1d − ϕTi θ̂ i + ẋ id − K i S i
τ i+1

Étape n :Nous définissons la n i ème surface

(1.43) S n = xn + xnd

dont la dérivée temporelle est

Ṡ n = ẋn + ẋnd
(1.44) = u − ϕT
n θ̂ n + ẋ nd

17
CHAPITRE 1. ASPECTS THÉORIQUES DE LA COMMANDE NON LINÉAIRE

Nous choisissons la loi de commande u pour que S n tend vers zéro avec :

(1.45) u = −ϕ T
n θ̂ n + ẋ nd − K n S n

Les lois d’adaptation des paramètres estimés sont données comme suit :

(1.46) θ̂˙ 1 = Γ1 S 1 ϕ1T ( x1 )


(1.47) θ̂˙ i = Γ i S i ϕT
i ( x̄1 ), i = 2, . . . , n − 1

(1.48) θ̂˙
n = Γ S ϕ T ( x)
n n n

où Γ i > 0( i = 1, . . . , n) sont les paramètres de conception. Ce qui est beaucoup plus simple
que les méthodes précédents.

1.10 Non-linéarité d’actionneur


Il est bien connu qu’en pratique tous les systèmes dynamiques sont soumis à des
limitations sur leurs entrées dues à des contraintes physiques inhérentes au système
ou bien à des limitations sur les actionneurs. Ces limitations sont modélisées par des
non-linéaritées de type saturation, ainsi que la fonction zone morte, puisqu’elle présente
un grand intérêt pratique.

1.10.1 La zone-morte (Dead-Zone)


La non-linéarité de type zone-morte est une fonction non différentiable qui décrit
l’insensibilité du composants à de petits signaux et constitue l’une des plus importantes
non-linéarités dans de nombreux systèmes physiques. Par exemple, certains composants
mécaniques et électriques, tels que les vannes et les servomoteurs à courant continu,
possèdent tous des entrées en zone morte. Il est bien connu que la présence d’une telle
non-linéarité peut causer l’instabilité du système en boucle fermée et la détérioration
grave de ses performances. Mathématiquement, la zone-morte peut être décrite par (voir
la figure 1.1) :

 m r ( v( t) − b r ) si v( t) > b r


(1.49) u ( v) = o si b r ≤ v( t) ≤ b l


 m ( v( t) − b ) si v( t) < b l
l l

où b r > 0, b l < 0, m r > 0, m l > 0 sont respectivement les paramètres et les pentes de la
zone morte.

18
1.10. NON-LINÉARITÉ D’ACTIONNEUR

F IGURE 1.1: La fonction de la zone morte.

1.10.2 La saturation

La saturation a été toujours un problème important pour les systèmes de commande,


du fait que tous les actionneurs se saturent à un certain niveau. Lorsqu’un actionneur
atteint ces limites, on dit qu’il est saturé et aucune tentative visant à accroître le signal
de commande ne donne un résultat.
Mathématiquement, la saturation peut être décrite par :


 vmax si v( t) > vmax


(1.50) u(v) = sat(v ( t)) = v si vmin ≤ v( t) ≤ vmax


 vmin si v( t) < vmin

avec vmax et vmin sont des valeurs connues de la saturation de l’entrée v. La fonction de
saturation est notée sat( u ( t)) et peut être représentée par la figure (1.2).
Les effets indésirables que peut causer la saturation sur les systèmes de commande
sont la dégradation des performances de commande comme les grands dépassements
et les cycles limite. Dans le pire des cas, elle peut causer une instabilité du schéma de
commande.

19
CHAPITRE 1. ASPECTS THÉORIQUES DE LA COMMANDE NON LINÉAIRE

F IGURE 1.2: Structure de la fonction saturation.

1.11 Notations et préliminaires

1.11.1 Fonction de Nussbaum


Pour développer des lois de commande où il est considéré que le signe du gain
de commande est inconnu, on utilise la technique de la fonction de Nussbaum. Cette
technique était proposée dans [22, 23]. Une fonction continue et dérivable N (ζ) définie
sur [0, ∞) est dite fonction (ou gain) de Nussbaum si elle vérifie
Z s
(1.51) 1) lim su p(1/ s) N (ζ) d ζ = +∞
s→∞ 0

Z s
(1.52) 2) lim in f (1/ s) N (ζ) d ζ = −∞
s→−∞ 0

Ces propriétés sont exploitées dans la démonstration de stabilité.


2
Par exemple les fonctions continues : ζ → eζ cos( π2 ζ), ζ → ζ2 cos(ζ) sont des fonctions
¡ ¢

Nussbaum.
Dans cette thèse la fonction utilisée est N (ζ) = ζ2 cos(ζ).

Lemme 1.1. ([22, 23]) soient V ( t) et ζ( t) deux fonction continue définies sur [0, t f , avec
¢

V ( t) > 0, ∀ t ∈ [0, t f et N (ζ) est une fonction continue de type Nussbaum. Si l’inégalité
¢
¢
suivante est vérifiée pour ∀ t ∈ [0, t f ,
Z t
(1.53) V ( t) ≤ c 0 + e c1 t
( g (τ) N (ζ (τ)) + 1)ζ̇ (τ) e c1 τ d τ
0

20
1.12. CONCLUSION

avec c 0 et ch1 sont


i constants positives, et g (.) prend ses valeurs dans l’intervalle fermée in-
Rt
connue I = l ,l avec 0 ∉ I , alors V ( t), ζ ( t), et 0 g (τ) N (ζ)ζ̇ d τ sont bornées sur l’intervalle
¢
[0, t f .

Lemme 1.2. ([23]) En supposant que 0 6 t f 6 ∞ ainsi que x : 0, t f → ℜ N est la solution


£ ¤

de système en boucle fermée. Si x est la solution bornée, donc t f = ∞.

1.11.2 Théorème de la valeur moyenne (MVT)


Soit f ( x, u) une fonction continue et intégrable, alors il existe une constante θ , avec
θ ∈ (0, 1), telle que la fonction non linéaire f ( x, u) peut être exprimée autour u0 comme
suit [24] :

f ( x, u) − f x, u0 = f uθ u − u0
¡ ¢ ¡ ¢
(1.54)

∂ f (x,u) ¯
¯
où f uθ = ∂ u ¯ u= uθ
avec uθ = u.θ + (1 − θ ) u0 .
En utilisant la technique de linéarisation, l’expression (1.54) peut être réécrite comme
suit :

4 ( x, u) − 4 x, u0 = ( f uθ − c) u − u0
¡ ¢ ¡ ¢
(1.55)

1.12 Conclusion
Dans ce chapitre, nous avons présenté les concepts de la commande adaptative
neuronale pour des systèmes non linéaires, et nous avons aussi montré que les systèmes
neuronaux, en général, ont la propriété d’approximation universelle. En fait, ils peuvent
estimer n’importe quelle fonction non linéaire continue définie sur un ensemble compact.
Ensuit, nous avons attaché une importance à la commande back-stepping et la commande
DSC associéesà la commande adaptative. Un rappel sur les deux types de back-stepping
adaptative et non adaptative ainsi que un rappel sur DSC ont été établi afin de mettre
en relief ces techniques.
Par ailleurs, un ensemble de définitions relatives à l’analyse de la stabilité, également
des lemmes et des théorèmes ainsi que les non-linéarités de l’actionneur, qui sont très
utiles pour la conception de la commande ont été rappelés.

21
CHAPITRE
2
C OMMANDE ADAPTATIVE NEURONALE DES SYSTÈMES
NL SISO DE LA FORME STRICT- FEEDBACK

Sommaire
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.2 Système NL strict-feedback avec une saturation de l’entrée et perturba-
tion externe et avec gain de commande inconnu . . . . . . . . . . . . . . 28
2.2.1 Position du problème . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.2.2 La transformation du système et dynamique des erreurs . . . . 31
2.2.3 Conception de l’observateur . . . . . . . . . . . . . . . . . . . . . . 34
2.2.4 Conception d’un mécanisme de déclenchement par événement . 35
2.2.5 Analyse de la stabilité . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.2.6 Résultats de simulation . . . . . . . . . . . . . . . . . . . . . . . . 40
2.3 Système NL strict-feedback avec des non linéarités de l’entrée et contrainte
sur la sortie et avec le gain de commande constant . . . . . . . . . . . . . 49
2.3.1 Position du problème . . . . . . . . . . . . . . . . . . . . . . . . . . 49
2.3.2 La fonction de performance prescrite . . . . . . . . . . . . . . . . 49
2.3.3 Conception de la commande avec une zone morte sur l’entrée . 53
2.3.4 Analyse de la stabilité . . . . . . . . . . . . . . . . . . . . . . . . . 55
2.3.5 Résultats de simulation . . . . . . . . . . . . . . . . . . . . . . . . 58
2.3.6 Conception de la commande avec un équivalent de la saturation
de l’entrée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62

23
CHAPITRE 2. COMMANDE ADAPTATIVE NEURONALE DES SYSTÈMES NL SISO
DE LA FORME STRICT-FEEDBACK

2.3.7 Analyse de la stabilité . . . . . . . . . . . . . . . . . . . . . . . . . 64


2.3.8 Résultats de simulation . . . . . . . . . . . . . . . . . . . . . . . . 67
2.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68

24
2.1. INTRODUCTION

2.1 Introduction

ans ce chapitre, le problème de la commande des systèmes NL sous la forme

D strict-feedback sera étudiée tout en considérant que les entrées sont assujetties
à des contraintes de type saturation et zone morte, ainsi que la présence de
perturbation externes. Il est bien connu que lorsque la commande est conçue sans tenir
compte de la non linéaritée qui affecte l’actionneur, la performance du système, en boucle
fermée, peut être sérieusement détériorée voire même provoquer son instabilité.

En effet, pour traiter le cas de la saturation, il existe une approche pratique est
systématique pour compenser cette dégradation de performance, qui consiste à augmen-
ter le système original par un sous-système spécifique, anti-wind-up [25–28]. Plusieurs
autres schémas de commande adaptative ont été étudiés dans [29–35] pour gérer la
contrainte de saturation en utilisant une fonction continue bornée inconnue de type
tangente hyperbolique afin d’approximer la fonction de saturation. Dans [28], un schéma
de commande à retour de sortie basé sur la combinaison de la technique back-stepping
et la logique floue a été présenté. Basé sur la combinaison de la perturbation externe et
de l’erreur d’approximation de la fonction de saturation, un contrôleur adaptatif robuste
a été développé dans [29].

Par ailleurs, la zone morte est l’une des non-linéarités les plus courantes dans
les actionneurs industriels et sa présence peut causer l’instabilité et détériorer les
performances des systèmes de commande.

Pour traiter le cas des contraintes de type zone-morte (dead-zone), qui peut limiter
sévérement les performances du système, la compensation via l’emploie de leurs inverses
s’avère la manière la plus naturelle[36]. Cependant, ceci ne peut être envisageable que si
les non-linéarités de la zone-morte sont exactement connues. La construction adaptative
de l’inverse de la zone-morte a été initialement étudiée dans [37, 38]. Une commande
adaptative floue par retour de sortie qui traite les entrées de la zone morte comme des
incertitudes du système, a été développé dans [39] . Dans [40], un contrôleur adaptatif
neuronal est conçu sur la base de n paramètres de NNs à mettre à jour en ligne, pour la
dynamique du CSTR. Dans [40, 41] les systèmes non linéaires non affines sous la forme
pure-feedback avec la contrainte de la zone morte non symétrique sont transformés en
un prédicteur à n-pas successifs, et des termes de commande adaptatifs compensateurs
sont utilisés pour compenser les paramètres de la zone morte. Ces résultats de recherche
sont récemment été combinés avec la technique d’approximation universelle utilisant
des réseaux de neurones (NNs) ou systèmes flous dans [2] et [42], respectivement.

25
CHAPITRE 2. COMMANDE ADAPTATIVE NEURONALE DES SYSTÈMES NL SISO
DE LA FORME STRICT-FEEDBACK

Dans tous les schémas de commande adaptatifs susmentionnés, la technique de


back-stepping a été appliquée, et le problème bien connu de l’eexplosion de complexité
est rencontré. La solution de ce problème est donnée par l’introduction de la méthode de
contrôle de surface dynamique (DSC) [17, 43–45] où un filtre du premier ordre à l’entrée
de chaque étape de l’approche de back-stepping traditionnelle est utilisé. Une conception
DSC adaptative par retour de sortie a été envisagée dans [46, 47] pour une classe des
systèmes incertains non linéaires strict-feedback avec la contrainte de saturation sur
l’entrée. En outre, cette méthode a été étendue è une classe de systèmes non linéaire
strict-feedback stochastiques avec commutation et sous contrainte dans [48]. Il est à
noter que la conception et la synthèse de la méthode DSC sont compliquées et passent
par de longues étapes pour les systèmes d’ordre élevé similaire à celle de la récursivité
du back-stepping. De plus, les lois d’adaptation impliquées dans DSC nécessitent un
nombre important de paramètres à mettre à jour en ligne, ce qui rend la loi de commande
ainsi que l’analyse de stabilité plus compliqués. Seulement, peu de résultats ont été
reportés sur la commande adaptative neuronale pour les systèmes sous la forme générale
strict-feedback sans l’utilisation des techniques back-stepping et DSC [49–51].

Il est important de mentionné que l’ingénierie pratique nécessite souvent que tout
algorithme de commande proposé satisfasse certaines qualités ou indices de performance,
tels que le dépassement, le taux de convergence et l’erreur en régime permanent. De
nombreux travaux existants ont été développés pour résoudre ce problème en utilisant
la fonction Barrière de Lyapunov (BLF), et ont démontré de garantir la satisfaction des
contraintes. Initialement, la BLF était proposée pour gérer les contraintes sur les états
des systèmes de type normal, dites de Brunovsky [52]. Dans [53, 54], BLF est montrée
pour être prometteuse pour gérer les contraintes de sortie symétriques et asymétriques
pour certaines classes de systèmes non linéaires, même avec des paramètres incertains.
Il existe une autre solution de conception basée sur la transformation de l’erreur de
poursuite. Originalement, cette méthode a été présentée dans le contexte de la commande
adaptative avec prescription de performances (prescribed performance control (PPC)[55,
56] [35,36]. En effet, dans [57], la transformation utilisée est basée sur la fonction
logarithme, cependant, dans [25, 58], c’est la fonction tangente hyperbolique qui est
utilisée.

Les algorithmes des travaux susmentionnés nécessitent un actionnement, en temps


réel, à chaque période déchantillonnage des signaux de commande aux actionneurs. Ceci
augmente la charge de communication et les coûts de transmission. Afin de réduire cette
charge, il existe une technique d’actionnement déclenché par événement (event-triggered

26
2.1. INTRODUCTION

control). Dans ce cas, la commande ne sera déclenchée que par un événement lorsque
certaines conditions, basées sur un état ou sur une sortie, sont réalisées et le signal de
commande sera maintenu constant jusqu’au prochain déclenchement de l’événement.
Des efforts importants ont été consacrés pour le développement des techniques d’ac-
tionnement déclenchées par événement. Des résultats ont été obtenus pour le contrôle
déclenché par événement pour les systèmes linéaires et non linéaires [59–66]. Dans
[62], cette stratégie est proposée pour les systèmes non linéaires, basé sur la stabilité
entrée/état (ISS input to state stability). Dans[63, 64], les auteurs ont étudié le schéma
de commande adaptatif avec retour de sortie et retour d’état, respectivement pour les
systèmes strict-feedback. Cependant, les résultats de la commande déclenché par un
événement, pour des systèmes non linéaires incertains, sont encore très limités, en
particulier lorsque ces systèmes sont soumis à une non-linéarité en entrée et à des
perturbations externes, ce qui motive notre travail exposé dans ce chapitre.

Dans la première partie de ce chapitre, un schéma de commande adaptatif neuronal


est proposé pour une classe de système SISO non linéaire complètement strict-feedback
avec saturation à l’entrée. Dans ce cadre, le mécanisme de déclenchement par événement
(event-triggering mechanism (ETM)) est exploité. En particulier, la stratégie à seuil
fixe est utilisée pour concevoir le mécanisme de déclenchement d’événement. Dans
l’approche proposée, la technique de back-stepping a été abandonnée afin d’éliminer le
problème de l’explosion de complexité. D’abord, par l’introduction d’une transformation
d’état et l’augmentation du système original par un filtre passe bas, les difficultés de
commander les systèmes non linéaires et avec saturation sur l’entrée ont été contourné
en convertissant le problème original en un problème de commande saturé sous la forme
affine de Brunovsky. Puis, un observateur basé sur la positivitée des systèmes (SPR) est
adopté pour estimer les états inconnus du nouveau système dérivé. Dans la conception
du contrôleur, les réseaux de neurones sont utilisés pour approximer les incertitudes
des non linéarités ainsi que pour compenser l’effet de la saturation sur l’entrée. Dans
cette approche, les lois de commande sont augmentées par des commandes additives
pour compenser l’influence des erreurs d’approximation neuronales, et afin d’assurer la
robustesse des structures de commande en présence des saturations sur l’entrée. Les
lois d’adaptation des paramètres des réseaux de neurones utilisent un algorithme dit
σ-modification [10] pour garantir la bornitude des paramètres. Finalement, La stabilité
du système en boucle fermée a été analysée au sens de Lyapunov pour prouver que
l’approche de la commande adaptative proposée peut garantir la bornitude des états du
système en boucle fermée, ainsi que les erreurs de poursuite convergent vers un petit

27
CHAPITRE 2. COMMANDE ADAPTATIVE NEURONALE DES SYSTÈMES NL SISO
DE LA FORME STRICT-FEEDBACK

voisinage de l’origine. De plus, les performances de poursuite du schéma de commande


sont illustrées par deux exemples de simulations.
Dans la deuxième partie de ce chapitre, la même classe de systèmes étudié dans la
première partie est considérée avec gain de commande constant et des contraintes sur la
sortie ainsi que des non linéarités sur l’entrée, en l’occurrence la zone morte. Dans cette
partie de travail, des exigences de performance en régime transitoire et régime établie
sont imposées sur la sortie du système. Dans une première approche, un terme de contrôle
robuste est introduit pour surmonter les effets de la zone morte sur l’entrée inconnue,
cependant, dans une deuxième approche, un compensateur additif est conçu pour réduire
l’influence de la saturation de l’actionneur. Dans la conception des contrôleurs, les
réseaux de neurones sont utilisés pour approximer les non linéarités incertaines, et des
compensateurs adaptatifs supplémentaires sont introduits pour faire face aux erreurs
d’approximation des NNs et aux perturbations externes. Pour assurer les performances
prescrites, à priori, sur la sortie du système, une transformation des contraintes est
introduite sur le modèle. Les contrôleurs adaptatifs neuronaux proposés sont conçus
avec un seul paramètre adaptatif en utilisant la deuxième mèthode de stabilité de
Lyapunov. En comparaison avec les techniques traditionnelles basées sur l’approche back-
stepping, communément utilisées dans la conception des commandes, les structures des
approches proposées sont beaucoup plus simples, avec peu de paramètres de conception
due à l’élimination des causes du problème de la complexité. Les performances de ces
commandes adaptatives proposées sont démontrées via un exemple de simulation du
système CSTR.

2.2 Système NL strict-feedback avec une saturation


de l’entrée et perturbation externe et avec gain
de commande inconnu

2.2.1 Position du problème


Considérons la classe suivante des systèmes non linéaires strict-feedback décrite
par :

ẋ i = f i ( x̄ i ) + g i ( x̄ i ) x i+1 , i = 1, . . . , n − 1
ẋn = f n ( x̄n ) + g n ( x̄n ) u(v) + d̄ ( x̄n , t)
(2.1) y = x1

28
2.2. SYSTÈME NL STRICT-FEEDBACK AVEC UNE SATURATION DE L’ENTRÉE ET
PERTURBATION EXTERNE ET AVEC GAIN DE COMMANDE INCONNU

où x̄ i = [ x1 , ..., x i ]T ∈ ℜ i , i = 1, . . . , n est le vecteur d’état complet qui est supposé disponible


pour la mesure, y ∈ ℜ est la sortie de système et d̄ ( t) est la perturbation externe bornée.
f i (.) et g i (.) sont des fonctions continues non affine inconnues. De plus, v est l’entrée de
la commande et u(v( t)) est la non-linéarité inconnue de l’actionneur qui est supposée ici :
une saturation.
Selon [29], la saturation sur l’entrée u(v( t)) peut être décrit par

(
sign(v( t)) u m |v( t)| > u m
(2.2) u(v) = sat(v) =
v( t) |v( t)| ≤ u m

où u m est un paramètre de saturation. Il est claire que, la relation entre la commande


appliquée u(v) et la commande d’entrée v( t) est un coin pointu, quand |v( t)| = u m , donc on
ne peut pas appliquer directement la commande proposée. Afin de faciliter la conception
de cette approche, la fonction saturation (2.2) est rapprochée par une fonction continue
g(v) dans la figure 2.1, comme suit

(2.3) sat (v ( t)) = g (v) + d (v)

Selon [29], la saturation peut être approximé par la fonction lisse suivante :

v
g(v) = u m tanh( )
um
exp( uvm ) − exp −( uvm )
(2.4) = um
exp( uvm ) + exp −( uvm )

Nous pouvons voir qu’il existe une erreur d (v) entre u(v( t)) et g (v). Alors, d (v) peut être
écrit comme as

(2.5) d (v) = sat (v ( t)) − g (v)

Par ce que tanh(.) est une fonction bornée, on a | d (v)| = |sat (v ( t)) − g (v)| ≤ u m (1 − tanh (.) )
est bornée comme prouve dans [29].

29
CHAPITRE 2. COMMANDE ADAPTATIVE NEURONALE DES SYSTÈMES NL SISO
DE LA FORME STRICT-FEEDBACK

F IGURE 2.1: Saturation u m tanh( uvm ) (traits discontinus) and sat(v( t)) (traits continus).

L’objective de la commande est de concevoir un déclenchement d’événement d’un


contrôleur adaptatif neuronale capable de forcer la sortie du système y( t) à suivre une
trajectoire de référence yd ( t) bornée bien déterminée, sous la contrainte que tous les
signaux impliqués soient bornés et .
Pour cela on détermine une loi d’adaptation pour ajuster le vecteur de paramètres tel
que les conditions suivantes soient satisfaites :

(i) Le système en boucle fermée doit d’être stable et robuste dans le sens ou toutes les
variables estimées soient uniformément bornées.

(ii) L’erreur de poursuite, doit être la plus petite possible.

Pour la conception des lois de commande adaptative pour le système strict-feedback, le


système (2.1) est réécrit comme

ẋ i = F i ( x̄ i , x i+1 ) + x i+1 , i = 1, . . . , n − 1
ẋn = F n ( x̄n , u(v)) + u(v) + d̄ ( x̄n , t)
(2.6) y = x1

où F i ( x̄ i , x i+1 ) = f i ( x̄ i ) + ( g i ( x̄ i ) − 1) x i+1 et F n ( x̄n , u(v)) = f n ( x̄n ) + ( g n ( x̄n ) − 1) u (v). Le sys-


tème (2.1) est utilisé pour concevoir l’observateur et le contrôleur dans la section suivante.
Pour assurer la réalisation de l’objectif de poursuite, Les hypothèses et lemmes suivants
sont considérés :

Hypothèse 2.1. Le gain de commande g i ( x̄ i , x i+1 ) est différent de zéro et de signe connu.

30
2.2. SYSTÈME NL STRICT-FEEDBACK AVEC UNE SATURATION DE L’ENTRÉE ET
PERTURBATION EXTERNE ET AVEC GAIN DE COMMANDE INCONNU

Hypothèse 2.2. La trajectoire désirée yd et ses dérivées jusqu’à l’ordre n sont connues,
continues et bornées et le vecteur Yd = [ yd , . . . , yd(n) ] où Yd ∈ Ωd ⊂ R n avec Ωd étant un
ensemble compact.

Lemme 2.1. ([26]) Pour ∀ς > 0 et ∀ q ∈ R l’inégalité suivante est valable

ς
µ ¶
(2.7) 0 ≤ | q| − qtanh ≤ κς
q

avec κ = 0.2785

Lemme 2.2. (Young’s inequality [67]) For ∀ ( x, y) ∈ R 2 , l’inégalité suivante est valable :

εp 1
(2.8) xy ≤ | x| p + | y| q ,
p pε q

avec ε > 0, p > 1, q > 1, and ( p − 1) ( q − 1) = 1

2.2.2 La transformation du système et dynamique des erreurs


Dans cette section, un schéma de commande adaptative à base de réseau de neurones
sera présenté. Pour améliorer la performance de poursuite, on développe un nouveau
schéma de commande pour surmonter les difficultés introduites par la cascade du système
strict-feedback saturé. En incorporant le système strict-feedback (2.6) avec un filtre passe
bas est converti en un systm̀e affin strict-feedback dans une forme normale mais avec les
états indisponible pour la rétroaction. Alors, le système (2.1) devient :

ẋ i = F i ( x̄ i , x i+1 ) + x i+1 , i = 1, . . . , n − 1
(2.9) ẋn = F n ( x̄n , u(v)) + g (v) + d ( x̄n , t) , n ≥ 2
(2.10) v̇ = − cv + ω

où c ∈ R + est une constante positive, d ( x̄n , t) = d (v) + d̄ ( x̄n , t) et ω est un signal de


commande auxiliaire pour être conçu pour générer un signal de commande stable v,
dans le système augmenté donné par (2.9). Pour le système augmenté, il est considère
que l’entrée de la commande v comme un système d’états, et ω est une nouvelle entrée
de commande. L’effet de d ( x̄n , t) est due à une combinaison de perturbations externes
d̄ ( x̄n , t) et l’erreur d’approximation de la fonction de la saturation d (v) et donc nous
l’appelons un ”disturbance-like” terme pour la simplicité de la présentation.
Dans ce que suit, en utilisant les transformations rapportées dans [50, 51], on montre que

31
CHAPITRE 2. COMMANDE ADAPTATIVE NEURONALE DES SYSTÈMES NL SISO
DE LA FORME STRICT-FEEDBACK

le système (2.9) peut être transformé en la forme normale en sélectionnant de nouvelles


variables d’état comme suit :

s i = x1(i−1) , i = 1, 2, . . . , n + 1.

Étape 1 : Définir le nouvel état s 1 = y = x1 ,ϕ1 ( x1 ).


Étape 2 :choisir s 2 = ṡ 1 = F1 ( x1 , x2 ) + x2 , ϕ2 ( x̄2 ) et la dérivée temporelle de s 2 peut être
exprimé comme suit :

ṡ 2 = ϕ̇2 ( x̄2 )
∂ϕ2 ( x̄2 ) ∂ϕ2 ( x̄2 )
= ẋ1 + ẋ2
∂ x1 ∂ x2
(2.11) , ϕ3 ( x̄3 )

Étape i : ( i = 3, .., n), De manière similaire, soit s i = ṡ i−1 , ϕ i ( x̄ i ) et la dérivée temporelle


de s i est obtenue comme suit :

ṡ i = ϕ̇ i ( x̄ i )
i ∂ϕ x̄
X i ( i)
= ẋ j
j =1 ∂ x j

(2.12) , ϕ i+1 ( x̄ i+1 )

Étape n+1 : Soit finalement s n+1 = ṡ n , ϕn+1 ( x̄n , u(v)), et en prenant sa dérivée par
rapport au temps, on aura :

ṡ n+1 = ϕ̇n+1 ( x̄n , u (v))


n ∂ϕ ∂ϕn+1 ( x̄n , u (v))
X n+1 ( x̄ n , u (v))
= ẋ j + v̇
j =1 ∂x j ∂v
−1 ∂ϕ
nX ∂ϕn+1 ( x̄n , u (v))
n+1 ( x̄ n , u (v))
= ẋ j + v̇
j =1 ∂x j ∂v
∂ϕn+1 ( x̄n , u(v))
+ (F n ( x̄n , u(v)) + g(v) + d (v))
∂ xn
−1 ∂ϕ
nX ∂ϕn+1 ( x̄n , u (v))
n+1 ( x¯n , u (v))
= ẋ j + v̇
j =1 ∂x j ∂v
∂ϕn+1 ( x̄n , u(v))
+ (F n ( x̄n , u(v)) + g(v))
∂ xn
∂ϕn+1 ( x̄n , u (v))
(2.13) + d ( x̄n , t)
∂ xn

32
2.2. SYSTÈME NL STRICT-FEEDBACK AVEC UNE SATURATION DE L’ENTRÉE ET
PERTURBATION EXTERNE ET AVEC GAIN DE COMMANDE INCONNU

Par substitution le système auxiliaire dans (2.13), on obtient

(2.14) ṡ n+1 = F ( x̄n , u(v)) + g ( x̄n , u(v)) ω + ψ ( x̄n , t)


nX
−1 ∂ϕ ∂ϕn+1 ( x̄n , u(v))
n+1 ( x̄ n , u(v))
F ( x̄n , u(v)) = ẋ j − c v
j =1 ∂x j ∂v
∂ϕn+1 ( x̄n , u (v))
(2.15) + (F n ( x̄n , u(v)) + g(v))
∂ xn
∂ϕn+1 ( x̄n , u(v))
(2.16) g ( x̄n , u(v)) =
∂v
∂ϕn+1 ( x̄n , u (v))
(2.17) ψ ( x̄n , t) = d ( x̄n , t)
∂ xn
En conséquence, le système (2.14) peut être décrit sous la forme normale avec le respect
les nouveaux états :

ṡ i = s i+1 , 1 ≤ i ≤ n
ṡ n+1 = F ( x̄n , u(v)) + g( x̄n , u(v))ω + ψ ( x̄n , t)
(2.18) y = x1

avec s = [ s 1 , . . . , s n+1 ]T sont les nouvelles variables d’état, et y ∈ ℜ la sortie mesurée.


F ( x̄n , u(v)) et g ( x̄n , u(v)) sont des fonctions non linéaires inconnues. Soit l’erreur de
poursuite définie par :

(2.19) e 1 = y − yd = s 1 − yd
h iT
où e = [ e 1 , e 2 , . . . , e n+1 ]T = e 1 , ė 1 , . . . , e(n)
1 . La dynamique des erreurs de poursuite sera
alors donnée par :

(2.20) ė n+1 = −F ( x̄n , u (v)) − g ( x̄n , u (v)) ω + yd(n+1) − ψ ( x̄n , t)

ce qui peut être écrit sous forme matriciel


h i
ė = Ae + B −F ( x̄n , u(v)) − g( x̄n , u(v))ω + ψ ( x̄n , t) + yd(n+1)
(2.21) y = CT e

avec
     
0 1 0 0 0 0
 ···     

 0 0 1 0 

 0 
 
 0 
 
 .. .. .. ∈ ℜn×n , B =  ...  ∈ ℜn×1 , c =  ...  ∈ ℜn×1
    
A=
 . . .    
     
 0 0 0 1 
  0   0 
 ···    
0 0 0 0 1 1

33
CHAPITRE 2. COMMANDE ADAPTATIVE NEURONALE DES SYSTÈMES NL SISO
DE LA FORME STRICT-FEEDBACK

Notons que la paire ( A, B) est contrôlable et la paire (C T , A ) est observable.

2.2.3 Conception de l’observateur


Etant que les états e 1 , . . . ., e n de la transformation du système (2.1) sont indisponibles
pour la rétroaction. On considère maintenant l’observateur suivant pour l’estimation du
vecteur d’erreur de poursuite e, comme suit :

ê˙ = ( A − Bk T ) ê − B yd(n+1) + L ẽ 1
(2.22) ê 1 = C T ê

où ẽ = e − ê, ê = ŝ − Yd , avec ŝ est l’estimé du vecteur d’état s et ê est l’estimé du vecteur


des erreurs de poursuite e. Par conséquent, si l’erreur d’observation ẽ converge vers
zéro, l’erreur de poursuite estimée ê convergera également vers zéro. Notons que k =
¤T
[ k 0 , k 1 , . . . , k n ]T est le vecteur de gain de retour d’état, L = L 1 , . . . , L (n+1) est le vecteur
£

de gain d’observateur, et ils seront choisis de sorte que les polynômes caractéristiques de
A − Bk T et A − LC T sont Hurwitz (c.-à-d., stable).
Notons par P1 la solution symétrique et définie positive de l’équation matricielle de
Lyapunov suivante
³ ´T ³ ´
(2.23) A − Bk T P1 + P1 A − Bk T = −Q 1

où A − Bk T et Q 1 est une matrice symétrique et définie positive dont le choix est libre.
¡ ¢

Les fonctions F ( x̄n , u (v)) et g ( x̄n , u (v)) peut être approximées selon le théorème des
approximateurs universels [2], comme suit

(2.24) F ( x̄n , u (v)) = W1T S ( Z ) + ε1 ( Z )

(2.25) g ( x̄n , u (v)) = W2T S ( Z ) + ε2 ( Z )

où ε1 ( Z ) et ε2 ( Z ) sont les erreurs d’approximation neuronale, le vecteur d’entrée Z =


[ x̄n , v, u (v) ]T . W1 et W2 sont respectivement les paramètres optimaux qui est défini par

Wi = argminW {sup z∈Ω z ¯ fˆ ( Z /W ) − f ( Z )¯}


¯ ¯
(2.26)

où ΩW est l’espace de contraintes de W .


Soit le vecteur des erreurs d’observation comme, ẽ = e − ê = [ ẽ 1 , . . . , ẽ n+1 ]T . Il s’ensuit
alors de (2.21), (2.22) et (2.24)-(2.25) que :

ẽ˙ = ( A − LC T ) ẽ + [W̃1T S ( Z ) + W̃2T S ( Z )ω − Ŵ1T S ( Z ) − Ŵ2T S ( Z )ω


− ε2 ( Z )ω − ε1 ( Z ) + k T ê + yd(n+1) − ψ( x̄n , t)]
(2.27) ẽ 1 = C T ẽ

34
2.2. SYSTÈME NL STRICT-FEEDBACK AVEC UNE SATURATION DE L’ENTRÉE ET
PERTURBATION EXTERNE ET AVEC GAIN DE COMMANDE INCONNU

2.2.4 Conception d’un mécanisme de déclenchement par


événement
Comme discuté précédemment, la stratégie de déclenchement par événement est
traitée comme une manière valide de réduire la charge de communication. Inspire par
l’idée de [61], la stratégie du seuil fixe est considérée pour concevoir le mécanisme de
déclenchement par événement ce qui est donné comme suit :

(2.28) ω ( t) = ω̌ ( t k ) ∀ t ∈ [ t k , t k+1 )

(2.29) t k+1 = inf { t ∈ R | | z ( t)| ≥ m} , t1 = 0

où ω̌ ( t) est la loi de commande, 0 inf0 représente l’infimum d’un ensemble (c.-à-d., la


plus grande limite inférieure d’un ensemble), z ( t) = ω̌ ( t) − ω( t) est l’erreur du mesure,
z ( t) sera remis à zéro lorsqu’un événement se produit, m est un paramètre positif de la
conception. { t k , k ∈ N } est le temps de mise à jour du contrôleur, c.-à-d., quand (2.29) est
déclenché, le temps sera marqué comme t k+1 est la valeur de la commande ω ( t k+1 ) sera
la commande du système. Lors du temps t ∈ [ t k , t k+1 ) le signal de la commande reste
constant c.-à-d., ω̌ ( t k ). Par (2.29), on sait que

(2.30) |ω̌ ( t) − ω ( t)| ≤ µ ( t) m ∀t ∈ ℜ

Par conséquent, il existe un paramètre continu variant dans le temps µ ( t), satisfaisant
µ ( t k ) = 0, µ ( t k+1 ) = ±1, et ¯µ ( t)¯ ≤ 1, ∀ t ∈ [ t k , t k+1 ) , sachant que
¯ ¯

(2.31) ω̌ ( t) = ω ( t) + µ ( t) m.

Selon (2.27) et (2.31), on peut obtenir que


³ ´
ẽ˙ = A − LC T ẽ + B[W̃1T S ( Z ) + W̃2T S ( Z ) ω̌ ( t) − µ ( t) m
¡ ¢

− Ŵ1T S ( Z ) − Ŵ2T S ( Z ) (ω̌ ( t) − µ ( t) m) − ε2 ( Z ) (ω̌ ( t)


(2.32) − µ ( t) m) − ε1 ( Z ) + k T ê + yd(n+1) − ψ ( x̄n , t)]

La loi de commande déclenchée par un événement est donnée comme suit,

(2.33) ω̌ ( t) = vω̌ ( t) + v c ( t)

v c ( t) = − m̄ sign ( ẽ 1 )
tanh ²1 Ŵ2T S ( Z )
¡ ¢
³ ´
T T (n+1)
vω̌ ( t) = −Ŵ1 S ( Z ) + k ê + yd
+ ϑ r − ϑ m
Ŵ2T S ( Z ) tanh ²1 Ŵ2T S ( Z ) + ²2
¡ ¢

35
CHAPITRE 2. COMMANDE ADAPTATIVE NEURONALE DES SYSTÈMES NL SISO
DE LA FORME STRICT-FEEDBACK

avec m̄ est le gain de la commande satisfaisant m̄ > m, ²1 et ²2 sont des constantes stric-
tement positives de la conception, tanh(.) dénote la fonction de la tangente hyperbolique.
ϑr et ϑm sont un terme de la commande adaptative et une commande adaptative robuste,
respectivement, qui seront définis plus tard. En substituant de (2.33) dans (2.32), on
trouve
³ ´
ẽ˙ = A − LC T ẽ + B[W̃1T S ( Z ) + W̃2T S ( Z ) ω̌ ( t) − µ ( t) m
¡ ¢

− Ŵ2T S ( Z ) v c ( t) − µ ( t) m − ε2 ( Z ) ω̌ ( t) − µ ( t) m
¡ ¢ ¡ ¢

(2.34) − ε1 ( Z ) + k T ê + yd(n+1) − ψ ( x̄n , t) + ω e ]


²2 ³
T (n+1)
´
ωe = −Ŵ1 S ( Z ) + k ê + yd
+ ϑ r − ϑ m
Ŵ2T S ( Z ) tanh ²1 Ŵ2T S ( Z ) + ²2
¡ ¢

Pour la simplicité en définissant U1 = −ε2 ( Z ) ω̌ ( t) − µ ( t) m −ε1 ( Z )+ k T ê+ yd(n+1) −ψ ( x̄n , t)+


¡ ¢

ω e , (2.34) peut être écrit comme


³ ´
ẽ˙ = A − LC T ẽ + B[W̃1T S ( Z ) + W̃2T S ( Z ) ω̌ ( t) − µ ( t) m
¡ ¢

− Ŵ2T S ( Z ) v c ( t) − µ ( t) m + U1 ]
¡ ¢

(2.35) ẽ 1 = C T ẽ

Etant donné que seule l’erreur d’observation de la sortie ẽ 1 dans (2.35) est mesurable, on
utilise la positivitée des systèmes (SPR) pour analyser la stabilité de la boucle fermée, et
pour générer les lois d’adaptation pour estimer les vecteurs des paramètres du NNs et
les constantes inconnues.
En raison de la forme canonique des matrices A, B, et C , de telle sorte que la dynamique
de l’erreur d’observation (2.35) puisse être exprimée dans le domaine fréquentiel en
utilisant la notation mixte temps-fréquence :
h i
T T T
(2.36) ẽ 1 = H ( p) W̃1 S ( Z ) + W̃2 S ( Z ) ω̌ ( t) − µ ( t) m − Ŵ2 S ( Z ) v c ( t) − µ ( t) m + U1
¡ ¢ ¡ ¢

où p est la variable de Laplace et H ( p) = C T (P I − A − LC T )B est la fonction de transfert


¡ ¢

associée à la dynamique (2.31). Notons que cette notation est très fréquente dans la
littérature de la commande adaptative, comme dans [68–71].
Maintenant, puisque H ( p) dans (2.36) n’est pas SPR en générale, on introduit un filtre
passe bas L ( p) sachant que H ( p) L−1 ( p) = H ( p) est SPR.
n o n ¢o
e˜1 = H ( p) L−1 ( p) [L ( p) W̃1T S ( Z ) + L ( p) W̃2T S ( Z ) ω̌ ( t) − µ ( t) m
¡

− L ( p) {Ŵ2T S ( Z ) v c ( t) − µ ( t) m } + L ( p) {U1 }]
¡ ¢
h i
= H ( p) L−1 ( p) W̃1T S ( Z ) + W̃2T S ( Z ) ω̌ ( t) − µ ( t) m + U − ϑr − ϑm
¡ ¢
(2.37)

36
2.2. SYSTÈME NL STRICT-FEEDBACK AVEC UNE SATURATION DE L’ENTRÉE ET
PERTURBATION EXTERNE ET AVEC GAIN DE COMMANDE INCONNU


n o n ¢o
U = L ( p) W̃1T S ( Z ) + L ( p) W̃2T S ( Z ) ω̌ ( t) − µ ( t) m + L ( p) {U1 } − W̃1T S ( Z )
¡

(2.38) − W̃2T S ( Z ) ω̌ ( t) − µ ( t) m − L ( p) {Ŵ2T S ( Z ) v c ( t) − µ ( t) m } + ϑr + ϑm


¡ ¢ ¡ ¢

Maintenant, pour faciliter la conception de la commande et l’analyse de stabilité, nous


émettons l’hypothèse suivante :

Hypothèse 2.3. Chaque élément U du paramètre inconnu défini dans (2.38) est délimité
par une constante, c’est-à-dire qu’il existe une constante positive inconnue τ̄ telle que

(2.39) |U | ≤ τ̄

La représentation d’état de système (2.37) est donné par


³ ´
ẽ˙ = A − LC T ẽ + B c [W̃1T S ( Z ) + W̃2T S ( Z ) ω̌ ( t) − µ ( t) m
¡ ¢

+ U − ϑr − ϑm ]
(2.40) ẽ 1 = C T ẽ

Le vecteur de gain d’observateur L est calculé afin que la matrice A − LC T ait


¡ ¢

toutes ses valeurs propres à parties réelles négatives. Par conséquent le système bouclé
sera exponentiellement stable. On lui associe une équation de Lyapunov, ayant pour
solution unique une matrice symétrique définie positive P2 , donnée par
³ ´T ³ ´
(2.41) A − LC T P2 + P2 A − LC T = −Q 2

(2.42) P2 B c = C

où A − LC T et Q 2 est une matrice symétrique et définie positive dont le choix est libre.
¡ ¢

2.2.5 Analyse de la stabilité


Dans cette section on analyse la conception du contrôleur basé sur le déclenchement
par événement et on établisse la stabilité de système en boucle fermé et ses performances
de poursuite. Ces résultats sont énoncés dans le théorème suivant.

37
CHAPITRE 2. COMMANDE ADAPTATIVE NEURONALE DES SYSTÈMES NL SISO
DE LA FORME STRICT-FEEDBACK

Théorème 2.1. Considérons le système non linéaire non affine (2.1) avec les contraints
sur l’entrée, et supposons que les hypothèses 2.1-2.3 sont satisfaites et l’observateur (2.22).
Ainsi que la loi de commande (2.33) avec deux termes de de commandes additifs suivant :
ẽ 1
µ ¶
(2.43) ϑr = τ̂tanh
²

(2.44) ϑm = LP1 ê

avec les lois d’adaptation correspondantes


˙
(2.45) Ŵ 1 = Γ1 ( ẽ 1 S ( Z ) − σ11 Ŵ1 )

(2.46) ˙
Ŵ Γ2 ( ẽ 1 S ( Z ) vω̌ ( t) − σ21 Ŵ2 )
2 =

ẽ 1
µ ¶
(2.47) τ̂˙ = γ[ ẽ 1 tanh − σ12 τ̂]
²
où Ŵ1 , Ŵ2 et τ̂ sont les valeurs estimées du paramètre inconnu W1 , W2 et τ̄, respectivement,
and Γ1 , Γ2 , γ, σ11 , σ21 , σ12 sont des paramètres de conception positifs. Ensuite, on peut
garantir que tous les signaux du système en boucle fermée sont bornés et que les erreurs
de poursuite convergent vers un petit voisinage d’origine. En plus, il existe un temps t∗ > 0
, tels que les intervalles d’inter-exécution { t k , t k+1 } sont bornés par t∗ , ∀ k ∈ N .

Preuve du Théorème 2.1 : Considérons la fonction de Lyapunov candidate suivante


1 1 1
(2.48) V = ê T P1 ê + ẽ T P2 ẽ + W̃1T Γ1 −1 W̃1 + W̃2T Γ2 −1 W̃2 + τ̃2
2 2 2γ
où τ̃ = τ̄ − τ̂ et W̃i = Ŵi − Wi , i = 1, 2 sont les erreurs paramétriques. En dérivant V le long
de la solution (2.23)et (2.41), en utilisant (2.42), on obtient
n o
V̇ = − ê T Q 1 ê − ẽ T Q 2 ẽ + ê T P1 LC T ẽ − ẽ T P2 B c ϑm
1 ˙
½ ¾
T T
+ ẽ P2 B cU − ẽ P2 B c ϑr − τ̃τ̂
γ
−1 ˙
n o
T T
+ W̃1 ẽ P2 B c S ( Z ) − Γ1 Ŵ 1
˙
n o
(2.49) + W̃2T ẽ T P2 B c S ( Z ) vω̌ ( t) − Γ2 −1 Ŵ 2

Par substitution de(2.42), (2.43)et (2.44)dans (2.49), on trouve après un calcul intermé-
diaire
ẽ 1 1 ˙
½ µ
¶ ¾
T T
V̇ = − ê Q 1 ê − ẽ Q 2 ẽ + ẽ 1U − ẽ 1 τ̂tanh − τ̃τ̂
² γ
˙ + W̃ T ẽ S ( Z ) v ( t) − Γ −1 Ŵ˙
n o n o
(2.50) + W̃1T ẽ 1 S ( Z ) − Γ1 −1 Ŵ 2 2 1 ω̌ 2 2

38
2.2. SYSTÈME NL STRICT-FEEDBACK AVEC UNE SATURATION DE L’ENTRÉE ET
PERTURBATION EXTERNE ET AVEC GAIN DE COMMANDE INCONNU

En utilisant l’hypothèse 2.4 et lemme 1.1, on peut obtenir l’inégalité suivante :

ẽ 1 1 ˙
½ µ ¶ ¾
T T
V̇ ≤ − ê Q 1 ê − ẽ Q 2 ẽ + κτ̄ − | ẽ 1 | τ̃tanh − τ̃τ̂
² γ
˙
n o
+ W̃1T ẽ 1 S ( Z ) − Γ1 −1 Ŵ 2
˙
n o
(2.51) + W̃2T ẽ 1 S ( Z ) vω̌ ( t) − Γ2 −1 Ŵ 2

Après la substitution des d’adaptations (2.45)-(2.47)dans la dynamique (2.51), on obtient

(2.52) V̇ ≤ − ê T Q 1 ê − ẽ T Q 2 ẽ + σ11 W̃1T Ŵ1 + σ21 W̃2T Ŵ2 +σ21 τ̃τ̂ + κτ̄

De plus, les inégalités suivantes sont validées,


σ1 σ1 °
°W̃11 °2
σ1 W̃1T Ŵ1 ≤ kW1 k2 −
°
(2.53)
2 2
T σ2 2 σ2 ° °2
(2.54) σ2 W̃2 Ŵ2 ≤ kW2 k − °W̃2 °
2 2
σ3 2 σ3 2
(2.55) σ2 τ̃τ̂ ≤ − τ̃ + τ̄
2 2
En utilisant les inégalités ci-dessus, l’équation (2.52) peut être arrangée comme suit
σ1 °
°W̃1 °2 − σ2 °W̃2 °2 − σ3 τ̃2
≤ − ê T Q 1 ê − ẽ T Q 2 ẽ −
° ° °

2 2 2
σ1 2 σ2 2 σ3 2
(2.56) + kW1 k + kW2 k + τ̄ + kτ̄
2 2 2

Posons Q = diag [Q 1 ,Q 2 ] , P = diag [P1 , P2 ] et E T = ê T , ẽ T , l’équation (2.56) devient


£ ¤

°W̃1 °2 − σ2 °W̃2 °2 − σ3 τ̃2 + θ


σ1 °
≤ −E T QE −
° ° °

2 2 2
(2.57) ≤ −θ V + β

λmin (Q) σ1 σ2
, σ3 σ1
k k2 + σ22 kW2 k2 + σ23 τ̄2 + kτ̄
n o
où θ = min , ,
λmax (P) λmax (Γ1 −1 ) λmax (Γ2 −1 ) γ
et β = 2 W1 avec
λmin (.) et λmax (.) désigne la valeur propre minimale et maximales de (.), respectivement.
Ainsi, à travers l’analyse standard dans [10], tous les signaux en boucle fermée sont

h de E , iV et (2.57), on obtient l’erreur de poursuite


bornés. De plus, de la définition
β β
E satisfait E PE ≤ V ( t) ≤ θ + V | t=0 − θ e−θ t . Donc E est borne par une fonction qui
T
n p o
converge de manière exponentielle vers un ensemble compact ΩE = E ∈ R ||E | ≤ Ω ,
avec Ω = 2 V | t=0 + β/θ . Par conséquent, les erreurs paramétriques d’estimation W̃1 ,
¡ ¢

W̃2 , τ̃ sont bornées vers des ensemble compact Ωτ̃ , ΩW̃1 , ΩW̃2 définissent comme suit
½ ¾
¯¯ ¯ q
ΩW̃1 = W̃1 ∈ R W̃1 ≤ Ω/λmin Γ1
¡ −1 ¢
¯ ¯ ¯

39
CHAPITRE 2. COMMANDE ADAPTATIVE NEURONALE DES SYSTÈMES NL SISO
DE LA FORME STRICT-FEEDBACK
½ ¾
¯¯ ¯ q
ΩW̃2 = W̃2 ∈ R W̃2 ≤ Ω/λmin Γ2
¡ −1 ¢
¯ ¯ ¯

n o
Ωτ̃ = τ̃ ∈ R ||τ̃| ≤ γΩ
p

où Ω = 2 V | t=0 + θ /β avec θ et β définis comme :


¡ ¢

( )
λmin (Q ) σ11 σ12 σ21
θ = min , ¢, ,
λmax (P ) λmax Γ1 −1 λmax (Γ2 −1 ) γ
¡

σ11 σ12 σ21


β= kW1 k2 + kW2 k2 + τ̄2 + kτ̄
2 2 2
De la bornitude ẽ, W̃1 , W̃2 et τ̃ on peut conclure directement sur la bornitude de e, ê,
s̃, Ŵ1 , Ŵ2 et τ̂ parce que ẽ = e − ê = s̃ , Ŵ1 = W1 − W̃1 , Ŵ2 = W2 − W̃2 , τ̃ = τ̄ − τ̂ et les
paramètres idéaux W1 ,W2 et τ̄ doit être borné. Selon la bornitude de ẽ et la définition
de ê dans (2.22), on peut obtenir que ê est borné et ainsi e est borné aussi. Basé sur
e = s − Yd , on a s est aussi borné et il s’ensuit que ŝ est borné parce que s̃ est borné. L’état
x1 est borné parce que x1 = s1 . Par ailleurs, parce que s 2 est borné et ∂ϕ2 ( x2 )/∂ x2 > 0, on
conclut que x2 est borné basé sur la définition de s 2 = ϕ( x̄2 ). Similaire et récursivement,
les états x i , i = 3, . . . , n sont tous bornés.
En rappelant z ( t) = ω̌ ( t) − ω ( t) , ∀ t ∈ [ t k , t k+1 ) , il est clear que ż ( t) = ω̌˙ ( t) pour tous
t ∈ [ t k , t k+1 ) . Au vu de l’équation (2.25), on peut vérifier que ω̌ ( t) est une fonction
T
continuellement différentiable de X = [Ŵ1 , Ŵ2 , τ̂, m , yd , ²2 , ²1 , ẽ 1 , k T , ϑr , ϑm ] . De plus,
en notant les équations (2.1), (2.45)-(2.47) et tous les signaux en boucle fermée, on sait
que ż et ω̌˙ ( t) = (∂ω̌ ( t)/∂ X ( t)) Ẋ sont bornés. Ainsi, il existe une constante σ > 0, sachant
que

| ż ( t)| = ¯ω̌˙ ( t)¯ ≤ σ, ∀ t ∈ [ t k , t k+1 )


¯ ¯
(2.58)

D’autre part, si l’on considère l’équation (2.29), donné

(2.59) z ( t k ) = 0, lim | z ( t)| ≥ m


t→ t k+1

En combinant l’équation (2.58) et (2.59) donne t k+1 − t k ≥ m, ce qui complète les preuves
[29].

2.2.6 Résultats de simulation


Afin de montrer l’efficacité de la méthode proposée, deux exemples sont donnés dans
cette section.

40
2.2. SYSTÈME NL STRICT-FEEDBACK AVEC UNE SATURATION DE L’ENTRÉE ET
PERTURBATION EXTERNE ET AVEC GAIN DE COMMANDE INCONNU

[Link] Exemple 1

Considérons le système non linéaire strict-feedback avec le gain de commande inconnu


[47] qui est décrit par les équations dynamiques suivantes :

ẋ1 = f 1 ( x1 ) + g 1 ( x1 ),
ẋ2 = f 2 ( x2 ) + g 2 ( x2 ) u(v) + d̄ ( t)
(2.60) y = x1

où f 1 ( x1 ) = 0.1 x12 , g 1 ( x1 ) = 1, f 2 ( x2 ) = 0.1 x1 x2 − 0.2 x1 et g 1 ( x2 ) = 1 + x12 sont des fonc-


tions non linéaires inconnus. L’objectif de la simulation est d’appliquer la commande
adaptative neuronale proposée de sorte que la sortie du système y1 suit la trajectoire
désirée yd ( t) = 0.5 sin( t), avec la saturation sur l’entrée sat( u ( t)) est déterminé par (2.2)
avec le paramètre u m = 3.5 et la perturbation externe d̄ ( t) = 0.001 cos(10 t).
Pour implémenter la commande proposée, le vecteur de gain d’observateur et les vecteurs
de gain de retour d’état sont sélectionnés respectivement comme suit : k = [15.60 ×
102 , 3.17 × 102 , 11.35 × 102 ], L = [4.7300, 6.1850, 2.0350]T . Sélection de la matrice définie
positive Q 1 = Q 2 = D iag[10 10 10 ] et en résolvant l’équation algébrique de Lyapu-
nov (2.23) et (2.41) pour obtenir les matrices symétriques définies positives suivantes,
respectivement :

   
10.2996 0.2996 −9.7266 46.7234 69.4082 0.0032
   
P1 = 
 0.2996  , P2 =  69.4082
10.3257 −9.7004   143.2450 0.0234 

−9.7266 −9.7004 18.6067 0.0032 0.0234 0.0443

Le système (2.1) possède deux réseaux de neurones sous la forme (1.1) pour approximer
en ligne les fonctions inconnus, le nombre des réseaux a été choisi avec N = 4, et
les variables d’entrée sont choisis comme Z = [ x1 , x2 , v ( t) , u(v) ]T . Les paramètres de
synthèses et les conditions initiales utilisés dans cette simulation sont donnés dans le
tableau (2.1).

41
CHAPITRE 2. COMMANDE ADAPTATIVE NEURONALE DES SYSTÈMES NL SISO
DE LA FORME STRICT-FEEDBACK

Les paramètres Les valeurs

Γ1 , Γ2 1000, 5
σ1 , σ2 , σ3 0.1, 0.9, 0.15
γ, ², a 0.10, 0.1, 50
m, m̄ 5, 6
x (0) = [ x1 (0) , x2 (0) ] [0.01, 0.2]T
ê (0) = [ ê 1 (0) , ê 2 (0) , ê 3 (0) ] [1, 0, 0]T
Wi (0) , i = 1, 2 0

Tableau 2.1: Les paramètres de synthèses et les conditions initiales.

Les figures 2.2-2.5. montrent les résultats de simulation obtenus par le contrôleur
adaptatif neuronale de l’exemple 1. Ces résultats montrent que les performances de
poursuite sont suffisamment bonnes et tous les signaux du système en boucle fermée
sont bornés. On peut voir dans la figure 2.2 (a) que la sortie y suit sa référence yd avec
précision. La figure 2.2 (b) montrer les trajectoires des états x i . La bornitude de la loi de
commande intermédiaire ω̌ ( t) est illustré dans la figure 2.3 (a). Le signale de commande
u( t) et sat( u( t)) peut être observé dans la figure 2.3(b). On remarque aussi clairement
sur la figure 2.4 que l’observateur arrive à estimer correctement les états non mesurés.
L’événement de déclenchement est montré dans la figure 2.5.

42
2.2. SYSTÈME NL STRICT-FEEDBACK AVEC UNE SATURATION DE L’ENTRÉE ET
PERTURBATION EXTERNE ET AVEC GAIN DE COMMANDE INCONNU

(a)

(b)
F IGURE 2.2: Le résultat de simulation de l’exemple 1. (a) Performance de poursuite : la
sortie y la référence yd . (b) La poursuite de l’état x2 .

(a)

(b)
F IGURE 2.3: Le résultat de simulation de l’exemple 1. (a) la commande intermédiaire
ω̌ ( t) .(b) Poursuite de u( t) et sat( u( t)).

43
CHAPITRE 2. COMMANDE ADAPTATIVE NEURONALE DES SYSTÈMES NL SISO
DE LA FORME STRICT-FEEDBACK

(a)

(b)

(c)
F IGURE 2.4: Les nouveaux variables d’états s le long de leurs estimés ŝ de l’exemple 1.

F IGURE 2.5: L’événement de déclenchement de l’exemple 1.

[Link] Exemple 2

Dans cette partie, nous allons considérer le contrôle en poursuite basé sur le réseau
d’un robot manipulateur avec la saturation d’entrée décrite dans la figure 2.6 .Notez que

44
2.2. SYSTÈME NL STRICT-FEEDBACK AVEC UNE SATURATION DE L’ENTRÉE ET
PERTURBATION EXTERNE ET AVEC GAIN DE COMMANDE INCONNU

sa dynamique est modélisée comme une équation lagrangienne de second ordre [62]

(2.61) J q̈ + B q̇M gl sin( q) = u( t)

avec M est la masse du lien rigide, q et q̇ sont sont l’angle et la vitesse angulaire,
respectivement. J représente l’inertie de rotation du servomoteur, B est le coefficient
d’amortissement, l est la longueur de l’axe de l’articulation au centre de masse, et g
est l’accélération gravitationnelle. Également [62] , J = 1, M gl = 10 et B = 2. À partir de
toute condition initiale, l’objectif est de suivre l’angle q à l’origine. La sturation u(v( t))
est déterminé par(2) avec les paramètre u m = [Link] de minimiser la charge de commu-
nication, l’événement de déclenchement est appliqué avec m = 4, m̄ = 5.
Pour implémenter la commande proposée, le vecteur de gain d’observateur et les vec-
teurs de gain de retour d’état sont sélectionn‘’es respectivement comme suit : k =
[273.75, 161.87, 23.45 ] , L = [17.73, 85.50, 100.69]T . Sélection de la matrice définie po-
sitive Q 1 = Q 2 = D iag [0.5 0.5 0.5 ] et en résolvant l’équation algébrique de Lyapunov
(2.23) et (2.41) pour obtenir les matrices symétriques définies positives suivantes, respec-
tivement
 :   
0.514 0.004 −0.505 6.080 3.251 0.001
   
P1 
 0.004 0.515 −0.505 , P2  3.251
 2.416 0.021
−0.505 −0.505 0.996 0.001 0.021 0.012
Le système (2.1) possède deux réseaux de neurones sous la forme (1.1) pour approxi-
mer en ligne les fonctions inconnus, le nombre des réseaux a été choisi avec N = 4, et
les variables d’entrée sont choisis comme Z = [ x1 , x2 , v ( t) , u(v)]T . Les paramètres de
synthèses et les conditions initiales utilisés dans cette simulation sont résumés dans le
tableau (2.2).

Les paramètres Les valeurs

Γ1 , Γ2 0.1, 20
σ1 , σ2 , σ2 10, 0.01, 0.01
γ, ²1 , ²2 , a 0.10, 0.001, 0.1, 50
x (0) = [ x1 (0) , x2 (0) ] [0.01, 0.2]T
ê (0) = [ ê 1 (0) , ê 2 (0) , ê 3 (0) ] [1, 0, 0]T
Wi (0) , i = 1, 2 0

Tableau 2.2: Les paramètres de synthèses et les conditions initiales.

45
CHAPITRE 2. COMMANDE ADAPTATIVE NEURONALE DES SYSTÈMES NL SISO
DE LA FORME STRICT-FEEDBACK

F IGURE 2.6: Un robot manipulateur

Les figures 2.7-2.10 montrent les résultats de simulation obtenus par le contrôleur
adaptatif neuronale de l’exemple 2. Ces résultats montrent que les performances de
poursuite sont suffisamment bonnes et tous les signaux du système en boucle fermée
sont bornés. On peut voir dans la figure 2.7 (a) que la sortie y suit sa référence yd avec
pré[Link] figure 2.7 (b) montrer les trajectoires des états x2 . La bornitude de la loi de
commande intermédiaire ω̌ ( t) est illustré dans la figure 2.8 (a). Le signale de commande
u( t) et sat( u( t)) peut être observé dans la figure 2.8 (b). On remarque aussi clairement sur
la figure 2.9 que l’observateur arrive à estimer correctement les états non mesuré[Link]
la figure 2.10 montre la liste des instants auxquels l’événement est déclenché où l’on
peut compter 12 événement sur les 12 secondes du temps de simulation. À partir de la
figure 2.10 et comparé avec la figure 6 et le tableau dans [62] indiquant le besoin de 87
événement, il est clair que le contrôleur adaptatif NNs proposé peut réduire efficacement
la charge de communication.

46
2.2. SYSTÈME NL STRICT-FEEDBACK AVEC UNE SATURATION DE L’ENTRÉE ET
PERTURBATION EXTERNE ET AVEC GAIN DE COMMANDE INCONNU

(a)

(b)
F IGURE 2.7: Le résultat de simulation de l’exemple 2. (a) Performance de poursuite : la
sortie y la référence yd . (b) La poursuite de l’état x2 .

(a)

(b)
F IGURE 2.8: Le résultat de simulation de l’exemple 2. (a) la commande intermédiaire
w( t) .(d) Poursuite de u( t) et sat( u( t)).

47
CHAPITRE 2. COMMANDE ADAPTATIVE NEURONALE DES SYSTÈMES NL SISO
DE LA FORME STRICT-FEEDBACK

(a)

(b)

(c)

F IGURE 2.9: Les nouveaux variables d’états s avec leurs estimés ŝ de l’exemple 2.

F IGURE 2.10: L’événement de déclenchement de l’exemple 2.

48
2.3. SYSTÈME NL STRICT-FEEDBACK AVEC DES NON LINÉARITÉS DE L’ENTRÉE
ET CONTRAINTE SUR LA SORTIE ET AVEC LE GAIN DE COMMANDE CONSTANT

2.3 Système NL strict-feedback avec des non


linéarités de l’entrée et contrainte sur la sortie
et avec le gain de commande constant

2.3.1 Position du problème


Considérons la classe suivante des systèmes non linéaires strict-feedback décrite
par :

ẋ i = f i ( x̄ i ) + x̄ i , i = 1, . . . , n − 1
ẋn = f n ( x̄n ) + δ u(v)) + d̄ ( t)
(2.62) y = x1

où x̄ i = [ x1 , ..., x i ]T ∈ ℜ i , i = 1, . . . , n est le vecteur d’état complet qui est supposé disponible


pour la mesure, y ∈ ℜ est la sortie de système et d̄ ( t) est la perturbation externe bornée
par d̄ ( t) > 0. f i (.) est une fonction continue non affine inconnue et le coefficient de gain de
commande δ est une constante connue. Pour que le système (2.62)soit contrôlable, il est
nécessaire que δ 6= 0. De plus, v est l’entrée de la commande et u(v( t)) est la non-linéarité
inconnue de l’actionneur qui est supposée ici : une saturation et une zone-morte (dead
zone).
La non-linéarité d’entrée u (v) qui inclut la saturation d’entré et une zone-morte (dead-
zone) seront définis plus tard.
L’objectif de la commande est de concevoir un contrôleur adaptatif neuronal capable de
forcer la sortie du système y( t) à suivre une trajectoire de référence yd ( t) bornée et bien
déterminée, sous la contrainte que tous les signaux impliqués soient bornés.
Pour cela on détermine une loi d’adaptation pour ajuster le vecteur des paramètres tel
que les conditions suivantes soient satisfaites :
i) Le système en boucle fermée doit d’être stable et robuste dans le sens ou toutes les
variables soient uniformément bornées.
ii) Les performances prescrites du régime transitoire et le régime permanent de
l’erreur de poursuite e( t) = x1 ( t) − yd ( t) sont assurés.

2.3.2 La fonction de performance prescrite


Afin de réaliser le deuxième objectif, tel que défini dans [56], une fonction décrois-
sante positive µ ( t) : ℜ+ → ℜ+ avec lim t→∞ µ ( t) = µ∞ > 0 , est utilisé comme une fonc-

49
CHAPITRE 2. COMMANDE ADAPTATIVE NEURONALE DES SYSTÈMES NL SISO
DE LA FORME STRICT-FEEDBACK

tion de performance prescrite (PPC). Soit l’erreur de poursuite e ( t) = x1 ( t) − yd ( t), où


ē = [ ė, ë, . . . , e n ]T est satisfaite, en utilisant l’inégalité prédéfinie suivante :

(2.63) − δµ ( t) < e ( t) < δµ ( t) , ∀ t > 0

où δ et δ > 0 sont des constantes sélectionnées par le concepteur.


Dans ce travail, la fonction de performance µ ( t) est prise dans [56] comme suit

µ ( t) = µ0 − µ∞ e−κ t + µ∞
¡ ¢
(2.64)

où µ0 > µ∞ et κ > 0 sont des paramètres de conception.


Dans (2.63) et (2.64), on sait que δµ0 définit la limite supérieure du dépassement
maximal et −δµ0 définit la limite inférieure du sous-dépassement, le taux décroissant κ
introduit une limite inférieure sur la vitesse de convergence, et µ∞ représente l’erreur
de poursuite en régime permanent l’admissible. Par conséquent, les performances du
régime transitoire et permanent peuvent être conçus à priori en ajustant les paramètres
δ, δ, κ, µ0 et µ∞ . Pour assurer les performances prescrites, à priori, sur la sortie du
système, une transformation des contraintes est introduite similairement à [56], en
transformant la condition (2.63) en une condition équivalente sans contrainte. Dans ce
travail, on définit une fonction lisse inversible et strictement croissante T (.), où ξ1 ( t) ∈ ℜ
est l’erreur transformée, telle que :

1) − δ < T (ξ1 ) < δ , ∀ξ1 ∈ L ∞

2) lim T (ξ1 ) = δ lim T (ξ1 ) = δ


ξ1 →+∞ ξ1 →−∞

À partir des propriétés de T (ξ1 ), la condition (2.63) définit par :

(2.65) e ( t) = µ ( t) T (ξ1 )

La fonction T (ξ1 ) est strictement monotone croissante et le fait que µ ( t) ≥ µ∞ > 0


correspond à (2.64), la fonction inverse de T (ξ1 ) existe et peut être déduite de

−1 e ( t)
· ¸
(2.66) ξ1 = T
µ ( t)

Il a noté que PPF de (2.64), T (ξ1 ) et les paramètres associés δ, δ, κ, µ0 et µ∞ sont


tous conçus à priori. Pour toute condition initiale e (0), si les paramètres δ, µ0 et δ sont
sélectionnés sachant que −δµ (0) < e (0) < δµ (0) et ξ1 peut être commandé pour être borné
(c,-à-d, ξ1 ∈ L ∞ , ∀ t > 0), puis −δ < T (ξ1 ) < δ , ainsi que la condition −δµ ( t) < e ( t) < δµ ( t)

50
2.3. SYSTÈME NL STRICT-FEEDBACK AVEC DES NON LINÉARITÉS DE L’ENTRÉE
ET CONTRAINTE SUR LA SORTIE ET AVEC LE GAIN DE COMMANDE CONSTANT

sont assurés. En conséquence, le problème de commande de poursuite du système (2.62)


est maintenant transformé pour stabiliser l’erreur transformé (2.66).
Où T −1 (.) est une fonction lisse inversible de la fonction T (.). Dans cette partie du
chapitre, on définit T (.) comme suit :

δ eξ1 − δ e−ξ1
(2.67) T (ξ1 ( t)) =
eξ1 + e−ξ1
Puis, de l’équation (2.66), l’erreur transformée ξ1 ( t) est donnée par :

−1 e ( t) 1 ρ ( t) + δ
· ¸
(2.68) ξ1 = T = ln
µ ( t) 2 δ + ρ ( t)

avec ρ ( t) = e ( t)/µ ( t)
Pour stabiliser le système d’erreur ξ1 et ainsi garantit les performances de l’erreur e,
en différenciant(2.68) par rapport au temps on obtient :
" #·
∂T −1 (.) 1 1 1 ė eµ̇
¸
ξ̇1 = ρ̇ ( t) = − −
∂ρ ( t) 2 ρ ( t ) + δ ρ ( t ) − δ µ µ2
eµ̇
· ¸
(2.69) = ϕ x2 + f 1 ( x1 , x2 ) − ẏd −
µ
h i
où ϕ = 21µ ρ (t)1+δ − 1 peut être calculé en fonction de e ( t) et µ ( t) et 0 < ϕ < ϕ M =
³³ ´ ´ ρ (t)−δ
δ + δ /µ∞ δδ . De plus, on peut obtenir que

eµ̇
· ¸
ξ̈1 = ϕ̇ x2 + f 1 ( x1 , x2 ) − ẏd −
µ
∂ f 1 ( x̄2 ) ∂ f 1 ( x̄2 ) ėµ̇ eµ̈µ eµ̇2
· ¸
+ ϕ ẋ2 + ẋ1 + ẋ2 − ÿd − − 2 + 2
∂ x1 ∂ x2 µ µ µ
eµ̇
· ¸
= ϕ̇ x2 + f 1 ( x1 , x2 ) − ẏd − + ϕ F1 x̄2 , ẏd , e, ϕ + x3 − ÿd
£ ¡ ¢ ¤
(2.70)
µ
¢ ∂ f x̄ ∂ f x̄ ėµ̇ eµ̈µ eµ̇2
où F1 x̄2 , e, µ = ∂1x( 1 2 ) ẋ1 + ∂1x( 2 2 ) ẋ2 + f 2 ( x1 , x2 ) + µ + µ2 − µ2 .
¡

En différenciant ξ̈1 par rapport au temps on aura :

... eµ̇ ∂ f 1 ( x̄2 ) ∂ f 1 ( x̄2 ) ėµ̇ eµ̈µ eµ̇2


· ¸ · ¸
ξ 1 = ϕ̈ x2 + f 1 ( x1 , x2 ) − ẏd − + ϕ̇ ẋ2 + ẋ1 + ẋ2 − ÿd − − 2 + 2
µ ∂ x1 ∂ x2 µ µ µ
" #
2
X ∂F1 (.) ∂F1 (.) ∂F1 (.) ...
+ ϕ̇ F1 x̄2 , e, µ + x3 − ÿd + ϕ ẋ3 + µ̇ − y d
£ ¡ ¢ ¤
ẋ i + ė +
i =1 ∂ x i ∂e ∂µ
eµ̇ ... ¤
· ¸
= ϕ̈ x2 + f 1 ( x̄2 ) − ẏd − + 2ϕ̇ F1 x̄2 , e, µ + x3 − ÿd + ϕ F2 x̄3 , e, µ + x4 − y d
£ ¡ ¢ ¤ £ ¡ ¢
(2.71)
µ

51
CHAPITRE 2. COMMANDE ADAPTATIVE NEURONALE DES SYSTÈMES NL SISO
DE LA FORME STRICT-FEEDBACK

où F2 x̄3 , e, µ = 2i=1 ∂F∂ x1 (.) ẋ i + ∂F∂1e(.) ė + ∂F∂µ


1 (.)
µ̇
¡ ¢ P
i

... eµ̇ ∂ f 1 ( x̄2 ) ∂ f 1 ( x̄2 ) ėµ̇ eµ̈µ eµ̇2


· ¸ · ¸
ξ(4) = ϕ x2 + f 1 ( x1 , x2 ) − ẏd − + ϕ̈ ẋ2 + ẋ1 + ẋ2 − ÿd − − 2 + 2
1 µ ∂ x1 ∂ x2 µ µ µ
" #
2
X ∂F1 (.) ∂F1 (.) ∂F1 (.) ...
+ 2ϕ̈ F1 x̄1 , e, µ + x3 − ÿd + 2ϕ̇ µ̇ − y d + ẋ3
£ ¡ ¢ ¤
ẋ i + ė +
i =1 ∂ x i ∂e ∂µ
" #
... ¤ 3 ∂F . ∂F2 (.) ∂F2 (.)
X 2( ) (4)
+ ϕ̇ F2 x̄2 , e, µ + x4 − y d + ϕ µ̇ + ẋ4 − yd
£ ¡ ¢
ẋ i + ė +
i =1 ∂ x i ∂e ∂µ
... eµ̇
· ¸
= ϕ x2 + f 1 ( x1 , x2 ) − ẏd − + 3ϕ̈ F1 x̄2 , e, µ + x3 − ÿd
£ ¡ ¢ ¤
µ
... ¤ h ¡ i
+ 2ϕ̇ F2 x̄3 , e, µ + x4 − y d + ϕ F3 x̄4 , e, µ + x5 − yd(4)
£ ¡ ¢ ¢
(2.72)

où F3 x̄3 , e, µ = 3i=1 ∂F∂ x2 (.) ẋ i + ∂F∂2e(.) ė + ∂F∂µ


2 (.)
µ̇ Soit la dérivation d’ordre n de ξ1 par rapport
¡ ¢ P
i
au temps comme suit :

eµ̇
· ¸
ξ(n) = ϕ (n−1)
+ ( n − 1) ϕ(n−2) F n−3 x̄n−2 , e, µ + x3 − ÿd
£ ¡ ¢ ¤
1 x2 + f 1 ( x1 , x2 ) − ẏd −
µ
... ¤ h ¡ i
+ ( n − 2) ϕ(n−3) F n−2 x̄n−3 , e, µ + xn − y d + · · · + ϕ F n x̄n , e, µ + u( t) − yd(n)
£ ¡ ¢ ¢
(2.73)

où F n x̄n , e, µ = ni=1 ∂F∂ xn (.) ẋ i + ∂F∂ne(.) ė + ∂F∂µ


n (.)
µ̇ Soit le vecteur des erreurs de poursuite et
¡ ¢ P
i
l’erreur filtrée définis comme suit

¤T
e s = [Λ 1] ξ1 , ξ̇1 , . . . , ξ1n
£
(2.74)

où Λ = [λ1 , λ2 , . . . .,λn−1 ]T est un vecteur des coefficients convenablement choisi tel que
ξ1 → 0 lorsque e s → 0. s n−1 + λn−1 s n−2 + · · · + λ1 est Hurwitz. La dérivée de e s par rapport
au temps peut être écrite comme suit :

eµ̇
· ¸
(n−1)
= λ1 ϕ + λ2 ϕ̇ + λ3 ϕ̈ + · · · + ϕ
¡ ¢
ė s x2 + f 1 ( x1 , x2 ) − ẏd −
µ
(n−1)
+ λ2 ϕ + 2λ3 ϕ̇ + 3λ4 ϕ̈ + · · · + ( n − 1) ϕ F1 x̄2 , e, µ + x3 − ÿd
¡ ¢£ ¡ ¢ ¤
... ¤
+ λ3 ϕ + 2λ4 ϕ̈ + 3λ5 ϕ̈ + · · · + ( n − 2) ϕ(n−2) F2 x̄3 , e, µ + x4 − y d +
¡ ¢£ ¡ ¢

..
.
h ¡ i
+ ϕ F n x̄n , e, µ + δ u (v) + d ( t) − yd(n)
¢
h ¡ i
= ϕ F x̄n , e, µ, ẏd , ϕ + δ u (v) + d ( t) − yd(n)
¢
(2.75)

52
2.3. SYSTÈME NL STRICT-FEEDBACK AVEC DES NON LINÉARITÉS DE L’ENTRÉE
ET CONTRAINTE SUR LA SORTIE ET AVEC LE GAIN DE COMMANDE CONSTANT

avec
¢h eµ̇
i
F x̄n , e, µ, ẏd , ϕ = λ1 + λ2 ϕ̇/ϕ + λ3 ϕ̈/ϕ + · · · + ϕ(n−1) /ϕ x2 + f 1 ( x1 , x2 ) − ẏd − µ
¡ ¢ ¡

λ2 + 2λ3 ϕ̇/ϕ + 3λ4 ϕ̈/ϕ + · · · + ( n − 1) ϕ(n−1) /ϕ F1 x̄2 , e, µ + x3 − ÿd +


¡ ¢£ ¡ ¢ ¤
... ¤
λ3 + 2λ4 ϕ̈/ϕ + 3λ5 ϕ̈/ϕ + · · · + ( n − 2) ϕ(n−2) /ϕ F2 x̄3 , e, µ + x4 − y d +
¡ ¢£ ¡ ¢
..
.
+F n x̄n , e, µ
¡ ¢

Cependant, la fonction F x̄n , e, µ, ẏd , ϕ est inconnue, donc il est difficile de concevoir une
¡ ¢

loi de commande pour le système non linéaire (2.62). La solution la plus courante pour
résoudre ce problème est d’utiliser des approximateurs universels pour approximer cette
fonction non linéaire inconnue comme suit :

F x̄n , e, µ, ẏd , ϕ = W T S ( Z ) + ε ( Z )
¡ ¢
(2.76)

W = ar gminW { su p z∈Ω z ¯ fˆ ( Z /W ) − f ( Z )¯}


¯ ¯
(2.77)

où ΩW est l’espace de contraintes de W , Z = [ x̄n , e , µ, ẏd , ϕ]T le vecteur d’entrée du


réseau et S (.) est le vecteur de fonction d’activation neuronale supposé convenablement
fixé à l’avance par l’utilisateur, W est le paramètre idéal d’approximation avec l’erreur
neuronale ε ( Z ) .
’Etant Wi est inconnu, sa valeur estimé Ŵ sera utilisée.
Notons que le paramètre optimal W est de constante artificielle inconnue introduite
uniquement pour faire l’étude théorique de la stabilité de l’algorithme de commande. En
fait, la connaissance de sa valeur n’est pas nécessaire pour l’implantation des lois de
commande adaptatives.

2.3.3 Conception de la commande avec une zone morte sur


l’entrée
Dans cette section, deux schémas de commande adaptative neuronale sont développés
pour une classe de système (SISO) non linéaire strict-feedback avec non-linéarités
incertaines sur l’entrée. Tout d’abord, le cas de la zone morte est considéré puis le cas de
saturation en entrée sera traité.
Dans le premier cas un schéma de commande adaptatif neuronale sera développé pour
le système non linéaire(2.62) avec une non-linéarité inconnue dans la zone morte.

53
CHAPITRE 2. COMMANDE ADAPTATIVE NEURONALE DES SYSTÈMES NL SISO
DE LA FORME STRICT-FEEDBACK

Le modèle de la zone-morte avec une entrée v et une sortie u, décrit par [39]

 m r ( v( t) − b r ) v( t) > b r


(2.78) u ( v) = o b r ≤ v( t) ≤ b l


 m ( v( t) − b ) v( t) < b l
l l

où b r > 0, b l < 0, m r > 0, m l > 0 sont respectivement les paramètres et les pentes de la
zone morte. Afin d’étudier les caractéristiques de la zone-morte dans les problèmes de
commande, les suppositions suivantes sont faites :

Hypothèse 2.4. ([39]) La pente gauche et celle de droite sont égales, c.-à-d. m = m r = m l .

Hypothèse 2.5. ([39]) Les paramètres de la zone-morte m , d r et d l sont constants,


bornés et inconnus, mais leurs signes sont supposés connus, c.-à-d., ( m > 0, d r ≥ 0 et
d l ≥ 0 , respectivement).

Hypothèse 2.6. ([39]) Les paramètres de la zone morte sont bornés par des constantes
connues m min , m max , d rmin , d rmax , d lmin , d lmax sachant que m ∈ [ m min , m max ], d r ∈
[ d rmin , d rmax ] et d l ∈ [ d lmin , d lmax ].

Donc, nous pouvons réécrire le modèle de la zone-morte comme suit [39]

(2.79) u ( t) = N (v ( t)) = m v ( t) + h(v( t))

où h (v( t)) est une fonction bornée et définie par





 −m r b r v( t) ≥ b r
(2.80) h (v( t)) = − m ( t) v( t) b r ≤ v( t) ≤ b l


 −m l b l v( t) ≤ b l

À partir des hypothèses 2.4-2.6, nous pouvons conclure que h (v( t)) est borné et satisfait
| h(v)| ≤ ρ , où ρ est la borne supèrieure, qui peut être choisie comme ρ = max m max d rmax , − m max d lmin .
Par conséquent, en remplaçant (2.76) dans (2.75), on obtient
h i
(2.81) ė s = ϕ δ u (v) − yd(n) + W T S ( Z ) + ε ( Z ) + d n ( t)

Par substitution de (2.79)dans (2.81), on trouve


h i
(2.82) ė s = ϕ δ m v ( t) − yd(n) + δ h (v) + W T S ( Z ) + D 1 ( t)

54
2.3. SYSTÈME NL STRICT-FEEDBACK AVEC DES NON LINÉARITÉS DE L’ENTRÉE
ET CONTRAINTE SUR LA SORTIE ET AVEC LE GAIN DE COMMANDE CONSTANT

où D 1 ( t) = ε ( Z ) + d n ( t)
Ensuite, il existe τ̄ une borne supérieure inconnue telle que |D 1 | ≤ τ. De plus, le contrôleur
adaptatif neuronale est donné par

2 2
à !
1 α1 e τ̂
s 1
(2.83) v( t) = − e s + yd(n) − Ŵ T S ( Z ) − + v c ( t)
δm ϕ e s τ̂1 tanh ( e s /²) + ²

où v c ( t) est un terme de commande robuste introduit pour compenser l’effet de l’erreur


d’approximation neuronale et des perturbations externes et l’erreur d’approximation de
la zone morte de l’actionnaire h (v), est choisi comme suit.

(2.84) v c ( t) = −κ∗ si gn ( e s )

où κ∗ est un gain de contrôle satisfaisant κ∗ ≥ ρ / m min .


Pour estimer les paramètres inconnu, nous adoptons les lois suivantes :

(2.85) ˙ = ϕΓ( e S ( Z ) + σ Ŵ )
Ŵ s 1

(2.86) τ̂˙ = ϕγ1 [− | e s | + σ2 τ̂]

où Ŵ et τ̂ sont les valeurs estimées du paramètre inconnu W et τ̄, respectivement, et


Γ,γ1 , σ1 , σ2 , α1 sont des paramètres de conception positifs. Ensuite, on peut garantir
que tous les signaux du système en boucle fermée sont bornés et que les erreurs de
poursuite convergent vers un petit voisinage d’origine.

2.3.4 Analyse de la stabilité


Les résultats suivants concluent la stabilité du système en bouclé fermée

Théorème 2.2. Considérons le système non linéaire strict-feedback (2.62) avec la zone
morte sur l’entrée, et son contrôleur (2.81)-(2.84). Si les lois d’adaptation données (2.85)-
(2.86), et les Hypothèses 2.4-2.6 sont vraies, alors on peut conclure que tous les signaux du
système en boucle fermée sont bornés et que les erreurs de poursuite convergent vers zéro.

Preuve du Théorème 2.2 :Considérons la fonction de Lyapunov candidate suivante

1 2 1 T −1 1 2
(2.87) V= e s + W̃ Γ W̃ + τ̃
2 2 2γ1

55
CHAPITRE 2. COMMANDE ADAPTATIVE NEURONALE DES SYSTÈMES NL SISO
DE LA FORME STRICT-FEEDBACK

où τ̃ = τ̄ − τ̂ et W̃ = W − Ŵ sont les erreurs paramétriques.


En dérivant V par rapport au temps, on obtient

V̇ ˙ + 1 τ̃τ̂˙
= e s ė s − W̃ T Γ−1 Ŵ
γ1
h i
(n)
= e s ϕ δ m v ( t) − yd + δ h (v) + W T S ( Z ) + D 1 ( t)

(2.88) ˙ + 1 τ̃τ̂˙
− W̃ T Γ−1 Ŵ
γ1
Selon la loi de commande(2.83)et les paramètres des lois d’adaptation (2.85)-(2.86),
l’équation (2.88) devient

V̇ = −α1 e2s + ϕδ me s {v c + h (v)/ m}


ϕ e2s τ̂2
+ ϕ e s D 1 ( t) −
e s τ̂ tanh ( e s /²) + ²
o 1
−1 ˙
n
T
+ W̃1 ϕ e s S ( Z ) − Γ Ŵ − τ̃τ̂˙
γ1
e2s τ̂2
≤ −α1 e2s − + ϕ | e s | τ̄ + ϕ | e s | τ̃
e s τ̂ tanh ( e s /²) + ²
(2.89) − σ1 ϕW̃ T Ŵ − σ2 ϕτ̃τ̂

En utilisant les inégalités suivantes,


ϕ M σ1 ³°
°W̃ °2 − kW k2
´
− σ1 ϕW̃ T Ŵ ≤
°
(2.90)
2

ϕ M σ2 ¡
− σ2 ϕτ̃τ̂ ≤ τ̄2 − τ̃2
¢
(2.91)
2
En se servant le 2.1, et par substitution (2.90)-(2.91), on obtient

V̇ ≤ −α1 e2s +
² | e s | τ̂ °W̃ °2 − ϕ M σ2 τ̃2 + ϕ M σ1 kW k2 + ϕ M σ2 τ̄2
ϕ M σ1 ° °
(2.92) −
| e s | τ̂ + ² 2 2 2 2
x
Puis, utilisant l’inégalité 0 < x+ y < 1, ∀ x ≥ 0, y > 0 , l’équation (2.92) peut être arranger
comme suit
σ1 °
°W̃ °2 − σ2 τ̃2 + σ1 kW k2 + σ2 τ̄2 + ²
≤ −α1 e2s −
°

2 2 2 2
(2.93) ≤ −θ1 V + β1


ϕ M σ1
n o
θ1 = min 2α1 , λmax (Γ−1 )
, ϕ M σ2 γ1

ϕ M σ1 ϕ M σ2
β1 = kW k2 + τ̄2 + ²
2 2

56
2.3. SYSTÈME NL STRICT-FEEDBACK AVEC DES NON LINÉARITÉS DE L’ENTRÉE
ET CONTRAINTE SUR LA SORTIE ET AVEC LE GAIN DE COMMANDE CONSTANT

avec λmin (.)et λmax (.) désigne la valeur propre minimale et maximales de (.), respective-
ment.
Multiplier les deux côtés par eα t , intégration (2.93) sur [0, t], il s’ensuit que

eθ1 t V̇ ≤ −θ1 V + β1 eθ1 t


¡ ¢

d ³ θ1 t ´
Ve ≤ β1 eθ1 t
dt
β1 ³ ´
V eθ1 t − V (0) ≤ 1 − e θ1 t
θ1
β1 β1 −θ1 t β1
· ¸
(2.94) V ( t) ≤ + V1 | t=0 − e ≤ V | t=0 +
θ1 θ1 θ1

En combinant (2.94) avec (2.87), on peut conclure que


q ¡
2 V | t=0 + θ1 /β1
¢
|e s| ≤

¯ ¯ q ¡
¯W̃ ¯ ≤ 2 V | t=0 + θ1 /β1 /λmin Γ−1
¢ ¡ ¢

q
|τ̃| ≤ γ1 2 V | t=0 + θ1 /β1
¡ ¢
(2.95)

Par conséquent, les erreurs paramétriques d’estimation W̃ , τ̃ et l’erreur filtrée e s sont


bornées de (2.95), et il restent les ensembles compacts Ωτ̃ , ΩW̃ and Ω e s dans le sens où
n p o
Ω e s = e s ∈ R || e s | ≤ Ω

½ ¾
¯¯ ¯ q
ΩW̃ = W̃ ∈ R W̃ ≤ Ω/λmin Γ
¡ ¢
¯ ¯ ¯ −1

n o
Ωτ̃ = τ̃ ∈ R ||τ̃| ≤ γ1 Ω
p

Ω = 2 V | t=0 + θ1 /β1 avec θ1 et β1 définis comme :


¡ ¢

σ1
½ ¾
θ1 = min 2α1 , ¢ , σ2 γ1
λmax Γ−1
¡

σ1 σ2
β1 = kW k2 + τ̄2 + ²
2 2
Ceci termine la preuve de ce théorème.

57
CHAPITRE 2. COMMANDE ADAPTATIVE NEURONALE DES SYSTÈMES NL SISO
DE LA FORME STRICT-FEEDBACK

2.3.5 Résultats de simulation

Pour tester les performances de l’approche de commande adaptative neuronale dé-


veloppée, dans cette section, nous considérons un système de réacteur exothermique
continu agité (Continuously Stirred Tank Reactor CSTR) dans [40, 72, 73] :

dC A
(
V dt0 = (C AF − C A ) F − V K 0 exp (E a /RT ) C A
(2.96) dT
V ρ C P dt0 = F ρ C p (T F − T ) − hA (T − TC ) − (4 H ) V K 0 exp (− (E a /RT )) C A

Les deux variable d’états sont C A et T qui représentent la concentration de réactif et la


température du réacteur, respectivement. La température de l’eau de refroidissement
TC est traitée comme une variable manipulée. Les définitions de toutes les constantes et
les paramètres du modèle CSTR sont répertoriées dans le tableau 2.3.
En introduisant des variables instrumentales, les équations normalisées simplifiées
suivantes peuvent être dérivées pour décrire la dynamique [40, 72, 73] :

La signification physique Le symbole

CA Concentration du composant A
F Vitesse d’alimentation
C AF Concentration d’entrée du composant A
FC Vitesse d’alimentation de l’eau de refroidissement
K0 Facteur pré-exponentiel
R Gaz constant
Ea Énergie d’activation
ρ Densités liquides
TF Température d’alimentation
V Volume de réservoir
T Température de réaction
−4 H Chaleur de réaction
h Zone de transfert de chaleur
CP Capacités calorifiques
TC Température du liquide de refroidissement d’entrée
FC Vitesse d’alimentation du liquide de refroidissement en entrée

Tableau 2.3: Les paramètres de CSTR

58
2.3. SYSTÈME NL STRICT-FEEDBACK AVEC DES NON LINÉARITÉS DE L’ENTRÉE
ET CONTRAINTE SUR LA SORTIE ET AVEC LE GAIN DE COMMANDE CONSTANT

 x = (C AF −C A ) , x = (TF −T) , ϕ = E a , t = t0 F

1 C AF 2 TF RT
(2.97) V
 δ = hA , D = V K 0 e−ϕ , B = (−4H)ϕC AF , u = (T c −TF ) ϕ
F ρC p a F ρC p T FT F

En utilisant (2.96),(2.97) peut être réécrit comme

ẋ1 = −2 x1 + D a (1 − x1 ) exp x2 / 1 + x2 /ϕ + x1
£ ¡ ¡ ¢¢¤

ẋ2 = − x2 (1 − δ) + BD a (1 − x1 ) exp x2 / 1 + x2 /ϕ + δ u (v) + d ( t)


£ ¡ ¡ ¢¢¤

(2.98) y = x1

où x1 et x2 désigne la concentration en réactif sans dimension et la température du


mélange, respectivement ; u est le débit de liquide de refroidissement sans dimension ;
D a = 0.0072, ϕ = 20, B = 8 and δ = 0.3 dénoter le nombre de Damokhler, énergie activer,
la chaleur de réaction et le coefficient de transfert de chaleur, respectivement.
Le système CSTR (2.98) peut être considéré comme un système strict-feedback de la
forme

ẋ1 = f 1 ( x̄1 , x2 ) + x2
ẋ2 = f 2 ( x̄2 , u(v)) + δ u (v) + d ( t)
(2.99) y = x1

Où la zone morte sur l’entrée ( u (v)) est déterminée par (2.62) avec le paramètre m min =
0.6, m max = 0.7, b r = 2.09, b l = −1.5 et la perturbation externe d ( x, t) = cos( t) cos( x2 ).
L’objectif de la commande est de forcer la sortie du système (c.-à-d., la concentration y1 )
à suivre la trajectoire désiré yd ( t) = 0.5 + 0.1 sin( t).
Un seul réseau de neurones sous la forme (1.1) est généré pour approximer en ligne
les fonctions inconnus, le nombre des réseaux a été choisi avec N = 4, et les variables
¤T
d’entrée sont choisis comme Z = x1 , x2 , ẏd , e, ϕ . Les valeurs initiales des paramètres
£

estimés sont fixées comme suit : W (0) = 0, nous n’avons aucune information à priori
sur les paramètres neuronaux W . Les autres paramètres de synthèses et les conditions
initiales sont donnés par tableau 2.4.

59
CHAPITRE 2. COMMANDE ADAPTATIVE NEURONALE DES SYSTÈMES NL SISO
DE LA FORME STRICT-FEEDBACK

Les paramètres Les valeurs

Γ 20
σ1 , σ2 0.1, 20
γ, ², α 10, 0.1, 1.2
λ, κ ∗
10, 4.5
µ∞ , κ 0.05, 0.009
δ=δ 1
µ0 1. 5
τ̂(0) 0
x (0) = [ x1 (0) , x2 (0) ] [0.6, 0.5]T

Tableau 2.4: Les paramètres de synthèses et les conditions initiales.

Les figures 2.11-2.13 montre les résultats de simulation obtenus par le contrôleur
adaptatif neuronale pour la dynamique de CSTR. Ces résultats montrent que les perfor-
mances de poursuite sont suffisamment bonnes et tous les signaux du système en boucle
fermée sont bornés. On peut voir dans la figure 2.11 que la sortie y1 suit parfaitement sa
référence yd . La bornitude du signale de commande v( t) et N (v ( t)) est illustré dans la
figure 2.12. La figure 2.13 présente les erreurs de poursuite. Pour Montrer l’efficacité
du contrôleur proposé dans ce travail, une comparaison est effectuée avec le contrôleur
back-stepping traditionnel dans [40] , avec la définition de e 1 = x1 − yd , e 2 = x2 − α1 . La
commande d’entré actuel est donné comme [40] :

(2.100) u = − e 1 − c 2 e 2 − Ŵ2T S 2 ( Z2 )

Les commandes virtuelles et les lois d’adaptation sont choisies comme [40] :

(2.101) α1 = − c 1 e 1 + Ŵ1T S 1 ( Z1 )

(2.102) ˙ = Γ £−S ( Z ) e − σŴ ¤


Ŵ 1 1 1 1 1 1

(2.103) ˙ = Γ £−S ( Z ) e − σŴ ¤


Ŵ 2 2 2 2 2 2

Il est noté que deux NNs sont utilisés dans le contrôleur back-stepping (2.102)-(2.103)
pour le système CSTR (2.98). À partir des équations ci-dessus définissant le contrôleur
et les lois d’adaptations dans [40], on peut voir clairement l’explosion de complexité

60
2.3. SYSTÈME NL STRICT-FEEDBACK AVEC DES NON LINÉARITÉS DE L’ENTRÉE
ET CONTRAINTE SUR LA SORTIE ET AVEC LE GAIN DE COMMANDE CONSTANT

impliquée par l’utilisation de nombreux paramètres de conception ainsi que de deux


entrées de NNs et d’une entrée de commande virtuelles. En revanche, le contrôleur
proposé n’a besoin que d’un seul paramètre adaptatif NNs pour la dynamique de CSTR.
Les résultats obtenus lors de l’utilisation du contrôleur défini dans[40] avec la contrainte
de la zone morte en entrée sont montrés dans la figure 2.14. Il est claire que les résultats
obtenus par l’approche proposée sont supèrieures à ce dans 2.14 en terme de performance
puisque la sortie n’a pas quitté l’enveloppe exigé même au prix d’un signale de commande
plus énergétique

F IGURE 2.11: Les performances de poursuite : la sortie y la référence yd .

F IGURE 2.12: La trajectoire de v( t) et N (v( t)).

F IGURE 2.13: Les performances de l’erreur de poursuite .

61
CHAPITRE 2. COMMANDE ADAPTATIVE NEURONALE DES SYSTÈMES NL SISO
DE LA FORME STRICT-FEEDBACK

(a)

(b)
F IGURE 2.14: (a) L’erreur de poursuite des deux commande ; (b) la commande d’entrée
des deux approches.

2.3.6 Conception de la commande avec un équivalent de la


saturation de l’entrée

Un contrôleur adaptatif neural pour les dynamiques avec le couplage de la saturation


de l’entrée et la zone morte est considéré dans cette section.
Les non linéarités sur l’entrée u(v) incluent la saturation sur l’entrée et la zone morte
qui peut être illustré dans la figure 2.15.

F IGURE 2.15: Un diagramme structurale du non linéarité de l’entrée u(v).

62
2.3. SYSTÈME NL STRICT-FEEDBACK AVEC DES NON LINÉARITÉS DE L’ENTRÉE
ET CONTRAINTE SUR LA SORTIE ET AVEC LE GAIN DE COMMANDE CONSTANT

La fonction de la saturation sur l’entrée sat(.) peut être exprimée comme suit [74, 75] :


 vmax si v( t) > vmax


(2.104) vsat = sat(v ( t)) = v si vmin ≤ v( t) ≤ vmax


 vmin si v( t) < vmin

avec vmax et vmin sont des valeurs connues de la saturation de l’entrée v. La fonction de
zone morte sur l’entrée d ead (.) peut être exprimée comme suit [75, 76] :


 m r (vsat − b r ) si vsat > b r


(2.105) d ead (vsat ) = o si b r ≤ vsat ≤ b l


 m (v − b ) si vsat < b l
l sat l

où m r > 0, m l > 0 dénotent les pentes droite et gauche de la zone morte ; b r , b l indiquent
les paramètres de point de rupture droit et gauche de la zone morte. Il est clair que les
caractéristiques du non linéarités de l’entrée sont relativement compliquées. D’ailleurs,
il est difficile de traiter directement le problème du non linéarités de l’entrée, donc, la
fonction inverse gauche d ead + (.) satisfaisant d ead (.)d ead + (.) = I est défini comme suit
[75–77] :


 (v̄/ m r − b r ) si v̄ > 0


(2.106) d ead (v̄) = o si v̄ = 0


 (v̄/ m − b ) si v̄ < 0
l l

En ajoutant un bloc de la fonction inverse devant les non linéarités sur l’entrée, la
nouvelle structure est montré dans la figure 2.3, où v est la loi de commande actuelle.
Basé sur l’analyse de la caractéristique de nouvelle structure du non linéarité sur l’entrée
inspiré dans [76], u peut être exprimé comme suit




 m r (vmax − b r ) si v̄ > m r (vmax − b r )
(2.107) u = satall (v̄) v̄ si m r (vmax − b r ) ≤ v̄ ≤ m l (vmin − b l )


 m l (vmin − b l ) si v̄ < m l (vmin − b l )

L’équation ci-dessus implique que la saturation de l’entrée et la zone morte est couplé
avec le bloc de la fonction inverse gauche de la zone morte résultant un équivalente de la
saturation de l’entrée.

63
CHAPITRE 2. COMMANDE ADAPTATIVE NEURONALE DES SYSTÈMES NL SISO
DE LA FORME STRICT-FEEDBACK

F IGURE 2.16: Un diagramme structurale du non linéarité de l’entrée satall (.).

Pour résoudre le problème de contrôle du système strict feedback soumis à la satura-


tion de l’actionneur, nous introduisons la loi de commande suivante :

1 α2 ¡
µ ¶
T (n)
e s − χ − ϑr
¢
(2.108) v̄( t) = −Ŵ S ( Z ) + yd −
δ ϕ

où ϑr est un terme de commande robuste introduit pour compenser l’effet de l’erreur


d’approximation neuronale et des perturbations externes et l’erreur d’approximation de
la saturation de l’actionnaire, est choisi comme suit :
³e ´
s
(2.109) ϑr = τ̂tanh
²
et χ est un compensateur additif défini par la dynamique suivante :

 − k χ − ϕM δ| e s 4u|+0.54u2 χ + 4 u si ¯¯χ¯¯ > µ
e χ2
(2.110) χ̇ =
si ¯χ¯ < µ
¯ ¯
 0

où 4 u = u − v̄, k e > 0 est le paramètre de conception.


Pour estimer les paramètres inconnus, nous adoptons les lois suivantes :

(2.111) ˙ = ϕΓ( e S ( Z ) + σ Ŵ )
Ŵ s 3

³e ´
s
(2.112) τ̂˙ = ϕγ2 [− | e s | tanh + σ4 τ̂]
²

où Ŵ et τ̂ sont les valeurs estimées du paramètre inconnu W et τ̄, respectivement, et


Γ,γ2 , σ3 , σ4 , α2 sont des paramètres de conception positifs. tanh(.) désigne la fonction de
la tangente hyperbolique.

2.3.7 Analyse de la stabilité


Les résultats suivants concluent la stabilité du système en bouclé fermée

64
2.3. SYSTÈME NL STRICT-FEEDBACK AVEC DES NON LINÉARITÉS DE L’ENTRÉE
ET CONTRAINTE SUR LA SORTIE ET AVEC LE GAIN DE COMMANDE CONSTANT

Théorème 2.3. Considérons le système (2.62). Supposons que les hypothèses 2.4-2.6 sont
satisfaites. Le terme de commande auxiliaire (2.110) et les lois de commande définie
par (2.108)-(2.109) avec les lois d’adaptation (2.111)-(2.112), alors on peut conclure que
tous les signaux du système en boucle fermée sont bornés et que les erreurs de poursuite
convergent vers zéro.

Preuve du Théorème 2.3 :Considérons la fonction de Lyapunov candidate suivante


1 2 1 T −1 1 2
(2.113) V= e s + W̃ Γ W̃ + τ̃
2 2 2γ2

En dérivant V par rapport au temps, on obtient

(2.114) ˙ + 1 τ̃τ̂˙ + χχ̇


V̇ = e s ė s − W̃ T Γ−1 Ŵ
γ2

Considérant 4 u = u − v̄ et (2.76), l’équation (2.114) peut être écrite comme suit :

˙ + 1 τ̃τ̂˙ + χχ̇
n o
= ϕ e s δu − yd(n) + F x̄n , e, µ, ẏd , ϕ + d ( t)− W̃ T Γ−1 Ŵ
¡ ¢

γ2
˙ + 1 τ̃τ̂˙ + χχ̇
n o
(2.115) = ϕ e s δ v̄ + δ4 u − yd(n) + Ŵ T S ( Z ) + D 2 ( t) − W̃ T Γ−1 Ŵ
γ2

où F x̄n , e, µ, ẏd , ϕ est une fonction inconnue approximée par NNs comme suit :F x̄n , e, µ, ẏd , ϕ =
¡ ¢ ¡ ¢

Ŵ T S ( Z ) + ε ( Z ), et D 2 ( t) = ε ( Z ) + d ( t) est borné par une petite constante τ̄. En utilisant


(2.110)-(2.108), et le fait que |D 2 | 6 τ̄, l’équation (2.115) devient
½ ³e ´ 1 ˙
¾
2 s
V̇ = −α2 e s + α2 e s χ + ϕδ e s 4 u + ϕ e s D 2 ( t) − ϕ e s τ̂tanh − τ̃τ̂
² γ2
2
˙ + χ(− k χ − ϕ M δ | e s 4 u| + 0.54 u χ + 4 u)
n o
(2.116) + W̃ T e s S ( Z ) − Γ−1 Ŵ e
χ2

Alors, l’équation (2.116) peut arranger comme suit


½ ³e ´ 1 ˙
¾
2 s
V̇ ≤ −α2 e s + α2 e s χ + ϕ M δ | e s 4 u| + ϕ M κτ̄ − ϕ | e s | τ̂tanh − τ̃τ̂
² γ2
−1 ˙
n o
T 2 2
(2.117) + W̃ ϕ e s S ( Z ) − Γ Ŵ − k e χ − ϕ M δ | e s 4 u| − 0.54 u + χ4 u

En se servant du lemme 2.1 et en substituant (2.109)-(2.112) dans (2.117), V̇ se réduit à

(2.118) V̇ ≤ −α2 e2s + α2 e s χ − ϕσ4 τ̃τ̂ − ϕσ3 W̃ T Ŵ + ϕ M κτ̄ − k e χ2 − 0.54 u2 + χ4 u

En utilisant les inégalités suivantes,

T ϕ M σ3 ³ ° ° ´
2 ° °2
(2.119) − ϕσ3 W̃ Ŵ ≤ kW k − W̃
2

65
CHAPITRE 2. COMMANDE ADAPTATIVE NEURONALE DES SYSTÈMES NL SISO
DE LA FORME STRICT-FEEDBACK

ϕ M σ4 ¡
− ϕσ4 τ̃τ̂ ≤ τ̄2 − τ̃2
¢
(2.120)
2

1¡ 2
χ 4u ≤ χ + 4 u2
¢
(2.121)
2

1¡ 2
e sχ ≤ e s + χ2
¢
(2.122)
2
Finalement, en utilisant les inégalités ci-dessus, nous pouvons borner V̇ comme suit
(2.123)
α2 α2 1 2 ϕ M σ3 °
°W̃ °2 − ϕ M σ4 τ̃2 + ϕ M σ3 kW k2 + ϕ M σ4 τ̄2 + ϕ M κτ̄
µ ¶
e2s − − χ −
°
V̇ ≤ − ke −
2 2 2 2 2 2 2

où le paramètre de désigne est choisi pour satisfaire la condition k e − α22 − 12 > 0. Alors

(2.124) V̇ ≤ −θ2 V + β2
½ ¾
ϕ M σ3 α2 1 ϕ σ ϕ σ
où θ2 = min α2 , λmax (Γ− 1 , ϕ M σ4 γ2 , 2( k e − 2 − 2 ) ; β2 = M2 3 kW k2 + M2 4 τ̄2 + ϕ M κτ̄ sont
2 )
toutes constants. Nous pouvons garantir que V̇ est négatif aussi longtemps que e s est en
dehors de d’ensemble compact Ω e s défini comme suit
n p o
Ω e s = e s ∈ R || e s | ≤ Ω

Selon le théorème standard de Lyapunov, nous pouvons conclure que e s est bornée et
converge à l’ensemble compact, de même, le signal W̃ , τ̃, χ sont bornées et convergent à
ΩW̃ , Ωτ̃ , Ωχ définis comme suit
½ ¾
¯¯ ¯ q
ΩW̃ = W̃ ∈ ℜ W̃ ≤ Ω/λmin Γ
¡ ¢
¯ ¯ ¯ −1

n o
Ωτ̃ = τ̃ ∈ ℜ ||τ̃| ≤ γ1 Ω
p

n ¯¯ ¯ p o
Ωχ = χ ∈ ℜ ¯¯χ¯ ≤ Ω

où Ω = 2 V | t=0 + θ2 /β2 avec θ2 et β2 défini comme


¡ ¢

( )
ϕ M σ3 α2 1
θ2 = min α2 , ¡ 1 ¢ , ϕ M σ4 γ2 , 2( k e − − )
λmax Γ− 2
2 2

ϕ M σ3 ϕ M σ4
β2 = kW k2 + τ̄2 + ϕ M κτ̄
2 2
Le reste de la preuve est similaire à la preuve du théorème 2.2, les conclusions du
théorème 2.3 peuvent être facilement obtenues, ce qui n’est pas traité en détail ici.

66
2.3. SYSTÈME NL STRICT-FEEDBACK AVEC DES NON LINÉARITÉS DE L’ENTRÉE
ET CONTRAINTE SUR LA SORTIE ET AVEC LE GAIN DE COMMANDE CONSTANT

2.3.8 Résultats de simulation

Pour tester les performances de l’approche de commande adaptative neuronale déve-


loppée, dans cette section, nous considérons un système CSTR.
Tous les détails concernant ce système sont donnés dans la section 2.3.5
La saturation sur l’entrée u (v) est déterminée par (2.104) avec le paramètre de la satu-
ration équivalente sont vmax = 4, vmin = −4. Les plages de zone morte sont b r = 2.09, b l =
−1.5 ; et les paramètres de pente sont m r = m l = 1. L’objectif de la commande est de
forcer la sortie du système (c.-à-d., la concentration y1 ) à suivre la trajectoire désiré
yd ( t) = 0.5 + 0.1 sin( t).
Un seul réseau de neurones est généré pour approximer en ligne les fonctions inconnus,
le nombre des réseaux a été choisi avec N = 4, et les variables d’entrée sont choisis
¤T
comme Z = x1 , x2 , ẏd , e, ϕ . Les paramètres de synthèses et les conditions initiales sont
£

donnés par tableau 2.5.

Les paramètres Les valeurs

Γ 35
σ1 , σ2 0.1, 20
γ, ², α 10, 0.1, 1.2
λ, K e , ϕm 10, 2.2, 5
µ∞ , κ 0.05, 0.009
χ(0), µ0 , τ̂(0) 0, 1.5, 0
δ=δ 1
x (0) = [ x1 (0) , x2 (0) ] [0.6, 0.5]T
W (0) 0

Tableau 2.5: Les paramètres de synthèses et les conditions initiales.

Les figures 2.17-2.19 montrent les résultats de simulation obtenus par le contrôleur
adaptatif neuronale pour la dynamique du CSTR. Ces résultats montrent que les perfor-
mances de poursuite sont suffisamment bonnes et tous les signaux du système en boucle
fermée sont bornés. On peut voir dans la figure 2.17 que la sortie y1 suit parfaitement sa
référence yd . La bornitude de le signale de commande v( t) et sat (v ( t)) est illustré dans
la figure 2.18. La figure 2.19 montre les erreurs de poursuite.

67
CHAPITRE 2. COMMANDE ADAPTATIVE NEURONALE DES SYSTÈMES NL SISO
DE LA FORME STRICT-FEEDBACK

F IGURE 2.17: Les performances de poursuite : la sortie y la référence yd .

F IGURE 2.18: La trajectoire de v( t) et sat all (v( t)).

F IGURE 2.19: Les performances de l’erreur de poursuite .

2.4 Conclusion
Dans ce chapitre, des lois de commande adaptative ont été proposé pour des systèmes
strict-feedback non linéaires incertain SISO triangulaires avec contraintes sur l’entrée
en la présence des perturbations externe. Dans un premier cas, le gain de commande
a été considéré comme une fonction non linéaire incertaine dont le signe est inconnue.

68
2.4. CONCLUSION

Dans ce cas, la saturation sur le signal de commande est traitée et le mécanisme de


déclenchement par événement a été exploité. Dans un deuxième cas, le même problème
de commande a été traité où le gain de commande du système a été considéré un gain
constant dont sa valeur est connue et l’entrée de commande qui lui est liée a été considéré
assujettie à l’effet soit de la saturation soit de la zone morte, ainsi que des exigences de
performance en régime transitoire et établie sont imposées sur la sortie du système. Il a
été montré que les méthodes proposées ne nécessitent qu’un seul paramètre adaptatif
NNs quel que soit l’ordre du système non linéaire tout en garantissant la bornitude de
tous les signaux de la boucle fermée.

69
CHAPITRE
3
C OMMANDE ADAPTATIVE NEURONALE DES SYSTÈMES
NL SISO DE LA FORME PURE - FEEDBACK

Sommaire
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
3.2 Commande adaptative neuronale pour une classe de système non li-
néaire pure-feedback avec une saturation sur l’entrée . . . . . . . . . . . 75
3.2.1 Position du problème . . . . . . . . . . . . . . . . . . . . . . . . . . 75
3.2.2 La conception de la commande adaptative neuronale . . . . . . 76
3.2.3 Conception de l’observateur . . . . . . . . . . . . . . . . . . . . . . 78
3.2.4 Analyse de la stabilité . . . . . . . . . . . . . . . . . . . . . . . . . 81
3.2.5 Résultats de simulation . . . . . . . . . . . . . . . . . . . . . . . . 83
3.3 Commande adaptative pour des systèmes pure-feedback incertains avec
des contraints sur l’entrée et la sortie sans connaissance sur la direction
de commande . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
3.3.1 Position du problème . . . . . . . . . . . . . . . . . . . . . . . . . . 95
3.3.2 La conception de la commande adaptative neuronale . . . . . . 96
3.3.3 La transformation de l’erreur dynamique . . . . . . . . . . . . . 98
3.3.4 Conception de l’observateur . . . . . . . . . . . . . . . . . . . . . . 101
3.3.5 Analyse de la stabilité . . . . . . . . . . . . . . . . . . . . . . . . . 104
3.3.6 Résultats de simulation . . . . . . . . . . . . . . . . . . . . . . . . 106
3.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109

71
CHAPITRE 3. COMMANDE ADAPTATIVE NEURONALE DES SYSTÈMES NL SISO
DE LA FORME PURE-FEEDBACK

3.1 Introduction

a commande adaptative en utilisant les réseaux de neurones (NNs) comme ap-

L proximateurs universels pour systèmes non linéaires incertains avec analyse de


stabilité est devenu un domaine de recherche très actif ; ce qui a attitré l’attention
des chercheurs ces deux dernières décennies. La commande adaptative par la méthode
back-stepping est devenue très populaire pour la synthèse de contrôleurs des systèmes
non linéaires triangulaires. Plusieurs schémas de commande back-stepping adaptative
ont été développés pour les systèmes strict-feedback avec non linéarités incertaines
[78–83]. Dans [81, 82] , des commandes adaptatives à base de NNs ou logique floue ont
été proposés pour le cas des systèmes non linéaires strict feedback stochastiques avec
retard. Cependant, la technique back-stepping a été étendue pour traiter un problème
de commande plus complexe d’une classe plus large des systèmes non linéaires, dite
pure-feedback, dans lesquels les états ne sont pas affines afin de servir comme com-
mande virtuelles [84–93]. En se servant du théorème de la valeur implicite, le théorème
de la valeur moyenne et la technique de back-stepping, des schémas de commande
adaptative neuronale ont été proposés dans [89–93] pour la même classe des systèmes
pure-feedback.

Un problème commun dans les papiers précités est l’inconvénient de l’explosion de


complexité inhérent à l’application de la méthode de back-stepping. Ce dernier problème
est dû à la différentiation répétitive de certains termes non linéaires, tel que les com-
mandes virtuelles [14]. Pour pallier à ce problème, la méthode de commande surface
dynamique DSC (Dynamic Surface Control) a été introduite dans [17] pour les systèmes
non linéaires strict feedback. Dans [94], par l’utilisation d’un filtre du premier ordre à
chaque étape récursive, une commande DSC adaptative neuronale a été développée pour
la classe pure-feedback des systèmes non linéaires avec retard inconnu et incertitudes
incertaines. Pour traiter des non linéarités sur l’entrée, la même classe de systèmes a été
considérée avec zone morte (dead-zone) inconnue sur l’entrée, avec la restriction que la
( n − 1) ème et n ème équations d’état sont supposées affines afin d’éliminer la dérivation
répétitive des commandes virtuelles.

Cependant, du point de vue pratique, les méthodes développées dans [95] sont cou-
teuses du point de vue calcul suite à l’utilisation récursive des approximateurs neuronaux
où flous à chaque étape de conception. De plus, les lois d’adaptation impliquées dans DSC
nécessitent un nombre important de paramètres à mettre à jour en ligne, ce qui rend
les lois de commande ainsi que l’analyse de stabilité plus compliqués. Seulement peu

72
3.1. INTRODUCTION

de résultats ont été reportés sur la commande adaptative neuronale pour les systèmes
sous la forme générale pure-feedback sans l’utilisation des techniques back-stepping et
la DSC [96, 97]. Malgré ces efforts, les résultats existants [96, 97] sont focalisés sur les
systèmes incertains sans prise en compte de non linéarités sur les entrés.

En pratique, les non linéarités sur les entrées existent largement dans les systèmes
physiques tels qu’en mécanique, hydraulique et autre types de composants de systèmes,
ce qui rend le traitement de ces non linéarités dans la conception des contrôleurs un
domaine de recherche très important. La zone morte dans[76, 92, 98], l’entrée quantifiée
(Quantized input) dans [83, 99], backlash et hysteresis dans [100, 101] et la saturation
d’entrée dans [46, 102–104] sont des non linéarités communément traitées dans la
littérature. La saturation des signaux de commande est une non linéarité parmi les
plus importantes qui sont présente dans les systémes physiques, et qui peut limiter
gravement ses performances voire même provoquer l’instabilité. Alors, l’effet de la
saturation de l’entrée devrait être pris en compte dans la conception et l’analyse des
systèmes de commande. Plusieurs chercheurs ont déployé des efforts afin de traiter
le problème de la commande des systèmes non linéaire incertains avec saturation de
l’entrée [30–32, 35, 105–107].Dans [30], des schémas de commande à base de DSC
floue avec observateur ont été présentés pour les systèmes non linéaire strict-feedback
en présence de la saturation d’entrée. Dans [27], une commande back-stepping floue
adaptative a été développée pour les systèmes non-stricts feedback incertains où un
système auxiliaire a été introduit pour pallier aux effets de la saturation de l’entrée. Ce
résultats a été étendu pour traiter les systèmes pure-feedback avec saturation d’entrée
[108–110]. Dans [109, 110], la classe spécifique des système pure-feedback stochastiques
a été considérée. Cependant, dans les travaux [27, 30–32, 35, 105–110], les contrôleurs
proposés nécessitent N réseaux de neurones pour approximer les dynamiques incertaines
des systèmes non linéaires d’ordre N .

Afin de satisfaire certaines qualités ou indices de performance. De nombreux travaux


existants ont été développés pour résoudre ce problème en utilisant la technique de
transformation d’erreur. Dans [55, 111], la fonction tangente hyperbolique a été utilisée,
cependant, dans [112], c’est la fonction logarithme qui est utilisée. À notre connaissance,
il n’y a aucun résultat sur la commande neuronale adaptative des systèmes pure-feedback
en présence à la fois de non-linéarités d’entrée et de contraintes de sortie sans passer
par back-stepping ou DSC. L’objectif de ce chapitre est de développer une commande
adaptative neuronale pour une classe de systèmes non linéaires SISO complètement
pure-feedback et non affines en la commande avec les contraintes sur l’entrèe et la sortie.

73
CHAPITRE 3. COMMANDE ADAPTATIVE NEURONALE DES SYSTÈMES NL SISO
DE LA FORME PURE-FEEDBACK

Ce travail est présenté en deux parties :

Dans la première partie, la démarche de conception de commande adaptative neu-


ronale poursuivie dans la première partie du deuxième chapitre est généralisée afin
d’être appliquée sur une classe plus large de systèmes non linéaires non affine en la
commande dite pure-feedback avec saturation à l’entrée. L’approche proposée assure
les performances et la robustesse vis-à-vis de la saturation et les incertitudes, avec
garantie de stabilité au sens de Lyapunov. Il a été montré que tous les états du système
en boucle fermée sont bornés, ainsi que les erreurs de poursuite convergent vers un petit
voisinage de l’origine. De plus, les performances de poursuite du schéma de commande
sont illustrées par deux exemples de simulations.

Dans la deuxième partie, un schéma de commande adaptatif neuronal est proposé


pour la même classe des systèmes traités dans la première partie. Cependant, dans ce
cas, en plus de la saturation sur l’entrée, nous allons prendre en compte les contraintes
sur la sortie. En comparaissant avec les approches traditionnelles, la structure du
contrôleur proposé est plus simple à cause de l’élimination du problème de l’explosion
de complexité inhérent aux approches basées sur la méthode back-stepping. Dans ce
travail, les difficultés rencontré dans le problème de la commande des systèmes non
linéaires non affines avec contraintes sur la sortie ont été évité en le convertissant en un
problème de commande sans contraintes sous la forme affine. En utilisant les fonctions
de type Nussbaum, la connaissance, à priori, du signe du gain de commande n’est plus
nécessaire ainsi que le problème des dérivés circulaires est contourné. La méthode de
commande proposée ne nécessitent qu’un seul paramètre de réseau de neurones avec une
seule couche cachée pour son implémentation, un observateur d’états basé sur la notion
de positivitée (SPR) et un contrôleur adaptatif robuste. En effet, le réseau de neurones et
l’observateur sont utilisés, respectivement, pour approximer les non-linéarités inconnues
des systèèmes ainsi que pour compenser l’effet de la saturation sur la commande et afin
d’aborder le problème d’estimation des nouveaux é[Link] stabilité du système en boucle
fermée a été analysée au sens de Lyapunov. Les performances de poursuite du schéma
de commande proposé est illustré par une exemple de simulation.

74
3.2. COMMANDE ADAPTATIVE NEURONALE POUR UNE CLASSE DE SYSTÈME
NON LINÉAIRE PURE-FEEDBACK AVEC UNE SATURATION SUR L’ENTRÉE

3.2 Commande adaptative neuronale pour une


classe de système non linéaire pure-feedback
avec une saturation sur l’entrée

3.2.1 Position du problème


Considérons la classe suivante des systèmes non linéaires SISO pure-feedback décrite
par :

ẋ i = f i ( x̄ i , x i+1 ), i = 1, . . . , n − 1
ẋn = f n ( x̄n , u(v)), n≥2
(3.1) y = x1

où x¯i = [ x1 . . . , x i ] T ∈ ℜ i , i = 1, . . . n est le vecteur d’état complet qui est supposé dispo-


nible pour la mesure, y ∈ ℜ est la sortie de système, et f i (., .) sont des fonction continues
non affine inconnues. De plus, v est l’entrée de la commande et u(v( t)) est la non-linéarité
inconnue de l’actionneur qui est supposée ici : une saturation.
La saturation sur l’entrée u(v( t)) donnée déjà dans (2.2) est approximé de la même ma-
nière que celle dans (2.3)et réécrite ici uniquement pour simplifier le suivi des dérivations
des équations :

(3.2) sat (v ( t)) = g (v) + d (v)

L’objectif de la commande consiste à synthétiser une loi de commande assurant la


bornitude de tous les signaux du système bouclé et la poursuite pour la sortie y( t) d’une
trajectoire de référence yd ( t).
Pour la conception des lois de commande adaptative pour le système pure-feedback, le
système (3.1) est réécrit comme suit :

ẋ i = F i ( x̄ i , x i+1 ) + x i+1 , i = 1, . . . , n − 1
ẋn = F n ( x̄n , u(v)) + u(v)
(3.3) y = x1

avec F i ( x̄ i , x i+1 ) = f i ( x̄ i , x i+1 ) − x i+1 et F n ( x̄n , u(v)) = f n ( x̄n , u(v)) − u (v). Le système (3.3)
est utilisé pour concevoir l’observateur et le contrôleur dans la section suivante.
Tout au long de ce travail les hypothèses suivantes sont considérées :

75
CHAPITRE 3. COMMANDE ADAPTATIVE NEURONALE DES SYSTÈMES NL SISO
DE LA FORME PURE-FEEDBACK

Hypothèse 3.1. ([113]) Le gain de commande g i, j ( x̄ i , x i+1 ) est différent de zéro et de


signe connu.

Hypothèse 3.2. ( [96]) La trajectoire désirée yd ( t) et ses dérivées jusqu’à l’ordre ( n + 1) th


sont connues et bornées et le vecteur Yd = [ yd , . . . , yd(n) ] et yd(n+1) est disponible où Yd ∈ Ωd ⊂
ℜn+1 avec Ωd étant un ensemble compact.

Remarque 3.1. Quand il n’y a pas de non linéarités sur l’entrée, le système donné par
(3.1) peut être considéré comme une version simplifié du système non linéaire pure-feedback
dans [96]. Toutefois, ce travail est concentré sur la conception des commandes pour la
même classe des systèmes non linéaire avec saturation sur l’entrée. Donc, la conception de
contrôle et l’analyse de stabilité de systèmes en boucle fermée sont plus difficiles que ceux
dans [96].

3.2.2 La conception de la commande adaptative neuronale


Dans cette section, un schéma de commande adaptative à base de réseau de neurones
sera présenté. Pour améliorer la performance de poursuite, on développe un nouveau
schéma de commande pour surmonter les difficultés introduites par la cascade du système
pure-feedback saturé. En incorporant le système (3.3) avec un filtre passe bas est converti
en un système affine dans une forme normale mais avec les états indisponible pour la
rétroaction. Alors, le système (3.3) devient :

ẋ i = F i ( x̄ i , x i+1 ) + x i+1 , i = 1, . . . , n − 1
(3.4) ẋn = F n ( x̄n , u(v)) + g (v) + d (v) n ≥ 2

(3.5) v̇ = − cv + ω

avec c ∈ ℜ+ est une constante positive et ω est un signal de commande auxiliaire à


concevoir pour générer le signal de commande stable v, dans le système augmenté donné
par (3.5). Pour le système augmenté, il est considéré que l’entrée de la commande v est
un nouveau état, ωest une nouvelle entrée de commande.
Dans ce que suit, en utilisant les transformations rapportées dans le chapitre un, on
montre que le système (3.3) peut être transformé en forme normale comme suit :

ṡ n+1 = F ( x̄n , u(v)) + g ( x̄n , u(v)) ω + β Zβ ( g (v) + d (v))


¡ ¢
(3.6)

76
3.2. COMMANDE ADAPTATIVE NEURONALE POUR UNE CLASSE DE SYSTÈME
NON LINÉAIRE PURE-FEEDBACK AVEC UNE SATURATION SUR L’ENTRÉE

avec
nX
−1 ∂ϕ ∂ϕn+1 ( x̄n , u(v))
n+1 ( x̄ n , u(v))
F ( x̄n , u(v)) = ẋ j − c v
j =1 ∂x j ∂v
∂ϕn+1 ( x̄n , u (v))
(3.7) + F n ( x̄n , u (v))
∂ xn
∂ϕn+1 ( x̄n , u(v))
(3.8) g ( x̄n , u(v)) =
∂v
∂ϕn+1 ( x̄n , u (v))
β Zβ =
¡ ¢
(3.9)
∂ xn
avec Zβ = [ x̄n , u(v)]
En conséquence, le système (3.6)peut être décrit sous la forme normale avec le respect
les nouveaux états :

ṡ i = s i+1 , 1 ≤ i ≤ n
ṡ n+1 = F ( x̄n , u(v)) + g( x̄n , u(v))ω + β Zβ ( g (v) + d (v))
¡ ¢

(3.10) y = x1

avec s = [ s 1 , . . . , s n+1 ]T sont les nouvelles variables d’état, et y ∈ ℜ la sortie mesurée.


F ( x̄n , u(v)) et g ( x̄n , u(v)) sont des fonctions non linéaires inconnues. Soit l’erreur de
poursuite définie par :

(3.11) e 1 = y − yd = s 1 − yd
h iT
où e = [ e 1 , e 2 , . . . , e n+1 ]T = e 1 , ė 1 , . . . , e(n)
1 . La dynamique des erreurs de poursuite sera
alors donnée par :

ė n+1 = F ( x̄n , u (v)) + g ( x̄n , u (v)) ω − yd(n+1) + β Zβ ( g (v) + d (v))


¡ ¢
(3.12)

ce qui peut être écrit sous forme matriciel


h i
ė = Ae + B F ( x̄n , u(v)) + g( x̄n , u(v))ω + β Zβ ( g (v) + d (v)) − yd(n+1)
¡ ¢

(3.13) y = CT e

avec avec
     
0 1 0 0 0 0
 ···     

 0 0 1 0 

 0 
 
 0 
 
 .. .. .. ∈ ℜn×n , B =  ...  ∈ ℜn×1 , c =  ...  ∈ ℜn×1
    
A=
 . . .    
     
 0 0 0 1 

 0 
 
 0 
 
 ···
0 0 0 0 1 1

Notons que la paire ( A, B) est contrôlable et la paire (C T , A ) est observable.

77
CHAPITRE 3. COMMANDE ADAPTATIVE NEURONALE DES SYSTÈMES NL SISO
DE LA FORME PURE-FEEDBACK

Remarque 3.2. À partir de la transformation ci-dessus, on voit que le système (3.3) est
similaire aux systèmes affine dans [35, 107] qui appliquent l’approche DSC adaptative
et la méthode traditionnelle back-stepping adaptative, respectivement. Ces dernières
procédures contienne " N " étapes avec des lois de commande virtuelles qui ne sont pas
nécessaire dans le travail proposé où la conception de la commande est devenue simple et
directe avec la conception unique de la commande réelle et ses lois d’adaptations.

Remarque 3.3. Les nouveaux états s i , i = 2, . . . , n + 1 du système transformé (3.10) ne sont


pas disponibles pour l’implémentation du contrôleur, alors, un observateur est introduit
pour estimer le vecteur de l’erreur de poursuite. À partir de ce dernier, on peut déterminer
directement l’estimation du nouveau vecteur d’état s = [ s 1 , . . . , s n+1 ]T .

3.2.3 Conception de l’observateur


Considérons, maintenant, l’observateur suivant pour l’estimation du vecteur de
l’erreur de poursuite :

ê˙ = ( A − Bk T ) ê − B yd(n+1) + L ẽ 1
(3.14) ê 1 = C T ê
¤T
où k = [ k 0 , k 1 , . . . , k n ]T est le vecteur de gain de retour d’état, L = L 1 , . . . , L (n+1) est le
£

vecteur du gain de l’observateur, et ils sont choisis de sorte que les polynômes carac-
téristiques de A − Bk T et A − LC T sont Hurwitz (c.-à-d., stable). Notons que ẽ = e − ê,
ê = ŝ − Yd , avec ŝ est l’estimé du vecteur d’état s et ê est l’estimé du vecteur des erreurs
de poursuite e. Par conséquent, si l’erreur d’observation ẽ converge vers zéro, l’erreur de
poursuite estimée êconvergera également vers zéro.
Pour simplifier la conception de la loi de commande, et selon la propriété d’approximation
universelle des réseaux de neurones, les fonctions non linéaires inconnues suivantes
peuvent être approximées comme suit :

g ( x̄n , u(v))−1 F ( x̄n , u(v)) + β Zβ ( g (v) + d (v)) = W1T S ( Z ) + ε1 ( Z )


¡ ¡ ¢ ¢
(3.15)
(3.16) g ( x̄n , u (v))−1 = W2T S ( Z ) + ε2 ( Z )

et

Wi = argminW {sup z∈Ω z ¯ fˆ ( Z /W ) − f ( Z )¯}


¯ ¯
(3.17)

où Z = [ x̄n , v, u (v) ]T est le vecteur d’entrée du réseau et S (.) est le vecteur de fonction
d’activation neuronale est supposé convenablement fixé à l’avance par l’utilisateur, W1 et

78
3.2. COMMANDE ADAPTATIVE NEURONALE POUR UNE CLASSE DE SYSTÈME
NON LINÉAIRE PURE-FEEDBACK AVEC UNE SATURATION SUR L’ENTRÉE

W2 sont les paramètres idéaux d’approximation avec les erreurs neuronaux |ε1 | et |ε2 |.
Étant W1 et W2 sont inconnus, ces valeurs estimés Ŵ1 et Ŵ2 seraient utilisées.
Notons que les paramètres optimaux W1 et W2 sont des constantes artificielles inconnues
introduites uniquement pour faire l’étude théorique de la stabilité de l’algorithme de
commande. En fait, la connaissance de leurs valeurs n’est pas nécessaire pour l’implé-
mentation des lois de commande adaptatives.
Puisque les vecteurs de paramètres idéaux Wi sont inconnus, il devrait être estimé par
une loi d’adaptation appropriée. Les estimations sont représentées par Ŵi . Définissons
les vecteurs de l’erreur d’estimation paramétrique comme :

(3.18) W̃i = Wi − Ŵi , i = 1, 2

Selon (3.15), l’erreur dynamique (3.13)peut être représentée par


h ³ ´ i
+1)
ė = Ae + B g ( x̄n , u(v)) W1T S ( Z ) + ε1 ( Z ) + ω − y(n
d
(3.19) y = CT e

En choisissant la loi de commande suivante :

(3.20) ω = − k T ê Ŵ2T S ( Z ) − Ŵ1T S ( Z ) + vr

où vr est un terme de contrôle compensatif pour les erreurs d’approximation à spècifier


ultèrieurement. En remplaçant (3.20) dans la dynamique de l’erreur de poursuite (3.19),
nous obtenons
³ ´
ė = Ae − Bk T ê + B[ g ( x̄n , u (v)) W̃1T S ( Z ) + ε1 ( Z )
³ ´
+ k T ê g ( x̄n , u (v)) W̃2T S ( Z ) + ε2 ( Z )
+1)
(3.21) + g ( x̄n , u(v)) vr ( t) − y(n
d
]

Soit le vecteur des erreurs d’observation comme ẽ = [ ẽ 1 , . . . , ẽ n+1 ]T = e − ê. En sous-


trayant(3.14) de (3.21), nous obtenons la dynamique suivante pour l’erreur d’observation :

ẽ˙ = ( A − LC T ) ẽ + B g( x̄n , u(v))[(W̃1T S ( Z ) + ε1 ( Z ))


+ k T ê(W̃2T S ( Z ) + ε2 ( Z )) + vr ]
(3.22) ẽ 1 = C T ẽ

La dynamique de l’erreur de poursuite de la sortie (3.22), peut s’écrire comme :


h ³ ´i
(3.23) ẽ = H ( p) g( x̄n , u(v)) W̃1T S ( Z ) + ε1 ( Z ) + vr + k T ê(W̃2T S ( Z ) + ε2 ( Z )

79
CHAPITRE 3. COMMANDE ADAPTATIVE NEURONALE DES SYSTÈMES NL SISO
DE LA FORME PURE-FEEDBACK

où H ( p) est la fonction de transfert associée à la dynamique de système est défini dans


le chapitre 2.
Maintenant, puisque H ( p) dans (3.23) n’est pas SPR en général, on introduit un filtre
passe bas L ( p) sachant que H ( p) L−1 ( p) = H̄ ( p) est SPR.
h ³ ´i
ẽ 1 = H ( p)L−1 ( p) L( p) g( x̄n , u(v)) W̃1T S ( Z ) + ε1 ( Z ) + vr + k T ê(W̃2T S ( Z ) + ε2 ( Z )
h i
(3.24) = H ( p)L−1 ( p) W̃1T S ( Z ) + k T êW̃2T S ( Z ) + U + vr

avec
h i
U = L( p) g( x̄n , u(v))(W̃1T S ( Z ) + ε1 ( Z ) + vr + k T ê(W̃2T S ( Z ) + ε2 ( Z ))
(3.25) − W̃1T S ( Z ) − k T êW̃2T S ( Z ) + vr

Maintenant, pour faciliter la conception de la commande et l’analyse de stabilité, nous


émettons l’hypothèse suivante :

Hypothèse 3.3. Chaque élémentU du paramètre inconnu défini dans (3.25) est délimité
par une constante, c’est-à-dire qu’il existe une constante positive inconnue τ̄ telle que

(3.26) |U | ≤ τ̄

Ainsi, la réprésentation d’état de (3.24) comme suit


h i
ẽ˙ = ( A − LC T ) ẽ + B c (W̃1T S ( Z ) + k T ê(W̃2T S ( Z ) + U + vr
(3.27) ẽ 1 = C T ẽ

Le vecteur de gain d’observateur L est calculé afin que la matrice A − LC T ait toutes
¡ ¢

ses valeurs propres à parties réelles négatives. Par conséquent le système bouclé sera
exponentiellement stable. On lui associe une équation de Lyapunov, ayant pour solution
unique une matrice symétrique définie positive P , donnée par
³ ´T ³ ´
(3.28) A − LC T P + P A − LC T = −Q

(3.29) PB c = C

où A − LC T et Q est une matrice symétrique et définie positive dont le choix est libre.
¡ ¢

80
3.2. COMMANDE ADAPTATIVE NEURONALE POUR UNE CLASSE DE SYSTÈME
NON LINÉAIRE PURE-FEEDBACK AVEC UNE SATURATION SUR L’ENTRÉE

3.2.4 Analyse de la stabilité


Les résultats suivants concluent la stabilité du système en boucle fermée

Théorème 3.1. Considérons le système non linéaire non affine (3.1) avec les contraints
sur l’entrée, et supposons que les hypothèses 3.1-3.4 sont satisfaites et l’observateur (3.14).
Alors la loi de commande définit par l’équation (3.20) avec le terme de de commande
compensateur suivant :

ẽ 1
µ ¶
(3.30) vr = −τ̂tanh
²

avec les lois de commande adaptatives correspondantes

˙
1 = Γ1 ẽ 1 S ( Z ) − σ1 Ŵ1
¡ ¢
(3.31) Ŵ

˙
³ ´
T
(3.32) Ŵ 2 = Γ2 k ê ẽ 1 S ( Z ) − σ2 Ŵ2

˙τ̂ = γ ẽ 1 tanh( ẽ 1 ) − σ2 τ̂
µ ¶
(3.33)
²

où Γ1 , Γ2 , γ1 , σ1 , σ2 et σ3 sont positives constantes. Ensuite, il peut être garanti que


tous les signaux du système en boucle fermée sont bornés et que les erreurs de poursuite
convergent vers un petit voisinage de l’origine.

Preuve du Théorème 3.1 : Considérons la fonction de Lyapunov candidate suivante

1 1 1
(3.34) V = ẽ T P2 ẽ + W̃1T Γ1 −1 W̃1 + W̃2T Γ2 −1 W̃2 + τ̃2
2 2 2γ

où τ̃ = τ̄ − τ̂ et W̃i = Ŵi − Wi , i = 1, 2 sont les erreurs paramétriques. En dérivant V le long


de la solution (3.28), on obtient
h i
V̇ = − ẽ T Q ẽ + ẽ T PB c W̃1T S ( Z ) + k T ê(W̃2T S ( Z ) + U + vr

(3.35) − W̃1T Γ1 −1 Ŵ ˙ − 1 τ̃ τ̂˙


˙ − W̃ T Γ −1 Ŵ
1 2 2 2
γ

En utilisant (3.29), (3.35) peut être arrangée comme suit

˙
h i
V̇ = − ẽ T Q ẽ + [ ẽ 1U + ẽ 1 vr ] + W̃1T ẽ 1 S ( Z ) − Γ1 −1 Ŵ 1
i 1
˙ − τ̃ τ̂˙
h
(3.36) + W̃2T ẽ 1 k T êS ( Z ) − Γ2 −1 Ŵ 2
γ

81
CHAPITRE 3. COMMANDE ADAPTATIVE NEURONALE DES SYSTÈMES NL SISO
DE LA FORME PURE-FEEDBACK

À l’aide de l’hypothèse 3.4, par substitution de l’équation (3.30)dans (3.36), on trouve


après un calcule intermédiaire
ẽ 1 1
· ¸
V̇ ≤ − ẽ T Q ẽ + κ² τ̄ − | ẽ 1 | τ̃tanh( ) + τ̃ τ̂˙
² γ
−1 ˙
h i
T
+ W̃1 ẽ 1 S ( Z ) − Γ1 Ŵ1
˙
h i
(3.37) + W̃2T ẽ 1 k T êS ( Z ) − Γ2 −1 Ŵ 2

En se servant du lemme 2.1 l’équation (2.7), et selon les lois d’adaptation des paramètre
(3.31)-(3.33), on obtient

(3.38) V̇ ≤ − ẽ T Q ẽ + σ1 W̃1T Ŵ1 + σ2 W̃2T Ŵ2 − σ3 τ̃τ̂ + κ²τ̄

En utilisant les inégalités suivantes,


σ1 σ1 °
°W̃1 °2
σ1 W̃1T Ŵ1 ≤ kW1 k2 −
°
(3.39)
2 2
T σ2 2 σ2 ° °2
(3.40) σ2 W̃2 Ŵ2 ≤ kW2 k − °W̃2 °
2 2
σ3 2 σ3 2
(3.41) σ3 τ̃τ̂ ≤ − τ̃ + τ̄
2 2
Ensuite, V̇ peut être réécrit comme suit :
σ1 σ2 σ3
V̇ ≤ − ẽ T Q ẽ − ||W̃ ||21 − ||W̃ ||22 − τ̄2
2 2 2
σ1 σ2 σ3 2
+ ||W ||21 + 2
||W ||2 + τ̄ + κ²τ̄
2 2 2
≤ −αV + θ
(3.42)
λmin (Q)
Posons θ = σ21 kW1 k2 + σ22 kW2 k2 + σ23 τ2 +κ²τ̄ ; α = min σ1 σ2
, σ3
n o
, ,
λmax (P) λmax (Γ1 −1 ) λmax (Γ2 −1 ) γ
avec
λmin (.) et λmax (.) désigne la valeur propre minimale et maximales de (.), respectivement.
Multiplier les deux côtés par eα t , (3.42) peut être exprimé comme
d
(3.43) (V ( t) eα t ) ≤ θ eα t
dt
Intégration (3.43) sur [0, t], il s’ensuit que
θ θ −α t
· ¸
(3.44) 0 ≤ V ( t) ≤ + V (0) − e
α α

À partir de (3.44), donc ẽ, W̃1 , W̃2 , τ̃ sont bornés. Utilisant (3.44), V (0) est défini comme
suit :

(3.45) V (0) = ẽ T (0) P ẽ (0) + 21 W̃1T (0) Γ1 −1 W̃1 (0) + 21 W̃2T (0)Γ2 −1 W̃2 (0) + 21γ1 τ̃2 (0)

82
3.2. COMMANDE ADAPTATIVE NEURONALE POUR UNE CLASSE DE SYSTÈME
NON LINÉAIRE PURE-FEEDBACK AVEC UNE SATURATION SUR L’ENTRÉE

De (3.34) et (3.45), on obtient

¶¶ 1
1 θ θ
µ µ µ ¶
2
−α t
(3.46) k ẽk ≤ + V (0) − e
λmin (P ) α α

Alors la solution ẽ converge de manière exponentielle vers une région bornée

( ¯ ¶1 )
1 θ 2
¯ µ
(3.47) Ω ẽ = ẽ ¯ k ẽk ≤
¯
¯ λmin (P ) α

De même, les vecteurs d’erreur de paramètre W̃1 et W̃2 sont également bornés et
convergent vers Ω tildeW1 et Ω tildeW2 , définis comme suit :

 ¯ Ã !1 
 ¯¯ 2 θ 2
ΩW̃1
° °
(3.48) = W̃ ¯ °W̃1 ° ≤
 1 ¯¯ λmin Γ1 −1 α
¡ ¢

 ¯ Ã !1 
 ¯¯ 2 θ 2
ΩW̃2
° °
(3.49) = W̃ ¯ °W̃2 ° ≤
 2 ¯¯ λmin Γ2 −1 α
¡ ¢

De la bornitude ẽ, W̃1 , W̃2 et τ̃ on peut déduire la bornitude de e, ê, s̃, Ŵ1 , Ŵ2 et τ̂ car
ẽ = e − ê = s̃ , Ŵ1 = W1 − W̃1 , Ŵ2 = W2 − W̃2 , τ̃ = τ̄ − τ̂ et les paramètres idéaux W1 ,W2 et τ̄
doit être borné. De la bornitude de ẽ et la définition de ê dans (3.14), on peut conclure
que ê est borné et e est borné également. Basé sur e = s − Yd , on a s est aussi borné et il
s’ensuit que ŝ est borné parce que s̃ est borné. L’état x1 est borné parce que x1 = s 1 . Par
ailleurs, parce que s 2 est borné et ∂ϕ2 ( x2 )/∂ x2 > 0, on conclut que x2 est borné basé sur
la définition de s 2 = ϕ( x̄2 ). Similaire et récursivement, les états x i , i = 3, . . . , n sont tous
bornés.
Par conséquent, il est conclu que tous les signaux du système en boucle fermée résultant
sont bornés.

3.2.5 Résultats de simulation

Afin de montrer l’efficacité de la méthode proposée, deux exemples sont donnés dans
cette section. Le premier est un système non linéaire pure-feedback sous la forme de (3.1),
tandis que le second est directement appliqué au système non linéaire strict-feedback
sous la forme de (3.3).

83
CHAPITRE 3. COMMANDE ADAPTATIVE NEURONALE DES SYSTÈMES NL SISO
DE LA FORME PURE-FEEDBACK

[Link] Exemple 1

Considérons le système non linéaire pure-feedback du troisième roder [96] décrit par
les équations dynamiques suivantes :

ẋ1 = f 1 ( x1 , x2 )
ẋ2 = f 2 ( x̄2 , x3 )
ẋ3 = f 3 ( x̄3 , u(v))
(3.50) y = x1

1−exp(x x )
où f 1 ( x1 , x2 ) = 0.2 x1 + x2 , f 2 ( x̄2 , x3 ) = 1+exp(x11 x22 ) + x3 +0.05 sin( x3 ) et f 3 ( x̄3 , u(v)) = 0.2exp − x24 x36 +
¡ ¢

0.9 + 0.05exp − x12 sat ( u) + 0.1sin (sat ( u)) sont des fonctions non linéaires inconnues.
¡ ¡ ¢¢

La saturation sur l’entrée sat( u( t)) est déterminé par (3.2)avec le paramètre u m = 2.5.
L’objectif de la simulation est d’appliquer la commande adaptative neuronale proposé de
sorte que la sortie du système y1 suit la trajectoire désirée yd ( t) = sin( t). Pour implé-
menter la commande proposée, le vecteur de gain d’observateur et les vecteurs de gain de
retour d’état sont sélectionnés respectivement comme suit : k = [15.596 × 102 , 149.78 ×
T
102 , 463.1 , 50.1], L = [102, 62.03 × 102 , 17.25 × 103 , 29.153 × 103 ] . Sélection de la ma-
trice définie positive
Q = D iag [10 10 10 10] et en résolvant l’équation algébrique de Lyapunov (3.28) pour
obtenir la matrice symétrique définie positive suivante :

 
25.06 15.06 −25.03 −15.03
 
 15.06 55.16 5.06 −75.08 
P =
 

 −25.03 5.06 55.11 −35.03 
 
−15.03 −75.08 −35.03 124.86

Le système (3.1) possède deux réseaux de neurones sous la forme (1.1) pour approximer
en ligne les fonctions inconnus, le nombre des réseaux a été choisi avec N = 5, et les
variables d’entrée sont choisis comme Z = [ x1 , x2 , x3 , v ( t) , u(v)]T . Les paramètres de
synthèses et les conditions initiales utilisés dans cette simulation sont donnés dans le
tableau 3.1.

84
3.2. COMMANDE ADAPTATIVE NEURONALE POUR UNE CLASSE DE SYSTÈME
NON LINÉAIRE PURE-FEEDBACK AVEC UNE SATURATION SUR L’ENTRÉE

Les paramètres Les valeurs

Γ1 = Γ2 0.001
σ1 = σ2 0.001
σ3 10
γ, ², a 10, 0.1, 50
x (0) = [ x1 (0) , x2 (0) x3 (0) ] [1, 0, 0]T
ê (0) = [ ê 1 (0) , ê 2 (0) , ê 3 (0) ê 4 (0)] [1, 0, 0, 0]T
Wi (0) , i = 1, 2 0

Tableau 3.1: Les paramètres de synthèses et les conditions initiales.

Les figures 3.1-3.5 présentent les résultats de simulation obtenus par le contrôleur
adaptatif neuronale de l’exemple 1. Ces résultats montrent que les performances de
poursuite sont suffisamment bonnes et que tous les signaux du système en boucle fermée
sont bornés. On peut voir dans la figure 3.1 (a) que la sortie y1 suit parfaitement sa
référence yd . La figure 3.1 (b) montre les trajectoires des états x i .Un observateur d’erreur
ẽ est indiqué dans la figure 3.2 (a). On remarque aussi clairement sur la figure 3.2 (a) que
l’observateur est capable à estimer correctement les états non mesurés. Les normes des
paramètres ajustés sont bornées tel que présentées dans la figure 3.2(b). La bornitude
de la loi de commande intermédiaire ω( t) est illustré dans la figure 3.3(a). Le signal de
commande u( t) et sat( t) peuvent être observés dans la figure 3.3(b). Les figures 3.4-3.5
présentent les erreurs de poursuite et leurs estimations ainsi que les trajectoires des
nouveaux états avec leurs estimations, respectivement.
Pour Montrer l’efficacité de la commande proposé dans ce travail, une comparaison
est effectuée avec le contrôleur de back-stepping traditionnel sans tenir compte de la
saturation en entrée [93]. La commande d’entré réelle est donnée comme [93] :

(3.51) u = − z2 − k 3 z3 − Ŵ3 S ( Z3 )

avec z1 = x1 − yd , z2 = x2 − α1 , z3 = x3 − α2 . Les commandes virtuelles sont choisies


comme [93] :
α2 = − z1 − k 2 z2 − Ŵ2T S ( Z2 )

α1 = − k 1 z1 − Ŵ1T S ( Z1 )

Avec les entrées de NNs sont choisis comme


Z1 = [ x1 , ẏd ]T , Z2 = [ x̄2 , ∂α1 /∂ x1 , ;1 ]T , Z3 = [ x̄3 , ∂α2 /∂ x1 , ∂α2 /∂ x2 , ;2 ]T avec ; i =
Pi
∂α i /∂ ydk ydk+1 +
¡ ¢
k=0

85
CHAPITRE 3. COMMANDE ADAPTATIVE NEURONALE DES SYSTÈMES NL SISO
DE LA FORME PURE-FEEDBACK

¢ ˙
∂α i /∂Ŵk Ŵ
¡
k , i = 1, 2, et les lois de commandes adaptatives sont données par

(3.52) ˙ = Γ ¡ z S ( Z ) − σ Ŵ ¢ , i = 1, 2, 3
Ŵ i i 1 i i i

À partir des équations ci-dessus définissant le contrôleur et les lois d’adaptations dans
[93], on peut voir clairement l’explosion de complexité impliquée par l’utilisation de deux
entrées de commande virtuelles avec leurs dérivées compliquées, ainsi que de nombreux
paramètres de conception. Il est important de noté que le calcul précis des commandes
virtuelles α̇ i n’est pas simple, en particulier pour les systèmes d’ordre élevé en raison
des dérivées partielles successives des NNs. En revanche, l’approche proposée n’a besoin
que de deux paramètre de NNs quel que soit l’ordre du système non linéaire.
Les résultats obtenus lors de l’utilisation du contrôleur défini dans [93] sans saturation
sur l’entrée est montré dans la figure 3.6. Il est trés clair que l’approche proposé ait des
performances supérieures à celle dans [93] parce que la réponse obtenue dans la figure
3.6 (a) montre l’équivalence de performance de poursuite de notre approche mais au prix
d’un signal de commande énergétique, comme indiqué dans la figure 3.6 (b). Ce grand
signal de commande peut être non réaliste. Cependant, lorsque la saturation d’entrée
est appliquée dans les figures 3.7 (a)-(b) montre l’incapacité du contrôleur dans [93] à
amener le système à suivre sa référence.

(a)

(b)

F IGURE 3.1: Le résultat de simulation de l’exemple 1. (a) Performance de poursuite : la


sortie y la référence yd . (b) La poursuite de l’état x2 et x3 .

86
3.2. COMMANDE ADAPTATIVE NEURONALE POUR UNE CLASSE DE SYSTÈME
NON LINÉAIRE PURE-FEEDBACK AVEC UNE SATURATION SUR L’ENTRÉE

(a)

(b)

F IGURE 3.2: Le résultat de simulation de l’exemple 1. (a) L’écart entre l’erreur de


poursuite et son éstimé . (b) La norme des paramètres de NNs ajustés.

87
CHAPITRE 3. COMMANDE ADAPTATIVE NEURONALE DES SYSTÈMES NL SISO
DE LA FORME PURE-FEEDBACK

(a)

(b)

F IGURE 3.3: Le résultat de simulation de l’exemple 1. (a)La commande intermédiaire


ω( t) .(b) Poursuite de u( t) et sat( t).

(a) (b)

(c) (d)

F IGURE 3.4: l’erreur de poursuite du système transformé avec son estimation de l’exemple
1.

88
3.2. COMMANDE ADAPTATIVE NEURONALE POUR UNE CLASSE DE SYSTÈME
NON LINÉAIRE PURE-FEEDBACK AVEC UNE SATURATION SUR L’ENTRÉE

(a) (b)

(c) (d)

F IGURE 3.5: Les nouveaux variables d’états et leurs estimés de l’exemple 1.

(a) (b)

F IGURE 3.6: Le résultat de simulation de l’exemple 1. (a) Les performances de la compa-


raison pour les deux approches sans saturation. (b)La commande d’entrée u( t) des deux
approches (sans saturation sur l’entré).

89
CHAPITRE 3. COMMANDE ADAPTATIVE NEURONALE DES SYSTÈMES NL SISO
DE LA FORME PURE-FEEDBACK

(a) (b)

F IGURE 3.7: Le résultat de simulation de l’exemple 1. (a)Les performances de poursuite


de la commande de back-stepping avec saturation sur l’entrée. (b)La commande d’entrée
de la technique de back-stepping avec saturation

[Link] Exemple 2

Considérons le système non linéaire du second ordre donné par [107]

ẋ1 = x2 − x1 /1 + x14
2
ẋ2 = sat( u( t)) − x2 e− x1
(3.53) y = x1

où la saturation sur l’entrée sat( u ( t)) est déterminé par (3.2) avec le paramètre u m = 2.
L’objectif de la simulation est d’appliquer la commande adaptative neuronale proposée
de sorte que la sortie du système y suit la trajectoire désiré yd ( t) = sin( t).
Pour implémenter la commande proposée, le vecteur de gain d’observateur et les vecteurs
de gain de retour d’état sont sélectionnés respectivement comme suit : k = [15.813 ×
102 , 407.8 , 350],L = [100, 6000, 5000]T . Sélection de la matrice définie positive
Q = D iag[100 100 100 ] et en résolvant l’équation algébrique de Lyapunov (3.28) pour
obtenir la matrice symétrique définie positive suivante :
3 2
5.1686 × 10 −0.500 × 10 −43.40
 
P =  −50. 00 43. 40 − 50. 00 

−43.4.00 −50.00 60.90
Le système (3.1) possède deux réseaux de neurones sous la forme (1.1) pour approxi-
mer en ligne les fonctions inconnus, le nombre des réseaux a été choisi avec N = 4, et
les variables d’entrée sont choisis comme Z = [ x1 , x2 , v ( t) , u(v)]T . Les paramètres de
synthèses et les conditions initiales utilisés dans cette simulation sont donnés dans le
tableau 3.2.

90
3.2. COMMANDE ADAPTATIVE NEURONALE POUR UNE CLASSE DE SYSTÈME
NON LINÉAIRE PURE-FEEDBACK AVEC UNE SATURATION SUR L’ENTRÉE

Les paramètres Les valeurs

Γ1 , Γ2 100, 0.001
σ1 = σ3 0.01
σ2 100
γ, ², a 0.01, 0.1, 20
x (0) = [ x1 (0) , x2 (0) ] [0.01, 0.2]T
ê (0) = [ ê 1 (0) , ê 2 (0) , ê 3 (0) ] [1, 0, 0]T
Wi (0) , i = 1, 2 0

Tableau 3.2: Les paramètres de synthèses et les conditions initiales.

Les figures 3.8-3.12 illustrent les résultats de simulation de l’exemple 2. Ces résultats
montrent que les performances de poursuite sont suffisamment bonnes et tous les signaux
du système en boucle fermée sont bornés. On peut voir dans la figure 3.8 (a) que la sortie
y suit sa référence yd avec précision. La figure 3.8 (b) montrer les trajectoires des états
x i . On remarque aussi clairement sur la figure 3.9 (a) que l’observateur arrive à estimer
correctement les états non mesurés. Les normes des paramètres ajustés sont bornées est
présentée dans la figure 3.9 (b). La bornitude de la loi de commande intermédiaire ω( t)
est illustré dans la figure 3.10 (a). Le signale de commande u( t) et sat( t) peut être observé
dans la figure 3.10 (b). Les figures 3.11-3.12 montrent que les erreurs de poursuite et leurs
estimations et les trajectoires des nouveaux états avec leurs estimations, respectivement.
Pour Montrer l’efficacité de la commande proposée dans ce travail, une comparaison est
effectuée avec le contrôle back-stepping traditionnel en considérant la saturation d’entrée
[107]. La commande d’entrée réelle u( t), la fonction de la commande intermédiaire α1 , et
les lois d’adaptations Ŵ1 et Ŵ2 sont donnés par [107] :

1
(3.54) u = − h̄ − z1 − k 2 z2 − z2 − 2(∂α1 /∂ y)2 z2 − H2
2

7 z1
(3.55) α1 = − k 1 z1 − Ŵ1T S 1 ( x1 ) − ẏd − ¡ 2 ¢
4 k b1 − z1

˙ = Γ S (x ) ¡ z1
(3.56) Ŵ 1 1 1 1 2
¢ − σŴ1
k b1 − z1

(3.57) ˙ = Γ z S ( x̂ ) − σŴ
Ŵ 2 2 2 2 2 2

91
CHAPITRE 3. COMMANDE ADAPTATIVE NEURONALE DES SYSTÈMES NL SISO
DE LA FORME PURE-FEEDBACK

˙ − ∂α1 ẏ − ∂α1 ÿ − ∂α1 £ x̂ − Ŵ T S ( x )¤, et z = y− y , z =


où H2 = k 2 e 1 +Ŵ2T S 2 ( x̂2 )− ∂α1 Ŵ
∂Ŵ1 1 ∂ y d ∂ ẏ d
d d ∂y 2 1 1 1 1 d 2
x̂2 − α1 , e 1 = x2 − x̂2 . L’observateur d’état utilisé dans [40] est défini par :

(
x̂˙ 1 = x̂2 + Ŵ1T S 1 ( x1 ) + λ1 ( y − x̂1 )
(3.58)
x̂˙ 2 = g (v) + Ŵ T S 2 ( x̂2 ) + λ2 ( y − x̂1 )
2

Il est à noter que deux paramètre de NNs sont utilisés dans le contrôleur par back-
stepping (3.54)-(3.57) pour le système du deuxième ordre (3.53). De la définition de la
commande et les lois d’adaptations dans [107], on peut voir clairement l’explosion de
complexité impliquée par l’utilisation de nombreux paramètres de conception ainsi que
de deux entrées de NNs et une commande virtuelle avec ses dérivées compliquées.
Les résultats obtenus lors de l’utilisation du contrôleur défini dans [107] avec saturation
d’entrée est montré dans la figure 3.13. Il est très clair que l’approche proposé présente
des performances supérieures à celle dans [107] parce que la réponse obtenue dans la
figure 3.13 (a) montre la performance de poursuite est lente par rapport à notre approche.
De plus, le signal de commande est largement fort en phase transitoire comme illustré
sur la figure 3.13 (b). Ce large signal de commande peut être non réaliste.

(a)

(b)

F IGURE 3.8: Le résultat de simulation de l’exemple 2. (a) Performance de poursuite : la


sortie y la référence yd . (b) La poursuite de l’état x2 et x3 .

92
3.2. COMMANDE ADAPTATIVE NEURONALE POUR UNE CLASSE DE SYSTÈME
NON LINÉAIRE PURE-FEEDBACK AVEC UNE SATURATION SUR L’ENTRÉE

(a) (b)

F IGURE 3.9: Le résultat de simulation de l’exemple 2. (a)L’écart entre l’erreur de pour-


suite et son éstimé. (b) La norme des paramètres de NNs ajustés.

(a) (b)

F IGURE 3.10: Le résultat de simulation de l’exemple 2. (a) La commande intermédiaire


ω( t) .(b) Poursuite de u( t) et sat( t).

93
CHAPITRE 3. COMMANDE ADAPTATIVE NEURONALE DES SYSTÈMES NL SISO
DE LA FORME PURE-FEEDBACK

(a) (b)

(c)

F IGURE 3.11: l’erreur de poursuite du système transformé avec son estimation de


l’exemple 2.

(a) (b)

(c)

F IGURE 3.12: Les nouveaux variables d’états et leurs estimés de l’exemple 2.

94
3.3. COMMANDE ADAPTATIVE POUR DES SYSTÈMES PURE-FEEDBACK
INCERTAINS AVEC DES CONTRAINTS SUR L’ENTRÉE ET LA SORTIE SANS
CONNAISSANCE SUR LA DIRECTION DE COMMANDE

(a) (b)

F IGURE 3.13: Le résultat de simulation de l’exemple 2. (a) les performances de la


comparaison de deux approches. (b)La commande d’entrée u( t) des deux approches.

3.3 Commande adaptative pour des systèmes


pure-feedback incertains avec des contraints sur
l’entrée et la sortie sans connaissance sur la
direction de commande

3.3.1 Position du problème


Considérons la classe suivante des systèmes non linéaires SISO pure-feedback décrite
par :

ẋ i = f i ( x̄ i , x i+1 ), i = 1, . . . , n − 1
ẋn = f n ( x̄n , u(v)), n≥2
(3.59) y = x1

où x¯i = [ x1 . . . , x i ] T ∈ ℜ i , i = 1, . . . n est le vecteur d’état complet qui est supposé dispo-


nible pour la mesure, f i (., .) sont des fonction continues non affine inconnues. De plus,
v est l’entrée de la commande et u(v( t)) est une saturation incertaine sur l’entrée de la
commande. Soit les contraintes sur la sortie du système y( t) définies comme suit :

(3.60) y ( t ) < y ( t ) < y ( t ) , ∀ t ∈ ℜ+

où y ( t) et y ( t) sont des fonctions pré-sélectionnées différentiables et continues désignant


les bornes inférieure et supérieure de la sortie y( t) et satisfont y ( t) < yd ( t) < y ( t) avec
yd ( t) est le trajectoire de la référence.

95
CHAPITRE 3. COMMANDE ADAPTATIVE NEURONALE DES SYSTÈMES NL SISO
DE LA FORME PURE-FEEDBACK

La saturation sur l’entrée u(v( t)) donnéée déjà dans (2.2) est approximé de la même ma-
nière que celle dans (2.3)et réécrite ici uniquement pour simplifier le suivi des dérivations
des équations :

(3.61) sat (v ( t)) = g (v) + d (v)

Afin de faciliter la conception de la commande pour le système non linéaire incertain


(3.59), en utilisant le théorème de la valeur moyenne, g (v) dans (3.61) peut être exprimée
comme suit :
∂ g (v) ¯¯
¯
0
v − v0 .
¡ ¢ ¡ ¢
(3.62) g ( v) = g v +
∂v ¯ v=θ .v
θ
où θ ∈ (0, 1) satisfaisant que v = θ .v + (1 − θ ) v . En choisissant v0 = 0, et en considérant
0

la propriété de g (v), nous avons g (0) = 0. L’équation (3.62) être représentée comme suit :
∂ g (v) ¯¯
¯
(3.63) g ( v) = v
∂v ¯ v=θ .v
L’objective dans ce travail consiste à concevoir une loi de commande adaptative à base de
réseaux de neurones pour une classe de système non linéaire pure-feedback en présence
de non-linéarités d’entrée et de direction de commande inconnue telles que tous les
signaux du système en boucle fermée soient bornés et que la sortie du système y( t) du
système (3.59) suive les trajectoires de références prédéterminées yd ( t).
Tout au long de ce travail, les hypothèses suivantes sont considérées :
∂ f i, j ( x̄ i ,x i+1 )
Hypothèse 3.4. Le gain de commande g i, j ( x̄ i , x i+1 ) = ∂ x i+1
et son signe est inconnu,
¯ ¯
g ≤ ¯ g i, j (.)¯ ≤ g avec g et g sont des constantes positive.

3.3.2 La conception de la commande adaptative neuronale


La technique de transformation est considérée pour transformer le système non
affine (3.59) en un système affine sans contrainte sous la forme normale, mais avec
des états indisponibles. Pour ce faire, soient les nouvelles variables d’état { s 1 , . . . , s n } et
l’enchainement des transformations suivantes :
Étape 1 : Définir le nouvel état s 1 = y = x1 ,η 1 ( x1 ).
Étape 2 :choisir s 2 = ṡ 1 = f 1 ( x1 , x2 ) , η 2 ( x̄2 ) et la dérivée temporelle de s 2 peut être
exprimé comme suit :

ṡ 2 = η̇ 2 ( x̄2 )
∂η 2 ( x̄2 ) ∂η 2 ( x̄2 )
= ẋ1 + ẋ2
∂ x1 ∂ x2
(3.64) , η3 ( x̄3 )

96
3.3. COMMANDE ADAPTATIVE POUR DES SYSTÈMES PURE-FEEDBACK
INCERTAINS AVEC DES CONTRAINTS SUR L’ENTRÉE ET LA SORTIE SANS
CONNAISSANCE SUR LA DIRECTION DE COMMANDE
De plus, nous avons :

∂η 3 ( x̄3 ) ∂ f 1 ( x1 , x2 ) ∂ f 2 ( x̄2 , x3 )
(3.65) = = g 1 ( x1 , x2 ) g 2 ( x̄2 , x2 )
∂ x3 ∂ x2 ∂ x3

Étape i : ( i = 3, .., n), De manière similaire, soit s i = ṡ i−1 , η i ( x̄ i ) et la dérivée temporelle


de s i est obtenue comme suit :

ṡ i = η̇ i ( x̄ i )
i ∂η x̄
X i ( i)
= ẋ j
j =1 ∂ x j

(3.66) , η i+1 ( x̄ i+1 )

Rappelons la définition de η i+1 ( x̄ i+1 ) et (3.65), on obtient

∂η i+1 ( x̄ i+1 ) ∂η i ( x̄ i ) ∂ f i ( x̄ i , x i+1 ) i


Y ¡ ¢
(3.67) = = g j x̄ j , x j+1
∂ x i+1 ∂xi ∂ x i+1 j =1

Étape n : Soit finalement s n−1 = ṡ n , η n ( x̄n ), et en prenant sa dérivée par rapport au


temps, on aura :

ṡ n = η̇ n ( x̄n )
n ∂η x̄
X n ( n)
= ẋ i
i =1 ∂xi
nX
−1 ∂η ∂η n ( x̄n )
n ( x̄ n )
(3.68) = f i ( x̄ i , x i+1 ) + f n ( x̄n , u (v))
i =1 ∂xi ∂ xn

En se servant du théorème de la valeur moyenne, il existe une constante θ ∈ (0, 1)


satisfaisant uθ = θ .u + (1 − θ ) u0 , telle que la fonction non linéaire non affine f n ( x̄n , u (v))
est exprimée au voisinage de u0 comme suit :

∂ f n ( x̄n , u (v)) ¯¯
¯
0
u − u0
¡ ¢ ¡ ¢
(3.69) f n ( x̄n , u (v)) = f n x̄n , u +
∂u ¯
u=θ .u

∂η n ( x̄n ) Qn−1
En remplaçant (3.69) dans (3.68), et en utilisant ∂ xn
= i =1 g i ( x̄ i+1 , x i+1 ), (3.68) de-
vient
³ ´
(3.70) ṡ n = f ( x̄n ) + ḡ x̄n , uθ (v) u

97
CHAPITRE 3. COMMANDE ADAPTATIVE NEURONALE DES SYSTÈMES NL SISO
DE LA FORME PURE-FEEDBACK

nX
−1 ∂η ∂η n ( x̄n )
n ( x̄ n )
f n x̄n , u0
¡ ¢
(3.71) f ( x̄n ) = f j ( x̄ i , x i+1 ) +
j =1 ∂ xn ∂ xn
∂ f n x̄n , uθ (v)
à ! ¡ ¢
³ ´ nY
−1
(3.72) ḡ x̄n , uθ (v) = g i ( x̄ i+1 , x i+1 ) − u0
i =1 ∂u

En conséquence, le système (3.70) peut être décrit sous la forme normale avec le respect
des nouveaux états :

ṡ i = s i+1 , 1 ≤ i ≤ n
³ ´
ṡ n = f ( x̄n ) + ḡ x̄n , uθ (v) u
(3.73) y = s1

avec s = [ s 1 , . . . , s n+1 ]T sont les nouvelles variables d’état, et y ∈ ℜ la sortie mesurée.


f ( x̄n ) et ḡ x̄n , uθ (v) sont des fonctions non linéaires inconnues. Maintenant, en prenant
¡ ¢

en considération (3.61)et (3.63), le système (3.73) peut être réécrit comme suit :

ṡ i = s i+1 , 1 ≤ i ≤ n
³ ´ ³ ´
ṡ n = f ( x̄n ) + g x̄n , uθ (v) v + ḡ x̄n , uθ (v) d (v)
(3.74) y = s1
¢ ³ ∂ g(v) ¯¯ ´
où g x̄n , uθ (v) = ḡ x̄n , uθ (v)
¡ ¢ ¡
∂v ¯ v=θ .v

3.3.3 La transformation de l’erreur dynamique


Dans cette section, le problème des contraintes sur la sortie est traité par l’intro-
duction d’une transformation de l’erreur de poursuite similaire à [111], afin de garantir
les performances désirées. Le but de cette transformation est d’obtenir une nouvelle
dynamique sans contraintes simple à manipuler.
Soit l’erreur de poursuite définie par :

(3.75) e 1 ( t) = y( t) − yd ( t)
h i
où e = [ e 1 , e 2 , . . . , e n ] = e 1 , ė 1 , . . . , e(n)
1 .
En rappelant (3.60), et en soustrayant yd ( t) des deux côtés, on obtient :

(3.76) y ( t) − yd ( t) < e 1 ( t) < y ( t) − yd ( t)

98
3.3. COMMANDE ADAPTATIVE POUR DES SYSTÈMES PURE-FEEDBACK
INCERTAINS AVEC DES CONTRAINTS SUR L’ENTRÉE ET LA SORTIE SANS
CONNAISSANCE SUR LA DIRECTION DE COMMANDE
Dénoter
(
e ( t) = y ( t) − yd ( t) ,
(3.77)
e ( t) = y ( t) − yd ( t) ,
alors, (3.77) devient

(3.78) e ( t) < e 1 ( t) < e ( t) , ∀t ≥ 0

Pour atteindre la performance dans (3.78), on peut transformer le comportement de


l’erreur de poursuite avec les contraintes en un comportement équivalent sans contraint.
Donc, on peut définir e 1 ( t) comme suit :

e 1 ( t) = T ξ1 ( t) , e( t), e( t)
¡ ¢
(3.79)

Les fonctions inverses respectives qui existent sont exprimées en

ξ1 ( t) = T −1 e 1 ( t) , e( t), e( t)
¡ ¢
(3.80)

où ξ1 ( t) ∈ ℜ est l’erreur transformée non contrainte, et T (.)est une fonction lisse inversible
et strictement croissante telle que :
∂T (.)
(3.81) >0
∂ξ1
De plus, la fonction T (.) doit être correctement sélectionné de telle sorte que :

lim T ξ1 ( t) , e( t), e( t) = e( t)
¡ ¢
(3.82)
ξ1 →+∞

lim T ξ1 ( t) , e( t), e( t) = e( t)
¡ ¢
(3.83)
ξ1 →−∞

Dans ce travail, on définit T (.) comme suit :


ξ
³ ´
e( t) e ( t) e 11 − 1
T ξ1 ( t) , e( t), e( t) =
¡ ¢
(3.84) ξ
,
e ( t) e 11 − e( t)
et l’erreur transformée ξ1 ( t) est donné par :
¡ ¢¸
e ( t) e ( t) − e 1 ( t)
·
−1
ξ1 ( t ) = T
¡ ¢
(3.85) e 1 ( t) , e( t), e( t) = log ,
e( t) ( e ( t) − e 1 ( t))
où log (.) dénote le logarithme naturel de(.). Ainsi, la dynamique des erreurs peut être
donnée par :

ė i = e i+1 , 1 ≤ i ≤ n
³ ´ ³ ´
ė n = f ( x̄n ) + g x̄n , uθ (v) v + ḡ x̄n , uθ (v) d (v) − yd(n)
ξ1 ( t) = T −1 e 1 ( t) , e( t), e( t)
¡ ¢
(3.86)

99
CHAPITRE 3. COMMANDE ADAPTATIVE NEURONALE DES SYSTÈMES NL SISO
DE LA FORME PURE-FEEDBACK

En différenciant (3.86) par rapport au temps on obtient :

∂T −1 (.) ∂T −1 (.) ∂T −1 (.)


(3.87) ξ̇1 ( t) = ė 1 + ė + ė
∂e1 ∂e ∂e

En différenciant ξ̇1 par rapport au temps on aura :

1 µ 1 ¶· ∂T −1 . ¸(l)
() − l)
× e(2
X
ξ̈1 ( t) = 1
l =0 l ∂e1
¸(l)
1 1 ∂T −1 (.)
µ ¶·
× e(2−l)
X
+
l =0 l ∂ e
1 µ 1 ¶· ∂T −1 . ¸(l)
()
× e(2−l)
X
+
l =0 l ∂ e
h ³ ´ ³ ´ i
= ϕ f ( x̄n ) + ϕ g x̄n , uθ (v) v + ϕ ḡ x̄n , uθ (v) d (v) − ϕ ẏd
· −1 ¸(1) · −1 ¸(1)
∂T (.) ∂T −1 (.) ∂T (.)
+ ė 1 + ë 1 + ė
∂e1 ∂e1 ∂e
· −1 ¸(1)
∂T −1 (.) ∂ T (. ) ∂T −1 (.)
(3.88) + × ë + ė + × ë
∂e ∂e ∂e

Par la suite, définissant ξ1 = T −1 , ξ2 = ξ˙1 , . . . . . . .ξn = ξ(n)


1 . Ensuite, leurs dérivées dans le
temps de (3.88) génèrent

ξ˙i = ξ i+1
à !· ¸(l)
h ³
θ
´ ³
θ
´
(n)
i X n n ∂T −1
˙
ξn = ϕ f ( x̄n ) + g x̄n , u (v) v + ḡ x̄n , u (v) d (v) − yd + e 1 (n−l +1)
l =1 l ∂ e 1
(l) (l)
à !· à !·
n n ∂T −1 n n ∂T −1
¸ ¸
e(n−l +1) + e(n−l +1)
X X
(3.89)+
l =0 l ∂ e l =0 l ∂ e

à !
h −1
∂T (.)
i n
où , ϕ = ∂e1
,
est le coefficient binomial.
l
De manière équivalente, (3.89) peut être réécrit sous la forme compacte suivante :

h ³ ´ ³ ´ i
ξ̇ = A ξ + B ϕ f ( x̄n ) + ϕ g x̄n , uθ (v) v + ϕ ḡ x̄n , uθ (v) d (v) − ϕ yd(n) + β( Zβ )
(3.90) y = C T ξ

100
3.3. COMMANDE ADAPTATIVE POUR DES SYSTÈMES PURE-FEEDBACK
INCERTAINS AVEC DES CONTRAINTS SUR L’ENTRÉE ET LA SORTIE SANS
CONNAISSANCE SUR LA DIRECTION DE COMMANDE
à ! à ! à !
n h ∂T −1 i(l) n h ∂T −1 i(l) n h ∂T −1 i(l)
e(n−l +1) + nl=0
Pn Pn
où β Zβ = l =1 e 1 (n−l +1) + + l =0 e(n−l +1)
¡ ¢ P
∂e1 ∂e ∂e
l l l
h i
avec Zβ = x n , e, . . . ., e(n) , e, . . . .., e(n) et
     
0 1 0 0 0 0

 0 ···     
 0 1 0 


 0 

 0 
 
 .. . . ..   (n)×(n)
 .. ∈ ℜ(n)×1 , c =  ...  ∈ ℜ(n)×1
  
A= . . . ∈ℜ , B= .  
     
 0 0 0 1   0   0 
 ···     
0 0 0 0 1 1

Notons que la paire ( A, B) est contrôlable et que la paire (C T , A ) est observable.

3.3.4 Conception de l’observateur


Etant que les états ξ1 , . . . ., ξn de la transformation du système (3.89) sont indisponibles
pour la rétroaction. On considère maintenant l’observateur suivant pour l’estimation du
vecteur d’erreur de poursuite ξ, comme suit :

ξ̂˙ = ( A − Bk T )ξ̂ + Lξ̃1


(3.91) ξ̂1 = C T ξ̂
¤T
où k = [ k 0 , k 1 , . . . , k n ]T est le vecteur de gain de retour d’état, L = L 1 , . . . , L (n) est le
£

vecteur du gain de l’observateur, et ils sont choisis de sorte que les polynômes caractéris-
tiques de A − Bk T et A − LC T sont Hurwitz (c.-à-d., stable). Notons que ξ̃ = ξ − ξ̂, avec
ξ̂ est l’estimé du vecteur d’état ξ. Par conséquent, si l’erreur d’observation ξ̃ converge
vers zéro, l’erreur de poursuite estimée ξ̂convergera également vers zéro. Pour simplifier
la conception de la loi de commande, et selon la propriété d’approximation universelle
des réseaux de neurones, les fonctions non linéaires inconnues suivantes peuvent être
approximées comme suit :

ϕ f ( x̄n ) + β Zβ + ρ = W T S ( Z ) + ε ( Z )
¡ ¢
(3.92)

avec ρ = k T ξ̂ − ϕ yd(n) .
et

Wi = argminW {sup z∈Ω z ¯ fˆ ( Z /W ) − f ( Z )¯}


¯ ¯
(3.93)

où Z = [ x̄n , v, u (v) , ϕ, ρ ]T est le vecteur d’entrée du réseau et S (.) est le vecteur de


fonction d’activation neuronale est supposé convenablement fixé à l’avance par l’utilisa-
teur, W est le paramètre idéal d’approximation avec l’erreur neuronale |ε|. Étant W est

101
CHAPITRE 3. COMMANDE ADAPTATIVE NEURONALE DES SYSTÈMES NL SISO
DE LA FORME PURE-FEEDBACK

inconnu, sa valeur estimé Ŵ sera utilisée.


Notons que le paramètre optimal W est une constante artificielle inconnue introduite
uniquement pour faire l’étude théorique de la stabilité de l’algorithme de commande. En
fait, la connaissance de leurs valeurs n’est pas nécessaire pour l’implémentation des lois
de commande adaptatives. Définissons le vecteur des erreurs d’observation comme étant
T
ξ̃ = [ξ̃1 , . . . , ξ̃n ] = ξ − ξ̂.
En soustrayant (3.90) de (3.91), on obtient la dynamique suivante pour l’erreur d’obser-
vation :
³ ´ ³ ´
ξ̃˙ = A − LC T ξ̃ + B[ϕ f ( x̄n ) + ϕ g x̄n , uθ (v) v
³ ´
+ ϕ ḡ x̄n , uθ (v) d (v) + β Zβ + k T ξ̂ − ϕ yd(n) ]
¡ ¢

(3.94) ξ̃1 = C T ξ̃

En substituant (3.90) dans (3.94) on aura


³ ´ h ³ ´ i
ξ̃˙ = A − LC T ξ̃ + B W T S ( z) + ε1 + ϕ g x̄n , uθ (v) v
(3.95) ξ̃1 = C T ξ̃

où ε1 = ϕ ḡ x̄n , uθ (v) d (v) + ε ( z).


¡ ¢

À partir de (3.95), la dynamique de l’erreur de poursuite de la sortie peut s’écrire comme :


h ³ ´ i
(3.96) ξ̃1 = H ( p) W T S ( z) + ε1 + ϕ g x̄n , uθ (v) v

où p est la variable de Laplace et H ( p) = C T (P I − A − LC T )B est la fonction de transfert


¡ ¢

associée à la dynamique (3.96). Maintenant, puisque H ( p) dans (3.96) n’est pas SPR en
général, on introduit un filtre passe bas L ( p) sachant que H ( p) L−1 ( p) = H ( p) est SPR.
h n o n ³ ´ o i
ξ̃1 = H ( p) L−1 ( p) L ( p) W T S ( Z ) + ϕ L ( p) g x̄n , uθ (v) v + L ( p) {ε1 }
h n o n ³ ´ o i
= H ( p) L ( p) W T S ( Z ) + ϕ L ( p) g x̄n , uθ (v) v + ε1 f
h n o n ³ ´ o i
= H ( p) L ( p) W T S ( Z ) + ϕ L ( p) g x̄n , uθ (v) v + δ
h ³ ´ i
(3.97) = H ( p) W T S ( z) + ϕ g x̄n , uθ (v) v f + δ

(3.98) S f ( Z ) = L ( p ) { S ( Z )}
n o
(3.99) W T S f ( z ) = L ( p ) W T S ( Z ) = W T L ( p ) { S ( Z )}
n ³ ´ o ³ ´ ³ ´
(3.100) L ( p) ϕ g x̄n , uθ (v) v = ϕ g x̄n , uθ (v) L ( p) { v} = ϕ g x̄n , uθ (v) v f

102
3.3. COMMANDE ADAPTATIVE POUR DES SYSTÈMES PURE-FEEDBACK
INCERTAINS AVEC DES CONTRAINTS SUR L’ENTRÉE ET LA SORTIE SANS
CONNAISSANCE SUR LA DIRECTION DE COMMANDE
Lorsqu’on utilise un filtre du premier ordre stable avec un gain statique unitaire, l’erreur
entre un signal et sa valeur filtrée est égale à zéro en régime établi et limitée dans le
régime transitoire, ce qui peut être très court avec un τ approprié, alors
³ ´ ³ ´
(3.101) ϕ g x̄n , uθ (v) { v − L ( p) { v}} = ϕ g x̄n , uθ (v) 4v = ε2

δ = W T S f ( Z ) − S ( Z ) + ε1 f + ε2
© ª
(3.102)

avec ε1 f = L ( p) {ε1 }.
Nous aurons besoin par la suite, dans l’analyse de la stabilité de l’hypothèse suivante :

Hypothèse 3.5. Chaque élémentδ du paramètre inconnu défini dans (3.102) est délimité
par une constante, c’est-à-dire qu’il existe une constante positive inconnue τ̄ telle que

(3.103) |δ| ≤ τ̄

Afin d’estimer en ligne le signe de gain g x̄n , uθ (v) nous allons introduire la loi de
¡ ¢

commande suivante contenant une fonction de Nussbaum dans [22, 23].

N (ζ) ξ̃1
µ µ ¶¶
T
(3.104) v= Ŵ S ( z) + τ̂tanh
ϕ ²

et

ξ̃1
µ µ ¶¶
T
(3.105) ζ̇ = ξ̃1 Ŵ S ( z) + τ̂tanh
²

(3.106) N (ζ) = ζ2 cos(ζ)

Pour estimer les paramètres inconnus, nous adoptons les lois suivantes :

(3.107) ˙ = Γ ¡ξ̃ S ( z) − σ Ŵ ¢
Ŵ 1 1

˙τ̂ = γ ξ̃1 tanh ξ̃1 − σ2 τ̂


µ µ ¶ ¶
(3.108)
²

avec Γ,γ,σ1 , σ2 sont des constantes positives. Dans ce qui suit, on montrera que tous
les signaux du système en boucle fermée sont bornés et que les erreurs de poursuite

103
CHAPITRE 3. COMMANDE ADAPTATIVE NEURONALE DES SYSTÈMES NL SISO
DE LA FORME PURE-FEEDBACK

convergent vers un petit voisinage


³ de ´ l’origine. Substituant (3.104) dans (3.97), et en
ξ̃1
ajoutant et en soustrayant τ̂tanh ² de (3.104), on obtient

ξ̃1 ξ̃1
· µ ¶ µ ¶ ³ ´ ¸
T T θ
ξ̃1 = H ( p) −W̃ S ( z) + Ŵ S ( z) + τ̂tanh − τ̂tanh + ϕ g x̄n , u (v) v + δ
² ²
ξ̃1 ξ̃1
· µ ¶ µ µ ¶ ¶³ ³ ´ ´ ¸
T T θ
= H ( p) −W̃ S ( z) − τ̂tanh + Ŵ S ( z) + τ̂tanh 1 + g x̄n , u (v) N (ζ) + δ
² ²
(3.109)

où W = Ŵ − W̃ .
Alors, la représentation d’états de (3.109) est donnée par :

˙ξ̃ = Ā ξ̃ + B [−W̃ T S ( z) − τ̂tanh ξ̃1 + Ŵ T S ( z) + τ̂tanh ξ̃1


µ ¶ µ µ ¶¶
c
² ²
³ ³ ´ ´
θ
× 1 + g x̄n , u (v) N (ζ) + δ]
(3.110) ξ̃1 = C T ξ̃

Le vecteur L du gain de l’observateur est calculé afin que la matrice Ā = A − LC T ait


¡ ¢

toutes ses valeurs propres à parties réelles négatives. Par conséquent le système bouclé
sera exponentiellement stable. On lui associe une équation de Lyapunov, ayant pour
solution unique une matrice symétrique définie positive P , donnée par

(3.111) Ā T P + P Ā = −Q

(3.112) PB c = C

Selon (3.112), il est évident que

(3.113) ξ̃T PB c = ξ̃T C = ξ̃1

3.3.5 Analyse de la stabilité


Les résultats suivants concluent la stabilité du système en bouclé fermée

Théorème 3.2. Considérons le système non linéaire non affine (3.60) avec les contraints
sur l’entrée et la sortie, et supposons que les hypothèses 3.3-3.7 sont satisfaites et l’ob-
servateur (3.91). Alors la loi de commande définit par l’équation (3.104) avec les lois
d’adaptation (3.107)-(3.108) appliquée au système (3.61) garantit propriétés suivantes :
i) Tous les signaux du système en boucle fermée sont bornés ;

104
3.3. COMMANDE ADAPTATIVE POUR DES SYSTÈMES PURE-FEEDBACK
INCERTAINS AVEC DES CONTRAINTS SUR L’ENTRÉE ET LA SORTIE SANS
CONNAISSANCE SUR LA DIRECTION DE COMMANDE
ii) L’erreur de poursuite y ( t) − yd ( t) satisfait y ( t) − yd ( t) < e 1 ( t) < y ( t) − yd ( t) pour
∀t ≥ 0 .

Preuve du Théorème 3.2 :Considérons la fonction de Lyapunov candidate suivante


1 1
(3.114) V = ξ̃T P ξ̃ + W̃ T Γ−1 W̃ + τ̃2
2 2γ
La dérivé temporale de V est comme suit

ξ̃1 ξ̃1
³ ´ µ ¶ µ µ ¶¶
T T T T
V̇ = ξ̃ Ā P + P Ā ξ̃ + ξ̃1 [−W̃ S ( z) − τ̂tanh + Ŵ S ( z) + τ̂tanh
² ²
˙ + 1 τ̃τ̂˙
³ ³ ´ ´
(3.115) × 1 + g x̄n , uθ (v) N (ζ) + δ] + W̃ T Γ−1 Ŵ
γ
où τ̃ = τ̄ − τ̂,(et τ̂ est l’estimation du paramètre inconnu τ̄). Par substitution de (3.111)
dans (3.115), on trouve

ξ̃1 ˙ + 1 τ̃τ̂˙
³ ´ ³ ´ · µ ¶ ¸
T θ
V̇ ≤ −ξ̃ Q ξ̃ + 1 + g x̄n , u (v) N (ζ) ζ̇ − ξ̃1 τ̂tanh
(3.116) + δ + W̃ T Γ−1 Ŵ
² γ

À partir de l’hypothèse 3.5 et lemme 2.1, on peut obtenir l’inégalité suivante :

ξ̃1 ξ̃1
µ ¶ µ ¶
˜
ξ1 δ − ξ̃1 τ̂tanh ≤ ξ̃1 τ̄ − ξ̃1 (τ̄ − τ̃)tanh
¯ ¯
¯ ¯
² ²
ξ̃1
µ ¶
≤ κτ̄ − ¯ξ̃1 ¯ τ̃tanh
¯ ¯
(3.117)
²
Après la substitution des lois d’adaptations (3.107)-(3.108) dans la dynamique (3.117),
on obtient
³ ³ ´ ´
(3.118) V̇ ≤ −ξ̃T Q ξ̃ + 1 + g x̄n , uθ (v) N (ζ) ζ̇ − σ1 W̃ T Ŵ − σ2 τ̃τ̂ + κτ̄

En utilisant les inégalités suivantes,


σ1 σ1 °
°W̃ °2
−σ1 W̃ T Ŵ ≤ kW k2 −
°
(3.119)
2 2
σ2 σ2
(3.120) −σ2 τ̃τ̂ ≤ − τ̃2 + τ̄2
2 2
On peut récrire (3.118) comme suit :
³ ³ ´ ´ σ 1 ° °2 σ 2 σ1 σ2
V̇ ≤ −ξ̃T Q ξ̃ + 1 + g x̄n , uθ (v) N (ζ) ζ̇ − °W̃ ° − τ̃2 + kW k2 + τ̄2 + κτ̄
³ ³ ´ ´ 2 2 2 2
θ
(3.121) ≤ − c 1 V + c 0 + 1 + g x̄n , u (v) N (ζ)


λmin (Q ) σ1 σ2 σ3 σ1 σ2
½ ¾
c 1 = min , ¢, , ; c0 = kW k2 + τ̄2 + κτ̄
λmax (P ) λmax Γ−1 γ1 γ2
¡
2 2

105
CHAPITRE 3. COMMANDE ADAPTATIVE NEURONALE DES SYSTÈMES NL SISO
DE LA FORME PURE-FEEDBACK

avec λmin (.) et λmax (.) désigne la valeur propre minimale et maximales de (.), respective-
ment.
Alors en intégrant les deux côtes de (3.121), on aura
Z t
(3.122) V ( t) ≤ c̄ 0 + e c1 t
( gN (ζ (τ)) + 1)ζ̇ (τ) e c1 τ d τ
0

où c̄ 0 = V (0) + c 0 / c 1 . Utilisant le lemme 1.1, on peut conclure à partir de l’équation (3.122)


la bornitude de V ( t),ζ( t) et e c1 t 0 ( gN (ζ (τ)) + 1)ζ̇ (τ) e c1 τ d τ avec [0, t f .
Rt ¢

Selon le théorème 1.2 la bornitude de la solution du système en boucle fermé et assure


que tous les signaux du système en boucle fermée sont borné[Link] plus, à partir des
propriétés de la fonction de transformation, nous concluons que l’erreur de poursuite
e 1 ( t) convergera finalement vers un ensemble résiduel arbitrairement petit, on a montré
également que ξ1 reste borné pour tous t ≥ 0, alors que la bornitude de ξ1 garantit la
satisfaction des contraintes d’erreur de poursuite (3.78).Parce que e1 ( t) = y( t) − yd ( t),
avec (3.77)et (3.78) il s’ensuit que y ( t) < y ( t) < y ( t). Par conséquent, nous en déduisons
que la sortie du système reste strictement dans les limites des contraintes.

3.3.6 Résultats de simulation

Dans le but de montrer l’efficacité de la méthode proposée, un système de conversion


énergétique éolienne [114, 115] est appliqué. La commande en vitesse variable dans la
région à vitesse forte est considérée. La dynamique du système éolien est donné par :

1 1
· ¸
ω̇r = ρ t π R 3 C q δ, β v 2 − K t ω r − T g
¡ ¢
(3.123)
Jt 2

où le système de sortie ωr = y représente la vitesse angulaire du rotor, et la commande



d’entrée β = u est l’angle de tangage appliqué avec une contrainte de saturation u m = 30
, C q δ, β est la fonction du couple non affine supposée donnée par :
¡ ¢

¢ 0.5176 116
µ ¶
C q δ, β = − 0.4β − 5 e−21δ i + 0.0068
¡
(3.124)
δ δ

avec
1 0.035
δi = − 3
δ + 0.08β β + 1

Les valeurs numériques des paramètres du modèle dans [111] sont données dans le
tableau 3.3.

106
3.3. COMMANDE ADAPTATIVE POUR DES SYSTÈMES PURE-FEEDBACK
INCERTAINS AVEC DES CONTRAINTS SUR L’ENTRÉE ET LA SORTIE SANS
CONNAISSANCE SUR LA DIRECTION DE COMMANDE

Liste des symboles Les valeurs

Jt Le moment d’inertie total 5.5780 × 106 k g m2


ρt Densité de l’air 1.25 k g/ m3
Kt Coéfficient d’amortissement total 2.8356 × 103 N m rad −1
R Rayon du rotor 40 m
v Vitesse du vent 18 m/ s
δ Vitesse du bout des pales R wr /v
Tg Couple du gén‘’erateur 699655 N m

Tableau 3.3: Les paramètres du modèle

Le système éolien (3.123) peut être considéré comme un système non-affine de la


forme ẋ1 = f 1 ( x1 , u(v)).Dans la région à vitesse forte du vent, l’objectif de la commande
est d’entraîner la vitesse angulaire du rotor ωr = x1 pour suivre sa valeur nominale
ωd = 2.1439 rad / s tout en garantissant des contraintes de sortie prédéfinies, telles que :

y ( t) < ω r < y ( t)

avec y ( t) = −0.37 e−0.7t − 0.12 + ωd et y ( t) = 0.48 e−0.9t + 0.12 + ωd .


Les paramètres de synthèses et les conditions initiales utilisés dans cette simulation
sont résumés dans le tableau 3.4.

Les paramètres Les valeurs

Γ 20
σ1 , σ2 0.1, 20
γ, ² 10, 0.1
N 4
Z = [ Z1 , Z2 , Z3 , Z4 ] [ x1 , x2 , v( t), u(v)]T
wr (0) 2. 4
W (0) 0
τ (0) 0

Tableau 3.4: Les paramètres de synthèses et les conditions initiales.

La figure 3.14 présente la sortie ωr du système éolien avec ses bornes .On peut
voir clairement que la sortie de système ωr suit sa valeur nominale désirée ωd tout en

107
CHAPITRE 3. COMMANDE ADAPTATIVE NEURONALE DES SYSTÈMES NL SISO
DE LA FORME PURE-FEEDBACK

garantissant toutes ses contraintes prédéfinies. La figure 3.15 montre que les erreurs
de poursuite convergent vers zéro. La figure 3.16 montre l’effet du contrainte de satu-
ration sur la commande (pitch angle), le système est insensible aux incertitudes et à la
saturation. Ces saturations sont nécessaires pour rendre physiquement réalisable ces
structures de commande sur des systèmes réels.
Tous les signaux du système en boucle fermée sont bornés et le signal de commande
résultant est lisse.
Pour montrer l’efficacité de la méthode proposée, les caractéristiques de performance et
la robustesse du système éolien commandé par la méthode proposée sont évaluées et
comparées avec une méthode proposée dans [111] . Dans la méthode proposé on peut
imposer une contrainte de saturation sur le signal d’entrée telle que dans la figure 3.16,

soit u m = 30 . Cependant, dans [111] le signal de commande est très énergétique et il

est autour de u = 43 comme montré dans la figure 10 dans [111] , donc il ne peut pas
imposer les limites dans leurs signaux de commande.

F IGURE 3.14: La commande du système éolien le long de leurs bornés

F IGURE 3.15: L’erreur de poursuite du système éolien

108
3.4. CONCLUSION

F IGURE 3.16: la commande d’entrée du système éolien u( t) et sat( u( t))

3.4 Conclusion
Dans ce chapitre, on a proposé deux méthodologies de synthèse de commande adapta-
tive neuronale pour une classe des systèmes SISO non linéaires pure-feedback avec la
présence de saturation sur l’entrée de commande. La stabilité des approches proposées
a été prouvé rigoureusement par la méthode de Lyapunov et les performances de la
commande ont été montré par des tests de simulations.
Dans la conception du premier schéma de commande, l’approche back-stepping,
habituellement utilisé dans la littérature, n’est plus utilisée grâce à l’introduction d’un
filtre passe bas et donc l’augmentation du système original. Ceci a permis d’éliminer le
problème de l’explosion de complexité. De plus, seul un paramètre de NNs, quel que soit
l’ordre des systèmes non linéaires saturés, sont utilisés dans la conception du contrôleur,
contrairement à la littérature où autant de NNs que l’ordre du système sont nécessaires.
Dans le deuxième schéma de commande, la même classe de systèmes non linéaires
est considérée tout en traitant la présence simultané des contraintes sur la sortie et la
saturation sur le signal de commande.
Les algorithmes de commande proposés sont considéré plus simple et peuvent gérer
une classe plus large de systèmes non linéaires saturés en entrée.

109
CHAPITRE
4
C OMMANDE ADAPTATIVE NEURONALE DES SYSTÈMES
NL MIMO PURE - FEEDBACK

Sommaire
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
4.2 Commande adaptative neuronale d’une classe de systèmes pure-feedback
MIMO avec la contrainte de la saturation . . . . . . . . . . . . . . . . . . 114
4.2.1 Position du problème . . . . . . . . . . . . . . . . . . . . . . . . . . 114
4.2.2 La conception de la commande adaptative neuronale . . . . . . 115
4.2.3 Conception de l’observateur . . . . . . . . . . . . . . . . . . . . . . 119
4.2.4 Analyse de la stabilité . . . . . . . . . . . . . . . . . . . . . . . . . 123
4.2.5 Résultats de simulation . . . . . . . . . . . . . . . . . . . . . . . . 126
4.3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131

111
CHAPITRE 4. COMMANDE ADAPTATIVE NEURONALE DES SYSTÈMES NL MIMO
PURE-FEEDBACK

4.1 Introduction

ans la littérature, la plupart des travaux sont développés pour des systèmes non

D linéaires multivariable (MIMO) incertains affines en la commande. Cependant,


ces résultats ont été étendus pour traiter une classe plus large des systèmes
non linéaires MIMO complètement non affines en la commande. La commande de ces
derniers est plus difficile sur le plan de dérivation des lois de commande ainsi que
l’analyse de la stabilité. Plusieurs schémas de commande ont été proposés pour les
systèmes MIMO non linéaires non affines en la commande [89, 116–119]. Dans [89, 116]
les auteurs ont investigué le problème de la commande back-stepping adaptative pour
la classe pure-feedback des systèmes MIMO non linéaires en se basant sur les réseaux
de neurones et les systèmes d’inférence flous. En utilisant le théorème de la fonction
implicite, le théorème de la valeur moyenne et la technique de back-stepping, des schémas
de commande neuronale adaptatifs ont été proposés dans [117, 118] pour la même
classe de système MIMO. Dans [119] l’auteur a proposé une méthode de commande
adaptative basée sur la logique floue pour les systèmes non linéaires stochastiques
MIMO sous la forme pure-feedback. Malgré ces efforts, les résultats existants ne tiennent
pas compte des saturations des entrées des systèmes non linéaires MIMO incertains.
La saturation est l’une des caractéristiques non linéaires les plus importantes dans la
pratique qui affecte les systèmes physiques en limitant gravement ses performances
voire même provoqué leurs instabilités. En effet, pour traiter ce genre de contraintes,
il existe une approche pratique pour compenser cette dégradation de performance par
l’augmentation du système original par un système auxiliaire dit anti-wind-up [120, 121].
Dans [105, 122] des schémas de commande adaptatifs ont été étudiés pour traiter les
non linéarités d’entrée en utilisant des fonctions de type tangente hyperbolique afin
d’approximer la fonction de saturation. Combinant la perturbation externe et l’erreur
d’approximation de la fonction de saturation, un contrôleur adaptatif robuste a été
développé pur le système MIMO non linéaire dans [29, 123].

Cependant, les approches précitées dans [29, 105, 120–123] sont basées sur le back-
stepping dans la procédure de conception des contrôleurs récursifs et des lois adaptatives.
Ceci induit à l’apparition du problème de l’explosion de complexité, nécessitant un grand
nombre de paramètres à ajuster.

Pour traiter le problème de «l’explosion de complexité», une approche de commande


back-stepping neuronale adaptative a été proposée dans [45] pour une classe de systèmes
non linéaires SISO incertains basés sur la technique dite commande de surface dyna-

112
4.1. INTRODUCTION

mique (DSC). Plusieurs techniques de commande DSC floue ont été développés pour les
systèmes non linéaires MIMO incertains par retour d’état et de sortie respectivement
dans [124, 125].

Cependant, du point de vue pratique, les méthodes développées dans [45, 124, 125]
sont couteuses en temps de calculs puisque les approximateurs neuronaux où flous sont
utilisés à chaque étape de conception pour approximer les dynamiques incertaines. De
plus, les lois d’adaptation impliquées dans DSC nécessitent un nombre important de
paramètres à mettre à jour en ligne ; ce qui rend les lois de commande ainsi que l’analyse
de stabilité plus complexes. Afin de remédier aux problèmes d’explosion de complexités,
dans [31, 88, 126–129] de nouvelles techniques de commande ont été proposés pour les
systèmes pure-feedback discrets [88], pure-feedback continus [126], pure-feedback avec
retard incertain sur l’entrée [127] et pure-feedback retard incertain sur tous les états
[128] et pour la classe strict-feedback avec zone morte sur l’entrée [31].
Tous les travaux susmentionnés ne sont pas basés sur l’approche back-stepping pour
éviter l’explosion due à la récursivité des calculs des différenciations, cependant ils
suivent des techniques similaires aux méthodologies basées sur la technique de back-
stepping avec des calculs lourds.
De plus, ces résultats sont focalisés sur les systèmes SISO et ne peuvent être généralisé
aux systèmes MIMO. L’étude des systèmes non linéaires MIMO en cascade d’ordre
supérieure est beaucoup plus compliquée en raison des interconnexions des états et des
entrées, ce qui rend la généralisation des conceptions des systèmes SISO aux systèmes
MIMO, généralement, non triviale.
Dans ce chapitre, on présentera une approche de commande sans faire recours à la
technique de back-stepping pour les systèmes non linéaires MIMO incertains sous la
forme pure-feedback avec des non-linéarités de type saturation sur l’entrée. Dans cette
approche, de nouvelles variables d’état et des transformations de coordonnées sont
introduites pour convertir le système pure-feedback originale en une forme normale. Un
observateur d’état est alors conçu pour estimer les nouveaux états indisponibles. La
connaissance à priori du signe du gain de commande n’est plus nécessaire et le problème
des dérivés circulaire est contourné en utilisant les fonctions de type Nussbaum et la
transformation d’état, respectivement. Il est démontré que l’approche de commande
proposée est plus simple et plus avantageuse que celles basée sur le back-stepping
tout en assurant de bonnes performances. La stabilité du système en boucle fermée est
assurée au sens de Lyapunov en se servant de la propriété de la positivité (SPR) des
systèmes. Les performances de poursuite du schéma de commande sont illustrées par un

113
CHAPITRE 4. COMMANDE ADAPTATIVE NEURONALE DES SYSTÈMES NL MIMO
PURE-FEEDBACK

exemple de simulation.

4.2 Commande adaptative neuronale d’une classe de


systèmes pure-feedback MIMO avec la
contrainte de la saturation

4.2.1 Position du problème


Considérons la classe suivante des systèmes non linéaires pure-feedback MIMO
décrite par :

ẋ i1 = f¯i1 ( x i1 , x i2 ) + d i1 ( t)
ẋ i2 = f¯i2 ( x̄ i2 , x i3 ) + d i2 ( t)
......
f¯i,n i −1 x̄ i,n i + d i,n i −1 ( t)
¡ ¢
ẋ i,n i −1 =
f¯i,n i x̄ i,n i , u i (v i ) + d i,n i ( X , t)
¡ ¢
ẋ i,n i =
(4.1) yi = x i1 , i = 1, . . . N

,n
où x i = [ x i1 , x i2 , ...x i,n i ] T ∈ ℜ i , ( i = 1, . . . N ) et yi ∈ ℜ désigne le vecteur d’états et la
sortie du i i ème sous-système respectivement. X = [ x1 , x2 , ...x N ] et y = [ y1 , y2 , ...yN ] dé-
signe les états et le vecteur de sortie de l’ensemble du système x̄ i j = [ x i1 , x i2 , ...x i j ] T ∈
ℜ j , ( i = 1, . . . N ) , j = 1, 2, . . . , n i , sont des fonctions non linéaires inconnues, et d i j ( t)
et d i,n i ( X , t) dénote la perturbation externe inconnue mais bornée pour chaque sous-
système. Les non linéarités sur l’entrée u(v) = [ u 1 , u 2 , ...u N ] T incluent la saturation
sur l’entrée.

La saturation sur l’entrée u(v( t)) donnée déjà dans (2.2) est approximé de la même
manière que celle dans (2.3) et réécrite ici uniquement pour simplifier le suivi des
dérivations des équations :

(4.2) u i ( t) = sat (v i ( t)) = g (v i ) + d (v i )

L’objectif du travail proposé consiste à synthétiser une loi de commande assurant la


bornitude de tous les signaux du système en boucle fermée et la poursuite dela sortie
yi ( t) d’une trajectoire de référence y id ( t).

114
4.2. COMMANDE ADAPTATIVE NEURONALE D’UNE CLASSE DE SYSTÈMES
PURE-FEEDBACK MIMO AVEC LA CONTRAINTE DE LA SATURATION

Pour faciliter la conception des lois de commande adaptative pour le système pure-
feedback, le système (4.1) est réécrite comme

ẋ i1 = f i1 ( x̄ i2 ) + x i2 + d i1 ( t)
ẋ i2 = f i2 ( x̄ i3 ) + x i3 + d i2 ( t)
......
¡ ¢
ẋ i,n i −1 = f i,n i −1 x̄ i,n i + x i,n i + d i,n i −1 ( t)
¡ ¢
ẋ i,n i = f i,n i x̄ i,n i , u i + u i + d i,n i ( X , t)
(4.3) yi = x i1 , i = 1, . . . N

Avec f i j x̄ i, j+1 = f¯i j x̄ i j , x i, j+1 − x i+1 et f i,n i x̄ i,n i , u i = f¯i,n i x̄ i,n i , u i (v i ) − u i . Le système
¡ ¢ ¡ ¢ ¡ ¢ ¡ ¢

(4.3) est utilisé pour concevoir l’observateur et le contrôleur dans la section suivante.

4.2.2 La conception de la commande adaptative neuronale


Pour améliorer la performance de poursuite, on développe un nouveau schéma de
commande pour surmonter les difficultés introduites par la cascade du système MIMO
pure-feedback et les contraintes sur l’entrée. Dans cette section, nous adoptons de nou-
velles variables d’état et on utilise des transformations de coordonnées pour convertir la
forme pure-feedback originale en une forme normale, il n’est donc pas nécessaire de consi-
dérer la technique de back-stepping. À cette fin, on va d’abord introduire un ensemble
de nouvelles variables d’ètat et des transformations de coordonnées correspondantes
comme suit : ées correspondantes comme suit :

s i1 = x i1

s i, j+1 = ṡ i, j ( j = 1, 2, . . . , n i ; i = 1, 2, . . . , N )

yi = s i1 = x i1

Étape 1 : Définir le nouvel état s i1 = yi = x i1 la dérivé temporelle de s i1 peut être exprimé


comme

(4.4) ṡ i1 = f i1 ( x̄ i2 ) + x i2 + d i1 ( t)

En se servant du théorème de la valeur moyenne [24], il existe une constante θ , avec


θ ∈ (0, 1) satisfaisant que xθi2 = θ .x i2 + (1 − θ ) x0i2 , telle que la fonction non linéaire non

115
CHAPITRE 4. COMMANDE ADAPTATIVE NEURONALE DES SYSTÈMES NL MIMO
PURE-FEEDBACK

affine f i1 ( x̄ i2 ) est exprimée au voisinage de x0i2 comme suit :

∂ f i1 ( x̄ i2 ) ¯¯
¯
f i1 x̄ i2 , x0i2 ( x i2 − x0i2 )
¡ ¢
(4.5) f i1 ( x̄ i2 ) = +
∂x i2
¯
x i2 = xθi2

Substituant (4.5) dans (4.4), on obtient


" #
∂ ∂ f i1 ( x̄ i2 ) ¯¯
¯ ¯
0 f i1 ( x̄ i2 )
x0 + d i1 ( t)
¡ ¢ ¯
ṡ i1 = f i1 x i1 , x i2 + 1 + ¯ x i2 +
∂ x i2 ¯ x i2 = xθ ∂ x i2 ¯ x i2 = xθ i2
i2 i2
³ ´
(4.6) = F i1 ( x i1 ) + G i1 x i1 , xθi2 x i2
· ¸
∂ f i1 ( x̄ i2 ) ¯
¯
f i1 x̄ i1 , x0i2 G i1 x i1 , xθi2 (1 − x0i2 )
¡ ¢ ¡ ¢
où F i1 ( x i1 ) = + d i1 ( t) et = 1+ ∂ x i 2 ¯ x = xθ
i2 i2
Étape 2 : Soit s i2 = ṡ i1 = F i1 ( x i1 ) + G i1 x i1 , xθi2 x i2 , la dérivée temporelle de s i2 peut être
¡ ¢

exprimé comme

∂G i1 x i1 , xθi2 ∂G i1 x i1 , xθi2
¡ ¢ ¡ ¢
∂F i1 ( x i1 ) ³ ´
(4.7) ṡ i2 = ẋ i1 + x̄˙ i1 x i2 + ˙x̄ i2 x i2 + G i1 x i1 , xθ ẋ i2
i2
∂ x i1 ∂ x i1 ∂ x i2

Car la fonction inconnue f i2 ( x̄ i3 ) est une fonction continuellement différentiable par


rapport à chaque variable x i1 , x i2 , x i3 . Sur la base du théorème de la valeur moyenne, il
existe une constante θ , avec θ ∈ (0, 1) satisfaisant que xθi3 = θ .x i3 + (1 − θ ) x0i3 , telle que la
fonction non linéaire non affine f i2 ( x̄ i3 ) est exprimée au voisinage de x0i3 comme suit :

∂ f i2 ( x̄ i3 ) ¯¯
¯
f i2 x̄ i2 , x0i3 ( x i3 − x0i3 )
¡ ¢
(4.8) f i2 ( x̄ i3 ) = +
∂x i3
¯
x i3 = xθi3

Substituant (4.8) dans (4.7), on obtient

∂G i1 x i1 , xθi2
¡ ¢
∂F i1 ( x i1 )
ṡ i2 = ( f i1 ( x̄ i2 ) + x i2 + d i1 ( t)) + ẋ i2 ( x i2
∂ x i1 ∂ x i2
´ ∂G i1 x i1 , xθ
¡ ¢
³
+ G i1 x i1 , xθi2 ) + i2
( f i1 ( x̄ i2 ) + x i2 + d i1 ( t)) x i2
∂ x i1
³ ´
(4.9) = F i2 ( x̄ i2 ) + G i2 x̄ i2 xθi3 x i3

∂G i1 x i1 ,xθi2
¡ ¢
∂F i1 (x i1 )
où F i2 ( x̄ i2 ) = f x̄ + x + d i1 ( t)) +
∂ x i1 ( i1 ( i2 ) ¶ i2 ∂ x i1 ( f i1 ( x̄ i2 ) + x i2 + d i1 ( t)) x i2
∂G i1 x i1 ,xθi2
µ ¡ ¢
θ 0
¡ ¢ £ ¡ ¢ ¤
+ ∂ x i2
x i2 + G i1 x i1 , x i2
f i2 x̄ i2 , x i3
+ d i2 ( t ) et
∂G i1 x i1 ,xθi2
µ ¡ ¢ ¶ · ¸
∂ f i2 ( x̄ i3 ) ¯
¯
θ 0
¡ ¢
G i2 ( x̄ i3 ) = ∂ x i2
x i2 + G i1 x i1 , x i2 1 + ∂ x ¯ (1 − x i3 ) sont des fonctions
i3 x i3 = xθi3
non linéaire inconnus de x i1 ∈ ℜ1 , x i1 , xθi2 ∈ ℜ2 , respectivement.
£ ¤

116
4.2. COMMANDE ADAPTATIVE NEURONALE D’UNE CLASSE DE SYSTÈMES
PURE-FEEDBACK MIMO AVEC LA CONTRAINTE DE LA SATURATION

Étape 3 : Soit s i3 = ṡ i2 = F i2 ( x i1 , x i2 ) + G i2 x i1 , x i2, xθi3 x i3 , suivant les la même procédure


¡ ¢

des calculs précédents, on aura :


∂F i2 ( x̄ i2 ) ∂G i2 ( x̄ i3 ) ³ ´
ṡ i3 = x̄˙ i2 + x̄˙ i3 x i3 + G i2 x i1 , x i2 , xθi3 ẋ i3
∂ x i2 ∂ x i3
2
X ∂F i2 ( x̄ i2 ) ¡ ¡ ¢ ¢
= f ik x̄ i,k+1 + x i,k+1 + d ik ( t)
k=1 ∂ x ik
∂G i2 ( x̄ i3 )
µ ³ ´¶
+ ẋ i3 x i3 + G i2 x i1 , x i2 , xθi3
∂ x i3
2 ∂G
X i2 ( x̄ i3 ) ¡ ¡ ¢ ¢
+ f ik x̄ i,k+1 + x i,k+1 + d ik ( t) x i3
k=1 ∂ x ik
³ ´
(4.10) = F i3 ( x̄ i3 ) + G i3 x̄ i3 xθi4 x i4

Basé sur le théorème¯de la valeur moyenne, il existe θ ∈ (0, 1) satisfaisant que f i3 ( x̄ i3 , x i4 ) =


¢ ∂ f x̄ ¯
f i3 x̄ i3 , x0i4 + ∂i3x( i4 ) ¯ ( x i4 − x0i4 ) , de façons similaire
¡
i4 θ
x i4 = x i4

∂F x̄ ¡
F i3 ( x̄ i3 ) = 2k=1 ∂i2x( i2 ) f ik x̄ i,k+1 + x i,k+1 + d ik ( t)
P ¡ ¢ ¢
ik
∂G x̄ ¡
+ 2k=1 ∂i2x( i3 ) f ik x̄ i,k+1 + x i,k+1 + d ik ( t) x i3
P ¡ ¢ ¢
ik
∂G i2 ( x̄ i3 )
³ ¢´ £ ¡
θ
f i3 x̄ i3 , x0i4 + d i3 ( t) et
¡ ¢ ¤
+ ∂ x i3
x i3 + G x ,
i2 i1 i2 i3 x , x
· ¸
³
∂G i2 ( x̄ i3 ) ¡ θ
¢´ ∂ f i3 ( x̄ i4 ) ¯¯ 0
G i3 ( x̄ i3 ) = ∂ x i3
x i3 + G x ,
i2 i1 i2 i3 x , x ∂ x i 4 ¯ x = xθ
(1 − x i4
) + 1 sont des fonctions
i4 i 4
non linéaire inconnus de x̄ i3 = [ x i1 , x i2 , x i3 ] ∈ ℜ3 , x̄ i3 , xθi4 ∈ ℜ4 , respectivement.
£ ¤
³ ´
Étape (n-1) :De manière similaire, soit s i j = ṡ i, j−1 = F i, j−1 x̄ i, j−1 + G i, j−1 x̄ i, j−1 xθi j x i j ,
¡ ¢

pour i i ème sous-système, nous étendons cette transformation de coordonnées à j =


4, 5, . . . , n i − 1.
³ ´
∂F i, j−1 x̄ i, j−1 ∂G i, j−1 x̄ i, j−1 xθi j
¡ ¢
ṡ i j = x̄˙ i, j−1 + x̄˙ i, j−1 x i j
∂ x i, j−1 ∂ x i, j−1
³ ´
∂G i, j−1 x̄ i, j−1 xθi j ³ ´
+ x̄˙ i j x i j + G i, j−1 x̄ i, j−1 xθi j ẋ i j
∂xi j
³ ´
= F i j x̄ i, j+1 + G i j x̄ i j xθi, j+1 x i, j+1
¡ ¢
(4.11)

De même, selon le théorème de la valeur moyenne, il existe des θ ∈ (0, 1) satisfaisant que
´ ∂ f x̄
¡ ¢¯
ij i, j +1 ¯¯
³
0
( x i, j+1 − x0i, j+1 )
¡ ¢
(4.12) f i, j x̄ i j , x i, j+1 = f i j x̄ i j , x i, j+1 +
∂ x i, j+1 ¯
x i, j+1 = xθ i, j +1


¡ ¢ P j−1 ∂F ( x̄ ) ¡ ¡ ¢ P j−1 ∂G ( x̄ )
F i j x̄ i j = k=1 i, j−∂1x i, j−1 f ik x̄ i,k+1 + x i,k+1 + d ik ( t) + k=1 i,∂j−x1 i j
¢
ik ik

117
CHAPITRE 4. COMMANDE ADAPTATIVE NEURONALE DES SYSTÈMES NL MIMO
PURE-FEEDBACK

∂G i, j−1 ( x̄ i j )
³ ³ ´´ h ³ ´ i
θ 0
¡ ¡ ¢ ¢
f ik x̄ i,k+1 + x i,k+1 + d ik ( t) x i j + ∂x
x ij + G i, j −1 x̄ x
i j i, j +1 f ij x̄ , x
i j i, j +1 + d ij ( t )
ij
et ´´ · ¸
∂G i, j −1( x̄ i j ) ∂ f i j ( x̄ i, j+1 ) ¯
³ ³ ¯
x i j + G i, j−1 x̄ i j xθi, j+1 (1 − x0i, j+1 ) + 1
¡ ¢
G i j x̄ i j = ∂xi j ∂ x i, j+1 ¯ x
sont des
h i i, j +1 =θ .x i, j +1

fonctions non linéaire inconnus de x̄ i j ∈ ℜ j , x̄ i j , xθi, j+1 ∈ ℜ j+1 , respectivement.


³ ´
θ
¡ ¢
Étape n :Soit finalement s in i = ṡ i,n i −1 = F i, j−1 x̄ i,n i −1 + G i, j−1 x̄ i,n i −1 x in x in i , et en pre-
i
nant ses dérivés du temps on aura
³ ´
∂F i,n i −1 x̄ i,n i −1 ∂G i,n i −1 x̄ i,n i −1 , xθin
¡ ¢
i
ṡ in i = x̄˙ i,n i −1 + x̄˙ i,n i −1 x in i
∂ x i,n i −1 ∂ x i,n i −1
³ ´
∂G i,n i −1 x̄ i,n i −1 , xθin ³ ´
x̄˙ in i x in i + G i,n i −1 x̄ i,n i −1 , xθin i ẋ in i
i
+
∂ x i,n i −1
³ ´
= F in i x̄ i,n i + G in i x̄ in i , uθi ( t) u i ( t)
¡ ¢
(4.13)

Ce résultat est obtenu en suivant des étapes précédentes, en se servant du théorème de


la valeur moyenne où il existe des θ ∈ (0, 1) satisfaisant que uθi = θ .u i + (1 − θ ) u0i
¢ ∂ f i,n i x̄ i,n i , u i ¯
¡ ¢¯
0
u i ( t) − u0i
¡ ¢ ¡ ¡ ¢
(4.14) f i,n i x̄ i,n i , u i = f i,n i x̄ i,n i , u i + ¯
∂u i ¯
u i =θ .u i
où ³ ´ ³ ´
¡ ¢ Pn i −1 ∂F i,n i −1 x̄ i,n i −1 ¡ ¡ ¢ ¢ Pn −1 ∂G i,n i −1 x̄ i,n i
F in i x̄ i,n i = k=1 ∂ x ik
f ik x̄ i,k+1 + x i,k+1 + d ik ( t) + k=i 1 ∂ x ik
à ³ ´ !
∂G i,n i −1 x̄ in i
0
¡ ¡ ¢ ¢ ¡ ¢ £ ¡ ¢ ¤
f ik x̄ i,k+1 + x i,k+1 + d ik ( t) x in i + ∂ x i,n i
x i,n i
+ G i,n i −1 x̄ in i
f in i
x̄ in i
, u i
+ d in i ( t, X )
à ³ ´ ! ³ ´¯ 
∂G i,n i −1 x̄ in i ¢ ∂ f i,n i x̄ i,n i ,u i ¯
¯
G in i x̄ i,n i , uθi ( t) = ( u0i − 1) + 1 sont
¡ ¢ ¡
∂ x i,n i
x i,n i + G i,n i −1 x̄ in i  ∂u i ¯
u i = uθi
¯
θ
des fonctions non linéaire inconnus de x̄ i,n i ∈ R , x̄ in i , , u i ( t) ∈ R j+1 , respectivement.
ni
£ ¤

Donc, pour le i ème sous-système, sur la base de l’analyse ci-dessus et du calcul concret
et de la redéfinition de chaque nouvelle variable, pour j = 1, 2, . . . , n i , nous décrivons le
système pure-feedback (4.1) sous la forme normale suivante par rapport au nouveau
£ ¤T
vecteur de variable d’état s i = s i1 , s i2 , . . . , s i,n i . Par conséquent,

ṡ i1 = s i2
ṡ i2 = s i3
......
ṡ i,n i −1 = s i,n i
³ ´
F in i x̄ i,n i + G in i x̄ in i , uθi ( t) u i ( t)
¡ ¢
ṡ i,n i =
³ ´
(4.15) = F i ( x i ) + G i x i , uθi ( t) u i ( t)

118
4.2. COMMANDE ADAPTATIVE NEURONALE D’UNE CLASSE DE SYSTÈMES
PURE-FEEDBACK MIMO AVEC LA CONTRAINTE DE LA SATURATION

où F i ( x i ) = F in i x̄ i,n i et G i x i , uθi ( t) = G in i x̄ in i , uθi ( t) on peut conclure que de nou-


¡ ¢ ¡ ¢ ¡ ¢

velles variables d’état et les transformations des coordonnons correspondant, le sys-


tème originale non linéaire pure-feedback MIMO (4.1) est transformé dans une forme
¤T
normale avec le vecteur d’état s = [ s 1 , s 2 , . . . , s N ]T et s i = s i1 , s i2 , . . . , s i,n i
£
, l’entrée
u = [ u 1 , u 2 , . . . , u N ]T et la sortie y = [ y1 , y2 , . . . , yN ]T . Pour le i i ème sous-système, l’erreur
de poursuite est définie comme suit :

(4.16) e i ( t) = yi ( t) − yid ( t)

(n −1) T
h i
Et le vecteur de l’erreur de poursuite e i comme e i ( t) = s i − yid = e i , ė i , . . . , e i i
(n i −1) T
h i
= s i1 − yid , s i2 − ẏid , . . . , s i,n i − yid .
(n )
Rappelant (4.15), en soustrayant yid i des deux côtés, on obtient

(n i ) (n i ) (n ) (n )
(4.17) ei = yi − yid i = F i ( x i ) + G i ( x i ) ( g (v i ) + d (v i )) − yid i

De manière équivalente, (4.17) peut L̂etre réécrite sous la forme compacte suivante :
h i
(n )
ė i = A i e i + B i F i ( x i ) + G i ( x i ) ( g (v i ) + d (v i )) − yid i
(4.18) yi = C T
i ei


     
0 1 0 0 0 0
 ···     

 0 0 1 0 

 0 
 
 0 
 
 .. .. .. ∈ ℜn×n , B i =  ...  ∈ ℜn×1 , c i =  ...  ∈ ℜn×1
    
Ai = 
 . . .    
     
 0 0 0 1 
  0   0 
 ···    
0 0 0 0 1 1

Notons que la paire ( A i , B i ) est contrôlable et que la paire (C T


i , A i ) est observable.

4.2.3 Conception de l’observateur


Les erreurs de poursuites e i1 , . . . ., e in de la transformation du system (4.18) est
indisponible pour la rétroaction. On considère maintenant l’observateur suivant pour
l’estimation du vecteur d’erreur de poursuite comme suit :
(
ê˙ i = A i − B i k Tic ê i + k io ẽ i
¡ ¢
(4.19)
ê i = C T
i ê i

119
CHAPITRE 4. COMMANDE ADAPTATIVE NEURONALE DES SYSTÈMES NL MIMO
PURE-FEEDBACK

n ¤T n ¤T
où k ic = k1ic , k2ic , . . . , k ici , k i0 = k1i0 , k2i0 , . . . , k i0i
£ £
sont le vecteur du gain de retour
d’état est le vecteur du gain d’observateur, respectivement, et qui sont choisis de sorte
que les polynômes caractéristiques de A i − B i k Tic et A i − k i0 C T
¡ ¢ ¡ ¢
i soient Hurwitz (c.-à-d.
stable). Notez que ẽ i = e i − ê i , avec ê i est l’estimé du vecteur d’état e i . Par conséquent, si
l’erreur d’observation ẽ i converge vers zéro, l’erreur de poursuite estiméée ê i convergera
également vers zéro.
Pour faciliter la conception de la commande, et selon la propriété d’approximation
universelle des réseaux de neurones, les fonctions non linéaires inconnues suivantes
peuvent être approximées comme suit :
(n )
(4.20) F i ( x i ) + k Ti ê i − yid i = WiT S i ( Z i ) + ε i ( Z i )

et

Wi = ar gminWi ∈ΩW { su p z∈Ω z ¯ fˆ ( Z /W ) − f ( Z )¯}


¯ ¯
(4.21)
i

(n ) T
où ΩWi est l’espace de contraintes de Wi , Z i = [ x i , yid i ] le vecteur d’entrée du réseau
et S i (.) est le vecteur de fonction d’activation neuronale supposé convenablement fixé
à l’avance par l’utilisateur, Wi est le paramètre idéal d’approximation avec l’erreur
neuronale ε i ( Z ) .
’Etant Wi est inconnu, sa valeur estimé Ŵi sera utilisée. En soustrayant (4.18) de (4.19),
on obtient la dynamique suivante pour l’erreur d’observation :
³ ´ h ³ ´ i
θ (n i )
ẽ˙ i = A i − k i0 C T
i e
e i + B i F x
i( i ) + G i x i , u t g v
i ( ) ( ( i) + d v
( i )) + k T

i i − yid
(4.22)ẽ i = C T ẽ i

En substituant (4.20) dans (4.22) on obtient


³ ´ h ³ ´ i
θ
ẽ˙ i = A i − k i0 C T
i ẽ i + B i Wi
T
S i ( Z i ) + ε1i + G i x i , u i ( t ) g ( v i )
(4.23) ẽ i = C T ẽ i

avec ε1i = ε i ( Z i ) + G i x i , uθi ( t) d (v i ).


¡ ¢

Notons 4 u i = g (v i ) − v i , on aura :
³ ´ h ³ ´ ³ ´ i
θ θ
ẽ˙ i = A i − k i0 C T i ẽ i + B i Wi
T
S i ( Z i ) + ε1i + G i x i , u i ( t ) v i + G i x i , u i ( t ) 4 u i

ẽ i = C T ee i
(4.24)

À partir de (4.24), la dynamique de l’erreur de poursuite de la sortie peut s’écrire comme


suit :
h ³ ´ ³ ´ i
(4.25) ẽ i = H i ( p) WiT S i ( Z i ) + ε1i + G i x i , uθi ( t) v i + G i x i , uθi ( t) 4 u i

120
4.2. COMMANDE ADAPTATIVE NEURONALE D’UNE CLASSE DE SYSTÈMES
PURE-FEEDBACK MIMO AVEC LA CONTRAINTE DE LA SATURATION

où p est la variable de Laplace et H i ( p) = C T T


¡ ¡ ¢¢
i P I − A i − k i0 C i B i est la fonction de
transfert associée à la dynamique (4.25). Maintenant, puisque H i ( p) dans (4.25) n’est pas
SPR en général, on introduit un filtre passe bas L i ( p) sachant que H ( p) L−1 ( p) = H ( p)
est SPR.
n o n ³ ´ o
ẽ i = H i ( p)L−i 1 ( p)[L i ( p) WiT S i ( Z i ) + L i ( p) G i x i , uθi ( t) v i
n ³ ´ o
+ L i ( p) G i x i , uθi ( t) 4 u i + L i ( p) {ε1i }]
n o n ³ ´ o
T θ
= H i ( p) [L i ( p) Wi S i ( Z i ) + L i ( p) G i x i , u i ( t) v i
n ³ ´ o
θ
+ L i ( p ) G i x i , u i ( t) 4 u i + ε i f ]
n o n ³ ´ o
T θ
= H i ( p) [L i ( p) Wi S i ( Z i ) + L i ( p) G i x i , u i ( t) v i
n ³ ´ o
+ L i ( p) G i x i , uθi ( t) 4 u i + δ]
³ ´
= H i ( p) [WiT S i ( Z i ) + G i x i , uθi ( t) v i f
³ ´
+ G i x i , uθi ( t) 4 u i f + δ i ]
³ ´
= H i ( p) [WiT S i ( Z i ) + G i x i , uθi ( t) v i
³ ´
(4.26) + δ i + G i x i , uθi ( t) 4 u i ]


n o
(4.27) WiT S i f ( Z i ) = L i ( p) WiT S i ( Z i ) = WiT L i ( p) {S i ( Z i )}

(4.28) ε i f = L i ( p) {ε1i }

δ i = WiT S i f ( Z i ) − S i ( Z i ) + ε i f
© ª
(4.29)
n ³ ´ o ³ ´ ³ ´
(4.30) L i ( p) G i x i , uθi ( t) v i = G i x i , uθi ( t) L ( p) {v i } = G i x i , uθi ( t) v i f ( t)
i

n ³ ´ o ³ ´ ³ ´
θ θ θ
(4.31) L i ( p) G i x i , u i ( t) 4 u i = G i x i , u i ( t) L ( p) {4 u i } = G i x i , u i ( t) 4 u i f
i

De (4.29), il est clair que la présence du terme filtré L i ( p) G i x i , uθi ( t) v i et L i ( p) G i x i , uθi ( t) 4 u i


© ¡ ¢ ª © ¡ ¢ ª

dans la dynamique des erreurs rend la conception du système de contrôle très difficile.
Pour faciliter la tâche de ce travail, l’hypothèse suivante est faite.

Hypothèse 4.1. [130] Le filtre SPR L−i 1 ( p) est choisi tel que L i ( p) {v i } = v i f ∼ = v i et
∼ θ θ
¡ ¢ © ¡ ¢ ª
L i ( p) {4 u i } = 4 u i f = 4 u i doncG i x i , u ( t) v i − L i ( p) G i x i , u ( t) v i = 0 et
i i
³ ´ n ³ ´ o
G i x i , uθi ( t) 4 u i − L i ( p) G i x i , uθi ( t) 4 u i = 0

121
CHAPITRE 4. COMMANDE ADAPTATIVE NEURONALE DES SYSTÈMES NL MIMO
PURE-FEEDBACK

Hypothèse 4.2. Chaque élément δ i du paramètre inconnu défini dans (4.29) est délimité
par une constante, c’est-à-dire qu’il existe une constante positive inconnue τ i telle que

(4.32) |δ i | ≤ τ i

Hypothèse 4.3. Le gain de commande G i (.) et son signe est inconnu, et il existe des
constantes positives inconnues g et g telle que g ≤ |G i (.)| ≤ g .

Afin d’estimer en ligne le signe de gain G i x i , uθi ( t) nous allons introduire la loi de
¡ ¢

commande suivante contenant avec la fonction de Nussbaum.

ẽ i
µ µ ¶ ¶
T
(4.33) v i = N (ζ i ) Ŵ S i ( Z i ) + τ̂ i tanh − αi ψi
²i

où ψ i est un compensateur additif défini par la dynamique suivante :

g| ẽ i 4 u i |+0.54 u2i

 −k ψ − ψi + 4u i si ¯ψ i ¯ > µ i,0
¯ ¯
ie i ψ2i
(4.34) ψ̇ i =
si ¯ψ i ¯ < µ i,0
¯ ¯
0

où 4 u i = g (v i ) − v i , k ie > 0 est le paramètre de conception, α i > 0


Avec

ẽ i
µ µ ¶ ¶
T
(4.35) ζ̇ i = ẽ i Ŵi S i ( Z i ) + τ̂ i tanh − αi ψi
²i

(4.36) N (ζ i ) = ζ2i cos(ζ i )

Pour estimer les paramètres inconnus, nous adoptons les lois suivantes :

(4.37) ˙ = Γ ( ẽ S ( Z ) − σ Ŵ )
Ŵ i i i i i i1 i

˙τ̂ i = γ i [ ẽ i tanh ẽ i − σ i2 τ̂ i ]
µ ¶
(4.38)
²i

où Γ i > 0, γ i > 0, σ i1 = σ i2 > 0. ³ ´


ẽ i
Substituant (4.33) dans (4.26), et en ajoutant et en soustrayant τ̂ i tanh ²i
et de (4.26),

122
4.2. COMMANDE ADAPTATIVE NEURONALE D’UNE CLASSE DE SYSTÈMES
PURE-FEEDBACK MIMO AVEC LA CONTRAINTE DE LA SATURATION

on obtient

ẽ i
µ ¶
ẽ i = H i ( p) [−W̃iT S i ( Z i ) + ŴiT S i ( Z i ) + τ̂ i tanh
²i
ẽ i
µ ¶
− τ̂ i tanh + αi ψi − αi ψi
²i
³ ´
+ G i x i , uθi ( t) v i ( t) + G i 4 u i + δ i ]
ẽ i
µ ¶
T
= H i ( p) [−W̃i S i ( Z i ) − τ̂ i tanh + αi ψi
²i
ẽ i
µ µ ¶ ¶
+ ŴiT S i ( Z i ) + τ̂ i tanh − αi ψi
²i
³ ³ ´ ´
(4.39) × 1 + G i x i , uθi ( t) N (ζ i ) + G i 4 u i + δ i ]

où Wi = Ŵi − W̃i .
La représentation d’états de (4.39) est donnée comme suit

ẽ i
µ ¶
ẽ˙ i = A i ẽ i + B ic [−W̃iT S i ( Z i ) − τ̂ i tanh + αi ψi
²
¶i
ẽ i
µ µ ¶
T
+ Ŵi S i ( Z i ) + τ̂ i tanh − αi ψi
²i
³ ³ ´ ´
− 1 + G i x i , uθi ( t) N (ζ i ) + δ i + G i 4 u i ]
(4.40) ẽ i = C T
i ẽ i

¤T
avec A i = A i − k i0 C T
¡ ¢ £
i est stable et B ic = 1, b i1 , b i2 , . . . , b in i
. On lui associe une
équation de Lyapunov, ayant pour solution unique une matrice symétrique définie
positive P i , donnée par :

T
(4.41) A i Pi + Pi A i + Ci CT
i = −Q i

(4.42) P i B ic = C T
i

Selon (4.42), il est évident que

(4.43) ẽ Ti P i B ic = ẽ Ti C i = ẽ i

4.2.4 Analyse de la stabilité


L’analyse de stabilité de la boucle fermée de la commande proposée est résumée dans
le théorème suivant :

123
CHAPITRE 4. COMMANDE ADAPTATIVE NEURONALE DES SYSTÈMES NL MIMO
PURE-FEEDBACK

Théorème 4.1. Considérons le système non linéaire non affine (4.1) avec les contraintes
sur l’entrée et la sortie, et supposons que les hypothèses 4.1-4.3 sont satisfaites et consi-
dérant l’observateur (4.19). Alors la loi de commande définie par l’équation (4.33) avec
les lois d’adaptation (4.37)-(4.38) appliquées au système (4.1) garantie les propriétés
suivantes :
i) Tous les signaux du système en boucle fermée sont bornés.

Preuve du Théorème 4.1 :Considérons la fonction de Lyapunov candidate suivante


1 T 1 1 2 1 2
(4.44) Vi = ẽ i P i ẽ i + W̃iT Γ−i 1 W̃i + τ̃ + ψ
2 2 2γ i i 2 i
La dérivée temporelle de (4.44) le long de (4.41) et (4.42), et en utilisant (4.43) nous
obtenons :
1 T³ T ẽ i
´ µ ¶
T
V̇i = ẽ i A i P i + P i A i ẽ i + ẽ i [−W̃i S i ( Z i ) − τ̂ i tanh + αi ψi
2 ²i
ẽ i
µ µ ¶ ¶
T
+ Ŵi S i ( Z i ) + τ̂ i tanh − αi ψi
²i
³ ³ ´ ´
× 1 + G i x i , uθi ( t) N (ζ i ) + δ i + G i 4 u i ]

(4.45) ˙ + 1 τ̃ τ̂˙ + ψ ψ̇
+ W̃iT Γ−i 1 Ŵ i i i i i
γi
où τ̃ i = τ i − τ̂ i ,(et τ̂ i est l’estimation du paramètre inconnu τ i ).
Par substitution de (4.41) et le système auxiliaire dans (4.45), on trouve
1 ³ ´ ³ ³
θ
´ ´
V̇i ≤ − ẽ Ti Q i + C i C T i ẽ i + 1 + G i x i , u i ( t ) N ( ζ i ζ̇ i
)

ẽ i
µ ¶ ¸
− ẽ i −τ̂ i tanh + δ i + ẽ i α i ψ i + ẽ i G i 4 u i
²i
˙ + 1 τ̃ τ̂˙
³ ´
+ W̃iT − ẽ i S i ( Z i ) + Γ−i 1 Ŵ i i i
γi
(4.46) − k ie ψ2i − g | ẽ i 4 u i | − 0.54 u2i + ψ i 4 u i

À partir de l’hypothèse 4.3 et le lemme 2.1, on peut obtenir l’inégalité suivante :


ẽ i ẽ i
µ ¶ µ ¶
ẽ i δ i − ẽ i τ̂ i tanh ≤ ẽ i τ i − | ẽ i | (τ i − τ̃ i )tanh
²i ²i
ẽ i
µ ¶
(4.47) ≤ κτ i − | ẽ i | τ̃ i tanh
²i
(4.48) ẽ i G i 4 u i − g | ẽ i 4 u i | ≤ 0
(4.49) −0.54 u2i + ψ i 4 u i ≤ 0.5ψ2i
1 2
(4.50) ẽ i ψ i ≤ ψ i + ẽ T T
i C i C i ẽ i
2

124
4.2. COMMANDE ADAPTATIVE NEURONALE D’UNE CLASSE DE SYSTÈMES
PURE-FEEDBACK MIMO AVEC LA CONTRAINTE DE LA SATURATION

Après la substitution des lois d’adaptation (4.37)-(4.38) dans la dynamique (4.46), on


obtient

1 T αi 1 2
µ ¶
V̇i ≤ − ẽ i Q i ẽ i − k ie − − ψ
2 2 2 i
³ ³ ´ ´
+ 1 + G i x i , uθi ( t) N (ζ i ) ζ̇ i
(4.51) − σ i1 W̃iT Ŵi − σ i2 τ̃ i τ̂ i + κτ i

αi
où le paramètre k ie est choisi pour satisfaire la condition k ie − 2 − 21 > 0.
En utilisant les inégalités suivantes,

σ i1 σ i1 °
°W̃i °2
−σ i1 W̃iT Ŵi ≤ kWi k2 −
°
(4.52)
2 2
σ i2 2 σ i2 2
(4.53) σ i2 τ̃ i τ̂ i ≤ − τ̃ + τ
2 2 2 2

On peut réécrire (4.51) comme suit :

1 T αi 1 2 ³
µ ¶ ³ ´ ´
V̇i ≤ − ẽ i Q i ẽ i − k ie − − ψ i + 1 + G i x i , uθi ( t) N (ζ i ) ζ̇ i
2 2 2
σ i1 ° °2 σ i2 2 σ i1 σ i2 2
− °W̃i ° − τ̃2 + kWi k2 + τ2 + κτ i
2 2³ ³2 ´ 2 ´
(4.54) ≤ − c i1 Vi + c i0 + 1 + G i x i , uθi ( t) N (ζ i ) ζ̇ i

où ( ¶)
λmin (Q i ) σ i1 αi 1
µ
c i1 = min , ¢ , σ i2 γ i , k ie − − ,
λmax (P i ) λmax Γi
−1
¡
2 2

σ i1 σ i2
c i0 = kWi k2 + τ22 + κτ i
2 2
avec λmin (.) et λmax (.) désignent la valeur propre minimale et maximale de (.), respecti-
vement. Alors on intégrant les deux côtés de (4.54), on aura
Z t³ ³ ´ ´
(4.55) Vi ( t) ≤ c0 + e c1 t 1 + G i x i , uθi ( t) N (ζ i (τ)) ζ̇ i (τ) e c1 τ d τ
0

où c i0 = Vi (0) + c i0 / c i1 . Utilisant le Lemme 1.1, on peut conclure à partir de l’équation


Rt
(4.55) la bornitude de Vi ( t),ζ i ( t) et 0 G i ( x i ) N (ζ i (τ))ζ̇ i (τ) avec [0, t f .
¢

Selon le théorème 1.2 la bornitude de la solution du système en boucle fermé et assure


que tous les signaux du système en boucle fermée sont bornés. De plus, à partir des
propriétés de la fonction de transformation, nous concluons que l’erreur de poursuite
e i ( t) convergera finalement vers un ensemble résiduel arbitrairement petit.

125
CHAPITRE 4. COMMANDE ADAPTATIVE NEURONALE DES SYSTÈMES NL MIMO
PURE-FEEDBACK

4.2.5 Résultats de simulation


Pour tester les performances de l’approche de commande adaptative neuronale dé-
veloppée, dans cette section, nous présentons les résultats de simulation montrant les
performances de poursuite de la commande proposée appliqué au quadrirotor régi par
les équations des angles d’Euler (ϕ, θ , ψ) sous les conditions (−π/2 < ϕ < π/2) pour roulis,
(−π/2 < θ < π/2) pour le tangage et (−π < ψ < π) pour le lacet.
Ce quadrirotor à quatre hélices en configuration X , deux hélices tournes dans le même
sens et les deux autres tournent dans le sens opposé. Avec le changement des vitesses
des quatre moteurs ou un pair de moteurs, le quadrirotor peut changer de déviation
et de vitesse. Donc, augmenter la vitesse des quatre moteurs en même temps implique
un mouvement vertical. Èventuellement la variation de la vitesse des moteurs deux et
quatre implique une rotation de roulis. Le tangage est obtenu par la variation de la
vitesse des moteurs un et trois. Le Lacet est obtenu par l’augmentation de la vitesse
des hélices à pas normal et/ou inversé en diminuant proportionnellement la vitesse des
hélices à pas inversé pour une rotation d’un côté et inversement de l’autre côté.
Le modèle mathématique du quadrirotor est donné par [131–133] comme suit :
(4.56)



 ẋ1,1 = x1,2
ẋ1,2 = a 1 x2,2 x3,2 − a 2 Ωr x2,2 − a 3 x1,2 + b 1 u ϕ (v) + d ϕ̇ ( t)






ẋ = x


2,1 2,2


 ẋ2,2 = a 4 x1,2 x3,2 − a 5 Ωr x1,2 − a 6 x2,2 + b 2 u θ (v) + d θ̇ ( t)

ẋ3,1 = x3,2







ẋ3,2 = a 7 x1,2 x2,2 − a 8 x3,2 + b 3 u ψ (v) + d ψ̇ ( t)


I y−I z Ir kϕ I z −I x Jr kθ I x−I y
a1 = I x , a2 = I x , a3 = I x , a4 = I y , a5 = I y , a6 = I y , a7 = I z

a 8 = I z , b 1 = Idx , b 2 = Idy , b 3 = I1z , Ωr = w1 − w2 + w3 − w4
Les définitions de toutes les constantes et les paramètres du modéle quadrirotor sont
répertoriées dans le tableau 4.1. La commande d’entrée du système est sélectionnée
comme suit :
 ¡ 2 2
¢
 u ϕ = b ¡w4 − w2 ¢


(4.57) u θ = b w32 − w12

 u = κ ¡ w2 − w2 + w2 − w2 ¢

ψ 1 2 3 4

où le vecteur d’état x = ϕ, ϕ̇, θ , θ̇ , ψ, ψ̇ reprśente respectivement, l’angle de roulis, la


¡ ¢

vitesse angulaire de roulis, l’angle de tangage, la vitesse angulaire de tangage, l’angle

126
4.2. COMMANDE ADAPTATIVE NEURONALE D’UNE CLASSE DE SYSTÈMES
PURE-FEEDBACK MIMO AVEC LA CONTRAINTE DE LA SATURATION

de lacet et la vitesse angulaire de lacet ; et la commande d’entrée v = [v1 , v2 , v3 ]T avec


£ ¤T
une contrainte de saturation u = u ϕ , u θ , u ψ ne dépassant pas la valeur u im, i=1:3 =
1.05 [ N.M ]. Avec I x , I y , I z , k ϕ , k θ , k ψ , Jr , b, κ, d et w i , i = 1, . . . , 4, sont respectivement :
¡ ¢ ¡ ¢

l’inertie de corps ; coefficient de l’aérodynamique ; l’inertie du rotor ; le facteur de poussé ;


le facteur de trainé ; la distance entre le centre de la masse et le rotor ; et la vitesse
angulaire de chaque i rotor ; les perturbations externes sont données comme suit [134,
135] :

¢T
= diag (a 3 , a 6 , a 8 ) η̇ air
¡
(4.58) d ϕ̇ ( t) , d θ̇ ( t) , d ψ̇ ( t)

¢T
avec η̇ air = ϕ̇air , θ̇air , ψ̇air représente la perturbation du vent définie par la vitesse de
¡

rotation de l’air. D’ailleurs, cette perturbation est modalisée par un signale quarré avec
une vitesse de rotation ±(30, 45, 60)T de g/ s, avec une fréquence de 0.1 HZ . Cependant,
¤T
l’objectif de la commande est de forcer les angles de roulis, tangage et lacet y1 = ϕ, θ , ψ
£
¤T
pour suivre une trajectoire désiré yd = ϕd , θd , ψd = [sin( t), sin( t), sin( t)]T tout en ga-
£

rantissant des contraintes d’entrée prédéfinies. Pour implémenter la commande proposée,


le vecteur de gain d’observateur et les vecteurs de gain de retour d’état sont sélectionnés
respectivement
 comme suit : 
1.8057 × 103 0.5037 × 103 0.0014 × 103 0.0030 × 103 −0.0000 −0.0000
 
k io =  3 3
 0. 0000 0 . 0000 0 . 0002 × 10 0 . 0009 × 10 −0 . 0000 −0. 0000 

−0.0000 −0.0000 −0.0000 −0.0000 0.0070 × 103 0.0411 × 103
 
12.2340 20.5172 −0.7175 −1.9998 −0.0070 −0.1198
 
k ic = 
 −0.6950 −1.7875 6.1102 5.3640 −0.0735 −1.2457  
−0.1918 − 0.5844 −1.8741 −6.674634.9958 302.1684
Pour chaque sous-système, un seul réseau de neurones est généré pour approximer ien
(n ) T
h
ligne les fonctions inconnus, et les variables d’entrée sont choisis comme Z i = x i , yid i .
Les valeurs initiales et les différents paramètres de conception sont résumés dans le
tableau 4.2. comme suit

127
CHAPITRE 4. COMMANDE ADAPTATIVE NEURONALE DES SYSTÈMES NL MIMO
PURE-FEEDBACK

Les paramètres Les valeurs

x i (0) , i = 1 : 6 pi /20, 0, pi /20, 0, pi /20, 0


ê i (0) , i = 1 : 6 0, 0, 0, 0, 0, 0
Γi , i = 1 : 3 50, 50, 50
σ i j , i = 1 : 3, j = 1 : 2 5.06, 5, 06, 5, 06, 20.01, 20.01
γi , i = 1 : 3 0.001, 0.001, 0.001
αi , i = 1 : 3 4
²i , i = 1 : [ x1 , x2 , v( t), u(v)]T
Wi (0) , i = 1 : 3 0, 0, 0

Tableau 4.1: Les paramètres de synthèses et les conditions initiales.

Les paramètres Les valeurs

d 25 cm
Jr 2.8 ∗ 10−5 k g m2
I x, I y 3.82 ∗ 10−3 k g m2
Iz 7.13 ∗ 10−3 k g m2
kϕ , kθ 5.56 ∗ 10−3 N m s/ rad
kψ 6.35 ∗ 10−3 N m s/ rad
d 2.98 ∗ 10−5 N s2 / rad 2
κ 3.23 ∗ 10−7 N s2 / rad 2

Tableau 4.2: Les paramètres physique du quadrirotor.

Les figures 4.1-4.4 illustrent les résultats de simulation du quadrirotor. Ces résultats
montrent que les performances de poursuite sont suffisamment bonnes et tous les signaux
du système en boucle fermée sont bornés. On peut voir dans la figure 4.1 (a) (b) (c) que la
sortie ϕ, θ , ψ suit sa référence ϕd , θd , ψd avec précision. La figure 4.2 (a) (b)(c) montre
¡ ¢ ¡ ¢

que les erreurs de poursuite convergent vers zéro. La figure 4.3 (a)(b)(c) montre l’effet du
contrainte de saturation sur les commandes de système est insensible aux incertitudes et
à la saturation. Ces saturations sont nécessaires pour rendre physiquement réalisable ces
structures de commande sur des systèmes réels. La figure 4.4 montre que les trajectoires
des nouveaux états avec leurs estimations, on remarque clairement que l’observateur
arrive à estimer correctement les états non mesurés.

128
4.2. COMMANDE ADAPTATIVE NEURONALE D’UNE CLASSE DE SYSTÈMES
PURE-FEEDBACK MIMO AVEC LA CONTRAINTE DE LA SATURATION

(a) (b)

(c)

F IGURE 4.1: Les erreurs de poursuite de roulis, tangage et lacet, respectivement : La


sortie(ligne rouge) ; la référence(ligne noire)

(a) (b)

(c)

F IGURE 4.2: Les erreurs de poursuite de e ϕ , e θ et e ψ .

129
CHAPITRE 4. COMMANDE ADAPTATIVE NEURONALE DES SYSTÈMES NL MIMO
PURE-FEEDBACK

(a)

(b)

(c)

F IGURE 4.3: Les signaux de commande u ϕ , u θ et u ψ .

130
4.3. CONCLUSION

(a) (b)

(c) (d)

(e) (f)
F IGURE 4.4: L’erreur de poursuite du systè transformé et son estimation : Réel (ligne
rouge) ; Estimé (ligne blue)

4.3 Conclusion
Dans ce chapitre, nous avons proposé et développé une commande adaptative neuro-
nale pour une classe de systèmes non linéaires MIMO sous la forme pure-feedback avec
une contrainte de la saturation sur l’entrée et en présence de perturbations externes.
Pour ce faire, nous avons introduit des transformations de coordonnées pour convertir la
commande par retour d’état en une commande par retour de sortie. Puis, un observateur,
basé sur la positivité (SPR) des systèmes, est adopté pour estimer les états inconnus
du nouveau système canonique. Dans l’approche proposée, le problème de l’explosion de
complexité est complètement évité en se passant d’utiliser la technique de back-stepping.
La stabilité de la boucle fermée a été analysée dans le sens de Lyapunov. Les résultats de
simulation obtenus pour l’ exemple proposé montre de bonne performance de poursuite
et de robustesse.

131
C ONCLUSION GÉNÉRALE

Dans le cadre de cette thèse développement de lois de commande adaptative pour


certaines classes de systèmes non linéaires incertains est considéré.
Plusieurs algorithmes ont été développés pour les systèmes non linéaires incertains
mono-variables (SISO). Le cas des systèmes affines et non affines en la commande,
la présence des contraintes sur les sorties et/ou les états ainsi que les perturbations
externes ont été étudiés. De deux types de non linéarités affectant les entrées ont été
étudié, en l’occurrence la saturation et la zone morte. Aussi, les systèmes non linéaires
multi-variables ont été étudiés en tenant en compte de toutes les difficultés qui ont été
investiguées pour le cas SISO.
En se servant de la propriété de l’approximation universelle, les RN ont été exploités
extensivement afin d’approcher les dynamiques incertaines des systèmes. Des algo-
rithmes ont été proposés tout en évitant les fameux problèmes d’explosion de complexité
sans faire recours à l’approche back-stepping. Les lois de commandes développées pré-
sentent peu de paramètres à ajuster en ligne en les comparant aux travaux similaires.
La stabilité des boucles de commande ont été prouvées d’être stable en se servant de la
méthode de Lyapunov.
Dans le premier chapitre on a présenté les différents aspects théoriques de la com-
mande adaptative à base de réseaux de neurones pour les systèmes non linéaires incer-
tains. La méthode de back-stepping et Dynamic surfacr control (DSC) ont bénéficié d’une
attention particulière vue leur importance pour les développements présentés. Quelques
définitions inhérentes à la stabilité et quelques lemmes et théorèmes indispensables
pour la synthèse des lois de commandes ont été ègalement donnés.
Le deuxième chapitre introduit trois schémas de commande adaptative neuronale
pour les systèmes SISO non linéaires sous la forme strict-feedback en la présence des
contraintes sur l’entrée. Dans le premier schéma, la non linéarité de type saturation
est considéré dans la conception de la loi de commande. Dans ce cadre, le mécanisme
de déclenchement par événement (event-triggering mechanism (ETM)) est exploité. En
comparaison avec les approches traditionnelles, la structure du contrôleur proposé est

133
CONCLUSION GÉNÉRALE

plus simple à cause de l’élimination des problèmes de l’explosion de complexité inhérente


aux approches existantes. Dans le second schéma, deux approches de commande sont
proposées. Dans les deux approches proposées, des exigences de performance en régime
transitoire et établie sont imposées sur la sortie du système. Pour traiter la saturation,
un compensateur additif est conçu, alors que pour traiter la zone morte un terme
de robustification est introduit. Les approches proposées sont capable de garantir la
robustesse du système en boucle fermée avec une réduction importante du nombre
des paramètres d’apprentissage en ligne, ce qui rend les approches proposées plus
appropriées pour la mise en œuvre en temps réel. L’analyse de stabilité de Lyapunov a
permis de garantir la bornitude de tous les signaux de la boucle fermée.

Le troisième chapitre aborde la commande adaptative neuronale des systèmes SISO


non linéaires et non affines en la commande sous la forme pure-feedback avec satura-
tion sur l’actionneur. Dans un premier schéma de commande, par l’introduction d’une
transformation d’état et d’un filtre passe bas, les difficultés de la commande commu-
nément rencontrés pour cette classe de système sont contournées en convertissant le
problème de commande de systèmes pure-feedback saturés en un problème normale de
Brunovsky. Dans cette approche, la conception de la commande est basée sur la notion
de positivité des systèmes ( SPR : Strictly Positive Real) afin d’estimer les nouveaux
états et la construction d’un terme de commande robuste pour faire face aux erreurs
d’approximations neuronales et pour compenser l’influence des saturations sur l’entrée.
Dans un deuxième schéma, en plus du premier problème, la présence des contraintes sur
la sortie est considérée simultanément avec les non linéarités sur l’entrée de commande.
Ainsi, un problème plus complexe est étudié. L’analyse de stabilité a permis de garantir
la bornitude de tous les signaux de la boucle fermée et la satisfaction des contraintes de
sortie.

Le quatrième chapitre est dédié à la commande adaptative neuronale d’une classe


dite pure-feedback de systèmes non linéaires multi-variables (MIMO) incertains en
la présence des non-linéarités sur l’actionneur. Dans cette approche, de nouvelles va-
riables d’état et des transformations de coordonnées sont introduites pour convertir le
système original pure-feedback en une forme normale. Un observateur d’état est conçu
pour estimer les états indisponibles et l’utilisation de la fonction de Nussbaum rend la
connaissance à priori du signe du gain de commande non nécessaire. Dans la concep-
tion du contrôleur, similairement aux cas SISO, le problème des dérivées circulaire est
contourné en se passant de la technique de back-stepping. La stabilité du système en
boucle fermée est analysée au sens de de SPR -Lyapunov afin de montrer que les erreurs

134
CONCLUSION GÉNÉRALE

de poursuite convergent vers un petit voisinage de l’origine. De plus, la performance de


poursuite du schéma de commande est illustrée par un exemple de simulation.
Les lois d’adaptation des paramètres des réseaux de neurones de tous les schémas de
commande proposés dans cette thèse utilisent la loi dite σ-modification pour garantir la
bornitude des paramètres.

135
B IBLIOGRAPHIE

[1] Warren S M C C ULLOCH et Walter P ITTS :


A logical calculus of the ideas immanent in nervous activity.
The bulletin of mathematical biophysics, 5(4):115–133, 1943.

[2] Jooyoung PARK et Irwin W S ANDBERG :


Universal approximation using radial-basis-function networks.
Neural computation, 3(2):246–257, 1991.

[3] Kurt H ORNIK, Maxwell S TINCHCOMBE et Halbert W HITE :


Multilayer feedforward networks are universal approximators.
Neural networks, 2(5):359–366, 1989.

[4] Li Xin WANG et Hao Y ING :


Adaptive fuzzy systems and control : design and stability analysis.
Journal of Intelligent and Fuzzy Systems-Applications in Engineering and Techno-
logy, 3(2):187, 1995.

[5] Marios M P OLYCARPOU et Petros A I OANNOU :


Identification and control of nonlinear systems using neural network models :
Design and stability analysis.
University of Southern Calif., 1991.

[6] Robert M S ANNER et J-JE S LOTINE :


Gaussian networks for direct adaptive control.
IEEE Transactions on neural networks, 3(6):837–863, 1992.

[7] Fu-Chuang C HEN et Hassan K K HALIL :


Adaptive control of a class of nonlinear discrete-time systems using neural net-
works.
IEEE Transactions on Automatic Control, 40(5):791–801, 1995.

137
BIBLIOGRAPHIE

[8] Jeffrey T S POONER et Kevin M PASSINO :


Stable adaptive control using fuzzy systems and neural networks.
IEEE Transactions on Fuzzy Systems, 4(3):339–359, 1996.

[9] Shuzhi Sam G E et Jing WANG :


Robust adaptive neural control for a class of perturbed strict feedback nonlinear
systems.
IEEE Transactions on Neural Networks, 13(6):1409–1419, 2002.

[10] Petros A I OANNOU et Jing S UN :


Robust adaptive control.
Courier Corporation, 2012.

[11] L PAQUIN :
Application du backstepping a une colonne de flottation.
2001.

[12] Karl J Å STRÖM et Björn W ITTENMARK :


Adaptive control.
Courier Corporation, 2013.

[13] Miroslav· K RSTI, Ioannis K ANELLAKOPOULOS et V P ETAR :


Nonlinear and adaptive control design.
Wiley New York, 1995.

[14] Jing Z HOU et Changyun W EN :


Adaptive backstepping control of uncertain systems : Nonsmooth nonlinearities,
interactions or time-variations.
Springer, 2008.

[15] Jean-Jacques E S LOTINE et J KARL HEDRICK :


Robust input-output feedback linearization.
International Journal of control, 57(5):1133–1139, 1993.

[16] Mooncheol W ON et J Karl H EDRICK :


Multiple-surface sliding control of a class of uncertain nonlinear systemsm.
International Journal of Control, 64(4):693–706, 1996.

[17] D S WAROOP, J Karl H EDRICK, Patrick P Y IP et J Christian G ERDES :


Dynamic surface control for a class of nonlinear systems.

138
BIBLIOGRAPHIE

IEEE transactions on automatic control, 45(10):1893–1899, 2000.

[18] JK H EDRICK et PP Y IP :
Multiple sliding surface control : theory and application.
Journal of dynamic systems, measurement, and control, 122(4):586–593, 2000.

[19] J Christian G ERDES et J Karl H EDRICK :


“loop-at-a-time” design of dynamic surface controllers for nonlinear systems.
Journal of dynamic systems, measurement, and control, 124(1):104–110, 2002.

[20] P Patrick Y IP et J Karl H EDRICK :


Adaptive dynamic surface control : a simplified algorithm for adaptive backstep-
ping control of nonlinear systems.
International Journal of Control, 71(5):959–979, 1998.

[21] DVAHG S WAROOP, JC G ERDES, P Patrick Y IP et J Karl H EDRICK :


Dynamic surface control of nonlinear systems.
In Proceedings of the 1997 American Control Conference (Cat. No. 97CH36041),
volume 5, pages 3028–3034. IEEE, 1997.

[22] Roger N USSBAUM :


Some remarks on a conjecture in parameter adaptive control.
Systems and Control Letters, 3(5):243–246, 1983.

[23] Abdesselem B OULKROUNE et Mohammed M’ SAAD :


On the design of observer-based fuzzy adaptive controller for nonlinear systems
with unknown control gain sign.
Fuzzy Sets and Systems, 201:71–85, 2012.

[24] Hassan K K HALIL :


Nonlinear systems.
Upper Saddle River, 2002.

[25] Jing N A, Xuemei R EN et Dongdong Z HENG :


Adaptive control for nonlinear pure-feedback systems with high-order sliding mode
observer.
IEEE transactions on neural networks and learning systems, 24(3):370–382, 2013.

[26] Marios M P OLYCARPOU et Petros A I OANNOU :


A robust adaptive nonlinear control design.

139
BIBLIOGRAPHIE

In 1993 American Control Conference, pages 1365–1369. IEEE, 1993.

[27] Qi Z HOU, Lijie WANG, Chengwei W U, Hongyi L I et Haiping D U :


Adaptive fuzzy control for nonstrict-feedback systems with input saturation and
output constraint.
IEEE Transactions on Systems, Man, and Cybernetics : Systems, 47(1):1–12, 2016.

[28] Da L IN, Xingyuan WANG et Yi YAO :


Fuzzy neural adaptive tracking control of unknown chaotic systems with input
saturation.
Nonlinear Dynamics, 67(4):2889–2897, 2012.

[29] Changyun W EN, Jing Z HOU, Zhitao L IU et Hongye S U :


Robust adaptive control of uncertain nonlinear systems in the presence of input
saturation and external disturbance.
IEEE Transactions on Automatic Control, 56(7):1672–1678, 2011.

[30] Yongming L I, Shaocheng T ONG et Tieshan L I :


Composite adaptive fuzzy output feedback control design for uncertain nonlinear
strict-feedback systems with input saturation.
IEEE Transactions on Cybernetics, 45(10):2299–2308, 2014.

[31] Huanqing WANG, Xiaoping L IU et Kefu L IU :


Adaptive neural data-based compensation control of non-linear systems with
dynamic uncertainties and input saturation.
IET Control Theory & Applications, 9(7):1058–1065, 2015.

[32] Shigen G AO, Bin N ING et Hairong D ONG :


Fuzzy dynamic surface control for uncertain nonlinear systems under input satu-
ration via truncated adaptation approach.
Fuzzy Sets and Systems, 290:100–117, 2016.

[33] Qi Z HOU, Peng S HI, Yang T IAN et Mingyu WANG :


Approximation-based adaptive tracking control for mimo nonlinear systems with
input saturation.
IEEE transactions on cybernetics, 45(10):2119–2128, 2014.

[34] Ziting C HEN, Zhijun L I et CL Philip C HEN :

140
BIBLIOGRAPHIE

Adaptive neural control of uncertain mimo nonlinear systems with state and input
constraints.
IEEE transactions on neural networks and learning systems, 28(6):1318–1330,
2016.

[35] Xiaohui YAN, Mou C HEN, Qingxian W U et Shuyi S HAO :


Dynamic surface control for a class of stochastic non-linear systems with input
saturation.
IET Control Theory & Applications, 10(1):35–43, 2016.

[36] Jing Z HOU, Changyun W EN et Ying Z HANG :


Adaptive output control of nonlinear systems with uncertain dead-zone nonlinea-
rity.
IEEE Transactions on Automatic Control, 51(3):504–511, 2006.

[37] Gang T AO et Petar V K OKOTOVIC :


Adaptive control of plants with unknown dead-zones.
IEEE Transactions on Automatic Control, 39(1):59–68, 1994.

[38] Gang T AO et PV K OKOTOVI Ć :


Discrete-time adaptive control of systems with unknown deadzones.
International Journal of Control, 61(1):1–17, 1995.

[39] Shaocheng T ONG et Yongming L I :


Adaptive fuzzy output feedback control of mimo nonlinear systems with unknown
dead-zone inputs.
IEEE Transactions on Fuzzy Systems, 21(1):134–146, 2012.

[40] DongJuan L I :
Adaptive neural network control for a class of continuous stirred tank reactor
systems.
Science China Information Sciences, 57(10):1–8, 2014.

[41] Shu L I, MingZhe G ONG et YanJun L IU :


Neural network-based adaptive control for a class of chemical reactor systems
with non-symmetric dead-zone.
Neurocomputing, 174:597–604, 2016.

[42] W LI :
Adaptive fuzzy systems and control, design and stability analysis, 2000.

141
BIBLIOGRAPHIE

[43] TS L I, ZJ Z OU et WL L UO :
Dsc-backstepping based robust adaptive nn control for nonlinear systems.
Acta Autom. Sin, 34(11):1424–1430, 2008.

[44] Weisheng C HEN, Licheng J IAO, Ruihong L I et Jing L I :


Adaptive backstepping fuzzy control for nonlinearly parameterized systems with
periodic disturbances.
IEEE Transactions on Fuzzy Systems, 18(4):674–685, 2010.

[45] Dan WANG et Jie H UANG :


Neural network-based adaptive dynamic surface control for a class of uncertain
nonlinear systems in strict-feedback form.
IEEE Transactions on Neural Networks, 16(1):195–202, 2005.

[46] Mou C HEN, Gang T AO et Bin J IANG :


Dynamic surface control using neural networks for a class of uncertain nonlinear
systems with input saturation.
IEEE transactions on neural networks and learning systems, 26(9):2086–2097,
2014.

[47] L E DALATI, A Khaki S EDIGH, M Aliyari S HOOREDELI et A M OAREFIANPOUR :


Adaptive fuzzy dynamic surface control of nonlinear systems with input saturation
and time-varying output constraints.
Mechanical Systems and Signal Processing, 100:311–329, 2018.

[48] Zhaoxu Y U, Yan D ONG, Shugang L I et Fangfei L I :


Adaptive tracking control for switched strict-feedback nonlinear systems with
time-varying delays and asymmetric saturation actuators.
Neurocomputing, 238:245–254, 2017.

[49] Shigen G AO, Hairong D ONG, Bin N ING et Lei C HEN :


Neural adaptive control for uncertain nonlinear system with input saturation :
State transformation based output feedback.
Neurocomputing, 159:117–125, 2015.

[50] Jang-Hyun PARK, Seong-Hwan K IM et Chae-Joo M OON :


Adaptive neural control for strict-feedback nonlinear systems without backstep-
ping.
IEEE Transactions on Neural Networks, 20(7):1204–1209, 2009.

142
BIBLIOGRAPHIE

[51] Nassira Z ERARI, Mohamed C HEMACHEMA et Najib E SSOUNBOULI :


Neural network based adaptive tracking control for a class of pure feedback
nonlinear systems with input saturation.
IEEE/CAA Journal of Automatica Sinica, 6(1):278–290, 2018.

[52] Khoi B N GO, Robert M AHONY et Zhong-Ping J IANG :


Integrator backstepping using barrier functions for systems with multiple state
constraints.
In Proceedings of the 44th IEEE Conference on Decision and Control, pages 8306–
8312. IEEE, 2005.

[53] Keng Peng T EE, Shuzhi Sam G E et Eng Hock T AY :


Barrier lyapunov functions for the control of output-constrained nonlinear systems.
Automatica, 45(4):918–927, 2009.

[54] Beibei R EN, Shuzhi Sam G E, Keng Peng T EE et Tong Heng L EE :


Adaptive neural control for output feedback nonlinear systems using a barrier
lyapunov function.
IEEE Transactions on Neural Networks, 21(8):1339–1345, 2010.

[55] Zhikai Z HANG, Guangren D UAN et Mingzhe H OU :


Robust adaptive dynamic surface control of uncertain non-linear systems with
output constraints.
IET Control Theory & Applications, 11(1):110–121, 2016.

[56] Charalampos P B ECHLIOULIS et George A R OVITHAKIS :


Robust adaptive control of feedback linearizable mimo nonlinear systems with
prescribed performance.
IEEE Transactions on Automatic Control, 53(9):2090–2099, 2008.

[57] Lili Z HANG et Guang-Hong YANG :


Dynamic surface error constrained adaptive fuzzy output feedback control for
switched nonlinear systems with unknown dead zone.
Neurocomputing, 199:128–136, 2016.

[58] Wenchao M ENG, Qinmin YANG et Youxian S UN :


Adaptive neural control of nonlinear mimo systems with time-varying output
constraints.

143
BIBLIOGRAPHIE

IEEE transactions on neural networks and learning systems, 26(5):1074–1085,


2014.

[59] Xiaofeng WANG et Michael D L EMMON :


Event-triggering in distributed networked control systems.
IEEE Transactions on Automatic Control, 56(3):586–601, 2010.

[60] Dimos V D IMAROGONAS, Emilio F RAZZOLI et Karl H J OHANSSON :


Distributed event-triggered control for multi-agent systems.
IEEE Transactions on Automatic Control, 57(5):1291–1297, 2011.

[61] Eloy G ARCIA et Panos J A NTSAKLIS :


Model-based event-triggered control with time-varying network delays.
In 2011 50th IEEE Conference on Decision and Control and European Control
Conference, pages 1650–1655. IEEE, 2011.

[62] Lantao X ING, Changyun W EN, Zhitao L IU, Hongye S U et Jianping C AI :


Event-triggered adaptive control for a class of uncertain nonlinear systems.
IEEE transactions on automatic control, 62(4):2071–2076, 2016.

[63] Mahmoud A BDELRAHIM, Romain P OSTOYAN, Jamal D AAFOUZ et Dragan N EŠI Ć :


Robust event-triggered output feedback controllers for nonlinear systems.
Automatica, 75:96–108, 2017.

[64] Lantao X ING, Changyun W EN, Zhitao L IU, Hongye S U et Jianping C AI :


Event-triggered output feedback control for a class of uncertain nonlinear systems.
IEEE Transactions on Automatic Control, 64(1):290–297, 2018.

[65] Tengfei L IU et Zhong-Ping J IANG :


Event-triggered control of nonlinear systems with state quantization.
IEEE Transactions on Automatic Control, 64(2):797–803, 2018.

[66] Nankun M U, Yonghui W U, Xiaofeng L IAO et Tingwen H UANG :


Input time delay margin in event-triggered consensus of multiagent systems.
IEEE transactions on cybernetics, 49(5):1849–1858, 2018.

[67] Hua D ENG et Miroslav K RSTI Ć :


Stochastic nonlinear stabilization—i : a backstepping design.
Systems & Control Letters, 32(3):143–150, 1997.

144
BIBLIOGRAPHIE

[68] Abdesselem B OULKROUNE, Naâmane B OUNAR, M FARZA et al. :


Indirect adaptive fuzzy control scheme based on observer for nonlinear systems :
A novel spr-filter approach.
Neurocomputing, 135:378–387, 2014.

[69] Abdesselem B OULKROUNE, Mohamed T ADJINE, Mohammed M’S AAD et Mondher


FARZA :
How to design a fuzzy adaptive controller based on observers for uncertain affine
nonlinear systems.
Fuzzy sets and systems, 159(8):926–948, 2008.

[70] Sosale Shankara S ASTRY et Alberto I SIDORI :


Adaptive control of linearizable systems.
IEEE Transactions on Automatic Control, 34(11):1123–1131, 1989.

[71] Jean-Jacques E S LOTINE, Weiping L I et al. :


Applied nonlinear control, volume 199.
Prentice hall Englewood Cliffs, NJ, 1991.

[72] Nassira Z ERARI et Mohamed C HEMACHEMA :


Robust adaptive neural network prescribed performance control for uncertain cstr
system with input nonlinearities and external disturbance.
Neural Computing and Applications, pages 1–14, 2019.

[73] A U PPAL, WH R AY et AB P OORE :


On the dynamic behavior of continuous stirred tank reactors.
Chemical Engineering Science, 29(4):967–985, 1974.

[74] Mou C HEN, Shuzhi Sam G E et Bernard Voon Ee H OW :


Robust adaptive neural network control for a class of uncertain mimo nonlinear
systems with input nonlinearities.
IEEE Transactions on Neural Networks, 21(5):796–812, 2010.

[75] Qingyun YANG et Mou C HEN :


Adaptive neural prescribed performance tracking control for near space vehicles
with input nonlinearity.
Neurocomputing, 174:780–789, 2016.

[76] Zongcheng L IU, Xinmin D ONG, Jianping X UE et Yong C HEN :

145
BIBLIOGRAPHIE

Adaptive neural control for a class of time-delay systems in the presence of back-
lash or dead-zone non-linearity.
IET Control Theory & Applications, 8(11):1009–1022, 2014.

[77] Ma del Carmen Rodríguez L IÑÁN et William P H EATH :


Controller structure for plants with combined saturation and deadzone/backlash.
In 2012 IEEE International Conference on Control Applications, pages 1394–1399.
IEEE, 2012.

[78] Hassan Z ARGARZADEH, Travis D IERKS et Sarangapani J AGANNATHAN :


Optimal control of nonlinear continuous-time systems in strict-feedback form.
IEEE transactions on neural networks and learning systems, 26(10):2535–2549,
2015.

[79] Charalampos P B ECHLIOULIS et George A R OVITHAKIS :


Adaptive control with guaranteed transient and steady state tracking error bounds
for strict feedback systems.
Automatica, 45(2):532–538, 2009.

[80] Yongping PAN, Yiqi L IU et Haoyong Y U :


Simplified adaptive neural control of strict-feedback nonlinear systems.
Neurocomputing, 159:251–256, 2015.

[81] Huanqing WANG, Bing C HEN et Chong L IN :


Adaptive neural control for strict-feedback stochastic nonlinear systems with
time-delay.
Neurocomputing, 77(1):267–274, 2012.

[82] Min WANG, Bing C HEN, Xiaoping L IU et Peng S HI :


Adaptive fuzzy tracking control for a class of perturbed strict-feedback nonlinear
time-delay systems.
Fuzzy Sets and Systems, 159(8):949–967, 2008.

[83] Huanqing WANG, Peter Xiaoping L IU, Shuai L I et Ding WANG :


Adaptive neural output-feedback control for a class of nonlower triangular nonli-
near systems with unmodeled dynamics.
IEEE transactions on neural networks and learning systems, 29(8):3658–3668,
2017.

146
BIBLIOGRAPHIE

[84] Dan WANG et Jie H UANG :


Adaptive neural network control for a class of uncertain nonlinear systems in
pure-feedback form.
Automatica, 38(8):1365–1372, 2002.

[85] Wang R UI, Yu F U - SHENG et Wang J IA - YIN :


Neural network-based adaptive tracking control for a class of uncertain stochastic
nonlinear pure-feedback systems.
In 2013 25th Chinese Control and Decision Conference (CCDC), pages 495–500.
IEEE, 2013.

[86] Yongming L I, Shaocheng T ONG et Tieshan L I :


Adaptive fuzzy backstepping control design for a class of pure-feedback switched
nonlinear systems.
Nonlinear Analysis : Hybrid Systems, 16:72–80, 2015.

[87] Yang G AO, Shaocheng T ONG et Yongming L I :


Adaptive fuzzy backstepping output feedback control for a class of uncertain
stochastic nonlinear system in pure-feedback form.
Neurocomputing, 122:126–133, 2013.

[88] Shuzhi Sam G E, Chenguang YANG et Tong Heng L EE :


Adaptive predictive control using neural network for a class of pure-feedback
systems in discrete time.
IEEE Transactions on Neural Networks, 19(9):1599–1614, 2008.

[89] Zhenfeng C HEN, Shuzhi Sam G E, Yun Z HANG et Yanan L I :


Adaptive neural control of mimo nonlinear systems with a block-triangular pure-
feedback control structure.
IEEE transactions on neural networks and learning systems, 25(11):2017–2029,
2014.

[90] Tianping Z HANG, Xiaocheng S HI, Qing Z HU et Yuequan YANG :


Adaptive neural tracking control of pure-feedback nonlinear systems with unk-
nown gain signs and unmodeled dynamics.
Neurocomputing, 121:290–297, 2013.

[91] Bong Su K IM et Sung Jin Y OO :

147
BIBLIOGRAPHIE

Adaptive control of nonlinear pure-feedback systems with output constraints :


integral barrier lyapunov functional approach.
International Journal of Control, Automation and Systems, 13(1):249–256, 2015.

[92] CL Philip C HEN, Yan-Jun L IU et Guo-Xing W EN :


Fuzzy neural network-based adaptive control for a class of uncertain nonlinear
stochastic systems.
IEEE Transactions on Cybernetics, 44(5):583–593, 2013.

[93] Cong WANG, David J H ILL, Shuzhi Sam G E et Guanrong C HEN :


An iss-modular approach for adaptive neural control of pure-feedback systems.
Automatica, 42(5):723–731, 2006.

[94] Min WANG, Xiaoping L IU et Peng S HI :


Adaptive neural control of pure-feedback nonlinear time-delay systems via dyna-
mic surface technique.
IEEE Transactions on Systems, Man, and Cybernetics, Part B (Cybernetics), 41(6):
1681–1692, 2011.

[95] Tian-Ping Z HANG et Shuzhi Sam G E :


Adaptive dynamic surface control of nonlinear systems with unknown dead zone
in pure feedback form.
Automatica, 44(7):1895–1903, 2008.

[96] Wenchao M ENG, Qinmin YANG, Sarangapani J AGANNATHAN et Youxian S UN :


Adaptive neural control of high-order uncertain nonaffine systems : A transforma-
tion to affine systems approach.
Automatica, 50(5):1473–1480, 2014.

[97] Xiangwei B U, Daozhi W EI, Xiaoyan W U et Jiaqi H UANG :


Guaranteeing preselected tracking quality for air-breathing hypersonic non-affine
models with an unknown control direction via concise neural control.
Journal of the Franklin Institute, 353(13):3207–3232, 2016.

[98] Shaocheng T ONG et Yongming L I :


Adaptive fuzzy output feedback tracking backstepping control of strict-feedback
nonlinear systems with unknown dead zones.
IEEE Transactions on Fuzzy Systems, 20(1):168–180, 2011.

148
BIBLIOGRAPHIE

[99] Jing Z HOU, Changyun W EN et Guanghong YANG :


Adaptive backstepping stabilization of nonlinear uncertain systems with quantized
input signal.
IEEE Transactions on Automatic Control, 59(2):460–464, 2013.

[100] Qian M A, Guozeng C UI et Ticao J IAO :


Neural-network-based adaptive tracking control for a class of pure-feedback sto-
chastic nonlinear systems with backlash-like hysteresis.
Neurocomputing, 144:501–508, 2014.

[101] Beibei R EN, Shuzhi Sam G E, Chun-Yi S U et Tong Heng L EE :


Adaptive neural control for a class of uncertain nonlinear systems in pure-feedback
form with hysteresis input.
IEEE Transactions on Systems, Man, and Cybernetics, Part B (Cybernetics), 39(2):
431–443, 2008.

[102] Yong-Feng G AO, Xi-Ming S UN, Changyun W EN et Wei WANG :


Observer-based adaptive nn control for a class of uncertain nonlinear systems with
nonsymmetric input saturation.
IEEE transactions on neural networks and learning systems, 28(7):1520–1530,
2016.

[103] Tieshan L I, Ronghui L I et Junfang L I :


Decentralized adaptive neural control of nonlinear interconnected large-scale
systems with unknown time delays and input saturation.
Neurocomputing, 74(14-15):2277–2283, 2011.

[104] Huanqing WANG, Bing C HEN, Xiaoping L IU, Kefu L IU et Chong L IN :


Adaptive neural tracking control for stochastic nonlinear strict-feedback systems
with unknown input saturation.
Information Sciences, 269:300–315, 2014.

[105] Yongming L I, Shaocheng T ONG et Tieshan L I :


Direct adaptive fuzzy backstepping control of uncertain nonlinear systems in the
presence of input saturation.
Neural Computing and Applications, 23(5):1207–1216, 2013.

[106] Yan-Jun L IU et Shaocheng T ONG :


Adaptive fuzzy control for a class of unknown nonlinear dynamical systems.

149
BIBLIOGRAPHIE

Fuzzy Sets and Systems, 263:49–70, 2015.

[107] Yongming L I, Shaocheng T ONG et Tieshan L I :


Adaptive fuzzy output-feedback control for output constrained nonlinear systems
in the presence of input saturation.
Fuzzy Sets and Systems, 248:138–155, 2014.

[108] Wenhui L IU, Junwei L U, Zhengqiang Z HANG et Shengyuan X U :


Observer-based neural control for mimo pure-feedback non-linear systems with
input saturation and disturbances.
IET Control Theory & Applications, 10(17):2314–2324, 2016.

[109] Wenjie S I, Xunde D ONG et Feifei YANG :


Adaptive neural control for stochastic pure-feedback non-linear time-delay systems
with output constraint and asymmetric input saturation.
IET Control Theory & Applications, 11(14):2288–2298, 2017.

[110] Huanqing WANG, Bing C HEN, Xiaoping L IU, Kefu L IU et Chong L IN :


Robust adaptive fuzzy tracking control for pure-feedback stochastic nonlinear
systems with input constraints.
IEEE Transactions on Cybernetics, 43(6):2093–2104, 2013.

[111] Wenchao M ENG, Qinmin YANG, Jennie S I et Youxian S UN :


Adaptive neural control of a class of output-constrained nonaffine systems.
IEEE transactions on cybernetics, 46(1):85–95, 2015.

[112] Longsheng C HEN et Qi WANG :


Adaptive dynamic surface control for unknown pure feedback non-affine systems
with multiple constraints.
Nonlinear dynamics, 90(2):1191–1207, 2017.

[113] Tian-Ping Z HANG, Qing Z HU et Yue-Quan YANG :


Adaptive neural control of non-affine pure-feedback non-linear systems with input
nonlinearity and perturbed uncertainties.
International Journal of Systems Science, 43(4):691–706, 2012.

[114] Wenchao M ENG, Qinmin YANG, You Y ING, Yong S UN, Zaiyue YANG et Youxian
S UN :

150
BIBLIOGRAPHIE

Adaptive power capture control of variable-speed wind energy conversion systems


with guaranteed transient and steady-state performance.
IEEE Transactions on Energy Conversion, 28(3):716–725, 2013.

[115] Yuanye X IA, Khaled H A HMED et Barry W W ILLIAMS :


Wind turbine power coefficient analysis of a new maximum power point tracking
technique.
IEEE transactions on industrial electronics, 60(3):1122–1132, 2012.

[116] Yaote C HANG :


Block backstepping control of mimo systems.
IEEE Transactions on Automatic Control, 56(5):1191–1197, 2011.

[117] Nassira Z ERARI, Mohamed C HEMACHEMA et Najib E SSOUNBOULI :


Adaptive neural network control for a class of mimo non-affine uncertain systems
with input dead-zone nonlinearity and external disturbance.
2019.

[118] Dao-Xiang G AO, Zeng-Qi S UN et Jin-Hao L IU :


Dynamic inversion control for a class of pure-feedback systems.
Asian Journal of Control, 14(2):605–611, 2012.

[119] Shaocheng T ONG, Yinyin X U et Yongming L I :


Adaptive fuzzy decentralised control for stochastic nonlinear large-scale systems
in pure-feedback form.
International Journal of Systems Science, 46(8):1510–1524, 2015.

[120] Yiyong G OU, Hongbo L I, Xinmin D ONG et Zongcheng L IU :


Constrained adaptive neural network control of an mimo aeroelastic system with
input nonlinearities.
Chinese Journal of Aeronautics, 30(2):796–806, 2017.

[121] Sergio G ALEANI, Sophie T ARBOURIECH, Matthew T URNER et Luca Z ACCARIAN :


A tutorial on modern anti-windup design.
European Journal of Control, 15(3-4):418–440, 2009.

[122] Mou C HEN, Yanlong Z HOU et William W G UO :


Robust tracking control for uncertain mimo nonlinear systems with input satura-
tion using rwnndo.
Neurocomputing, 144:436–447, 2014.

151
BIBLIOGRAPHIE

[123] Zerari N ASSIRA, Chemachema M OHAMED et Najib E SSOUNBOULI :


Adaptive neural control design of mimo nonaffine nonlinear systems with input
saturation.
In International Conference on Electrical Engineering and Control Applications,
pages 155–167. Springer, 2017.

[124] Tie-Shan L I, Shao-Cheng T ONG et Gang F ENG :


A novel robust adaptive-fuzzy-tracking control for a class of nonlinearmulti-
input/multi-output systems.
IEEE Transactions on Fuzzy Systems, 18(1):150–160, 2009.

[125] Shao-Cheng T ONG, Yong-Ming L I, Gang F ENG et Tie-Shan L I :


Observer-based adaptive fuzzy backstepping dynamic surface control for a class of
mimo nonlinear systems.
IEEE Transactions on Systems, Man, and Cybernetics, Part B (Cybernetics), 41(4):
1124–1135, 2011.

[126] Zhaoxu Y U et Hongbin D U :


Adaptive neural control for a class of uncertain stochastic nonlinear systems with
dead-zone.
Journal of Systems Engineering and Electronics, 22(3):500–506, 2011.

[127] Jing N A, Xuemei R EN, Cong S HANG et Yu G UO :


Adaptive neural network predictive control for nonlinear pure feedback systems
with input delay.
Journal of Process Control, 22(1):194–206, 2012.

[128] Hasan A Y OUSEF, Mohamed H AMDY et Muhammad S HAFIQ :


Adaptive fuzzy-based tracking control for a class of strict-feedback siso nonlinear
time-delay systems without backstepping.
International Journal of Uncertainty, Fuzziness and Knowledge-Based Systems,
20(03):339–353, 2012.

[129] Bin X U et Zhongke S HI :


Universal kriging control of hypersonic aircraft model using predictor model
without back-stepping.
IET Control Theory & Applications, 7(4):573–583, 2013.

[130] Yan-Jun L IU, Shao-Cheng T ONG et Tie-Shan L I :

152
BIBLIOGRAPHIE

Observer-based adaptive fuzzy tracking control for a class of uncertain nonlinear


mimo systems.
Fuzzy Sets and Systems, 164(1):25–44, 2011.

[131] Tong L I, Youmin Z HANG et Brandon W G ORDON :


Passive and active nonlinear fault-tolerant control of a quadrotor unmanned aerial
vehicle based on the sliding mode control technique.
Proceedings of the Institution of Mechanical Engineers, Part I : Journal of Systems
and Control Engineering, 227(1):12–23, 2013.

[132] YM Z HANG, Abbas C HAMSEDDINE, Camille Alain R ABBATH, Brandon W G ORDON,


C-Y S U, Subhash R AKHEJA, Cameron F ULFORD, Jacob A PKARIAN et Pierre
G OSSELIN :
Development of advanced fdd and ftc techniques with application to an unmanned
quadrotor helicopter testbed.
Journal of the Franklin Institute, 350(9):2396–2422, 2013.

[133] Abdelhamid B OUNEMEUR, Mohamed C HEMACHEMA et Najib E SSOUNBOULI :


Indirect adaptive fuzzy fault-tolerant tracking control for mimo nonlinear systems
with actuator and sensor failures.
ISA transactions, 79:45–61, 2018.

[134] Tarek M ADANI et Abdelaziz B ENALLEGUE :


Backstepping sliding mode control applied to a miniature quadrotor flying robot.
In IECON 2006-32nd Annual Conference on IEEE Industrial Electronics, pages
700–705. IEEE, 2006.

[135] Zongyu Z UO :
Adaptive trajectory tracking control design with command filtered compensation
for a quadrotor.
Journal of Vibration and Control, 19(1):94–108, 2013.

153
BIBLIOGRAPHIE

155

Vous aimerez peut-être aussi