0% ont trouvé ce document utile (0 vote)
283 vues67 pages

Commande Robuste

Transféré par

Reynaldo LOERA
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
283 vues67 pages

Commande Robuste

Transféré par

Reynaldo LOERA
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

See discussions, stats, and author profiles for this publication at: [Link]

net/publication/261251644

Commande Robuste, notes de cours

Book · April 2014

CITATION READS

1 3,728

1 author:

Edouard Laroche
University of Strasbourg
108 PUBLICATIONS   918 CITATIONS   

SEE PROFILE

Some of the authors of this publication are also working on these related projects:

PhD subject available : Control of nonlinear systems with algebraic constraints - application to cable robots taking into account the deformations of the cables View
project

Modelling, Identification and Control of Cable-Driven Parallel Robots View project

All content following this page was uploaded by Edouard Laroche on 21 August 2019.

The user has requested enhancement of the downloaded file.


Commande Robuste

Université de Strasbourg

Télécom – Physique – Strasbourg


3A - Option ISAV

Master IRIV - Option Automatique Robotique

Edouard Laroche
laroche@[Link]
[Link]
[Link]

2017–2018
Table des matières

1 Introduction 5

2 Notions mathématiques 7
2.1 Convexité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.1.1 Fonctions convexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.1.2 Ensembles convexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.2 Valeurs propres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.3 Positivité d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.4 Inégalité matricielle affine ou linéaire . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.4.1 Présentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.4.2 Exemple de LMI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.4.3 Résolution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.5 Valeurs singulières . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.6 Norme sur les signaux et les systèmes LTI . . . . . . . . . . . . . . . . . . . . . . 14
2.6.1 Norme H∞ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.6.2 Norme H2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.7 Lemmes de simplification . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.7.1 Complément de Schur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.7.2 Lemme de projection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.7.3 Lemme de Finsler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.7.4 S-procedure . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

3 Modélisation des systèmes 19


3.1 Les différentes représentations d’état . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.1.1 Système linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.1.2 Système linéaire à paramètres variants (LPV) . . . . . . . . . . . . . . . . 19
3.1.3 Système non-linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.2 Opérations sur les systèmes LTI . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.2.1 Opérations élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.2.2 Transformation linéaire fractionnaire . . . . . . . . . . . . . . . . . . . . . 21
3.3 Représentation linéaire fractionaire . . . . . . . . . . . . . . . . . . . . . . . . . . 23

4 Analyse des systèmes 29


4.1 Stabilité au sens de Lyapunov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
4.1.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
4.1.2 Système linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
4.1.3 Cas des systèmes à temps-discret . . . . . . . . . . . . . . . . . . . . . . . 30
4.1.4 Commandes Matlab . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
4.2 Dissipativité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
4.2.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
4.2.2 Caractérisation LMI de la norme H∞ . . . . . . . . . . . . . . . . . . . . . 32
4.2.3 Passivité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
4.3 Performances d’un système asservi . . . . . . . . . . . . . . . . . . . . . . . . . . 33

3
4 TABLE DES MATIÈRES

4.3.1 Schéma de commande . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33


4.3.2 Les critères . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
4.3.3 Schémas d’analyse et de synthèse H∞ . . . . . . . . . . . . . . . . . . . . 35
4.4 Lieu des pôles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.4.1 Régions LMI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.4.2 Condition LMI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

5 Synthèse pour les systèmes LTI 43


5.1 Retour d’état stabilisant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
5.2 Commande H∞ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
5.2.1 Problème et solutions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
5.2.2 Méthodologies de synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . 46

6 Analyse des systèmes LPV incertains 49


6.1 Stabilité au sens de Lyapunov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
6.1.1 Système non-linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
6.1.2 Système linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
6.1.3 Système LPV . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
6.1.4 Maximisation du taux de décroissance . . . . . . . . . . . . . . . . . . . . 50
6.1.5 Matrice de Lyapunov dépendant des paramètres . . . . . . . . . . . . . . 50
6.2 Dissipativité, norme H∞ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
6.2.1 Système LPV . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
6.2.2 Dissipativité avec matrice de Lyapunov dépendant des paramètres . . . . 52
6.3 Application à un système mécanique . . . . . . . . . . . . . . . . . . . . . . . . . 53
6.3.1 Présentation du système . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
6.3.2 Analyse à partir du modèle LPV . . . . . . . . . . . . . . . . . . . . . . . 54
6.3.3 µ-analyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
6.3.4 Lieu des pôles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61

Bibliography 63
Chapitre 1

Introduction

En Automatique, la synthèse d’une loi de commande se fait généralement sur un modèle


nominal simplifié qui ne prend pas en compte toute la complexité du système. Des dynamiques
sont négligées, comme celles qui se trouvent en dehors de la bande passante du système asservi ;
les valeurs des paramètres du modèle sont considérés égales à leurs valeurs nominales.

Du fait de ces approximations, il est généralement nécessaire de recourir à une étape de vali-
dation a posteriori de la loi de commande. On parle d’analyse de la robustesse ; il s’agit en effet
d’analyser la robustesse du comportement du système asservi face aux perturbations externes
(variation des conditions de fonctionnement, comme la température) ou internes (variation des
paramètres) du système.

L’analyse de la robustesse s’appuie généralement sur la formulation d’un modèle variant dans
le temps, variation qui peut s’exprimer en fonction d’un certain nombre de paramètres incer-
tains. La première question concerne la stabilité. L’analyse de la robustesse en stabilité consiste
à établir si le système demeure stable malgré les variations attendues des paramètres. On peut
aussi souhaiter que le système maintienne certaines performances (comme la bande passante).
L’analyse de la robustesse en performance cherche à établir si le système maintient les perfor-
mances prévues pour les variations attendues des paramètres.

On peut distinguer deux principales sources de perturbation susceptibles de déstabiliser un


système asservi ou de diminuer ses performances : les variations de ses paramètres et les dyna-
miques négligées. Pour traiter le second cas, celui des dynamiques qui ont été négligées lors de
la synthèse, il suffit simplement de les inclure dans le modèle d’analyse. On se retrouve donc
finalement à analyser la robustesse à partir d’un modèle qui peut être plus sophistiqué que le
modèle de synthèse et dont les paramètres sont incertains dans certains intervalles et peuvent,
selon les cas, varier au cours du temps avec des dynamiques éventuellement bornées.

Avant de se lancer dans l’analyse de la robustesse, c’est-à-dire dans l’étude des modification
du comportement du système en fonction des paramètres, il convient de connaı̂tre son fonc-
tionnement nominal. La première question est celle de la stabilité nominale, la seconde est celle
des performances nominales. Une étude de robustesse en stabilité n’a de sens que si la stabilité
nominale est assurée. De même pour les performances.

La question de la robustesse peut-être abordée de deux manières, pour la stabilité comme


pour les performances :
— étant donné les intervalles de variation des paramètres, le système est-il robuste ? A cette
question, on répond par oui ou non ;
— quel taux de dilatation faut-il appliquer aux intervalles des paramètres pour amener le
système en limite de stabilité ou de performance ? Le taux de dilatation est aussi appelé
marge de robustesse. La robustesse est assurée si la marge de robustesse est supérieure

5
6 CHAPITRE 1. INTRODUCTION

à 1. Puisque la stabilité est une condition suffisante pour les performances, la marge de
robustesse en performance est nécessairement plus faible que la marge de robustesse en
stabilité.

Les méthodes d’analyse diffèrent en fonction du modèle choisi. Les modèles linéaires dépendant
des paramètres (LPV), modèles pour lesquels des méthodes efficaces et désormais bien connues,
sont disponibles sous deux formes :
— les modèle LPV avec une dépendance affine des matrices d’état en fonction des pa-
ramètres ;
— les représentations linéaires fractionnaire (LFR) formés d’un bouclage entre un système
linaire à temps invariant (LTI) et une matrice de gains fonction des paramètres. Ce second
type correspond aux systèmes linéaires dont les matrices d’état dépendent rationnelle-
ment des paramètres ; il s’agit donc d’une généralisation du premier type.

Pour les systèmes LPV affines, des formulation LMI sont disponibles pour l’analyse en sta-
bilité et en performance dans le cas de paramètres constants ou variants. Ces méthodes, dis-
ponibles dans les boites à outils 1 de Matlab, sont présentées dans ce fascicule. La méthode la
plus classique destinée aux modèles LFR est la µ-analyse 2 . Cette méthode fait également parti
du contenu du cours. D’autres boites à outils sont également disponibles. Citons par exemple
Romuloc, développée par D. Peaucelle qui permet de traiter à la fois les modèles LPV affines et
les LFR [10].

1. Les méthodes d’analyse des systèmes LPV affines ont été proposées dans la LMI Control Toolbox [7]. Ces
fonctions sont désormais disponibles dans les version récentes de la Robust Control Toolbox[8]
2. Ces méthodes sont disponibles dans la µ-Analysis and Synthesis Toolbox [9] ou dans les versions récentes
de la Robust Control Toolbox [8].
Chapitre 2

Notions mathématiques

La maı̂trise d’un certain nombre de concepts mathématiques sont nécessaires en commande


robuste. Citons notamment les Inégalités Matricielles Affines ou LMI qui prennent une place de
plus importante dans les méthodes modernes de l’automatique. De nombreux résultats antérieurs
trouvent une formulation LMI et ce formaliste permet aussi de résoudre de nouveaux problèmes
qui n’avaient pas trouvé jusqu’alors de solution.

2.1 Convexité
2.1.1 Fonctions convexes
Définition 1 (Fonction convexe)
On dit d’une fonction f de Rn and R qu’elle est convexe si, pour tout (x, y) dans Rn , on a
f (λx + (1 − λ)y) ≤ λf (x) + (1 − λ)f (y) pour λ ∈ [0; 1]. Autrement dit, la fonction passe en
dessous du segment.

Une forme quadratique f (x) = xT Ax où A = AT ∈ Rn×n est convexe si et seulement si les
valeurs propres de A sont positives.

Définition 2 (Fonction multi-convexe)


On dit d’une fonction f de Rn and R qu’elle est multiconvexe si, pour tout k = 1...n, sa restric-
∂2f
tion fx (xk ) dans la k ème dimension de Rn , est convexe. Cela est équivalent à avoir ∂x2 (x) ≥ 0
k
∀k.

Propriété 1 (Fonctions convexes et multiconvexes)


Une fonction convexe est nécessairement multiconvexe (la convexité est une propriété plus forte
que la multiconvexité).

2.1.2 Ensembles convexes


Définition 3 (Ensemble convexe)
On dit d’une ensemble E qu’il est convexe si, pour tout (x, y) dans E, le points λx + (1 − λ)y)
sont dans E pour tout λ ∈ [0; 1]. Autrement dit, le segment est dans l’ensemble.

Définition 4 (Ensemble multiconvexe)


On dit d’une ensemble E qu’il est multiconvexe si la propriété de convexité est valable pour toute
les réductions à une dimension de E selon les directions canoniques.

Propriété 2 (Ensembles convexes et multiconvexes)


Un ensemble convexe est nécessairement multiconvexe.

7
8 CHAPITRE 2. NOTIONS MATHÉMATIQUES

3
2.5 2.5

2
2
1.5

x T Ax
1.5 1
x T Ax

0.5
1 0

1 −0.5
0.5
−1 1
0
0
−1.5
0
−1 1 0.5 0 −1
1 0.5 0
x1 −0.5 −1 x1
−0.5 −1
x2 x2
   
2 1 1 2
a. Fonction convexe (A = ) b. Fonction multiconvexe (A = )
1 1 2 0.5

Figure 2.1 – Exemples de fonctions convexe et multiconvexe f (x) = 12 xT Ax, x ∈ R2

1 1

0.8 0.8

0.6 0.6

0.4 0.4

0.2 0.2
x2
x2

0 0

−0.2 −0.2

−0.4 −0.4

−0.6 −0.6

−0.8 −0.8

−1 −1
−2 −1 0 1 2 −2 −1 0 1 2
x1 x1

a. Ensemble convexe (p = 1, 5)
b. Ensemble multiconvexe (p = 0, 7)
p p
Figure 2.2 – Exemples d’ensembles convexe et multiconvexe (définis par xa1 + xa2 f (x) ≤ 1
avec a = 2 et b = 1

2.2 Valeurs propres


Définition 5 (Valeur propre)
Soit A une matrice carrée de réels ou de complexes. On appelle valeur propre la grandeur λ telle
qu’il existe un vecteur propre x vérifiant Ax = λx.

>> eig([1 2; 3 4])


ans =
-0.3723
5.3723

La matrice A de dimension n × n représente une application linéaire de Rn dans Rn . Les


directions propres, c’est-à-dire les directions des vecteurs propres, sont les directions de Rn inva-
riantes par A. Les valeurs propres sont les gains d’amplifications dans ces directions. Le nombre
de valeurs propres distinctes est au plus n. La dimension du sous-espace propre correspondant
à une valeur propre donnée est variable. Une base de vecteurs propres peut être obtenue.
2.3. POSITIVITÉ D’UNE MATRICE 9

En utilisant la relation Axi = λi xi où λi est la ième valeur propre et xi un vecteur propre
qui lui est associé, on peut concaténer les n relations obtenues pour i = 1 . . . n en AX = XD
où X = [x1 . . . xn ] est la matrices des vecteurs propres formant une base et D = diag{λ1 , . . . λn }
est la matrice des valeurs propres où chaque valeur propre est répétée autant de fois que la
dimension de son sous-espace propre.

Propriété 3 (Matrice symétrique ou hermitienne)


Les valeurs propres des matrices réelles symétriques (AT = A) et complexes hermitiennes (AH =
(A∗ )T ) sont toutes réelles.

2.3 Positivité d’une matrice


Définition 6 (Matrice positive)
Une matrice A ∈ Rn est dite positive et on note A ≥ 0 si la forme quadratique xT Ax est positive
pour tout vecteur x.

Cette définition se transpose évidemment au cas négatif. On peut toujours écrire une forme
quadratique à partir d’une matrice symétrique. Ainsi, xT Ax = 21 xT (AT + A)x. On ne contentera
donc de considérer le cas des matrices symétriques. Ces matrices ont la particularité d’avoir
toutes leurs valeurs propres réelles, ce qui permet de les ordonner.

Propriété 4 (Matrice positive et valeur propres)


Une matrice A symétrique est positive si et seulement si toutes ses valeurs propres sont positives
et on note A ≥ 0.

On définit aussi la positivité stricte et on dit qu’une matrice est définie positive si toutes
ses valeurs propres sont strictement positives. C’est équivalent à dire que la forme quadratique
correspondante xT Ax est strictement positive pour tout x non nul.

Propriété 5 (Condition suffisante de positivité)


Une matrice (strictement) positive a nécessairement tous des terme diagonaux (strictement)
positifs.

Propriété 6 (Propriété générales sur la positivité)


— Soit λ un scalaire, A − λI > 0 si et seulement si les valeurs propres de A sont strictement
supérieures à λ.
— P > 0 ⇔ −P < 0 ; on peut donc toujours se ramener à un problème de positivité (ou de
négativité).

Propriété 7 (Positivité et somme de matrices)


— A > 0, B > 0 ⇒ A + B > 0

Cette propriété se démontre facilement à partir de la définition A > 0 ⇐⇒ xT Ax > 0 ∀x 6= 0.

Propriété 8 (Positivité et produit de matrices)


— A > 0, B > 0 ⇒ AB > 0
— A > 0, B < 0 ⇒ AB < 0

Démonstration 1 (Explication) Ces propriétés se comprennent facilement en considérant


qu’une matrice positive est une application qui, à un vecteur de composantes positives, associe un
vecteur de composantes toutes positives ; une matrice négative, au contraire, est une application
qui, à un vecteur de composantes positives, associe un vecteur dont les composantes sont toutes
négatives.
10 CHAPITRE 2. NOTIONS MATHÉMATIQUES

Démonstration 2 (Démonstration plus complète)


Pour une démonstration plus complète, on peut considérer une valeur propre λAB de AB associée
au vecteur propre V AB , vérifiant donc

λAB V AB = ABV AB , (2.1)

et chercher à montrer qu’elle est positive. L’idée des calculs ci-dessous consiste à calculer les
coordonnées du vecteur propre d’abord dans la base des vecteurs propres de B notés VkB puis
dans ceux de A notés VlA . Ainsi, on peut écrire
X
V AB = βk VkB (2.2)
k

où les βk sont les coordonnées de V AB dans la base des vecteurs propres de B et
X
VkB = αkl VlA (2.3)
l

où les αkl sont les coordonnées de VkB dans la base des vecteurs propres de A. En remplaçant
dans (2.1) et en utilisant le fait que AVlA = λA A B B B A B
l Vl et BVk = λk Vk où λl et λk sont les
valeurs propres respectivement de A et B, on obtient :
! !
X X X X
λA
l λB
k βk αkl VlA =λ AB
βk αkl VlA (2.4)
l k l k

Il s’agit d’une égalité entre deux vecteurs. Leurs coordonnées dans la base VlA sont donc iden-
tiques et
X X
λA
l λBk βk αkl = λ
AB
βk αkl ∀l (2.5)
k k

Dans l’hypothèse où A et B sont toutes deux positives, les quantités λA


P B P
l k λk βk αkl et k βk αkl
sont nécessairement de même signe et λ AB est donc positif (AB positive). Si A et B sont de
signe contraire, ces deux quantités seront de signe contraire et AB est alors négative.

2.4 Inégalité matricielle affine ou linéaire


2.4.1 Présentation
Définition 7 (Inégalité matricielle affine)
On appelle inégalité matricielle affine (ou inégalité matricielle linéaire et en anglais linear ma-
trix inequality, noté LMI) le problème suivant : étant données les matrices réelles, carrées et
symétriques Mk , k = 1..n, trouver les réels xk , k = 1...n tels que M0 + x1 M1 + ... + xn Mn > 0.

Le succès des LMI vient du développement des méthodes dites du point intérieur (interior
point methods) qui permettent de résoudre de manière efficace ces problèmes [11]. Il est également
lié au fait que de nombreux problèmes, notamment de l’automatique, peuvent être formulé sous
forme de LMI.

Remarque 1 (Un système de plusieurs LMI est une LMI)


  
P (x) > 0 P (x) 0
⇔ >0 (2.6)
Q(x) > 0 0 Q(x)
2.5. VALEURS SINGULIÈRES 11

2.4.2 Exemple de LMI


Les LMI ne se présentent pas directement sous la forme de l’inégalité présentée ci-dessus.
Prenons un exemple classique de l’automatique : la stabilité de Lyapunov 1 pour un système
linéaire ẋ = Ax. Il s’agit de trouver une matrice réelle P = P T > 0 de même dimensions que A
telle que AT P + P A < 0. Considérons à titre d’exemple, le cas où A est une matrice 2 × 2.
 
a1 a2
A= (2.7)
a3 a4

La matrice P dépend alors de 3 paramètres xi , k = 1..3 et peut s’écrire


 
x1 x2
P = (2.8)
x2 x3

La condition de positivité de P s’écrit


     
1 0 0 1 0 0
x1 + x2 + x3 >0 (2.9)
0 0 1 0 0 1

L’inégalité de Lyapunov, elle se réécrit :


     
2a1 a2 2a2 a1 + a4 0 a3
x1 + x2 + x3 <0 (2.10)
a2 0 a1 + a4 2a2 a3 2a4

2.4.3 Résolution
Afin de rendre les solvers de LMI facilement utilisables pour les problèmes de l’automatique,
des interfaces ont été développées permettant d’écrire les problème sous des formes matricielles
simples (voir figure 2.3). On peut citer LMI-Tools de El Ghaoui 2 , la LMI Control Toolbox de
MathWorks [7] et l’interface SeDuMi développé au LAAS par Peaucelle et alli [12]. Notons aussi
l’outil YALMIP 3 qui permet de définir un problème LMI et de le résoudre avec n’importe quel
solveur installé sur votre machine.
Les trois problèmes classiques que ces outils résolvent sont
— la fesabilité (ou existence) : trouver x solution de A(x) < 0,
— la minimisation d’une fonction linéaire : trouver x minimisant cT x sous la contrainte
A(x) < 0,
— le problème de valeur propre généralisée : minimiser λ sous les contraintes A(x) < λB(x),
B(x) > 0 et C(x) < 0.

2.5 Valeurs singulières


Définition 8 (Valeur singulière)
Les valeurs singulières d’une matrice complexe M sont les racines carrées des valeurs propres
de M H M où M H est le hermitien (transposé conjugué) de M . On les note σi (M ).

Propriété 9 (Propriétés générales)


— Les valeurs singulières sont des nombres réels positifs.
— Les valeurs singulières non nulles de M sont identiques à celles de M H (invariance par
l’opération transposé/conjugué)
— Les valeurs singulières non nulles sont au plus au nombre de min(nu , ny ), la plus petite
dimension de M .
1. Mathématicien russe né en 1857 et mort en 1918, Lyapunov est le père d’une théorie qui porte son nom et
qui est à la base de nombreux développements récents de l’automatique(voir [Link]
Aleksandr_Lyapunov).
2. http ://[Link]/˜elghaoui/
3. http ://[Link]/˜joloef/[Link]
12 CHAPITRE 2. NOTIONS MATHÉMATIQUES

Figure 2.3 – Fenêtre de l’éditeur graphique de LMI de Matlab

Exemple 1 (Valeurs singulières de matrices simples)


— Les n valeurs singulière de λIn , où λ ∈ R sont toutes égales à λ.
— Les valeurs singulières d’une matrice diagonale réelle sont égales aux valeurs absolues des
éléments diagonaux ; pour une matrice de complexes, les valeurs singulières sont égales
aux modules des éléments de la diagonale.

svd([2,0;0,-3j]);
ans =
3.0000
2.0000

Propriété 10 (Norme matricielle)


La valeur singulière maximale σ(M ) est une norme matricielle. Les propriétés générales des
normes s’appliquent donc.
— σ(λM ) = |λ|σ(M )
— σ(M + N ) ≤ σ(M ) + σ(N )
— σ(M N ) ≤ σ(M )σ(N )

Propriété 11 (Inversion de matrice)


M est inversible si et seulement si sa plus petite valeur singulière est non nulle (σ(M ) > 0).
Alors, σ(M ) = σ(M1−1 ) et σ(M ) = σ(M1−1 ) .

On en déduit les propriétés suivantes :

Propriété 12 (Autres propriétés)


— σ(λM ) = |λ|σ(M )
— σ(M + N ) ≥ σ(M ) + σ(N )
— σ(M )σ(N ) ≤ σ(M N )
2.5. VALEURS SINGULIÈRES 13

Figure 2.4 – Tracé des valeurs singulières d’un système LTI multivariable

Propriété 13 (Interprétation)
La norme σ est la norme induite sur les matrices par la norme euclidienne des vecteurs :

||M z||2
σ(M ) = max
z6=0 ||z||2

zH M H M z
σ 2 (M ) = max (2.11)
z6=0 zH z

Ainsi, la norme σ est l’amplification maximale du système de transfert M .

Exemple 2 (Valeurs singulières d’un système multivariable)


Le programme suivant sous Matlab définit un systèmes LTI à deux états, deux entrées et deux
sorties puis trace les valeurs singulières de sa matrice de transfert en fonction de sa pulsation
(voir figure 2.4). A la place de la fonction ltiview, on peut utiliser la fonction sigma.

A = [-1 0; 1 -2];
B = eye(2);
C = [1 1; 0 1];
D = 0.1*ones(2,2);
Sys = ss(A,B,C,D)
ltiview(’sigma’,Sys,{1e-1,1e2});
G1 = C*inv(j*1*eye(2)-A)*B+D; % matrice de transfert à 1 rad/s
SV = svd(G1)
u = randn(2,1)
Ampli = norm(G1*u)/norm(u)

La partie finale du script permet de calculer l’amplification d’une entrée u à la pulsation 1 rad/s.
A partir des résultats ci-dessous, on vérifie que cette amplification est bien toujours comprise
entre la valeur singulière max et la valeur singulière min de G(j 1).

SV =
1.3257
0.2872
u =
1.1892
-0.0376
Ampli =
1.1032
14 CHAPITRE 2. NOTIONS MATHÉMATIQUES

2.6 Norme sur les signaux et les systèmes LTI


2.6.1 Norme H∞
Définition 9 (Norme L2 sur les signaux)
Pour un signal x(t) à valeur dans Rn , la norme L2 est définie par :
sZ

||x(t)| |L2 = xT (t) x(t) dt (2.12)
0

Définition 10 (Norme H∞ sur les systèmes)


Pour un système de fonction de transfert G(s), la norme H∞ est définie comme la norme induite
par la norme L2 sur les signaux. C’est-à-dire que si u(t) est appliqué en entrée de G(s) et que
y(t) est relevé en sortie 4 , on a :

||y(t)| |L2
||G(s)| |∞ = max (2.13)
||u(t)| |L2

Ainsi, la norme H∞ est l’amplification maximale d’un signal par un système. Pour les ma-
trices, nous avions vu que la valeur singulière maximale était l’amplification maximale d’un
vecteur. On peut donc facilement se ramener à l’interprétation suivante.

Propriété 14 (Norme H∞ et valeur singulière)

||G(s)| |∞ = max σ(G(jω)) (2.14)


ω

Exemple 3 (Valeurs singulières maximale)


En faisant le calcul sur l’exemple numérique précédent :

norm(Sys,inf)

On obtient une norme de 1.881, ce qui correspond à 5.49 dB, ce qui est cohérent avec le tracé
de la figure 2.4.

Propriété 15 (Norme H∞ )

— Pour une matrice de transfert sous forme de blocs :


 
G11 (s) G12 (s)
G(s) = (2.15)
G21 (s) G22 (s)

on a :
||G(s)||∞ < γ ⇒ ||Gkl (s)||∞ < γ ∀(k, l) ∈ {1, 2} (2.16)
γ
— ||W (s) G(s)||∞ < γ ⇒ σ(G(jω) < σ(W (jω))

2.6.2 Norme H2
La présentation ci-dessous de la norme H2 est reprise du cours de Supélec de G. Duc [13],
paragraphe 1.2.

4. On considère des conditions initiales nulles.


2.6. NORME SUR LES SIGNAUX ET LES SYSTÈMES LTI 15

Définition
Soit G(s) le système LTI multivariable défini par :
    
ẋ A B x
= (2.17)
z C D v
avec D = O (système strictement propre 5 ). On définit la norme matricielle H2 de ce système
par : s Z
∞ 
1 H
||G||2 = tr [G (jω)G(jω)] dω (2.18)
2π −∞

Propriétés
Soit g la réponse impulsionnelle du système. Dans le cas monovariable, le théorème de Par-
seval donne une forme équivalente 6 :
Z ∞
2
||G||2 = g T (t)g(t)dt. (2.19)
0
Dans le cas monovariable, la norme H2 du système est égale à l’énergie de la réponse impulsion-
nelle.
Supposons maintenant que v soit un bruit blanc gaussien vérifiant
E{v(t)v T (τ )} = Iδ(t − τ ) et calculons la puissance de sortie :
E{z T z} = tr E{zz T }
 
 Z +∞ Z +∞ 
T T
= tr E g(t − τ1 )v(τ1 )v (τ2 )g (t − τ2 )dτ1 dτ2
−∞ −∞
Z +∞ Z +∞ 
T
 T
= tr g(t − τ1 )E v(τ1 )v (τ2 ) g (t − τ2 )dτ1 dτ2
−∞ −∞
Z +∞ 
T
= tr g(t − τ )g (t − τ )dτ
−∞
Z +∞ 
T
= tr g(τ )g (τ )dτ
−∞
Z +∞
tr g T (τ )g(τ ) dτ
 
=
−∞
Z +∞
1
tr GH (jω)G(jω) dτ
 
=
2π −∞
= ||G||2
Ainsi, la norme H2 est la puissance de sortie lorsque le système est alimenté pas un bruit blanc
gaussien unitaire.

Calcul
La norme H2 peut être calculée pour tous les systèmes strictement propres (D = O) et
strictement stables. En effet, elle peut s’écrire ainsi :
Z ∞
2
tr g T (t)g(t) dt
 
||G||2 = (2.20)
0
Z ∞
B T exp(AT t)C T (C exp(At)B) dt

= tr (2.21)
0
 Z ∞ 
T T T
= tr B exp(A t)C C exp(At)dtB (2.22)
0

5. Cette restriction est nécessaire pour que la norme du système soit finie.
6. On rappelle que la fonction de transfert est la transformée de Laplace de la réponse impulsionnelle.
16 CHAPITRE 2. NOTIONS MATHÉMATIQUES

ou encore :
Z ∞
||G||22 tr g(t)g T (t) dt
 
= (2.23)
0
Z ∞
(C exp(At)B) B T exp(AT t)C T dt

= tr (2.24)
0 Z ∞ 
T T T
= tr C exp(At)BB exp(A t)dtC (2.25)
0
soit :
||G||22 = tr B T Wo B = tr CWc C T
   
(2.26)
où Wo et Wc sont les gramiens de commandabilité et d’observabilité :
Z ∞
Wo = exp(At)BB T exp(AT t)dt (2.27)
0
Z ∞
Wc = exp(AT t)C T C exp(At)dt (2.28)
0
Ils peuvent être obtenus comme les solutions des équations de Lyapunov 7 suivantes :
T T
AWc + Wc A + BB = 0 (2.29)
T T
A Wo + Wo A + C C = 0 (2.30)
En effet, partons de :
d 
exp(At)BB T exp(AT t) = A exp(At)BB T exp(AT t) + exp(At)BB T exp(AT t)AT .

(2.31)
dt
En notant que pour un système stable :
lim exp(At) = 0, (2.32)
t→∞
et en intégrant sur [0, ∞], on obtient directement les deux équations de Lyapunov. C’est cette
méthode qui est utilisée dans les Toolboxes de Matlab pour le calcul de la norme H2 [14].

Formulation LMI
Les inégalités matricielles affines (LMI pour inégalités matricielles linéaires) sont devenues
un outil classique de l’automatique. Ils sont à la base de nombreuses méthodes innovantes et les
méthodes classiques ont généralement une formulation LMI. Une introduction sur les LMI est
développée en Annexe B. Voici la formulation LMI de la norme H2 [15].
Soit S0 la solution de l’équation de Lyapunov (2.29), c’est-à-dire vérifiant :
AS0 + S0 AT + BB T = 0, (2.33)
avec S0 = S0T ≤ 0. Alors toute matrice S vérifiant :
AS + SAT + BB T < 0 (2.34)
vérifie aussi S > S0 .
Le système G(s) stable avec D = 0 vérifie ||G||22 < ν si et seulement si il existe une matrice
symétrique positive, :
S > 0, (2.35)
vérifiant (2.34) et :
tr CSC T < ν.
 
(2.36)
L’ensemble des inégalités (2.34-2.36) constitue un système LMI et peut se résoudre avec les
solveurs disponibles [11, 7].
7. D’après la théorie de Lyapunov, l’équation AX + X T A + Q = 0 d’inconnue X, avec Q symétrique définie
positive, a une solution positive si A est Hurwitz (ses pôles sont à partie réelle strictement négative). Alors une
solution symétrique peut être facilement obtenue par la résolution d’un système de n(n + 1) équations linéaires à
autant d’inconnues (les composantes de X), où n est la dimension de A. La résolution de l’équation de Lyapunov
est disponible dans les Toolboxes [14].
2.7. LEMMES DE SIMPLIFICATION 17

2.7 Lemmes de simplification


2.7.1 Complément de Schur
Il s’agit d’un résultat préliminaire qui permettra, dans ce qui suit, de simplifier des expres-
sions matricielles.

Lemme 1 (Complément de Schur)


La LMI :
 
Q S
< 0, (2.37)
ST R

où Q = QT et R = RT est équivalente à :



R < 0
(2.38)
Q − SR−1 S T < 0.

Démonstration 3
La démonstration se fait facilement en multipliant (2.37) à droite par :
 
I 0
(2.39)
−R−1 S T I
et à gauche par la transposée de cette dernière matrice. Ces deux matrices étant définies, on
obtient alors une condition équivalente :
Q − SR−1 S T 0
 
< 0. (2.40)
0 R

2.7.2 Lemme de projection


Théorème 1 (Lemme de projection [16])
Soit une matrice symétrique Ψ ∈ Rm×m et deux matrices P et Q de nombre de colonnes m. Et
considérons le problème consistant à trouver une matrice Θ de dimensions adéquoites telle que :
Ψ + P T ΘT Q + QT ΘP < 0 (2.41)
Notons WP et WQ des matrices dont les colonnes forment une base des noyaux de respectivement
P et Q. Alors, une solution Θ de l’équation (2.41) existe si et seulement si :
WPT Ψ WP < 0

(2.42)
WQT Ψ WQ < 0.

Preuve. Comme les colonnes de WP font partie du noyau de P , on a WP P = 0 et de même,


WQ Q = 0. Ainsi l’implication (2.41) =⇒ (2.42) se montre facilement en multipliant (2.41) à
gauche par P T et à droite par P , puis en procédant de même avec Q. Une démonstration de la
réciproque a été donnée par Gahinet et Apkarian [16].

2.7.3 Lemme de Finsler


Théorème 2 (Lemme de Finsler)
Étant données les matrices A et B ; les conditions suivantes sont équivalentes 8 :
1. xT Ax > 0 pour tout x 6= 0 tel que Bx = 0
2. B̃ T AB̃ > 0 où B B̃ = 0
3. A + λB T B > 0 pour un scalaire λ
4. A + XB + B T X T > 0 pour une matrice X
8. Paul Finsler, mathématicien suisse, est né en 1894 et décédé en 1970. [Link]
Paul_Finsler
18 CHAPITRE 2. NOTIONS MATHÉMATIQUES

2.7.4 S-procedure
Cet outil pratique développé par Yakubovich 9 permet de simplifier certains problèmes de
commande robuste.

Théorème 3 (S-procédure)
Soit les formes quadratiquessuivantes :
 H 
Ai bH
 
x x
qi (x) = i = xH Ai x + 2bH
i x + ci , (2.43)
1 bi ci 1

pour i = 0, 1, ..., p.
Alors, on a q0 (x) ≥ 0 pour tout x tel que qi (x) ≥ 0, i = 1, ..., p s’il existe des scalairsρi ≥ 0
qui satisfont la contrainte LMI suivante :
p
A0 bH Ai bH
  X  
0 − ρi i ≥0 (2.44)
b0 c0 bi ci
i=1

De plus, l’inverse est vrai pour p = 1 en réel et même pour p = 2 en complexe.

9. Vladimir A. Yakubovich est reconnu pour ses contributions à la commande moderne, notamment dans les
années 1960, [Link]
Chapitre 3

Modélisation des systèmes

3.1 Les différentes représentations d’état


Nous nous limitons, dans ce cours, aux systèmes dynamiques continus multivariables (dits
aussi MIMO pour multi input multi output). Le vecteur des entrées est u, celui des sorties y ; le
vecteur d’état est x.

3.1.1 Système linéaire


On parle aussi de système linéaire invariant dans le temps où en anglais de linear time-
invariant system (LTI). Il s’agit notamment du cas où les équations sont linéaires par rapport
aux entrées et aux variables d’état. Le système peut être mis sous la forme :

ẋ = Ax + Bu
(3.1)
y = Cx + Du
Cette représentation ne concerne que les systèmes propres (qui ne contiennent pas d’effet dérivatif
pur) ; pour les systèmes strictement propres, D = 0. On note G(s) la fonction de transfert du
système :
G(s) = C(sIn − A)−1 B + D (3.2)
où n est l’ordre du système. On se permettra de désigner le système par sa fonction de transfert
G(s) même si les calculs sont faits sur la représentation d’état.
La fonction de transfert permet de relier les transformées de Laplace des signaux d’entrée
et de sortie, c’est-à-dire que pour une condition initiale nulle, on peut écrire Y (s) = G(s) U (s),
où U (s) et Y (s) sont respectivement les transformées de Laplace des signaux u(t) et y(t). On se
permet parfois l’abus de notation suivant : y(t) = G(s)u(t) qui signifie que y(t) est la sortie du
système G(s) pour une entrée u(t).
Sous Matlab, on peut définir un système LTI avec les fonctions ss et tf.

3.1.2 Système linéaire à paramètres variants (LPV)


Dans un système LPV, les matrices d’état A, B, C et D dépendent d’un vecteur des pa-
ramètres θ qui peut varier en fonction du temps.

ẋ = A(θ)x + B(θ)u
(3.3)
y = C(θ)x + D(θ)u
A défaut de connaı̂tre à l’avance la trajectoire de θ, on connaı̂t souvent des bornes sur ses
différentes composantes : θk ≤ θk ≤ θk et peut-être aussi sur les vitesses de variation : θ̇k ≤ θ̇k ≤
θ̇k .
Le vecteur des paramètres peut être vu comme une entrée supplémentaire du système qui
ne rentre alors plus dans la classe des systèmes linéaires. Parmi les systèmes LPV, certains
types particuliers sont intéressant à étudier : les systèmes LPV affines, LPV polytopiques et les
représentations linéaires fractionnaires.

19
20 CHAPITRE 3. MODÉLISATION DES SYSTÈMES

Système LPV affine


Dans ce cas, la dépendance des matrices d’état en fonction des paramètres est linéaires.
Notons  
A B
M= . (3.4)
C D
On a alors M (θ) = M0 + θ1 M1 + θ2 M2 ....
Remarquez que le produit où l’interconnexion de deux modèles LPV affines n’est généralement
pas un modèle LPV affine, mais plutôt un modèle LPV avec dépendance quadratique en fonction
des paramètres.

Système LPV polytopique


La matrice M représentant le système est une combinaison barycentrique de plusieurs ma-
trices M1s , M2s ,... : M = α1 M1s + α2 M2s + .... Avec 0 ≤ αk ≤ 1 et Σαk = 1.
Un système LPV affine dont les paramètres varient sur des intervalles connus peut être
considéré comme un système polytopique. Traitons l’exemple d’un système dépendant de deux
paramètres M (θ) = M0 + θ1 M1 + θ2 M2 et notons M1s , M2s , M3s et M4s ses sommets :

M s = M0 + θ 1 M1 + θ 2 M 2

 1s


M 2 = M 0 + θ 1 M1 + θ 2 M 2
(3.5)
M s = M 0 + θ 1 M1 + θ 2 M 2
 3s


M 4 = M 0 + θ 1 M1 + θ 2 M 2

Construisons maintenant le système polytopique M̃ = α1 M1s + α2 M2s + α3 M3s + α4 M4s avec



 α1 = θθ1 −θ 1 θ2 −θ2
1 −θ1 θ2 −θ2


 α2 = θ1 −θ1 θ2 −θ2



θ1 −θ1 θ2 −θ2
(3.6)
1 θ2 −θ2

 α3 = θθ1 −θ−θ θ −θ

 1 1 2 2
 α4 = θ1 −θ1 θ2 −θ2


θ −θ θ −θ
1 1 2 2

En remplaçant dans l’expression de M̃ les Mks et les αk par leurs expressions ci-dessus, vérifie
que l’on retrouve bien M̃ = M . Ce résultat est encore valable pour un nombre de paramètres
plus élevé. On retiendra qu’il y a équivalence entre la représentations affine et la représentation
polytopique.

Éxercice 1 (Équivalence entre polytopique et LPV affine)


Ecrivez M̃ en fonction de θ ; simplifiez et montrez que l’on retrouve M .

3.1.3 Système non-linéaire


La représentation d’état d’un système non-linéaire est donnés sous la forme :

ẋ = f (x, u)
(3.7)
y = g(x, u)
Si les fonctions f et g sont dérivables, (on exclut donc les non-linéarités fortes du type seuil,
bande morte...), on peut linéariser les équations autour d’un point d’équilibre (x0 , u0 ) vérifiant
f (x0 , u0 ) = 0 :
ẋ = f (x0 , u0 ) + ∂f ∂f

∂x (x − x0 ) + ∂u (u − u0 ) (3.8)
∂g ∂g
y = g(x0 , u0 ) + ∂x (x − x0 ) + ∂u (u − u0 )
En notant δx = x − x0 , δu = u − u0 et δy = y − g(x0 , u0 ) on se ramène à un système LPV :

δ̇x = A(θ)δx + B(θ)δu
(3.9)
δy = C(θ)δx + D(θ)δu
3.2. OPÉRATIONS SUR LES SYSTÈMES LTI 21

avec θ = [x0 , u0 ].
L’étude d’un système non-linéaire par l’analyse de son modèle linéarisé, bien que souvent
sans garantie stricte, constitue une voie couramment empruntée en automatique.

3.2 Opérations sur les systèmes LTI


3.2.1 Opérations élémentaires
Éxercice 2 (Opérations sur deux systèmes LTI)
Soit deux systèmes G1 (s) et G2 (s) respectivement définis par leurs représentations d’état :
   
A1 B1 A2 B2
G1 (s) ≡ ; G2 (s) ≡ . (3.10)
C1 D 1 C2 D 2

On note u1 et u2 les entrées respectives de G1 (s) et de G2 (s). On note y1 et y2 leurs sorties


respectives.
1. Déterminez la représentation d’état du système d’entrée u et de sortie y = y1 + y2 .
2. Déterminez la représentation d’état du système d’entrée u = u1 et de sortie y = y2 avec
y1 = u2 .
   
u1 y
3. Déterminez la représentation d’état du système d’entrée u = et de sortie y = 1 .
u2 y2

3.2.2 Transformation linéaire fractionnaire


Soit un système G(s) d’entrée u ∈ RnG et de sortie y ∈ RnG ; soit un système H(s) d’entrée
v ∈ RnH et de sortie z ∈ RnH . On considère la partitions suivantes de G(s) :
    
y1 G11 (s) G12 (s) u1
= (3.11)
y2 G21 (s) G22 (s) u2

avec u1 , y1 ∈ RnG1 , u2 , y2 ∈ RnG2 , nG = nG1 + nG2 .


Dans le cas où nH = nG1 , on définit l’interconnexion lftu (G(s), H(s)) (on parle de upper
LFT) comme le système d’entrée u2 , de sortie y2 et obtenu par l’interconnexion des systèmes
G(s) et H(s) avec v = y1 et u1 = z.
Dans le cas où nH = nG2 , on définit l’interconnexion lftl (G(s), H(s)) (on parle de lower
LFT) comme le système d’entrée u1 , de sortie y1 et obtenu par l’interconnexion des systèmes
G(s) et H(s) avec v = y2 et u2 = z.

H(s) 

u1 = z y1 = v
-
u2 G(s) y2 -
-

Figure 3.1 – Représentation linéaire fractionnaire lftu (G(s), H(s))

Éxercice 3 (Interconnexion pour l’analyse d’un système asservi)


Soit un système G(s) de commande u, de mesure y ∈ Rp . Il est asservi à la référence r par un
correcteur K(s) et la loi de commande u = K(s) e avec e = r − y. On note Hbo (s) = G(s)K(s)
la fonction de transfert en boucle ouverte.
22 CHAPITRE 3. MODÉLISATION DES SYSTÈMES

u1 - y1 -
G(s)
-

u2 = z y2 = v

H(s) 

Figure 3.2 – Représentation linéaire fractionnaire lftl (G(s), H(s))

1. Montrez que le système en boucle fermée S(s) d’entrée r et de sortie e peut se mettre
sous la forme suivante :
S(s) = lftl (M, Hbo (s)) (3.12)
2. Déterminez la matrice M correspondant.
3. Déduisez en le script Matlab permettant de calculer la fonction de sensibilité S(s) à partir
de Hbo (s).

Éxercice 4 (Interconnexion pour la synthèse de correcteur)


Soit un système G(s) de commande u ∈ Rm , de mesure y ∈ Rp . On souhaite l’asservir à un
signal de référence r par un correcteur K(s) et la loi de commande u = K(s) e avec e = r − y.
On souhaite déterminer une technique permettant de calculer facilement les fonction de transfert
en boucle
  fermée. Le système en boucle fermée H(s) a comme entrée v = r et comme sortie
e
z= .
u
1. Montrez que le système en boucle fermée peut se mettre sous la forme suivante :

H(s) = lftl (H1 (s), K(s)) (3.13)

et donnez le schéma-bloc de H1 (s).


2. Montrez que H1 (s) peut se mettre sous la forme :

H1 (s) = lftu (M, G(s)) (3.14)

et déterminez la matrice M correspondante.


3. Déduisez en le script Matlab permettant de calculer le système de synthèse H1 (s) à partir
du système G(s).
4. Donnez la script permettant de cacluler le système en boucle fermée d’entrée H(s) à
partir de G(s) et de K(s).

Éxercice 5 (Représentation LFT d’un système LTI)


Soit un système LTI G(s), d’ordre n et de représentation d’état (3.1).
1. Montrez qu’un système LTI G(s), d’ordre n et de représentation d’état (3.1) peut se
mettre sous la forme d’une LFT suivante :
 
1
G(s) = lf tu M, In (3.15)
s

2. Déterminez la matrice M .
3. Expliquez comment une méthode de synthèse d’un correcteur de type retour de sortie
statique (SOF) permet aussi de réaliser un correcteur de type retour dynamique de sortie
(DOF).
3.3. REPRÉSENTATION LINÉAIRE FRACTIONAIRE 23

3.3 Représentation linéaire fractionaire


Une représentation linéaire fractionnaire (LFR en anglais) est l’interconnexion d’un système
LTI avec une matrice ∆ (un système statique) dépendant des paramètres, comme représenté sur
la figure 3.3. Tout type de système LPV dont les matrices d’état dépendent rationnellement des
paramètres peut être mis sous forme de LFR ; cependant il n’est pas toujours aisé de trouver
une représentation LFR d’ordre minimale, c’est à dire avec une matrice ∆ de taille minimale.
La LFR Toolbox, développée à l’Onéra, permet de créer et de manipuler les LFR [17]. Vous
trouverez des exemples de modélisation LFR d’un système physiques dans [1] 1 pour un système
mécanique élémentaire et dans [18] 2 pour un système électromécanique d’enroulement de bande.
Des travaux sur la machine asynchrone sont également disponibles [19, 20].

∆(θ) 

v z
-
u Q(s) y -
-

Figure 3.3 – Modèle LFR

Notons v et u les entrées provenant respectivement de ∆ et de la commande et z et y les


sorties destinées respectivement à ∆ et à la mesure. Le système Q(s) s’écrivant :

ẋ = Ax + B1 v + B2 u (3.16)
z = C1 x + D11 v + D12 u (3.17)
y = C2 x + D21 v + D22 u (3.18)

En rebouclant avec la matrice ∆(θ), c’est-à-dire en écrivant que

v = ∆(θ) z (3.19)

on peut écrire les équation du système bouclé d’entrée u et de sortie y :

ẋ = Ã(θ)x + B̃(θ)u (3.20)


y = C̃(θ)x + D̃(θ)u (3.21)

avec :

Ã(θ) = A + B1 ∆(θ)(I − D11 ∆(θ))−1 C1 (3.22)


−1
B̃(θ) = B2 + B1 ∆(θ)(I − D11 ∆(θ)) D12 (3.23)
−1
C̃(θ) = C2 + D21 ∆(θ)(I − D11 ∆(θ)) C1 (3.24)
−1
D̃(θ) = D22 + D21 ∆(θ)(I − D11 ∆(θ)) D12 (3.25)

On peut faire différentes remarques sur cette représentation :


1. cette représentation n’existe que si la matrice I − D11 ∆(θ) n’est pas singulière (on parle
de LFR “bien posée” (well-posed en anglais) ;
2. dans le cas général, il s’agit d’un modèle LPV où les matrices d’état dépendent de manière
rationnelle des paramètres ;
1. Ouvrage disponible à la bibliothèque du pôle API de l’ULP.
2. [Link]
24 CHAPITRE 3. MODÉLISATION DES SYSTÈMES

3. dans le cas où D11 est nulle, alors la dépendance des matrices est affine.

Exemple 4 (Modélisation LFR d’un système électrique inductif )


Soit un système électrique composé d’une résistance R en série avec une inductance L. La la
tension u(t) est considérée comme l’entrée ; le courant y(t) est considéré comme la sortie. La
loi de maille donne u(t) = Ry(t) + Lẏ(t). On en déduit l’équation d’état ẋ = L1 (−Rx(t) + u(t))
et l’équation de sortie y = x. On cherche à écrire le système sous la forme d’une LFT entre
un système LTI ne dépendant pas des paramètres et d’une matrice ∆ dépendant des paramètres.
Afin de faire disparaı̂tre le paramètre R dans l’équation dynamique, notons z1 = x et v1 = Rz1 .
L’équation d’état s’écrit :
1
ẋ = (−v1 + u) (3.26)
L
z1 = x (3.27)
y = x (3.28)
1
Notons ensuite z2 = −v1 (t) + u(t) et v2 = L z2 . Le système s’écrit alors :

ẋ = v2 (3.29)
z1 = x (3.30)
z2 = −v1 + u (3.31)
y = x (3.32)

Ainsi, on a G(s) = lftu (H(s), ∆) où les équations d’état de H(s) sont données ci-dessus et où
∆ = diag(R, L1 ). En réalité, il est pratique de s’appuyer sur un schéma-bloc du modèle pour
déterminer le modèle LFR.

Propriété 16 (Interconnexion des LFR)


L’interconnexion de plusieurs LFR est une LFR.

Exemple 5 (Exemple de définition de modèle LFR sous Matlab)


Dans le script ci-dessous, le système H(s) = 1/(Ls + R) est défini comme un système dépendant
des paramètres incertains R et L avant de déterminer la représentation LFR équivalente. On
observe que, selon la méthode suivie, le résultat n’a pas les mêmes dimensions. En effet, dans le
premier cas, le paramètre L est répété deux fois alors que dans le second cas, il est répété une
seule fois. On retiendra que, lors de la modélisation, il est utile de chercher une représentation
LFR minimale.
echo on

% définition des paramètres


R = ureal(’R’,1);
L = ureal(’L’,1);

% définition du système avec tf


H = tf(1,[L R])
USS: 1 State, 1 Output, 1 Input, Continuous System
L: real, nominal = 1, variability = [-1 1], 2 occurrences
R: real, nominal = 1, variability = [-1 1], 1 occurrence
[M,Delta] = lftdata(H)

a =
x1
x1 -1

b =
u1 u2 u3 u4
x1 0.9269 0.7297 -0.7789 1.153
3.3. REPRÉSENTATION LINÉAIRE FRACTIONAIRE 25

c =
x1
y1 0.9494
y2 0.1646
y3 1.284
y4 0.867

d =
u1 u2 u3 u4
y1 -1 2.22e-16 1.214 0
y2 -1.11e-16 -1 -0.4742 0
y3 0 0 0 0
y4 -0.6326 -1.619 0 0

Input groups:
Name Channels
L_NC 1,2
R_NC 3

Output groups:
Name Channels
L_NC 1,2
R_NC 3

Continuous-time model.
UMAT: 3 Rows, 3 Columns
L: real, nominal = 1, variability = [-1 1], 2 occurrences
R: real, nominal = 1, variability = [-1 1], 1 occurrence

% autre méthode
S = tf(1);
H2 = 1/(L*S+R);
[M2,Delta2] = lftdata(H2)

d =
u1 u2 u3
y1 -0.5 -0.5 0.5
y2 -0.5 -0.5 0.5
y3 -0.5 -0.5 0.5

Input groups:
Name Channels
L_NC 1
R_NC 2

Output groups:
Name Channels
L_NC 1
R_NC 2

Static gain.
UMAT: 2 Rows, 2 Columns
L: real, nominal = 1, variability = [-1 1], 1 occurrence
R: real, nominal = 1, variability = [-1 1], 1 occurrence
echo on

% définition des paramètres


R = ureal(’R’,1); % paramètre incertain
L = ureal(’L’,1);
26 CHAPITRE 3. MODÉLISATION DES SYSTÈMES

% définition du système avec tf


H = tf(1,[L R]) % H(s) = 1/(L*s+R)
USS: 1 State, 1 Output, 1 Input, Continuous System
L: real, nominal = 1, variability = [-1 1], 2 occurrences
R: real, nominal = 1, variability = [-1 1], 1 occurrence
[M,Delta] = lftdata(H)

a =
x1
x1 -1

b =
u1 u2 u3 u4
x1 0.9269 0.7297 -0.7789 1.153

c =
x1
y1 0.9494
y2 0.1646
y3 1.284
y4 0.867

d =
u1 u2 u3 u4
y1 -1 2.22e-16 1.214 0
y2 -1.11e-16 -1 -0.4742 0
y3 0 0 0 0
y4 -0.6326 -1.619 0 0

Input groups:
Name Channels
L_NC 1,2
R_NC 3

Output groups:
Name Channels
L_NC 1,2
R_NC 3

Continuous-time model.
UMAT: 3 Rows, 3 Columns
L: real, nominal = 1, variability = [-1 1], 2 occurrences
R: real, nominal = 1, variability = [-1 1], 1 occurrence

% autre méthode
S = tf(1); % variable de Laplace
H2 = 1/(L*S+R)
USS: 0 States, 1 Output, 1 Input, Continuous System
L: real, nominal = 1, variability = [-1 1], 1 occurrence
R: real, nominal = 1, variability = [-1 1], 1 occurrence
[M2,Delta2] = lftdata(H2)

d =
u1 u2 u3
y1 -0.5 -0.5 0.5
y2 -0.5 -0.5 0.5
y3 -0.5 -0.5 0.5

Input groups:
3.3. REPRÉSENTATION LINÉAIRE FRACTIONAIRE 27

Name Channels
L_NC 1
R_NC 2

Output groups:
Name Channels
L_NC 1
R_NC 2

Static gain.
UMAT: 2 Rows, 2 Columns
L: real, nominal = 1, variability = [-1 1], 1 occurrence
R: real, nominal = 1, variability = [-1 1], 1 occurrence

Éxercice 6 (Modélisation LFR d’un système électrique inductif )


Soit H(s) défini par :

ẋ = v2 (3.33)
z1 = x (3.34)
z2 = −v1 + u (3.35)
y = x (3.36)

et ∆ = diag(R, L1 ).
1. Donnez un schéma-bloc du modèle LFR.
2. Déterminez la fonction de transfert du système lftu (H(s), ∆).

Éxercice 7 (Modélisation LFR d’un système masse ressort)


Un système masse-ressort G(s) a comme équation dynamique mÿ(t) + f ẏ(t) + ky(t) = u(t). La
raideur est supposée variable entre kmin et kmax . On note k = k0 + wk δk où k0 = 21 (kmin + kmax )
et wk = 21 (kmax − kmin ). Les autres paramètres sont supposés connus.
1. Montrez que le système peut s’écrire sous la forme G(s) = lftu (H(s), k) où H(s) ne
dépend pas de k. Déterminez H(s).
2. Montrez que k peut se mettre sous la forme k = lftu (Hk , δk ) où Hk ne dépend que de k0
et de wk . Déterminez Hk .
3. Déduisez-en le modèle incertain normalisé G(s) = lftu (H̃(s), δk ) où H̃(s) ne dépend que
de m, f , k0 et wk .
4. On suppose désormais que tous les paramètres sont inconnus. Déterminez le système sous
la forme G(s) = lftu (F (s), ∆) où la matrice ∆ dépend des paramètres m, k et f alors que
F (s) n’en dépend pas. Donnez F (s) et ∆.

Éxercice 8 (Interconnexion de deux LFR)


Soit un système LFR d’entrée u1 et de sortie y1 défini par ∆1 et le système :

ẋ1 = A1 x1 + B11 v1 + B12 u1 (3.37)


z1 = C11 x1 + D111 v1 + D112 u1 (3.38)
y1 = C12 x1 + D121 v1 + D122 u1 (3.39)

et la LFR d’entrée u2 et de sortie y2 définie par ∆2 et le système :

ẋ2 = A2 x2 + B21 v2 + B22 u2 (3.40)


z2 = C21 x2 + D211 v2 + D212 u2 (3.41)
y2 = C22 x2 + D221 v2 + D222 u2 (3.42)
28 CHAPITRE 3. MODÉLISATION DES SYSTÈMES

1. Les systèmes sont connectés en série avec u2 = y1 . Déterminez les 9 matrices d’état
du système d’entrée u1 , de sortie y2 , d’état x = [xT1 ; xT2 ]T et de matrice incertaine
∆ = diag{∆1 , ∆2 }.
2. Les systèmes sont interconnectés en rétroaction avec u1 = u + y2 et u2 = y1 . Déterminez
les 9 matrices d’état du système d’entrée u, de sortie y = y1 , d’état x = [xT1 ; xT2 ]T et de
matrice incertaine ∆ = diag{∆1 , ∆2 }.

Éxercice 9 (Modèle LFR d’un bras manipulateur)


On considère un bras manipulateur plan à 2 DDL dont les positions articulaires sont notées q1
et q2 . Le modèle dynamique s’écrit :

M (q2 ) q̈ + C(q, q̇) q̇ = u (3.43)

où u est le vecteur des couples articulaires. La matrice d’inertie s’écrit :

M (q2 ) = M0 + Mc cos(q2 ) (3.44)

où    
m110 m120 m11c m12c
M0 = ; Mc = . (3.45)
m120 m22 m12c 0
La matrice de Coriolis s’écrit :
−q̇2 − 21 q̇2
 
C(q, q̇) = m11c sin(q2 ) 1 . (3.46)
2 q̇1 0

1. Montrez que l’inverse de la matrice d’inertie peut s’écrire sous la forme M −1 (q2 ) =
lftu (N, θ1 I2 ) où N est une matrice constante et θ1 = cos(q2 ).
2. Mettez la matrice de Coriolis sous une forme affine en fonction des paramètres θ2 =
q˙1 sin(q2 ) et θ3 = q˙2 sin(q2 ). Pourquoi cette écriture n’est elle pas unique ?
3. Déduisez-en un modèle LFR du système en fonction de θ1 , θ2 et θ3 .
4. On considère le domaine de variation |q˙1 | ≤ q̇1 max , |q¨1 | ≤ q̈1 max ; q2 ∈ [0, q2 max ], (π/2 <
q2 max < π) ainsi que |q˙2 | ≤ q̇2 max et |q¨2 | ≤ q̈2 max . Déterminez les intervalles de variation
de θk et de θ̇k pour k = 1, ..., 3.
Chapitre 4

Analyse des systèmes

4.1 Stabilité au sens de Lyapunov


4.1.1 Définition
Soit un système dynamique à temps continu, sans entrée exogène, de vecteur d’état x et
d’équation d’état ẋ = f (x). Soit x0 un point d’équilibre, vérifiant donc la condition d’équilibre
f (x0 ) = 0. Pour que le système soit stable autour de cet équilibre, il faut aussi que ce point
d’équilibre soit attractif, c’est-à-dire que les trajectoires de x convergent vers x0 .

Définition 11 (Fonction d’énergie ou fonction de Lyapunov)


Une fonction de Lyapunov 1 V est une fonction de l’état possédant un minimum global à l’équilibre
x0 :
V (x) > V (x0 ) pour x 6= x0

Définition 12 (Stabilité au sens de Lyapunov)


x0 est un point stable au sens de Lyapunov s’il existe une fonction de Lyapunov V (x) vérifiant
la condition suivante :
d
(V (x)) < 0 pour x 6= x0
dt
A partir d’une condition initiale xi différente de x0 , l’énergie interne du système va décroı̂tre
jusqu’à atteindre son minimum qui correspond à l’unique point x0 ; l’état du système tendra
donc nécessairement vers x0 .
Pour démontrer la stabilité par cette méthode, la difficulté réside dans le choix d’une “bonne”
fonction d’énergie. Une classe de fonctions souvent utilisées sont les fonction quadratiques V (x) =
(x − x0 )T Q(x − x0 ) avec Q = QT > 0 ; on parle alors de stabilité quadratique.
Pour la fonction d’énergie choisie, il reste à démontrer que dt d
(V (x)) = dVdx(x) f (x) < 0 pour
tout x.

Exemple 6 (Fonction d’énergie d’un système physique)


Soit un système mécanique de masse m, connecté au sol par l’intermédiaire d’un ressort de
raideur k et d’un amortisseur f . On note z la position de la masse et ż sa vitesse. On considère
que l’équilibre est obtenu pour z = 0.
L’équation fondamentale de la dynamique donne l’équation dynamique du système :

mz̈ = −kz − f ż (4.1)

L’état est composé de la position et de la vitesse :


 
z
x= (4.2)

1. Plus précisément, on parle de “fonction candidate” ; le terme de fonction de Lyapunov impliquant déjà la
stabilité.

29
30 CHAPITRE 4. ANALYSE DES SYSTÈMES

L’énergie du système est composée de l’énergie cinétique Ec = 21 mż 2 et de l’énergie potentielle


emmagasinée dans le ressort Ep = 12 kz 2 . On définit donc V (x) = 21 mż 2 + 12 kz 2 .
La variation de l’énergie s’écrit :
∂V (x) ∂V (x)
V̇ (t) = ż + z̈ (4.3)
∂z ∂ ż
= kz ż + mż z̈ (4.4)
= ż(kz + (−kz − f ż)) (4.5)
2
= −f ż (4.6)

Ainsi, l’énergie est décroissante dès que la vitesse est non nulle. A terme, la décroissance de
l’énergie entraine la convergence de x vers zéro. Toutefois, cette décroissance ne dépend pas de
d
z et ne satisfait donc pas exactement la condition dt (V (x)) < 0 pour x 6= x0 .

4.1.2 Système linéaire


Dans ce cas, f (x) = Ax. Le point d’équilibre candidat est nécessairement x = 0. En choisis-
sant V (x) = xT Qx avec Q = QT > 0, la condition de stabilité s’écrit alors xT (AT Q + QA)x < 0
pour x 6= 0, ce qui s’écrit aussi AT Q + QA < 0 et qui signifie que toutes les valeurs propres
(réelles) de la matrice symétrique AT Q + QA sont strictement négatives. Dans le cas LTI, la
stabilité quadratique au sens de Lyapunov est équivalente à la stabilité classique au
sens des systèmes linéaires (valeurs propres à parties réelles négatives). On énonce ainsi le
théorème suivant.

Théorème 4 (Stabilité d’un système linéaire à temps continu)


Le système ẋ = Ax est stable si et seulement si il existe une matrice définie positive Q vérifiant
le système LMI suivant :

Q > 0 (4.7)
T
A Q + QA < 0 (4.8)

4.1.3 Cas des systèmes à temps-discret


Considérons un système d’équation d’état x(k + 1) = Ax(k) et une fonction de Lyapunov
quadratique V (x) = xT Qx avec Q = QT > 0. Le système est stable si et seulement si l’énergie
décroit sur toutes les trajectoires, c’est-à-dire s’il existe une matrice Q telle que !
Théorème 5 (Stabilité d’un système linéaire à temps discret)
Le système x(k + 1) = Ax(k) est stable si et seulement si il existe une matrice définie positive
Q vérifiant le système LMI suivant :

Q > 0 (4.9)
T
A QA − Q < 0 (4.10)

En effet, la décroissance de l’énergie s’écrit V (x(k + 1)) < V (x(k)) ce qui s’écrit encore
xT (k)AT QAx(k) < xT (k)Qx(k).

4.1.4 Commandes Matlab


Les fonctions suivantes font partie de la Robust Control Toolbox et permettent de tester la
stabilité quadratique. Elles sont valables pour des systèmes LPV et donc aussi pour des systèmes
LTI.
— quadstab analyse la stabilité quadratique des systèmes dynamiques à temps continu et
à temps discret. Les systèmes descripteurs (du type E ẋ = Ax) qui ne sont pas abordés
dans le cadre du cours, sont également supportés.
— decay calcul le taux de décroissance maximal de la fonction de Lyapunov
4.2. DISSIPATIVITÉ 31

4.2 Dissipativité
4.2.1 Définition
Système non-linéaire
On s’intéresse maintenant à un système non-linéaire de vecteur d’entrée u, de vecteur de
sortie y, de vecteur d’état x. Son équation d’état est ẋ = f (x, u) et son équation de sortie est
y = g(x, u). Soit S(u, y) une fonction scalaire que nous appellerons flux d’énergie entrant.
Définition 13 (Dissipativité)
Un système dynamique est dit dissipatif par rapport à une fonction d’alimentation S(u, y), s’il
existe une fonction d’énergie V (x) telle que
dV (x)
< S(u, y) (4.11)
dt
pour tout x 6= x0 où x0 est le point d’équilibre considéré vérifiant f (x0 , 0) = 0
On peut s’intéresser à des fonctions S de type particulier comme :
 T   
y Q11 Q12 y
S(u, y) = (4.12)
u Q12 T Q22 u
On parle alors de {Q11 , Q22 , Q12 }-dissipativité.

Système linéaire
Soit le système d’équation d’état ẋ = Ax + Bu et d’équation de sortie y = Cx + Du.
Théorème 6 (Caractérisation LMI de la dissipativité)
Le système ci-dessus est dissipatif par rapport à une fonction d’alimentation S(u, y) définie en
(4.12), s’il existe une matrice Q = QT vérifiant le système de LMI suivant :
Q>0 (4.13)
AT Q C TQ C TQ T
 
+ QA − 11 C QB − 11 D − C Q12
<0 (4.14)
BTQ T T T
− D Q11 C − Q12 C −D Q11 D − DT Q12 − QT
12 D − Q22
Démonstration 4
On peut remplacer le vecteur [y T , uT ]T dans la fonction S(u, y) par
    
y C D x
= (4.15)
u 0 I u
On obtient alors une nouvelle expression S̃(x, u) du flux d’énergie :
 T  T    
x C 0 Q11 Q12 C D x
S̃(x, u) = T T (4.16)
u D I Q12 Q22 0 I u
soit
T 
C T Q11 C C T Q11 D + C T Q12
  
x x
S̃(x, u) = (4.17)
u DT Q11 C + QT T T T
12 C D Q11 D + D Q12 + Q12 D + Q22 u
Par ailleurs, la dérivée de la fonction d’énergie s’écrit :
dV (x)
= ẋT Qx + xT Qẋ (4.18)
dt
= (Ax + Bu)T Qx + xT Q(Ax + Bu) (4.19)
 T  T  
x A Q + QA QB x
= T (4.20)
u B Q 0 u
La dissipativité (4.11) s’écrit alors comme une LMI en Q = QT > 0 :
AT Q + QA − C T Q11 C QB − C T Q11 D − C T Q12
 
<0 (4.21)
B T Q − DT Q11 C − QT T T T
12 C −D Q11 D − D Q12 − Q12 D − Q22
32 CHAPITRE 4. ANALYSE DES SYSTÈMES

4.2.2 Caractérisation LMI de la norme H∞


Lemme 2 (Yakubovitch-Kalman)
Soit Σ un système linéaire. Les propositions suivantes sont équivalentes :
(i) Σ est {Q11 , Q22 , Q12 }-dissipatif.
(ii) ∀ω ∈ R+ \det(jωI − A) 6= 0,
 T   
G(jω) Q11 Q12 G(jω)
≥0 (4.22)
I QT12 Q22 I

Ce résultat s’obtient facilement en considérant un signal harmonique u(t) = U exp(jωt).


On peut maintenant montrer que la norme H∞ est un cas particulier de dissipativité.
Théorème 7 (Équivalence entre norme H∞ et dissipativité)
Soit un système linéaire Σ et la fonction de flux d’énergie S(u, y) = γ 2 uT u−y T y. Les propositions
suivantes sont équivalentes :
(i) Σ est S-dissipatif
(ii) ||Σ||∞ ≤ γ
Grâce au lemme de Yakubovitch-Kalman, la proposition (ii) est équivalente à −(GT (jω)G(jω)+
γ 2 I ≥ 0 ce qui est équivalent à dire que les valeurs propres de G(jω)T G(jω) sont inférieures
à γ 2 . Or les valeurs propres (réelles et positives) de G(jω)T (G(jω) sont les carrés des valeurs
singulières de G(jω). CQFD car la norme H∞ de Σ est la borne supérieure de la valeur singulière
maximale.
La majoration de la norme H∞ par γ est donc équivalente à la {−I, γ 2 I, 0}-dissipativité. Ce
résultat est aussi connu sous le nom de lemme borné réel (bounded real lemma en anglais) :
Lemme 3 (Lemme borné réel 1)
Un système dynamique continu linéaire de matrices d’état A, B, C et D a une norme H∞
inférieure à γ si et seulement si il existe une matrice Q = QT vérifiant :
Q>0 (4.23)
AT Q + QA + C T C QB + C T D
 
<0 (4.24)
B T Q + DT C DT D − γ 2 I
On peut appliquer le lemme borné réel pour le calcul de la norme H∞ d’un système linéaire
en résolvant un problème de valeurs propres généralisées suivant : trouver les matrices Q = QT
et R = RT minimisant λ = γ 2 et vérifiant :
Q>0 (4.25)
AT Q + QA + C T C QB + C T D
   
0 0
< (4.26)
B T Q + DT C DT D 0 R
R < λI (4.27)
Remarquez l’introduction d’une nouvelle matrice R nécessaire pour avoir une matrice de rang
plein dans l’inégalité (4.27) où intervient le scalaire à minimiser.
Grâce au complément de Schur, on peut réécrire le lemme borné réel sous une forme où
chacun des termes s’écrit d’une manière affine en fonction des matrices du système.
Lemme 4 (Lemme borné réel 2)
Un système dynamique continu linéaire de matrices d’état A, B, C et D a une norme H∞
inférieure à γ si et seulement si il existe une matrice Q = QT vérifiant :
Q>0 (4.28)
AT Q + QA QB C T
 
 BT Q −γI DT  < 0 (4.29)
C D −γI
4.3. PERFORMANCES D’UN SYSTÈME ASSERVI 33

4.2.3 Passivité
On dit qu’un système est passif si la condition suivante est vérifiée :
Z T
uT (t)y(t)dt ≤ 0 (4.30)
0

Cette conditions est correspond à la dissipativité avec les matrices Q11 = Q22 = O et Q12 = I,
ce qui donne le théorème suivant connu sous le nom de Positive real lemma.

Théorème 8 (Positive real lemma)


Un système linéaire dynamique est passif s’il existe une matrice Q = QT > 0 telle que :
 T
A Q + QA QB − C T

<0 (4.31)
B T Q − C −DT − D

La passivité est une condition suffisante de stabilité. Une propriété fondamentale est que
l’interconnexion de systèmes passifs est un système passif. Ainsi, on peut chercher à imposer la
stabilité d’un système interconnecté en assurant la passivité de chacun de ses éléments. Cette
propriété est notamment utilisée dans les systèmes de télémanipulation. L’inconvénient de cette
approche est son conservatisme (il n’est pas nécessaire qu’un système soit positif pour être
stable).

4.3 Performances d’un système asservi


4.3.1 Schéma de commande
On considère le schéma d’asservissement présenté sur la figure 4.1. Le système G(s) est
asservi au moyen d’un correcteur K(s). Les signaux sont :
— la référence r(t)
— l’erreur de régulation e(t)
— le signal de commande u(t)
— la perturbation d(t) en entrée du système
— le signal à asservir y(t)
— la bruit de mesure bm (t)
— le signal de mesure ym (t)
On considère que les signaux sont ajoutés positivement, sauf pour la contre-réaction de la mesure.

d bm
r+ e u v y
- i - K(s) - i - G(s) - i
? ?
−6 ym

Figure 4.1 – Système asservi avec référence, perturbation en entrée et bruit de mesure

L’objectif général de la commande est d’obtenir y(t) = r(t) en dépit des perturbations d(t)
et bm (t). Mais évidemment, on ne peut obtenir cette égalité parfaitement. De manière générale,
on note Tzv (s) le transfert en boucle fermée entre l’entrée v(t) et la sortie z(t). La sensibilité en
sortie (coté mesure) est définie par Sy (s) = Ter (s). La sensibilité en entrée (coté commande) est
définie par Su (s) = Tvd (s).

4.3.2 Les critères


Marge de module
La stabilité est évaluable à partir du lieu des pôles (tous les pôles de la boucle fermée doivent
être à partie réelle strictement négative), ce qui s’évalue en multivariable de la même manière
34 CHAPITRE 4. ANALYSE DES SYSTÈMES

qu’en monovariable. Cependant, on sait que la stabilité ne suffit pas et que des marges de stabilité
sont nécessaires. La marge de module est définie en monovariable comme la distance minimale
au point −1 du transfert complexe en boucle ouverte, ce qui s’écrit avec les notations utilisées :

∆M = min |1 + K(jω)G(jω)|. (4.32)


ω

En notant que :
 −1
min |1 + K(jω)G(jω)| = max |(1 + K(jω)G(jω))−1 | , (4.33)
ω ω

on définit en multivariable la marge de module en sortie :

1
∆M = , (4.34)
||Sy (s)||∞

et la marge de module en entrée :


1
∆M = . (4.35)
||Su (s)||∞

Im

-1 0 Re
∆M

G(jω) K(jω)

Figure 4.2 – Illustration de la marge de module en monovariable sur le lieu de Nyquist

Pour assurer que la marge de module ne dépasse par une valeur spécifiée ∆∗M , il suffit de
vérifier que ||∆∗M Su (s)||∞ ≤ 1.

Bande passante
Afin d’avoir un bon comportement en suivi de consigne, il faut que le transfert entre la
référence et la mesure ait un comportement de type passe-bas avec une fréquence de coupure
de l’axe -3 dB suffisamment élevée. De manière équivalente, on peut considérer qu’il faut que le
transfert Ter (s) = Sy (s) entre la référence et l’erreur soit de type coupe-bas (ou passe-haut) avec
la même pulsation de coupure. On pourra alors tracer la représentation fréquentielle de Sy (s) et
relever la bande passante à -3 dB ainsi que l’atténuation maximale (en continu).
Considérons un gabarit Sy∗ (s) qui possède la bande passante requise. Supposons de plus que ce
gabarit est inversible 2 et que (Sy∗ (s))−1 = W1 (s). Alors, il suffit de vérifier que ||W1 (s) Sy (s)||∞ ≤
1 par s’assurer que Sy (s) respecte la dynamique spécifiée.

Précision
L’erreur statique en réponse à un échelon unitaire sur la référence est donnée par Sy (0). Pour
s’assurer que Sy (s) a une précision suffisante, on peut choisir un gabarit W1 (s) correspondant
puis vérifier que ||W1 (s) Sy (s)||∞ ≤ 1.

2. Il est toujours possible d’inverser un transfert, du moins sur une plage de fréquences. Si le système de départ
n’est pas inversible, on réalise une approximation en modifiant sa matrice D.
4.3. PERFORMANCES D’UN SYSTÈME ASSERVI 35

20 log(σ(Sy (jω)))

20 log(||Sy (s)||∞ ) ω (log)


0 dB
-3 dB ωBP

20 log(σ(Sy (0)))

Figure 4.3 – Allure typique de la sensibilité en sortie Sy (s) permettant de déterminer la marge
de module, la bande passante et la précision (système avec deux entrées et deux sorties).

Rejet de perturbation

Afin d’avoir un bon comportement en rejet de perturbation, il faut que le transfert entre la
perturbation et l’erreur soit le plus faible possible notamment en basse fréquence. Ce transfert
est généralement de type passe-bande. On pourra alors tracer la représentation fréquentielle de
Ted (s) = −Sy (s) G(s) et relever l’atténuation maximale (en continu) ainsi que l’amplification
maximale en précisant la fréquence.

Effet du bruit de mesure

Le bruit de mesure bm peut se répercuter par un bruit sur la commande qui risque de fatiguer
les actionneurs, entrainera une surconsommation et un vieillissement accéléré. Afin de limiter
cet effet, il importe que le transfert en boucle fermée entre une perturbation en sortie du système
(coté mesure) et la commande ait un gain limité, notamment en haute fréquence. On pourra se
donner un gabarit d’atténuation du transfert Tud (s) du type σ(Tud (jω)) ≤ |H(jω)| où H(s) est
le gabarit (transfert SISO).

Robustesse

Les systèmes dynamiques physiques sont généralement de type passe-bande et on dont un


gain qui diminue en haute fréquence. Il en résulte donc qu’au delà d’une certaine bande de
fréquences, ces dynamiques sont nécessairement mal connues. Ainsi, une des sources classique
de manque de robustesse des systèmes asservis correspond à des amplifications de modes hautes
fréquence mal connus, entraı̂nant ainsi des instabilités. Afin de palier ce problème, il convient de
s’assurer que le gain du correcteur décroit au delà de la bande passante. Une manière détournée
de s’en assurer consiste à considérer la réponse fréquentielle du transfert Su (s)K(s) ou K(s)Sy (s)
du transfert entre r et u.

4.3.3 Schémas d’analyse et de synthèse H∞

Position du problème

Reprenons le schéma de commande de la figure 4.1 où G(s) comporte nu commandes et ny


mesure. En notant Sy (s) = (Iny + G(s) K(s))−1 et Su (s) = (Inu + K(s) G(s))−1 , on peut calculer
36 CHAPITRE 4. ANALYSE DES SYSTÈMES

les différents transferts en boucle fermée :


   
e Sy (s) −Sy (s)G(s) −Sy (s)  
 u   Su (s)K(s)
   −S u (s)K(s)G(s) −S u (s)K(s)  r

 v  =  Su (s)K(s)
   Su (s) −Su (s)K(s)   d
  (4.36)
 y  Sy (s)G(s)K(s) Sy (s)G(s) −Sy (s)G(s)K(s) bm
ym Sy (s)G(s)K(s) Sy (s)G(s) −Sy (s)

Éxercice 10 (Calcul des fonctions de transfert en boucle fermée)


1. Montrez que K(s)Sy (s) = Su (s)K(s) et que G(s)Su (s) = Sy (s)G(s).
2. Retrouvez les fonctions de transfert entre les différentes entrée et sorties du système de
la figure 4.1.

Le problème de synthèse revient à chercher un compensateur K(s) tel qu’un certain nombre
des transferts d’intérêt de (4.38) aient une allure satisfaisante. Cependant, on imagine bien qu’il
n’est pas possible de réaliser des allures arbitraires pour chacun de ces transferts. Tout d’abord,
on observe q’un certain nombre de transferts sont identiques. Par exemple, l’effet du bruit de
mesure sur les différentes sorties est identique à celui de la référence au signe près, sauf pour
la mesure ym . Inversement, l’effet des différentes entrées sur les sorties y et ym sont identiques,
sauf pour bm .

Étude asymptotique

20 log(σk (G(jω)K(jω)))

ωc
ω (log)
0 dB
σ(G(jω)K(jω))  1

σ(G(jω)K(jω))  1

Figure 4.4 – Allure typique des valeurs singulières de la boucle ouverte.

Pour un système asservi simple, le gain en boucle ouverte (ou ses valeurs singulières si on
travaille en multivariable) est généralement décroissant en fonction de la pulsation et la pulsation
de coupure ωc de l’axes 0 dB définit la bande passante (voir figure 4.4). Considérons maintenant
deux approximations : basse et haute fréquence.
— Pour ω  ωc , on peut considérer que σ(K(s)G(s))  1 et σ(G(s)K(s))  1. Il en résulte
que Sy (s) ' K −1 (s) G−1 (s) et Su (s) ' G−1 (s) K −1 (s), du moins dans l’hypothèse de
transferts carrés inversibles. Ainsi, les différents transferts se réécrivent :
   −1
K (s) G−1 (s) −K −1 (s) −K −1 (s) G−1 (s)  

e
u  G−1 (s) −Inu −G−1 (s)  r
−1 −1 −1 −1
   
v =
   G (s) G (s) K (s) −G (s)  d 
 (4.37)
y  Iny −1
K (s) −Iny  bm
ym Iny K −1 (s) −K −1 (s) G−1 (s)
On observe que certains transferts ne dépendent plus du correcteur. C’est le cas du
transfert Tyr entre la référence et la mesure (ou grandeur à asservir), égal à l’identité
4.3. PERFORMANCES D’UN SYSTÈME ASSERVI 37

(le système est bien asservi). C’est également le cas du transfert entre le bruit et la
commande avec Tubm (s) = −G−1 (s), ce qui signifie que l’effet du bruit de mesure sur la
commande ne peut être atténué dans la bande passante. A l’inverse, le transfert Tyd (s)
entre la perturbation et la grandeur à asservir dépend entièrement du correcteur ; un bon
rejet de perturbation nécessite donc un gain du correcteur élevé indépendamment du gain
du système (c’est ainsi que la présence d’un intégrateur pur dans le système G(s) n’est
d’aucune aide pour le rejet de perturbation mais qu’il faudra prévoir un effet intégrateur
dans le correcteur).
— Pour ω  ωc , on peut considérer que σ(K(s)G(s))  1 et σ(G(s)K(s))  1. Il en résulte
que Sy (s) ' Iny et Su (s) ' Inu . Ainsi, les différents transferts se réécrivent :
   
e Iny −G(s) −Iny  
 u   K(s)
   −K(s)G(s) −K(s)   r
 v  =  K(s)
   Inu −K(s)   d
  (4.38)
 y  G(s)K(s) G(s) −G(s)K(s) bm

ym G(s)K(s) G(s) −Iny

A nouveau, certains transferts ne dépendent plus du correcteur, mais pas les mêmes que
dans le cas précédent. A l’inverse, le transfert Tubm (s) entre le bruit de mesure et le
signal de commande est égal, au signe près, au correcteur. Ainsi, il sera nécessaire de
prévoir l’atténuation du gain du correcteur en dehors de la bande passante afin de limiter
l’amplification du bruit.

Éxercice 11 (Tracé de la réponse fréquentielle d’un système asservi)


K
On considère le système asservi de la figure 4.1 avec G(s) = 1+τ s et un correcteur K(s). On
considérera trois correcteurs possibles pour ce correcteur :
1. un proportionnel : K1 (s) = Kp ,
2. un PI : K2 (s) = Kp 1+τ is
τi s ,

3. un PI + un filtre passe-bas : K3 (s) = K2 (s) 1+τ1 f s .


On prendra comme valeurs numériques K = 1, τ = 1 s, Kp = 5, τi = 4 s et τf = 0.05 s.
1. Tracez de manière approximative les transferts suivants : Ter (s), Tur (s), Tyr (s), Tyd (s)
et Tubm (s).
2. Commentez les différents transferts et les différences entre les trois correcteurs.

Schéma général pour l’analyse et la synthèse


Un schéma général d’analyse ou de synthèse H∞ est donné sur la figure 4.5. Le système
étendu Ga (s) est construit autour du système G(s). On distingue deux canaux :
— Le canal de performance entre ṽ et z̃ qui intègre l’ensemble des transferts d’intérêt pour
lesquels on cherche à imposer un gabarit du type σ(Tz̃k ṽl ) ≤ |Hkl (jω)| afin de garantir
certaines performances.
— Le canal de commande qui relie le système étendu au correcteur.
Le correcteur K(s) sera synthétisé de manière à minimiser la norme H∞ du transfert en boucle
fermée de v vers y.
De nombreux schémas de synthèse sont possibles suivant les objectifs recherchés et les dif-
ficultés rencontrées en pratique. L’idée est de choisir le schéma le plus simple qui permet de
résoudre le cahier des charges. Il convient donc de commencer par le schéma le plus simple et
d’analyser en détail les résultats obtenus. Si un critère de performances n’est pas atteint, on
choisit de passer à un schéma plus complexe en ajoutant des signaux de performance dans Ga (s)
afin d’introduire dans la synthèse le canal de performance supplémentaire pour lequel la synthèse
précédente s’est montrée insuffisante.
38 CHAPITRE 4. ANALYSE DES SYSTÈMES

v ṽ- z̃- z-
We (s) Ws (s)
Ge (s)
-

u e ou y

K(s) 

Figure 4.5 – Schéma général pour la synthèse H∞

Schéma 1 bloc
Le transfert crucial est la sensibilité Ter (s) = Sy (s) qui permet de gérer à la fois la bande
passante, la marge de stabilité et la précision. Ainsi, le schéma de synthèse le plus simple est
un schéma dans lequel on ne s’intéresse qu’à ce transfert. Ce schéma, donné sur la figure 4.6
fait apparaitre une seule pondération en sortie (Ws (s) = W1 (s)) et pas de pondération d’entrée
(We (s) = Iny ).

z(t)
W1(s)
e(t)
r(t) u(t)
+ K(s) G(s)
- y(t)

Figure 4.6 – Schéma de synthèse à 1 bloc

Considérons la pondération suivante :


s+a
W11 (s) = (4.39)
k(s + b)
a 1
avec b < a et k ≥ 1. Ce transfert a un gain statique de kb , un gain minimal de k et présente un
gain à 3 dB à la pulsation r
a2 − 2k 2 b2
ωc = (4.40)
2k 2 − 1
Définissons le filtre multivariable diagonal :

W1 (s) = W11 (s)Iny . (4.41)

On a :
1
W1−1 (s) = Iny . (4.42)
W11 (s)
Appliquons à l’entrée de ce filtre l’erreur de régulation e ; notons z1 sa sortie. Si on est capable
−1
de vérifier que la norme du transfert entre r et z1 est inférieure à 1, alors |W11 (jω)| est un
majorant de σ(Sy (jω)) pour tout ω. On en déduit que :
— la marge de module du système est supérieure à k1 ;
— l’erreur statique relative est inférieure à kb
a ;
— la bande passante est supérieure à ωc .
Il suffit d’inverser ces trois relations pour définir la pondération correspondant à un cahier des
charges donné :
— k est déterminé à partir de la marge de gain ;
— le rapport ab est ensuite déduit à partir de l’erreur statique acceptable ;
4.3. PERFORMANCES D’UN SYSTÈME ASSERVI 39

— le coefficient a est alors déterminé par l’expression de la bande passante :


s
2k 2 − 1
a = ωc (4.43)
b 2

1 − 2k 2 a

— on détermine ensuite b grâce à la valeur de ab .


Si on souhaite une erreur statique nulle, il convient de prendre b = 0. On peut aussi chercher
à imposer une erreur de suivi de rampe nulle en choisissant une pondération de la forme :

(s + a)2
W11 (s) = (4.44)
k(s + b)2

où b est choisi très faible voire nul 3 . Il convient toutefois de refaire les calculs ci-dessus.

Éxercice 12 (Schéma de synthèse à un bloc)


Pour le schéma de synthèse à un bloc représenté sur la figure 4.6,
1. identifiez les signaux du schéma général de synthèse de la figure 4.5,
2. déterminez le système étendu Ge (s) en fonction de G(s).

Schéma 2 blocs

En utilisant un schéma de synthèse à un bloc, il se peut que l’on obtienne un correcteur dont
le gain ne chute pas en haute fréquence, ce qui est défavorable en terme d’amplification du bruit
de mesure et en terme de robustesse. Afin de forcer le gain du correcteur à décroitre au delà
de la bande passante du système asservi, on peut être amené à ajouter une pondération sur la
commande u comme dans le schéma de synthèse à deux blocs de la figure 4.7. Cette pondération
est un filtre dérivateur tronqué qui amplifie les hautes fréquences. Avec W2 (s) = W21 Inu , on
peut prendre :
s
W21 (s) = (4.45)
K2 (cs + 1)

avec cωc  1 (par exemple cωc = 0, 01). Une valeur de K2 faible correspond à un effet de roll-off
important, c’est-à-dire une décroissante rapide du gain du correcteur en haute fréquence.

z1(t)
W1(s)
z2(t)
W2(s)
e(t) u(t)
r(t)
+ K(s) G(s)
- y(t)

Figure 4.7 – Schéma de synthèse à 2 blocs

Éxercice 13 (Schéma de synthèse à deux blocs)


Pour le schéma de synthèse à deux blocs représenté sur la figure 4.7,
1. identifiez les signaux du schéma général de synthèse de la figure 4.5,
2. déterminez le système étendu Ge (s) en fonction de G(s).
40 CHAPITRE 4. ANALYSE DES SYSTÈMES

z1(t)
W1(s)
z2(t)
W2(s)
v2(t)

W3(s)
e(t)
v1 = r(t) d(t)
K(s) + G(s)
+ u(t) y(t)
-

Figure 4.8 – Schéma de synthèse à 4 blocs

Schéma 4 blocs
Si le rejet de perturbation n’est pas suffisant, il convient d’intégrer l’entrée d qui s’ajoute
au signal de commande et qui modélise les perturbation apparaissant sur l’entrée du système.
On aboutit au schéma de synthèse à quatre blocs (figure 4.8) dans lequel une pondération
W3 (s) = W31 (s)I constante permettra de régler le rejet de perturbation grâce au transfert
Tde (s) avec :
1
σ(Ted (jω)) < . (4.46)
|W11 (jω)W31 (jω)|
Cette approche peut également servir à mieux rejeter une perturbation sinusoı̈dale à la pulsation
ω0 . La pondération W31 (s) est alors choisie égale à un filtre passe bande résonnant de nature à
amplifier le signal à la pulsation ω0 :
ω0 s
W31 (s) = (4.47)
s2 + 2ξω0 s + ω02

où ξ est choisit d’autant plus faible que l’atténuation doit être forte.

4.4 Lieu des pôles


On sait que la condition ∃Q = QT > 0\AT Q + QA > 0 permet de garantir que la matrice A
est Hurwitz ; c’est-à-dire que toutes ses valeurs propres sont dans le demi-plan complexe gauche.
D’autres conditions LMI permettent de garantir la localisation des pôles dans des régions plus
réduites. A partir des formulations polynomiales de Gutman et Jury [21], des contraintes LMI
ont été dérivées par Chilali, Scherer et al. [22, 15]. Une formulation générale, valable en temps-
continu et en temps-discret est disponible dans Peaucelle et Arzelier [23].

4.4.1 Régions LMI


Les régions du plan complexe permettant d’aboutir à une formulation LMI s’écrivent sous
la forme :
H ∗
R11 + R12 z + R21 z + R22 zz ∗ < 0 (4.48)
H, R
où R11 = R11 H
12 et R22 = R22 sont des matrices complexes et où z est un pôle du système.

Exemple 7 (Exemples de contraintes LMI)

— Pour obtenir |z| ≤ ρ1 , il suffit d’imposer −ρ21 + zz ∗ < 0.


— Pour obtenir |z| ≥ ρ2 , il suffit d’imposer ρ22 − zz ∗ < 0.
3. Il est parfois préférable de choisir b faible non nul afin de ne pas rendre le système instable par l’adjonction
d’un pôle nul ; c’est notamment le cas pour l’analyse de la robustesse.
4.4. LIEU DES PÔLES 41

— Pour obtenir Re(z) ≤ −α, il suffit d’imposer 2α + z + z ∗ < 0.


— Pour garantir que les pôles sont placés dans un cône symétrique par rapport à l’axe des
réels, dirigé vers les réels négatifs et d’ouverture θ, il faut imposer les conditions :

hRe(z) + Im(z) < 0
(4.49)
hRe(z) − Im(z) < 0

où h = tan(θ). Ces relations se réécrivent sous la forme :

(h − j)z + (h + j)z ∗ < 0



(4.50)
(h + j)z + (h − j)z ∗ < 0
 
h−j 0
ce qui s’écrit sous la forme (4.48) avec R11 = R22 = O2×2 et R12 = .
0 h+j

Définition 14 (Produit de Kronecker)


Pour une matrice A = [ai,j ] de dimention n × p et une matrice B, on note :
 
a11 B . . . a1n B
A ⊗ B =  ... ..  (4.51)

. 
an1 B . . . ann B

4.4.2 Condition LMI


Théorème 9 (Condition LMI de placement de pôle)
Les pôles d’un système d’équation d’état A sont dans le domaine caractérisé par l’équation (4.48)
s’il existe une matrice symétrique P telle que la condition suivante est vérifiée :
H
R11 ⊗ P + R12 ⊗ (P A) + R12 ⊗ (AH P ) + R22 ⊗ (AH P A) < 0 (4.52)

En pratique, les différentes contraintes sont agglomérées afin d’aboutir à une formulation
unique sous la forme (4.48).

Éxercice 14 (Contraintes LMI de placement des pôles)

1. Donnez les matrices de la formulation (4.48) permettant d’assurer le cahier des charges
suivant :
— module inférieur à ωmax
— partie réelle inférieure à −α où√α ∈ R+
— amortissement supérieur à r = 2.
2. Justifiez l’intérêt de ces trois contraintes, notamment en terme de cahier des charge
temporel.
42 CHAPITRE 4. ANALYSE DES SYSTÈMES
Chapitre 5

Synthèse pour les systèmes LTI

5.1 Retour d’état stabilisant


Système à temps continu
On cherche une commande de la forme u = Kx pour un système ẋ = Ax+Bu. Le système en
boucle fermée s’écrit ẋ = (A + BK)x. Il est stable s’il existe une matrice Q = QT > 0 vérifiant
l’inégalité matricielle :
(A + BK)T Q + Q(A + BK) < 0 (5.1)
La résolution du problème suppose de trouver simultanément les matrices K et Q. On voit que
cette inégalité n’est pas linéaire à cause du terme QBK ; elle ne peut donc être résolue par les
outils numériques classiques.

Toutefois, en multipliant à droite et à gauche l’inégalité par R = Q−1 , on obtient une


inégalité équivalente sous la forme :

R(A + BK)T + (A + BK)R < 0 (5.2)

En effectuant le changement de variable S = KR, on se ramène à résoudre l’inégalité matricielle


linéaire suivante :
RAT + ST B + AR + BS < 0 (5.3)
Une fois déterminés R et S, on détermine K = SR−1 .

Formulation Riccati de la stabilisation. On peut également utiliser le lemme de Finsler


afin de transformer l’équation non-linéaire.
Commençons par développer l’équation (5.1) :

AT Q + QA + KT B T Q + QBK < 0 (5.4)

En identifiant cette équation avec la quatrième formulation du lemme de Finsler (page 17), la
troisième formulation équivalente donnée dans le lemme s’écrit :

AT Q + QA + λQBB T Q < 0 (5.5)

Il s’agit d’une inégalité de Riccati où la matrice inconnue K a disparu. En introduisant une
matrice P = P T > 0, cette inégalité se transforme en égalité :

AT Q + QA + λQBB T Q + P = 0 (5.6)

Il s’agit d’une équation algébrique de Riccati. Des algorithmes sont disponibles pour les résoudre
(sous Matlab, voir are pour Algebraic Riccati Equation).

43
44 CHAPITRE 5. SYNTHÈSE POUR LES SYSTÈMES LTI

5.2 Commande H∞
On présente ici les techniques de synthèse de retour dynamique de sortie. Des résultats sont
également disponibles concernant la synthèse de retour d’état statique 1

5.2.1 Problème et solutions


Position du problème
Pour le système P (s) de représentation d’état :
    
ẋ A B 1 B2 x
 z  = C1 D11 D12  v  (5.7)
y C2 D21 D22 u

on cherche un correcteur dynamique K(s) de représentation d’état :


    
ẋK AK B K x K
= (5.8)
u CK D K y

tel que
||lftl (P (s), K(s))||∞ ≤ γ. (5.9)
Les méthodes de synthèse présentées ci-dessous, disponibles sous Matlab, s’appuient sur
l’hypothèse suivante :
H1. (A, B2 ) est stabilisable 2 ; (C2 , A) est détectable 3
Ces deux hypothèses sont des hypothèses classiques pour la synthèse de correcteur.

Résolution par équation de Riccati


La première méthode de synthèse, due à Glover et Doyle, s’appuie sur la résolution d’une
équation de Riccati [24, 25]. L’exposé rapide de la méthode donné ci-dessous est tiré de l’ouvrage
de Duc et Font [1].
Pour P = P T et Q = QT de même dimension d’une matrice A. On note :
 
A −P
X = Ric (5.10)
−Q −AT

la solution symétrique de l’équation de Riccati :

XA + AT X − XP X + Q = 0 (5.11)

telle que toutes les valeurs propres de A − P X ont une partie réelle strictement négative.
Outre l’hypothèse H1, les hypothèses suivantes doivent être satisfaites :
H2. rang(D12 ) = nu et rang(D21 ) = ny où nu est la taille de u et ny est la taille de ny .
A − jωIn B2
H3. ∀ω ∈ R, rang = n + nu où n est la taille de x.
C1 D12
 
A − jωIn B1
H4. ∀ω ∈ R, rang = n + ny .
C2 D21
 
T
    B1 T = O I
 
H5. D11 = 0, D12 C1 D12 = O Inu , D22 = 0, D21 ny .
D21

1. Voir aussi le cours de Denis Arzelier sur [Link]


pdf.
2. La stabilisabilité est une condition moins forte que la commandabilité. La paire (A, B2 ) est stabilisable s’il
existe un retour d’état qui stabilise le système ẋ = Ax + B2 u.
3. La détectabilité est une condition moins forte que l’observabilité. La paire (C2 , A) est détectable s’il existe
un observateur x̂˙ = Ax + L(C x̂ − y) telle que l’erreur d’observation x̂ − x converge vers zéro.
5.2. COMMANDE H∞ 45

Vous trouverez dans la littérature, et notamment dans [1] quelques explications sur ces hy-
pothèses.
On définit les matrices suivantes :
 
B = B1 B2
 
C1
C=
C2
 
D1· = D11 D12
 
D11
D·1 =
D21
 2 
T γ Inv 0
R = D1· D1· −
0 0
 2 
T γ Inz 0
R̃ = D·1 D·1 −
0 0
    
A 0 B −1
 T T

Xa = Ric − R D1· C1 B
−C1T C1 −AT −C1T D1·
AT CT
    
0 −1
 T T

Ya = Ric − T R̃ D·1 B1 C
−B1 B1T −A −B1 D·1

Théorème 10 (Synthèse H∞ par équation de Riccati)


Sous les hypothèses précédentes, les correcteurs LTI K(s) stabilisant le système et assurant (5.9)
sont donnés par la LFT suivante :
K(s) = lftl (Ka (s), Φ(s)) (5.12)
où Φ(s) est une matrice de transfert de dimension nu × ny arbitraire vérifiant ||Φ(s)||∞ < γ et
où Ka (s) est décrit par la représentation d’état suivante :
Za Ya C2T Za B2
    
ẋa Aa x
 u  = −B2T Xa Onu ×ny Inu   y  (5.13)
ya −C2 Iny Ony ×nu ua

où Aa = A + γ −2 B1 B1T Xa − B2 B2T − Za Ya C2 C2T et Za = (In − γ −2 Ya Xa )−1 . En particulier, le


correcteur central est obtenu avec Φ(s) = 0.

Résolution par LMI


La caractérisation LMI de la boucle fermée est donnée par le lemme borné réel (4.29). Pour
le système en boucle fermée lftl (P (s), K(s)), ce résultats se réécrit :
 T T

Abf Q + QAbf QBbf Cbf
 BbfTQ −γI Dbf T <0 (5.14)
Cbf Dbf −γI
où les matrices du système en boucle fermée sont données par :
 
  A + B2 DK C2 B 2 CK B1 + B2 DK D21
Abf Bbf
= B K C1 AK BK D21  (5.15)
Cbf Dbf
C1 + D12 DK C2 D12 CK D11 + D12 DK D21
dans le cas où D22 = O.
Il s’agit d’un problème non-linéaire à cause du produit entre la matrice de Lyapunov Q et
les matrices du correcteur à déterminer. La méthode suivante permet de résoudre le problème
[16]. Elle consiste à résoudre d’abord un problème LMI où les matrices du correcteur ont été
supprimées.
46 CHAPITRE 5. SYNTHÈSE POUR LES SYSTÈMES LTI

Théorème 11 (Synthèse LMI de correcteur H∞ )


Le problème H∞ a une solution s’il existe des matrices symétriques R et S qui vérifient les trois
conditions LMI suivantes :
T AR + RAT RC1T
 
 B1  
NR 0 NR 0
 C2 R −γInz D21  <0 (5.16)
0 Inv 0 Inv
B1T T
D21 −γInv

T AT S + SA
 
 SB1 C1  
NS 0  B1T S T NS 0
−γInv D21  <0 (5.17)
0 Inz 0 Inz
C2T D21 −γInz
 
RIn
≥0 (5.18)
In S
où NR et NS sont des bases des noyaux respectivement de B2T D12 T et C
   
2 D21 .

La détermination du correcteur se fait suivant les étapes suivantes :


1. On détermine d’abord les matrices R et S à partir des LMI du théorème 11.
2. Soit r le rang de la matrice In − RS. Une décomposition en valeurs singulière permet de
déterminer les matrices M et N ∈ Rn×r telles que :

M N T = In − RS (5.19)

3. On détermine ensuite la matrice de Lyapunov :


 
S N
Q= (5.20)
N T −M † RN

où M † est la pseudo-inverse de M .


4. Il ne reste plus qu’à résoudre (5.14) avec Q connu ; ce qui est une LMI en AK , BK , CK
et DK .

5.2.2 Méthodologies de synthèse


Synthèse par la méthode des sensibilités mixtes
La méthode de synthèse H∞ par sensibilités mixtes est la méthode de synthèse H∞ la plus
couramment employée. Elle consiste à modeler un certain nombre de fonctions de transfert en
boucle fermée de manière permettre au système asservi de satisfaire les exigences demandées. Les
différentes étapes peuvent être résumées comme suit, en s’appuyant sur les schémas d’analyse
et de synthèse présentés en paragraphe 4.3.3 :
— Sélectionner un certain nombre de transferts en boucle fermée d’intérêt ;
— Synthétiser les pondération Wk (s) traduisant les performances attendues ;
— Former le système augmenté qui regroupe les canaux de performance (transfert de v vers
z) et le canal de commande (transfert de u vers y) ;
— synthétiser le correcteur par la méthode de synthèse de votre choix et avec l’outil de
votre choix (hinfsyn pour une synthèse d’ordre plein et hinfstruct ou hifoo pour
une synthèse structurée ou d’ordre réduit) ; on note γ le niveau de performance obtenu,
c’est-à-dire la nome H∞ du système augmenté bouclé ; on trace les transferts en boucle
fermée réalisés (sans les pondérations) et on les compare avec les gabarits réalisés (du
type γ/|Wk (jω)|).
— Si γ est largement supérieur à 1, les performance demandées ne sont pas atteintes. Dans
ce cas, on retourne au réglage des pondérations pour relâcher les exigences.
— Une fois le comportement fréquentiel satisfaisant, on complète l’anlyse par une simulation
temporelle.
5.2. COMMANDE H∞ 47

Synthèse par loop-shaping


La méthode dite du loop-shaping a été proposée par Mc Farlane et Glover [26]. Elle se
décompose en deux étapes :
— Un premier correcteur est déterminé qui permet de donner au gain en boucle ouverte une
forme adéquate. Ce correcteur initial, d’ordre ñ, n’a pas besoin de stabiliser le système.
Il est généralement donné sous la forme d’une pré-pondérations W1 (s) et d’une post
pondération W2 (s). Le système résultats est G̃(s) = W2 (s)G(s)W1 (s) (voir figure 5.1).
On peut donner un gain élevé en basse fréquence afin de bien rejeter les perturbations.
En haute fréquence, il est préférable d’atténuer le gain afin de réduire la sensibilité par
rapport aux dynamiques mal modélisées (effet de roll-off). Dans la zone de fréquence
proche de la pulsation de coupure, il est préférable de ne pas augmenter trop la pente
du gain, de manière à ne pas rendre plus difficile le problème de synthèse. Une pente de
−30 dB/dec permet d’assurer une marge de phase proche de 45◦ .

Figure 5.1 – Loop-shaping : schéma de synthèse

Figure 5.2 – Loop-shaping : schéma de commande

— Considérons des signaux de perturbation d1 en entrée et d2 en sortie de G̃(s), (voir


figure 5.1). Un correcteur K̃(s) est synthétisé de manière à minimiser la norme H∞ du
transfert de [d1 d2 ]T vers [ũ ỹ]T :

S̃(s) S̃(s)G̃(s)
η = min (5.21)
K̃(s)Sa (s) K̃(s)S̃(s)G̃(s) ∞

où S̃(s) = (I + G̃(s)K̃(s))−1 est la fonction de sensibilité en entrée. Ce correcteur étant


établi à partir de l’ensemble système + correcteur initial, il est d’ordre n + ñ. Cette étage
permet de conférer de bonnes marges de stabilité, ce qui est le cas si η est suffisamment
faible. On considère généralement des valeurs entre 3 et 5 comme satisfaisantes. Des
valeurs plus élevées correspondraient à des marges de stabilité réduites ; des valeurs plus
élevées sont le signe qu’il est possible d’améliorer les performances où la robustesse du
système.
Le correcteur final est K(s) = W1 (s)K̃(s)W2 (s). Son ordre est donc n + 2ñ. Le schéma de
commande est donné sur la figure 5.2.
Un exemple de mise en œuvre sur un système électromécanique avec résonnance est développé
dans [19]. Sur la figure 5.3, on observe la réponse fréquentielle de la fonction de transfert G(s)
initial ainsi que la pondération W2 (s). On a choisi W1 (s) = 1. La bande passante est prévue pour
des fréquences inférieures et proches de la résonance. Sur la figure 5.4, on observe le système
pondéré G̃(s) puis le système corrigé K̃(s)G̃(s). On observe que le correcteur H∞ n’a modifié le
comportement qu’aux fréquences proches de la pulsation de coupure.
48 CHAPITRE 5. SYNTHÈSE POUR LES SYSTÈMES LTI

Figure 5.3 – Fonctions de transfert du système et de la pondération

Figure 5.4 – Fonctions de transfert du système pondéré avec et sans correcteur H∞


Chapitre 6

Analyse des systèmes LPV incertains

6.1 Stabilité au sens de Lyapunov


6.1.1 Système non-linéaire
Soit un système libre de vecteur d’état x et d’équation d’état ẋ = f (x). Soit x0 un point
stable candidat. Il doit alors vérifier la condition d’équilibre f (x0 ) = 0. De plus, il faut aussi que
que ce point soit attractif, c’est-à-dire que les trajectoires de x convergent vers x0 .

Définition 15 (Stabilité au sens de Lyapunov)


x0 est un point stable au sens de Lyapunov s’il existe une fonction scalaire V (x) vérifiant les
conditions suivantes :
— V (x) > V (x0 ) pour x 6= x0
d
— dt (V (x)) < 0 pour x 6= x0
Une telle fonction V (x) est dite fonction d’énergie du système ou fonction de Lyapunov.

A partir d’une condition initiale xi différente de x0 , l’énergie interne du système va décroı̂tre


jusqu’à atteindre son minimum qui correspond à l’unique point x0 ; l’état du système tendra
donc nécessairement vers x0 .
Pour démontrer la stabilité par cette méthode, la difficulté réside dans le choix d’une “bonne”
fonction d’énergie. Une classe de fonctions souvent utilisées sont les fonction quadratiques V (x) =
(x − x0 )T Q(x − x0 ) avec Q = QT > 0 ; on parle alors de stabilité quadratique.
Pour la fonction d’énergie choisie, il reste à démontrer que dt d
(V (x)) = dVdx(x) f (x) < 0 pour
tout x.

6.1.2 Système linéaire


Dans ce cas, f (x) = Ax. Le point d’équilibre candidat est x = 0. En choisissant V (x) = xT Qx
avec Q = QT > 0, la condition de stabilité s’écrit alors xT (AT Q + QA)x < 0 pour x 6= 0, ce
qui s’écrit aussi AT Q + QA < 0 et qui signifie que toutes les valeurs propres (réelles) de la
matrice symétrique AT Q + QA sont strictement négatives. La stabilité quadratique peut ainsi
se caractériser par un système de LMI dont l’inconnue est la matrice symétrique Q :

Q > 0 (6.1)
T
A Q + QA < 0 (6.2)

Remarque : dans ce cas, cette stabilité (quadratique de Lyapunov) est équivalente à la sta-
bilité au sens classique dont le critère est que la matrice A ait ses valeurs propres à partie réelle
négative.

49
50 CHAPITRE 6. ANALYSE DES SYSTÈMES LPV INCERTAINS

6.1.3 Système LPV


Pour un système LPV autonome ẋ = A(θ)x, la condition de décroissance s’écrit (A(θ))T Q +
QA(θ) < 0 pour tout θ dans l’ensemble admissible. En absence d’hypothèse supplémentaires sur
la dépendance en θ de A, nous trouvons alors devant une infinité de conditions LMI à vérifier 1
(pour chaque valeur des paramètres). Une issue consiste à se ramener à un nombre fini de LMI en
discrétisant l’ensemble des paramètres. L’inconvénient de cette méthode réside dans le nombre
élevé de LMI à résoudre, même pour un petit nombre de paramètres ; elle est irréaliste dans le
cas de systèmes dépendant d’un nombre élevé de paramètres.
Dans le cas d’un système LPV affine ou polytopique, on vérifie qu’il suffit que la condition
soit vérifiée au sommets de l’espace pour qu’elle le soit sur l’ensemble du domaine. En effet, si
A = Σαk Ask , V̇ = Σαk xT ((Ask )T Q + QAsk )xT . Il suffit de vérifier ((Ask )T Q + QAsk ) < 0 pour tout
k. L’étude de la stabilité quadratique d’un système LPV affine ou polytopique s’étudie par le
système de 2p + 1 LMI suivantes où p est le nombre de paramètres :

Q > 0 (6.3)
(Ask )T Q + QAsk < 0 (6.4)

Remarquez que la stabilité quadratique d’un système LPV n’est, dans le cas général, qu’une
condition suffisante de stabilité. En effet, la stabilité pourrait être établie avec des fonction de
Lyapunov non quadratiques.

6.1.4 Maximisation du taux de décroissance


Plutôt que de se contenter d’assurer que V décroı̂t, il est intéressant de chercher à maximiser
cette décroissance. Dans le cas d’une fonction quadratique V (x) = xT Qx, on peut chercher à
assurer V̇ (x) < τ xT x où le taux de croissance τ est un scalaire ; il est négatif si le système est
stable. Pour un système linéaire, il s’agit donc de trouver Q = QT et τ minimal vérifiant :

Q > 0 (6.5)
T
A Q + QA < τ I (6.6)

Il s’agit d’un problème de valeurs propres généralisées. Ce résultat est généralisable aux systèmes
LPV affine et polytopique ; on assure alors un taux de décroissance minimal sur le domaine.

6.1.5 Matrice de Lyapunov dépendant des paramètres


Dans le cas d’un système LPV, on peut introduire une matrice de Lyapunov Q(θ) dépendant
des paramètres. La dérivée de l’énergie s’écrit alors :
dV
= ẋT Qx + xT Qẋ + xT Q̇x (6.7)
dt
= ẋT (AT Q + QA + Q̇)x, (6.8)
Q(θ(t)) ∂Q
où Q̇ = dt = Σ ∂θ k
θ̇k . La stabilité est donc assurée si :

Q(θ) > 0 ∀ θ ∈ Θ (6.9)


T
A Q + QA + Q̇ < 0 ∀ θ ∈ Θ et θ̇ ∈ Γ (6.10)

où Θ est l’ensemble de variation des paramètres et Γ celui des variations de θ̇ ; comme on l’a
fait pour Θ, on suppose que chaque composante de θ̇ est bornée, c’est-à-dire que θ̇k ≤ θ̇k ≤ θ̇k .
Dans le cas général, cette inégalité peut être vérifiée en échantillonnant Θ et Γ.
Restreignons nous désormais à des matrices de Lyapunov dépendant de manière affine des
paramètres : Q(θ) = Q0 + θ1 Q1 + θ2 Q2 · · · . Il suffit alors de vérifier la positivité de Q aux
1. On parle en fait de LMI semi-infinie dans le cas ou les paramètres sont bornés ; le terme de LMI infi-
nieLMI !infinie s’appliquant au cas ou les paramètres ne sont pas bornés
6.2. DISSIPATIVITÉ, NORME H∞ 51

sommets de Θ, c’est-à-dire sur Θs . On observe alors que Q̇ = θ̇1 Q1 + θ̇2 Q2 · · · = Q(θ̇) − Q0 .


L’inégalité à vérifier s’écrit alors :

Q(θ) > 0 ∀θ ∈ Θs (6.11)


T s
(A(θ)) Q(θ) + Q(θ)A(θ) + Q(θ̇) − Q0 < 0 ∀ (θ, θ̇) ∈ Θ × Γ . (6.12)

Dans le cas d’un système LPV affine (A(θ) = A0 + θ1 A1 · · · ), il s’agit d’une inégalité matricielle
polynomiale d’ordre 2 qu’on ne peut résoudre avec les techniques classiques. Par contre, il est
possible d’obtenir une condition suffisante sous forme de LMI. Pour cela, nous allons nous
appuyer sur le résultat suivant :

Lemme 5 (Condition suffisante de négativité)


Soit f une fonction de E vers R où E est un parallélépipède rectangle (E = [x1 ; x1 ]×[x2 ; x2 ] · · · ).
Notons E s l’ensemble des sommets de E (E s = {(x1 , x2 , ...), (x1 , x2 , . . .) . . .}). La proposition (ii)
implique la proposition (i)
i. f (x) < 0 ∀x ∈ E
ii. (
f (x) < 0 ∀x ∈ E s
∂2f (6.13)
∂xk ≥ 0 ∀x ∈ E

Pour que la fonction f soit négative, il suffit qu’elle soit négative aux sommets et qu’elle soit
multiconvexe. Remarquons que la multiconvexité, c’est-à-dire la convexité dans chacune des
directions des axes de l’espace est une condition moins forte que la convexité (la convexité
implique la multiconvexité). Pour comprendre ce résultat, prenons l’exemple d’une fonction de
R2 . L’ensemble de départ E est donc un rectangle. Supposons que les conditions (ii) soient
vérifiées. Il est alors évident que f (x) < 0 sur chacun des cotés du rectangle, par convexité.
Ensuite, pour un point à l’intérieur du rectangle, on peut dire qu’il appartient à un segment
parallèle à l’un des bords du rectangle ; par convexité, f est négative en tous les points de ce
segment.
Il s’agit alors d’appliquer ce lemme à l’inégalité matricielle (6.12) avec E = Θ × Γ et E s =
Θs × Γs . La condition de multiconvexité se ramenant à ATk Qk + Qk Ak ≥ 0 ∀k ≥ 1, on obtient le
système de LMI suivant :

Q(θ) > 0 ∀θ ∈ Θs (6.14)


T s s
(A(θ)) Q(θ) + Q(θ)A(θ) + Q(θ̇) − Q0 < 0∀θ ∈ Θ et θ̇ ∈ Γ (6.15)
ATk Qk + Qk Ak ≥ 0 ∀k ≥ 1 (6.16)

Remarque : la stabilité quadratique simple (avec matrice de Lyapunov constante) est un cas
particulier de la stabilité quadratique avec matrice de Lyapunov dépendant des paramètres. Il
suffit en effet de choisir Qk = 0 ∀ k ≥ 1.

6.2 Dissipativité, norme H∞


6.2.1 Système LPV
Comme pour la passivité, on peut garantir des propriétés d’un système LPV en passant par
un échantillonnage de l’ensemble Θ de variation des paramètres. Cependant, dans le cas d’un
système LPV affine, il existe un résultat sous forme d’un système comportant un nombre fini de
LMI. En effet, l’équation (6.18) qui comporte des produits des matrices d’état (ce qui entraı̂ne
le caractère non linéaire de l’inégalité, même pour un système LPV affine) peut se transformer
via le complément de Schur :
52 CHAPITRE 6. ANALYSE DES SYSTÈMES LPV INCERTAINS

Lemme 6 (Lemme borné réel 2)


Un système dynamique continu linéaire de matrices d’état A, B, C et D a une norme H∞
inférieure à γ si et seulement si il existe une matrice Q = QT vérifiant :

Q>0 (6.17)

AT Q + QA QB C T
 
 BT Q −γI DT  < 0 (6.18)
C D −γI

Démonstration 5
En appliquant le complément de Schur à la relation ci-dessus avec la décomposition :
 T 
A Q + QA QB
Q= (6.19)
BT Q −γI

R = −γI (6.20)
 T 
C
S= (6.21)
DT
et en multipliant par γ on obtient la première forme du lemme borné réel où la matrice de
Lyapunov est γQ. Les deux formes sont bien équivalentes puisque γ > 0.

La seconde forme du Lemme borné réel a l’avantage de ne pas faire apparaı̂tre de produit
des matrices d’état. Ainsi, pour un système LPV affine, la LMI dépend de manière affine des
paramètres. Pour que la LMI soit vérifiée sur l’ensemble du domaine, il suffit qu’elle le soit aux
sommets de l’espace des paramètres. On peut alors énoncer le théorème suivant :
Théorème 12 (Dissipativité d’un système LPV affine)
Un système LPV affine est stable pour toute trajectoire de θ dans Θ et sa norme H∞ est
inférieure à γ pour tout θ figé dans Θ si le lemme borné réel 2 est vérifié pour tout θ ∈ Θs .
Ce résultat est immédiat du fait du caractère affine de l’inégalité matricielle et du fait du
caractère affine de la dépendance des matrices d’état en fonction des paramètres.

6.2.2 Dissipativité avec matrice de Lyapunov dépendant des paramètres


Comme nous l’avons fait pour la passivité, nous pouvons introduire une matrice de Lyapunov
Q(θ) dépendant des paramètres (en abrégé PDLF pour parameter-dependent Lyapunov function)
pour traiter le problème de la dissipativité. Remarquons tout de suite que seule la fonction
d’énergie xT Qx est affectée ; la fonction S(u, y) de flux d’énergie n’est en rien concernée par ce
changement. Comme pour la passivité, le terme AT Q + QA est désormais affecté d’un terme
supplémentaire Q̇. Pour un système LPV, sous pouvons alors énoncer le résultat suivant :

Théorème 13 (LMI semi-infinie de dissipativité avec PDLF)


Le système LPV est S-dissipatif (S(u, y) = −y T y + γuT u) s’il existe des matrices symétriques
Q0 , Q1 ... avec Q(θ) = Q0 + θ1 Q1 · · · telles que :

Q(θ) > 0 ∀θ ∈ Θs (6.22)


T
 
M (θ, θ̇) Q(θ)B(θ) C(θ)
 (B(θ))T Q(θ) −γI (D(θ))T  < 0 ∀ (θ, θ̇) ∈ Θ × Γ (6.23)
C(θ) D(θ) −γI

où M (θ, θ̇) = (A(θ))T Q(θ) + Q(θ)A(θ) + Q̇(θ).

Cette caractérisation est une LMI semi-infinie. Comme nous l’avions fait pour la passivité
dépendant des paramètres, on peut obtenir une caractérisation plus conservative sous forme d’un
nombre fini de LMI, ce qui est fait dans le théorème ci-dessous.
6.3. APPLICATION À UN SYSTÈME MÉCANIQUE 53

y
actionneur transmission charge
souple
u
r
régulateur

Figure 6.1 – Schema du système mécanique étudié

Théorème 14 (Condition LMI de dissipativité avec PDLF)


Le système LPV est S-dissipatif (S(u, y) = −y T y + γuT u) s’il existe des matrices symétriques
Q0 , Q1 ... avec Q(θ) = Q0 + θ1 Q1 · · · telles que :

Q(θ) > 0 ∀θ ∈ Θs (6.24)


Q(θ)B(θ) C(θ)T
 
M̃ (θ, θ̇)
 (B(θ))T Q(θ) −γI (D(θ))T  < 0 ∀ (θ, θ̇) ∈ Θs × Γs (6.25)
C(θ) D(θ) −γI
 T 
Ak Qk + Qk Ak Qk Bk
≥ 0∀k≥1 (6.26)
BkT Qk 0

où M̃ (θ, θ̇) = (A(θ))T Q(θ) + Q(θ)A(θ) + Q(θ̇) − Q0 .

6.3 Application à un système mécanique


On traite dans cette partie la modélisation d’un système dynamique sous forme LPV affine
et sous forme LFR. Des résultats d’analyse par différentes méthodes sont présentés.

6.3.1 Présentation du système


Le système est présenté sur la figure 6.1. Il est composé de deux sous-systèmes d’inerties
respectives J1 et J2 et de coefficients de dissipation (frottements fluides) f1 et f2 reliées par
un accouplement de raideur K et de coefficient de dissipation f . Le premier sous-système est
actionné et on commande le couple u. On note qk les positions et Ωk les vitesses. On cherche
à asservir la vitesse Ω2 du second sous-système. On considère que la raideur K et l’inertie J2
sont entachées d’incertitudes. Les valeurs nominales des paramètres sont J1 = J2 = 10 mkg.m2 ,
f1 = f2 = 20 mNms/rad, f = 40 mNms/rad, K = 10 N/rad. On considère des variations de
50 % sur K et sur J12 .
Le couple transmis par la liaison flexible entre les deux sous-systèmes est CK = K(q1 − q2 ) +
f (Ω1 − Ω2 ). Les équations de la dynamique appliquées aux deux sous-systèmes s’écrivent :
dΩ1
J1 = u − CK − f1 Ω1 (6.27)
dt
dΩ2
J2 = CK − f2 Ω2 (6.28)
dt
Il s’agit d’un modèle linéaire d’ordre 4. Il peut s’écrire sous forme d’état avec x = [q1 Ω1 q2 Ω2 ]T
et les matrices d’état suivantes :
 
0 1 0 0
 
0
 − K − f +f1 K f   1 
A =  J1 J1 J1 J1
 , B= J1  (6.29)
 
 0 0 0 1   0 
f
K
J2 J2 − JK2 − f +fJ2
2
0
 
C= 0 0 0 1 , D=0 (6.30)
54 CHAPITRE 6. ANALYSE DES SYSTÈMES LPV INCERTAINS

Figure 6.2 – Lieu de Bode du système mécanique

Ce modèle a l’inconvénient d’être non observable. En effet, seule la différence q1 − q2 des


positions a de l’influence sur la mesure Ω2 ; la somme étant sans effet 2 . Ainsi, il est préférable
de simplifier les équations en notant q̃ = q1 − q2 et qui vérifie l’équation :
q̃˙ = Ω1 − Ω2 (6.31)
En reprenant les équations de la dynamique avec CK = K q̃ + f (Ω1 − Ω2 ), on peut écrire le
modèle d’état avec x = [Ω1 Ω2 q̃]T et les matrices d’état :
 
− f +f f
− JK1
1
 1 
J1 J1 J1
A =  Jf − f +f2 K  , B = 0  (6.32)

2 J2 J2 
1 −1 0 0
 
C= 1 0 0 , D=0 (6.33)
Le lieu de Bode 3 du système mécanique est présenté sur la figure 6.2. La résonance se situe
entre 40 et 50 rad/s. Afin d’asservir la vitesse de la charge, on a choisi un correcteur de fonction
de transfert :
2(s + 2)
K(s) = (6.34)
(s + 10)(s + 0, 01)
Il s’agit d’un correcteur de type PI 4 avec une troncature du terme intégral pour les pulsations
inférieures à 10 mrad/s et un filtrage passe bas du premier ordre pour les fréquences supérieures
à 10 rad/s. La réponse du système nominal asservi à un échelon unitaire est donnée sur la
figure 6.3. On note un dépassement de l’ordre de 15 % et un temps de réponse à 5 % de 500 ms.

6.3.2 Analyse à partir du modèle LPV


Modélisation
le modèle développé ci-dessus fait apparaı̂tre des produits entre les variables incertaines K et
1
J2 et ne peut s’écrire directement comme un modèle LPV affine. Cela sera rendu possible par un
2. Ajouter un offset identique sur les conditions initiales de q1 et q2 est sans effet sur la trajectoire de Ω2 .
3. Hendrik Wade Bode a vécu de 1905 à 1982. Américain d’origine hollandaise, il est considéré comme un
pionnier de la régulation et des télécommunications. Voir [Link]
4. Ce correcteur simple a été développé pour illustrer les procédures d’analyse de robustesse. De meilleurs
résultats peuvent-être obtenus avec un correcteur d’ordre plus élevé comme ceux obtenus par les méthodes H∞ .
Vous trouverez un exemple dans [19], article disponible depuis le réseau de l’ULP sur le cite du SCD (http ://www-
[Link], rubrique Revues électroniques) ou à partir du cite du LSIIT (http ://[Link]).
6.3. APPLICATION À UN SYSTÈME MÉCANIQUE 55

Figure 6.3 – Réponse à un échelon du système nominal asservi

changement de variable d’état x = [J1 Ω1 J2 Ω2 θ̃]T . Remarquons que ce changement de variable


est justifié par la physique car, en présence d’inerties variables, les équations de la dynamique
s’écrivent rigoureusement sous la forme :
d
(J1 Ω1 ) = u − CK − f1 Ω1 (6.35)
dt
d
(J2 Ω2 ) = CK − f2 Ω2 (6.36)
dt
Le modèle d’état s’écrit alors avec les matrices suivantes :
 
− f +f 1 f
−K
 
J1 J2 1
A =  − Jf1 − f +f 2
K , B =  0  (6.37)
 
J2 
1 1 0
J1 − J2 0

C = 0 J12 0 , D = 0
 
(6.38)
Les matrices d’état s’expriment de manière affine en fonction des paramètres incertains K et J12 .
En notant par commodité :  
A B
M= (6.39)
C D
1
le modèle s’écrit M = M0 + KM1 + J2 M 2 avec :

− f +f
 
1
0 0 1
 − J11 0 0 0 
M0 = 
 J1 
(6.40)
 Jf1

0 0 0 
0 0 0 0
 
0 0 −1 0
 0 0 1 0 
M1 =   0 0 0 0 
 (6.41)
0 0 0 0
 
0 f 0 0
 0 −(f + f2 ) 0 0 
M2 =   (6.42)
 0 −1 0 0 
0 1 0 0
Le script de définition du modèle sous Matlab est donné ci-dessous 5 :
5. Les codes Matlab de cette partie requièrent la boite à outil LMI toolbox ou la version 3 ou postérieure de
la Robust Control Toolbox.
56 CHAPITRE 6. ANALYSE DES SYSTÈMES LPV INCERTAINS

Aa0 = [ 1/J1*[-(f+f1); f; 1] zeros(3,2) ];


Aa1 = [zeros(3,2) [-1; 1; 0]];
Aa2 = [zeros(3,1) [f; -(f+f2); -1] zeros(3,1)];
Ba0 = [1; 0; 0]; Ba1 = zeros(3,1); Ba2 = Ba1;
Ca0 = zeros(1,3); Ca1 = Ca0; Ca2 = [0 1 0];
Da0 = 0; Da1 = 0; Da2 = 0;
S0 = ltisys(Aa0,Ba0,Ca0,Da0);
S1 = ltisys(Aa1,Ba1,Ca1,Da1,zeros(3));
S2 = ltisys(Aa2,Ba2,Ca2,Da2,zeros(3));
K0 = 10; w1 = 5; % pondération sur K
J20 = 1e-2; w2 = 50; % pondération sur 1/J2
range = [K0-w1 K0+w1; 1/J20-w2 1/J20+w2];
pv = pvec(’box’,range)
sysGaff = psys(pv,[S0,S1,S2]);
psinfo(sysGaff)

Robustesse en stabilité
Le correcteur est défini comme suit :
Kp = 2; ti = 1; w1K = 2 ; w2K = 10;
NumK = Kp*[1 w1K]; DenK = conv([1 1e-2],[1 w2K]);
sysK = nd2sys(NumK,DenK);
On calcule le système en boucle ouverte composé du correcteur et du process :
sysboaff = smult(sysK,sysGaff);
On peut ensuite définir le système bouclé, ayant comme entrée la référence et comme sortie
l’erreur, par une simple lft :
sysbfaff = slft([1 -1; 1 -1],sysboaff);
On peut ensuite étudier la stabilité quadratique avec une matrice de Lyapunov constante :
[tau,P] = quadstab(sysbfaff);
On obtient tau = -0.0039 négatif, ce qui montre que le système est robustement stable. La
stabilité quadratique avec matrice de Lypaunov dépendant des paramètres de manière affine est
étudiée avec :
[tau2,Q0,Q1,Q2] = pdlstab(sysbfaff);
qui donne tau2 = -0.0222, et qui montre que le système est robustement stable 6 .

Robustesse en performance
On calcule la norme H∞ du système avec :
[perf,Pp] = quadperf(sysbfaff);
On obtient un gain de 1,77, ce qui correspond à une marge de module pire cas (distance au point
-1 dans le lieu de Nyquist 7 ) de 0,564.
On peut étudier la robustesse en performance en ajoutant une pondération fréquentielle
W1 (s) sur l’erreur et en calculant la norme H∞ du transfert entre la référence et la sortie de
W1 (s). On définit la pondération comme suit :
w1c = 8; NumW1 = 0.5*[1 1/w1c]; DenW1 = [1 1e-3];
W1lti = ltisys(’tf’,NumW1,DenW1);
6. L’utilisation de matrice de Lypunov dépendant des paramètres aboutit à une évaluation moins concervative
de la stabilité ; ce résultat est donc évident dès lors que la stabilité quadratique avec matrice de Lyapunov constante
est vérifiée.
7. Harry Nyquist est né en 1889 en Suède et est décédé en 1976 aux États-Unis. Il a fortement contribué à la
théorie de l’information et à l’automatique. Voir [Link]
6.3. APPLICATION À UN SYSTÈME MÉCANIQUE 57

Figure 6.4 – Schéma-bloc du modèle dynamique d’ordre 3

Le système pondéré est calculé par :


sysbfaffp = smult(sysbfaff,W1lti);
et on calcule la norme H∞ du système avec :
[perf,Pp] = quadperf(sysbfaffp);
On obtient une norme de 0,863, ce qui montre que la sensibilité en sortie (le transfert entre la
référence et l’erreur) vérifie le gabarit W1−1 (s) avec une marge de robustesse de 1,13. Le système
est robuste en performance.

6.3.3 µ-analyse
La µ-analyse est une analyse de robustesse qui s’appuie sur la notion de valeur singulière
structurée. Le modèle doit-être donné sous forme de LFR.

Modèle LFR
La méthode la plus simple pour obtenir une représentation LFR d’un système consiste à
travailler sur le schéma-bloc et à la simplifier au maximum de sorte à faire intervenir un nombre
minimum de fois chacun des paramètres. Dans le cas du système mécanique considéré, chaque
paramètre peut être utilisé une seule fois, comme le montre le schéma de la figure 6.4.
A partir de ce schéma, il est possible de construire simplement la LFR en remplaçant chaque
paramètre incertain par une entrée vk et une sortie zk . Ainsi, en remplaçant la raideur K par v1
et z1 puis J12 par v2 et z2 , on obtient le modèle présenté sur la figure 6.5.
Ce modèle se met alors sous la forme (3.16-3.18) avec :

−(f + f 1)/J1 0 −1
 
0 f 1
   f /J1 0 0 1 −(f + f 2) 0 
A B 1 B2  

 C1 D11 D12  =  1/J1 0 0 0 −1 0 
 (6.43)
 0 0 1 0 0 0 
C2 D21 D22  
 0 1 0 0 0 0 
0 0 0 0 1 0

On observe que la matrice D11 est nulle, ce qui fait que le modèle LFR est aussi un modèle LPV
affine.
Une étape de normalisation est ensuite opérée. Les paramètres K et J12 sont respectivement
remplacés par K0 + w1 δ1 et J120 + w2 δ2 où δ1 et δ2 sont deux paramètres dont les variations sont
58 CHAPITRE 6. ANALYSE DES SYSTÈMES LPV INCERTAINS

Figure 6.5 – Schéma-bloc du modèle LFR

Figure 6.6 – Schéma-bloc du modèle LFR normalisé


6.3. APPLICATION À UN SYSTÈME MÉCANIQUE 59

comprises entre -1 et 1. Le schéma correspondant est celui de la figure 6.6. Le script de définition
du modèle LFR normalisé est donné ci-dessous 8 :
A = [-(f+f1)/J1 f/J20 -K0; f/J1 -(f+f2)/J20 K0; 1/J1 -1/J20 0];
B1 = [-1 f; 1 -(f+f2); 0 -1];
B2 = [1; 0; 0];
C1 = [0 0 w1; 0 w2 0];
C2 = [0 1/J20 0];
D11 = zeros(2);
D12 = zeros(2,1);
D21 = [0 1];
D22 = 0;
sysLFR = pck(A,[B1 B2],[C1;C2],[D11 D12; D21 D22]);
blk = [-1 0; -1 0]; % structure des incertitudes
La variable blk indique que le système contient deux incertitudes réelles scalaires 9 .

Robustesse en stabilité
On présente ensuite les résultats d’analyse de la robustesse en stabilité à partir du modèle
bouclé. Après avoir défini le correcteur au format adéquat :
Kp = 2; ti = 1; w1K = 2 ; w2K = 10;
NumK = Kp*[1 w1K]; DenK = conv([1 1e-2],[1 w2K]);
Ktf = tf(NumK,DenK);
sysK = nd2sys(NumK,DenK);
La définition du modèle bouclé peut se faire à partir de la fonction sysic de la manière
suivante :
systemnames = ’ sysLFR sysK ’;
inputvar = ’[ v{2}]’;
outputvar = ’[ sysLFR(1:2) ]’;
input to sysK = ’[ -sysLFR(3) ]’;
input to sysLFR = ’[ v;sysK ]’;
sysoutname = ’sysLFRbf’;
cleanupsysic = ’yes’;
sysic;
Avant d’analyser la robustesse, il importe de vérifier que le modèle nominal (avec des incer-
titudes nulles) est stable 10 . Cela peut se faire de la manière suivante :
if max(real(spoles(sysLFRbf))) >= 0,
disp(’Système nominal instable’)
else
disp(’Système nominal stable’)
end
Le calcul de la valeur singulière singulière structurée sur un ensemble de valeurs de la pulsa-
tion se fait ainsi :
TabPuls = logspace(0,2,400);
sysLFRbf w = frsp(sysLFRbf,TabPuls);
[bnds,rowd,sens,rowp,rowg] = mu(sysLFRbf w,blk);

8. Les codes Matlab de cette partie requièrent la boite à outil µ-analysis and synthesis toolbox ou la version
3 ou postérieure de la Robust Control Toolbox.
9. Chaque ligne de la variable code un bloc d’incertitude. Les incertidudes réelles diagonales rI sont codées
par [-r 0] ; les incertitudes complexes diagonales cI sont codées par [c 0] ; les incertitudes complexes pleine de
taille l × c sont codées par [l c].
10. Une valeur de µ inférieure à 1 signifie qu’aucun pôle ne traverse l’axe imaginaire mais ne garantie pas que
le système nominal est stable.
60 CHAPITRE 6. ANALYSE DES SYSTÈMES LPV INCERTAINS

Figure 6.7 – Valeur singulière structurée pour l’analyse en stabilité (borne supérieure et borne
inférieure)

Figure 6.8 – Schéma-bloc du modèle LFR pour l’analyse en performance

figure
vplot(’liv,m’,bnds)

et donne le tracé de la figure 6.7. On note un majorant de 0,55 de la borne supérieure et un


minorant de 0,53 de la borne inférieure, d’où une marge de robustesse de l’ordre de 1,8. Remar-
quons que la borne inférieure a de grandes difficultés à converger. C’est là une caractéristique
de la borne inférieure pour les problèmes purement réels.

Robustesse en performance
Le calcul de la robustesse en performance se fait en incluant une pondération W1 (s) sur
l’erreur de régulation 11 et en ajoutant une incertitude complexe pleine entre la sortie de W1 (s)
et la référence. Le schéma du système est présenté sur la figure 6.8. La pondération est définie
sous Matlab comme suit :
w1c = 8; NumW1 = 0.25*[1 1/w1c]; DenW1 = [1 1e-3];
W1 = nd2sys(NumW1,DenW1);
On définit ensuite le modèle bouclé sous forme LFR :
systemnames = ’ sysLFR sysK W1’;
inputvar = ’[ v{2}; vp]’;
11. Avec une pondération placée sur l’erreur de régulation, on peut traiter les problèmes de bande-passante, de
marge de module et de précision statique.
6.3. APPLICATION À UN SYSTÈME MÉCANIQUE 61

Figure 6.9 – Valeur singulière structurée pour l’analyse en performance (borne supérieure et
borne inférieure)

outputvar = ’[ sysLFR(1:2); W1 ]’;


input to sysK = ’[ vp-sysLFR(3) ]’;
input to sysLFR = ’[ v;sysK ]’;
input to W1 = ’[ vp-sysLFR(3) ]’;
sysoutname = ’sysLFRbfp’;
cleanupsysic = ’yes’;
sysic;
Le tracé de la valeur singulière structurée se fait avec le script ci-dessous :
sysLFRbfp w = frsp(sysLFRbfp,TabPuls);
blkp = [blk; [1 0]]; % ajout de l’incertitude complexe liée aux performances
[bnds,rowd,sens,rowp,rowg] = mu(sysLFRbfp w,blkp);
figure
vplot(’liv,m’,bnds)

et donne les résultats présentés sur la figure 6.9. On observe que les bornes supérieure et
inférieure sont proches ; l’ajout d’une incertitude complexe pour l’analyse en performance permet
de régulariser le problème. Le système est robuste en performance avec une marge de robustesse
de 1,5 (1/0,66). C’est-à-dire que le système maintient les performances définies par le gabarit
W1−1 (s) sur la sensibilité en sortie (le transfert entre la référence et l’erreur de régulation) pour
toutes les valeurs des paramètres dans les intervalles prédéfinis.

6.3.4 Lieu des pôles


L’étude du lieu des pôles multimodèle présentée ici s’appuie sur une modélisation LFR
présentée dans le paragraphe 6.3.3. Elle utilise des fonctions développée par l’auteur (archive
des fichiers : [Link]
Le lieu des pôles multimodèle, tracé sur la figure 6.10, obtenu par un échantillonnage de
l’espace paramétrique est obtenu par :
[poles,para0] = polesMM(sysLFRbf,blk,5);
figure
plot(real(poles),imag(poles),’*’)
On observe que la partie réelle des pôles demeure inférieure à -1,9 ; le système est donc robuste-
ment stable.
62 CHAPITRE 6. ANALYSE DES SYSTÈMES LPV INCERTAINS

Figure 6.10 – Lieu des pôles multimodèle pour les variations nominales des paramètres (5×5
modèles)

Figure 6.11 – Évolution de la partie rélle pire-cas des pôles en fonction du coefficient de dila-
tation de l’ensemble de variation des paramètres (5×5 modèles)
6.3. APPLICATION À UN SYSTÈME MÉCANIQUE 63

Figure 6.12 – Lieu des pôles multimodèle pour les variations maximales des paramètres (10×10
modèles)

On peut tracer l’évolution de la partie réelle maximale en fonction d’un coefficient r que l’on
applique au domaine de variation des paramètres. Les résultats produits sur la figure 6.11 sont
obtenu avec les commandes :
tabr = linspace(0,3,40);
tabpole = [];
for ind = 1:length(tabr),
r = tabr(ind);
rsysLFR = mmult(r*eye(2),sysLFRbf);
[poles,para0] = polesMM(rsysLFR,blk,10);
tabpole = [tabpole max(real(poles))];
end
figure
plot(tabr,tabpole)
On observe qu’au moins un pôle est à partie réelle positive à partir d’une dilatation de 1.875.
Cette valeur est aussi la marge de robustesse obtenue.
Cette valeur peut être obtenue automatiquement par dichotomie avec la commande :
[Mu,para] = mumm(sysLFRbf,blk,10,1,1,[])
On obtient Mu = 0.5334 et para = [-1.0000 -0.1111], ce qui montre que la marge de robus-
tesse est de 1.8746 et le pire cas est obtenu pour les incertitudes normalisées δ1 = −1, 8746 et
δ2 = −0, 2083. Remarquons que, dans le cas présent, le pire cas n’est pas obtenu sur un sommet
de l’espace paramétrique.
Le lieu des pôles multimodèle avec les variations maximales des paramètres, présenté sur
la figure 6.12, est obtenu en multipliant le canal de ∆ par 1/µ et en traçant les pôles pour
||∆||∞ ≤ 1, ce que fait le script suivant :
rsysLFR = mmult(1/Mu*eye(2),sysLFRbf);
[poles,para0] = polesMM(rsysLFR,blk,10);
figure
plot(real(poles),imag(poles),’*’)
On observe bien que l’ensemble des pôles sont à partie réelle négative ; cependant, certains ont
une partie réelle proche de zéro et sont en limite de stabilité.
64 CHAPITRE 6. ANALYSE DES SYSTÈMES LPV INCERTAINS
Bibliographie

[1] G. Duc and S. Font, Commande H∞ et µ-analyse, Hermes Science Publications, Paris,
1999.
[2] K. Zhou, J. C. Doyle, and K. Glover, Robust and Optimal Control, Prentice-Hall, 1996.
[3] S. Skogestad and I. Postlethwaite, Multivariable Feedback Control, Wiley and Sons, 1996.
[4] C. Scherer, Theory of Robust Control, Delft University of Technology, 2001, Notes de cours,
[Link]
[5] C. Scherer and S. Weiland, Linear Matrix Inequalities in Control, Delft University of Tech-
nology, 2005, Notes de cours, [Link]
pdf.
[6] D. Arzelier, “Robust control,” 2006, Diaporama de cours, [Link]
arzelier/[Link].
[7] P. Gahinet, A. Nemirovski, A. J. Laub, and M. Chilali, LMI Control Toolbox, The Math-
Works Inc., 1995.
[8] G. Balas, R. Chiang, A. Packard, and M. Safonov, Robust Control System Toolbox User’s
Guide, The MathWorks Inc., 2005-2006.
[9] R. D. Braatz, P. M. Young, J. C. Doyle, and M. Morari, µ-Analysis and Synthesis Toolbox :
Users’s Guide, MUSYN Inc. and The MathWorks, 1998.
[10] D. Peaucelle, RoMulOC a YALMIP-MATLAB based Robust Multi Objective Control Tool-
box, 2005.
[11] Y. Nesterov and A. Nemirovski, Interior-point Polynomial Methods in Convex Program-
ming, SIAM, 1994.
[12] D. Peaucelle, D. Henrion, Y. Labit, and K. Taitz, User’s guide for SeDuMi interface, LAAS
- CNRS, http ://[Link]/˜peaucell/[Link], 2002.
[13] G. Duc, Robustesse des Systèmes Linéaires Multivariables, École Supérieure d’Électricité,
1994.
[14] The MathWorks Inc., Getting Started with the Control System Toolbox, 2000-2002.
[15] C. Scherer, P. Gahinet, and M. Chilali, “Multi-objective output-feedback control via LMI
optimization,” IEEE Trans. Autom. Control, vol. 42, no. 7, pp. 896–911, 1997.
[16] P. Gahinet and P. Apkarian, “A linear matrix inequality approach to H∞ control,” Int. J.
Robust Nonlin. Control, vol. 4, no. 4, pp. 421–448, 1994.
[17] J.F. Magni, “Linear fractional representation with a toolbox for use with Matlab,” Tech.
Rep., ONERA, 2001.
[18] E. Laroche and D. Knittel, “An improved linear fractional model for robustness analysis of
a winding system,” Control Engineering Practice, vol. 13, no. 5, pp. 659–666, 2005.
[19] E. Laroche, Y. Bonnassieux, H. Abou-Kandil, and J.-P. Louis, “Controller design and
robustness analysis for induction machine-based positioning system,” Control Engineering
Practice, vol. 12, pp. 757–767, 2004.
[20] E. Laroche, “Robustness analysis of nonlinear systems - application to induction motor,”
in IFAC World Congress, Prague, Praha, July 2005.

65
66 BIBLIOGRAPHIE

[21] S. Gutman and E. Jury, “A general theory for matrix root-clustering in subregions of the
complex plane,” IEEE Trans. Autom. Control, vol. 26, no. 4, pp. 853–863, 1981.
[22] M. Chilali and P. Gahinet, “H∞ design with pole placement constraints : an LMI approach,”
IEEE Trans. Autom. Control, vol. 41, no. 3, pp. 358–367, 1996.
[23] D. Peaucelle and D. Arzelier, “A new robust d-stability condition for real convex polytopic
un,” Systems and Control Letter, vol. 40, pp. 21–30, 2000.
[24] K. Glover and J.C. Doyle, “State-space formulae for all stabilizing controllers that satisfy
an hnorm bound and relations to risk sensitivity,” Systems and Control letters, vol. 11, pp.
167–172, 1988.
[25] J.C. Doyle, K. Glover, P.P. Khargonekar, and B.A. Francis, “State-space solutions to
standard H2 and H∞ control problems,” IEEE Trans. Autom. Control, vol. 34, no. 8, pp.
831–847, 1989.
[26] D. C. McFarlane and K. Glover, “A loop shaping design procedure using H∞ synthesis,”
IEEE Trans. Autom. Control, vol. 37, no. 6, pp. 759–769, 1992.
[27] P.M. Young, “Structured singular value approach for systems with parametric uncertainty,”
Int. J. Robust Nonlinear Control, vol. 11, no. 7, pp. 653–680, 2001.

View publication stats

Vous aimerez peut-être aussi